Dyna Edition 189 - February of 2015

Page 1

DYNA Journal of the Facultad de Minas, Universidad Nacional de Colombia - Medellin Campus

DYNA 82 (189), February, 2014 - ISSN 0012-7353 Tarifa Postal Reducida No. 2014-287 4-72 La Red Postal de Colombia, Vence 31 de Dic. 2015. FACULTAD DE MINAS


DYNA

http://dyna.medellin.unal.edu.co/

DYNA is an international journal published by the Facultad de Minas, Universidad Nacional de Colombia, Medellín Campus since 1933. DYNA publishes peer-reviewed scientific articles covering all aspects of engineering. Our objective is the dissemination of original, useful and relevant research presenting new knowledge about theoretical or practical aspects of methodologies and methods used in engineering or leading to improvements in professional practices. All conclusions presented in the articles must be based on the current state-of-the-art and supported by a rigorous analysis and a balanced appraisal. The journal publishes scientific and technological research articles, review articles and case studies. DYNA publishes articles in the following areas: Organizational Engineering Civil Engineering Materials and Mines Engineering

Geosciences and the Environment Systems and Informatics Chemistry and Petroleum

Mechatronics Bio-engineering Other areas related to engineering

Publication Information

Indexing and Databases

DYNA (ISSN 0012-73533, printed; 2346-2183, online) is published by the Facultad de Minas, Universidad Nacional de Colombia, with a bimonthly periodicity (February, April, June, August, October, and December). Circulation License Resolution 000584 de 1976 from the Ministry of the Government.

DYNA is admitted in:

Contact information Web page: E-mail: Mail address: Facultad de Minas

http://dyna.unalmed.edu.co dyna@unal.edu.co Revista DYNA Universidad Nacional de Colombia Medellín Campus Carrera 80 No. 65-223 Bloque M9 - Of.:107 Telephone: (574) 4255068 Fax: (574) 4255343 Medellín - Colombia © Copyright 2014. Universidad Nacional de Colombia The complete or partial reproduction of texts with educational ends is permitted, granted that the source is duly cited. Unless indicated otherwise. Notice All statements, methods, instructions and ideas are only responsibility of the authors and not necessarily represent the view of the Universidad Nacional de Colombia. The publisher does not accept responsibility for any injury and/or damage for the use of the content of this journal. The concepts and opinions expressed in the articles are the exclusive responsibility of the authors.

The National System of Indexation and Homologation of Specialized Journals CT+I-PUBLINDEX, Category A1 Science Citation Index Expanded Journal Citation Reports - JCR Science Direct SCOPUS Chemical Abstract - CAS Scientific Electronic Library on Line - SciELO GEOREF PERIÓDICA Data Base Latindex Actualidad Iberoaméricana RedALyC - Scientific Information System Directory of Open Acces Journals - DOAJ PASCAL CAPES UN Digital Library - SINAB CAPES

Publisher’s Office Juan David Velásquez Henao, Director Mónica del Pilar Rada T., Editorial Coordinator Catalina Cardona A., Editorial Assistant Amilkar Álvarez C., Diagrammer Byron Llano V., Editorial Assistant Institutional Exchange Request DYNA may be requested as an institutional exchange through the Landsoft S.A., IT e-mail canjebib_med@unal.edu.co or to the postal address: Reduced Postal Fee Biblioteca Central “Efe Gómez” Tarifa Postal Reducida # 2014-287 4-72. La Red Postal Universidad Nacional de Colombia, Sede Medellín de Colombia, expires Dec. 31st, 2015 Calle 59A No 63-20 Teléfono: (57+4) 430 97 86 Medellín - Colombia


SEDE MEDELLÍN


SEDE MEDELLÍN


COUNCIL OF THE FACULTAD DE MINAS

JOURNAL EDITORIAL BOARD

Dean John Willian Branch Bedoya, PhD

Editor-in-Chief Juan David Velásquez Henao, PhD Universidad Nacional de Colombia, Colombia

Vice-Dean Pedro Nel Benjumea Hernández, PhD Vice-Dean of Research and Extension Verónica Botero Fernández, PhD Director of University Services Carlos Alberto Graciano, PhD Academic Secretary Carlos Alberto Zarate Yepes, PhD Representative of the Curricular Area Directors Néstor Ricardo Rojas reyes, PhD Representative of the Basic Units of AcademicAdministrative Management Germán L. García Monsalve, PhD

Editors George Barbastathis, PhD Massachusetts Institute of Technology, USA Tim A. Osswald, PhD University of Wisconsin, USA Juan De Pablo, PhD University of Wisconsin, USA Hans Christian Öttinger, PhD Swiss Federal Institute of Technology (ETH), Switzerland Patrick D. Anderson, PhD Eindhoven University of Technology, the Netherlands Igor Emri, PhD Associate Professor, University of Ljubljana, Slovenia

Representative of the Basic Units of AcademicAdministrative Management Gladys Rocío Bernal Franco, PhD

Dietmar Drummer, PhD Institute of Polymer Technology University ErlangenNürnberg, Germany

Professor Representative Jaime Ignacio Vélez Upegui, PhD

Ting-Chung Poon, PhD Virginia Polytechnic Institute and State University, USA

Delegate of the University Council León Restrepo Mejía, PhD

Pierre Boulanger, PhD University of Alberta, Canadá

Undergraduate Student Representative Rubén David Montoya Pérez

Jordi Payá Bernabeu, Ph.D. Instituto de Ciencia y Tecnología del Hormigón (ICITECH) Universitat Politècnica de València, España

FACULTY EDITORIAL BOARD Dean John Willian Branch Bedoya, PhD Vice-Dean of Research and Extension Verónica Botero Fernández, PhD Members Hernán Darío Álvarez Zapata, PhD Oscar Jaime Restrepo Baena, PhD Juan David Velásquez Henao, PhD Jaime Aguirre Cardona, PhD Mónica del Pilar Rada Tobón MSc

Javier Belzunce Varela, Ph.D. Universidad de Oviedo, España Luis Gonzaga Santos Sobral, PhD Centro de Tecnología Mineral - CETEM, Brasil Agustín Bueno, PhD Universidad de Alicante, España Henrique Lorenzo Cimadevila, PhD Universidad de Vigo, España Mauricio Trujillo, PhD Universidad Nacional Autónoma de México, México

Carlos Palacio, PhD Universidad de Antioquia, Colombia Jorge Garcia-Sucerquia, PhD Universidad Nacional de Colombia, Colombia Juan Pablo Hernández, PhD Universidad Nacional de Colombia, Colombia John Willian Branch Bedoya, PhD Universidad Nacional de Colombia, Colombia Enrique Posada, Msc INDISA S.A, Colombia Oscar Jaime Restrepo Baena, PhD Universidad Nacional de Colombia, Colombia Moisés Oswaldo Bustamante Rúa, PhD Universidad Nacional de Colombia, Colombia Hernán Darío Álvarez, PhD Universidad Nacional de Colombia, Colombia Jaime Aguirre Cardona, PhD Universidad Nacional de Colombia, Colombia



DYNA 82 (189), February, 2015. Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online

CONTENTS Editorial Juan D. Velásquez

9

3D Modeling and functional analysis of a Spanish historical invention of the nineteenth century for mineral extraction: The Emilina Machine

13

José Ignacio Rojas-Sola & Juan Pedro Martínez-Escobar

Aluminum coating by fluidized bed chemical vapor deposition on austenitic stainless steels AISI 304 and AISI 316 Jose Luddey Marulanda-Arevalo, Saul Castañeda-Quintana & Francisco Javier Perez-Trujillo

Three-dimensional modeling of pavement with dual load using finite element Wilson Rodríguez-Calderón & Myriam Rocío Pallares-Muñoz

Insights of asphaltene aggregation mechanism from molecular dynamics simulation Jennifer De León, Bibian Hoyos & Wilson Cañas-Marín

Energy demand and vehicle emissions stimate in Aburra Valley from 2000 to 2010 using LEAP model María Victoria Toro-Gómez & Diana Marcela Quiceno-Rendón

Pechini method used in the obtention of semiconductor nanoparticles based niobium Angela Mercedes Raba-Páez, Diego Nicolás Suarez-Ballesteros, José Jobanny Martínez-Zambrano, Hugo Alfonso Rojas-Sarmiento & Miryam Rincón-Joya

ICT mediated collaborative work in system dynamics learning Ricardo Vicente Jaime-Vivas & Adriana Rocío Lizcano-Dallos

Integration of emerging motion capture technologies and videogames for human upper-limb telerehabilitation: A systematic review Mauro Callejas-Cuervo, Gloria M. Díaz & Andrés Felipe Ruíz-Olaya

Analysis of tailing pond contamination in Galicia using generalized linear spatial models Javier Taboada, Ángeles Saavedra, María Paz, Fernando G. Bastante & Leandro R. Alejano

Wideband PIFA antenna for higher LTE band applications Carlos Arturo Suárez-Fajardo, Rafael Rodríguez-León & Eva Antonino-Daviú

Kinetic aspects on ferric arsenate formation in a fix bed gas-solid reaction system Eduardo Balladares, Roberto Parra & Mario Sánchez

Geotechnical behavior of a tropical residual soil contaminated with soap solution Yamile Valencia-González, Oscar Echeverri-Ramírez, Monica P. Benavides, María A. Duque-López, Yessica M. García-Quintero, Estefanía JiménezEspinosa, Juan E. Restrepo-Álvarez & Daniel Eduardo Toscano-Patiño

Elastoplatic behavior of longitudinally stiffened girder webs subjected to patch loading and bending Carlos Graciano, Euro Casanova & David G. Zapata-Medina

Exergoeconomic optimization of tetra-combined trigeneration system Juan Carlos Burbano J. & Silvio de Oliveira Jr.

A viable wireless PC assisted alternative to studies of vectorcardiography Juan Carlos Estrada-Gutiérrez, Alfonso Hernández-Sámano, Ernesto Edgar Mazón-Valadez, José Ávila-Paz, Arturo González-Vega, Juan Alberto LeyvaCruz & Mario Eduardo Cano-González

Analysis of hydrogen production by anaerobic fermentation from urban organic waste Edilson León Moreno-Cárdenas, Arley David Zapata-Zapata & Fernando Álvarez-Mejía

Identification of impacts of stages and materials on life cycle of footwear Bélgica Pacheco-Blanco, Daniel Collado-Ruiz & Salvador Capuz-Rizo

Experimental study for the application of water barriers to Spanish small cross section galleries Ljiljana Medic-Pejic, Javier Garcia-Torrent, Nieves Fernandez-Añez & Kazimierz Lebecki

Mixture experiments in industrial formulations Diana Cristina Ortega-Pérez, Moises Oswaldo Bustamante-Rua, Derly Faviana Gutiérrez-Rôa & Alexander Alberto Correa-Espinal

A gas stations location and their relationship with the operational characteristics of a road network Diego Alexander Escobar-García, Camilo Younes-Velosa & Johnny Alexander Tamayo-Arias

22 30 39 45 52 59 68 76 84 90 96 103 110 118 127 134 142 149 157


Structural modification of regenerated Fuller earth and its application in the adsorption of anionic and cationic dyes Oscar Dario Beltran-Pérez, Angelina Hormaza-Anaguano, Benjamin Zuluaga-Diaz & Santiago Alonso Cardona-Gallo

FPGA-based translation system from colombian sign language to text Juan David Guerrero-Balaguera & Wilson Javier Pérez-Holguín

Optimizing parameters for a dynamic model of high-frequency HID lamps using genetic algorithms Leonardo Cedeño-Rodríguez, Jaime Paúl Ayala, Susset Guerra-Jiménez & Alexander Fernandez-Correa

Liquefaction susceptibility assessment and study of “La Luciana” tailings dam fault (Spain, 1960) based on historical documents Francisco Javier Fernández-Naranjo, Virginia Rodríguez, Roberto Rodríguez, María Esther Alberruche, Julio Cesar Arranz & Lucas Vadillo

Stochastic mathematical model for vehicle routing problem in collecting perishable products Elsa Cristina Gonzalez-L., Wilson Adarme-Jaimes & Javier Arturo Orjuela-Castro

Environmental performance evaluation under a green supply chain approach William Ariel Sarache-Castro, Yasel José Costa-Salas & Jhully Paulin Martínez-Giraldo

Lottery scheduler for the Linux kernel María Mejía, Adriana Morales-Betancourt & Tapasya Patki

Security analysis of a Wlan network sample in Tunja, Boyacá, Colombia Julián Alberto Monsalve-Pulido, Fredy Andrés Aponte-Novoa & Fabián Chaparro- Becerra

Freight consolidation as a coordination mechanism in perishable supply chains: A simulation study Juan Pablo Castrellón-Torres, Jorge Luis García-Alcaraz & Wilson Adarme-Jaimes

A hybrid metaheuristic algorithm for the capacitated location routing problem John Willmer Escobar, Rodrigo Linfati & Wilson Adarme-Jaimes

Our cover Image alluding to Article: Three-dimensional modeling of pavement with dual load using finite element Authors: Wilson Rodríguez-Calderón & Myriam Rocío Pallares-Muñoz

165 172 182 189 199 207 216 226 233 243


DYNA 82 (189), February, 2015. Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online

CONTENIDO Editorial Juan D. Velásquez

9

Modelado tridimensional y análisis funcional de una invención histórica española del siglo XIX para la extracción del mineral: La Máquina Emilina

13

José Ignacio Rojas-Sola & Juan Pedro Martínez-Escobar

Recubrimientos de aluminio por deposición quimíca de vapor en lecho fluidizado sobre aceros inoxidables austeniticos AISI 304 y AISI 316 Jose Luddey Marulanda-Arevalo, Saul Castañeda-Quintana & Francisco Javier Perez-Trujillo

Modelado tridimensional de un pavimento bajo carga dual con elementos finitos Wilson Rodríguez-Calderón & Myriam Rocío Pallares-Muñoz

Visualización del mecanismo de agregación de asfaltenos usando simulación de dinámica molecular

30

Jennifer De León, Bibian Hoyos & Wilson Cañas-Marín

39

Estimación de la demanda energética y de las emisiones vehiculares en el Valle de Aburrá durante el periodo 2000-2010, usando el modelo LEAP

45

María Victoria Toro-Gómez & Diana Marcela Quiceno-Rendón

Uso del método Pechini en la obtención de nanopartículas semiconductoras a base de niobio Angela Mercedes Raba-Páez, Diego Nicolás Suarez-Ballesteros, José Jobanny Martínez-Zambrano, Hugo Alfonso Rojas-Sarmiento & Miryam Rincón-Joya

Trabajo colaborativo mediado por TIC en el aprendizaje de dinámica de sistemas

52

Ricardo Vicente Jaime-Vivas & Adriana Rocío Lizcano-Dallos

59

Integración de tecnologías emergentes de captura de movimiento y videojuegos para la telerehabilitación de miembro superior: Una revisión sistemática

68

Mauro Callejas-Cuervo, Gloria M. Díaz & Andrés Felipe Ruíz-Olaya

Análisis de contaminación de balsas mineras en Galicia usando modelos lineales espaciales generalizados Javier Taboada, Ángeles Saavedra, María Paz, Fernando G. Bastante & Leandro R. Alejano

Antena PIFA de banda ancha para aplicaciones en la banda alta de LTE Carlos Arturo Suárez-Fajardo, Rafael Rodríguez-León & Eva Antonino-Daviú

Aspectos cinéticos de la formación de arseniato férrico en lecho fijo mediante reacciones gas-sólido Eduardo Balladares, Roberto Parra & Mario Sánchez

Comportamiento geotécnico de un suelo residual tropical contaminado con solución de jabón Yamile Valencia-González, Oscar Echeverri-Ramírez, Monica P. Benavides, María A. Duque-López, Yessica M. García-Quintero, Estefanía Jiménez-Espinosa, Juan E. Restrepo-Álvarez & Daniel Eduardo Toscano-Patiño

Comportamiento elastoplastico de vigas rigidizadas longitudinalmente sometidas a carga concentrada y momento flector Carlos Graciano, Euro Casanova & David G. Zapata-Medina

Optimización exergoeconómica de sistema tetra-combinado de trigeneración Juan Carlos Burbano J. & Silvio de Oliveira Jr.

Una viable alternativa para estudios de vectorcardiografía de manera inalámbrica asistida por computadora Juan Carlos Estrada-Gutiérrez, Alfonso Hernández-Sámano, Ernesto Edgar Mazón-Valadez, José Ávila-Paz, Arturo González-Vega, Juan Alberto Leyva-Cruz & Mario Eduardo Cano-González

Análisis de la producción de hidrógeno por fermentación anaerobia de residuos orgánicos urbanos Edilson León Moreno-Cárdenas, Arley David Zapata-Zapata & Fernando Álvarez-Mejía

Identificación de etapas y materiales de mayor impacto en el ciclo de vida del calzado Bélgica Pacheco-Blanco, Daniel Collado-Ruiz & Salvador Capuz-Rizo

Estudio experimental para la aplicación de barreras de agua a las galerías españolas de pequeña sección transversal Ljiljana Medic-Pejic, Javier Garcia-Torrent, Nieves Fernandez-Añez & Kazimierz Lebecki

Diseño de mezclas en formulaciones industriales Diana Cristina Ortega-Pérez, Moises Oswaldo Bustamante-Rua, Derly Faviana Gutiérrez-Rôa & Alexander Alberto Correa-Espinal

22

76 84 90 96 103 110 118 127 134 142 149


Localización de estaciones de servicio y su relación con las características operacionales de la red viaria Diego Alexander Escobar-García, Camilo Younes-Velosa & Johnny Alexander Tamayo-Arias

Modificación estructural de la tierra Fuller regenerada y su aplicación en la adsorción de colorantes catiónicos y aniónicos Oscar Dario Beltran-Pérez, Angelina Hormaza-Anaguano, Benjamin Zuluaga-Diaz & Santiago Alonso Cardona-Gallo

Sistema traductor de la lengua de señas colombiana a texto basado en FPGA Juan David Guerrero-Balaguera & Wilson Javier Pérez-Holguín

Optimización de parámetros de un modelo dinámico de alta frecuencia de lámparas HID mediante algoritmos genéticos

165 172

Leonardo Cedeño-Rodríguez, Jaime Paúl Ayala, Susset Guerra-Jiménez & Alexander Fernandez-Correa

182

Análisis de la susceptibilidad a la licuefacción y estudio de la rotura del depósito de residuos mineros “La Luciana” (España, 1960) basado en documentos históricos

189

Francisco Javier Fernández-Naranjo, Virginia Rodríguez, Roberto Rodríguez, María Esther Alberruche, Julio Cesar Arranz & Lucas Vadillo

Modelo matemático estocástico para el problema de ruteo de vehículos en la recolección de productos perecederos Elsa Cristina Gonzalez-L., Wilson Adarme-Jaimes & Javier Arturo Orjuela-Castro

Evaluación del desempeño ambiental bajo enfoque de cadena de abastecimiento verde William Ariel Sarache-Castro, Yasel José Costa-Salas & Jhully Paulin Martínez-Giraldo

Planificador lotería para el núcleo de Linux María Mejía, Adriana Morales-Betancourt & Tapasya Patki

Análisis de seguridad de una muestra de redes Wlan en la ciudad de Tunja, Boyacá, Colombia Julián Alberto Monsalve-Pulido, Fredy Andrés Aponte-Novoa & Fabián Chaparro- Becerra

Consolidación de carga como mecanismo de coordinación en cadenas de suministro de perecederos: Estudio de simulación Juan Pablo Castrellón-Torres, Jorge Luis García-Alcaraz & Wilson Adarme-Jaimes

Un algoritmo metaheurístico híbrido para el problema de localización y ruteo con restricciones de capacidad John Willmer Escobar, Rodrigo Linfati & Wilson Adarme-Jaimes

Nuestra carátula Imágenes alusivas al artículo: Modelado tridimensional de un pavimento bajo carga dual con elementos finitos Authors: Wilson Rodríguez-Calderón & Myriam Rocío Pallares-Muñoz

157

199 207 216 226 233 243


Editorial

Una Guía Corta para Escribir Revisiones Sistemáticas de Literatura Parte 3 En esta editorial se discuten: el proceso de revisión sistemática de literatura (SLR) y el método de selección del tema. Adicionalmente, se presentan y ejemplifican las razones para realizar revisiones de literatura, y se caracterizan los tipos de preguntas comúnmente usados en una revisión sistemática de literatura. Desde lo práctico, la justificación de la necesidad de revisión y la formulación de las preguntas de investigación parecen ser tópicos bastante complejos para muchos autores. Espero que la síntesis y los ejemplos presentados sirvan de orientación para nuestros autores para escribir mejores revisiones de literatura. 1

de los estudios, la extracción de datos y la evaluación de la calidad; sin embargo, esto no quiere decir que los demás aspectos son fáciles, especialmente para estudiantes de postgrado novatos [6]. Los resultados pueden ser reportados en conferencias, páginas Web, como artículos en revistas, o como capítulos de tesis de maestría o disertaciones de doctorado [1]. Un reporte típico está dividido en las siguientes partes [1]: 

El Proceso de Revisión Sistemática

El proceso de revisión propuesto en [1] —que es muy similar a los presentados en [2] y [3]—está dividido en las siguientes fases: 

Paso 1. Planeamiento * Justificación de la revisión. * Formulación de las preguntas de investigación. * Diseño del protocolo de búsqueda. Paso 2. Ejecución. * Búsqueda de documentos. * Selección de documentos. * Evaluación de la calidad. * Extracción de datos. * Síntesis de datos. Paso 3. Reporte

El diseño del protocolo de investigación corresponde a la creación de un documento donde la justificación de la revisión, las preguntas de investigación y su motivación, y el proceso de ejecución es descrito; el diseño es realizado y revisado antes de la ejecución [4][2][5]. La síntesis de los datos es el proceso de responder las preguntas de investigación. Todo el proceso es no lineal y usualmente es necesario regresar a pasos anteriores a medida que el entendimiento del problema de investigación incrementa [5]. En la revisión realizada por Carver et al [6], se encontró que los aspectos más difíciles de una SLR son la selección

  

 

Introducción. * Justificación de la revisión. * Formulación de las preguntas de investigación. Definiciones y conceptos básicos (opcional). Descripción del protocolo de investigación. Proceso de búsqueda de documentos. * Proceso de selección de documentos. * Proceso de evaluación de la calidad. * Proceso de extracción de datos. Resultados * Resultados del proceso de búsqueda. * Resultados del proceso de selección. * Resultados de la evaluación de la calidad. * Análisis de los estudios seleccionados como un todo. Discusión (respuesta a cada una de las preguntas de investigación). Conclusiones.

Una introducción típica motiva la revisión, presenta las preguntas de investigación y las justifica [7]. La sección de definiciones y conceptos básicos puede ser usada para [8]: describir conceptos claves, discutir revisiones de literatura previas al estudio actual, presentar explicaciones teóricas, discutir hallazgos pasados, o presentar ejemplos, entre otros. La sección del descripción del protocolo de investigación describe como se realiza la búsqueda pero no habla de los estudios seleccionados. La sección de resultados es usada para describir cuántos y cuáles fueron los estudios seleccionados, así como también extraer información

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 9-12. February, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online http://dx.doi.org/10.15446/dyna.v82n189.48931


Velásquez / DYNA 82 (189), pp. 9-12. February, 2014.

importante del grupo de estudios como un todo. En la sección de discusión se resuelven todas y cada una de las preguntas de investigación planteadas en el estudio. 2

Así como también en la ref. [11]: In this article, we report on a systematic review of empirical studies of knowledge management in software engineering. Our goal is to provide an overview of empirical studies within this field, what kinds of concepts have been explored, what the main findings are, and what research methods are used.

Selección del Tema

Se pueden usar varias fuentes para seleccionar el tema de investigación abordado en la revisión: opinión experta, conclusiones presentada en revisiones de literatura previas, y conocimiento personal, entre otros. En cualquier caso, una búsqueda superficial es usualmente realizada con el objetivo de obtener un estimado de la cantidad de estudios potenciales en el área o para refinar el tópico de investigación [5]. Un peligro mayor en la selección del tema es una gran cantidad de estudios; una revisión de literatura crítica y profunda puede ser únicamente posible cuando el número de estudios es limitado; una revisión de 200 o 300 estudios primarios pueden tomar varios meses de lectura y toma de notas. En estos casos, el investigador debe reflexionar sobre el alcance de la revisión con el ánimo de focalizar el trabajo en un objetivo más estrecho y específico. 3

posture and scientific evidence.

Pero la justificación anterior no aplica para todos los casos, tal que en la literatura se presentan otras razones para justificar el realizar una revisión de literatura. A continuación se presentan varios casos. 

Para resumir y organizar de alguna forma un volumen extenso y disperso de literatura [12]: The aim of this paper is to help to identify, classify and characterize the somewhat confusing diversity of approaches that have been found in the technical literature on the subject.

Justificación de la Necesidad de Revisión

Dependiendo de la madurez del campo y el volumen de trabajos publicados, diferentes tipos de revisiones pueden ser requeridos: los estudios de mapeo son adecuados por nuevos campos de investigación con rápido desarrollo y literatura dispersa; las revisiones de literatura son apropiadas para campos con un volumen importante de investigación primaria y en los que no existen revisiones o las existentes son obsoletas. Los estudios terciarios (revisión de literatura de revisiones de literatura) son necesarios cando hay un número importante de revisiones de literatura y la madurez del campo es alta [9]. La justificación de la revisión implica que no hay revisiones de literatura recientes que respondan las preguntas de investigación seleccionadas [1], de tal forma que la primera tarea antes de realizar una SLR es determinar si ya existen revisiones de literatura sobre el tópico de interés. En la justificación de la revisión que se está realizando se deben discutir los hallazgos, limitaciones y conclusiones de las revisiones de literatura previas [9]. En la práctica, varias razones son usadas comúnmente para justificar la necesidad de una revisión de literatura, pero en general [1]:

Para proporcionar una guía selectiva e iluminadora de un volumen vasto de literatura que es imposible de analizar en su totalidad [13]: This paper provides a selective guide to the literature on time series forecasting, covering the period 1982–2005 and summarizing over 940 papers including about 340 papers published under the IIF. The proportion of papers that concern time series forecasting has been fairly stable over time. We also review key papers and books published elsewhere that have been highly influential to various developments in the field. The works referenced comprise 380 journal papers and 20 books and monographs

Otro ejemplo de este tipo es presentado en [14]: Despite the growing body of literature on S&OP, efforts to synthesise the overall state of the art of research in this area are limited. As an attempt to fill this gap, this paper aims to go beyond the highly dispersed work on S&OP by providing a systematic review of the literature and key findings on the topic. The purpose of this review is twofold: (i) to gather and integrate findings on S&OP as a business process and (ii) to assemble quantitative evidence of its impact on the performance of the firm.

The need for a systematic review arises from the requirement of researchers to summarise all existing information about some phenomenon in a thorough and unbiased manner.

En la ref. [10], un ejemplo de la justificación anterior es presentado:

Para resumir los principales hallazgos cuando la investigación ha sido realizada por largo tiempo y las contribuciones tempranas parecen haberse olvidado [15]: One of the objectives of this review and bibliography is to point out some of these early contributions. … This review is not

The main aim of this work is to show which recommendations exist on optimum and preferred sitting

10


Velásquez / DYNA 82 (189), pp. 9-12. February, 2014.

intended to be a critical review of the field, but rather a catalog of research, focusing on early papers, seminal papers, contributions from other disciplines, and forecasting theory and applications

Otro caso similar es presentado en [16]: The primary purpose of this work is to outline the critical and highly-cited literature for high-speed flow research, going back over a century in time.

Para resumir la investigación realizada en campos de investigación que tiene un desarrollo rápido y se están expandiendo constantemente, tal que las revisiones previas se hacen obsoletas rápidamente [17]: Therefore, we believe that a new and systematic survey is useful for consolidating the most recent research efforts on this area.

lectura de estudios de investigación primaria; las preguntas de investigación en estudios primarios son llamadas preguntas de investigación empíricas y usualmente resultan como un juicio personal informado sobre lo que no es conocido; pero, las preguntas de investigación también pueden ser el resultado de una revisión de la literatura previa. En este trabajo se adaptaron las preguntas de investigación sugeridas en [1] y [2] a un contexto más general para que puedan ser empleadas en ingeniería, y también se adaptaron otras preguntas que aparecen en estudios de revisión sistemática de literatura, como por ejemplo las que aparecen en las referencias [17][20][21]. En las preguntas que se presentan a continuación, se usa la letra X para indicar metodología, proceso o tecnología, y la letra P para indicar problema. Las siguientes preguntas de investigación son típicas en las revisiones sistemáticas de literatura:  

Para analizar el impacto de un trabajo particular en el cuerpo de literatura [18]:

This paper therefore aims to systematically review the citations to Naylor et al. (1999) and to determine the extent to which the 1999 paper has informed further research.

   

En otros casos simplemente se asume que la revisión es necesaria y no se presenta una justificación explicita para su realización. Una justificación muy importante es la necesidad de identificar vacíos de investigación con el fin de proponer nuevas áreas de desarrollo o nuevos proyectos de investigación [1][2][3]; sin embargo, parece ser que esta cuestión está más relacionada con las conclusiones de las revisiones más que con su justificación: un vacío de investigación resulta cuando la evidencia encontrada para responder una pregunta de investigación es inconclusiva o contradictora [2]. 4

    

Formulación de las Preguntas de Investigación

Una de las principales falencias en las revisiones de literatura es la falta de una declaración explicita de las preguntas de investigación sobre las que se desea indagar. Una formulación adecuada de las preguntas de investigación facilita la revisión de los pares evaluadores y por tanto contribuye a la aceptación del manuscrito. Si bien la caracterización presentada aquí no es exhaustiva, espero que ella sirva como guía para que nuestros autores formulen sus propias preguntas de investigación. Una pregunta de investigación es una pregunta, casual o descriptiva, de interés para la comunidad científica y/o profesional que permite focalizar la investigación en un tema o fenómeno específico y concreto. Tal como es enfatizado en [19], las preguntas de investigación en una revisión de literatura pueden ser únicamente respondidas mediante la

  

¿Cuáles son l@s X actualmente aplicad@s P? ¿Cuáles son las relaciones/categorías entre l@s X aplicados a P? ¿Cuáles son los efectos de X en la práctica actual? ¿Cuáles son los beneficios/limitaciones de X? ¿Cuál es la confiabilidad/rendimiento/costo de aplicar X? ¿Cuáles son las barreras para usar X? ¿Cuáles son las tendencias recientes en l@s X usadas para resolver P? ¿Cuáles son las razones que explican las tendencias recientes para resolver P? ¿Cuáles son/no son las causas de P? ¿Cuales son los principales conceptos que están siendo investigados? ¿Cuáles son los mayores hallazgos recientes sobre P? ¿Cuáles son los métodos de investigación que han sido usados en P? ¿Cuáles son las características de P? ¿Cuáles son los desafíos que han sido identificados? ¿Cuáles son los principales objetivos de investigación?

Para los mapeos sistemáticos, son comunes las siguientes preguntas (véase por ejemplo [20][22]):  ¿Qué tan fácil es encontrar artículos relevantes?  ¿Cuáles son los artículos más citados en el área?  ¿Cuáles son los artículos recientes más importantes (usualmente los más citados en los últimos años)?  ¿Cuáles revisiones de literatura han sido publicadas?  ¿Cuáles son las revistas y conferencias más 11


Velásquez / DYNA 82 (189), pp. 9-12. February, 2014.

importantes en el área?  ¿Quiénes son los autores más citados en el área?  ¿Cuáles son los principales temas de investigación? Las siguientes preguntas de investigación fueron usadas en estudios terciarios [23][24]:  ¿Cuántas revisiones de literatura fueron publicadas?  ¿Cuáles temas de investigación han sido considerados?  ¿Quién (persona, organización) lidera la investigación en revisiones de literatura?  ¿Se ha mejorado la calidad de las revisiones de literatura?  ¿Cuáles son las limitaciones de la investigación actual?

[9]

En todos los casos, cada pregunta de investigación es acompañada de una motivación que explica su significado [25][26]. El número apropiado de preguntas de investigación depende de las particularidades de cada estudio, y hay estudios con una sola pregunta de investigación [27].

[16]

[10]

[11]

[12] [13] [14]

[15]

[17]

[18] [19]

Juan D. Velásquez, MSc, PhD

[20]

Profesor Titular Universidad Nacional de Colombia E-mail: jdvelasq@unal.edu.co http://orcid.org/0000-0003-3043-3037

[21]

Referencias [1] [2] [3]

[4] [5] [6]

[7] [8]

Kitchenham, B.A. and Charters, S., Guidelines for performing systematic literature reviews in software engineering. Technical Report EBSE-2007-01, 2007. Sorrell, S., Improving the evidence base for energy policy: The role of systematic reviews, Energy Policy, 35 (3), pp. 1858-1871, 2007. http://dx.doi.org/10.1016/j.enpol.2006.06.008 Tranfield, D., Denyer, D. and Smart P., Towards a methodology for developing evidence-informed management knowledge by means of systematic review, British Journal of Management, 14, pp. 207-222, 2003. http://dx.doi.org/10.1111/1467-8551.00375 Kitchenham, B., Procedures for performing systematic reviews, Keele University Technical Report TR/SE-0401. 2004. Bolderston, A., Writing an effective literature review, Journal of Medical Imaging and Radiation Sciences, 39 (2), pp. 86-92, 2008. http://dx.doi.org/10.1016/j.jmir.2008.04.009 Carver, J.C., Hassler, E., Hernandes, E. and Kraft, N.A., Identifying barriers to the systematic literature review process. Proceedings of the 2013 ACM / IEEE International Symposium on Empirical Knowledge Engineering and Measurement. pp. 203-213. 2013. Murphy, C.M., Writing an effective review article, Journal of Medical Toxicology, 8 (2), pp. 89-90, 2012. http://dx.doi.org/10.1007/s13181-012-0234-2 Webster, J. and Watson, R.T., Editorial. Analyzing the past to prepare for the future: Writing a literature review, MIS Quarterly, 26 (2), pp. xiii-xxiii, 2002.

[22]

[23]

[24]

[25]

[26]

[27]

12

Pautasso, M. Ten simple rules for writing a literature review, PLoS Computational Biology, 9 (7), pp. 1-4, 2013. http://dx.doi.org/10.1371/journal.pcbi.1003149 Schmidt, S., Amereller, M., Franz, M., Kaiser, R. and Schwirtz. A., A literature review on optimum and preferred joint angles inautomotive sitting posture, Applied Ergonomics, 45 (2). Part B. pp. 247-260. Bjornson, F.O. and Dingsor, T., Knowledge management in software engineering: A systematic review of studied concepts, findings and research methods used, Information and Software Technology, 50 (11), pp. 1055-1068, 2008. http://dx.doi.org/10.1016/j.infsof.2008.03.006 Ventosa, M., Baíllo, A., Ramos, A. and Rivier, M., Electricity market modeling trends, Energy Policy, 33 (7), pp. 897-913. 2005. http://dx.doi.org/10.1016/j.enpol.2003.10.013 De Gooijer, J.G. and Hydman, R.J., 25 years of time series forecasting, International Journal of Forecasting, 22, pp. 443-473, 2006. http://dx.doi.org/10.1016/j.ijforecast.2006.01.001 Thomé, A.M.T., Scavarda, L.F., Fernandez, N.S. and Scavarda, A.J., Sales and operations planning: A research synthesis, International Journal of Production Economics, 138 (1), pp. 1-13, 2012. http://dx.doi.org/10.1016/j.ijpe.2011.11.027 Clement, R.T., Combining forecasts: A review and annotated bibliography, International Journal of Forecasting, 5, pp. 559-583, 1989. http://dx.doi.org/10.1016/0169-2070(89)90012-5 Kostoff, R.N. and Cummings, R.M., Highly cited literature of highspeed compressible flow research, Aerospace Science and Technology, 26 (1,) pp. 216-234, 2013. http://dx.doi.org/10.1016/j.ast.2012.04.006 Chai, J., Liu, J.N.K. and Ngai, E.W.T., Application of decisionmaking techniques in supplier selection: A systematic review of literatura, Expert Systems with Applications, 40 (10), pp. 38723885, 2013. http://dx.doi.org/10.1016/j.eswa.2012.12.040 Naim, M.M. and Grosling, J., On leanness, agility and leagile supply chains, International Journal of Production Economics, 131 (1), pp. 342-354, 2011. http://dx.doi.org/10.1016/j.ijpe.2010.04.045 Randolph, J.J., A guide to writing the dissertation literature review, Practical Assessment, Research & Evaluation, 4 (13), pp. 1-13, 2009. Yuan, H. and Shen, L., Trend of the research on construction and demolition waste management, Waste Management, 31 (4), pp. 670679, 2011. http://dx.doi.org/10.1016/j.wasman.2010.10.030 Abelein, U. and Paech, B., Understanding the influence of user participation and involvement on system success – A systematic mapping study, Empirical Software Engineering, pp. 1-54. 2013. Irani, Z., Gunasekaran, A. and Dwivedi, Y.K., Radio frequency identification (RFID): Research trends and framework, International Journal of Production Research, 48 (9), pp. 2485-2511, 2010. http://dx.doi.org/10.1080/00207540903564900 Kitchenham, B., Brereton, O.P., Budgen, D., Turner, M., Bailey, J. and Linkman, S., Systematic literature reviews in software engineering – A systematic literature review. Information and Software Technology, 51 (1), pp. 7-15, 2009. http://dx.doi.org/10.1016/j.infsof.2008.09.009 Kitchenham, B., Pretorius, R., Budgen, D., Brereton, O.P., Turner, M., Niazi, M. and Linkman, S. Systematic literature reviews in software engineering – A tertiary study, Information and Software Technology, 52 (8), pp. 792-805, 2010. http://dx.doi.org/10.1016/j.infsof.2010.03.006 Khurum, M. and Gorschek, T., A systematic review of domain analysis solutions for product lines, The Journal of Systems and Software, 82 (12), pp. 1982-2003, 2009. http://dx.doi.org/10.1016/j.jss.2009.06.048 Williams, B.J. and Carver, J.C., Characterizing software architecture changes: A systematic review, Information and Software Technology, 52, (1), pp. 31-51, 2010. http://dx.doi.org/10.1016/j.infsof.2009.07.002 Prikladnicki, R. and Audy, J.L.N., Process models in the practice of distributed software development: A systematic review of the literature, Information and Software Technology, 52 (8), pp. 779791, 2010. http://dx.doi.org/10.1016/j.infsof.2010.03.009


3D Modeling and functional analysis of a Spanish historical invention of the nineteenth century for mineral extraction: The Emilina Machine José Ignacio Rojas-Sola a & Juan Pedro Martínez-Escobar b b

a Universidad de Jaén, Jaén - España. jirojas@ujaen.es Universidad de Jaén, Jaén - España. jpme0001@red.ujaen.es

Received: September 15th, 2014. Received in revised form: November 18th, 2014. Accepted: November 18th, 2014

Abstract In this paper, we analyze in detail a Spanish historical nineteenth-century invention used for mineral extraction: the Emilina machine. In particular, three-dimensional modeling is performed using software parametric (CATIA v5) of each of the elements of the set. Also, after obtaining the 3D model, a functional analysis using techniques of Computer Aided Engineering has been performed, based on the analysis of the von Mises stress and displacement, ensuring that the highest stress concentrations occur in the principal axis, the radii of the pulleys, the upper cable of the main drum, the connection between the secondary shaft and the main drum and the wood support structure, and that the highest concentration of displacements on the steering wheel of the steam machine, in the main shaft on which it is coupled and in the pulleys. Keywords: mining industrial historical heritage; historical invention; computer-aided design; computer-aided engineering; functional analysis.

Modelado tridimensional y análisis funcional de una invención histórica española del siglo XIX para la extracción del mineral: La Máquina Emilina Resumen En el artículo se analiza en detalle una invención histórica española del siglo XIX utilizada para la extracción del mineral: la máquina Emilina. En particular, se ha realizado el modelado tridimensional con ayuda de software paramétrico (CATIA v5), de cada uno de los elementos que componen el conjunto. Asimismo, una vez obtenido el modelo 3D, se ha realizado un análisis funcional mediante técnicas de Ingeniería Asistida por Ordenador, basadas en el análisis de la tensión de von Mises y de desplazamientos, comprobando que las mayores concentraciones de tensiones se producen en el eje principal, los radios de las poleas, el cable superior del tambor principal, la unión entre el eje secundario y el tambor principal, así como en la estructura soporte de madera, y que la mayor concentración de desplazamientos se encuentran en el volante de la máquina de vapor, el eje principal sobre el que va acoplado y las poleas. Palabras clave: patrimonio histórico industrial minero; invención histórica; ingeniería gráfica; ingeniería asistida por ordenador; análisis funcional.

1. Introducción El presente artículo sigue una línea de investigación en el campo de la minería iniciada en publicaciones anteriores [1-3], relativa al estudio y caracterización del patrimonio histórico industrial minero español desde el punto de vista de la ingeniería gráfica e ingeniería asistida por ordenador.

La investigación desarrollada en el presente artículo se ha basado en resultados obtenidos de la búsqueda de información relacionada con la minería en el Archivo Histórico de la Oficina Española de Patentes y Marcas, dependiente del Ministerio de Industria, Energía y Turismo del Gobierno de España. A través de diversas consultas a la base de datos presente en su sitio web oficial [4], ha sido

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 13-21. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.45549


Rojas-Sola &Martínez-Escobar et al / DYNA 82 (189), pp. 13-21. February, 2015.

a través de una palanca que puede ser accionada por un usuario, pero que también se encuentra mecanizada ya que, cuando una cubeta cargada sube hasta cierta altura presiona la palanca, de modo que ésta desengrana el mangón del piñón quedando parado el tambor y por tanto, la carga. Las maromas se enrollan en el tambor en sentido opuesto de forma que cuando una suba baje la otra. De esta forma, la parada automática que se produce en el ascenso provoca también la parada automática en el descenso. Por tanto, las principales aportaciones tecnológicas de este privilegio son que basta una sola persona para realizar la extracción debido a su diseño mecánico; que se produce una parada automática de manera que los cubos que llevan el peso se paran por sí solos, y que el diseño mecánico de la palanca permite no tener que parar la máquina de vapor o fuerza motriz para descargar o cargar las cubetas [5].

Figura 1. Documento gráfico de la máquina Emilina. Fuente: Ministerio de Industria, Energía y Turismo. Oficina Española de Patentes y Marcas. Archivo Histórico. Expediente nº 1712.

2. Ingeniería gráfica Esta fase de la investigación es fundamental pues de la precisión de los resultados obtenidos dependerá la obtención de resultados fiables en la fase de ingeniería asistida por ordenador, lo que permitirá realizar el análisis funcional de manera correcta. Por tanto, se destaca la importancia del modelado basado en CAD para una recuperación fidedigna de los restos del patrimonio cultural [8]. El modelado tridimensional se ha realizado con el software paramétrico CATIA v5 R18 [9], que ofrece más ventajas que otros programas como Autodesk Inventor Professional, Solidworks o SolidEdge. Dicho software presenta diversos módulos, entre los que cabe destacar: Part Design (módulo para la creación de sólidos), Wireframe and Surface Design (módulo para crear modelos alámbricos y de superficies), y Assembly Design (módulo para ensamblar los distintos componentes aplicando diversas restricciones). Al carecer el documento gráfico del expediente de la máquina Emilina de ningún tipo de escala o referencia al respecto, se ha optado por emplear la escala 1:20 al ser ésta una escala normalizada, proporcionando unas dimensiones acordes para el fin de la maquinaria, y que ya era usada a mediados del siglo XIX. La documentación gráfica de la que se dispone es escasa, pues tan sólo se dispone de una representación gráfica, en la que se omiten algunos detalles necesarios para el modelado y presenta errores de diverso tipo, por lo que ciertas partes de varios componentes se han modelado empleando el sentido común y reflejando la que se entiende como la solución de diseño óptima. Asimismo, se desconoce el tipo de material del que estaban realizados los componentes pues no aparece indicado en la memoria, pero se ha tomado la madera como material de la estructura soporte y el hierro para el resto de los elementos. Con esta información, se han impuesto ciertos requerimientos de diseño prestando especial atención a que se pudiesen acoplar a la estructura soporte los diferentes elementos que van unidos a ésta, así como los diversos agujeros en los que se insertan distintos ejes de poleas u otros elementos. El aspecto final con renderizado de la estructura soporte se refleja en la Fig. 2, una vez obtenido el modelado de la misma, con el software Keyshot [10].

posible obtener información relevante acerca de los privilegios de invención (1826-1878) que obran en poder de dicho Archivo Histórico [5], así como de las patentes de invención (1878-1966) [6]. En la mayor parte de los casos, los expedientes constan de una pequeña memoria descriptiva con algún documento gráfico muy deficiente, pero esta información es de suma importancia para estudiar la evolución de las invenciones históricas desarrolladas en España desde el siglo XIX hasta la actualidad, puesto que proporciona una visión global del desarrollo tecnológico en el campo de la minería, y más concretamente, en la fase extractiva del mineral. 1.1. Descripción y funcionamiento de la máquina Emilina La máquina Emilina es un privilegio de invención presente en el Archivo Histórico de la Oficina Española de Patentes y Marcas, presentado por Emilio Clausolles el 21 de abril de 1858, cuyo fin era la extracción de minerales y agua de las minas. El certificado de invención que pertenece a la clasificación internacional de patentes E21C (explotación de minas o canteras) tuvo una vigencia de 15 años y fue ampliamente utilizado [7]. El expediente de la máquina Emilina sólo aporta una única representación gráfica (Fig. 1), en el que se aprecian las principales vistas (alzado, planta y perfil). Se trata de un malacate mecánico accionado por vapor. El volante de la máquina de vapor proporciona un movimiento de rotación continuo a un árbol, sobre el cual se encuentra el elemento principal de la invención, el mangón. Este mangón puede recorrer longitudinalmente el árbol para engranar con uno de los dos piñones que transmiten el movimiento al tambor sobre el que se encuentra enrollada la maroma que baja a la mina. Así pues, asegurada la forma de engranar del mangón con los piñones se controla todo el dispositivo, utilizándose para ello, una palanca que permite ya sea engranar con un piñón moviendo el tambor en un sentido, con el otro piñón en sentido contrario, o con ninguno, quedando el dispositivo parado. La forma de engranar el mangón con los piñones se realiza 14


Rojas-Sola &Martínez-Escobar et al / DYNA 82 (189), pp. 13-21. February, 2015.

Figura 4. Renderizado final de la máquina Emilina en perspectiva isométrica SO (sur oeste). Fuente: Elaboración propia.

Figura 2. Renderizado de la estructura soporte. Fuente: Elaboración propia.

Figura 3. Ensamblaje final de la máquina Emilina. Fuente: Elaboración propia. Figura 5. Renderizado final de la máquina Emilina en perspectiva isométrica SE (sur-este). Fuente: Elaboración propia.

Seguidamente se ha realizado el modelado de cada uno de los elementos que componen la máquina en estudio: volante, eje principal, mangón, piñón, rueda dentada, tambores (principal y secundario), cuerdas y poleas, palanca, así como otros elementos accesorios. Una vez modelados todos los componentes de la máquina Emilina, se procede al ensamblaje de todos ellos. Para ello, se ha empleado el módulo Assembly de Catia v5 R18, cuyo funcionamiento se basa en la colocación de los distintos elementos mediante la aplicación de ciertas restricciones (constraints) que fijan el movimiento de unos elementos respecto a otros, y por tanto, con diferentes grados de libertad. Las principales restricciones empleadas han sido: ‘Coincidencia’ (hace coincidir dos elementos, ya sean caras, ejes de revolución, etc), ‘Contacto de superficies’ (pone en el mismo plano dos superficies seleccionadas), ‘Distancia entre planos, rectas o puntos’ (fija una determinada distancia entre dos entidades seleccionadas), ‘Ángulo entre planos o rectas’ (fija el ángulo entre dos entidades seleccionadas), y ‘Fijación’ (mantiene inmóvil un elemento, es decir, su grado de libertad es 0). La Fig. 3 muestra el conjunto ensamblado, y las Figs. 4 y 5 muestran su aspecto final tras el renderizado.

3. Ingeniería asistida por ordenador El análisis funcional de la máquina Emilina se ha realizado con técnicas de ingeniería asistida por ordenador, realizándose las siguientes operaciones: preprocesado, aplicación de materiales, establecimiento de las condiciones de contorno, establecimiento de las fuerzas aplicadas, discretización o mallado, y obtención de resultados en lo relativo a la deformación obtenida, desplazamientos (mm) y tensión de von Mises (N/m2). 3.1. Preprocesado Al tratarse de un conjunto de elementos ensamblados en CATIA v5 R18, el preprocesado se realiza en el módulo Assembly, en el cual se definen las restricciones necesarias sobre las cuales se van a definir las distintas condiciones de contacto entre las piezas. Debido a los altos requerimientos computacionales, se han eliminado todos los elementos auxiliares (tornillería, 15


Rojas-Sola &Martínez-Escobar et al / DYNA 82 (189), pp. 13-21. February, 2015.

Figura 8. Empotramientos de la base de pilares y de la estructura soporte. Fuente: Elaboración propia.

Seguidamente, se procede a definir el tipo de conexión entre todas las superficies que se encuentran en contacto. Se han empleado principalmente dos modos de conexión: Contact Connection Property (hace posible la combinación de dos componentes que compartan una misma área en común, transmitiendo sólo presión en dirección perpendicular a estos), y Fastened Connection Property (donde los elementos que intervienen son fijados como si fueran soldados unos con otros, transmitiendo toda la carga y momentos). Asimismo, para definir estos tipos de conexión hay que basarse en las restricciones del ensamblaje pero, si se carece de éstas, se emplea el comando General Analysis Conection que proporciona la unión necesaria entre dos piezas para la posterior definición del modo de conexión. La Fig. 9 muestra la máquina Emilina tras haber sido establecidos todos los modos de conexión entre los distintos elementos.

Figura 6. Modelo reducido para el análisis general. Fuente: Elaboración propia.

Figura 7. Resultado final de la aplicación de materiales. Fuente: Elaboración propia.

3.4. Fuerzas aplicadas

cojinetes, topes…) que no tienen una influencia significativa en el análisis estático del conjunto. Asimismo se han eliminado del análisis, los engranajes cónicos y la rueda dentada, ya que para el mallado de estos elementos se necesita una precisión demasiado elevada, por lo que se aplican en su lugar una serie de fuerzas que simulan el peso ejercido por dichos elementos (Fig. 6). Finalmente, se ha realizado un análisis general del conjunto de la estructura soporte junto a los principales componentes de la máquina Emilina, como los ejes, las poleas o los tambores entre otros, suponiendo que las 2 cubetas de subida de mineral están cargadas, que es el caso donde se producen mayores solicitaciones.

Las fuerzas aplicadas han sido las siguientes:  Peso de la estructura: Se aplica empleando el comando Acceleration y su símbolo es una flecha en sentido de la aceleración de la gravedad (vertical) (Fig. 10).  Carga elevada (poleas): Se simula el peso de la carga elevada. Para ello se aplica una fuerza de 8.233 N en el cable que está unido a las poleas, ya que sobre éste va suspendida la carga (Fig. 11). La justificación de este valor se debe a la existencia de una cubeta de 0.108 m3 de volumen, suponiendo en el caso desfavorable, un material de galena de 7.600 kg/m3, más la masa

3.2. Aplicación de materiales Para la aplicación de materiales se hace uso del comando Apply Material en CATIA v5, seleccionando para ello, la madera y el hierro con sus correspondientes propiedades físicas (módulo de Young (N/m2), módulo de Poisson, densidad (Kg/m3) y tensión de rotura (MPa)), resultando finalmente una apariencia como la expresada en la Fig. 7. 3.3 Condiciones de contorno En primer lugar, se procede a empotrar la base de los pilares y de la estructura soporte de madera (Fig. 8).

Figura 9. Condiciones de contorno. Fuente: Elaboración propia.

16


Rojas-Sola &Martínez-Escobar et al / DYNA 82 (189), pp. 13-21. February, 2015.

de la jaula y el tope de aproximadamente 20 Kg, lo que hace un total de 840 Kg aproximadamente, es decir, 8.233 N.  Carga elevada (tambor principal): Se aplica en el cable que va enrollado en el tambor principal una carga de 8.233 N que simula la carga elevada. Dicha carga se divide en sus componentes x e y para que vaya en la dirección del cable (Figs. 12 y 13).  Peso de los piñones y rueda dentada: Se simula el peso que ejercen los piñones y la rueda dentada sobre sus respectivos ejes. Para ello, se aplica una carga de 50 N en el eje principal en el caso de cada piñón, y de 820 N en el extremo del tambor secundario en el caso de la rueda dentada (Figs. 14 y 15).

Figura 13. Carga aplicada al cable inferior del tambor. Fuente: Elaboración propia.

Figura 10. Herramienta Acceleration aplicada al análisis general. Fuente: Elaboración propia. Figura 14. Carga aplicada al eje principal. Fuente: Elaboración propia.

Figura 11. Cargas aplicadas a los cables de las poleas. Fuente: Elaboración propia.

Figura 15. Carga aplicada al eje del tambor secundario. Fuente: Elaboración propia.

3.5. Discretización o mallado CATIA v5 R18 discretiza automáticamente el conjunto modelado, pero ofrece la posibilidad de refinar este mallado en las zonas que se consideren críticas o de mayor interés. La Fig. 16 muestra el mallado inicial que proporciona dicho software.

Figura 12. Carga aplicada al cable superior del tambor. Fuente: Elaboración propia.

17


Rojas-Sola &Martínez-Escobar et al / DYNA 82 (189), pp. 13-21. February, 2015.

3.6. Resultados obtenidos 3.6.1. Deformada La Fig. 19 muestra la deformada que se produce en los distintos elementos. Así pues, se puede apreciar que la mayor deformación se produce en el extremo del eje, ya que al situarse el volante en su extremo, actúa como una viga empotrada con una carga en su extremo. La Fig. 20 muestra una vista de alzado donde se puede apreciar la deformación de la estructura soporte de madera. Figura 16. Discretización inicial proporcionada por CATIA v5 R18. Fuente: Elaboración propia.

Figura 19. Deformada de la máquina Emilina. Fuente: Elaboración propia. Figura 17. Discretización refinada del eje principal. Fuente: Elaboración propia.

Como se puede observar en la figura anterior, el software ajusta automáticamente la malla en función de los elementos. No obstante, se procede a refinar la malla en el eje principal y en las poleas, ya que a priori será donde mayores esfuerzos se obtengan. Para refinar la malla en un elemento determinado, éste se selecciona en el apartado Nodes and Elements dentro del árbol de operaciones, definiendo dos parámetros que son la longitud media del elemento tetraedro (Size), así como la flecha absoluta (Absolute sag) que va a experimentar dicho tetraedro. En este caso, se establece un valor de 5 mm para Size y de 1 mm para Absolute sag. Las Figs. 17 y 18 muestran el mallado refinado obtenido.

Figura 20. Alzado de la deformada de la máquina Emilina. Fuente: Elaboración propia.

Figura 21. Alzado de la deformada (en mm) de la máquina Emilina. Fuente: Elaboración propia. Figura 18. Discretización refinada de las poleas. Fuente: Elaboración propia. 18


Rojas-Sola &Martínez-Escobar et al / DYNA 82 (189), pp. 13-21. February, 2015.

Figura 22. Tensión de von Mises (en N/m2) en la máquina Emilina. Fuente: Elaboración propia.

Figura 24. Tensión de Von Misses (en N/m2) en la máquina Emilina (escala ajustada). Fuente: Elaboración propia.

3.6.2. Desplazamientos La Fig. 21. muestra los desplazamientos producidos en la máquina Emilina, cuyos valores deben ser coherentes con la deformación obtenida. Se comprueba lógicamente, cómo los lugares que experimentan una mayor deformación son aquellos que sufren un mayor desplazamiento, como el volante de la máquina de vapor, el eje principal sobre el que va acoplado y las poleas, aunque cabe suponer que el volante no experimentará tal deformación ya que estaría acoplado a algún elemento de la máquina de vapor que compensaría la acción de su peso. Figura 25. Tensión de Von Misses en la máquina Emilina (escala ajustada a la tensión de rotura del hierro). Fuente: Elaboración propia.

3.6.3. Tensión de von Mises

experimentan los distintos componentes, se observa cómo es el eje principal, el que soporta más esfuerzos. La Fig. 23 muestra la tensión de von Mises en las poleas, puesto que son los elementos más propicios para sufrir grandes tensiones. Como se puede apreciar, los radios de las poleas también están sometidos a grandes esfuerzos, ya que son los elementos que transmiten las tensiones de las poleas al eje. Sin embargo, para visualizar los esfuerzos que soportan el resto de elementos, es necesario ajustar la escala (Fig. 24). Asimismo, se puede observar que es la estructura soporte de madera la que experimenta mayores tensiones junto con las zonas de unión entre los elementos, las cuales actúan como concentradores de tensiones al tratarse en su mayor parte de soldaduras. Seguidamente, para visualizar si alguno de los componentes de la máquina Emilina rompe o falla, es necesario modificar la escala de colores estableciendo como máximo valor, la tensión de rotura del hierro (Fig. 25), y la tensión de rotura de la madera (Fig. 26). Así pues, se observa que existe una zona en la que se alcanza la tensión de rotura del hierro, por lo que el eje principal rompería. Sin embargo, como se ha comentado anteriormente, en realidad el volante iría acoplado a algún elemento evitando así que se produjeran esfuerzos tan elevados en el eje que produjeran su rotura.

Figura 23. Tensión de von Mises (en N/m2) en las poleas. Fuente: Elaboración propia.

La Fig. 22. muestra los esfuerzos soportados por los distintos componentes de la máquina Emilina. Como se esperaba, tras visualizar la deformación que 19


Rojas-Sola &Martínez-Escobar et al / DYNA 82 (189), pp. 13-21. February, 2015.

madera, y que la mayor concentración de desplazamientos se encuentra en el volante de la máquina de vapor, el eje principal sobre el que va acoplado y las poleas. Finalmente, se ha comprobado cómo el eje principal rompería si se analiza como elemento independiente, aunque en la práctica esto no sucedería, al estar el volante de la máquina de vapor acoplado a otro elemento de la misma. Asimismo, la estructura soporte de madera también fallaría al ser cargada, aunque también esto no ocurriera en realidad, puesto que el material empleado debía no ser exclusivamente la madera. Agradecimientos La investigación expuesta en el presente artículo se ha realizado en el seno del Proyecto de Investigación titulado ‘El patrimonio histórico industrial minero: un estudio integral para su puesta en valor y difusión desde la ingeniería gráfica’ (HAR2012-30723), financiado en el seno del Plan Nacional de Investigación, Desarrollo e Innovación (2008-2011) por el Ministerio de Economía y Competitividad del Gobierno de España. Referencias

Figura 26. Tensión de Von Misses en la Máquina Emilina (escala ajustada a la tensión de rotura de la madera). Fuente: Elaboración propia.

[1]

Rojas-Sola, J. I., Montalvo-Gil, J. M. and Castro-García, M. Modelado tridimensional y análisis funcional de una cabria para la extracción del mineral. Dyna-Colombia, vol. 80 (181), pp. 118-125, 2013. [2] Rojas-Sola, J.I., Montalvo-Gil, J.M. and Castro-García, M., Geometric documentation of mining industrial historical heritage: application to a Cornish pumping engine house from the ancient mining district in Linares-La Carolina (Jaen), Proceedings of XXIII International Conference on Engineering Graphics, 2013. [3] Tejero-Manzanares, J., Garrida-Saenz, I., Perez-Calle, M.D. and Montes-Tubio, F., Virtual reconstruction in recovery metallurgical heritage of Almaden mines. Dyna, 88 (3), pp. 299-307, 2013. http://dx.doi.org/10.6036/5209. [4] Archivo Histórico de la Oficina Española de Patentes y Marcas. [en línea], Available at: http://historico.oepm.es/archivohistoricow3c/index.asp [5] Rojas-Sola, J.I., Lupiáñez-Cruz, P. and Carranza-Cañadas, M.P., Caracterización tecnológica de las invenciones del Archivo Histórico de la Oficina Española de patentes y marcas relacionadas con la fase extractiva del mineral: Privilegios de invención (18261878). De Re Metallica, 22, pp. 93-104, 2014. [6] Rojas-Sola, J.I., Lupiáñez-Cruz, P. and Carranza-Cañadas, M.P., Caracterización tecnológica de las invenciones del Archivo Histórico de la Oficina Española de patentes y marcas relacionadas con la fase extractiva del mineral: Patentes de invención (18781966). De Re Metallica, 23, en prensa, 2014. [7] Información del expediente de la Máquina Emilia: Búsqueda en formulario con número de expediente 1712. [en línea], Available at: http://historico.oepm.es/archivohistoricow3c/index.asp#formulario_ privilegios [8] Bouza-Rodriguez, B., Comesana-Campos, A. and Gonzalez-Pineiro, L., CAD-based methods applied to the reconstruction of archaeological remains. DYNA-Colombia, 80 (179), pp. 70-78, 2013. [9] Dassault Systèmes. Catia v5 R18. California: Woodlands Hills, 2007. [10] Jo, J.L., KeyShot 3D rendering: showcase your 3D models and create hyperrealistic images wit KeyShot in the fastest and most efficient way possible. Birmingham: Packt Publications, 2012.

Asimismo, se observa que se alcanza la tensión de rotura de la madera en varias zonas de la estructura soporte, por lo que ésta rompería. Este hecho, hace pensar que quizás no todas las partes de dicha estructura fuesen de madera (dato desconocido pues no aparece en la memoria descriptiva del expediente). 4. Conclusiones Se ha diseñado y documentado geométricamente la invención histórica (máquina Emilina) y se ha realizado el análisis funcional de la misma. Por otro lado, se ha comprobado cómo a finales del siglo XIX aún se carecía de un sistema de normalización que facilitara la interpretación de los documentos gráficos, por lo que ésta contiene multitud de errores desde el punto de vista de la normalización actual. No obstante, se ha obtenido un modelo tridimensional robusto y fiable. Visualizando los resultados del análisis funcional, se puede afirmar que por lo general está diseñada de forma correcta. Sin embargo, existen ciertos puntos donde se alcanzan tensiones y desplazamientos demasiado elevados, pudiendo dar lugar a problemas de funcionamiento y de rotura. Asimismo, una vez obtenido el modelo 3D, se ha realizado un análisis funcional mediante técnicas de Ingeniería Asistida por Ordenador, basadas en el análisis de la tensión de von Mises y de desplazamientos, comprobando que las mayores concentraciones de tensiones se producen en el eje principal, los radios de las poleas, el cable superior del tambor principal, la unión entre el eje secundario y el tambor principal, así como en la estructura soporte de

J.I. Rojas-Sola, es Dr., e Ing. Industrial y Catedrático en el área de expresión gráfica en la Ingeniería en la Universidad de Jaén, España. Jefe 20


Rojas-Sola &Martínez-Escobar et al / DYNA 82 (189), pp. 13-21. February, 2015. del Grupo de Investigación ‘Ingeniería Gráfica y Arqueología Industrial’ desde 1996 y ha sido Director para Europa del Oeste de la International Society for Geometry and Graphics desde 1999 hasta 2008. Actúa como revisor de artículos científicos en revistas internacionales indexadas en el Journal Citation Reports (JCR) y autor de más de 200 artículos y comunicaciones en Congresos Internacionales, y es experto evaluador de proyectos de investigación, desarrollo e innovación para el Ministerio de Economía y Competitividad del Gobierno de España y para el Ministerio de Educación del Gobierno de Italia. Es investigador principal en proyectos de investigación y director de tesis doctorales. Sus líneas de investigación incluyen arqueología industrial, arquitectura vernácula, ingeniería gráfica aplicada al patrimonio industrial o cultural, ingeniería asistida por ordenador, animación por ordenador, realidad virtual, realidad aumentada, e historia de la tecnología, entre otras. ORCID: 0000-0001-9001-1050 J.P. Martínez-Escobar, es Ing. Técnico Industrial en 2012 y finaliza sus estudios en Ingeniería Industrial en 2014 ambos por la Universidad de Jaén, España. Sus intereses se centran en el modelado y el análisis funcional.

Área Curricular de Ingeniería Mecánica Oferta de Posgrados

Maestría en Ingeniería - Ingeniería Mecánica

Mayor información: E-mail: acmecanica_med@unal.edu.co Teléfono: (57-4) 4259262

21


Aluminum coating by fluidized bed chemical vapor deposition on austenitic stainless steels AISI 304 and AISI 316 Jose Luddey Marulanda-Arevalo a, Saul Castañeda-Quintana b & Francisco Javier Perez-Trujillo c a

Universidad Tecnológica de Pereira, Pereira - Colombia. jlmarulanda@utp.edu.co b Universidad Complutense de Madrid. Madrid – España. sicastan@quim.ucm.es c Universidad Complutense de Madrid. Madrid – España. fjperez@quim.ucm.es

Received: January 25th, 2014. Received in revised form: August 20th, 2014. Accepted: September 8th, 2014.

Abstract Aluminum coatings were deposited on stainless steels AISI 304 and AISI 316 at a temperature range from 560 to 600°C by CVD-FBR, using a bed consisting of a 10% aluminum powder and 90% of bed inert (alumina) which was fluidized with Ar and an activator mixture of hydrochloric acid with hydrogen (HCl/H2). The coating without heat treatment includes the follow species: Al13Fe4, Fe2Al5, FeAl2 and Al5FeNi for both steels. In addition, the heat treatment causes the aluminum to diffuse into the substrate and the iron diffuse towards the surface of the coating, making the transformation of previous existing compounds to FeAl, Fe2Al5, FeAl2, Al0.99Fe0.99Ni0.02, AlNi and Fe2AlCr. Thermodynamic simulation was conducted with the Thermo-Calc software to obtain information of the possible composition and amount of deposited material, for selected conditions. The specimens coated and uncoated were exposed at 750 ºC in an atmosphere where the vapor was transported to the samples using a N2 flow of 40 ml/min plus 100% water vapor (H2O). The two uncoated substrates behaved differently, since the steel AISI 304 performed well and gained little weight (0.49 mg/cm2), compared to the steel AISI 316 that lost too much weight (25.4 mg/cm2). Coated steels gained little weight during thousand hours of exposure (0.26 mg/cm2) and support very well the corrosive attack compared to uncoated substrates. Keywords: Aluminum, Chemical vapour deposition, Coating, Corrosion, Fluidized bed, High temperature, Inter-metallic coatings, Oxidation

Recubrimientos de aluminio por deposición quimíca de vapor en lecho fluidizado sobre aceros inoxidables austeniticos AISI 304 y AISI 316 Resumen Los revestimientos de aluminio fueron depositados sobre aceros inoxidables AISI 304 y AISI 316 en el rango de temperatura de 560 a 600 °C por deposición química de vapor en lecho fluidizado(CVD – FBR). Se utilizó un lecho que consistía en 10 % de aluminio en polvo y 90 % de lecho inerte (alúmina), el cual fue fluidizado con Ar y como gases activadores se utilizó una mezcla de ácido clorhídrico con hidrógeno (HCl/H2). En el recubrimiento sin tratamiento térmico están las siguientes especies: Al13Fe4, Fe2Al5, FeAl2 y Al5FeNi, las cuales están presentes para ambos aceros. Además, el tratamiento térmico provoca la difusa de aluminio hacia el sustrato y la difusa de hierro del sustrato hacia la superficie del recubrimiento, haciendo la transformación de los compuestos anteriores a FeAl, Fe2Al5, FeAl2, Al0.99Fe0.99Ni0.02, AlNi y el Fe2AlCr. Se realizó la simulación termodinámica con el software Thermo - Calc para obtener información de la posible composición y la cantidad de material depositado, para condiciones seleccionadas. Las muestras recubiertas y sin recubrir, se expusieron a 750 ºC en una atmósfera donde el vapor agua se transporta a las muestras usando un flujo de N2 de 40 ml/min, más 100 % vapor de agua (H2O). Los dos sustratos sin revestir se comportaron de manera diferente, ya que el acero AISI 304 soportó bien el ataque y ganó poco peso (0.49 mg/cm2), en comparación con el acero AISI 316 que perdió mucho peso (25.4 mg/cm2). Los aceros recubiertos ganaron poco de peso durante las mil horas de exposición (0.26 mg/cm2) y soportaron muy bien el ataque corrosivo en comparación con sustratos sin recubrimiento. Palabras clave: Alta temperatura, Aluminio, Corrosión, Deposición química de vapor, Lecho fluidizado, Oxidación, Recubrimiento, Recubrimientos Inter-metálicos.

1. Introduction Many industries use coatings to prolong the life of their

products, increase efficiency and reduce production costs and maintenance. Reliability and efficiency of these layers require the appropriate selection and correct application of

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 22-29. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.41732


Marulanda-Arevalo et al / DYNA 82 (189), pp. 22-29. February, 2015.

precursor gases and phases formed at equilibrium at the temperature range 500 – 660 °C provides an understanding of the reactions during the deposition. The schematic diagram of the CVD-FBR system used in this work is described in [18,19]. The reactor was made of quartz tube and was heated by an external furnace. The bed used was composed of a mix of 10 wt% aluminum powder with 99.5% of purity and 400 µm particle size as donor, plus 90 wt% alumina (Al2O3) as inert bed. The powder mixture was fluidized by Ar gas (99.999 % purity) with hydrogen chloride plus hydrogen (HCl + H2). These gases are used as activators for generating aluminum precursor. The chamber reaction temperature was controlled by a thermocouple introduced into fluidized bed and the samples were suspended above the fluidized bed during the aluminum deposition. The bed was fluidized with Ar between 300 and 3000 ml/min and as activator was used a mixture of HCl/H2 at a ratio from 1/15 to 1/20. These tests were performed at a temperature range from 560 to 600°C with exposure times from 45 minutes to 2.5 hours on different types of austenitic stainless steels. After deposition of the CVD-FBR coatings, a diffusion heat treatment was performed under argon flow at 750 ºC for 2 h, followed by cooling into the furnace under an atmosphere of Ar gas. The morphology study of the aluminum layers was carried out using metallographic preparation followed by scanning electron microscopy (SEM-JEOL JM-6400). The composition was studied by energy dispersed X-ray spectroscopy (EDAX) and the structure was studied by Xray diffraction (XRD-PHILIPS X (PERT MPD)) through the modes θ-2θ and grazing angle in order to identify phase composition of coated samples. Standard metallographic preparation was performed on samples prior to cross-section observations. The specimens were exposed at 750 ºC in an atmosphere where the vapor was transported to the samples by a flow of N2 of 40 ml*min-1 plus 100% water vapor (H2O). The test was conducted up to 1000 hours, taking samples at 200, 400, 600, 800 and 1000 hours. After each exposure, the samples were cooled inside the furnace and the samples were weighted on an analytical balance with precision of 10-5g.

these coatings for a successful operation. The above would increase the useful life of machine components and facilities, leading to savings on global consumption of materials [1-3]. Coatings obtained by chemical vapor deposition (CVD) are one of the alternatives for surface protection against corrosion and wear. CVD consists of the reaction of a mixture of gases inside a vacuum chamber to deposit thin layers of different materials [4, 5]. Inside a reaction chamber, the substrate is exposed to one or more volatile precursor gases, which in turn react or decompose on the substrate surface and deposit a solid coating in a thin layer, and by-products of reaction can produce volatile compounds that are removed towards the outside by a flow of gas passing through the reaction chamber [6,7]. Chemical vapor deposition by fluidized bed (CVD-FBR) is a variant of the chemical vapor deposition that combines the advantages of thermal activation by heating and the fluidized bed. Advantages of fluidized beds, such as the high transfer mass and heat among the gas, the bed and the samples immersed in the reactor, allowing a more uniform temperature and very good mixture of reactive gases with fluidized particles. CVD-FBR achieves a high degree of reaction for all species activated in bed, because of the excellent contact between the solid particles and the fluidization gas [8-10]. This helps to reduce the temperature and operation time compared to other processes such as pack cementation [5,9]. In addition, working at atmospheric pressure can save the purchase of expensive vacuum equipment, and cover large parts "in-situ", meaning an advantage from the economic point of view. The use of aluminum layers is an effective way to increase corrosion resistance of steels. This protection is obtained by forming a surface film of alumina (Al2O3). The coating grows by internal diffusion of aluminum; while iron and chromium diffuse outward [11-13]. The inherent property of aluminum to form stable layers of Al2O3 in atmospheres containing oxygen is well known and it has been adapted for surface enrichment of steel components that operate in aggressive environments at high temperature, since alumina has excellent mechanical properties and good chemical stability at high temperature [14-16].

3. Results and discussion

2. Experimental procedure

3.1. Aluminum coatings

Specimens (20 mm x 6 mm x 2 mm) of austenitic stainless steels AISI 304 and AISI 316 were used. For this study of aluminum deposition, the specimens were machined and polished with emery paper from No. 100 to No. 600 and then cleaned in ultrasonic ketone bath for 10 minutes. Finally the aluminum coating was deposited by CVD-FBR. Thermodynamic simulations were performed to investigate the better conditions for deposition of aluminum coatings in CVD-FBR using Thermo Calc software® [17]. The calculations are based on free Gibbs energy minimization method and mass conversion rule. To define the gaseous species and solid species, the thermodynamic simulation was performed using the software Thermo-Calc, combining two databases from Scientific Group Thermodata Europe: SSOL2 and SSUB3. The research of the main

Reactions were studied in the aluminum bed and the gases activators HCl + H2, to obtain information of the deposition process of aluminum layers by CVD-FBR. In the results obtained by the thermodynamics simulation, it was found that the precursors Al3Cl and AlCl were formed at the temperature range from 500 – 660 °C. It has also been observed that AlCl is the most important precursor in the formation mechanism of the aluminum layer, since Al3Cl is very stable. Fig. 1a shows the thermodynamic simulation of aluminum deposition process on AISI 304 stainless steel, and also reports the partial pressures of the gaseous phase as a function of temperature. It is clear that the aluminum deposition is carried out mainly by the following chlorides AlCl3, AlCl2H, Al2Cl6 and AlCl and in smaller proportion 23


Marulanda-Arevalo et al / DYNA 82 (189), pp. 22-29. February, 2015.

PARTIAL PRESSURE (PASCALS)

Ar

H2

AlCl3

Al2Cl6

1

HCl

AlCl2H AlCl2

Ar H2

0,1 AlCl3

0,01

AlCl2H

1E-3 1E-4

Al2Cl6 AlCl

HCl

1E-5

AlCl2

1E-6 500

Mo0.9939Cr0.0043Al0.0011Mn0.0004 and it is very small, also decreases slightly at the whole range of temperature. Fig. 2b shows the simulation thermodynamics of solid phases that might be encountered during the deposition of aluminum based on the moles of aluminum on austenitic stainless steels. The same solid phases reported in thermodynamic simulation Fig. 2a are present at the beginning of Fig. 2b, namely BCC_A2-2, Al2Fe and Al3Ni2. As the concentration of aluminum moles increases, new solid phases arise containing higher aluminum content such as Al5Fe2, Al8Cr5, Al3Ni, Al13Fe4, Al9Cr4 and Al13Cr2. BCC_A2-2 phase consists of Fe5.01Ni3.83Cr0.55Mo0.008Mn0.004 in the coating on steel AISI 316 and in the coating on steel AISI 304 is composed of Fe4.8Ni4Cr0.55Mn0.005. Pre-eliminate tests were conducted in the CVD-FBR reactor using a bed formed by a 10 % aluminum powder and 90 % bed inert (alumina), it was fluidized with argon and a mixture of gases HCl/H2 as activators. The argon flow was varied from 50 % to 80 % and the relation of gas activators from 1/15 to 1/20. For HCl/H2 relations under 1/20, uniform aluminum coatings were not obtained, since there is only a small change in tone of the surface of the substrate and also the cross sections reveal "islands" of aluminum coating after surface analysis in the microscope. For relations greater than 1/16.5 HCl/H2 begins to chlorinate the aluminum coating at temperatures above 580°C. This was done in order to find good conditions of aluminum deposition on the two stainless steels.

AlCl

AlClH 2

AlClH 2

520

540

560

580

600

620

640

660

TEMPERATURE (°C)

PARTIAL PRESSURE (PASCALS)

a)

Formation of aluminum chlorides

1E-9 1E-10

ClFe

ClNi

ClCr

ClMn

Cl2Cr

Cl2Fe

Cl3Fe

Cl3Cr

Cl3Fe

Cl2Ni

Cl4Mn2

1E-12

1E-14

Cl2Ni Cl4Cr

ClMn

1E-11

1E-13

Cl2Mo Cl4Mn2

Cl2Cr Cl2Fe ClNi

Cl4Cr

1E-15 1E-16 1E-17 500

Cl2Mo

Cl3Cr ClCr

520

540

560

ClFe

580

600

620

640

0,6

SOLID PHASES (MOLE)

TEMPERATURE (°C) b) b) Formation of metal chlorides Figure 1. Thermodynamic simulation of the formation of precursors of the deposition of aluminum by chemical vapor deposition in Fluidized bed reactors. Source: The Authors

by AlClH2 and AlCl2. The most stable species are AlCl2H and AlCl3. The only species whose partial pressure decreases with increase of temperature is Al2Cl6 and above 575ºC the partial pressure is lower than that of AlCl. Fig. 1b shows the temperature versus the partial pressure for chlorination of iron, chromium, nickel, molybdenum and manganese. This graph shows that the thermodynamic tendency of formation for these chlorides is very low (less than 10-9). According to Fig. 1b, there are no chlorination problems in the substrate and there should not be corrosive attack by HCl in the process of formation of aluminum coating under the selected deposition conditions. The reactions of formation of aluminum chlorides are more favored than chlorination reactions of the substrate. In the thermodynamic simulation were obtained the potential solid phases which are expected to take place during the deposition of aluminum on both austenitic stainless steels. The simulation was carried out at a temperature range from 500 to 660°C as shown in Fig. 2a, where the solid phases present in the deposition are BCC_A2-2, Al2Fe and Al3Ni2 in smaller proportion. The compound BCC_A2-2, is formed by Fe0.554 Al0.262 Cr0.162 Mn0.012 Mo0.007. Al2Fe has a large mass decrease at the whole range of temperature. The greatest amount of molybdenum is in steel AISI 316 form the phase BCC_A2-1, this phase containing

0,5

BCC A2-2

0,4

G AS

0,3 0,2

Al 2 Fe

0,1 Al 3 Ni 2

0,0 500

BCC A2-1

520

540

560

580

600

620

640

660

TEM PER ATUR E (°C ) a) Solid species in function of temperature. Al 2 Fe

Al 3 N i 2

SOLID PHASES (MOLE)

Al 5 Fe 2

0,6 0,5

BCC A2-2

Al 13 Fe 4 Al 2 Fe

Al 3 N i

Al 13 C r 2 Al 9 C r 4

Al 8 C r 5 F C C _A1

Al 5 Fe 2 Al 13 F e 4

BCC A2-2

0,4 0,3 0,2 0,1 0,0 0,0

Al 3 N i 2

Al 8 C r 5

Al 9 C r 4

Al 13 C r 2 FC C _A1 Al 3 N i

0,1

0,2

0,3

0,4

0,5

M O LE Al b) Solid species in function of aluminum. Figure 2. Thermodynamic simulation of aluminum deposition process on austenitic stainless steels. CVD-FBR deposition process. Source: The Authors 24


Marulanda-Arevalo et al / DYNA 82 (189), pp. 22-29. February, 2015.

almost 50 % aluminum, 25 % iron, 12 % chromium, 10 % nickel, 1% manganese and small amounts of molybdenum 0.65 % for the AISI 316 stainless steel.

The aluminum deposition is achieved with the following relations: concentration of active gas HCl/H2 from 1/20 to 1/16.5; with gas flows as follows active gas (HCl/H2) from 44 % to 34 % and argon from 56 % to 66 %. The best deposits are achieved in the early stages of fluidization of the bed, since it has a fluid bed with a low flow gas. The best coatings were obtained with 61% of argon, 37.1% hydrogen and 1.9% of hydrochloric acid, in bed with 90% alumina and 10% aluminum powders. Therefore, under these conditions temperature varied from 560 to 600°C and deposition times from 45 to 150 minutes, to assess how the thickness of the deposited layer varies with the change of these variables. Fig. 3a shows the thickness changes during time of exposure at 580 °C, for specimens coated with and without heat treatment. Heat treatment was performed at 750 ºC for two hours. Fig. 3b shows the thickness change versus exposure temperature for 1.5 hours deposition time, for specimens coated with and without heat treatment. Heat treatment was performed at 750 ºC for two hours. The aluminum coating thickness increases when increasing temperature up to 580 °C. For steel AISI 316, the thickness increase is slower from 580 to 600 °C, but for steel AISI 304 thickness decreases from 580 to 600 °C. In addition, at 600 °C is observed the chlorine peak in EDAX analysis, indicating that the coating is starting to chlorinate; for this reason the deposition temperature was fixed at 580 °C from this point on. The aluminum coating thickness increases with increase deposition time, in the first 90 minutes in an accelerated way, then the increase in thickness is slower, for this reason the deposition time was fixed at 90 minutes from this point on, since the thickness gain is very small in the remaining 60 minutes of exposure, thus it is advisable to stop CVD-FBR at this point, because the costs from the use of inert and reactive gases are avoided for 60 minutes of exposure. The coating characteristics like the thickness and homogeneity depend strongly on the input ratio of active and inert gases (HCl/H2, Ar respectively), as well as on temperature and time. The thickness of samples is correlated to increase of the equilibrium partial pressure of gaseous precursors, due to the increase of the partial pressure of precursors, also cause more interaction of precursors with the substrate and thus forming a greater amount of aluminum coating. Fig. 4 shows the surface of aluminum coatings on AISI 304 stainless steels, in which there was a slight conical growth of this coating, also it is possible to see that the cones have some flake-like projections. In the early stages of deposition in different points of the sample, round nodules are formed, whose upward growth is faster than their sideways growth, leading to the formation of these conical forms and as time goes on, these cones collide with each other. Subsequently they cover the whole sample surface. Generally, the growth of the layer can be controlled by a surface process reaction-diffusion. The lateral growth is more difficult on the base of cones, because there is more chromium on the substrate. Keep in mind that chromium does not help the growth of inter-metallic aluminum; so it is easier that the layer grow upwards than grows sideways. The coatings surface composition analysis by EDAX report:

316 Al 304 Al 316 Al HT 304 Al HT

THICKNESS (µ)

35 30

316 Al HT

25 20

304 Al 304 Al HT

15

316 Al

10 5 0

40

60

80

100

120

140

160

TIME IN MINUTE a) Deposition temperature at 580ºC.

THICKNESS (µ)

32 28

316 304 316 304

Al Al Al HT Al HT

304 Al HT

24

316 Al HT

20

304 Al

16

316 Al

12 8

560

570

580

590

600

TEMPERATURE (°C) b) Deposition time 1.5 hours. Figure 3. Thickness of aluminum coatings on both stainless steels. Source: The Authors

Figure 4. Surface of the aluminum coatings on stainless steels AISI 304. Source: The Authors 25


Marulanda-Arevalo et al / DYNA 82 (189), pp. 22-29. February, 2015.

Concentration (At%)

Al

80 Ni 60

Cr

Substrate Fe

Concentration (At%)

Aluminum Coating

Ni

Ni

Al

40 Cr

Fe

20

Al

8

12

16

20

Fe

Ni

Al

60 40

Cr

Fe

20

Ni

0 0

4

Substrate

Cr

80

0 0

Aluminum Coating

Ni

100

4

8

12

16

20

24

28

Depth (m)

24

c) Stainless steel AISI 316 aluminum coated and without heat treatment.

Depth (m)

a) Stainless steel AISI 304 aluminum coated without heat treatment.

Concentration (At%)

Ni

Fe2Al5

FeAl2

Concentration (At%)

Ni

FeAl Substrate

FeAl

80 60

Al

Fe

Ni

Fe

Al

Ni

40

Cr

Fe Cr

20

Cr Ni

0

0

10

20

30

40

50

80

FeAl Coating

Aluminum diffusion Substrate

Ni Al

Cr

Mn

Fe

60

Fe

Fe

40

Ni

Al Cr

20 0

Cr Mn

0

10

20

30

40

Depth (m)

d) Stainless steel AISI 316 aluminum coated and heat treated.

Depth (m) b) Stainless steel AISI 304 aluminum coated and heat treated.

Figure 5. Cross section of aluminum coating on the stainless steel AISI 304 and AISI 316. Source: The Authors

In the process of aluminum deposition by CVD-FBR homogeneous coatings were obtained with a variation of +/5 microns in thickness. Cross sections presented in Fig. 5,

show that the aluminum amount is higher in the coating surface and decreases slightly toward the substrate-coating interface. The iron and chromium have greater percentages 26


Marulanda-Arevalo et al / DYNA 82 (189), pp. 22-29. February, 2015.

in the interface coating-substrate than in surface-coating. Nickel is homogeneously distributed through the coating. Heat treatment was conducted in these coatings to improve oxidation resistance. It was observed that aluminum diffuses into the substrate and the coating has a mixture of Fe2Al5, FeAl2 and FeAl among other compounds, this is shown in analyses of X-ray diffraction (Fig. 6). Also it is observed a zone of FeAl in the interface coating-substrate. Fig. 5 shows the cross section for these aluminum coatings with and without heat treatment, to see how the coating composition varies depending on the heat treatment. Non-heat treated coating are composed approximately of 67% aluminum, 20% iron, 8% chromium and 5% nickel and heat treated coating are composed approximately of 50% aluminum, 34% iron, 10% chromium and 6% nickel. Fig. 5b shows that aluminum-coated AISI 304 steel presents four zones: an external rich in FeAl2 and Fe2Al5, with some parts darker than the others, the second area rich in FeAl, the third area rich in chromium, containing a band of Fe2AlCr and finally the area of aluminum diffusion in the substrate. Fig. 5d shows that aluminum-coated AISI 316 steel presents three zones: an external zone corresponding to the coating that after heat treatment is formed mainly FeAl, this zone has 18 Âľm approximately, between the coating and the substrate there is a chromium-rich band, which should contain Fe2AlCr, even though this band cannot be noticed by naked eye, it was observed in the composition line analysis. The other zone is formed by diffusion of aluminum on the material base, in this area we can see the Kirkendal effect [9-19], since there are numerous pores generated by inter diffusion of aluminum and iron. In Fig. 6 are showed the analyses of X-ray diffraction (XRD); the coatings without heat treatment are formed by Al13Fe4, Fe2Al5, FeAl2 and Al5FeNi for the two steels. In addition, the heat treatment transformed the above components to form the FeAl, Fe2Al5, Al0.99Fe0.99 Ni0.02, AlNi3 and the Fe2AlCr. This is corroborated with the line analysis performed by EDAX to coatings with and without heat treatment, besides the heat treatment reduces the amorphous characteristic of the structure of the aluminum coatings. Heat treatment favored the transformation of aluminum-rich phases into others with greater iron content, due to inter diffusion of aluminum, iron and chromium. It is clear that aluminum diffuses into the substrate faster than iron diffuses into the coating, since the diffusion coefficient of aluminum is an order of magnitude greater than that of the iron [19]. This aids to improve mechanical properties and corrosion resistance of the coating.

160

HEAT TREATED

INTENSITY

120 80

Al13Fe4 Fe2Al5 FeAl2

FeAl Al0.99Fe0.99Ni0.02 AlNi3

Al5FeNi

Fe2AlCr

40 0 WITHOUT HEAT TREATMENT

INTENSITY

100 80 60 40 20 0

10

20

30

40

50

60

70

80

90

POSITION 2 THETA a) Aluminum coating on AISI 304 stainless steel Al Fe4 13 Fe2Al5

800 INTENSITY

HEAT TREATED 600

FeAl2 Al5FeNi

400

FeAl Al0.99Fe0.99Ni0.02 AlNi3 Fe2AlCr

200

INTENSITY

0 160

WITHOUT HEAT TREATMENT

120 80 40 0 10

20

30

40

50

60

70

80

90

POSITION 2 THETA b) Aluminum coating on AISI 316 stainless steel Figure 6. Analysis of X-ray diffraction for the coatings on AISI 304 stainless steel and AISI 316 stainless steel. Source: The Authors.

measurements have confirmed that the application of these aluminium coatings on austenitic stainless steels by CVD-FBR allows to reduce the oxidation rate more than 80 times under super critical conditions. When the corrosive attack begins, the coated steel gained mass at higher speed, it happens in the first 400 hours and then mass gain decelerates, because aluminum coating has good resistance to oxidation in oxidizing environments; because it forms a surface layer of Al2O3, with oxides rich in chromium and nickel, this layer is compact and adherent and protects the coating from corrosive attack [20,21]. Uncoated steels show a linear attack for the whole time. The corrosion rate of the AISI 304 steel has a tendency to increase over time, whereas the AISI 316 steel has a great weight loss, because the oxide layer formed in the early hours grows quickly and then falls, leaving the substrate exposed to corrosive attack and the corrosion process continues.

3.2. Steam oxidation The specimens were exposed at 750 ÂşC in a steam loop to assess the degree of protection provided by these coatings under supercritical temperature and in an aggressive environment. Both uncoated substrates behaved differently, since the steel AISI 304 performed well and gained low mass, whereas steel AISI 316 lost too much weight. Coated steels gained little weight during the thousand hours of exposure and are highly resistant to oxidation. Gravimetric

27


Marulanda-Arevalo et al / DYNA 82 (189), pp. 22-29. February, 2015.

coatings a good alternative to protect steels in super critical conditions for future applications in power plants. The thermodynamic simulation is a good tool to select the working conditions and identify the aluminum halides performing the deposition of aluminum. In the simulation of solid compounds the only species present in the coating was FeAl2. Furthermore, it is possible that Cr is present in solid solution in the intermetallic phases, since the substrate contains Cr and the structures of these intermetallic phases are not affected by the introduction of Cr [28]. On the other hand, EDX analysis shows that chromium is also in aluminum coating. In the literature, X-ray diffraction reported that during the deposition of aluminum in stainless steels, Cr diffuses readily into the coating to form mainly Cr5Al8 on the outer surface [29], however XRD results of this study do not show the formation of this compound.

TIME IN HOURS

2

m/A (mg/cm )

0

200

400

600

800

1000

-5 -10 -15 -20 -25

AISI 316 AISI 304 AISI 316-AL AISI 304-AL

TEMPERATURE 750 °C a) The entire range of mass gain.

4. Conclusions

TEMPERATURE 750 °C 2

m/A (mg/cm )

0,5 0,4

 The CVD-FBR is an effective technique to obtain very uniform and homogeneous aluminum coatings on austenitic stainless steels at low temperature, short time and atmospheric pressure; furthermore aluminum coatings of more than 20 µm of thickness can be obtained.  To obtain aluminum coatings of 20 µm the deposition conditions by CVD-FBR were improved at temperatures below 600 °C, without affecting the microstructure of austenitic stainless steels. Furthermore, the behavior of these coatings in steam oxidation conditions is significantly better than that observed on uncoated substrates. CVD-FBR is an important alternative to improve steam oxidation resistance of austenitic stainless steels. Yielding great chances to shorten times and lower costs.  The aluminum coating deposited by CVD-FBR without heat treatment forms inter metallic compounds with iron such as Al13Fe4, Fe2Al5, FeAl2 and Al5FeNi. Subsequently they are transformed by diffusion heat treatment into FeAl, Fe2Al5, Al0.99Fe0.99 Ni0.02, AlNi and Fe2AlCr, and as a result oxidation resistance of the substrate is improved. Furthermore the coating expands after heat treatment due to the inter diffusions of iron and chromium outward and the aluminum into the substrate, thereby the coating can reach up to 35 µm of thickness.  Aluminum deposited on the coating form alumina on the surface that acts as a barrier against oxidation. Therefore, the aluminum coating is able to extend the life of stainless steel AISI 304 and AISI 316 under steam oxidation at 750 ºC.

AISI 304 AISI 316-AL AISI 304-AL

0,3 0,2 0,1 0,0

200

400

600

800

1000

TIME IN HOURS b) Mass gain from 0 to 0.5 mg/cm2 Figure 7. Mass gain of stainless steel with aluminum coated and uncoated oxidized in the loop steam at 750 º C. Source: The Authors.

During the initial oxidation, elements more active than iron react and form oxides; as aluminum is the most reactive, this will be the first to react with oxygen to form Al2O3, followed by the chromium forming Cr2O3, once the alumina layer is formed, the Cr2O3 is dissolved in the layer or evaporates. Moreover the corrosion resistance also depends on the thickness of the layer [22,23]. Degradation of the chromite layer by volatile compounds formation takes place when the chromite layer (Cr2O3) interacts with water vapour, producing chromium hydroxides like (CrO2(OH)2)(g) or CrO2(OH)(g) [24,25]. Aluminum coatings are highly protective at high oxidation temperatures, in comparison to uncoated stainless steels substrates because the oxidation rate decreases several orders of magnitude, as it is shown in Fig. 7. Aluminum coating does not form the Fe2O3 nor Fe3O4, thus the coating prevents the formation of FeO. The aforementioned iron oxides have a very limited protective capacity [26,27]. The results showed that aluminum coating have a beneficial effect in the protection of austenitic stainless steels in steam oxidizing conditions at super critical temperatures (over 700 °C), as these coatings significantly reduce the corrosion rate, making these

Acknowledgements The authors would like to thank Departamento Administrativo de Ciencia, Tecnología e Innovación COLCIENCIAS for his doctoral fellowship and Universidad Tecnológica de Pereira for the study commission. The research group would like to thank the Spanish Ministry of Science for its contribution to this paper: Project MICINN ENE 2008-06755-C02-02 and 28


Marulanda-Arevalo et al / DYNA 82 (189), pp. 22-29. February, 2015.

CONSOLIDER CSD 2008-00023. 5. References [1] [2] [3] [4]

[5]

[6] [7] [8]

[9] [10]

[11]

[12]

[13]

[14]

[15]

[16]

[17] [18]

http://dx.doi.org/10.1016/S0257-8972(99)00305-9 [19] Pérez, F.J., Hierro, M.P., Trilleros, J.A., Carpintero, C., Sánchez, L., Brossard, J.M. and Bolívar, F.J., Iron aluminide coatings on ferritic steels by CVD-FBR technology, Intermetallics, 14 (7), pp. 811-817, 2006. http://dx.doi.org/10.1016/j.intermet.2005.12.010 [20] Kobayashi, S. and Yakou T., Control of intermetallic compound layers at interface between steel and aluminum by diffusiontreatment, Materials science and engineering: A, 338 (1-2), pp. 4453, 2002. http://dx.doi.org/10.1016/S0921-5093(02)00053-9 [21] Smialek J.L. and Auping J.V., COSP for Windows—Strategies for Rapid Analyses of Cyclic-Oxidation Behavior, Oxidation of Metals, 57 (1-2), pp. 559-581, 2002. http://dx.doi.org/10.1023/A:1015308606869 [22] Hong-yan, D., Zhen-dong, D., Suresh-C.,S., David H., Corrosion wear behaviors of micro-arc oxidation coating of Al2O3 on 2024Al in different aqueous environments at fretting contact, Tribology International, 43 (5-6), pp. 868-875, 2010. http://dx.doi.org/10.1016/j.triboint.2009.12.022 [23] Babu, N., Balasubramaniam, R. and Ghosh, A., High-temperature oxidation of Fe3Al-based iron aluminides in oxygen, Corrosion Science 43 (12), pp. 2239-2254, 2001. http://dx.doi.org/10.1016/S0010-938X(01)00035-X [24] Castañeda, S.I., Bolívar, F.J. and Pérez. F.J., Study of Oxyhydroxides Formation on P91 Ferritic Steel and CVD-FBR Coated by Al in Contact with Ar + 40% H2O at 650 °C by TG-Mass Spectrometry, Oxidation of metal, 74 (1-2), pp. 61-78, 2010. http://dx.doi.org/10.1007/s11085-010-9200-z [25] Marulanda, J.L., Pérez, F.J. and Castañeda, S.I., Aluminum-silicon coatings on austenitic stainless steel (AISI 304 and 317) deposited by chemical vapor deposition in a fluidized bed, Ingeniería e Investigación, 34 (2), pp. 5-10, 2014. http://dx.doi.org/10.15446/ing.investig.v34n2.41249 [26] Paul, A., Odriozola, J.A Development of a modified CVD coating process for the enhancement of the high temperature oxidation resistance of Cr2O3 and Al2O3 forming alloys, Materials Science and Engineering:A, 300 (1-2), pp. 22-33, 2001. http://dx.doi.org/10.1016/S0921-5093(00)01802-5 [27] Huttunen-Saarivirta, E., Stott, F.H., Rohr, V. and Schutze. M., Particle angularity effects on the elevated-temperature erosion– oxidation behaviour of aluminium diffusion coatings on 9% Cr steel, Wear, 261 (7-8), pp.746-759. 2006. http://dx.doi.org/10.1016/j.wear.2006.01.014 [28] Palm, M., The Al–Cr–Fe system–Phases and phase equilibria in the Al-rich corner, Journal of Alloys and Compounds, 252 (1-2). pp. 192-200, 1997. http://dx.doi.org/10.1016/S0925-8388(96)02719-3 [29] Dumitrescu, L. and Maury, F., Al2O3 coatings on stainless steel from Al metal-organic chemical vapor deposition and thermal treatments, Surface and Coating Technology, 125 (1-3), pp. 419-423, 2000. http://dx.doi.org/10.1016/S0257-8972(99)00616-7

Trevisan, R. y Lima, C., Aspersao Termica Fundamentos E Aplicacoes. Editorial Artliber. Brazil, 2002. Marulanda-Arévalo, J.L., Castañeda-Quintana, S.I. and RemolinaMillan, A., Coatings deposited by CVD-FBR for protection at high temperature. DYNA, 80 (181), pp. 181-191, 2013. Garcia, D., Piratoba, U. and Mariño, A., (Ti,Al)N Coatings on AISI 4140 by R.F. sputtering. DYNA, 74 (152), pp. 181-185, 2007. Bolívar, F.J., Sánchez, L., Tsipas, S.A., Hierro, M.P., Trilleros, J.A. and Pérez, F.J., Silicon coating on ferritic steels by CVD-FBR technology, Surface & Coatings Technology, 201 (7), pp. 39533958, 2006. http://dx.doi.org/10.1016/j.surfcoat.2006.08.101 Brossard, J.M., Hierro, M.P., Sánchez, L., Bolívar, F.J. and Pérez, F.J., Thermodynamical analysis of Al and Si halide gaseous precursors in CVD. Review and approximation for deposition at moderate temperature in FBR-CVD process, Surface & Coatings Technology, 201 (6), pp. 2475-2483, 2006. http://dx.doi.org/10.1016/j.surfcoat.2006.04.018 Choy, K.L., Chemical vapour deposition of coatings, Progress in Materials Science, 48 (2), pp. 57-170, 2003. http://dx.doi.org/10.1016/S0079-6425(01)00009-3 Oura, K., Lifshits, V., Saranin, A., Zotov, A. and Katayama, M., Surface Science. An Introduction, Germany 2003. http://dx.doi.org/10.1007/978-3-662-05179-5 Pérez, F.J., Pedraza, F., Hierro, M.P. and Hou, P.Y., Adhesion properties of aluminide coatings deposited via CVD in fluidised bed reactors (CVD-FBR) on AISI 304 stainless steel, Surface & Coatings Technology, 133-134, pp. 338-343. 2000. http://dx.doi.org/10.1016/S0257-8972(00)00952-X Bolıvar, F.J., Pérez, F.J., Hierro, M.P., Trilleros, J.A. y Sánchez, L., Aluminización de aceros ferriticos-martensiticos (hcm-12a) mediante CVD-FBR, Scientia et Technica, 36, pp. 619-624. 2007. Chaliampalias, D., Vourlias, G., Pistofidis, N., Pavlidou, E., Stergiou, A. and Stergioudis, G., Deposition of zinc coatings with fluidized bed technique, Materials Letters, 61 (1), pp. 223-226, 2007. http://dx.doi.org/10.1016/j.matlet.2006.04.036 Voudouris, N., Christoglou, Ch. and Angelopoulos, G., Formation of aluminide coatings on nickel by a fluidised bed CVD process, Surface and Coatings Technology, 141 (2-3). pp. 275-282, 2001. http://dx.doi.org/10.1016/S0257-8972(01)01193-8 Christoglou, Ch., Voudouris, N. Angelopoulos, G.N. Pant, M. and Dahl, W., Deposition of aluminium on magnesium by a CVD process, Surface and Coatings Technology, 184 (2-3), pp. 149-155, 2004. http://dx.doi.org/10.1016/j.surfcoat.2003.10.065 Pérez, F.J., Hierro, M.P., Pedraza, F., Carpintero, M.C., Gómez, C. and Tarın, R., Effect of fluidized bed CVD aluminide coatings on the cyclic oxidation of austenitic AISI 304 stainless steel, Surface and Coatings Technology, 145 (1-3), pp. 1-7, 2001. http://dx.doi.org/10.1016/S0257-8972(01)01019-2 Christoglou, Ch., Voudouris. N. and Angelopoulos, G.N., Formation and modelling of aluminide coatings on iron by a fluidised bed CVD process, Surface and Coatings Technology, 155 (1), pp. 51-58, 2002. http://dx.doi.org/10.1016/S0257-8972(02)00044-0 Anastassiou, C., Christoglou, C. and Angelopoulos. G.N., Formation of aluminide coatings on Ni and austenitic 316 stainless steel by a low temperature FBCVD process, Surface & Coatings Technology, 204 (14), pp. 2240-2245, 2010. http://dx.doi.org/10.1016/j.surfcoat.2009.12.018 Hao-Tung L., Sheng-Chang W., Jow-Lay H., Shin-Yun Ch. Processing of hot pressed Al2O3–Cr2O3/Cr-carbide nanocomposite prepared by MOCVD in fluidized bed, Journal of the European Ceramic Society, 27 (16), pp. 4759-4765. 2007. http://dx.doi.org/10.1016/j.jeurceramsoc.2007.02.207 Andersson, J.O., Helander, T., Hoglund, L.H., Shi, P.F. and Sundman, B., CALPHAD: Comput. Coupling Phase Diagrams Thermochem, 26. 273 P. 2002. Pérez, F.J., Hierro, M.P., Pedraza, F., Gómez, C., Carpintero, M.C. and Trilleros, J.A., Kinetic studies of Cr and Al deposition using CVD-FBR on different metallic substrates, Surface and Coatings Technology, 122 (2-3), pp. 281-289, 1999.

J.L. Marulanda-Arévalo, is Professor at the Universidad Tecnológica de Pereira. Pereira-Colombia. Metallurgical Engineer in 1999 and. MSc. in Metallurgical Engineering in 2002, from the Universidad Industrial de Santander. Colombia. PhD. in Advanced Chemistry, from the Universidad Complutense de Madrid. España. F.J. Pérez-Trujillo, is profesor at the Universidad Complutense de Madrid. Madrid-España. Degree in Chemistry and Industrial Engineer, all of them from the Universidad Complutense de Madrid. España, is PhD. in Chemical Sciences, University of California, Los Angeles. USA. S.I. Castañeda-Quintana, is Researcher at the Universidad Complutense de Madrid. Madrid-España. Degree in Physics and MSc. in Physical Sciences, all of them from the Universidad Nacional Mayor de San Marcos, Lima-Perú. Ph.D. in Physical Sciences, from the Universidad Autónoma de Madrid, España.

29


Three-dimensional modeling of pavement with dual load using finite element Wilson Rodríguez-Calderón a & Myriam Rocío Pallares-Muñoz b b

a Programa de Ingeniería Civil, Universidad de La Salle, Bogotá, Colombia. wrodriguez@unisalle.edu.co Programa de Ingeniería Civil, Universidad Surcolombiana, Neiva, Colombia. myriam.pallares@usco.edu.co

Received: Fabruary 3th, de 2014. Received in revised form: May 5th, 2014. Accepted: May 18th, 2014

Abstract The model developed tries to predict the stresses and strains of the structure of the pavement in a more real way, doing a lineal elastic structural analysis in three dimensions with capacity to model loads of double axes, that which constitutes an advance regarding twodimensional axisymmetrical models that only represent the state tense-deformational of the pavement under loads of simple axes. Earlier stages of this research showed two-dimensional models under different load scenarios, league between layers and nonlinear constitutive models, however the purpose is to move towards analysis methodology stress-strain state under standard loads. The model was implemented in the Algor program and a comparison with the Elsym5 multilayer freeware was performed. The results warn the existence of shear stress concentrations that can be causing major flaws that are not considered in traditional design methods which could lead to the possibility of reassessed. Keywords: Algor, constitutive models, Elsym5, finite elements, pavements, rational design, three-dimensional modeling.

Modelado tridimensional de un pavimento bajo carga dual con elementos finitos Resumen El modelo desarrollado busca predecir los esfuerzos y deformaciones de un pavimento de manera más real, realizando un análisis elástico tridimensional con solicitaciones de carga de ejes dobles, constituyéndose en un avance respecto de modelos axisimétricos bidimensionales que sólo representan el comportamiento bajo cargas de ejes sencillos. Etapas anteriores de esta investigación dan cuenta de modelos bidimensionales de carga simple bajo distintas hipótesis de liga entre capas y modelos constitutivos no lineales, no obstante, el propósito es avanzar en la metodología de análisis del estado tenso-deformacional ante cargas estándar. El modelo se implementó en el programa Algor y se realizó una comparación con el programa multicapa de distribución libre Elsym5. Los resultados advierten la existencia de concentraciones de esfuerzos de corte en la capa asfáltica que pueden ser causantes de fallas importantes que no son tenidas en cuenta en los tradicionales métodos de diseño lo cual podría llevar a la posibilidad de revaluarlos. Palabras clave: Algor, diseño racional, elementos finitos, Elsym5, modelado tridimensional, modelos constitutivos, pavimentos.

1. Introducción En el diseño de pavimentos es viable suponer soluciones a partir de las cuales mediante un proceso de ajustes sucesivos puede lograrse una condición favorable en la estructura del pavimento que garantice unas condiciones de equilibrio durante un período de tiempo determinado [4,9]. Esta forma de proceder para el dimensionamiento de las estructuras de pavimento se conoce como métodos analíticos o racionales los cuales se fundamentan en el análisis del estado de esfuerzos y deformaciones que le

inducen diferentes solicitaciones como tránsito, clima y características de los materiales de cada una de las capas y del suelo de fundación o subrasante. Para el análisis de estructuras de pavimento existen dos grandes vertientes o grupos de métodos: los de carácter empírico y los fundamentados en criterios racionales, comúnmente llamados mecanicistas. Para la implementación adecuada de un modelo racional se requiere de un computador para el desarrollo de los procesos matemáticos y del criterio ingenieril adquirido por la experiencia directa en caracterización de materiales, la determinación de

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 30-38. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.41872


Rodríguez-Calderón & Pallares-Muñoz / DYNA 82 (189), pp. 30-38. February, 2015.

constitutivos de los materiales que componen la estructura. Una vez obtenido el modelo computacional, es factible en una segunda fase del proyecto proceder a la calibración de los parámetros mediante medición directa u optimización matemática. Con el programa de elementos finitos Algor es posible analizar los efectos de una amplia gama de fenómenos como el análisis de tensiones en modelos complejos debidas a cargas estáticas o dinámicas, constantes o con variación en el tiempo, análisis de grandes deflexiones bajo estas cargas usando modelos de materiales no lineales, análisis bajo cargas térmicas, problemas de flujo de fluidos y electrostático.

patologías causantes de daño en la estructura del pavimento y la familiarización con los órdenes de magnitud de los parámetros de entrada y salida del problema. Los métodos racionales pueden presentar diferencias en la predicción del comportamiento de la estructura del pavimento de acuerdo con la rigurosidad de los modelos constitutivos del material, la caracterización de parámetros de entrada; la hipótesis sobre el dominio y las condiciones de contorno del problema, la compatibilidad existente entre capas y las solicitaciones y condiciones ambientales para el funcionamiento. En la medida en que el modelo se adecue a las condiciones reales mayor será la aproximación con la cual se caracterice la respuesta estructural y los esfuerzos y deformaciones críticas para el diseño de espesores [5,6]. Dentro de los métodos más difundidos para el diseño racional de pavimentos se encuentran aquellos que representan la estructura como un conjunto de capas de espesor constante y longitud infinita horizontal y que se encuentran apoyadas sobre un dominio semi-infinito o subrasante. Las capas se suponen compuestas por materiales homogéneos, isótropos y gobernados por un modelo constitutivo lineal elástico. Sin embargo, debe notarse que en la definición del módulo elástico de la capa asfáltica se tienen en cuenta la temperatura y frecuencia de aplicación de la carga, con lo cual, implícitamente, se considera el comportamiento visco-elástico real de las mezclas asfálticas. Bajo esta perspectiva se han desarrollado importantes aplicaciones computacionales como AlizeIII, Elsym5 y Depav, entre otros; todos estos paquetes trabajan con las restricciones propias de su formulación y están limitados en capacidad en cuanto al número de capas que pueden representar. Las técnicas más avanzadas para el análisis y diseño racional de pavimentos consideran el uso de elementos finitos como la vía de mayor flexibilidad y versatilidad para la representación de los materiales, las condiciones de compatibilidad y la representación de n capas; en general, se destaca la gran capacidad para incluir complejidades al problema, generando mayor certeza de los resultados alcanzados. Pertenecen a este grupo las aplicaciones multifísicas que originalmente no están diseñadas para abordar el problema particular del comportamiento tenso-deformacional de la estructura del pavimento; sin embargo, cuentan con todas las herramientas, que aprovechadas por un usuario experto pueden conducir a modelos satisfactorios, más centrados en la realidad del comportamiento del pavimento. En este artículo se plantea el uso de Algor como modelador de alto rango; sin embargo pueden emplearse otros modeladores teniendo en cuenta que en cada uno de ellos es necesario realizar una adaptación de acuerdo con las posibilidades de modelación numérica que ofrecen [8]. Después de desarrollar en esta investigación varios modelos bidimensionales de carga simple el siguiente paso era el avance hacia modelos tridimensionales que permitieran el análisis de sistemas de carga de ejes dobles. El artículo presenta un modelo de elementos finitos tridimensional que describe de forma más real y lógica el comportamiento físico-mecánico de un pavimento, teniendo en cuenta el mayor número de variables o parámetros permitidos por la formulación lineal de los modelos

2. Métodos El método de elementos finitos cuenta con innumerables ventajas para el desarrollo de un modelo conceptual y numérico de análisis de pavimentos [2,3,5]. Dentro de ellas pueden destacarse: la inclusión de la temperatura como parámetro en la capa asfáltica –debido a la posibilidad de incorporar curvas maestras ó isotermas que caracterizan el módulo dinámico de la mezcla–; la condición de compatibilidad ligada o no ligada entre capas; la inexistencia de restricción en el número de capas del modelo geométrico; la posibilidad de introducir modelos constitutivos de material y análisis más avanzados [6,8,13]. En el análisis de la estructura de un pavimento nuevo se requiere de un predimensionamiento, esto es, de los espesores de las capas que lo componen obtenidos de diseños preliminares. En estructuras existentes los espesores de capa son determinados mediante inspección directa a través de sondeos, apiques o extracción de núcleos. En la Fig. 1 se esquematiza una estructura de pavimento típica. En un modelo de este tipo desarrollado con Algor pueden añadirse capas y variar la dimensión de los espesores y tipos de material. La existencia del plano vertical de simetría XZ permite realizar la mitad del modelo geométrico que representa el problema (ver Fig. 7). Las líneas punteadas de la Fig. 1, representan los ejes de simetría de las cargas circulares de magnitud q y radio a. En el modelo, la distancia entre ejes de carga es tres veces el radio y las fronteras laterales están localizadas a 0,40 metros a partir de los ejes. Las interfaces se suponen ligadas, no obstante se espera representar condiciones no ligadas en futuras etapas de la investigación. Las dimensiones de las capas constitutivas de la estructura del pavimento modelado se presentan en la Tabla 1.

Figura 1. Estructura típica de un pavimento flexible. Fuente: propia

31


Rodríguez-Calderón & Pallares-Muñoz / DYNA 82 (189), pp. 30-38. February, 2015. Tabla 2. Valores típicos de módulo elástico de las capas constitutivas

Tabla 1. Valores típicos de espesores de capa de una estructura de pavimento flexible Capa Espesor (m) Capa asfáltica 0.10 Base granular 0.20 Sub-base granular 0.30 Subrasante 0.70 Fuente: propia

Módulo elástico (kPa)

Capa Capa asfáltica Base granular Sub-base granular Subrasante Fuente: propia

La subrasante es semi-infinita, sin embargo en los modelos de elementos finitos las fronteras se ubican de forma que puedan establecerse líneas donde no existen desplazamientos importantes, debido a la lejanía que presentan respecto a la carga aplicada. Los módulos de elasticidad del suelo y las capas granulares se determinan por medio de ensayos triaxiales dinámicos para suelos. El módulo elástico de la capa asfáltica se establece a través de ensayos de módulos dinámicos a temperaturas y frecuencias de diseño del pavimento o por medio de pistas de prueba o tramos experimentales sobre los cuales se realizan ensayos de viga Benkelman doble o utilizando deflectómetros [1,7]. El ensayo de módulos dinámicos se realiza empleando una máquina de tracción indirecta, como el Nottingham Asphalt Tester. En el ensayo se aplica una carga vertical a determinada frecuencia (5 Hz en este trabajo) a una probeta de mezcla asfáltica midiendo los desplazamientos horizontales de la muestra con sensores (LVDT). La frecuencia de carga es controlada a través del parámetro rise-time (tiempo pico) que determina el tiempo de ascenso de la carga y permite tener en cuenta el comportamiento viscoelástico de la mezcla. Generalmente el ensayo se realiza a tres temperaturas representativas (5, 25 y 40 °C), para caracterizar lo que comúnmente se denomina curva maestra de la mezcla asfáltica

1500000 328200 148200 49000

100000

MÓDULO [M Pa]

10000

1000

100 0

10

20

30

40

Temperatura ºC Muestra 1

Muestra 2

Muestra 3

Figura 4. Curvas maestras de módulos dinámicos-capa asfáltica. Fuente: propia

o del núcleo extraído in situ. Las curvas representan la variación del módulo dinámico en función de la temperatura para una frecuencia de referencia y su construcción es posible por el efecto recíproco que tiene la temperatura y la frecuencia de solicitación respecto al valor modular para materiales asfálticos. Las Fig. 2, 3 y 4 ilustran detalles relevantes del ensayo de módulos dinámicos [10-12].Los módulos de elasticidad tomados como referencia para cada una de las capas de acuerdo a las condiciones de trabajo del pavimento se muestran en la Tabla 2. El valor del módulo dinámico para la capa asfáltica fue tomado de ensayos sobre muestras obtenidas en el laboratorio de Asfaltos del Instituto Colombiano del Petróleo, dentro de la investigación realizada por los autores, titulada “Aditivos Mejoradores de Adherencia para Asfaltos”. Las conclusiones más importantes de este proyecto se encuentran publicadas en la revista de Corasfaltos “Asfaltos y Pavimentos”. La granulometría de la mezcla corresponde al huso medio de la especificación MDC-2 del Invías-96 para capa de rodadura de Mezcla Densa en Caliente. El asfalto utilizado fue una muestra de Apiay. La dosificación se efectuó con el método Marshall y el porcentaje óptimo de asfalto obtenido fue de 6.3 %. El valor del módulo dinámico que se empleó en el modelo se tomó a una temperatura de 25°C y a una frecuencia de 5 Hz. El módulo de Poisson se define como la relación entre las deformaciones horizontal y vertical inducidas en la estructura del pavimento por acción de la carga. La variación de este parámetro no tiene una incidencia considerable en su comportamiento; por esta razón se emplean valores característicos como los de la Tabla 3, los cuales fueron tomados del documento “Caracterización de materiales viales. Su aplicación al diseño estructural de

Figura 2. Montaje de la prueba de módulos dinámicos. Fuente: propia

Figura 3. Aplicación de carga en pruebas de módulos dinámicos [3]. Fuente: propia 32


Rodríguez-Calderón & Pallares-Muñoz / DYNA 82 (189), pp. 30-38. February, 2015. Tabla 3. Valores típicos de módulo de Poisson de las capas constitutivas Capa  Capa asfáltica depende de la temperatura Base granular 0.40 Sub-base granular 0.45 Subrasante 0.49 Fuente: propia

Interfaz capa asfáltica – base granular

( t), ( t)

Sub-base granular Subrasante

( v)

Figura 5. Ubicación de los parámetros de control en el diseño del pavimento. Fuente: propia

pavimentos” de la Universidad del Cauca, en el cual se recopilan importantes trabajos de investigación de diferentes países incluido Colombia. En el modelo desarrollado se incorporó la variación del módulo de Poisson respecto a la temperatura en la capa asfáltica utilizando la función, propuesta por la Universidad de Nottingham:

la tensión máxima (t) capaz de producir la rotura que se compara con el límite admisible del material (tadm) considerado para el tránsito propuesto. De igual manera, se compara el esfuerzo vertical (v) y la capacidad portante del suelo de subrasante (vadm). El modelo se desarrolló en el programa de elementos finitos Algor. Este modelador multifísico no dispone de un método directo que resuelva el problema de dimensionamiento de una estructura; se requiere que el proyectista efectúe la modelación de la estructura propuesta y la someta a verificación, pudiendo resultar una eventual modificación de la misma o de alguno de los parámetros de entrada. El principio del diseño racional consiste fundamentalmente de: modelar la estructura con elección del número de capas, espesores y características de los materiales; determinar las tensiones máximas que pueden provocar la degradación (t) y (v) y, comparar las tensiones calculadas con los valores límites admisibles para los materiales. Ahora bien, para ilustrar al lector acerca del programa Algor se presenta una breve explicación de su estructura. Se compone de cuatro interfaces que realizan diferentes funciones: a) Superdraw contiene herramientas CAD que permiten construir un modelo geométrico, b) Interfaz CAD usada para generar mallas en modelos que provienen de dibujos CAD, c) Editor FEA para definir las propiedades del modelo y aplicar cargas y restricciones y d) Superview para ver los resultados del análisis. Los pasos típicos de un análisis de esfuerzos de elementos finitos empleando Algor son esencialmente: crear una malla (una grilla de nodos y elementos) para discretizar el modelo; definir el sistema de unidades, las propiedades globales del modelo (tipo de análisis, solucionadores, opciones de salida de datos, etc.) las propiedades del elemento, aplicar las cargas y las condiciones de borde, ensamblar las matrices de rigidez del elemento, resolver el sistema algebraico de ecuaciones lineales, calcular los resultados y presentarlos. Estos pasos son abordados en tres fases, el preproceso, la solución y el posproceso. BRICK es el nombre del elemento finito utilizado para modelar las capas de la estructura y está disponible en la librería de elementos del programa. Se trata de un elemento tridimensional (hexaedro) isotrópico definido por ocho nodos, tres grados de libertad traslacionales por nodo (UX, UY, UZ) y capacidad para representar estados de tensión y deformación en las tres dimensiones. En la Tabla 4 se ilustran la geometría, localización de nodos y propiedades del elemento.

T<10ºC=0.25 ó T>10ºC=0.01*T+0.15

Esta función fue determinada teniendo en cuenta el rango de temperatura en el que normalmente se encuentran los pavimentos a nivel mundial. Nótese, la correspondencia con las temperaturas representativas utilizadas para la realización de las curvas maestras. De esta manera, el valor de  en la capa asfáltica bajo condiciones normales de temperatura (25°C) es aproximadamente 0,40. La carga aplicada está representada por una presión vertical distribuida uniformemente sobre un área circular. Se ha demostrado que la presión transmitida equivale a la presión de inflado de las llantas. Como el modelo utilizado en este trabajo es tridimensional, es necesario especificar en el programa que la carga es aplicada en un área semicircular. El radio de carga empleado es de 0.108 metros bajo una presión de inflado de 560 kPa. La distancia entre ejes es de 0.324 m. El modelo está confinado en todas sus caras laterales. La cara vertical de simetría está restringida en sus movimientos horizontales en la dirección perpendicular debido a la simetría de la carga respecto a la cara. El movimiento vertical de la base de la estructura está restringido y su ubicación se establece en la medida que los desplazamientos de dicha base tiendan a cero. Las capas se consideran ligadas y la geometría utilizada busca aprovechar la característica cilíndrica de cada eje de carga dual, permitiendo un ahorro considerable en elementos y tiempo computacional. En la estructura del pavimento se toman en cuenta como parámetros de control, la deformación por tracción en la fibra inferior de la capa asfáltica (t) y el esfuerzo vertical por compresión aplicado sobre la subrasante (v). Se destaca que el esfuerzo de tracción en la fibra inferior de la capa asfáltica (t) es un parámetro que puede establecer diferencias entre un modelo elástico y uno elastoplástico. En la Fig. 5 se indica la ubicación de estos parámetros en la estructura del pavimento. El principio de cálculo consiste en la modelación de la estructura a partir de la definición de los espesores y características elásticas (módulo elástico y relación de Poisson) de cada capa para calcular las tensiones y desplazamientos provocados por una carga tipo e identificar 33


Rodríguez-Calderón & Pallares-Muñoz / DYNA 82 (189), pp. 30-38. February, 2015.

Z

Y X

Figura 6. Elemento BRICK. Fuente: Algor User Manual Figura 8. Dominio de la estructura. Vista frontal. Fuente: propia

Tabla 4. Datos de entrada del elemento finito Nombre BRICK Grados de libertad UX, UY,UZ Propiedades del material Módulo de Elasticidad, Densidad, Poisson Cargas superficiales Presiones aplicadas en las caras del elemento Cargas de cuerpo Temperaturas nodales Fuente: propia

En la vista frontal que se muestra en la Fig. 8 se visualiza el plano de simetría XZ del modelo, donde X denota al eje horizontal y Z al vertical. Se observa en esta vista, que los ejes X y Y están situados sobre la interfaz capa asfáltica-base granular. El origen del sistema de referencia se ubica justo en el cruce entre el plano de simetría XZ y el eje Y. Tanto en la vista tridimensional como en la frontal se distinguen claramente, la subrasante, la sub-base, la base y la capa asfáltica. En concordancia con la Fig. 5 y observando la Fig. 8, las etiquetas que permiten identificar cada una de las capas se encuentran ubicadas en el límite inferior de cada capa, pudiéndose distinguir claramente la ubicación de las interfaces y de cada capa en los resultados de isocontornos. En adelante, los resultados de desplazamiento, esfuerzos y deformaciones por medio de isocontornos, se presentarán sobre el plano de simetría XZ visualizado en la vista frontal, por ser la sección más representativa del modelo de carga dual para el análisis tenso-deformacional de la estructura de pavimento y también por las condiciones de frontera del problema. La Fig. 9 presenta en escala aumentada la curvatura adoptada por las capas debido al efecto de la carga dual que proporciona una idea de las posibles zonas de tracción o

3. Resultados y Discusión En el modelo desarrollado la hipótesis de compatibilidad en todas las capas es de liga que significa compatibilidad total en los desplazamientos horizontales y verticales. Los resultados de esfuerzo y deformación del modelo tridimensional elástico lineal se presentan por medio de isocontornos. La Fig. 7 presenta una vista isométrica de la estructura. En ella se aprecia el dominio tridimensional constituido de dos cuartos de cilindro y un bloque rectangular de capas. La dirección de los ejes globales XYZ que se definen positivos a partir de la regla de la mano derecha, son tomados como base para interpretar los resultados de desplazamiento, deformación y esfuerzos globales. El modelo se representa sólo con la mitad del dominio ya que existe simetría de espejo respecto al eje X.

Figura 7. Vista isométrica del modelo. Fuente: propia

Figura 9. Deformada de la estructura por carga dual. Vista frontal. Fuente: propia 34


Rodríguez-Calderón & Pallares-Muñoz / DYNA 82 (189), pp. 30-38. February, 2015.

Figura 10. Isocontornos de desplazamiento total: []. Vista frontal. Fuente: propia

Figura 12. Isocontornos de desplazamiento horizontal en dirección Y: [Y]. Vista isométrica. Fuente: propia

Figura 11. Isocontornos de desplazamiento horizontal en dirección X: [X]. Vista frontal. Fuente: propia Figura 13. Isocontornos de desplazamiento vertical en dirección Z: [Z]. Vista frontal. Fuente: propia

compresión de las fibras y de la disipación de la carga a través de las capas. Se observa en la superficie del modelo que las zonas cercanas a la carga tienden a acercarse al centro mientras que los puntos localizados a lado y lado del eje central Z en las capas inferiores tienden a alejarse. Las etiquetas que se encuentran en las interfaces sirven de guía para delimitar las capas y entender los resultados mostrados a través de isocontornos La Fig. 10 presenta los isocontornos de desplazamiento total resultante de las tres componentes. Los dos isocontornos superiores indican la zona de mayor influencia de la carga dual. Los isocontornos observados en la superficie de la capa asfáltica de la Fig. 11 indican el acercamiento de los puntos hacia el eje vertical Z. Por el contrario, en la interfaz capa asfáltica-base granular y las capas de base y sub-base, los isocontornos señalan que estos puntos tienden a alejarse del eje central. Los resultados de desplazamiento horizontal en dirección X presentan correspondencia con la geometría deformada. En la Fig. 12 se aprecian los isocontornos de desplazamiento en la dirección Y. Los valores negativos en la superficie se interpretan como una tendencia de los puntos a acercarse en dirección perpendicular al plano vertical de simetría. El comportamiento coincide con el de la geometría deformada.

Por su parte, los valores negativos de desplazamiento vertical de la Fig. 13 indican hundimiento de las capas. Este comportamiento es lógico si se tiene en cuenta que la carga ejerce presión hacia abajo en la dirección negativa del eje global Z. El descenso de las capas también se observa en la geometría deformada. La Fig. 14 indica la concentración de esfuerzos horizontales en dirección X (tensión) en la interfaz capa asfáltica-base como lo predicen teorías como la elástica lineal multicapa empleada por los programas ALIZE III, Elsym5 y DEPAV. También se observa que en medio de los dos isocontornos de la interfaz capa asfáltica-base granular, existe una zona de compresión determinada por los valores negativos de esfuerzo. Este comportamiento se evidencia en la geometría deformada. La concentración de esfuerzos horizontales en dirección Y (tensión) en la interfaz capa asfáltica-base granular, se presenta en la Fig. 15. En la interfaz no se aprecia ninguna zona de compresión como ocurre en los esfuerzos horizontales en dirección X. Además los esfuerzos de tensión en Y son mayores que en X, lo cual sugiere una tendencia natural a generar grietas con la repetición de carga a lo largo del eje de la vía. 35


Rodríguez-Calderón & Pallares-Muñoz / DYNA 82 (189), pp. 30-38. February, 2015.

efectos de daño que producirían, ya que de ser así deberían tenerse en cuenta en el diseño racional de pavimentos. En la Fig. 18 se presenta la concentración de deformación horizontal en dirección X (deformación por tensión) en la interfaz capa asfáltica-base granular. Este resultado concuerda con el de esfuerzos, presentado en la Fig. 14. Se observa que en medio de los dos isocontornos positivos de la interfaz capa asfáltica-base granular, se encuentra una zona de compresión identificada por los valores negativos de los isocontornos de deformación que allí ocurren.

Figura 14. Isocontornos de esfuerzo horizontal en dirección X: [X]. Vista frontal. Fuente: propia

Figura 16. Isocontornos de esfuerzo vertical en dirección Z: [Z]. Vista frontal. Fuente: propia

Figura 15. Isocontornos de esfuerzo horizontal en dirección Y: [Y]. Vista frontal. Fuente: propia

En la Fig. 16 se observa la intersección de dos bulbos de esfuerzo vertical producido por la carga dual. También es clara la disipación del esfuerzo vertical a través de las capas. Esto significa, que los esfuerzos reducen su influencia a medida que se acercan a la subrasante, como es de esperarse en el diseño para garantizar la capacidad portante del suelo. Esta condición no es particular del modelo desarrollado, de hecho, las características que definen una estructura de pavimento flexible y la naturaleza de los materiales constitutivos de las capas, hacen que el módulo elástico se reduzca en la medida que se avanza en profundidad. Esto es, la capa más rígida y también la más solicitada por repetición de carga es la capa expuesta – superficial– o manto asfáltico, y la de menor rigidez es la capa más profunda –la subrasante–; por tanto, la condición de superposición de bulbos de esfuerzo vertical en dirección Z es general, tal como lo advierte el modelo presentado. Ahora bien, los valores de estos esfuerzos pueden cambiar en función de los valores de los módulos elásticos de las capas, no obstante, los bulbos siempre se presentarán de acuerdo a los conceptos de las teorías multicapa [6]. La distribución de isocontornos de la Fig. 17 señala una concentración de esfuerzos de corte en la capa asfáltica que podrían en un momento dado ser importantes en un mecanismo de falla en el caso de ser críticos con respecto a otros tipos de esfuerzo. Los esfuerzos cortantes comúnmente no se emplean como parámetro de control, sin embargo, sería importante evaluarlos por los posibles

Figura 17. Isocontornos de esfuerzo cortante en el plano XZ: [XZ]. Vista frontal. Fuente: propia

Figura 18. Isocontornos de deformación horizontal en dirección X: [X]. Vista frontal. Fuente: propia 36


Rodríguez-Calderón & Pallares-Muñoz / DYNA 82 (189), pp. 30-38. February, 2015.

En la Fig. 19 se aprecia la concentración de deformación horizontal en dirección Y (deformación por tensión) en la interfaz capa asfáltica-base granular. Las deformaciones de tensión en esta dirección son mayores que las deformaciones en X, lo cual ratifica la tendencia natural a generar grietas con la repetición de carga a lo largo del eje de la vía. No se observan zonas de compresión en la interfaz.

Figura 21. Isocontornos de deformación por cortante en el plano XZ: [XZ]. Vista frontal. Fuente: propia

Tabla 5. Comparación de los parámetros de respuesta Parámetro Elsym5 Algor 0.190434E-3 0.1952E-03 x [m] 0.262003E-3 0.2701E-03 y [m] Sz [kPa] 272.31 255.8 0.483175E-5 0.4105E-05 xz [m] Fuente: propia

Figura 19. Isocontornos de deformación horizontal en dirección Y: [Y]. Vista frontal. Fuente: propia

Los resultados de deformación horizontal en dirección X (Fig. 18) difieren de los de deformación horizontal en dirección Y (Fig. 19), lo que advierte la inexistencia de simetría entre estos dos ejes y la importancia del modelado tridimensional de la carga dual. Nótese, que tal situación no ocurre cuando la carga aplicada es la de un eje simple, ya que en ese caso existe simetría axial (rotacional, radial o cilíndrica) alrededor del eje vertical Z por lo cual es suficiente y eficiente usar un modelo 2D para carga axisimétrica [10, 11]. La Fig. 20 muestra la intersección de dos bulbos de deformación vertical producida por la carga dual. Se observa una disminución del efecto de esta deformación en la subrasante. Los valores negativos denotan hundimiento en las capas. La Fig. 21 indica que existen concentraciones de deformación por cortante que podrían ser importantes a la hora de un mecanismo de falla en el caso de ser críticos con respecto a otros tipos de deformación. En el análisis racional

|%Var.| 2.4 3.0 6.5 17.7

debería introducirse la deformación y/o esfuerzo cortante como parámetros de diseño, sobre todo cuando son mayores por sobrecargas de impacto, como ocurre en las pistas de los aeropuertos. Se compararon los resultados frente al programa elástico multicapa de cálculo de esfuerzos y deformaciones para diseño de pavimentos Elsym5. En la Tabla 5 se presentan comparaciones entre esfuerzos y deformaciones para los dos modelos bajo el eje de carga de una de las llantas. x y y representan las deformaciones horizontales en las direcciones X y Y, respectivamente; Sz (kPa) el esfuerzo vertical y xz es el esfuerzo cortante, en la interfaz capa asfáltica-base granular. Para la comparación se elaboró un modelo utilizando los mismos datos del modelo de Algor. Sin embargo, se recomienda observar los porcentajes de variación como cantidades que señalan diferencias entre los dos modelos y no como porcentajes de error, ya que los algoritmos de cálculo de la teoría multicapa y elementos finitos, son considerablemente diferentes. Pese a ello, se encuentra que los resultados coinciden significativamente. A partir de los datos consignados en la Tabla 5 se aprecia mayor porcentaje de variación entre los resultados de deformación por cortante, xz. Las variaciones se pueden reducir refinando la malla de elementos finitos en las zonas de carga y alejando aún más las fronteras en el modelo. Estas consideraciones incrementarían notablemente el tiempo computacional. Los resultados encontrados son satisfactorios. Sin embargo queda abierto un camino de investigación y de mejoramiento de los modelos que es factible, dada la flexibilidad del método de los elementos finitos para tratar complejidades geométricas y de material.

Figura 20. Isocontornos de deformación vertical en dirección Z: [Z]. Vista frontal. Fuente: propia 37


Rodríguez-Calderón & Pallares-Muñoz / DYNA 82 (189), pp. 30-38. February, 2015. [3]

4. Conclusiones El método de elementos finitos demuestra su superioridad respecto a otras metodologías y marca un camino a seguir para realizar diseños de pavimentos más ajustados a comportamiento real en dos y tres dimensiones. En una segunda fase se propone realizar las actividades de calibración pertinentes y la verificación de los modelos, para determinar su grado de validez. Sin embargo debe destacarse que el desarrollo de los modelos numéricos en sí mismos constituye una importante herramienta para futuras investigaciones en el campo del análisis y diseño de pavimentos. El esfuerzo y la deformación de corte son datos no empleados normalmente como parámetro de control en el diseño de pavimentos; sin embargo, los modelos de elementos finitos advierten la existencia de concentraciones de esfuerzos de corte que probablemente induzcan fallas importantes a la estructura. Mediante la implementación de un modelo numérico adecuado podría predecirse de manera más clara su influencia, y la relevancia de tenerlo en cuenta en el diseño. Para pistas de aeropuertos, el cálculo de esfuerzos de corte tiene gran importancia si se tiene en cuenta que el impacto de los aviones durante el proceso de aterrizaje produce esfuerzos de corte de magnitud considerable. Se advierte que programas de amplío uso por los diseñadores como Elsym5 tienen la posibilidad de calcular la condición esfuerzo-deformación de corte, sin embargo, estos datos no son usados de manera convencional en el diseño racional de pavimentos. Se recomienda usar los resultados de los modelos numéricos de elementos finitos con criterio y rigor matemático, físico e ingenieril, para tomar decisiones basadas en las restricciones e hipótesis propias de los modelos; de otra manera puede llegarse a concepciones erradas o poco ajustadas a la realidad. No debe olvidarse que todo modelo matemático o físico es una aproximación a la realidad, y que es imprescindible reconocer el alcance de las teorías que sustentan las predicciones halladas. En el modelo tridimensional puede observarse la interacción de los esfuerzos y deformaciones bajo un eje de carga doble. Con ello, se obtiene un sistema de análisis completo del comportamiento de la estructura, que permite tener en cuenta todas las solicitaciones para un diseño racional de pavimentos. El método de los elementos finitos presenta la ventaja de permitir un estudio detallado del comportamiento tensodeformacional del pavimento ante carga dual y la herramienta de posproceso permite analizar fácilmente los resultados por medio de gráficas de isocontornos. Se recomienda profundizar en etapas futuras de la investigación en aspectos como la liga entre capas y modelos constitutivos de los materiales, entre los tópicos más importantes.

[4] [5] [6]

[7]

[8]

[9] [10] [11]

[12]

[13]

W. Rodríguez-Calderón, received the Bsc. Eng. in Civil Engineering in 1998, from the Universidad Industrial de Santander, Colombia, the MSc degree in Numerical Methods in Engineering in 2002, from the Universidad Piloto de Colombia, Bogotá, Colombia. He has worked as a professor and researcher for over fifteen years. Currently, he is a Full Professor in the Civil Engineering Program, Facultad de Ingeniería, Universidad de La Salle, Bogotá, Colombia. His research interests include: simulation, modeling; statistical and computational intelligence techniques; and optimization using metaheuristics. ORCID: 0000-0001-9016-433X M.R. Pallares-Muñoz, received the Bsc. Eng in Civil Engineering in 1998, from the Universidad Industrial de Santander, Colombia; the MSc. degree in Numerical Methods in Engineering in 2004 from the Universidad Piloto de Colombia, Bogotá, Colombia. She has worked as a professor and researcher for over ten years. Currently, he is a Full Professor in the Civil Engineering Program, Facultad de Ingeniería, Universidad Surcolombiana, Colombia. Here research interests include: simulation and computational modeling. ORCID: 0000-0003-4526-2357

Referencias [1] [2]

Fonseca, E. y Rodríguez, W., Modificación de asfaltos con poliolefinas. Memorias de las Segundas Jornadas Internacionales del Asfalto, 2000. Huang, B., Tutumluer, E., et al., Paving materials and pavement analysis. Shanghai: ASCE, 2010. http://dx.doi.org/10.1061/9780784411049 Jaritngam, S., Analysis of stress, strain and deflection of pavements using finite element method. Journal of Society for Transportation and Traffic Studies, 1 (4), pp. 51-59, 2010. Kim, M., Three-dimensional finite element analysis of flexible pavements considering nonlinear pavement foundation behavior. Ph D. Thesis, Civil Engineering University of Illinois, UrbanaChampaign, USA, 2003. Kringos, N., Birgisson, B., Frost, D. and Wang, L. Multi-Scale Modeling and Characterization of Infrastructure Materials, Proceedings of the International RILEM Symposium: Estocolmo, Springer, 2013. Nilaward, T., Shih, C., White, T.D. and Ting, E.C., Development of a 3D Finite Element Program for Pavement Analysis, Volume I: Introduction and Appendix 1. Publication FHWA/IN/JHRP-96/21-1. Joint Highway Research Project, Indiana Department of Transportation and Purdue University, WestLafayette, Indiana, 1998. Papagiannakis, A.T., Masad, E.A., Pavement Design and Materials. Texas: John Wiley & Sons, 2008. Rodríguez, W. y Pallares, M.R., Desarrollo de un modelo de elementos finitos para el diseño racional de pavimentos. Memorias de las Cuartas Jornadas Internacionales del Asfalto, 2004. Rodríguez, W., Pallares, M.R. y Rodríguez, J., Modelo numérico de la estructura del pavimento con y sin geomallas, XV Simposio Colombiano de Ingeniería de Pavimentos, Pontificia Universidad Javeriana, Bogotá, Colombia, 2005. Salgado, M., Rodríguez W., Guzmán J. y Rodríguez J.C., Análisis comparativo de resultados obtenidos en ensayos de tensión indirecta efectuados a briquetas. Memorias de las Cuartas Jornadas Internacionales del Asfalto, 2004. Samir, N.S., Finite Element for Pavement Analysis and Design. Charleston: West Virginia University Press, 1998.

Álvarez, A., Análisis de sistemas asfalto-agregado a partir de mediciones de energía superficial libre. DYNA. 79 (175), pp. 111119, 2012. David, M. and Potts, L.Z., Finite Element Analysis in Geotechnical Engineering – Theory, London: Thomas Telford Publishing, 2009.

38


Insights of asphaltene aggregation mechanism from molecular dynamics simulation Jennifer De León a, Bibian Hoyos b & Wilson Cañas-Marín c a Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia. jde@unal.edu.co Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia. bahoyos@unal.edu.co c ECOPETROL S.A., Instituto Colombiano del Petróleo (ICP), km 7 via Piedecuesta, Santander, Colombia, wilson.cmarin@ecopetrol.com.co b

Received: February 7th, 2014. Received in revised form: September 10th, 2014. Accepted: October 1th, 2014.

Abstract Asphaltene aggregation process was studied using molecular dynamics techniques. Four different structures were used. The first three molecules have a continental structure, with condensed aromatic cores, while the forth has an archipelago structure, with small groups of aromatic rings connected with saturated chains. The molecules were constructed in an atomistic framework, in which atoms are described individually. Interaction forces were calculated at 300 K and 200 atm; Van der Waals and electrostatic interactions were evaluated separately. For all four molecules the solubility parameter was calculated. It was found that Van der Waals interactions due to the presence of aromatic rings and electrostatic forces caused by the presence of heteroatoms such as oxygen, nitrogen and sulfur, are equally relevant in the aggregation of asphaltene molecules. For all molecules it was found asphaltene systems are more stable in aggregation state than in monomeric state. For continental structures, the presence of long ramifications obstructs the formation of asphaltene aggregates. For archipelago structures, the flexibility of the molecules enables the aggregation with other structures. The presence of heteroatoms creates a repulsive force that hinders the aggregation process. The molecular volume and the cohesive energy are also sensitive to the geometric configuration and the composition of the species, which affects the solubility parameter. Keywords: asphaltene, aggregation, molecular simulation, solubility parameter.

Visualización del mecanismo de agregación de asfaltenos usando simulación de dinámica molecular Resumen Se estudió el proceso de agregación de asfaltenos utilizando técnicas de dinámica molecular. Se utilizaron cuatro estructuras diferentes. Las primeras tres moléculas tienen una estructura continental, con núcleos aromáticos condensador, mientras que la cuarta posee una estructura tipo archipiélago, con pequeños grupos de anillos aromáticos conectados con cadenas saturadas. Las moléculas fueron construidas de manera atomística, en la cual cada átomo se describe individualmente. Se calcularon las fuerzas de interacción a 300 K y 200 atm; las fuerzas de Van der Waals y las interacciones electrostáticas fueron evaluadas separadamente. Se calculó el parámetro de solubilidad para las cuatro moléculas. Se encontró que las interacciones de Van der Waals asociadas a los anillos aromáticos y las fuerzas electrostáticas ocasionadas principalmente por la presencia de heteroátomos como oxígeno, azufre y nitrógeno, son igualmente relevantes en la agregación de moléculas de asfalteno. Para todas las moléculas se encontró que los sistemas de asfaltenos tienen menor energía en estado de agregación que en estado monomérico. Para las estructuras continentales, la presencia de largas cadenas obstruye el proceso de formación de agregados. Para las estructuras tipo archipiélago, la flexibilidad de las moléculas facilita la agregación con otras estructuras. La presencia de heteroátomos ocasiona una fuerza repulsiva que dificulta la agregación. El volumen molecular y la energía de cohesión también son sensibles a la configuración geométrica y la composición de las especies, lo cual afecta el parámetro de solubilidad. Palabras clave: asfaltenos, agregación, simulación molecular, parámetro de solubilidad.

1. Introduction Asphaltene aggregation and deposition is one of the biggest sources of production loss, especially in light oil reservoirs.

However, the real mechanism of asphaltene aggregation is still unclear. Due to the complexity of the system, it is particularly difficult to design proper experiments in order to determine the exact nature of the aggregation process.

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 39-44. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.41963


De LeĂłn et al / DYNA 82 (189), pp. 39-44. February, 2015.

actual system, the asphaltene model should include all these structures to adequately describe asphaltene aggregation behavior. In light of this new tendency, four asphaltene molecules obtained from previous experimental work in Colombian Castilla crude oil were studied. Since all four molecules were obtained from experimental work, it is possible that they all coexist in the actual asphaltene-hydrocarbon system. The aim of this work is to determine the nature of the behavior of these molecules as they interact with themselves in order to set a foundation in asphaltene aggregation studies of Colombian asphaltene systems. The molecular volume and the solubility parameter were also calculated to validate the model with macroscopic properties.

Molecular simulation techniques appear as an alternative to experimentation, as these allow, for instance, studying the behavior of complex systems under extreme conditions of temperature and pressure. In the literature, it is possible to differentiate three major areas in computer simulation of asphaltene systems: (1) the development of adequate equations of state to describe hydrocarbon systems with some contents of asphaltene [1–3]; (2) population balance models that study the evolution of aggregate size and growth as a function of some control variable; and (3) molecular models to study the behavior of asphaltene systems from a molecular or atomistic scale [4–8]. With the improvements in computer efficiency, molecular models become an excellent choice for accurately describing the aggregation of asphaltenes, as this process takes place in a molecular scale. These models are often based on experimental measurements and theoretical considerations, taking into account the average composition as a restriction. Vicente et al. [4] presented a model to calculate the miscibility of a model asphaltene molecule in different organic solvents, finding that asphaltenes have more affinity with long-chain hydrocarbons due to the density of this kind of substances, which agrees with experimental results. Lu et al. [5] evaluated the aggregation of asphaltene molecules in different solvents at various temperatures. Results showed that temperature does not influence aggregation up to 500 K. Frigeiro and Molinari [6] used molecular dynamics to study aggregation in different solvents and calculated the solubility parameter of two asphaltene molecules proposed after experimentation and spontaneous formation of asphaltene clusters was observed. A. N. M. Carauta et al. [7] also used molecular dynamics to calculate the solubility parameter of an asphaltene molecule and its dimer. Their results show that the solubility parameter decreases with aggregation number. More recently, M. Segdhi et al. [8] studied the aggregation of asphaltenes and the formation of dimers and clusters; their results show the different states of aggregation and were able to calculate aggregate sizes. All these results allow concluding that computer simulation is an adequate technique to describe asphaltene systems and their behavior. Although it might seem that computer simulation of asphaltene-petroleum systems holds all the answers in understanding asphaltene behavior and prediction of macroscopic properties, one important aspect to consider in using this technique is that they need the molecular description of asphaltene as input, and several aspects of asphaltene structure and composition are still in debate. Asphaltenes are not a single specific molecule, but rather a set of structures that share solubility behavior and general characteristics. Traditionally, structural characteristics are determined experimentally, and average values for atomic content, molecular weight and geometric configuration are used to propose one structure to represent the different molecules that coexist in the actual asphaltene system [9,10]. This representation of asphaltenes as a single average molecule has recently originated some controversy. Gray et al. [11] have stated that as different structures exist in the

2. Model The asphaltene molecules used in this study were proposed by Navarro et al. [12] as a result of experimental analyses conducted on Colombian Castilla crude oil. In the original work presented by Navarro et al. three molecules were proposed, one asphaltene macromolecule and two molecules presented as resins. However, the recent literature on asphaltenes structure and new measurements of properties such as molecular mass and density for asphaltene monomeric molecules suggest that the macromolecule initially proposed by Navarro et al. as an asphaltene does not meet the criteria of an asphaltene molecule [9,10,13], and the initially proposed resins can be categorized as asphaltenes. In this work, a decision was made to divide the macromolecule proposed by Navarro et al. into two molecules, and to treat the proposed resins as asphaltene molecules. The four proposed asphaltene molecules are likely to coexist in the actual hydrocarbon system. However, in this work they are evaluated individually in order to establish the true nature of their aggregation behavior in absence of external forces. Fig. 1 shows the molecular structure of the species used in this study. It is seen that the structures shown in Fig. 1a, 1b and 1c have a continental structure, with a core made of condensed aromatic rings surrounded by saturated chains of hydrocarbons. The fourth molecule, shown in Fig. 1d, has an archipelago structure, with small groups of rings connected by saturated chains. Molecule A1 (Fig. 1a) presents a core made of eight aromatic rings and one atom of sulfur and one atom of nitrogen. Molecule A2 (Fig. 1b) has a similar structure, but has a larger core made of 15 aromatic rings, and one more atom of sulfur. Molecule A3 (Fig. 1c) has a condensed core consisting on nine aromatic rings, but has an oxygen and a sulfur atom, and no nitrogen. This molecule also has longer saturated ramifications on its structure. Molecule A4 (Fig. 1d) has three aromatic groups connected with saturated chains and it also has three oxygen atoms and one sulfur atom, and no nitrogen. The molecules were represented in an atomistic framework, in which each atom is considered individually using the LAMMPS package and the consistent valence force field CVFF [14]. The interaction energy was evaluated as stated in eq. (1). 40


De León et al / DYNA 82 (189), pp. 39-44. February, 2015.

U ∑

,

, ,

θ

θ

Lennard-Jones parameters and bond and angle constants were assigned considering the nature of the atoms that form the pair, bond or angle, respectively. Partial charge for each atom was assigned using Equivalent Charge method [15]. In order to determine the manner in which asphaltenes form aggregates, the interaction energy is separated into its different contributions; only non-bond energy is considered, that is, Van der Waals and electrostatic energy. The solubility parameter was calculated using the Scatchard-Hildebrand formulation, and it is stated in eq. (2).

∑ ∑ 4ε ∑

l

l

(1),

Where ε and σ are the Lennard-Jones potential parameters, r is the separation distance between atoms, q and q are the atomic charges; k , θ and θ are the angle constant, the angle between each three atoms and the equilibrium angle, respectively; and k , l and l are the bond constant, the bond length between each pair of atoms and the equilibrium bond length, respectively.

Figure 1. Molecular structures of the species used in this study. Darker dots represent nitrogen atoms; semi-dark dots represent oxygen atoms; light dots inside aromatic rings are sulfur atoms; gray dots correspond to carbon atoms and white dots to hydrogen atoms. Source: Own elaboration.

δ

E

V

the temperature of the system. The cut radius for each species was selected as the length of the molecule for guaranteeing adequate distance of interaction between the molecules. This length was calculated as the distance, in Angstroms, between the further pair of atoms. The Ewald’s summation method was used to evaluate the long range electrostatic interactions. The SHAKE algorithm was used to maintain bond length. A complete list of the parameters used in this simulation can be found in [16]. For each structure in Fig. 1, an energy minimization was conducted in order to find the proper geometric configuration in which the molecule had more stability. This minimization consists on taking the molecule to a temperature of 0 K and allowing it to relax and finding the most adequate configuration, using a modification of the conjugate gradient algorithm available in the LAMMPS package [14]. The tolerance for this process was set to 1.0 10 kcal/mol. Once the minimum energy state was achieved; the molecules were taken to the work temperature

(2),

is the cohesive energy of each molecule, and where E V is its molar volume. The cohesive energy is the energetic difference between the ideal gas state and the condensed state. To calculate the cohesive energy, the molecules were simulated under two conditions. First, the species were isolated to emulate the ideal gas state. Second, the molecules were surrounded by replicas of themselves in order to depict the condensed state. Finally, the molecular volume is also calculated using molecular simulation. 3. Technical details In order to replicate the reservoir conditions, and at the same time compare results with previous work [6,7], a temperature of 300 K and a pressure of 200 atm were selected. For each species, a NPT simulation box was built, so as to maintain the number of particles, the pressure and 41


De LeĂłn et al / DYNA 82 (189), pp. 39-44. February, 2015.

and pressure. Once this state was reached, two simulations were conducted; the first one consisted on simulating ideal gas state, for which each molecule was placed in a simulation box with reflective walls to avoid interactions outside the molecule itself in order to calculate the cohesive energy of the isolated monomer. The second simulation consisted on simulating the condensed state, for which the molecule is surrounded by twelve replicas of itself and placed in a simulation box with periodic boundary conditions in all three dimensions. The number of replicas

was chosen arbitrarily, considering both the accuracy of the measurement and maintaining reasonable computing time. This simulation allows calculating the molecular volume of the monomer and the cohesive energy of the molecules in condensed state at working pressure and temperature. Molecular dynamic simulations of at least 10 ns were conducted, using a timestep of 1 fs. Non-bond energies (Van der Waals and electrostatic) were evaluated. Molecular volume was estimated and the solubility parameter was calculated for all four species.

Figure 2. Interaction energies for all molecules after 9.5 ns of equilibration. Source: Own elaboration.

As to the aggregation mechanism, it can also be seen from Fig. 2.a that the Van der Waals energy, associated with the aromatic content of the molecule, and the electrostatic energy, associated with the presence of heteroatoms, are comparable in magnitude, even though for molecule A1 the Van der Waals energy is higher in magnitude. That is, the effect of the continental structure and the aromatic core is equally important as the electrostatic effect for presence of heteroatoms, so neither one can be neglected. Fig. 2.b shows the energetic results for species A2 after 9.5 ns of equilibration. Again, it can be seen that the molecule has lower energy in the aggregate state, that is, is more stable. In this case, the Van der Waals energy has a value that is higher in magnitude than the electrostatic energy. This can be caused by the fact that the A2 molecule has more aromatic rings in its structure and fewer heteroatoms.

4. Results and discussion Fig. 2 shows the results for non-bond energy of all molecules. Fig. 2.a depicts energy results for molecule A1 in isolated conditions and Van der Waals, electrostatic and total non-bond energy for periodic conditions after an equilibration period of 9.5 ns. It is also evident from this figure, the molecule has lower energy when is surrounded by its replicas than in isolated conditions (i.e., as a monomer). This is quite obvious, considering the isolated case resembles ideal gas conditions. However, this results show that the model here proposed is able to replicate the aggregation behavior observed experimentally in asphaltenes molecules [6]. It is worth noting that, even though asphaltenes do not exhibit polymeric behavior, the term “monomer� has gained acceptance in the literature to refer to asphaltenes in a disaggregated state. 42


De Le贸n et al / DYNA 82 (189), pp. 39-44. February, 2015.

Fig. 2.c shows the energetic results for molecule A3 after 9.5 ns of equilibration. Similar to the previous cases, the total energy of the condensed state is lower than the isolated state, consistent with its tendency to form aggregates. However, for this molecule the total energy in the aggregated state (the sum of Van der Waals and electrostatic contributions) is higher than for the other continental structures. While molecule A3 still has a continental structure, it also has longer saturated chains, which appear to create a physical barrier that challenges the aggregation process. For this particular case, the difference between electrostatic interactions and Van der Waals interactions is more pronounced. This is associated with the oxygen atom attached to the continental structure. While the aromatic rings contribute to the aggregation process, the presence of oxygen, which has a greater partial charge than nitrogen or sulfur, seems to make it more difficult for the rigid molecule to balance the charges. However, like in the previous cases, the electrostatic interaction still has a negative energy value and therefore contributes to the aggregation process, and should not be neglected. Fig. 2.d presents the energetic results for molecule A4. As for all other molecules, these results corroborate the aggregation behavior. For this monomeric molecule, the Van der Waals and the electrostatic contributions are similar, probably due to the fact that the presence of oxygen, with a high partial charge, and the dispersed aromatic cores contribute in equal manner to the formation of aggregates. Molecule A4 exhibits lower energy in aggregate conditions than the other molecules, which can be explained because this molecule has a different, more flexible, structure that allows for better interaction with other molecules by steric ability. The behavior of the difference between Van der Waals and electrostatic energies was similar for pairs A1-A3 and A2-A4. This was somewhat surprising considering molecule A4 has an archipelago structure that differs from the other

Figure 4. Snapshot of A3-A3 interaction. Source: Own elaboration.

three continental ones. This is evidence that not only molecular architecture (island or archipelago) or heteroatoms content are crucial when defining asphaltene interactions, but the aliphatic chains also play a definitive role in aggregation. As an example, Fig. 3 shows the final configuration for the interaction of molecule A2 with itself. As can be seen from the graphic, the aromatic cores locate in parallel while the side chains locate in the periphery. This is consistent with the behavior observed in the energy results. Van der Waals interactions, associated with the aromatic core, and electrostatic interactions, associated with the presence of heteroatoms mostly, contribute in similar way to the aggregation process, as the molecule experiences a strong attraction in the aromatic core while balances the charges attached to the heteroatoms. Fig. 4 contains a snapshot of the final configuration of the interaction of molecule A3 with itself. This figure illustrates the behavior of long chains of hydrocarbons in the asphaltene structure as they suppose an obstacle to the formation of aggregates. This behavior is consistent with the energy results obtained for molecule A3, as this molecule has higher energy in aggregated state compared with the other continental structures. Table 1 summarizes the results obtained for molecular volume, cohesive energy and solubility parameter of all four molecules. The reported experimental values for asphaltene solubility parameter range between 17.0 and 21.0 MPa1/2 [6,7,13,17]. It can be seen that the asphaltenes here presented are within expected values for this parameter. For molecule A3, the solubility parameter is slightly lower than expected; this is due to the fact that the repulsive forces derived from the long saturated chains make the energy difference between isolated and periodic state to be lower in magnitude than for the other molecules.

Figure 3. Snapshot of A2-A2 interaction. Source: Own elaboration. 43


De León et al / DYNA 82 (189), pp. 39-44. February, 2015. Table 1. Molecular weight, molecular volume, cohesive energy and solubility parameter for all species. Cohesive Solubility Molecular Molecular Weight Energy Parameter Volume [g/mol] [kcal/mol] [MPa1/2] [Å3] A1 899.42 1826.16 111.13 20.57 A2 1121.64 2074.99 110.38 19.52 A3 958.53 1934.66 76.08 16.54 A4 1116.85 2239.45 135.47 20.50 Source: Own Elaboration.

[5] [6]

[7]

[8]

5. Conclusions Asphaltene aggregation is a complex process, influenced by many factors. Van der Waals interactions due to the presence of aromatic rings and electrostatic forces caused by the presence of heteroatoms such as oxygen, nitrogen and sulfur, are equally relevant in the aggregation of asphaltene molecules. For the molecules here studied, the model successfully reproduced the expected aggregation behavior, as the lower energy in this state so indicated. The structure and elemental composition of asphaltene are also crucial in determining the manner in which asphaltenes aggregate. The presence and geometrical distribution of heteroatoms with distinct partial charges influences the formation and stability of the aggregates. For continental structures, the presence of long ramifications obstructs the formation of asphaltene aggregates. For archipelago structures, the flexibility of the molecules enables the aggregation with other structures. The presence of heteroatoms creates a repulsive force that hinders the aggregation process. The molecular volume and the cohesive energy are also sensitive to the geometric configuration and the composition of the species, which affects the solubility parameter. The solubility parameter was within the accepted range for all molecules. Finally, the molecular simulation techniques seem to be adequate to describe asphaltene structure and aggregation behavior. This work is preliminary in understanding Colombian asphaltene behavior. Further work must be conducted in search of a more general understanding, simulating asphaltene aggregation in various solvents and linking results with experimental findings.

[9] [10]

[11]

[12]

[13] [14] [15] [16]

[17]

J. De León, received the Bsc. in Petroleum Engineering in 2010 and MSc. in Chemical Engineering in 2014, all of them from the Universidad Nacional de Colombia. Currently she is pursuing a doctoral degree in Energy Systems at the same University. Her research interests include molecular simulation, modeling asphaltene aggregation and viscosity and molecular representation of hydrocarbon systems.

References [1]

[2] [3]

[4]

Lu, G., Li, Y., Song, H., Yu, Y. and Wang. C., Micromechanism of petroleum asphaltene aggregation. Petroleum Exploration and Development. 35 (1), pp. 67-72, 2008. Frigerio, F. and Molinari, D., A multiscale approach to the simulation of asphaltenes. Computational and Theoretical Chemestry. 975, pp. 76-82, 2011. http://dx.doi.org/10.1016/j.comptc.2011.03.013. Carauta-A. N.M., Seidl-P. R. and Correia-J. C.G., Computational Simulation of Asphaltene, in Mercosur Congress on Chemical Engineering (2nd, 2005, Brasil) Mercosur Congress on Process Systems Engineering (4th, 2005, Brasil). Enpromer, Rio de Janeiro, Brasil, 2005, pp. 1-6, 2005. Sedghi, M., Goual, L., Welch, W. and Kubelka, J., Effect of asphaltene structure on association and aggregation using molecular dynamics. The journal of physical chemestry. B. 117 (18), pp. 57655776, 2013. http://dx.doi.org/10.1021/jp401584u. Mullins, O.C., The modified Yen model. Energy & Fuels. 24 (4), pp. 2179-2207, 2010. http://dx.doi.org/10.1021/ef900975e. Mullins, O.C., Sabbah, H., Pomerantz, A.E., Andrews, A.B., RuizMorales, Y., Mostow, F., Mcfarlane, R., Goual, L., Lepkowicz, R., Cooper, T., Orbulescu, J., Leblanc, R.M., Edwards, J. and Zare, R.N., Advances in asphaltene science and the Yen − Mullins model. Energy & Fuels, 26, pp. 3986-4003, 2012. http:// dx.doi.org/10.1021/ef300185p. Gray, M.R., Tykwinski, R.R., Stryker, J.M. and Tan, X., Supramolecular assembly model for aggregation of petroleum asphaltenes. Energy & Fuels, 25 (7) , pp. 3125-3134, 2011. http:// dx.doi.org/10.1021/ef200654p. Navarro, L., Álvarez, M., Grosso, J.L. y Navarro, U., Separación y caracterización de resinas y asfaltenos provenientes del crudo castilla. Evaluación de su interacción molecular. CT&F - Ciencia Tecnología y Futuro, 2 (5), pp. 53-67, 2004. Tharanivasan - A.K., Asphaltene precipitation from crude oil blends , conventional oils, and oils with emulsified water, Dr. Thesis (in Philosophy), University of Calgary, Canada, 211 P.2012, Plimpton, S., Fast parallel algorithms for short – range molecular dynamics. Journal of Computational Physics, 117, pp. 1-19, 1995. Rappé, A.K. and Goddard III, W.A., Charge equilibration for molecular dynamics simulations. The journal of physical chemestry, 95 (8), pp. 3358-3363, 1991. Levitt, M., Hirshberg, M., Sharon, R. and Daggett, V., Potential energy function and parameters for simulations of the molecular dynamics of proteins and nucleic acids in solution. Computer Physics Communications, 91, pp. 215-231, 1995. Rogel, E., Simulation of interactions in asphaltene aggregates. Energy & Fuels, 14, pp. 566-574, 2000. http://dx.doi.org/10.1021/ef990166p.

B. A. Hoyos, received the Bsc. In 1994 and MSc. In 2003 degrees both in Chemical Engineering and the PhD degree in Energy Systems in 2010, all of them from the Universidad Nacional de Colombia, Medellín, Colombia. Currently he is a Full Professor in the Departamento de Procesos y Energía, Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia. His research interests include molecular simulation, modeling asphaltene aggregation and viscosity, modelling wettability alteration by surfactants and specific adsorption.

Punnapala, S. and Vargas, F.M., Revisiting the PC-SAFT characterization procedure for an improved asphaltene precipitation prediction. Fuel, 108, pp. 417-429, 2013. http://dx.doi.org/10.1016/j.fuel.2012.12.058. Wu, J., Prausnitz, J.M. and Firoozabadi, A., Molecularthermodynamic framework for asphaltene-oil equilibria. AIChE Journal, 44 (5), pp. 1188-1199, 1998. Artola, P.A., Pereira, F.E., Adjiman, C.S., Galindo, A., Müller, E.A., Jackson, G. and Haslam, A.J., Understanding the fluid phase behaviour of crude oil: Asphaltene precipitation. Fluid Phase Equilbiria. 306 (1), pp. 129-136, 2011. http://dx.doi.org/10.1016/j.fluid.2011.01.024. Vicente, L., Soto, C., Pacheco-Sánchez, H., Hernández-Trujillo, J. and Martinez-Magadán, J.M., Application of molecular simulation to calculate miscibility of a model asphaltene molecule. Fluid Phase Equilibria. 239 (1), pp. 100-106, 2006. http://dx.doi.org/10.1016/j.fluid.2005.11.001

W.A. Cañas-Marín, received the Bsc. In 1997 from the Universidad de Antioquia, Colombia and MSc. in 2002 degree from the Universidad Industrial de Santander, Colombia, both in Chemical Engineering. He is currently a chemical Engineer at the Instituto Colombiano del Petróleo-ICP of ECOPETROL, S.A. His research interests include thermodynamic characterization of reservoir fluids and phase behavior modeling, effects of external fields on matter, molecular simulation and flow assurance.

44


Energy demand and vehicle emissions stimate in Aburra Valley from 2000 to 2010 using LEAP model María Victoria Toro-Gómez a & Diana Marcela Quiceno-Rendón b a b

Facultad de Ingeniería Química, Universidad Pontificia Bolivariana, Medellín, Colombia. victoria.toro@upb.edu.co Facultad de Ingeniería Química, Universidad Pontificia Bolivariana, Medellín, Colombia. diana.quiceno@upb.edu.co Received: February 10th, 2014. Received in revised form: November 19th, 2014. Accepted: December 2th, 2014.

Abstract This article shows a retrospective analysis of energy demand and atmospheric pollution by urban transport in Aburrá Valley, where Medellín is the main city. The study was carried out using LEAP model between 2000 and 2010, in order to generate information for defining strategies to help reduce air pollution in Aburrá Valley. The results show that despite the rapid increase of vehicles, the energy demand and CO2 emissions grew slowly, while criteria pollutant emissions decreased during the last decade. Also, the study shows that during the modeled period trucks were an important source of CO, NOX, SOX and PM2.5. Motorcycles (2-cycles) were also important contributors to VOC vehicular emissions. Keywords: emission inventory; LEAP model; atmospheric emissions; vehicle fleet; criteria pollutants; CO2 emissions; Aburrá Valley.

Estimación de la demanda energética y de las emisiones vehiculares en el Valle de Aburrá durante el periodo 2000-2010, usando el modelo LEAP Resumen Este artículo presenta un análisis retrospectivo de la demanda de energía y las emisiones atmosféricas generadas por el parque automotor del Valle de Aburrá, región que tiene a Medellín como municipio central. El estudio fue desarrollado usando el modelo LEAP y se llevó a cabo para el periodo comprendido entre los años 2000 y 2010, con el objetivo de generar información para la definición de estrategias que contribuyan a disminuir la contaminación atmosférica en la región. Los resultados mostraron que a pesar del crecimiento acelerado del parque automotor, la demanda de energía y emisiones de CO2 crecieron lentamente, mientras las emisiones de contaminantes criterio decrecieron durante la última década. Además, se encontró que los camiones hicieron una importante contribución a las emisiones de CO, NOX, SOX y PM2.5, mientras las emisiones de VOC de las motos 2T representaron una proporción considerable de las emisiones totales de dicho contaminante. Palabras clave: inventario de emisiones; modelo LEAP; emisiones atmosféricas; parque automotor; contaminantes criterio; emisiones de CO2; Valle de Aburrá.

1. Introducción En los países desarrollados el consumo de energía y el transporte de personas está dominado por el uso del automóvil. Así, a pesar de la mejora en la eficiencia energética de los vehículos, y la desaceleración en la compra y uso de automóviles, el transporte automotor consume aproximadamente el 9% de la energía total en los países miembros de la Organización para la Cooperación y Desarrollo Económicos (OECD). En los países en

desarrollo, la proporción es pequeña pero se incrementa rápidamente [1]. En el Valle de Aburrá (subregión que congrega los municipios de Barbosa, Girardota, Copacabana, Bello, Envigado, Itagüí, Sabaneta, La Estrella, Caldas y Medellín, este último como municipio central), con el aumento en el nivel de ingresos, las facilidades para adquirir vehículo, las deficiencias en el servicio de transporte público y la expansión sin restricciones de los municipios, el número de automóviles y motocicletas ha

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 45-51. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.41991


Toro-Gómez & Quiceno-Rendón / DYNA 82 (189), pp. 45-51. February, 2015.

simulación del tipo bottom-up, que permite el desarrollo de estudios de planeamiento energético integral y de mitigación de gases de efecto invernadero y otros contaminantes del aire [8].

crecido cerca del 11% anual en la última década. Dicho incremento se caracteriza por el aumento en las longitudes de viaje y de la densidad de tráfico, lo que genera los consecuentes problemas de congestión, consumo de energía y contaminación atmosférica. El problema de la congestión en Medellín no es un problema reciente, éste ha estado latente en la cotidianidad de la ciudad desde hace varios años, y por esto se han implementado medidas para tratar de mitigar sus efectos sobre la movilidad y el transporte. La administración municipal ha tratado de buscar respuestas a la saturación de las vías, implementando medidas que buscan incrementar la capacidad de éstas con el fin de lograr una mejor situación de la movilidad en la ciudad, por ejemplo, ampliación de carriles, nuevas vías, intercambios viales, etc. [2], sin embargo se ha comprobado empíricamente que la construcción de más vías tiene como consecuencia principal el incremento del tráfico, y no su disminución; un fenómeno conocido como tráfico inducido [3]. Bajo este panorama y teniendo en cuenta la relación energía y ambiente, por primera vez se calcula la demanda de energía y las emisiones atmosféricas del parque automotor del Valle de Aburrá usando el modelo energético LEAP (Long-range Energy Alternatives Planning System). Este modelo ha tenido un impacto significativo en políticas energéticas y ambientales a nivel mundial. En California fue usado para pronosticar la demanda de energía e identificar combustibles alternativos; en México se usó para determinar la factibilidad de escenarios futuros teniendo en cuenta el uso moderado y alto de biocombustibles en los sectores del transporte y generación de electricidad; en el Líbano se evaluaron opciones de mitigación con el fin de reducir emisiones en el sector de generación de electricidad con énfasis en el uso de recursos renovables; en Irán se analizó el consumo de energía y varios tipos de emisiones. En lo relacionado con el transporte urbano, en el Valle de Katmandú y en la ciudad de Delhi, se analizaron las emisiones de contaminantes atmosféricos y el uso de energía [4]. En las mega ciudades de Beijing, Shanghai y Guangzhou en China, se evaluó la tendencia de las emisiones vehiculares entre 1995 y 2005 [5]. En Colombia, el modelo LEAP ha sido utilizado por la Unidad de Planeación Minero Energética (UPME) para la formulación estratégica del plan de uso racional de energía y de fuentes no convencionales de energía [6], por la Universidad Nacional de Colombia que desarrolló el modelo ModerGIS, el cual se basa en los sistemas de información geográfica, en el análisis multicriterio para la toma de decisión y en el modelo LEAP [7]. Sin embargo, en el país no existen publicaciones sobre el uso del modelo LEAP en el análisis del transporte, por lo que este primer acercamiento es de gran importancia.

2.2. Cálculos 2.2.1. Demanda de energía La demanda de energía del parque automotor fue calculada a través de la ecuación (1): D

∑ EV

VKT

N

10‐

(1)

Donde D es la demanda de energía en TJ; EVt es la eficiencia energética de la categoría vehicular t en MJ/100 km; VKTt es kilometraje anual recorrido por la categoría vehicular t, en km; y Nt es el número de vehículos de la categoría t. Los valores de EVt fueron estimados a través del modelo International Vehicle Emission (IVE) [9] para cada tecnología vehicular; VKTt fue estimado con hipótesis específicas basadas en las ventas de vehículos usados; y Nt fue calculado a través de los datos proporcionados por las secretarías de transporte y tránsito del Valle de Aburrá (Fig. 1). El análisis de la Fig. 1 permite establecer que en la última década el número de vehículos en el Valle de Aburrá creció a una tasa del 9% anual, donde sobresalen especialmente el crecimiento de los taxis y las motos cuatro tiempos (4T) con tasas anuales del 18% y el 26%, respectivamente, mientras el resto de las categorías vehiculares crecieron a una tasa aproximada del 7% anual, a excepción de las motos 2T que decrecieron a una tasa anual del 1%. Los valores iniciales de las variables EVt y VKTt son ajustados y validados haciendo que la demanda energética estimada a través del modelo LEAP no difiera en ±5% de la demanda energética real (ver Fig. 2). Los consumos para la última década de gasolina y diésel fueron proporcionados por la UPME y de Gas Natural Vehicular (GNV) por Empresas Públicas de Medellín.

2. Metodología Figura 1. Número de vehículos en el Valle de Aburrá, 2000-2010. Fuente: elaboración propia.

2.1. Modelo LEAP El modelo LEAP fue desarrollado por el Stockholm Environment Institute de Boston (SEI-B), y es un modelo de 46


Toro-Gómez & Quiceno-Rendón / DYNA 82 (189), pp. 45-51. February, 2015.

i en Mg; y FEt,i es el factor de emisión del contaminante i para la categoría vehicular t, en g/km. FEt,i fue estimado usando el modelo IVE para lo cual fue necesario desarrollar un calendario de introducción de tecnologías vehículares y de desulfurización de combustibles en Colombia (ver Tabla 3). Además los factores de emisión fueron corregidos de acuerdo a las condiciones de humedad, altura, contenido de azufre en la gasolina y el diésel, y contenido de etanol en la gasolina de 10% V/V. Aunque el diésel también se encuentra mezclado con aceite de palma (10% V/V), no se hace corrección de los factores de emisión pues el modelo IVE no dispone de factores de corrección para este tipo de mezcla. En la Tabla 4 se presenta algunos de los factores de emisión utilizados en este estudio.

Figura 2. Demanda de energía del parque automotor del Valle de Aburrá, 2000-2010. Fuente: elaboración propia.

3. Resultados 3.1. Evolución de la demanda energética

Tabla 1. Factores de emisión de CO2 Combustible

C (%)

Gasolina 86,5 Diésel 86,4 GNV 73,0 Fuente: elaboración propia.

45,02 43,98 47,12

Tabla 2. Factores de emisión de SO2 Combustible Periodo Gasolina 2000-2010 2000-2006 2007 Diésel 2008 2009 2010 GNV 2000-2010 Fuente: elaboración propia.

La Fig. 3 presenta la evolución de la demanda de combustibles ligada al crecimiento vehicular en el Valle de Aburrá.

FE CO2 (kg/TJ) 70.450,4 72.034,0 56.804,4

PCI (MJ/kg)

S (ppm) 1000 4500 4000 3000 2500 500 23

FE SO2 44,42 204,62 181,88 136,41 113,68 22,74 1,15

2.2.2. Emisiones de CO2 y SO2 Las emisiones vehiculares de CO2 y SO2 se calcularon usando la ecuación (2): E

∑ FE ,

EV

VKT

N

10‐

(2)

Donde son las emisiones del contaminante j (CO2 o SO2) en Mg, y FE , es el factor de emisión del contaminante j para la categoría vehicular t, en kg/TJ. Los factores de emisión CO2 y SO2 fueron calculados de acuerdo al contenido de carbono y azufre en el combustible, y se presentan en la Tabla 1 y Tabla 2 respectivamente. 2.2.3. Emisiones de contaminantes criterio Las emisiones vehiculares para cada uno de los contaminantes criterio considerados fueron calculadas a través de la ecuación (3): ∑

,

10

(3)

Figura 3. Evolución de la demanda de combustibles y el parque automotor en el Valle de Aburrá, 2000-2010. Fuente: elaboración propia.

Donde Ei representa la emisión anual del contaminantes 47


Toro-Gómez & Quiceno-Rendón / DYNA 82 (189), pp. 45-51. February, 2015.

Gasolina

Control de emisiones por el tubo de escape Dispositivo para la mezcla aire/combustible

Carburador

Catalizador de 2 ó 3 vías SPFI

Euro 2

2015

2014

2013

2012

2011

2010

2009

2008

2007

2006

2005

2004

2003

2002

2001

Ninguno

Euro 3

MPFI

S (ppm) – Colombia 1000

S (ppm) – Bogotá

Diésel

2000

1999

1998

1997

1996

1995

1994

1993

1992

1991

Tecnología/contenido de azufre

1990 y antes

Combust ible

Tabla 3. Calendario de introducción de tecnologías vehiculares y contenido de azufre en el combustible en Colombia.

S (ppm) – Medellín Control de emisiones por el tubo de escape Dispositivo para la mezcla aire/combustible S (ppm) - Colombia S (ppm) - Bogotá

300

Pre Euro

150

Euro 2

Inyección en pre-cámara

Euro4

Inyección directa 4000 4500

3000

1200

S (ppm) - Medellín

4000

2500

500

500 3000

50 50

2500

500

50

SPFI: Inyección de combustible monopunto (Single Point Fuel Injection). MPFI: Inyección de combustible multipunto (Multi Point Fuel Injection). Fuente: elaboración propia.

Tabla 4. Factores de emisión del modelo IVE para algunas tecnologías vehiculares del Valle de Aburrá (g/km). Control de emisiones Control Descripción Combustible Peso VOC CO NOX PM2.5 aire/combustible Tubo de escape Evaporativas Auto Gasolina Ligero MPFI 3-vías PCV 0,065 1,120 0,264 0,003 Auto GNV Reconvertido Pesado Carburador Ninguno PCV 0,317 42,535 2,452 0,002 Moto Gasolina Ligero 2 tiempos Ninguno Ninguno 7,998 17,991 0,023 0,180 Moto Gasolina Mediano 4 tiempos, carburador Alta tecnología Ninguno 0,955 4,381 0,128 0,063 Bus/Camión Gasolina Ligero FI 3-vías PCV 0,274 5,748 0,219 0,033 Bus/Camión Diésel Mediano FI Euro 2 Ninguno 0,571 2,101 5,050 0,077 Bus/Camión GNV Mediano FI 3-vías/EGR PCV 0,019 4,671 0,173 0,002 MPFI: Inyección de combustible multipunto (multi point fuel injection). FI: Inyección de combustible (fuel injection). PCV: Válvula de ventilación positiva (positive crankecase ventilation). Fuente: elaboración propia.

En relación con la gasolina, a pesar del crecimiento sostenido de los vehículos que usan este combustible, el consumo de gasolina presentó una disminución continuada entre el año 2000 y el 2008, y solo en el año 2009 comenzó a recuperarse nuevamente. Las causas de ésta disminución sostenida pueden atribuirse a la competencia del gas natural como combustible vehicular, a las medidas de restricción vehicular (pico y placa) que influyen directamente sobre el kilometraje recorrido y por ende el consumo de combustible, al aumento continuo en el precio de la gasolina, y a las crisis económicas mundiales que desaceleraron la economía nacional. También hay que considerar que las nuevas tecnologías vehiculares traen consigo el aumento en el rendimiento del combustible (km/gal). En el caso de los vehículos diésel y el consumo de este combustible, su demanda ha sido proporcional al crecimiento de los vehículos que usan éste combustible fósil, con una leve desaceleración en el año 2009. Y en cuanto al GNV, tanto el crecimiento de los vehículos a GNV como su consumo presentaron un crecimiento exponencial que se ve interrumpido en el año 2009, debido quizá a algunas técnicas de reconversión vehicular que ocasionaron problemas en los usuarios e hicieron que algunos volvieran a la gasolina. En general, la demanda de energía total durante los años 2000 a 2010 creció a una tasa del 1,2% anual.

3.2. Evolución de la emisión de contaminantes La Fig. 4 presenta la evolución de las emisiones vehiculares de contaminantes criterio y dióxido de carbono en el Valle de Aburrá, durante los años 2000 a 2010. En ella se observa un decrecimiento de las emisiones de contaminantes criterio a pesar del crecimiento del parque automotor y de los VKT totales, que pasaron de ser 6,03×109 km en el año 2000 a 9,61×109 km en el año 2010, creciendo a una tasa anual del 4,8%. Mientras tanto las emisiones de CO, NOX, SOX, VOC y PM2.5 decrecieron a tasas del 4,3%, 2,4%, 9,7%, 5,3% y 2,2% respectivamente, lo que se atribuye a la introducción de mejores tecnologías vehiculares y a la desulfurización del diésel, que pasó de contener 4.500 ppm S en el año 2000 a 50 ppm S en el año 2010. |La reducción en la emisión de contaminantes criterio coincide con la mejora de la calidad del aire en el Valle de Aburrá [10], y es importante resaltar el esfuerzo y compromiso de la administración municipal y la autoridad ambiental por mejorar la calidad de los combustibles en la región [11]. Durante el periodo de reducción de azufre del diésel en la región, Gómez et al demostraron el vínculo entre el contenido de azufre en el diésel y la composición y concentraciones de PM2.5, lo que demuestra la gran influencia de los vehículos diésel en la calidad del aire local y la importancia de la desulfurización de los combustibles; el impacto fue bastante claro, pues mostró en la composición 48


Toro-Gómez & Quiceno-Rendón / DYNA 82 (189), pp. 45-51. February, 2015.

del periodo aportaban tan solo el 1% de las emisiones de CO y al finalizar la década estaban aportando el 9%, lo que representó un incremento del 25% anual. El análisis de las emisiones de NOX para el periodo 2000-2010 mostró que sus principales aportantes son las categorías buses y camiones, que contribuyeron con el 77%, primando las emisiones de los camiones que aportaron en promedio el 51% mientras los buses emitieron alrededor del 26%. El comportamiento de las emisiones de SOX fue muy similar al de los NOX, por lo menos hasta el 2009, pues para el 2010 bajó drásticamente el contenido de azufre en el diésel pasando de 2.500 ppm S a 500 ppm S, lo que representa una reducción del 80%. De este modo, hasta el año 2009 el aporte promedio de los buses y camiones fue del 75%, pero en el 2010 su aporte pasó a ser de tan solo el 31%. Como puede verse en la Fig. 5, los camiones y motos 2T hacen una importante contribución a las emisiones de VOC, y en el transcurso de la última década aportaron en promedio el 59% de las emisiones de este contaminante. Las emisiones generadas por los camiones, al igual que las de CO, son generadas principalmente por los vehículos que utilizan gasolina como combustible, y en promedio fueron alrededor del 33%. Las emisiones de las motos 2T a lo largo de la década representaron el 26% en promedio, a pesar del pequeño número que constituyen dentro del parque, pues eran el 25% de la flota en el año 2000, pero tan solo el 9% en el año 2010. Las emisiones del contaminante PM2.5 se encuentran claramente dominadas por los camiones, que emitieron en promedio el 74% de las emisiones de dicho contaminante. Así, mientras en el año 2000 emitían el 80% de sus emisiones, para el año 2010 pasaron a emitir el 68%, lo que indica que su aporte decreció a una tasa anual del 1,6% en la década de estudio. También sobresale en la Fig. 5, el aporte de las motos 2T y 4T, cuyo aporte pasó del 9% en el primer año al 16% en el último año de la década analizada, lo que representa una tasa anual de crecimiento del 6% en el aporte a las emisiones de PM2.5. Los autos y los camiones son las principales fuentes de CO2, pues como puede observarse en la Fig. 5 contribuyeron en promedio con el 70% de las emisiones de este gas de efecto invernadero, mientras los buses aportaron cerca del 17%. El Plan de descontaminación del aire para la región metropolitana del Valle de Aburrá, diagnosticó que las concentraciones ambientales de PM2.5 en el área urbana superaban ampliamente las referencias de la Organización Mundial de la Salud (OMS) y que los altos niveles de radiación solar y emisión de gases precursores (NOX y VOC) propiciaban las condiciones adecuadas para la formación de O3 troposférico, por lo que se presentaban frecuentes superaciones de la norma horaria y octohoraria de este contaminante [13]. Por ello, el control de las emisiones vehiculares deberá enfocarse principalmente en los camiones, que como pudo verse en este estudio, dominan gran parte de las emisiones de PM2.5 y gases precursores de O3, sin olvidar a las motos de 2T y 4T que también se posicionaron como fuentes importantes de VOC.

Figura 4. Evolución de emisiones vehiculares en el Valle de Aburrá, 20002010. Fuente: elaboración propia

química del PM2.5 una significativa disminución de sales de sulfato y nitrato [12]. En cuanto al CO2 sus emisiones crecieron al 1,4% anual, una tasa baja si se considera el crecimiento del parque y de los VKT totales. Este crecimiento desacelerado se atribuye al mejoramiento en la eficiencia energética de los vehículos. 3.3. Emisión de contaminantes por tipo de combustible y categoría vehicular La Fig. 5 muestra la contribución por tipo de combustible y por categoría vehicular a la emisión de cada uno de los contaminantes considerados en este estudio. El análisis por tipo de combustible permite ver que la gasolina es la gran responsable de las emisiones de CO y VOC, y en los últimos años del periodo analizado pasó a emitir la mayor proporción de SOX pues su contenido de azufre permaneció constante a lo largo del periodo (1.000 ppm S). El diésel se desulfuró rápidamente en la última década, por lo que su aporte a las emisiones de SOX fue disminuyendo, pero se mantuvo como el principal responsable de las emisiones de NOX y PM2.5. El GNV hizo su mayor contribución a las emisiones de CO, donde ha ido desplazando lentamente las emisiones de la gasolina. Por su parte, a las emisiones de CO2 aportaron la gasolina con un promedio del 54%, el diésel con un 43% aproximadamente y el GNV apenas contribuyó con el 3%, pues este último apenas comenzó a posicionarse como un combustible alternativo a los combustibles fósiles tradicionales. Los resultados por categoría vehicular, muestran que a las emisiones de CO contribuyen los autos y los camiones de manera significativa, pues a lo largo del periodo estudiado aportaron aproximadamente el 79% de las emisiones de este contaminante; así, mientras los autos aportaron aproximadamente el 32% en promedio, los camiones contribuyeron con el 47% restante. Cabe anotar que los camiones cuentan con un número importante de vehículos que operan con gasolina y su VKT promedio de 42.000 km/añoveh, es bastante más alto que el promedio estimado para los autos en la última década, que fue alrededor de 20.000 km/año-veh. También sobresalen las motos 4T, que al inicio 49


Toro-Gómez & Quiceno-Rendón / DYNA 82 (189), pp. 45-51. February, 2015.

Figura 5. Distribución de emisiones de acuerdo al tipo de combustibles y a las categorías vehiculares, 2000-2010. Fuente: elaboración propia.

permitió determinar que en el Valle de Aburrá el parque automotor ha crecido a una tasa del 9% anual, en el cual sobresale el crecimiento de las motos 4T y los taxis, que crecieron a una tasa anual del 26% y el 18% respectivamente.

4. Conclusiones El estudio de la evolución de la demanda energética y de la emisión de contaminantes criterio a través del modelo LEAP 50


Toro-Gómez & Quiceno-Rendón / DYNA 82 (189), pp. 45-51. February, 2015.

La demanda de energía también creció a lo largo del periodo de estudio, aunque a una tasa más baja que la del parque automotor, situándose alrededor del 1%. En relación con la emisión de contaminantes criterio, su tasa de crecimiento fue negativa, y se encontró una disminución en la emisión de este tipo de contaminantes relacionada con la desulfurización del combustible diésel y la introducción de mejores tecnologías vehiculares, que a su vez conllevan factores de emisión más bajos y mejores rendimientos de combustible; además en el periodo estudiado apareció el GNV para diversificar la canasta de combustibles del parque automotor. También es importante resaltar la contribución a las emisiones de CO, NOX, SOX y PM2.5 de la categoría camiones, y el aporte de las motos de 2T y 4T a las emisiones de VOC.

http://www.metropol.gov.co/aire/compartidos/docs/avances_en_el_d esarrollo_del_pacto_por_la_calidad_del_aire.pdf. [12] Posada, E. and Gómez, M., The effect of the diesel fuel sulfur content on the PM2.5 pollution problem in the Aburrá Valley region around Medellín, Colombia. Transport related Air Pollution and Health impacts – Integrated methodologies for Assessing Particulate Matter (TRANSPHORM), pp. 18-21, 2010. [13] Toro, M.V., Molina, E., Serna, J.A., Fernández, M. y Ramírez, G.E., Plan de descontaminación del aire en la región metropolitana del Valle de Aburrá. Producción + Limpia, 5 (1), pp. 10-26. Medellín. 2010. M.V. Toro-Gómez, es Ingeniera Química de la Universidad Pontificia Bolivariana, Colombia, MSc. en Contaminación Ambiental de la Universidad Politécnica de Madrid, España y PhD. en Ingeniería de la Universidad Politécnica de Cataluña, España. Desde el año 1991 ha trabajado en la Universidad Pontifica Bolivariana, actualmente se desempeña como Coordinadora Científica del Grupo de Investigaciones Ambientales de esta institución. También se ha desempeñado como docente en la Facultad de Ingenierías y como directora de los programas de posgrado de Ciencias del Medio Ambiente de esta Universidad. Ha sido becaria de institutos como ICI (Instituto de Cooperación Iberoamericana), el JICA (Agencia de Cooperación Internacional del Japón) y el INPE (Instituto de Pesquisas Espaciales de Brasil).

Agradecimientos Este trabajo fue desarrollado en el marco del Convenio 243 de 2012 con el Área Metropolitana del Valle de Aburrá. Además, se ejecutó gracias al apoyo del proyecto South American Emissions, Megacities and Climate (SAEMC). También queremos agradecer a la UPME, a Empresas Públicas de Medellín y a las secretarías de transporte y tránsito del Valle de Aburrá por el suministro de información sin el que no hubiese sido posible la elaboración de este trabajo.

D.M. Quiceno-Rendón, es Ingeniera Química de la Universidad de Antioquia, Colombia y Especialista en Ingeniería Ambiental de la Universidad Pontificia Bolivariana, Colombia. En el año 2007 comenzó su ejercicio profesional con el Área Metropolitana del Valle de Aburrá; allí llevó a cabo actividades de control y vigilancia sobre fuentes fijas industriales asentadas en el Valle de Aburrá. En el año 2008 le fue otorgada una beca de la Agencia Sueca para el Desarrollo Internacional (ASDI), para realizar el Programa de Entrenamiento Internacional Avanzado Air Pollution Management en Norrköping, Suecia. En el año 2009 inició labores con el Grupo de Investigaciones Ambientales de la Universidad Pontificia Bolivariana donde continua trabajando en actividades enmarcadas en el desarrollo y actualización del inventario de emisiones atmosféricas del Valle de Aburrá.

Referencias Schipper, L., Automobile use, fuel economy and CO2 emissions in industrialized countries: Encouraging trends through 2008? Transport Policy, 18, pp. 358-372, 2011. http://dx.doi.org/10.1016/j.tranpol.2010.10.011 [2] Posada, J.J., Farbiarz, V. and González, C.A., Análisis del “pico y placa” como restricción a la circulación vehicular en Medellín - basado en volúmenes vehiculares. DYNA, 78, (165) pp. 112-121, 2011. [3] Litman, T., Generated Traffic; implications for Transport Planning. ITE Journal, 71, pp. 38-47, 2001. [4] Shabbir, R. and Ahmad, S.S., Monitoring urban transport air pollution and energy demand in Rawalpindi and Islamabad using leap model. Energy, 35, pp. 2323-2332, 2010. http://dx.doi.org/ 10.1016/j.energy.2010.02.025 [5] Wang, H., Fu, L., Zhou, Y., Du, X. and Ge, W., Trends in vehicular emissions in China’s mega cities from 1995 to 2005. Environmental Pollution, 158, pp. 394-400, 2010. http://dx.doi.org/10.1016/j.envpol.2009.09.002 [6] Unidad de Planeación Minero Energética y Consorcio Bariloche. Consultoría para la formulación estratégica del plan de uso racional de energía y de fuentes no convencionales de energía 2007-2025. Bogotá. 2007. [7] Quijano, R., Botero, S. and Domínguez, J., MODERGIS application: Integrated simulation platform to promote and develop renewable sustainable energy plans, Colombian case study. Renewable and Sustainable Energy Reviews, 16 (7), pp. 5176-5187, 2012. http://dx.doi.org/10.1016/j.rser.2012.05.006 [8] Heaps, C.G., Long-range Energy Alternatives Planning (LEAP) system. [Software version 2012.0017]. Stockholm Environment Institute. Somerville, MA, USA. 2012. [9] Davis, N., Lents, J., Osses, M., Nikkila, N. and Bart, M., Development and application of an international vehicle emissions model. Transportation Research Board 81st Annual Meeting, pp. 1-20, 2005. [10] Área Metropolitana del Valle de Aburrá. Monitoreo de la calidad del aire en el Valle de Aburrá [online], Medellín. [Dato de consulta enero 13 de 2014] Disponible en: http://www.areadigital.gov.co/CalidadAire/Paginas/resumen_calidadaire.aspx. [11] Área Metropolitana del Valle de Aburrá. Acciones en el pacto por la calidad del aire [online], Medellín. [Dato de consulta enero 13 de 2014]. Disponible en: [1]

Área Curricular de Medio Ambiente Oferta de Posgrados

Especialización en Aprovechamiento de Recursos Hidráulicos Especialización en Gestión Ambiental Maestría en Ingeniería Recursos Hidráulicos Maestría en Medio Ambiente y Desarrollo Doctorado en Ingeniería - Recursos Hidráulicos Doctorado Interinstitucional en Ciencias del Mar Mayor información:

E-mail: acia_med@unal.edu.co Teléfono: (57-4) 425 5105

51


Pechini method used in the obtention of semiconductor nanoparticles based niobium Angela Mercedes Raba-Páez a, Diego Nicolás Suarez-Ballesteros b, José Jobanny Martínez-Zambrano c, Hugo Alfonso Rojas-Sarmiento d & Miryam Rincón-Joya e a Departamento de Física, Universidad Francisco de Paula Santander, Cúcuta, Colombia.amrabap@unal.edu.co Grupo de Catálisis, Universidad Pedagógica y Tecnológica de Colombia, Tunja, Colombia. diego.suarez@uptc.edu.co c Grupo de Catálisis, Universidad Pedagógica y Tecnológica de Colombia, Tunja, Colombia. jose.martinezz@uptc.edu.co d Grupo de Catálisis, Universidad Pedagógica y Tecnológica de Colombia, Tunja, Colombia. hugo.rojas@uptc.edu.co e Departamento de Física, Universidad Nacional de Colombia, Bogotá, Colombia. mrinconj@unal.edu.co b

Received: February 2th, 2014. Received in revised form: September 10th, 2014. Accepted: September 29th, 2014.

Abstract The (Nb2O5) niobium pentoxide compound was synthetized by Pechini method. The followed synthesis protocol is promising to obtain Nb2O5 nanoparticles, in orthorhombic phase. This phase was obtained in the samples calcined at 600°C for 2 hours and the submitted at 500°C for 22 hours in gas flow. For the phase determination and crystal structure was performed XRD. The BET method was used to obtain surface area measurements of the obtained oxide. Raman scattering was employed in order to analyze the nanostructures vibrational spectrum and FEG-SEM in order to study the morphology of the obtain oxides. Keywords: Nb2O5; Nanoparticles; thermal treatment; characterization; Raman.

Uso del método Pechini en la obtención de nanopartículas semiconductoras a base de niobio Resumen El Pentóxido de niobio (Nb2O5) ha sido sintetizado por el método Pechini. El protocolo de síntesis seguido resulta ser prometedor para obtener nanopartículas de Nb2O5, en la fase ortorrómbica. Esta fase, fue obtenida en la muestra tratada térmicamente a 600°C, durante 2 horas y en la muestra sometida a 500°C durante 22 horas en flujo de gases. Para la determinación de la fase y estructura cristalina se realizó DRX. El método BET se usó con el fin de obtener medidas del área superficial. Se empleó dispersión Raman con el fin de analizar el espectro vibracional de las nanoestructuras y MEB-FEG para estudiar la morfología de los óxidos obtenidos. Palabras clave: Nb2O5; nanopartículas; tratamiento térmico; caracterización; Raman.

1. Introducción Recientemente, ha surgido un gran interés en el tratamiento de la contaminación orgánica presente en el agua a través del método fotocatalítico; éste método puede destruir los contaminantes completamente. El uso de fotocatalizadores semiconductores para la oxidación aerobia de moléculas orgánicas tiene ventajas prácticas y eficientes desde el punto de vista económico, ecológico, de reutilización y durabilidad. Además, para una efectiva utilización de energía procedente de radiación solar, es necesario el desarrollo de un material que responda a la luz visible. [1,2] El agua pierde calidad debido a la contaminación

proveniente de urbes e industrias, por lo que se han venido buscando alternativas que aseguren su abastecimiento futuro [3,4], beneficiando así todos los factores que constituyen la sociedad: el ecosistema, la salud, la alimentación, la educación, la economía, etc. La fotocatálisis heterogénea es una de estas alternativas. Básicamente consiste en la aceleración de una reacción química por actuación de un catalizador sólido, activado mediante excitación electrónica al incidir sobre él radiación luminosa. [5] El niobio y compuestos a base de niobio dan a lugar a diversas aplicaciones [6]. Específicamente el pentóxido de niobio, Nb2O5, debido a sus propiedades físicas y químicas excepcionales puede dar lugar a aplicaciones prometedoras en dispositivos magnéticos, biotecnología, nanotecnología y

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 52-58. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42036


Raba-Páez et al / DYNA 82 (189), pp. 52-58. February, 2015.

ha determinado la estructura de los polvos obtenidos, el área superficial específica, el volumen de poro, la respuesta vibracional de los óxidos obtenidos y su morfología. Posterior a este trabajo se espera poder analizar las variables de síntesis y procesamiento del Nb2O5 frente a la respuesta fotocatalítica de las nanopartículas.

catálisis [1,7]. Las propiedades físicas y químicas que presenta este material lo hacen promisorio en procesos de fotocatálisis ya que es posible disminuir su energía de gap haciéndolo competitivo frente al óxido de titanio TiO2 [8,9], compuesto comúnmente empleado. El Nb2O5 existe en varias fases cristalinas dependiendo de la presión y la temperatura a la que esté sometido. Algunas de estas fases cristalinas son: fase B (estructura monoclínica), fase Z (estructura monoclínica) y fase T (estructura ortorrómbica) [10]; especialmente en la estructura ortorrómbica, presenta gran absorción de energía en la región del ultravioleta, así que puede ser utilizado en la protección de materiales sensibles a esta radiación. Así, el interés de sintetizar el Nb2O5 radica en que se espera poder estudiar como fotocatalizador en la degradación de pesticidas presentes en el agua, ya que presenta buena respuesta a la fotodegradación de moléculas con grupos fenólicos y el proceso no implica la presencia de reductos adicionales que finalmente actuarían como contaminantes en éste estudio. [11-14]. El polvo cerámico del pentóxido de niobio se puede obtener por diferentes métodos de crecimiento de materiales, entre ellos están: el método de precursor polimérico (Pechini), procesamiento hidrotermal, precipitación controlada y sol-gel, entre otros. Para este estudio se ha elegido el método de precursor polimérico por ser un método accesible, económico y que permite obtener partículas nanométricas con alta pureza química. Además permite obtener una gran variedad de óxidos [15-16] con diferentes dopantes y polvos nanométricos cristalinos y homogéneos. La idea general del proceso es redistribuir los cationes atómicos a través de toda una estructura polimérica y su éxito depende del manejo adecuado de los parámetros de síntesis. En el método se forma un quelato entre los cationes metálicos, (en este caso niobio contenido en sales disueltas) en una solución acuosa con un ácido carboxílico, generalmente ácido cítrico. Al mezclar esta solución con un alcohol polihidroxilado, como el etilenglicol, bajo calentamiento y en agitación constante, se obtiene una solución líquida de color blanco; posteriormente el quelato se poliestérifica al ser sometido a una temperatura entre 300 y 400°C, formando una resina. La resina retiene la homogeneidad de los iones del sistema, a escala atómica, debido a su alta viscosidad. Al calcinar la resina a una temperatura relativamente baja, entre 500 y 650°C, se obtienen óxidos con partículas finas y de adecuada composición química, la cual ha sido controlada de manera precisa durante el proceso. Como etapas posteriores se incluyen otras calcinaciones, la maceración y tratamientos térmicos, encargados de eliminar material orgánico y de facilitar la obtención de mezclas de los óxidos de interés. [17,18]. En este trabajo se sintetizó Nb2O5, fase T (estructura ortorrómbica), utilizando el método Pechini. Se realiza una descripción del proceso de síntesis, garantizando así su control y posterior reproducibilidad. Utilizando técnicas de caracterización como Difracción de Rayos X (DRX), método de Brunnaner – Emmett – Teller (BET), espectroscopía Raman y Microscopía Electrónica de Barrido con Fuente de Emisión de Campo (MEB-FEG), se

2. Procedimiento experimental 2.1. Conformación de la resina Para la formación del quelato se disuelven 2.0381 g de NbCl5 (Sigma-Aldrich 99%) en 30 ml de agua bajo agitación constante; por separado se disuelven 4.33686 g de ácido cítrico (Sigma-Aldrich 99.5%) en 130 ml de agua bajo agitación constante a 90°C durante media hora. Se mezclan las dos soluciones, con el NbCl5 totalmente solubilizado, manteniendo la temperatura a 90°C durante media hora. Para que se produzca la reacción de poliesterificación se adiciona 40% de etilenglicol (Merck 99.5%) en masa para 60% de ácido cítrico, es decir 2.59537 ml, dejando la solución a una temperatura de 90°C hasta que se reduce el volumen de agua, sin ningún precipitado. Se requiere que la solución que resulta del proceso anterior sea totalmente blanca, condición que indica una mezcla uniforme de los diferentes reactivos lo que favorece la formación del citrato; la temperatura debe permanecer uniforme a 90°C favoreciendo las reacciones de poliesterificación y posteriormente la conformación de la resina. Finalmente se deja enfriar la solución, a temperatura ambiente, hasta que se forma la resina. 2.2. Obtención de los polvos Con el objetivo de extraer el mayor porcentaje de residuos de agua se realiza la precalcinación de la resina tratándola a una temperatura de 400°C (en un horno Barnstead Thermolyne Furnace - BTF 47900) durante 2 horas, obteniéndose un sólido negro, con gran contenido de carbono, que al macerar resulta en un polvo cerámico marrón oscuro. Los tratamientos térmicos finales se presentan en la Tabla 1. 2.3. Caracterización del Nb2O5 Los polvos sintetizados se caracterizaron con Difracción de Rayos X (DRX), utilizando el equipo Panalytical PW3373, radiación Kα del Cu λ=1.540558 Å, con 45 kV y corriente de 40 mA, en el intervalo 2θ entre 10° y 90° a una velocidad de barrido de 0.0263°/s. Para obtener medidas del Tabla 1. Tratamientos térmicos del óxido Nb2O5. Muestra Temperatura – Tiempo 1 500°C - 2 horas 2

600°C - 2 horas

500°C - 11 horas en flujo de Nitrógeno y 11 horas más en flujo de aire Fuente: Elaboración propia. 3

53

Horno BTF 47900 Resistivo tubular Lindberg Blue M de 1200 °C TF55035A-1 BTF 47900


Raba-Páez et al / DYNA 82 (189), pp. 52-58. February, 2015.

nanopartículas bien definidas en muestras empleadas en la degradación de pesticidas. En la Fig. 2-b), se observan nanopartículas bien definidas con un tamaño que oscila entre 50 nm y 90 nm; se presenta una distribución uniforme de las nanopartículas indicando que el tratamiento térmico a 600°C por 2 horas favorece la obtención del tamaño de partícula deseado. En la Fig. 2-c), se observa la muestra sometida a 500°C en flujo de nitrógeno durante11 horas y luego en flujo de aire 11 horas más. Como se aprecia este tratamiento además de costoso no favorece el crecimiento de nanopartículas; en esta imagen solamente se observan aglomerados del material sin ninguna nanopartícula definida. Comparando las tres microscopias se comprueba que las condiciones que mejor favorecen el crecimiento de partículas son las correspondientes al tratamiento térmico desarrollado a 600°C por 2 horas. 3.3. Análisis superficial

área de superficie específica y de tamaño de poro se utiliza el método de Brunauer Emmett Teller – BET, empleando adsorción de Nitrógeno en un equipo Micromeritics ASAP 2020 a 77 K. Las medidas de dispersión Raman se realizaron usando un equipo monocromador triple Jobin-Yvon modelo T64000 con un detector CCD, empleando luz de longitud de onda 632 nm a temperatura ambiente. El análisis morfológico se realizó a través de un Microscopio Electrónico de Barrido con Fuente de Emisión de Campo (MEB-FEG) JOE modelo JSM 6701F. Esta es una técnica que viene siendo utilizada en el estudio de tamaño, forma y distribución de partículas por medio de la obtención de imágenes con alta resolución. Las muestras fueron preparadas por deposición de una fina capa de material en el porta muestras recubierto de una fina capa de tinta de carbono. 3. Resultados y discusión

Se presentan las isotermas de adsorción en la Fig. 3, éstas tienen una forma tipo III (baja interacción adsorbato – adsorbente), asociada a sólidos que contienen poros muy grandes (macroporos). En los tres casos se distingue una histéresis a presiones parciales superiores a 0.4, debido a la presencia de mesoporosidad.

3.1. Análisis estructural Los difractogramas de la Fig. 1 corresponden a los sólidos obtenidos por el método Pechini, sometidos a los tres tratamientos térmicos registrados en la Tabla 1; difractogramas previos indicaron que la muestra era aún amorfa a 400°C. El difractograma a), muestra 1, indica que a ésta temperatura el sólido presenta cristalización bajo la estructura hexagonal con picos resueltos en 2θ = 22.6°, 2θ = 28.5°, 2θ = 36.7° y 2θ =46.2°, lo cual está acorde con lo reportado en la base de datos (JCPDF07-0061). En el caso b), muestra 2, se encuentra que a ésta temperatura el sólido presenta una considerable cristalización en la fase T (ortorrómbica) con picos resueltos en 2θ = 22.6°, 2θ = 28.3°, 2θ = 36.4°, 2θ = 46°, 2θ = 50.8°, 2θ = 54.9°, 2θ = 55.3°, 2θ = 56.3° y 2θ = 58.5°, acorde con lo reportado en la base de datos (JCPDF27-1313). En el caso c), muestra 3, se evidencia la cristalización en la fase T (ortorrómbica) con picos resueltos en 2θ = 22.6°, 2θ = 28.4°, 2θ = 36.6°, 2θ = 46.1°, 2θ = 50.8° y 2θ = 55°, acorde con lo reportado en la base de datos (JCPDF300873). No se logra apreciar una considerable presencia de cloro, hecho que favorece el método de síntesis empleado. A pesar de haber logrado obtener la fase en el caso c) no se elige este proceso de calcinación debido a la complejidad que requiere en la adquisición de elementos adicionales como lo son los gases empleados. En cuanto a los compuestos orgánicos, se evidencia que retardan la fase de cristalización, razón por la cual se emplea una temperatura de 600°C, obteniéndose así en el caso b), muestra 2, las mejores condiciones térmicas de cristalización. 3.2. Análisis morfológico En la Fig. 2 se observan las imágenes obtenidas con Microscopia Electrónica de Barrido con Fuente de Emisión de Campo (MEB-FEG) de las tres muestras antes analizadas por DRX. La barra guía en las tres muestras es de 100 nm. Analizando la imagen de la Fig. 2-a), se observa la presencia de aglomerados de nanopartículas sin una clara separación. Esto indica que el tratamiento térmico de 500°C por 2 horas no representa la mejor temperatura para obtener

Figura 1. Difractogramas del sistema Nb2O5, tratado a 400°C - 2 horas y calcinado a: a) 500°C - 2 horas, b) 600°C - 2 horas y c) 500°C - 11 horas en flujo de Nitrógeno y 11 horas en flujo de aire. Fuente: Elaboración propia. 54


Raba-Páez et al / DYNA 82 (189), pp. 52-58. February, 2015.

El análisis de fisisorción de N2 sobre las tres muestras del óxido semiconductor Nb 2 O 5 revelo que el área superficial específica, S BET , disminuye al aumentar la temperatura de calcinación en procesos térmicos simples, Tabla 2; es posible obtener un valor mayor para esta variable si el proceso de calcinación se realiza bajo la presencia de gases, como en el caso de la muestra 3, proceso que se descarta ya que la idea de sintetizar este óxido es realizarlo bajo las condiciones más sencillas de reproducibilidad, favoreciendo así su posterior uso en aplicaciones catalíticas y finalmente su comercialización.

Figura 3. Isotermas de adsorción de los óxidos Nb2O5 sometidos a: a) 500°C - 2 horas, b) 600°C - 2 horas y c) 500°C - 11 horas en flujo de Nitrógeno y 11 horas en flujo de aire. Fuente: Elaboración propia.

Figura 2. Microscopias de las muestras del óxido Nb2O5, sometidas a tres tratamientos térmicos diferentes: a) 500°C - 2 horas, b) 600°C - 2 horas y c) 500°C - 11 horas en flujo de Nitrógeno y 11 horas en flujo de aire. Fuente: Elaboración propia. 55


Raba-Páez et al / DYNA 82 (189), pp. 52-58. February, 2015.

hexagonal del Nb2O5 tienen estructuras atómicas muy similares. En otras palabras, como se observa los modos Raman activos en las Fig. 4-a) y 4-b) están muy relacionados con la fase ortorrómbica. Es de resaltar que el espectro de la Fig. 4-b) presenta unos picos más estrechos lo que está bien relacionado con la formación de material cristalino en el crecimiento de la muestra. En la Fig. 4-c) se presenta el espectro Raman para la muestra tratada a 500°C sometido a flujo de nitrógeno por 11 horas y a flujo de aire por 11 horas más. Se obtiene un espectro Raman con modos más anchos lo que indica una amorfización en el material. Esto nos lleva a pensar que la temperatura ideal de síntesis para las muestras en estas condiciones es de 600°C por dos horas.

Tabla 2. Resultados del análisis de fisisorción de N2 sobre las muestras del óxido semiconductor Nb2O5. El área superficial específica se determinó tomando datos a presiones relativas comprendidas entre 0.1 y 1.0. Volumen de poro Tamaño de poro SBET Muestra (m²/g) (cm³/g) (Å) 1 39 0.11 109 2 17 0.09 235 3 102 0.12 49 Fuente: Elaboración propia.

El óxido calcinado a 600°C presento un valor de SBET = 17m²/g, valor que a pesar de ser pequeño resulta ser útil para la acción catalítica. Debido a que la obtención de óxidos con mayor área superficial específica, diferentes al óxido comercial, mejora su actividad catalítica, por ejemplo en la remoción de cianuro libre [8], a futuro se espera que los óxidos preparados tengan un valor SBET mayor, lo cual puede alcanzarse haciendo el tamaño de partícula muy pequeño, formando así un gran número de poros a través de las partículas [19]. Finalmente se evidencia la obtención del óxido con mayor tamaño de poro, 235 Å para la muestra 2, valor que facilita la acción del óxido con moléculas grandes constituyentes de pesticidas y demás compuestos contaminantes. [20] 3.4. Análisis vibracional En la Fig. 4 se presentan los espectros Raman de los óxidos semiconductores Nb2O5 sometidos a diferentes tratamientos térmicos. Para el ajuste de los espectros micro Raman se usó del software comercial “Peakfit” una forma lorenzana y de esta forma se encontró la posición central de los diferentes modos vibracionales en el pentóxido de niobio. En la Fig. 4-a) se observa el espectro para la muestra sometida a 500°C por dos horas; en este espectro tenemos cinco picos sobresalientes con posiciones en torno de 700cm-1, 210 cm-1, 230 cm-1, 118 cm-1 y 70 cm-1. También aparece otro pico de más baja intensidad en torno de 660 cm-1. Los óxidos de niobio generalmente poseen una estructura octaédrica de coordinación NbO6 que es distorsionada en diferentes extensiones dependiendo si el poliedro posee la deformación en el vértice o en las aristas [21]. La estructura NbO4 es muy rara. Ocasionalmente, las estructuras NbO7 y NbO8 pueden ser encontradas en las fases de otros óxidos. Para el pentóxido de niobio amorfo, las unidades estructurales distorsionadas encontradas son los octaedros NbO6, el pentaedro NbO7 y el hexaedro NbO5 [22]. El espectro Raman del Nb2O5 generalmente presenta un pico entorno de 846 cm-1 hasta 900 cm-1 relacionado con la distorsión de los diferentes grados de los octaedros presentes en la estructura del Nb2O5. La región entre 800 cm-1 - 440 cm-1 se refiere a los estiramientos simétricos del poliedro de Nb2O5 y otros picos entre 360 cm-1 - 200 cm-1 son característicos de los modos de deformación angular de los enlaces Nb-O-Nb. Los picos entre 650 cm-1 - 700 cm-1 y 303 cm-1 son un indicativo de la fase ortorrómbica. Es de recordar también que las estructuras ortorrómbica y

Figura 4. Espectros Raman de las muestras del óxido Nb2O5, sometidas a tres tratamientos térmicos diferentes: a) 500°C - 2 horas, b) 600°C - 2 horas y c) 500°C - 11 horas en flujo de Nitrógeno y 11 horas en flujo de aire. Fuente: Elaboración propia. 56


Raba-Páez et al / DYNA 82 (189), pp. 52-58. February, 2015.

Comparando los espectros Raman y las microscopias del material es evidente que hay una clara concordancia entre las bandas anchas de la muestra calcinada a 500°C en flujo de nitrógeno y aire. En las microscopias se puede distinguir la falta de partículas y la muestra se observa como un aglomerado de material. Caso contrario ocurre con la muestra sometida a 600°C por 2 horas. En ésta la formación de nanopartículas es clara y el espectro Raman presenta picos mucho más estrechos.

[4]

[5] [6]

4. Conclusiones [7]

El método Pechini ayuda a mejorar considerablemente las propiedades estructurales y fisicoquímicas del semiconductor estudiado en este trabajo, ya que se logró obtener el óxido semiconductor Nb2O5 en la fase ortorrómbica, estructura que fue corroborada mediante DRX y al ser analizada por MEB-FEG se verificó que las condiciones que mejor favorecen el crecimiento de partículas son las correspondientes al tratamiento térmico desarrollado a 600°C por 2 horas. Con el fin de incrementar los valores de área superficial específica y volumen de poro se evidencia la necesidad de optimizar las condiciones de obtención del nanocompuesto; esto facilitaría la interacción del Nb2O5 con moléculas grandes de pesticidas y contaminantes presentes en el agua. Los modos Raman activos de la muestra tratada a 600°C por dos horas están muy relacionados con la fase ortorrómbica, presentando picos más estrechos bien relacionados con la formación de material cristalino en el crecimiento de la muestra, por lo que se considera a esta temperatura como la ideal de síntesis para las muestras bajo estas condiciones. Como etapa a seguir se espera poder comprobar que el óxido analizado exhibe un buen desempeño fotocatalítico en las reacciones de degradación de contaminantes orgánicos presentes comúnmente en el agua residual, como la atrazina y la rodamina. A futuro se tiene la perspectiva de que éste estudio contribuirá en el proceso de manofactura y comercialización de nanocompuestos como este y/o similares.

[8]

[9]

[10] [11]

[12]

[13]

[14]

[15]

5. Agradecimientos

[16]

Los autores agradecen al Grupo de Catálisis de la UPTC - Tunja; EMBRAPA - SC SP (Brasil); UNAL - Bogotá; UFPS - Cúcuta.

[17]

Referencias

[18]

[1]

[2]

[3]

Hashemzadeh, F., Rahimi, R. and Gaffarinejad, A., Photocatalytic degradation of methylene blue and rhodamine B dyes by niobium oxide nanoparticles synthesized via hydrothermal method. International Journal of Applied Chemical Sciences Research, 1 (7), pp. 95-102, 2013. Saupe, G., Zhao, Y., Bang, J., Yesu, N., Carballo, G., Ordonez, R. and Bubphamala, T., Evaluation of a new porous titanium-niobium mixed oxide for photocatalytic water decontamination. Microchemical Journal, (81), pp. 156-162, 2005. http://dx.doi.org/10.1016/j.microc.2005.01.002 Juárez-Ramírez, I., Torres-Martínez, L.M., Cruz-López, A., GarzaTovar, L.L. y Meza-de la Rosa, M.E., Nanopartículas semiconductoras: una alternativa para la degradación de

[19]

[20] [21]

57

contaminantes orgánicos presentes en agua residual y la generación de energía de manera sustentable., Ciencia UANL, 11 (4), pp. 411422, 2008. Mahmoud, A.y Renato, S.F., Métodos emergentes para aumentar a eficiência do ozônio no tratamento de águas contaminadas. Química Nova, 30 (1), pp. 198-205, 2007. http://dx.doi.org/10.1590/S010040422007000100032 Fox, M.A. and Dulay, M.T., Heterogeneous photocatalysis. Chemical Reviews, 93 (1), pp. 341-357, 1993. http://dx.doi.org/10.1021/cr00017a016 Nieto, J., Caicedo, J., Amaya, C., Moreno, H., Aperador, W., Tirado, L. y Bejarano, G., Evaluación de la influencia del voltaje Bias sobre la resistencia a la corrosión de películas delgadas de Al-Nb-N. DYNA, 77 (162), pp. 161-168, 2010. Santana V.S. and Fernandes-Machado, N.R.C. Photocatalytic degradation of the vinasse under solar radiation. Catalysis Today, 133-135, pp. 606-610, 2008. http://dx.doi.org/10.1016/j.cattod.2007.12.131 Barbosa-López, A.L. y Castro-Sierra, I.M., Estudio catalítico comparativo de los sistemas TiO2 y Nb2O5.3H2O en la degradación de cianuro en función del tipo de oxidante. Ingeniería y Ciencia, 8 (16), pp. 257-280, 2012. Osathaphan, K., Chucherdwatanasak, B., Rachdawong, P. and Sharma, V. Photocatalytic oxidation of cyanide in aqueous titanium dioxide suspensions: Effect of ethylenediaminetetraacetate. Solar Energy, 82, pp. 1031-1036, 2008. http://dx.doi.org/10.1016/j.solener.2008.04.007 Kato, V.K. and Tamura, S., Die kristallstruktur von T- Nb2O5, Acta crystallographics B, 31 (3), pp. 673-677, 1975. Prado, A.G.S., Bolzon, L.B., Pedroso, C.P., Moura, A.O. and Costa, L.L., Nb2O5 as efficient and recyclable photocatalyst for indigo carmine degradation. Applied Catalysis B, 82, pp. 219-224, 2008. http://dx.doi.org/10.1016/j.apcatb.2008.01.024 Estéves, et al., New materials based on modified synthetic Nb2O5 as photocatalyst for oxidation of organic contaminants. Catalysis Communications, 10, pp. 330-332, 2008. http://dx.doi.org/10.1016/j.catcom.2008.09.012 Silva, M.K., Marques, R.G. Machado, N.R.C.F. and Santos O.A.A. Evaluation of Nb2O5 and Ag/Nb2O5 in the photocatalytic degradation of dyes from textile industries. Brazilian Journal of Chemical Engineering, 19 (4), pp. 359-363, 2002. http://dx.doi.org/10.1590/S0104-66322002000400001 Mills, A. and Le Hunte, S., An overview of semiconductor photocatalysis. Journal of Photochemistry and Photobiology A: Chemistry, 108, pp. 1-35, 1997. http://dx.doi.org/10.1016/S10106030(97)00118-4 Vargas, M.A., Franco, Y., Ochoa, Y., Ortegón, Y. y RodríguezPáez, J.E. TiO2 sintetizado por el método de precursor polimérico (Pechini): Estructura de la resina intermedia. Boletín de la Sociedad Española de Cerámica y Vidrio, 50 (5), pp. 267-272, 2011. http://dx.doi.org/10.3989/cyv.352011 Montenegro, A., Ponce, M., Castro, M.S. yand Rodríguez-Páez, J.E., Uso de métodos químicos en la obtención de SnO2 empleado como sensor de gases. Revista de la Academia Colombiana de Ciencias Exactas, Físicas y Naturales, 31 (120), pp. 405-413, 2007. Briceño, S.V., Bolaños, G. y Rodríguez Páez J.E. La0.5Ca0.5MnO3 obtenida por el método Pechini. Suplemento de la Revista Latinoamericana de Metalurgia y Materiales, (2), pp. 469-476, 2009. Lugo, G.C.A., Garcia, M.E.J., Rondón, C.J.J., Melendez, Q.H.J., Pérez, D.P.A. y Del Castillo, H., Preparación y caracterización de óxidos mixtos nanoestructurados soportados sobre MgO. Avances en Química, 5 (1), pp. 37-44, 2010. Coria, I.D., Variación de las propiedades superficiales a altas temperaturas en óxidos de metales de transición soportados en alúmina, para su utilización en reacciones catalíticas que involucren adsorción de gases. Invenio, 14 (26), pp. 141-154, 2011. Torres-Martínez, L.M., Juárez-Ramírez, I. y García-Montelongo X.L., Semiconductores tipo perovskita en procesos fotoinducidos para la purificación del agua. Ingenierías, 13 (49), 2010. Palatnikov, M., Shcherbina, O., Sidorov, N. and Bormanis, K., The structure of niobium and tantalum oxides processed by concentrated


Raba-Páez et al / DYNA 82 (189), pp. 52-58. February, 2015. light flux. Ukrainian Journal of Physical Optics, 13 (4), 2012. http://dx.doi.org/10.3116/16091833/13/4/207/2012 [22] Arsova, I., Prusi, A., Grev T. and Arsov, L., Electrochemical characterization of the passive films formed on niobium surfaces in H2SO4 solutions. Journal of the Serbian Chemical Society, 71, pp. 177-187, 2006. http://dx.doi.org/10.2298/JSC0602177A A.M. Raba-Páez, recibió su título de Físico en 2006 de la Universidad Pedagógica Tecnológica de Colombia, Colombia y su título de MSc. en Ciencias-Física en 2011 de la Universidad Nacional de Colombia. Ha sido profesora de la Universidad Pedagógica Tecnológica de Colombia. Actualmente es profesora de la Universidad Francisco de Paula Santander. Sus áreas de investigación comprenden la síntesis y caracterización de óxidos semiconductores. D.N. Suárez-Ballesteros, recibió su título de Químico de Alimentos en 2011 y su título de MSc. en Ciencias-Química en 2013, ambos de la Universidad Pedagógica Tecnológica de Colombia. Sus áreas de investigación comprenden la síntesis y caracterización de catalizadores mesoporosos y catálisis heterogénea.

Área Curricular de Ingeniería Química e Ingeniería de Petróleos Oferta de Posgrados

J.J. Martínez-Zambrano, recibió su título de Químico de Alimentos en 2000 de la Universidad Pedagógica Tecnológica de Colombia; su MSc. en 2007 y Dr. en Ciencias-Química en 2013 todos de la Universidad Nacional de Colombia. Ha sido profesor de la Universidad Pedagógica Tecnológica de Colombia. Sus áreas de investigación comprenden la síntesis y caracterización de óxidos semiconductores.

Maestría en Ingeniería - Ingeniería Química Maestría en Ingeniería - Ingeniería de Petróleos Doctorado en Ingeniería - Sistemas Energéticos

H.A. Rojas-Sarmiento, recibió su título de Licenciado en Química y Biología en 1981 y de Esp. en Bioquímica en 1998, ambos de la Universidad Pedagógica Tecnológica de Colombia; su MSc. en Ciencias Químicas la recibió en 1987 de la Universidad Autónoma Metropolitana, México y su Dr. en Ciencias Químicas en 2003 de la Universidad de Concepción, Chile. Ha sido profesor invitado en las Universidades de Cartagena, Nacional de Colombia y Nacional Autónoma de México. Actualmente es profesor de la Universidad Pedagógica y Tecnológica de Colombia. Sus áreas de investigación comprenden la catálisis heterogénea, por metales y óxidos metálicos y materiales.

Mayor información:

E-mail: qcaypet_med@unal.edu.co Teléfono: (57-4) 425 5317

M. Rincón-Joya, recibió su título de Licenciado en Física y Matemáticas en 1998 y de Esp. en Física en 2001, ambos de la Universidad Pedagógica Tecnológica de Colombia; su MSc. en Física en 2004 y su Dr. en Física en 2008 ambos de la Universidad Federal de Sao Carlos, Brasil; realizo un PhD. en 2009 en la Universidad Estatal Paulista, Brasil. Es profesora del Departamento de Física de la Universidad Nacional de Colombia. Sus áreas de investigación comprenden propiedades ópticas de materiales y caracterización de materiales.

58


ICT mediated collaborative work in system dynamics learning Ricardo Vicente Jaime-Vivas a & Adriana Rocío Lizcano-Dallos b a

Grupo de Investigación GIDSAW, Universitaria de Investigación y Desarrollo, Bucaramanga, Colombia. ricardojaime@udi.edu.co b Grupo de Investigación GIDSAW, Universitaria de Investigación y Desarrollo, Bucaramanga, Colombia. alizcano@udi.edu.co Received: February 13th, de 2014. Received in revised form: April 29th, 2014. Accepted: May 20th, 2014

Abstract Although mathematical modeling is a general engineering skill, problem analysis and solution design conventional tools in systems engineering, such as use case diagrams, class diagrams and relational diagrams among others, are often not supported by a mathematical model or this is not made explicit during learning. This may affect the ability of the systems engineer for interdisciplinary work, whose participation in the requirements determination phase of the software development process can be reduced to be notified of the needs identified by the other actors, without a critical contribution of its party. This paper presents results of research that show the favorable effect of collaborative work mediated by information and communication technology ICT on System Dynamics mathematical modeling skills developing by Systems Engineering students. Keywords: Mathematical modeling; System Dynamics; Collaborative learning; ICT mediated learning.

Trabajo colaborativo mediado por TIC en el aprendizaje de dinámica de sistemas Resumen Aunque el modelamiento matemático es una competencia general de ingeniería, los instrumentos de análisis de problemas y diseño de soluciones usuales en Ingeniería de Sistemas, tales como diagramas de casos de uso, diagramas de clases y diagramas relacionales entre otros, no suelen tener el sustento de un modelo matemático o este no se hace explícito durante el aprendizaje. Esto puede afectar la capacidad del ingeniero de sistemas para el trabajo interdisciplinario, y su participación en la fase de determinación de requerimientos en el proceso de desarrollo de software puede quedar reducida a notificarse de las necesidades identificadas por los demás actores, sin un aporte crítico de su parte. Este artículo presenta resultados de investigación que muestran el efecto favorable del trabajo colaborativo mediado por tecnologías de la información y la comunicación TIC, en el desarrollo de competencias de modelamiento matemático con Dinámica de Sistemas en estudiantes de Ingeniería de Sistemas. Palabras clave: Modelamiento matemático; Dinámica de Sistemas; Aprendizaje colaborativo; Aprendizaje mediado por TIC.

1. Introducción El modelamiento matemático es una competencia indispensable en ingeniería, para abstraer tanto las situaciones problemáticas como las soluciones propuestas. Esto tan evidente en Ingeniería Civil, Ingeniería Mecánica o Ingeniería Química, entre otras que trabajan con energía y materiales, no parece tan claro en Ingeniería de Sistemas, disciplina en la que se desarrollan soluciones en el plano de la organización de la información. La disyunción entre la teoría y la práctica, y sobre todo la escasa relación percibida entre las definiciones matemáticas y la competencia de diseño, incrementan la falta de conciencia metalingüística que debe caracterizar a una actividad discursiva como el

modelamiento de datos e información [1], que podría superarse si estudiantes y docentes se enfocaran en que más allá de la resolución de problemas tipo, la aplicación de fórmulas y la demostración de teoremas, una competencia deseable en un curso de matemáticas es su incorporación al discurso para la utilización de un lenguaje técnico, con el cual el estudiante de ingeniería pueda expresar con precisión lo que puede ser ambiguo o confuso en el lenguaje cotidiano [2], e impreciso en los modelos en Lenguaje Unificado de Modelamiento UML, pues a pesar de su utilidad en el análisis y diseño de software, no representan ni la estructura ni el comportamiento de un sistema [3], y llevan a los desarrolladores de software a perder interacción y comprensión suficiente del dominio del problema [4].

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 59-67. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42026


Jaime-Vivas & Lizcano-Dallos / DYNA 82 (189), pp. 59-67. February, 2015.

ingeniero podría verse en desventaja en el escenario de desempeño profesional, en el que gracias a las herramientas computacionales puede aprovechar el tiempo que ya no dedica a la solución de sistemas de fórmulas o ecuaciones, a descubrir nuevas técnicas, especialmente con respecto a la aplicación del cálculo diferencial, que en el ámbito de la ingeniería es la matemática más apropiada para modelar los aspectos dinámicos de objetos y fenómenos del mundo real [12], por lo que a la vez es la matemática más exigida en la acreditación de programas de formación en ingeniería [13]. El propósito del modelamiento matemático computacional es reducir el tiempo y esfuerzo de dedicación del ingeniero en la solución de sistemas de ecuaciones, para dedicarse a formularlos, es decir, a crear modelos, a mejorar la consistencia de la información, reducir la ambigüedad y mejorar la precisión [10]. El modelamiento como competencia es más útil para el estudiante de ingeniería, que la capacidad analítica para resolver problemas matemáticos, sin que esta deba quedar relegada completamente. A partir de que el papel del ingeniero es intervenir en situaciones problemáticas, la habilidad para el modelamiento se puede tomar como la medida de su capacidad para entender y abstraer dichas situaciones [9]. La matemática tradicional del currículo de ingeniería, más enfocada en los contenidos que en el modelamiento, ha generado el inconveniente de que los estudiantes durante los cursos de matemáticas se dedican a resolver problemas tipo, pero no a abordar situaciones complejas que requieran acciones de ingeniería, lo cual ha quedado aplazado hasta el tercer o cuarto año de estudios. Frente a este enfoque de primero aprender matemáticas y luego utilizarlas para el modelamiento, ha surgido uno nuevo que busca la activación del aprendizaje de la matemática desde contextos o para propósitos extramatemáticos, es decir, primero modelar en el campo específico de interés o de aplicación del estudiante y sobre esta base estimular el aprendizaje de la matemática [14], de lo cual surge la recomendación de incorporar las competencias de modelamiento en los cursos de matemáticas, estimular el trabajo grupal e interdisciplinario, y formular estrategias para que asociada a la competencia de modelar, se estimulen las competencias de comunicación verbal [15], y que todo el proceso de ingeniería pueda estar soportado en modelos [9]. La Dinámica de Sistemas es una disciplina de modelamiento de alta difusión a nivel mundial. En Colombia suele estar incorporada en los cursos de modelamiento y simulación en programas de pregrado en Ingeniería de Sistemas, y eventualmente en Ingeniería Industrial. Al estar asociada a la formación en Ingeniería de Sistemas, estando esta profesión tan estrechamente vinculada al desarrollo de software como producto de ingeniería no orientado al uso de materiales y energía sino de información, se constituye en un escenario de coordinación del trabajo interdisciplinario: el software como desarrollo de ingeniería debe constituirse en una herramienta para la integración del trabajo de las demás especialidades.

Este artículo recoge resultados de dos proyectos de investigación desarrollados en el marco de convocatorias de la Red Nacional Académica de Tecnología Avanzada RENATA: “Efecto del ejercicio de la Argumentación y del monitoreo de las variables centralidad y cohesión de grupo sobre el desarrollo de competencias matemáticas y la deserción estudiantil” de la convocatoria RENATA 2010, y “Red de Modelamiento y Representación Formal en Matemáticas” de la convocatoria RENATA 2011. El propósito de los dos proyectos era comprobar si el trabajo colaborativo mediado por tecnologías de la información y la comunicación, tiene un efecto favorable en el desarrollo de competencias matemáticas de modelamiento. 2. Modelamiento en Ingeniería El modelamiento matemático es inherente a la ingeniería. La definición usual para la acreditación de programas en Estados Unidos refiere la ingeniería como la aplicación con criterio del conocimiento en matemáticas y ciencias naturales, para determinar el uso de los materiales y fuerzas de la naturaleza para el beneficio de la humanidad [5]. En el caso de la acreditación europea, se define ingeniería como una disciplina con raíces en la matemática, la física y otras ciencias naturales, aplicadas al desarrollo de modelos y métodos para la solución de problemas [6]. Entre todas las competencias de los ingenieros se destaca el aprecio por el lenguaje matemático, en la medida que es el lenguaje para modelar el mundo natural, que le da la capacidad para el análisis de sistemas complejos y para utilizar herramientas de trabajo asistido por computador; sin una capacidad para el modelamiento matemático dichas herramientas resultan inútiles [7]. Para algunos estudiantes de ingeniería, la notación sintáctica de los modelos matemáticos resulta difícil de abordar. La representación diagramática, de uso frecuente en ingeniería, constituye una opción para el abordaje preliminar de problemas y la formulación de soluciones previa a la expresión formal del modelo matemático, y su utilidad radica en que provee información asociativa que difícilmente se establece en las representaciones algebraicas o basadas en sentencias. Las diferentes ingenierías han desarrollado tipos de diagramas de acuerdo a sus necesidades de diseño; pero es factible también utilizar la representación diagramática durante los procesos de adquisición de conocimiento [8], lo cual extiende su utilidad a las fases de exploración de los problemas y determinación de requerimientos de las soluciones de ingeniería [9] y permite superar las barreras lingüísticas que usualmente surgen entre equipos multidisciplinarios que abordan un mismo problema, siendo los diagramas útiles tanto para capturar e integrar información, como para distribuirla mediante transformaciones sistemáticas en los esquemas que cada disciplina requiere [10]. Se podría suponer que la disponibilidad actual de herramientas matemáticas computacionales liberan a los estudiantes de ingeniería de su necesidad de destreza matemática. Por el contrario, esto hace necesario tener una nueva formación en modelamiento computacional que ya se empieza a conocer como E-ingeniería [11], sin la cual el

3. Aprendizaje colaborativo Con respecto al aprendizaje colaborativo [16] presenta un esquema para evaluar el trabajo colaborativo de grupos 60


Jaime-Vivas & Lizcano-Dallos / DYNA 82 (189), pp. 59-67. February, 2015.

en la solución de un problema, implementado como un juego informático. El artículo plantea métricas en 5 aspectos del trabajo colaborativo: aplicación de estrategias, cooperación al interior del grupo, revisión de los criterios de éxito, monitoreo y desempeño. Para la experimentación se seleccionaron 11 grupos, que fueron sometidos a un proceso que comprendía: breve descripción del software, asignación de los miembros a los computadores en cuartos separados para la interacción sincrónica, resolución del problema mediante la participación en el juego, y finalmente un análisis de datos grabados por la herramienta y de las entrevistas realizadas a los participantes para la autoevaluación de la experiencia. Los resultados arrojados por dicha experiencia sugieren que para obtener un proceso de aprendizaje exitoso tanto en la construcción individual de un contexto cognitivo como en las experiencias compartidas por los miembros, es importante compartir la construcción de una estrategia que guíe el trabajo de grupo, la cual sea comprendida y adoptada por todos sus miembros. Los procesos de trabajo colaborativo están influenciados por el estilo personal y el comportamiento individual de cada uno de los miembros del grupo. De acuerdo con los resultados obtenidos tanto en el puntaje del juego, como en los 5 indicadores definidos, se concluye que los grupos más efectivos son aquellos que tienen claros los objetivos y los van modificando a medida que avanza el trabajo, lo que involucra una buena coherencia entre los objetivos individuales y los objetivos grupales. Adicionalmente, los resultados muestran que los grupos inefectivos presentan una pobre comunicación y tienden a mantener la estrategia. En el caso de las actividades colaborativas, desarrollar una tarea implica no solo tener las habilidades para ejecutar la tarea, sino también colaborar para que todos los compañeros del equipo lo hagan. Con respecto al tipo de herramientas computacionales con que se soporta el proceso de aprendizaje colaborativo, [17] presenta evidencia de que no hay un efecto concluyentemente favorable en experiencias mediadas por software de propósito específico en la temática asociada al problema, con respecto a experiencias con software de propósito general. En cambio sugiere que hay una convergencia en los patrones de aprendizaje de quienes participan en el grupo colaborativo, pero que esto no necesariamente implica una mejora en la construcción de conocimiento, dado que el proceso de aprendizaje colaborativo tiene unos riesgos inherentes, entre los cuales se cuenta el que el grupo haga una división inadecuada del trabajo.

Tabla 1. Casos abordados durante el curso Casos 00 – Especies invasoras 01 – Cuenta de ahorros 02 – Chernobyl 03 – Productos lácteos 04 – Computación en la nube 05 – Papel o plástico Fuente: Los autores.

V G C E E X E

Representación D A G G C C C C E C E E X E

C G C C C E E

cursos de Dinámica de Sistemas correspondiente al noveno semestre del plan de estudios, en horario nocturno y con una carga académica similar, durante el segundo periodo académico de 2012. Los dos grupos utilizaron los mismos casos y formas de representación; la diferencia entre los dos es el trabajo mediado por software. Cada celda de la Tabla 1 corresponde a una sesión. La letra “E” indica que el grupo experimental trabajó en una sala de informática, haciendo uso de software para mediar su trabajo colaborativo. La letra “C” indica que el caso fue utilizado por el docente en clase. La letra “G” corresponde a un caso que se entregó a los estudiantes completamente desarrollado a manera de guía. El grupo de control abordó las sesiones marcadas con “E” en forma de taller en el aula de clase. 4.1. Dinámica de las sesiones Se acordó con los dos grupos que las sesiones no generarían ninguna nota, para eliminar un factor de presión que pudiera limitar la participación de algunos estudiantes por temor a incurrir en errores. Las notas se obtuvieron en evaluaciones individuales idénticas para los dos grupos. La formulación de cada caso era entregada a los estudiantes, tanto los del grupo experimental como los del grupo de control, con un mínimo de cuatro días de anticipación a la sesión de trabajo. Dicha formulación es un documento que contiene información general de la actividad, menciones explícitas a las competencias del curso que se trabajan en la sesión, un contexto de modelamiento en el que el docente introduce la situación o problema a modelar, referencias a sitios en internet en donde se recomienda al estudiante la búsqueda de información complementaria para ampliar su comprensión del caso, y una pregunta a partir de la cual se comenzaría la discusión del caso. También se distribuyó un documento con instrucciones y recomendaciones de uso de cada software, con al menos una semana de antelación a la primera sesión en que se utilizara. Cada sesión no era en sí misma una actividad evaluativa, sino una actividad en la que era importante participar en el proceso de construcción colaborativa de un modelo. En cada sesión, los estudiantes se distribuían en grupos de 4 o 5, cuya conformación se hacía justo al inicio de cada sesión de trabajo colaborativo, teniendo cuidado de que hubiera una rotación permanente, es decir, que cada estudiante tuviera compañeros diferentes en cada sesión para prevenir acuerdos tácitos permanentes de distribución inadecuada del trabajo como sugiere [17]. Dado que no era posible tener a

4. Aspectos metodológicos El trabajo colaborativo en este proyecto consistió en el abordaje grupal de casos de estudio cada vez más complejos. Se utilizaron 6 casos en sesiones basadas en cuatro formas de representación: verbal, diagramática, algebraica y computacional. El grupo experimental estaba conformado por 37 estudiantes, y el grupo de control constaba de 39, ambos de 61


Jaime-Vivas & Lizcano-Dallos / DYNA 82 (189), pp. 59-67. February, 2015.

los estudiantes en recintos separados, como se hizo en el experimento mencionado en [16], se asignaba un computador a cada estudiante en la misma sala pero evitando que miembros del mismo grupo se ubicaran en puestos adyacentes para eliminar la comunicación oral directa. En las sesiones con el grupo experimental el docente participaba como moderador de las discusiones en línea, cuya función no era contribuir a la solución del caso, sino monitorear que los grupos fueran elaborando una estrategia de colaboración, y que a pesar de la heterogeneidad en el nivel de competencias, el grupo no permitiera que un integrante elaborara una solución a partir de su capacidad individual, sino que llevara a cabo un proceso de cooperación y argumentación. Una vez concluida cada sesión se distribuía la solución propuesta por el docente, para ser leída por los estudiantes y utilizada en una clase posterior para la realimentación correspondiente. Con ambos grupos se finalizó cada caso en trabajo orientado por el docente para la conversión del diagrama de influencias en diagrama de clases, como se plantea en [18].

Figura 1. Diagrama de influencias de la estructura básica de un sistema. Fuente: Los autores.

Tabla 2. Sustantivos y verbos de la estructura básica de un sistema Elemento Tipo Unidad Bacterias BAC S Colonias Introducción de bacterias INT V Colonias/tiempo Incremento de bacterias INC V Colonias/tiempo Eliminación de bacterias ELI V Colonias/tiempo Lactosa LAC S Gramos Consumo de lactosa CON V Gramos/tiempo Ácido láctico ALC S Gramos Producción de ácido láctico PRO V Gramos/tiempo Suero SUE S Litros Separación de suero SEP V Litros/tiempo Fuente: Los autores.

4.2. Modelamiento con Dinámica de Sistemas En el curso incorporado a este proyecto la Dinámica de Sistemas se presenta como herramienta de modelamiento que sirve como puente entre el proceso de aprendizaje acerca de la dinámica de un fenómeno y el diseño de software para intervenir en el mismo, de manera que el Ingeniero de Sistemas pueda participar activamente en grupos de trabajo interdisciplinario, utilizar la información que le aporten los expertos en el campo de aplicación para el modelamiento matemático de los problemas y la representación del conocimiento pertinente para su comprensión y solución, y luego transformar los modelos usuales en Dinámica de Sistemas en otros modelos específicos de Ingeniería del Software [18], como un complemento al curso de Ingeniería del Software y al uso de UML, cuya utilidad ha sido criticada por consistir en un abordaje descriptivo sin soporte matemático, que limita la comprensión del ámbito del software por parte de los desarrolladores [19]. Lo anterior implica variaciones metodológicas con respecto al proceso de modelamiento tradicional con Dinámica de Sistemas, consistente en tres fases cíclicas denominadas conceptualización, formalización y simulación del comportamiento del sistema, y cuyo fin último es la experimentación mediante simulación para soportar la toma de decisiones [20].

[c] [c/t] [c/t] [c/t] [g] [g/t] [g] [g/t] [l] [l/t]

elementos de la estructura básica del sistema, clasificándolos en dos categorías: sustantivos y verbos. Los sustantivos son elementos tangibles en términos de cantidad y unidad de medida. Los verbos son las acciones o eventos que cambian el valor de los sustantivos, y su unidad de medida es la misma de estos, pero en relación con la unidad de tiempo. Entonces, aunque el primer modelo usual en Dinámica de Sistemas es el diagrama de influencias, como el que se muestra en la Fig. 1, en el curso que hizo parte de este proyecto se requirió a los estudiantes discutir y hacer una selección de los sustantivos y verbos que utilizarían en el modelamiento, haciendo mención explícita de sus unidades de medida, y organizar dicha información acompañada de documentación adicional con la definición de cada elemento. La Tabla 2 muestra, para ilustrar acerca del formato mas no para documentar la solución completa del caso, la lista de elementos de la estructura básica del sistema propuesta por el docente como parte de la solución al caso denominado “Productos lácteos”. La representación diagramática es inherente al modelamiento con Dinámica de Sistemas. En la metodología utilizada tradicionalmente se construyen dos tipos de diagramas: diagramas de influencias también llamados diagramas causales, y diagramas de flujos y niveles conocidos también como diagramas de Forrester. La

4.2.1. Modelamiento cualitativo de la estructura básica del sistema En el modelamiento tradicional con Dinámica de Sistemas, los elementos incorporados a los diagramas de influencias no se clasifican bajo ningún criterio, y ese ha sido un elemento fuertemente criticado de los diagramas de influencias. Para los propósitos de la reorientación metodológica del curso ya descritos antes, se requiere a los estudiantes empezar el modelamiento identificando los 62


Jaime-Vivas & Lizcano-Dallos / DYNA 82 (189), pp. 59-67. February, 2015.

línea ortodoxa de modelamiento, apegada a los lineamientos de Jay Forrester, prefiere el uso de los diagramas de flujos y niveles, por su estrecha relación con el modelo matemático; para este grupo de modeladores el diagrama de influencias carece de rigor y se presta para imprecisiones, ambigüedades o abordajes subjetivos. Por el contrario, los partidarios del modelamiento cualitativo son partidarios del uso de dichos diagramas por su utilidad como medio de comunicación; acerca del escaso rigor que le critican los modeladores ortodoxos, desde el modelamiento cualitativo se argumenta que es superable con reglas claras. Los diagramas de influencias son representaciones que ayudan a las personas a externalizar y enriquecer sus modelos mentales [21], a resumir grandes cantidades de texto, orientar una discusión, explicar el comportamiento de los sistemas a partir de estructuras cíclicas, ampliar el contexto de abordaje de un problema, y como paso intermedio entre el lenguaje natural y el lenguaje matemático [22]. La representación utilizada fue la de diagramas de influencias, pues son construidos mientras que personas de diferentes disciplinas discuten acerca de un problema que los involucra, y son representaciones cercanas al lenguaje natural, en las que diferentes perspectivas expresan sus argumentos. Después de identificar los sustantivos y verbos constitutivos de la estructura básica del sistema, se procede a la construcción del primer diagrama de influencias del sistema. Las influencias se caracterizan de acuerdo al tipo de elementos de donde parten y a donde llegan: de un verbo hacia un sustantivo llevan signo “+” o “-” según impliquen incremento o decremento del valor del sustantivo; de un sustantivo a un verbo, implican causalidades directas o inversas según su signo sea “+” o “-” respectivamente; no se permiten relaciones entre sustantivos; un sustantivo solo puede influir sobre otro a través de los verbos.

Como se observa en la Fig. 1, la producción de ácido láctico depende del consumo de lactosa por parte de las bacterias. Por tanto, la correspondiente ecuación debe representar la producción de una cantidad de ácido láctico a partir del consumo de una cantidad de lactosa. En el proceso de validación de unidades de medida, se utilizaron las letras A y L para acompañar a las unidades [g] del ácido láctico y la lactosa respectivamente, como recurso visual para que fuera claro para los estudiantes que aunque son las mismas unidades de medida se trata de materiales diferentes. Luego de este recurso temporal, resulta notorio que se debe obtener PRO medido en [gA/t], a partir de CON medido en [gL/t], y que al menos hacía falta incorporar un nuevo elemento medido en [gA/gL] para obtener las unidades de medida apropiadas, y que revisando la formulación y la documentación del caso consultada en internet, a este nuevo elemento se le podía denominar Factor de conversión de lactosa, que indica la cantidad de ácido láctico que las bacterias producen por cada unidad de lactosa que consumen, y que para el modelo matemático se abreviaría como FCL, siendo la ecuación final PRO(t)=CON(t)*FCL(t). 4.2.3. Modelamiento enriquecido del sistema Estos nuevos elementos del modelo, obtenidos a partir de la formulación de las ecuaciones de los verbos, se consideran como parámetros, multiplicadores o factores exógenos, y se agregan a la estructura básica del sistema, en un proceso iterativo que produce diagramas de influencias enriquecidos y validados matemáticamente.

4.2.2. Modelamiento cuantitativo de la estructura básica del sistema A cada sustantivo le corresponde una ecuación diferencial. El valor futuro surge de sumar o restar al valor actual del sustantivo los verbos según su signo de influencia. Por cada verbo hay una ecuación auxiliar, construida únicamente con los elementos desde donde llegan influencias. A los estudiantes se les sugiere organizar el modelo matemático como se muestra en la Tabla 3. La formulación de las ecuaciones de los verbos, para las cuales se puede recurrir a otras ramas de la matemática, con frecuencia lleva a los modeladores a identificar nuevos elementos. A manera de ejemplo se presentan a continuación las consideraciones para la ecuación de la producción de ácido láctico PRO. Tabla 3. Ecuaciones diferenciales de un sistema Elemento Tipo BAC BAC t ∆t BAC t INT t ∗ ∆t ∗ ∆t LAC LAC t ∆t LAC t CON t ∗ ∆t ALC ALC t ∆t ALC t PRO t ∗ ∆t SUE SUE t ∆t SUE t SEP t ∗ ∆t Fuente: Los autores.

Figura 2. Diagrama de influencias enriquecido de un sistema. Fuente: Los autores.

4.2.3. Simulación del comportamiento del sistema INC t ∗ ∆t

El modelo matemático se implementa en una hoja de cálculo, en donde cada fila representa el estado del sistema en un tiempo t y cada columna contiene la sucesión de valores para un elemento variable del sistema.

ELI t

63


Jaime-Vivas & Lizcano-Dallos / DYNA 82 (189), pp. 59-67. February, 2015.

Figura 3. Simulación del comportamiento de un sistema mediante hoja de cálculo. Fuente: Los autores.

Figura 4. Fragmento de mapa verbal argumentativo de una sesión del grupo experimental. Fuente: Los autores.

Para el análisis de datos se construyó un indicador de desempeño verbal normalizado (IVN), dividiendo el número de aportes del estudiante por el número de sesiones en las que había participado, valor que luego fue normalizado con respecto al valor máximo del grupo.

4.3. Sesiones de trabajo colaborativo Cada sesión de trabajo hacía énfasis en una de cuatro formas de representación: verbal, diagramática, algebraica y computacional. Dichas formas están relacionadas pero no son equivalentes a las fases metodológicas de modelamiento con Dinámica de Sistemas referidas en la sección anterior. Aunque existe software desarrollado específicamente para el modelamiento con Dinámica de Sistemas, se optó por herramientas de propósito general pero que proveen funcionalidades de interacción que el docente pudiera utilizar para monitorear y prevenir los riesgos planteados por [17].

4.3.2. Representación diagramática Existe una diversidad de herramientas computacionales para modelar con Dinámica de Sistemas, como Stella, PowerSim, Vensim, o Evolución. Sin embargo no se utilizó ninguno de estos porque se orientan de manera predominante a los diagramas de flujos y niveles y la simulación. En cambio se utilizó la herramienta de diapositivas de la plataforma Google Drive, que ofrece elementos de dibujo básicos con los cuales se puede construir un diagrama de influencias, y permite el trabajo colaborativo y la discusión en línea mediante el chat durante el proceso. Para el análisis de datos se formuló un Indicador de Desempeño Diagramático (IDD), que se calculó dividiendo el número de elementos, relaciones y ciclos acertados en el modelo de los estudiantes entre el número de elementos de la solución sugerida por el docente.

4.3.1. Representación verbal El proyecto contemplaba cumplir una fase de aproximación verbal al fenómeno, una discusión acerca del mismo con base en ontologías argumentativas, para identificar y justificar los elementos que conforman la estructura básica del sistema. Se pretendía replicar los resultados del proyecto RENATA 2011, en el cual se concluyó que la participación en sesiones de trabajo mediante ontologías argumentativas tuvo un impacto favorable en el desempeño académico de estudiantes de ingeniería en el curso de Matemáticas I, quienes lograron una participación cada vez más activa en la discusión, un incremento en su nivel de confianza para comunicar sus aportes, y una mejora notoria incluso en las clases presenciales [23]. Para el abordaje verbal de los casos se utilizó el software Argunaut 1.0. Aunque se hubiera podido hacer una discusión por medios más familiares para el estudiante, como el chat o los foros, también había evidencia de que el trabajo colaborativo utilizando categorías ontológicas resulta más favorable que el foro de discusión, tanto en aspectos individuales como grupales [24]. La Fig. 4 muestra un mapa de discusión construido por los estudiantes durante el abordaje de un caso, y que podría explicarse sencillamente como una especie de chat gráfico en el que los participantes no intervienen en formato libre, sino que utilizan diferentes formas según el tipo de aporte que hacen a la discusión, y vincula dicho aporte con otros mediante líneas que implican acuerdo, desacuerdo o relación.

4.3.3. Representación algebraica En este tipo de sesiones los estudiantes utilizaron el editor de texto de la plataforma Google Drive, para formular el modelo matemático del sistema, discutiendo mediante el chat durante el proceso. Para el análisis de datos se construyó un Indicador de Desempeño Algebraico (IDA) como comparación del alcance de la representación dada por el grupo de estudiantes frente al alcance de la representación sugerida por el docente. Se calculó sumando las variables, datos y fórmulas identificadas por el estudiantes y asimilables a la solución sugerida por el docente, y dividiendo por la suma de variables, datos y fórmulas planteadas por el docente. 4.3.4. Representación computacional La simulación por computador ha sido el principal objetivo del modelamiento con Dinámica de Sistemas, 64


Jaime-Vivas & Lizcano-Dallos / DYNA 82 (189), pp. 59-67. February, 2015.

especialmente en la línea ortodoxa. Existe variedad de herramientas software para este propósito, pero se puede llevar a cabo con herramientas de propósito general como las hojas de cálculo. El grupo experimental utilizó para la simulación la hoja de cálculo de la plataforma Google Drive. En este tipo de sesiones los estudiantes tuvieron dificultades para construir diagramas de simulación con los datos obtenidos, atribuibles a falta de conocimiento de la herramienta, que tiene algunas diferencias con respecto a Excel, que es la hoja de cálculo con la que están familiarizados. Para el análisis de datos se construyó un Indicador de Desempeño Computacional (IDC) como comparación del alcance de la representación dada por el estudiante frente al alcance de la representación sugerida por el docente. Se calculó sumando las diferentes fórmulas implementadas por los estudiantes asimilables a la solución dada por el docente, y dividiendo por la suma de formulas planteadas por el docente.

Figura 5. Diagrama de cajas con las notas de los grupos experimental y de control. Fuente: Los autores.

Tabla 5. Análisis de regresión entre notas y pertenencia al grupo experimental o de control Parámetro Estimación Error Estadístico ValorEstándar T P P1 K 2,546150 0,1496570 17,01330 0,0000 Grupo -0,278586 0,2144870 -1,29885 0,1980 P2 K 3,056410 0,1110690 27,51800 0,0000 Grupo 0,181428 0,1591840 1,13973 0,2581 P3 K 3,287180 0,0978842 33,58230 0,0000 Grupo 0,788496 0,1402870 5,62058 0,0000 Fuente: Los autores.

5. Análisis de resultados La Tabla 4 muestra la comparación entre las notas de los tres exámenes parciales, P1, P2 y P3, hechos a lo largo del semestre tanto al grupo experimental (E) como al grupo de control (C). El análisis estadístico indica que en el grupo experimental, el promedio es de 2,26 en P1, sube a 3,23 en P2 y llega a 4,07 en P3, mientras que para el grupo de control el promedio es de 2,54 en P1, sube a 3,05 en P2, y solo llega a 3,28 en P3. El sesgo y la curtosis estandarizados muestran que se trata de datos que corresponden a una distribución normal, con excepción de P2C, cuyo sesgo estandarizado de 2,79 implica algo de no normalidad significativa. La Fig. 5 muestra la secuencia de notas ascendente para ambos grupos; para P1 la media y la mediana del grupo de control es mejor, pero en P2 y P3 el grupo experimental es más favorable. Luego se analizó por regresión la correlación estadística entre las notas de cada parcial con la pertenencia de los estudiantes al grupo experimental o al grupo de control.

Tabla 6. Análisis de regresión entre P3 y la pertenencia al grupo y las notas anteriores Parámetro Estimación Error Estadístico ValorEstándar T P P3 K 1,830060 0,3138470 5,83105 0,0000 Grupo 0,804263 0,1247770 6,44562 0,0000 P1 0,237968 0,0667652 3,56425 0,0007 P2 0,278503 0,0899604 3,09584 0,0028 Fuente: Los autores.

A partir de los datos mostrados en la Tabla 5 se puede afirmar que, a pesar de la favorabilidad para el grupo experimental en la evolución de la media de cada parcial, la nota solo está relacionada de una manera estadísticamente significativa con el grupo en el tercer parcial, porque para P1 el valor –P es de 0,1980, para P2 es de 0,2581, y para P3 es de 0,0000. Es decir, el efecto es acumulativo y por ende cada vez más fuerte. Dado que P1 y P2 no estaban relacionadas de una manera estadísticamente significativa con el grupo, se utilizaron luego como variables independientes para un nuevo análisis de regresión, cuyos resultados se muestran en la Tabla 6. Este nuevo análisis muestra la relación estadísticamente significativa entre todos los componentes del modelo, dado que el valor –P del mismo es 0,0000. Igualmente, ratifica que el elemento más determinante es la pertenencia al grupo experimental. Habiendo establecido el impacto favorable de la pertenencia al grupo, se realizaron nuevos análisis a los datos del grupo experimental, para determinar la incidencia de cada una de las formas de representación.

Tabla 4. Resumen estadístico de notas de los grupos experimental y de control Recuento P1C P1E P2C P2E P3C P3E

39 37 39 37 39 37

Promedio 2,54615 2,26757 3,05641 3,23784 3,28718 4,07568

Sesgo Estandarizado P1C P1E P2C P2E P3C P3E Fuente: Los autores.

-1,077240 0,372878 2,799050 0,463517 1,660480 -1,415560

Desviación Estándar 0,770798 1,08091 0,625256 0,759148 0,607921 0,614819

Coeficiente Variación 30,2730 % 47,6682 % 20,4572 % 23,4462 % 18,4937 % 15,0851 %

Curtosis Estandarizada -0,3335110 -0,7113290 -0,0117224 -1,5540500 -0,4657830 -0,7331120

65


Jaime-Vivas & Lizcano-Dallos / DYNA 82 (189), pp. 59-67. February, 2015.

grupo, y que el análisis estadístico muestra que la media en la nota de dicho parcial es superior en el grupo experimental, se puede atribuir un efecto favorable de la utilización de software para la mediación en el abordaje de casos de estudio en trabajo colaborativo, en el logro de competencias de modelamiento matemático con Dinámica de Sistemas. En cuanto a las formas de representación utilizada, se encuentra una alta influencia de la diagramática y de la discusión verbal argumentada, un poco menor de la representación algebraica, y muy débil por parte de la representación computacional. Sin embargo, sería pertinente establecer mediante nuevos experimentos si con un software diferente se pueden conseguir mejores resultados con respecto a las dos últimas representaciones.

Tabla 7. Análisis de regresión entre P3E y las formas de representación utilizadas en las sesiones Parámetro Estimación Error Estadístico ValorP3E Estándar T P K 5,154260 0,819864 6,286720 0,0000 SV -0,013333 0,120279 -0,110854 0,9124 Mod SA 0,151852 0,273887 0,554433 0,5831 1 SD -0,527593 0,401263 -1,314830 0,1979 SC 0,151852 0,273887 0,554433 0,5831 Modelo 0,0871 K 3,267430 0,229690 14,225400 0,0000 IVN 0,485586 0,198800 2,442580 0,0203 Mod IDA 0,604500 0,322892 1,872140 0,0704 2 IDD 1,455510 0,409045 3,558300 0,0012 IDC 0,170082 0,494019 0,344282 0,7329 Modelo 0,0005 Fuente: Los autores.

Agradecimientos En un primer modelo se analizó la relación estadística entre P3 y el número de sesiones de cada forma de representación en que los estudiantes participaron: sesiones de representación verbal (SV), diagramática (SD), algebraica (SA) y computacional (SC). El valor -P=0,0871 de la Tabla 7 muestra que en este primer modelo (Mod 1) no existe relación estadísticamente significativa entre P3 y el número de sesiones de cada forma de representación. En un segundo modelo se analizó la relación estadística entre P3 y el los indicadores de rendimiento que los estudiantes obtienen en cada una de las formas de representación: indicador de rendimiento en sesiones de representación verbal (IVN), diagramática (IDD), algebraica (IDA) y computacional (IDC). El valor -P=0,0005 de la Tabla 7 muestra que en este segundo modelo (Mod 2) sí existe relación estadísticamente significativa entre P3 y los indicadores de rendimiento. En cuanto a las formas de representación, las más significativas son la diagramática (-P=0,0012) y la verbal (–P=0,0203), seguidas de la algebraica y la computacional que se salen del nivel de confianza del 95%, ya que sus valores –P son mayores que 0,05 (0,0704 y 0,7329 respectivamente). El número de sesiones en que participa cada estudiante no alcanza una variabilidad suficiente; el desempeño sí, porque los estudiantes cambian de grupo para cada sesión.

Los autores son integrantes del Grupo de Investigación en Nuevas Tecnologías aplicadas a la Educación GIDSAW, de la Universitaria de Investigación y Desarrollo UDI. Los proyectos fueron objeto de los contratos IF-002-10 e IF007-11 entre el Centro de Investigación y Desarrollo en Tecnologías de la Información y las Comunicaciones CINTEL y la Fundación Universidad Central como ejecutora. También participaron docentes de los grupos TECNICE y TECNIMAT de la Universidad Central, COGNITEK de la Universidad Pedagógica Nacional, y KISHURIM de la Universidad Hebrea de Jerusalén, bajo la dirección del profesor Luis Facundo Maldonado. A todas estas personas e instituciones un agradecimiento. Referencias [1]

[2]

[3] [4]

6. Conclusiones Tanto el grupo experimental como el grupo de control abordaron los mismos casos de estudio y con las mismas formas de representación. La experimentación se hizo trabajando en aulas de informática desde un computador individual trabajando en grupos de 4 o 5 estudiantes, con la mediación de software que permite su participación concurrente en la elaboración de un mismo trabajo, y eliminando la comunicación oral directa. Entre tanto, el grupo de control trabajó en modo taller en el aula de clase normal. Dado que la única diferencia entre el grupo experimental y el de control es la mediación del software en las condiciones establecidas, que el análisis de regresión muestra una fuerte correlación estadística entre las notas del tercer parcial de los estudiantes del curso y su pertenencia al

[5] [6]

[7] [8] [9]

66

Holmboe, C., Conceptualization and labelling as cognitive challenges for students of data modelling. Computer Science Education, 15 (2), pp. 143-161, 2005. http://dx.doi.org/10.1080/08993400500150796 Khait, A., Goal orientation in mathematics education. International Journal of Mathematical Education in Science and Technology, 34 (6), pp. 847-858, 2003. http://dx.doi.org/10.1080/00207390310001595438 Tignor, W., System engineering and system dynamics models. Proceedings of the 22nd International Conference of the System Dynamics Society, pp. 110-128, 2004. Luna-Reyes, L.F., Black, L.J., Cresswell, A.M. and Pardo, T.A., Knowledge sharing and trust in collaborative requirements analysis. System Dynamics. Review, 24 (3), pp. 265-297, 2008. http://dx.doi.org/10.1002/sdr.404 Accreditation Board for Engineering and Technology – ABET, ABET Accreditation Yearbook. Baltimore: ABET Inc., 2010, 19 P. European Network for Accreditation of Engineering Education – ENAEE, ENAEE / IEA Glossary of Terminology. [Online], 2013 [Date of reference March 13th of 2013]. Available at: http://www.enaee.eu/publications/enaeeiea-glossary-of-terminology. Moore, D.J. and Voltmer, D.R., Curriculum for an engineering renaissance. IEEE Transactions on Education, 46 (4), pp. 452-455, 2003. http://dx.doi.org/10.1109/TE.2003.818754 Sen, T., Diagrammatic knowledge representation. IEEE Transactions on Systems, Man, and Cybernetics, 22 (4), pp. 826830, 1992. http://dx.doi.org/10.1109/21.156595 Ramos, A.L., Vasconcelos, J. and Barceló, J., Model-Based systems engineering: An emerging approach for modern systems. IEEE Transactions on Systems, Man, and Cybernetics, 42 (1), pp. 101111, 2012. http://dx.doi.org/10.1109/TSMCC.2011.2106495


Jaime-Vivas & Lizcano-Dallos / DYNA 82 (189), pp. 59-67. February, 2015. [10] Oliver, D.W., Engineering of complex systems with models. IEEE Transactions on Aerospace and Electronic Systems, 33 (2), pp. 667685, 1997. http://dx.doi.org/10.1109/7.588386 [11] Esper, P., Peng, D. and Maij, M., The role of computer modelling and E-engineering in civil, structural and geotechnical engineering. 2006 International Conference on Information and Communication Technologies ICTTA ’06, 2006, pp. 7-11, 1993. [12] Tarvo, J., Mathematical modelling allows fast, easy design for process engineering. IEE Computing & Control Engineering, 16 (3), pp. 34-41, 2005. http://dx.doi.org/10.1049/cce:20050305 [13] Accreditation Board for Engineering and Technology – ABET. Criteria for accrediting engineering programs. Baltimore: ABET Inc., 2011, 24P. [14] Niss, M., Models and Modelling in Mathematical education. Newletter of the European Mathematical Society, (86), pp. 49-52, 2012. [15] National Academy of Engineering. Educating the engineer of 2020: Adapting engineering education to the new century. Washington DC: The National Academies Press, 2005. [16] Collazos, C., Guerrero, L., Pino, J. and Ochoa, S., Evaluating collaborative learning process. Proceedings of 8th international workshop on Groupware, pp. 203-221, 2002. [17] Taylor, P. and Fischer, F., Knowledge convergence in computersupported collaborative learning: The role of external representation tools. Journal of the Learning Sciences, 14 (3), pp. 405-441, 2014. [18] Jaime, R., Modelamiento semántico con dinámica de sistemas en el proceso de desarrollo de software. RISTI Revista Ibérica de Sistemas y Tecnologías de la Información, 10 (1), pp. 19-34, 2012. [19] Jeyaraj, A. and Sauter, V.L., An empirical investigation of the effeciveness of systems modeling and verification tools. Communications of the ACM, 50 (6), pp. 63-68, 2007. http://dx.doi.org/10.1145/1247001.1247007 [20] Callejas, M., Valero, H. and Alarcón, A., Simulation based on system dynamics for evaluating the quality of transport service in a complex social system. DYNA, 80 180, pp. 33-40, 2013. [21] Wolstenholme, E., Qualitative vs quantitative modelling: The evolving balance. Journal of the Operational Research Society, 50 (4), pp. 422-428, 1999. http://dx.doi.org/10.1057/palgrave.jors.2600700, http://dx.doi.org/10.2307/3010462 [22] Coyle, G., Qualitative and quantitative modelling in system dynamics: Some research questions. System Dynamics Review, 16 (3), pp. 225-244, 2000. http://dx.doi.org/10.1002/1099-1727(200023)16:3<225::AIDSDR195>3.0.CO;2-D [23] Maldonado, L.F., Macías, D., De Groot, R. and Rodríguez, M., Argumentación en línea y construcción de redes sociales. en Maldonado, L.F., De Groot, R. and Drachman, R. Argumentación para el aprendizaje colaborativo de la matemática, 1 Ed., Bogotá D.C.: Ediciones Fundación Universidad Central, 2012, pp. 145-163. [24] Lizcano, A.R., Uso de categorías ontológicas en el aprendizaje colaborativo mediante la solución de casos matemáticos utilizando mediaciones tecnológicas. MSc. Tesis, Universidad Pedagógica Nacional, Bogotá D.C., Colombia, 2012.

programa de Ingeniería de Sistemas de la Universitaria de Investigación y Desarrollo UDI, Colombia, en las áreas de Programación y Algoritmia. Desde 2008 lidera el Grupo de Investigación en Nuevas Tecnologías aplicadas a la Educación GIDSAW, donde trabaja en proyectos relacionados con la incorporación de Tecnologías de la Información y las Comunicaciones en los procesos de aprendizaje.

Área Curricular de Ingeniería de Sistemas e Informática Oferta de Posgrados

Especialización en Sistemas Especialización en Mercados de Energía Maestría en Ingeniería - Ingeniería de Sistemas Doctorado en Ingeniería- Sistema e Informática Mayor información: E-mail: acsei_med@unal.edu.co Teléfono: (57-4) 425 5365

R.V. Jaime-Vivas, es Ingeniero de Sistemas egresado de la Universidad Industrial de Santander-UIS, Colombia. Es docente del programa de Ingeniería de Sistemas de la Universitaria de Investigación y Desarrollo UDI, Colombia, en las áreas de Programación y Algoritmia, Bases de Datos, Teoría de Sistemas y Modelamiento con Dinámica de Sistemas. Desde 2008 es integrante del Grupo de Investigación en Nuevas Tecnologías aplicadas a la Educación GIDSAW, donde trabaja en proyectos relacionados con la incorporación de Tecnologías de la Información y las Comunicaciones en los procesos de aprendizaje, y la utilización del modelamiento con Dinámica de Sistemas en el proceso de diseño de sistemas de información y desarrollo de software. A.R. Lizcano-Dallos, es Ingeniera de Sistemas de la Universidad Industrial de Santander, Colombia, MSc. en Tecnologías de la Información Aplicadas a la Educación de la Universidad Pedagógica Nacional, Colombia y MSc. en Gestión, Aplicación y Desarrollo de Software de la Universidad Autónoma de Bucaramanga-UNAB, Colombia. Es docente del 67


Integration of emerging motion capture technologies and videogames for human upper-limb telerehabilitation: A systematic review Mauro Callejas-Cuervo a, Gloria M. Díaz b & Andrés Felipe Ruíz-Olaya c a

Facultad de Ingeniería, Universidad Pedagógica y Tecnológica de Colombia, Tunja, Colombia. mauro.callejas@uptc.edu.co b Facultad de Ingeniería de Sistemas, Universidad Antonio Nariño, Bogotá, Colombia. gmdiazca@uan.edu.co c Facultad de Ingeniería Electrónica y Biomédica, Universidad Antonio Nariño, Bogotá, Colombia. andresru@uan.edu.co Received: February 14th, 2014. Received in revised form: June 10th, 2014. Accepted: July 11th, 2014.

Abstract Integrating emerging technologies has shown to have the potential to improve access to rehabilitation services and the adherence for physical therapy when they are applied into telemedicine environments. This systematic review aims to explore telerehabilitation systems that use motion capture and video games for upper-limb rehabilitation purposes. Motion capture was focused on the information fusion from inertial sensors and other technologies. The search was limited to 2010-2013, from which 667 papers were obtained; afterwards, duplicate papers were removed, thus, reducing the sample to 57 papers with full text availability. Finally, only 3 of them were selected by approaching the subject of this study. We conclude that the fusion information from inertial sensors and other motion capture technologies appears to be a new tendency in remote monitoring of motor rehabilitation process. However, the combination of them with active video games in physiotherapy programs is only an emerging research area with promising results. Keywords: telerehabilitation or tele-rehabilitation, markerless motion capture, inertial sensors, active videogames, upper limbs, systematic review

Integración de tecnologías emergentes de captura de movimiento y videojuegos para la telerehabilitación de miembro superior: Una revisión sistemática Resumen La integración de nuevas tecnologías ha mostrado tener el potencial de mejorar el acceso a servicios de rehabilitación y la adherencia de los pacientes a la terapia física cuando éstas son usadas en servicios bajo la modalidad de telemedicina. Esta revisión sistemática busca explorar sistemas de telerehabilitación que usan nuevas tecnologías de captura de movimiento y video juegos para rehabilitación de miembro superior, haciendo énfasis en la captura de movimiento que fusiona información de sensores inerciales y otras tecnologías. La búsqueda fue realizada entre 2010 y 2013, encontrando 667 artículos; que se redujeron a 57 artículos con texto completo, luego de un proceso de remoción de artículos repetidos. Finalmente, solo tres de ellos fueron seleccionados por abordar el tema de este estudio. Esta revisión nos permite concluir que se presenta una tendencia en usar la fusión de información proveniente de sensores inerciales y otras tecnologías de captura de movimiento para monitorear procesos de rehabilitación motora. Sin embargo, la integración de estas tecnologías con video juegos activos en programas de fisioterapia es apenas un campo emergente de investigación con resultados prometedores. Palabras clave: telerehabilitación o tele-rehabilitación, captura de movimiento sin marcadores, sensores inerciales, videojuegos activos, miembros superiores, revisión sistemática.

1. Introduction Telemedicine can be defined as the provision of long distance medical services by using information and communications technologies [1]. Telemedicine includes

medical consultations via telephone, monitoring, diagnosis, analysis and risk control, as well as remote execution of medical procedures. This allows the use of technological resources as a communication means to provide health services from specialized therapists to people living in

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 68-75. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42066


Callejas-Cuervo et al / DYNA 82 (189), pp. 68-75. February, 2015.

distant zones and who lack medical assistance from those specialists [2,3]. Telerehabilitation is subsumed into this discipline. It offers long distance rehabilitation services by using technological tools [4]. Nowadays, telerehabilitation has become a research focus due to emerging technologies such as inertial sensors, mechanisms of optical motion capture with and without marker, robots, among others. These technologies allow achieving rehabilitation from the patient’s location, and transmitting the results from there to the specialized medical center, saving time and money and increasing patient’s comfort by reaching their recovery in their homes. On the other hand, computer games have been recognized as a motivational tool in rehabilitation, which increase the patient interest in performing intensive training tasks that are considered repetitive and boring by them. They also distract the patient’s attention, by which can be used to aid in the management of pain [5]. Given the advantages of these emerging technologies is obvious to assume that their integration could help improve the results of home rehabilitation processes. The current study was designed to explore the available evidence on the trending of developing telerehabilitation systems using emerging motion capture technologies and videogames by undertaking a systematic review of scientific papers published between January 2010 and June 2013, reporting progress in the use of the above-mentioned technologies, which assist upper limb rehabilitation services for people suffering different pathologies.

2. Method The process of selection and analysis of the scientific literature aimed by this study is described below: 2.1. Selection Criteria Firstly, papers reporting technology incorporation in the distance physical rehabilitation process (telerehabilitation or tele-rehabilitation) between 2010 and 2013 were selected. Then, publications reporting combination of sensors and other technologies such as videocameras, virtual reality helmets, infrared cameras, and other types of optical motion capture with or without indicators, were taken into account. Afterwards, papers reporting rehabilitation focused on upper limbs of the human body, with full text availability were selected. Finally, works reporting rehabilitation by using videogames were selected. 2.2. Search Strategy A search of publications was conducted on PubMed (236 publications), Scopus (479), Embase (249), ScienceDirect (254), IEEE Xplore Digital Library (118), EBSCO- Medline (230), ISI Web of Knowledge (311). This search was related to the term “telerehabilitation or telerehabilitation”. Then the search was limited to 2010-2013, and it was limited to the presence of the word in the title, abstract and keywords.

Figure 1. Study selection flow for the analysis aimed by this research. Source: The authors.

was limited to 2010-2013, since it was in this period of time that the latest advances regarding the inclusion of motion capture technologies were reported. A search was conducted with the same term in the title, abstract and keywords; from this, 667 papers were obtained. Afterwards, duplicated

2.3. Study Selection 1877 scientific papers published between 1998 and June 2013 were found, which contained the term: “telerehabilitation or tele-rehabilitation”. Then the search 69


Callejas-Cuervo et al / DYNA 82 (189), pp. 68-75. February, 2015.

papers were removed, reducing the sample to 57 papers with full text availability. Then, by using Mendeley reference manager tool, the papers were classified according with the technological tools used in the rehabilitation process, and a complete analysis of the literature was carried out, grouped by the technology type used. Finally, the sample was reduced to 3 publications dealing with the subject of this study. The procedure of literature inclusion and exclusion is shown in Fig. 1.

On the other hand, this analysis includes three studies combining sensors and other technologies in the distance rehabilitation process of the upper limbs of the human body, using videogames in the rehabilitation program development [34,35,38]. 3.1. Studies Description Golomb’s study[34] introduces the development of a videogame platform designed with virtual reality, which enables the rehabilitation of teenagers affected by cerebral palsy. It searches to improve hand motion function and the consistency of forearm’s bones. This platform is composed by three subsystems: the first one manages the videogame, the second one captures the patient’s movement, and the third one visualizes the virtual environment of the game. Three teenager patients suffering from spastic hemiplegia (a 13 year-old boy, a 15 year-old boy and a 15 year-old girl) took part in this research’s proof of concept. The initial test was conducted one week before starting the videogames exercises; then, videogames were set up in the patients’ homes in order to develop rehabilitation activities, which lasted between 84 and 90 days and, finally, the follow-up evaluations were conducted. Observations made during this experiment identified some technical difficulties such as: TV sets’ dysfunctional operation, defective internet connections and software failures, which were later all corrected. On average, patients interacted with videogames between 20 and 22 minutes per day during 60 days for the 13 year-old boy, 67 days for the 15 year-old boy, and 36 days for the girl. The patient who practiced 36 days abandoned the telerehabilitation process due to the many technical problems experienced. Among the main results reported in this study, it was found that all of the three participants showed an improvement in the adhesion rehabilitation test and the Jebsen’s test [63], including a higher ability for object lifting. The occupational therapists reported that participants 1 and 2 – who were constantly practicing with the videogames- showed more important progress in their hand rehabilitation than participant 3. Technology used in the rehabilitation plan consisted in a videogame system that includes a 5DT Data Glove 5 Ultra and a PlayStation 3 game console, which was installed at the participants’ places of residence; then, every system was networked with the Riley Hospital and the Telerehabilitation Institute of the University of Rutgers, through a DSL (Digital Subscriber Line). PlayStation 3 game console works under Linux operating system and was used because the videogames were programmed in open code (Java 3D). The videogames included in this study were customized by the University of Rutgers; sliders -one of the games- was used for the patients to make movements of hand opening and closing; the second game - chasing a butterfly- was applied to produce higher velocity in the hand movement. It can be concluded from this study that telerehabilitation based on videogames and virtual reality can improve the hand function and the health of the forearm bones in teenagers suffering from hemiplegic cerebral palsy.

2.4. Data Analysis The search of publications was conducted from the need of establishing a state of the art of the telerehabilitation process based on the combination of inertial sensors and optical motion capture, resulting from a Ph. D. thesis research. The first search was made without restriction using the term telerehabilitation or tele-rehabilitation, obtaining the results recorded in the previous section of this paper. Afterwards, an analysis was done on the technologies used, classified as follows: 5.26% was optic capture with or without indicators; 38.60%, videoconferences; 8.77%, robots, and 8.77%, other type of technology. On the other hand, 29.82% uses technology to rehabilitate upper limbs, and 70.18% use it to rehabilitate other body areas. Finally, it was found that 5.26% of the recorded works in the mentioned databases approach upper limb rehabilitation development by combining the use of inertial sensors and other technologies (videocameras, virtual reality helmets, infrared cameras and other types of capture with or without indicators) and apply videogames in their rehabilitation programs. 3. Results From a total of 57 publications referenced in this paper, 2 report using optical motion capture with indicators [6,7]; 1 uses optical capture without indicators[8]; 5 report using other technologies (internet, telephone, platforms’ proposals[9-13]) in the process; 5 use robots[14-18]; 22 report remote assistance to the rehabilitation process by combining sensors and other technologies[19-40]; and finally, 22 use videoconference assistance[41-62]. These technologies have been used for rehabilitation of different parts of the human body, as it is shown in Table 1. Table 1. Publications reporting the use of technology in the rehabilitation of different parts of the body. Technology type Number of Upper Lower Other publications limb limb parts of between the 2010 and 2013 body Optic with indicators Optic without indicators Others Robot Sensors and other technologies Video-conference TOTAL Source: The authors.

2 1 5 5 22

0 1 1 4 7

1 0 0 0 4

1 0 4 1 11

22 57

4 17

8 13

10 27

70


Callejas-Cuervo et al / DYNA 82 (189), pp. 68-75. February, 2015.

pointer device, since precision when selecting certain objects from the screen is low if there are motor disabilities; but these problems become advantages in the mixed reality. The study proposed by Burdea[38] presents a rehabilitation plan based on the videogames executed in a PlayStation 3 game console and using 5Dt sensing gloves focused on upper limb rehabilitation, specifically the hand. This experiment was applied in two pediatric patients suffering from hemiplegia. In the system proposed here, while the participants practice the rehabilitation games, the data on obtained scores, the amount of time used to finish each test, and the session date and time, are recorded inside the PlayStation console. This information allows to record the progress during the entire rehabilitation program. Videogames have a special feature: they can be set up according to each patient’s needs. About the technology used in this experiment, three important aspects are taken into account when hand rehabilitation is performed: the gloves to be used, the games and the video game console, and the Internet connection. Motion detection gloves used in this study were adapted to be smaller, and they use just one optical fiber sensor per finger; thus global flexion can be measured only on the hand gauge. It is also mentioned that the motion gloves used have a restriction in their design since it is difficult to wear them on the spastic hand and the optic sensors tend to come off when the glove is taken off. Sliders was the game with the highest number of participations. In it a graphic representation of the hand on the computer screen (avatar) “cleans” the screen to show a pleasant image. A screen section is assigned to each finger, so that all the fingers can be used in the “cleaning” process. The score of the game is determined by the extension or flexion percentage, i.e., if all of the four fingers are completely spread or bent, the result is 4*100= 400. Thus, if the four fingers reach 90% of their base line rank, the score is 4*90= 360. It is also mentioned that the participant had initial threshold values of 45% in extension and 70% in flexion. After two months of training (and more than 1200 practice minutes) the values changed to 70% and 90% respectively. The study mentions that the participants practiced another game called UFO. This game requires the participants to repulse a UFO or spacecraft by spreading or blending the fingers during a period of time. The participants’ time of reaction is given according to the UFO’s speed. Points are taken away if the finger’s movement has not ended when the spacecraft is close to the hand avatar. Finally, the study reports that the obtained results are promising regarding the possibility of applying the rehabilitation method in upper limbs (hand) of the human body and that improvements can be obtained in the long term in hand’s force and function.

The study also considers the need of generating more studies that focus on creating new forms of distance rehabilitation therapy. In the study reported in [35], a system of serious games based on mixed reality for motion rehabilitation of upper limb after a brain damage is shown. This system helps to understand the potential and advantages of virtual reality from the therapist’s point of view and is expected to increase the patient’s motivation, making the user interface highly intuitive. Besides, the system allows the therapist to monitor patients and makes possible to work with the telerehabilitation method, thus reducing its implementation costs. The research reports a pilot study conducted in agreement with a hospital, which involved three therapists who served as patients (due to the experience they showed in the treatment conventionally used in rehabilitation of upper limbs). That study suggested the development of three therapy sessions: one with conventional rehabilitation, another applying a customized game developed for personal computers, and the other one with a mixed-reality version of the same game. The technology used in that pilot study includes mainly three subsystems: (1) the game subsystem, in charge of managing the game application; (2) the motion capture subsystem, in charge of the patient’s biomechanical monitoring; and (3) the visualization subsystem, responsible for showing the virtual environment of the game in a real environment. The first subsystem defines a client-server application, which allows to set up the game’s difficulty levels; it receives captured signals and visualizes the videogame virtual environments. The second one uses an infrared transmitter attached to the patient’s hand with a Velcro belt, and an infrared camera that captures the monitoring of the infrared transmitter to generate an image of the patient in the virtual environment based on the received images. This camera is a Nintendo Wiimote. The third subsystem is a processing software that translates the Wiimote events into mouse events for both the infrared transmitter and the infrared camera to be considered as a signaling device of the virtual environment. The virtual setting used is based on a character that surfs to catch fish in a fish tank, were the player’s aim is to touch any fish; every time the player touches a fish, he moves forward a progress bar and he wins the game when that progress bar is completely filled up. The experiment includes three 15-minute sessions: classic therapy session, computer game session and mixed reality game session, carried out by the three participants (therapists playing the role of patients). That study ends by claiming that the effort made by the patients to do the exercises was almost the same for all the systems (the classic one, the PC game and the Mixed Reality Game), but mixed reality can be a way for the patients to forget about their effort and increase the number of exercises they could do. Nevertheless, because of the features of the mixed reality and PC games, patients prefer these two systems, with a higher preference for the mixed one. Finally, it is stated that one of the problems in most of the PC rehabilitation games was the use of the mouse as a

4. Discussion The analysis specifies that telerehabilitation allows patients from different zones located far away from important rehabilitation centers to have a chance to fully 71


Callejas-Cuervo et al / DYNA 82 (189), pp. 68-75. February, 2015.

On the other hand, it was noticed that few works report the combination of motion capture sensors and other technologies in the upper limb rehabilitation process using videogames in physiotherapy programs; that is why our interest to increase work in this area is highlighted. Finally, a contribution to the progress of this discipline would be oriented towards the implementation of a motion capture and biomechanical analysis platform, based on inertial sensors and optical motion capture devices without indicators. This platform should also include a therapy program based on reliable active low-cost videogames, easy to install at the patient’s home or at the place the therapy is conducted.

accomplish their rehabilitation programs proposed by the specialists. It is important to take into account that one of the main causes of permanent disabilities in patients is failure to complete such programs. From the systematic review, we can to conclude that there are few works that include rehabilitation technologies allowing people to feel they are in a pleasant environment to fulfill their recovery and, the most important thing, which use low-cost technologies that enable them to be installed in homes and/or easy-to-reach places. In this study only three works reported the integration of low-cost inertial sensors and computer videogames in telerehabilitation systems. In Golomb’s [34] work, a great progress in incorporating videogames in the telerehabilitation process is shown, even though the technologies used are a little expensive and not very easy to transport. Also, it is important to mention that information from therapies made by a patient must be recorded on the electronic medical record system in order to have the process timely and reliably assessed. Also, in the study conducted by Ines[34], there is not any evidence of the way progress in therapies is quantified since the system does not have a process measurement section, and does not allow to demonstrate the effectiveness of practices carried out by patients. Another aspect that must be mentioned about this work is the high cost of its implementation since a Wiimote system and an infrared transmitter are not affordable to a low-income person. One of the disadvantages noticed when analyzing Ines’ paper is that the tests were not conducted directly on patients but on the therapists, who performed the tests and exercises. Even though therapists had the professional experience in dealing with many different problems, this could show biased concepts in the experiment’s results. Another aspect found was that no particular illness was identified; therefore a specific therapy program was not reported. Finally, in Burdea’s [38] work, a difficulty in technology inclusion is evidenced, since adapting gloves for spastic hands is complicated and expensive. This adds to the cost of the PlayStation game console and makes installing these devices at the patient’s home complicated and unreliable.

References [1] [2]

[3]

[4] [5]

[6] [7]

[8]

4.1. Study Limitations It is important to mention that a great deal of the literature reported in the bibliographic databases does not clearly identify the keywords or the indexation terms and, consequently, the search protocol and the subsequent metaanalysis do not reach all of the works reporting innovative and important developments in the studied field.

[9]

[10]

5. Conclusions [11]

Telerehabilitation is a health service provision method that can be used in people suffering from different pathologies as the ones recorded on the analyzed papers. Nevertheless, a high cost of technology inclusion in physical rehabilitation processes is evidenced, as well as the high cost of its adaptation and equipment installation at the patient’s home or at places distant from important rehabilitation centers.

[12] [13]

72

Bashshur, R.L., On the definition and evaluation of telemedicine. Telemedicine Journal, 1 (1), pp. 19-30, 1995. http://dx.doi.org/10.1089/tmj.1.1995.1.19 Yokoishi, T., Hada, H., Mitsugi, J., Nakamura, O., Murai, J., Bidirectional medication support system for medical staff and home care patients. Proceedings of the 5th International Symposium Medical Information & Communication Technology. Montreux, Switzerland, pp. 147-151, 2011. Gunnarson, E. and Gundersen, T., A wearable ECG-recording system for continuous arrhythmia monitoring in a wireless telehome-care situation. Proceedings of the 18th IEEE Symposium Computer-Based Medical Systems. Dublin, Ireland, pp. 407-412. 2005. Theodoros, D. and Russell, T., Telerehabilitation: current perspectives. Studies in Health Technology and Informatics, 131, pp. 191-209, 2008. Rego, P., Moreira, P. and Reis, L., Serious games for rehabilitation: A survey and a classification towards a taxonomy. 5th Iberian Conference on Information Systems and Technologies (CISTI), pp. 1-6, 2010. Kurillo, G., Koritnik, T., Bajd, T. and Bajcsy, R., Real-Time 3D Avatars for Tele-rehabilitation in virtual reality. Studies in health technology and informatics, 163, pp. 290-296, 2011. Obdržálek, S., Kurillo, G., Han, J., Abresch, T. and Bajcsy, R., Realtime human pose detection and tracking for tele-rehabilitation in virtual reality. Studies in health technology and informatics, 173, pp. 320-324, 2012. Metcalf, C., Robinson, R., Malpass, A., Bogle, T., Dell, T., Harris, C., et al, Markerless motion capture and measurement of hand kinematics: Validation and application to home-based upper limb rehabilitation. IEEE transactions on bio-medical engineering, 60(8), pp. 2184 – 2192, 2013. http://dx.doi.org/10.1109/TBME.2013.2250286 Rodriguez-de-Pablo, C., Perry, J.C., Cavallaro, F.I., Zabaleta, H. and Keller, T., Development of computer games for assessment and training in post-stroke arm telerehabilitation. Proceedings of the 34th Annual International Conference of the IEEE Engineering in Medicine and Biology Society. San Diego, California, USA, pp. 4571-4574, 2012. Finkelstein, J., Wood, J. and Shan, Y., Implementing physical telerehabilitation system for patients with multiple sclerosis. Proceedings of the 4th International Conference on Biomedical Engineering and Informatics. Shanghai, China, pp. 1883-1886, 2011. Matjacić, Z., Bohinc, K. and Cikajlo, I., Development of an objective balance assessment method for purposes of telemonitoring and telerehabilitation in elderly population. Disability and rehabilitation, 32 (3), pp. 259-266, 2010. http://dx.doi.org/10.3109/09638280902943215 Huniche, L., Dinesen, B., Grann, O., Toft, E. and Nielsen, C., Empowering patients with COPD using Tele-Homecare technology. Studies in health technology and informatics, 155, pp. 48-54, 2010. Harada, N.D., Dhanani, S., Elrod, M., Hahn, T., Kleinman, L. and Fang, M., Feasibility study of home telerehabilitation for physically


Callejas-Cuervo et al / DYNA 82 (189), pp. 68-75. February, 2015.

[14]

[15]

[16]

[17] [18]

[19]

[20]

[21]

[22]

[23]

[24]

[25]

[26]

[27]

inactive veterans. The Journal of Rehabilitation Research and Development [Online], 47 (5), 2010. [date of reference May 25th of 2013]. Available at: http://www.rehab.research.va.gov/jour/10/475/pdf/harada.pdf Perry, J.C., Zabaleta, H., Belloso, A., Rodríguez-de-Pablo, C., Cavallaro, F.I. and Keller, T., ArmAssist: Development of a functional prototype for at- home telerehabilitation of post-stroke arm impairment. Fourth IEEE RAS/EMBS International Conference on Biomedical Robotics and Biomechatronics, pp. 1561-1566, 2012. Linder, S.M., Rosenfeldt, A.B., Reiss, A., Buchanan, S., Sahu, K., Bay, C.R., et al., The home stroke rehabilitation and monitoring system trial: A randomized controlled trial. International Journal of Stroke: Official Journal of the International Stroke Society [Online], 8 (1), 2013. [date of reference June 15th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pubmed/23280269 Boissy, P., Brière, S., Corriveau, H., Grant, A., Lauria, M. and Michaud, F., Usability testing of a mobile robotic system for inhome telerehabilitation. Conference proceedings: Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society, pp. 1839-1842, 2011. Pareto, L., Johansson, B. and Zeller, S., Virtual TeleRehab: A case study. International Conference of the European Federation for Medical informatics, pp. 676-681, 2011. Andrade, D.O., Fernandes, G., Junior, M., Roma, V.C., Joaquim, R.C. and Caurin, G.A.P., Rehabilitation robotics and serious games: An initial architecture for simultaneous players. Bioseñales y Biorobotics Conferencias (BRC), 1-6, 2013. Brennan, D.M., Lum, P.S., Uswatte, G., Taub, E., Gilmore, B.M. and Barman, J., A telerehabilitation platform for home-based automated therapy of arm function. Conference proceedings: Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society, pp. 1819-1822, 2011. Frederix, I., Dendale, P., Berger, J., Vandereyt, F., Everts, S. and Hansen, D., Comparison of two motion sensors for use in cardiac telerehabilitation. Journal of Telemedicine and Telecare [Online], 17 (5), 2011. [date of reference May 21th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pubmed/21565845. Wenlong, Z., Xiuming, Z., Song, H., Nancy, B., Aloysius, K. and Masayoshi, T. and Fellow, I., Design of a network-based mobile gait rehabilitation system. In: IEEE International Conference on Robotics and Biomimetics (ROBIO 2012), pp. 1773-1778, 2012. Rogante, M., Silvestri, S., Grigioni, M. and Zampolini, M., Electromyographic audio biofeedback for telerehabilitation in hospital. Journal of Telemedicine and Telecare [Online]. 16 (4), 2010 [date of reference May 23th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pubmed/20511576 Franco, C., Fleury, A., Gumery, P.Y., Diot, B., Demongeot, J. and Vuillerme, N., iBalance-ABF: A smartphone-based audiobiofeedback balance system. IEEE transactions on bio-medical engineering [Online]. 60 (1), 2013. [date of reference May 25th of 2013]. Available at: http://ieeexplore.ieee.org/xpl/articleDetails.jsp?arnumber=6320617 Tousignant, M., Marquis, N., Pagé, C., Imukuze, N., Métivier, A., Mpt, V.S., et al., In-home Telerehabilitation for older persons with chronic obstructive pulmonary disease: A pilot study. International Journal of Telerehabilitation [Online]. 4 (1), 2012. [date of reference May 25th of 2013]. Available at: http://telerehab.pitt.edu/ojs/index.php/Telerehab/article/view/6083/6 388 Jeong, I.C. and Finkelstein, J., Introducing a practical approach for non-invasive blood pressure monitoring during home-based telerehabilitation exercise program. 2013 IEEE Point-of-Care Healthcare Technologies (PHT), pp. 164-167, 2013. Postolache, G., Maia, M.C., Silva, G.P., Postolache, O., Rehabilitative TeleHealthCare for post-stroke outcome assessment. Proceedings of the 5th International ICST Conference on Pervasive Computing Technologies for Healthcare, pp. 408-413, 2011. http://dx.doi.org/10.4108/icst.pervasivehealth.2011.246141 Kim, J., Yang, S. and Gerla, M., Stroke track: Wireless inertial motion tracking of human arms for stroke telerehabilitation. First

[28]

[29] [30]

[31]

[32]

[33]

[34]

[35] [36]

[37]

[38]

[39]

[40]

73

ACM Workshop on Mobile Systems, Applications, and Services for Healthcare. 2011. http://dx.doi.org/10.1145/2064942.2064948 Dinesen, B., Grann, O., Nielsen, C., Hejlesen, O. and Toft, E., Telerehabilitation across sectors: The experiences of chronic obstructive pulmonary disease (COPD) patients and healthcare professionals. 2nd International Conference on Wireless Communication, Vehicular Technology, Information Theory and Aerospace & Electronic Systems Technology (Wireless VITAE), pp. 1-4, 2011. Fulk, G.D. and Sazonov, E., Using sensors to measure activity in people with stroke. Topics in Stroke Rehabilitation. 18, pp. 746-57, 2012. http://dx.doi.org/10.1310/tsr1806-746 Olivares, A., Olivares, G., Mula, F., Górriz, J.M. and Ramírez, J., Wagyromag: Wireless sensor network for monitoring and processing human body movement in healthcare applications. Journal of Systems Architecture [Online]. 57 (10), 2011. [date of reference June 11 of 2013]. Available at: http://linkinghub.elsevier.com/retrieve/pii/S1383762111000506. Finkelstein, J. and Jeong, I.C., Design and implementation of home automated telemanagement platform for interactive biking exercise (iBikE HAT). 2013 IEEE Point-of-Care Healthcare Technologies (PHT), pp. 236-239, 2013. O De Morais, W. and Wickström, N., A serious computer game to assist Tai Chi training for the elderly. IEEE 1st International Conference on Serious Games and Applications for Health, pp. 1-8, 2011. Perez-Marcos, D., Solazzi, M., Steptoe, W., Oyekoya, O., Frisoli, A., Weyrich, T., et al., A fully immersive set-up for remote interaction and neurorehabilitation based on virtual body ownership. Frontiers in neurology [Online]. 3, 2012 [date of reference May 25th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3392697/pdf/fneur03-00110.pdf Golomb, M.R., McDonald, B.C., Warden, S.J., Yonkman, J., Saykin, A.J., Shirley, B., et al., In-home virtual reality videogame telerehabilitation in adolescents with hemiplegic cerebral palsy. Archives of physical medicine and rehabilitation [On line]. 91 (1), 2010 [date of reference May 22th of 2013]. Available at: http://www.archives-pmr.org/article/S0003-9993(09)00817-X/pdf Ines, D.L. and Abdelkader, G., Mixed reality serious games: The therapist perspective. IEEE 1st International Conference on Serious Games and Applications for Health (SeGAH), pp. 1-36, 2011. Almeida, L., Menezes, P. and Dias, J., On-line 3d body modelling for augmented reality. Proceedings of the International Conference on Computer Graphics Theory and Applications and International Conference on Information Visualization Theory and Applications, 472-479, 2012. Piqueras, M., Marco, E., Coll, M., Escalada, F., Ballester, A., Cinca, C., et al., Effectiveness of an interactive virtual telerehabilitation system in patients after total knee arthoplasty: A randomized controlled trial. Journal of Rehabilitation Medicine: Official Journal of the UEMS European Board of Physical and Rehabilitation Medicine [On line]. 45 (4), 2013 [date of reference May 22th of 2013]. Available from: http://www.ncbi.nlm.nih.gov/pubmed/23474735 Burdea, G.C., Jain, A., Rabin, B., Pellosie, R. and Golomb, M., Long-term hand tele-rehabilitation on the PlayStation 3: Benefits and challenges. Conference proceedings: Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society, pp. 1835-1839, 2011. Cikajlo, I., Rudolf, M., Goljar, N., Burger, H. and Matjačić, Z., Telerehabilitation using virtual reality task can improve balance in patients with stroke. Disability and rehabilitation [Online]. 34 (1), 2012. [date of reference June 18th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pubmed/21864205. Karime, A., Al-Osman, H., Alja’am, J.M., Gueaieb, W. and El Saddik, A., Tele-Wobble: A telerehabilitation wobble board for lower extremity therapy. IEEE Transactions on Instrumentation and Measurement [Online]. 61 (7), 2012. [date of reference June 23th of 2013]. Available at: http://ieeexplore.ieee.org/lpdocs/epic03/wrapper.htm?arnumber=6189076


Callejas-Cuervo et al / DYNA 82 (189), pp. 68-75. February, 2015. [41] Tousignant, M., Moffet, H., Boissy, P., Corriveau, H., Cabana, F. and Marquis. F., A randomized controlled trial of home telerehabilitation for post-knee arthroplasty. Journal of Telemedicine and Telecare [Online]. 17 (4), 2011. [date of reference May 25th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pubmed/21398389 [42] Helmer, A., Kretschmer, F., Deparade, R., Song, B., Meis, M., Hein, A., et al., A system for the model based emergency detection and communication for the telerehabilitation training of cardiopulmonary patients. Conference proceedings: Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society, pp. 702-706, 2012. [43] Steele, L., Lade, H., McKenzie, S. and Russell, T.G., Assessment and diagnosis of musculoskeletal shoulder disorders over the internet. International Journal of Telemedicine and Applications [Online]. 2012. [date of reference May 22th of 2013], Available at: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3501948/pdf/IJTA20 12-945745.pdf [44] Randomized, T.A., Deng, H., Durfee, W.K., Nuckley, D.J., Rheude, B.S., Severson, A.E., et al., Complex versus simple ankle movement training in stroke using telerehabilitation: A randomized controlled trial. Physical Therapy, 92 (2), pp. 197-209, 2012. http://dx.doi.org/10.2522/ptj.20110018 [45] Faett, B.L., Geyer, M.J., Hoffman, L. and Brienza, D.M., Design and development of a telerehabilitation self-management program for persons with chronic lower limb swelling and mobility limitations: Preliminary evidence. Nursing Research and Practice [Online]. 2012, [date of reference June 18th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3514836/pdf/NRP20 12-608059.pdf. [46] Schutte, J., Gales, S., Filippone, A., Saptono, A., Parmanto, B. and Mccue, M., Evaluation of a telerehabilitation system for communitybased rehabilitation. International Journal of Telerehabilitation [Online]. 4 (1), 2012 [date of reference June 18th of 2013]. Available at: http://telerehab.pitt.edu/ojs/index.php/Telerehab/article/view/6092/6389. [47] Peel, N.M., Russell, T.G. and Gray, L.C., Feasibility of using an inhome video conferencing system in geriatric rehabilitation. Journal of Rehabilitation Medicine: Official Journal of the UEMS European Board of Physical and Rehabilitation Medicine [Online]. 43 (4), 2011 [date of reference June 18th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pubmed/21305228. [48] Finkelstein, J., Wood, J. and Cha, E., Impact of physical telerehabilitation on functional outcomes in seniors with mobility limitations. Conference proceedings: Annual International Conference of the IEEE Engineering in Medicine and Biology Society. IEEE Engineering in Medicine and Biology Society, pp. 5827-5832, 2012. [49] Wood, J., Finkelstein, M., Cha, E. and Finkelstein, J., Introducing physical telerehabilitation in seniors with mobility limitation: System feasibility and acceptance. 2012 5th International Conference on BioMedical Engineering and Informatics, pp. 10961098, 2012. [50] Ward, E.C., Sharma, S., Burns, C., Theodoros, D. and Russell, T., Managing patient factors in the assessment of swallowing via telerehabilitation. International Journal of Telemedicine and Applications [Online]. 2012, [date of reference May 25th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3449117/pdf/IJTA20 12-132719.pdf [51] Motor, P.I. and Stroke, A., Patient-Centered integrated motor imagery delivered in the home with telerehabilitation to improve walking after stroke. Physical Therapy [On line]. 92 (8), 2012. [date of reference May 25th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3409405/ [52] Eriksson, L., Lindstro, B. and Ekenberg, L., Patients’ experiences of telerehabilitation at home after shoulder joint replacement. Journal of Telemedicine and Telecare [On line]. 17 (1), 2011. [date of reference May 27th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pubmed/21075802 [53] Kim, K-Y., Kim, Y.S. and Schmeler, M.R., Remote decision support for wheeled mobility and seating devices. Expert Systems with

[54]

[55]

[56]

[57]

[58]

[59]

[60]

[61]

[62]

[63]

Applications [Online]. 39 (8), pp. 7345-7354, 2012 [date of reference Jun 18th of 2013]. Available at: http://linkinghub.elsevier.com/retrieve/pii/S0957417412000966. Hemakom, A., Noymai, A., Israsena, P., Boonyanukul, S. and Chinnarat, C., Remote hearing screening as part of auditory telerehabilitation: A preliminary report. 2011 International Conference on Virtual Rehabilitation, pp. 1-5, 2011. http://dx.doi.org/10.1109/ICVR.2011.5971830 Schein, R.M., Schmeler, M.R., Holm, M.B., Pramuka, M., Saptono, A. and Brienza, D.M., Telerehabilitation assessment using the functioning everyday with a wheelchair-capacity instrument. The Journal of Rehabilitation Research and Development [Online]. 48 (2), 2011 [date of reference Jun 21th of 2013]. Available at: http://www.rehab.research.va.gov/jour/11/482/page115.html Russell, TG., Blumke, R., Richardson, B. and Truter, P., Telerehabilitation mediated physiotherapy assessment of ankle disorders. Physiotherapy research international  [Online]. 15(3), 2010. [date of reference Jun 22th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pubmed/20812313. Tang, J., Mandrusiak, A. and Russell, T., The feasibility and validity of a remote pulse oximetry system for pulmonary rehabilitation: A pilot study. International Journal of Telemedicine and Applications [Online]. 2012, [date of reference June 18th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3462379/pdf/IJTA20 12-798791.pdf. Steel, K., Cox, D. and Garry, H., Therapeutic videoconferencing interventions for the treatment of long-term conditions. Journal of Telemedicine and Telecare [On line]. 17 (3), 2011. [date of reference May 25th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pubmed/2133930. Sharma, S., Ward, E.C., Burns, C., Theodoros, D. and Russell, T., Training the allied health assistant for the telerehabilitation assessment of dysphagia. Journal of Telemedicine and Telecare [On line]. 18 (5), 2012 [date of reference May 25th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pubmed/22790011. Dinesen, B., Haesum, L.K.E., Soerensen, N., Nielsen, C., Grann, O., Hejlesen, O., et al., Using preventive home monitoring to reduce hospital admission rates and reduce costs: A case study of telehealth among chronic obstructive pulmonary disease patients. Journal of Telemedicine and Telecare [Online]. 18 (4), 2012 [date of reference May 22th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pubmed/22653618 Lade, H., McKenzie, S., Steele, L. and Russell, T.G., Validity and reliability of the assessment and diagnosis of musculoskeletal elbow disorders using telerehabilitation. Journal of Telemedicine and Telecare [Online]. 18 (7), 2012. [date of reference May 25th of 2013]. Available at: http://www.ncbi.nlm.nih.gov/pubmed/23086982. Lockery, D., Peters, J.F., Ramanna, S., Shay, BL. and Szturm, T., Store-and-feedforward adaptive gaming system for hand-finger motion tracking in telerehabilitation. IEEE transactions on information technology in biomedicine: A publication of the IEEE Engineering in Medicine and Biology Society, pp. 467-73, 2011. Jebsen, R.H., Trieschmann, R.B., Mikulic, M.A., Hartley, R.B., McMillan, J.A. and Snook, M.E., Measurement of time in a standardized test of patient mobility. Arch Phys Med Rehabil. 51 (3), pp. 170-175, 1970.

M. Callejas-Cuervo, received the Bs. in System Engineering in 1997 and actually courses your PhD in Applied Science, both from the Antonio Nariño University, Colombia, also, is PhD student in Energy and Process Control in Oviedo University and received the degree the MSc. in Computer Science from Institute Technology of Monterrey, Mexico. He is a full professor of the Faculty of Engineering at the Pedagogical and Technological University of Colombia, member of the Software Research Group. His research interests include inertial sensor projects in telerehabilitation and development of video games actives, also the software engineering and business intelligence. G.M. Díaz, received the Bs. in System Engineering in 2000 and PhD in Engineering in 2010, both from the Universidad Nacional de Colombia, Colombia. From 2000 to 2010, she was joined to the Telemedicine Center of the Universidad Nacional de Colombia as development engineer and 74


Callejas-Cuervo et al / DYNA 82 (189), pp. 68-75. February, 2015. researcher. Currently, she is a full professor of the Faculty of System and Computation Engineering at the Antonio Nariño University, Colombia, and she’s member of the Bioengineering Research Group. Her research interest include: medical informatics, telemedicine systems, medical image analysis and pattern recognition techniques applied to medical applications. A.F. Ruiz-Olaya, received the Bs. in Electronic Engineering from University of Valle, Colombia and his PhD. from Carlos III University of Madrid, Spain. He is a full professor of the Faculty of Electronics and Biomedical Engineering at the Antonio Nariño University, Colombia, where he joined the Bioengineering Research Group. His research interests include rehabilitation robotics, multimodal human-robot interaction, bioinspired control architectures and modelling of human motor control. Currently, he is working on several projects oriented to the development of neurorehabilitation systems to attend motor disabled people. Prof. RuizOlaya is a member of IEEE. He has been author and co-author of multiple papers and has performed as reviewer of several international journals and conferences of relevance.

Área Curricular de Ingeniería de Sistemas e Informática Oferta de Posgrados

Especialización en Sistemas Especialización en Mercados de Energía Maestría en Ingeniería - Ingeniería de Sistemas Doctorado en Ingeniería- Sistema e Informática Mayor información: E-mail:acsei_med@unal.edu.co Teléfono: (57-4) 425 5365

75


Analysis of tailing pond contamination in Galicia using generalized linear spatial models Javier Taboada a, Ángeles Saavedra b, María Paz a, Fernando G. Bastante a & Leandro R. Alejano a a

Department of Natural Resources, University of Vigo, Vigo, Spain, jtaboada@uvigo.es b Department of Statistics, University of Vigo, Vigo, Spain, saavedra@uvigo.es a Department of Natural Resources, University of Vigo, Vigo, Spain, mpaz@uvigo.es a Department of Natural Resources, University of Vigo, Vigo, Spain, bastante@uvigo.es a Department of Natural Resources, University of Vigo, Spain, alejano@uvigo.es

Received: February 17th, 2014. Received in revised form: August 20th, 2014. Accepted: September 20th, 2014.

Abstract We statistically analysed the chemical components present in waste water from mines in Galicia (NW Spain). These elements pose a risk to public health and the environment, most particularly in the event of a failure in the containment structure of a pond or dam. The statistical processing of the data, which started with an analysis of the typical contaminants present in mining ponds and dams, pointed to the potential limitations of using non-spatial models for spatially structured data. Our results indicate the greater potential of the generalized linear spatial model over the generalized linear model for analysis of spatially structured data. We also show how a misspecification of the model for analysing spatial data can lead to misleading conclusions, which might lead, in turn, to poorly designed protective or corrective measures. Keywords: tailings pond; environmental risk; generalized linear spatial model; Markov-chain Monte Carlo; spatial statistics.

Análisis de contaminación de balsas mineras en Galicia usando modelos lineales espaciales generalizados Resumen Se analizaron estadísticamente los componentes químicos presentes en las aguas residuales de minas en Galicia (noroeste de España). Estos elementos representan un riesgo para la salud pública y el medio ambiente, muy especialmente en el caso de un fallo en la estructura de contención de un estanque o represa. El procesamiento estadístico de los datos, que se inició con un análisis de los contaminantes típicos presentes en los estanques y presas mineras, señaló las potenciales limitaciones del uso de modelos no espaciales para datos espacialmente estructurados. Nuestros resultados indican el gran potencial del modelo lineal espacial generalizado respecto al modelo lineal generalizado para el análisis de datos espacialmente estructurados. También se muestra cómo una mala especificación del modelo en el análisis de datos espaciales puede conducir a conclusiones erróneas, lo que podría dar lugar, a su vez, a un mal diseño de las medidas de protección o correctivas. Palabras clave: balsa minera; riesgo ambiental; modelo lineal espacial generalizado; Monte Carlo para cadenas de Markov; estadística espacial.

1. Introduction The disaster that occurred at Aznalcóllar mine (near Seville) in 1998 was one of the most important environmental disasters in Spanish history. A holding dam burst, releasing around five million cubic metres of toxic mine slurry and acidic tailings that affected a surface area of about 4,500 hectares. This accident along with other less serious such accidents, ultimately led to a greater commitment to

environmental protection, the implementation of restrictive regulations and the creation of emergency action committees to cope with ecological disasters. Nonetheless, mining continues to contribute significantly to increasing concentrations of heavy metals in natural ecosystems. According to Laybauer [1], mining increases natural concentrations of copper, iron, aluminium and zinc and also increases acidity, conductivity and suspended solid values. It is therefore important to control

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 76-83. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42069


Taboada et al / DYNA 82 (189), pp. 76-83. February, 2015.

and inference procedures. The generalized linear spatial model (GLSM) is an adaptation of the GLMM to situations where the random effects follow a spatial stationary pattern. Several authors have studied and applied the GLSM [1014]. The GLSM not only predicts the response variable, it also directs inference to the regression function parameters, the properties of the residuals or the distribution of residuals conditioned to the response variable. For our contaminants project, this approach enabled us to determine locations with high levels of contaminants and also to investigate the factors contributing to contamination. We used spatial statistical models to assess the impact of known factors and to obtain better predictions of contamination levels for the studied ponds and dams. The aim of our research was to demonstrate how the modelbased geostatistical approach developed by Diggle, Tawn and Moyeed [6] and the GLSM could be adapted to contamination analysis.

contaminant levels in tailing ponds associated with mining activities. Previous researches aiming to classify major sources of water pollution and to analyse the formation of acid mine drainages [2-3] have been carried out. Analysis of the quality of water used for mining purposes should be considered as the first step in identifying potential sources of contamination. A common error, however, is to exclude analysis of possible geological influences on the presence of chemical elements in water. Statistical techniques have been applied to the study of heavy metals distribution in water, but the potential spatial dependence of the observations has not always been taken into account [4]. A number of multivariate statistical techniques, including cluster analysis and principal component analysis, have been used for similar studies. These techniques, which group similar observations regarding concentrations, are used to identify contaminants which, according to concentration, determine the clustering of observations in homogeneous groups. The geographical location of observations cannot be included in such analyses; however, so valuable information that could explain the presence of certain elements in water is lost. Furthermore, these techniques are not suitable for predicting contaminant concentrations in areas not previously sampled. To assess the environmental risk posed by mining dams and tailing ponds in Galicia, we statistically analysed the contaminants characteristic of mining waste in both the field and the laboratory so as to statistically study the geological relationship between certain components present in this water and determine, firstly, the real danger implied by the contaminated water and, secondly, the influence of geology on the availability and dispersion of contaminants of anthropogenic origin. These analyses enabled an efficient design for the containment structures and also facilitated further study of measures to reduce contamination when affected by geology. Used for the purposes of our study were geostatistical methods [5], which have been widely applied to the prediction of stationary processes using linear unbiased estimators with minimum variance. Although conventional geostatistics assumes normality conditions for the stationary process, many of the methods have been generalized to situations where stochastic variation is not Gaussian, for example, [6, 7]. In many of the methods developed and applied to date, model parameter estimates are not usually of interest. However, parameter estimation and inference enables the factors that influence the spatial distribution of the phenomenon of interest to be identified, and this, in turn, helps explain causes. The generalized linear model (GLM) was developed by Nelder and Wedderburn [8] in order to combine several statistical models within a single theoretical framework. Subsequently developed as an extension to the GLM was the generalized linear mixed model (GLMM), which allows the linear predictor to include random as well as fixed effects [9]. For simplicity sake, it is usually assumed that the random effects follow a Gaussian distribution. The term ‘model-based geostatistics’ was first used by Diggle, Tawn and Moyeed [6] to describe an approach to geostatistical problems based on formal statistical models

2. Materials and methods 2.1. The study area and the geographic database The study population was a set of mining ponds and dams and nearby rivers located in Galicia in NW Spain. Mining in Galicia has a long tradition and is a key source of supply for Spain and for the world. Mining activity in Galicia covers the metal and non-metallic, energy and quarrying sectors; quarrying is particularly important, as Galicia is a key source of ornamental granite and slate. The deposits analysed ranged from settling ponds for solids with direct discharge to the river or sewage system, to closed- or semi-closed-circuit deposits for water used in treatment plants. Water was sampled at authorized discharge points and for ponds and dams that were considered prone to flooding or where there was a risk of collapse of the containment structure. A total of 126 water samples were collected from all four of Galicia’s provinces (Pontevedra, Ourense, Lugo and A Coruña). 2.2. Chemical characterization of the water samples The analytical part of the work was divided into an initial fieldwork phase and a laboratory analysis phase. Firstly, 0.5 L of water was sampled from the main deposits and the corresponding acidity (pH) and redox potential (Eh) values were recorded using a portable Crison PH25 pHmeter. Both pH and Eh reflect the mobility and availability of metals and so are important parameters in determining toxicity. Next, in the laboratory the samples were passed through 0.45-micron nitrocellulose filters and electrical conductivity was measured using a CyberScan CON 1500; this parameter provides information about the possible geological sources of chemicals in water. The samples were frozen until the final phase was implemented, consisting of the chemical analysis of several analytes by the Support Centre for Scientific and Technological Research (CACTI). Aliquots for all the samples were collected to which 2% nitric acid was added for analysis of metals; for the analysis of ions, untreated aliquots were used. 77


Taboada et al / DYNA 82 (189), pp. 76-83. February, 2015.

mean and S(x) in such a way that E[Y (xi)|S(xi)]= g −1(S(xi)). When the regression parameters β are of interest, it is important to remember that these have a conditional interpretation rather than a marginal interpretation. In particular, E[Yi|S(xi)] and E[Yi] differ in terms of the structural dependence of the explanatory variables d(xi). For this reason, direct comparison cannot be made between the β coefficients of the two models, except when Yi|S(xi) is Gaussian and the link function is identity. Because the stationary Gaussian process S(x) is not observable, the GLSM parameters are usually approximated by implementing Markov chain Monte Carlo (MCMC)

Inductively coupled plasma optical emission spectrometry (ICP-OES) was used to analyse content in calcium, magnesium, sodium, potassium, iron, aluminium, silicon, manganese, zinc, nickel, cobalt, copper, cadmium and lead . Zinc, nickel, cobalt, copper, cadmium and lead are considered highly toxic. The origins are anthropogenic, mainly industrial activities and especially mining activities [15]. Although calcium, magnesium, silicon, aluminium, iron, sodium and potassium do not pose a major pollution risk, they provide information about possible geological sources of chemicals in water; likewise, manganese, nickel and cobalt may also have a geological origin. Highperformance liquid chromatography/mass spectrometry (HPLC/MS) was used to analyse content in fluorides, chlorides, nitrates, phosphates and sulfates — all ions that may originate in water treatment procedures based on mining flocculants and coagulants [16]. Since the study refers to mineral deposits in the Galician region, in setting limit values for concentrations of contaminants in waste water discharged into the public water system (including groundwater), we were guided by Order MAM/85/2008 [17], which establishes technical criteria for public water system damage assessment and waste water sampling and residue analyses. Note that maximum levels for aluminium, calcium, potassium, sodium, silicon and Eh are not specified in Order MAM/85/2008 or other legislation. 2.3. Model formulation In the GLM, a response variable Y=(Y1,Y2,…,Yn) is assumed such that the variables Y1,Y2,…,Yn are mutually independent and with expectation related to a linear predictor E[Y]=g −1(dTβ), where β p is the vector of unknown parameter regressors, d are known explanatory variables, T means transposed and g is a known function called the link function. GLSMs are GLMMs in which the latent variables are derived from a spatial process. In other words, conditionally on the Gaussian process S(x), the data Yi, i=1, ..., n, follow the classical GLM. In this case the model is as described below. Consider n distinct locations {x1,…,xn} I 2 and assume observation of a realization y=(y1,…, yn)T of Y=(Y1,…,Yn)T, where Yi=Y(xi). Let S={S(x) : x I}, I 2 be a Gaussian process with a mean function E[S(x)]=d(x)Tβ and with covariance cov(S(x), S(x’))=σ2ρ(x, x’; φ) + τ21{x=x’}, where β p is a vector of unknown regression parameters, d(x) are known explanatory variables with spatial dependence, σ2 represents the variance, ρ(x,x’; φ) is a correlation function in 2, φ is a scaling parameter that controls the rate at which the spatial correlation approaches 0 as the distance between locations grows, and τ2 ≥ 0, according to the usual geostatistical terminology, is the nugget effect. Conditionally on S, the process {Y (x), x I} consists of mutually independent random variables and, for each location x I, the distribution of the error [Y (x) |S] has a density that only depends on the conditional mean E[Y (xi)|S(xi)]. A known link function g relates the conditional

Figure 1. Location of samples with elements outside legal limits. Source: The authors.

algorithms within a Bayesian framework. See Christensen [18] for further details. This was the approach used for our research, implemented with the geoRglm package, freely available under the open-source R statistical system [19]. 3. Results 3.1. Analytical results The results of the analysis of the explanatory variables were compared with the maximum values permitted by the legislation [17]. Table 1, which summarizes the analysis results for the 22 variables constituting the study database, shows minimum and maximum values, dispersion parameter values and legislated limit values. Although Table 1 shows data with high standard deviation (SD) values with respect to their means, it was decided to include all the observations in the statistical study since one of the objectives was to quantify the number of samples and mining concessions outside legal limits. Fig. 1 shows the spatial distribution of samples with values outside the legal limits. The most important distribution and concentration results for the elements analysed in the laboratory are described as follows:

78


Taboada et al / DYNA 82 (189), pp. 76-83. February, 2015.

Table 1. Minimum, maximum, mean, median values, standard deviation (SD) and Pearson’s coefficient of variation CV) for the results of the analyses. Also reflected are the limit values according to Order MAM/85/2008 for each of the variables (when provided). Values were calculated using n=126 water samples. Limits Min Max Mean Median SD CV (MAM/85/2008) Fluorides (mg/L) 0.04 21.68 1.22 0.26 3.07 2.51 1.70 Chlorides (mg/L) 0.95 123.38 17.25 12.41 20.29 1.18 200.00 Nitrates (mg/L) 0.00 79.28 10.16 3.77 15.49 1.52 50.00 Phosphates (mg/L) 0.00 0.61 0.01 0.00 0.06 10.86 0.70 Sulfates (mg/L) 0.21 1642.09 129.1 24.49 251.34 2.12 250.00 Aluminium (mg/L) 0.00 16.00 0.55 0.03 2.18 3.98 ‐ Calcium (mg/L) 0.00 343.30 25.99 10.39 44.84 1.73 ‐ Cadmium (mg/L) 0.000 0.010 0.001 0.001 0.002 1.36 0.005 Cobalt (mg/L) 0.00 0.38 0.012 0.001 0.05 4.17 1.00 Copper (mg/L) 0.00 0.28 0.01 0.002 0.03 4.26 0.005 Iron (mg/L) 0.00 2.56 0.06 0.01 0.28 4.70 2.00 Potassium (mg/L) 0.00 76.20 7.52 3.73 10.79 1.43 ‐ Magnesium (mg/L) 0.03 157.9 12.85 3.16 22.49 1.89 1.00 Manganese (mg/L) 0.00 12.72 0.58 0.015 1.98 3.41 1.00 Sodium (mg/L) 0.00 188.7 15.89 10.21 21.38 1.35 ‐ Nickel (mg/L) 0.00 0.75 0.02 0.003 0.10 4.18 0.05 Lead (mg/L) 0.000 0.027 0.004 0.003 0.005 0.99 0.05 Silicon (mg/L) 0.00 25.14 3.94 2.45 4.60 1.17 ‐ Zinc (mg/L) 0.00 1.51 0.07 0.01 0.21 3.20 0.03 pH 3.31 12.30 7.33 7.31 1.44 0.20 5.50-9.00 Eh (mV) 14 523 213 212 80.59 0.38 ‐ 19.52 3430.00 316.60 214.95 417.48 1.32 1000.00 Conductivity (S/cm) Source: The authors.

 The values obtained for phosphates and chlorides were below the legal limit.  Nitrate contamination was infrequent, with only four contaminated samples.  Fluorides and sulfates with values above the legal limit were encountered in A Coruña samples.  Cadmium, which is highly toxic, was present in abovelimit concentrations in five samples, all taken from locations close to each other.  Iron was not present as a significant contaminant in the chemical analyses.  Cobalt and lead levels did not exceed legal limits.  The pH results indicated that ten ponds and dams had acidic waters; since pH potentially influences the bioavailability of metals, this result implies increased risk for the environment. Moreover, 12 samples showed basic water values above the permitted limits.  Only seven samples had electrical conductivity values outside the limits, although all the ponds studied had significant variations in conductivity levels.  Comparison of zinc values with pH and electrical conductivity values indicated that this metal did not appear as a dissolved ion in most of the cases.  Magnesium was frequently present in the ponds and dams in all four provinces but is likely to be geological in origin.  Copper also featured frequently in the samples analysed.  Nickel and manganese contamination occurred mainly in A Coruña.

 Since (as mentioned earlier) no concentration limits have been legally established for aluminium, calcium, sodium, silicon and Eh, no comparisons could be made between our measurements and the legal maximums.  Concerning the speciation of the metal contaminants, the pH and Eh values indicate that the metals are mainly in forms of higher mobility and availability. This would require additional treatments for controlling the physical properties of the waters of the ponds in order to reduce the mobility and bioavailability of these metals. 3.2. Variable selection The initial sample database consisted of 126 samples and 22 variables. The response variable was calculated for each sample by quantifying the number of times that explanatory variable values were outside the legal limits established by Order MAM/85/2008. This new variable took values of 0 up to 16, with 0 representing values within the legal limits and other values quantifying increasing levels of contamination. Preliminary calculations of the correlations between variables were made so as to identify possible linear dependencies between them. This helped determine the quality of the information collected and helped reduce the number of variables to be considered in the statistical study. A preliminary selection of predictors also avoided potential collinearity problems following the application of mathematical models. The study of correlations showed that there were two groups of variables: cluster 1 included conductivity, sulfates, calcium, magnesium, sodium, 79


Taboada et al / DYNA 82 (189), pp. 76-83. February, 2015. Table 2. GLMs adjusted using different explanatory variables, showing AIC values for the different settings. Model GLM0 GLM1 GLM2 Fluorides Fluorides Fluorides Nitrates Nitrates Nitrates Sulfates Cadmium Cadmium Cadmium Copper Copper Iron Iron Iron Magnesium Manganese Manganese Manganese Nickel Nickel Nickel Zinc pH pH pH Conductivity Conductivity Conductivity Akaike information criterion (AIC) 341.45 342.15 344.21 Source: The authors

potassium and chlorides, and cluster 2 included zinc, aluminium, silicon, cobalt, copper, manganese and nickel. Chosen from these two groups were the seven variables that significantly correlated with the variables quantifying contamination, namely, conductivity, sulfates, magnesium, zinc, copper, manganese and nickel. Fluoride, nitrate, cadmium, iron and pH measurements also correlated with the response variable, but new clusters that grouped these together were not detected. Finally, the phosphate, lead and Eh variables showed no significant correlation with any other explanatory variable or with the response variable. Given their poor capacity to explain contamination it was decided to exclude them from the statistical analysis. This preliminary study of correlations led to selection, for modelling purposes, of the following 12 explanatory variables: fluorides, nitrates, sulfates, cadmium, copper, iron, magnesium, manganese, nickel, zinc, pH and electrical conductivity. The recorded values for these variables in the 126 samples were used for the statistical models.

GLM4 Fluorides Nitrates

Cadmium Copper Iron

Cadmium

Manganese

Manganese

pH Conductivity 343.22

pH Conductivity 344.4

Iron

Table 3. Estimated coefficients and corresponding p-values for GLM4. Coefficient Estimate β0(Intercept) 1.9e-2 β1(Fluorides) 7.6e-3 β2(Nitrates) 9.9e-3 β3(Cadmium) 1.4e+2 β4(Iron) -9.2e-2 β5(Manganese) 9.7e-2 β6(pH) -2.4e-3 β7(Conductivity) 3.2e-4 Source: The authors

p-value 0.967 0.67 0.009 1.7e-05 0.556 0.003 0.967 0.041

variables and manganese from the cluster 2 variables. Used to measure goodness of fit was the Akaike information criterion (AIC), associated with the concept of entropy; the smaller its value the better the goodness of fit of the estimate. Although the AIC value for GLM0 was the smallest for the five models, all the models had, in fact, very similar values. This was confirmed by a chi-square test to compare GLM0 and GLM4. The p-value for the test was 0.0766, for a significance level of α=0.05, so both models can be considered to be similar. Table 3 shows the coefficients estimated for GLM4 and the corresponding p-values. Although several coefficients continued to feature as not significant, further reduction in the variables produced a significantly poorer fit than for the initial GLM0 model, used to perform the model comparison test. For this reason we chose to perform the statistical analysis with the seven variables listed in Table 3. This selection of variables significantly reduced the dimensionality of the problem, since the initial 12 variables were reduced to seven. This facilitated the interpretation of the fitted parameters of the model and also, thanks to the chi-square test, guaranteed an explanatory power similar to the original GLM0 model with 12 variables. A geostatistical study of the GLM4 residuals showed spatial dependence with geometric anisotropy. Fig. 2 shows the experimental semivariograms (circles) in the 50º and 140º directions. Superimposed on the experimental semivariograms are the theoretical semivariograms (solid line). An exponential model was selected in order to fit the experimental semivariograms, given that this was the parametric model with the lowest fitting error. See Cressie and Diggle et al. [5, 6] for further details of this kind of fit. This graph indicates the existence of a latent spatial process that could not be reflected by the GLM.

3.3. Fit to a GLM Assumed in the following cases was that the level of contamination in a given location, Y(xi), could be modelled as a Poisson distribution. Under this hypothesis, the GLM applied was Poisson regression, where the link function is given by the logarithmic function: g{E[Y (xi)]}=ln{E[Y (xi)]}=dTβ

GLM3 Fluorides Nitrates

(1)

The parameters to be estimated in this model are β=(β0,…,βp), where β0 is the independent term and where β1,…, βp are the regression coefficients for each known regression variable. The GLM fitted using 12 explanatory variables and the contamination level as the dependent variable resulted in many of the βi coefficients not being significant. Some of the less significant variables were excluded in a procedure in which different GLMs were fitted, as shown in Table 2. GLM0 was the model fitted with the 12 variables selected after the preliminary correlation study. GLM4 was a simplified model which only retained conductivity from the cluster 1

80


Taboada et al / DYNA 82 (189), pp. 76-83. February, 2015.

2.4e-2, 6.2e-4). The estimated value of the variance, σ2, was 1.3e-1. The scaling parameter, φ, was estimated as 3758 in the 50° direction and 12527 in the 140° direction. Finally, the nugget, τ2, was considered to have a null value. To determine the significance of the explanatory variables, the GLSMs were fitted with a single variable removed for each fit. Thus, for example, GLSM1 reflected a spatial model with the fluoride variable removed. Table 4 shows the estimated coefficients for the explanatory variables in the fitted spatial models. The last row shows the logarithm of the value of the likelihood function maximized during the corresponding fit procedure. We used the log-likelihood ratio test to compare GLSMi, i=1, ..., 7 and the GLSM0 model. According to Mardia et al. [20], the statistic 2

(3)

can be approximated by a distribution. Therefore, taking a significance level of α=0.05, we could reject the hypothesis that GLSMi and GLSM0 were equivalent if the p-value for the comparison was less than the significance level. For example, comparison between GLSM1 with the fluorides variable excluded and GLSM0 resulted in a value of D=-2 [7.12-16.02]=17.8. Assuming a distribution, the p-value was 2.46e-5; hence, for a significance level of α=0.05, we have to reject the null hypothesis that the GLSM0 and GLSM1 models are equivalent and accept that GLSM0 fitted the data better than GLSM1. Using the same reasoning for the other models, the p-value was always less than the significance, so it follows that all the variables were significant in fitting the spatial model. It was not possible to design a test that allowed us to compare a spatial model like GLSM0 with a non-spatial model like GLM4. We therefore used cross-validation to test the predictive power of the two models. Thus, eliminating a single case, predictions were made by GLM4 and GLSM0 and errors were recorded. Repeating this procedure for the 126 samples, we calculated the mean absolute error (MAE) and the root mean squared error (RMSE) for both models. Table 5 shows the values obtained; it can be concluded that taking into account the spatial component resulted in a major improvement in predictive capacity.

Figure 2. Experimental (circles) and theoretical (solid line) semivariograms for the residuals of GLM4 in the 50° and 140° directions. Location of samples with elements outside legal limits. Source: The authors.

3.4. Fit to a GLSM In fitting the GLSM it was assumed that the conditional distribution of the contamination, i.e. Y(xi)|S(xi), could be modelled as a Poisson distribution. Using again the log function as a link function we now have: g{E[Y (xi)|S(xi)]}=ln{E[Y (xi)|S(xi)]}=S(xi)

0

(2)

where E[S(x)] =d(x)Tβ and cov(S(x), S(x’))=σ2ρ(x, x’; φ) + τ 1{x=x’} and where an exponential model is assumed for the correlation function. The parameters for estimation in the GLSM are θ=(σ2, φ, τ2, β), with β=(β0,…,βp). Using the geoRglm software, a spatial model called GLSM0 was fitted so as to model not just the spatial pattern reflected by the residuals of the non-spatial model, but also their anisotropic behaviour. Obtained as an estimator of the vector of coefficients β=(β0,…,β7) were the following values: (1.3e-1, 9.6e-3, 1.2e-2, 9.3e+1, -1.1e-1, 8.0e-2, 2

Table 4. Estimated coefficients for the spatial models considering different explanatory variables. The last row shows the logarithm of the maximized likelihood function. Coefficients GLSM0 GLSM1 GLSM2 GLSM3 GLSM4 GLSM5 GLSM6 GLSM7 β1(Fluorides) β2(Nitrates) β3(Cadmium) β4(Iron) β5(Manganese) β6(pH) β7(Conductivity) σ2 φ (50º) τ2

9.6e-3 1.2e-2 9.3e+1 -1.1e-1 8.0e-2 -2.4e-2 6.2e-4 1.3e-1 3758 0 16.02

8.8e-3 8.4e-3 1.7e+2 -5.4e-2 8.2e-2 1.4e-2 5.0e-4 2.2e-1 9126 9e-4 7.12

4.4e-2 1.1e-2

6.2e+1 -1.5e-1 1.1e-1 4.3e-3 4.4e-4 2e-1 7612 0 8.94

-7.6e-2 9.4e-2 -2.7e-2 4.1e-4 2.5e-1 9126 1.4e-3 7.73

Source: The authors

81

4.5e-3 7.0e-3 1.3e+2 9.1e-2 -9.8e-3 5.0e-4 1.5e-1 3918 0 9.57

2.2e-2 6.8e-3 9.3e+1 -5.8e-2 -2.3e-2 2.1e-4 1.7e-1 4512 4e-4 12.05

2.1e-3 8.2e-3 1.5e+2 -2.2e-1 1.5e-1 6.3e-5 2.6e-1 9126 2.7e-3 8.92

1.2e-2 9.5e-3 1.8e+2 -1.3e-1 1.2e-1 8.5e-3 1.8e-1 9126 1.5e-2 10.23


Taboada et al / DYNA 82 (189), pp. 76-83. February, 2015. Table 5. Prediction error measurements for GLM and GLSM. Model MAE GLM4 0,428 GLSM0 0,0184 Source: The authors

legal limits, in an endeavour to prevent poor practices by mines and focus on concentrations that are hazardous for health and the environment.

RMSE 0.593 0.0218

Acknowledgements This work was funded partly by Xunta de Galicia project INCITE10REM304009PR and by Spanish Ministry of Science and Innovation projects MTM2008-03129 and MTM2012-23204.

4. Conclusions Fitting the data to a GLM revealed the erroneous conclusion that many of the laboratory measurements would be irrelevant when establishing a relationship between the data and the level of contamination recorded during sampling. This conclusion was due to the existence of a latent spatial process which a non-spatial model was unable to identify and isolate. In the fit to a GLM the spatial correlation of the variables was not taken into account, significantly affecting the quality of the statistical results. It can be concluded that a misspecification of the model can potentially lead to false interpretations regarding the relevance of the explanatory variables. Although GLSM parameters must be interpreted conditionally to the process space, S, the results indicate the relevance of the explanatory variables in the model fit. The type and extent of spatial dependence linking the sampling locations were revealed by the values estimated for the spatial process parameters. Moreover, the estimated values for the parameters for the linear part of the model pointed to the variables that were most critical in determining water contamination. The cross-validation study indicated that the GLSM produced fewer prediction errors than the GLM. What this means is that correctly modelling spatial dependence results in models not only with greater explanatory capacity but also with more reliable prediction capacity. The geostatistical model verified the existence of spatial dependence between the pond contaminants and local natural geological elements. Thus, for example, certain ponds located in close proximity had similar contamination results for the same elements. The results of the samples analysed indicated a possible spatial influence for magnesium. Independently of the type of mining operation, water samples with high magnesium content were distributed evenly throughout the studied area. At the opposite extreme was cadmium, a non-essential heavy metal that is non-existent in the Galician lithology. The conclusion can only be that cadmium contamination in ponds is the result of human influence. The influence of Galicia’s granitic lithology is evident in the mobility of metals. Acidic water favours metal availability and mobility, as corroborated by a cross-analysis between pH and Eh records for certain analysed metals. Our results show that there is a geological influence on the content in chemicals of mining water samples in Galicia. The results obtained using geostatistical methods have enabled us to assess the impact of the analysed elements and improve the interpretation of the levels of contamination present in tailing ponds. Future research will focus on verifying the elements present in the geological environment for areas where concentration levels are above

References [1] [2]

[3] [4]

[5] [6] [7]

[8] [9]

[10] [11]

[12] [13]

[14]

[15]

[16]

[17]

82

Laybauer, L., Incremento de metais pesados na drenagem receptora de efluentes de mineraçao – minas do Camaquã, Sul do Brasil, Revista Brasileira de Recursos Hídricos, 3 (3), pp. 29-36, 1998. Pozo-Antonio, S., Puente-Luna, I., Lagüela-López, S. and VeigaRíos, M., Techniques to correct and prevent acid mine drainage: A review, DYNA, 81 (184), pp. 73-80, 2014. http://dx.doi.org/10.15446/dyna.v81n186.38436 Pérez, B.F. and Espina, J.A., Evaluation of fly ashes for the removal of cu, ni and cd from acidic waters, DYNA, 77 (161), pp. 141-147, 2010. Nedia, G., Chafai, A., Moncef, S.M. and Chokri, Y., Spatial distribution of heavy metals in the coastal zone of “Sfax-Kerkennah” plateau, Tunisia, Environmental Progress & Sustainable Energy, 30 (2), pp. 221-233, 2011. http://dx.doi.org/10.1002/ep.10462 Cressie, N., Statistics for spatial data, Wiley, New York, 1993. Diggle, P.J., Tawn, J. and Moyeed, R., Model-based geostatistics, Journal of Applied Statistics, 47 (3), pp. 299-350, 1998. Palacios, M.B. and Steel, M.F.J., Non-Gaussian bayesian geostatistical modelling, Journal of the American Statistical Association, 101 (474), pp. 604-618, 2006. http://dx.doi.org/10.1198/016214505000001195 Nelder, J.A. and Wedderburn, R.W.M., Generalized linear models, Journal of the Royal Statistical Society, Series A, 135 (3), pp.370384, 1972. http://dx.doi.org/10.2307/2344614 Breslow, N. and Clayton, D., Approximate inference in generalized linear mixed models, Journal of the American Statistical Association, 88 (421), pp. 9-25, 1993. http://dx.doi.org/10.1080/01621459.1993.10594284 , http://dx.doi.org/10.2307/2290687 Christensen, O. and Waagepetersen, R., Bayesian prediction of spatial count data, Biometrics, 58 (2), pp. 280-286, 2002. http://dx.doi.org/10.1111/j.0006-341X.2002.00280.x Diggle, P.J., Moyeed, R.A., Rowlingson, B. and Thomson M. Childhood malaria in the Gambia: A case-study in model-based geostatistics, Journal of the Royal Statistical Society: Series C, 51 (4), pp. 493-506, 2002. http://dx.doi.org/10.1111/1467-9876.00283 Zhang, H., On estimation and prediction for spatial generalised linear mixed models, Biometrics, 58 (1), pp. 129-136, 2002. http://dx.doi.org/10.1111/j.0006-341X.2002.00129.x Diggle, P.J., Ribeiro, J.P. and Christensen, O.F., An introduction to model-based geostatistics, in Møller, J, (ed) Spatial statistics and computational methods, Springer Verlag, New York, 2003, pp. 4386. http://dx.doi.org/10.1007/978-0-387-21811-3_2 Zhang, H., Optimal interpolation and the appropriateness of crossvalidating variogram in spatial generalized linear mixed models, Journal of Computational and Graphical Statistics, 12 (3), pp. 698– 713, 2003. http://dx.doi.org/10.1198/1061860032265 Merian, E., Anke, M., Ihnat, M. and Stoeppler, M., Elements and their compounds in the environment: Occurrence, analysis and biological relevance, Wiley, Weinheim, 2004. http://dx.doi.org/10.1002/9783527619634 Aguila, M.I., Sáez, J., Lloréns, M., Soler, A. y Oruño, J.F., Tratamiento físico-químico de aguas residuales. Coagulaciónfloculación, University of Murcia, Publishing Service, Murcia, España, 2002. Orden MAM/85/2008. De 16 de enero por la que se establecen los criterios técnicos para la valoración de los daños al dominio público


Taboada et al / DYNA 82 (189), pp. 76-83. February, 2015. hidráulico y las normas sobre toma de muestras y análisis de vertidos de aguas residuales, in BOE, 25, España, pp. 5238-5253, 2008. [18] Christensen, O., Monte Carlo maximum likelihood in model-based geostatistics, Journal of Computational and Graphical Statistics, 13 (3), pp. 702-718, 2004. http://dx.doi.org/10.1198/106186004X2525 [19] R Development Core Team R: A language and environment for statistical computing, R Foundation for Statistical Computing, Vienna, Austria, 2012. [20] Mardia, K.V., Kent, J.T. and Bibby, J.M. Multivariate analysis, Academic Press, London, 1979. J. Taboada, received the Bs in Mining Engineering in 1980, from the University of Oviedo, Spain, and received a PhD. degree in Mining Engineering in 1993 from the University of Oviedo, Spain. At present, he’s professor of Mining Engineering for the Department of Natural Resources and Environmental Engineering of the University of Vigo, Spain. His research interests include mining, environment and safety.

Área Curricular de Medio Ambiente

Á. Saavedra, received the Bs. in Mathematics in 1989, from the University of Santiago de Compostela, Spain and received a PhD degree in Mathematics in 1997 from the University of Oviedo, Spain. At present, she works in the School of Mining Engineering for the Department of Statistics and Operational Research of the University of Vigo, Spain, where she is a member of the group Mining Exploitation. Her research interests include spatial data and data mining.

Oferta de Posgrados

Especialización en Aprovechamiento de Recursos Hidráulicos Especialización en Gestión Ambiental Maestría en Ingeniería Recursos Hidráulicos Maestría en Medio Ambiente y Desarrollo Doctorado en Ingeniería - Recursos Hidráulicos Doctorado Interinstitucional en Ciencias del Mar

M. Paz, received the Bs. in Mining Engineering in 2009, from the University of Vigo, Spain and received his MSc. in Environmental Technology in 2012. Her interests include occupational accidents and Bayesian networks. She is currently working on her doctoral thesis. F.G. Bastante, received the Bs. in Mining Engineering in 1995, from the Technical University of Madrid (UPM), Sapin and received a PhD degree in Mining Engineering in 2002 from the University of Vigo, Spain. He is currently an Associate Professor in the School of Mining Engineering of the University of Vigo. Current research activities include applications of mathematical modelling in mining engineering.

Mayor información:

L.R. Alejano, received the Bs. in 1992 and obtained a PhD degree in Mining Engineering in 1996 both in the Universidad Politécnica de Madrid, Spain. He has been teaching and researching in rock mechanics and other mining engineering related disciplines in the Department of Natural Resources and Environmental Engineering at the Universidad de Vigo, Spain, since 1995. He has published more than 40 papers in relevant scientific journals and he has been involved in more than 50 research and consulting projects primarily in the field of rock engineering. He is presently Vice-President of the Spanish Society of Rock Mechanics and Associate Editor of the international Journal of Rock Mechanics & Mining Sciences.

E-mail: acia_med@unal.edu.co Teléfono: (57-4) 425 5105

83


Wideband PIFA antenna for higher LTE band applications Carlos Arturo Suárez-Fajardo a, Rafael Rodríguez-León b & Eva Antonino-Daviú c a

c

Facultad de Ingeniería, Universidad Distrital Francisco José de Caldas, Bogotá, Colombia. csuarezf@udistrital.edu.co b Developmet Team, Sequoia Space, Bogotá, Colombia. rafael.rodriguez@sequoiaspace.com Escuela técnica de Ingenieros de Telecomunicación, Universidad Politécnica de Valencia, Valencia, España. evanda@upvnet.upv.es Received: February 17th, 2014. Received in revised form: October 30th, 2014. Accepted: November 24th, 2014.

Abstract This paper introduces a broadband planar inverted-F antenna (PIFA) with U–Shaped capacitive feed technique for higher LTE band applications. The proposed antenna is based on a simple PIFA, where the capacitive feed plate, radiating plate and ground plate is modified into a U–Shaped such that the antenna can have wideband characteristics. With the use of the proposed feeding configuration, the antenna shows a very wide pattern and impedance bandwidth of about 81.6% for VSWR ≤ 2.0 from 1.66 GHz to 3.95 GHz which can cover the higher band of LTE (1.71GHz-3.8GHz), DCS 1800, DCS 1900, UCDMA, UMTS, IMT 2000, DMB, Wi-Fi, 2.4GHz, WiMAX (2.3–2.5 GHz), WiMAX (3.4–3.5 GHz) and Bluetooth applications. Keywords: PIFA antenna; wideband antenna; capacitive feed technique; LTE antenna design.

Antena PIFA de banda ancha para aplicaciones en la banda alta de LTE Resumen Este artículo presenta una antena plana F invertida (PIFA) de banda ancha con la técnica de excitación capacitiva en U para aplicaciones en la banda alta de LTE. La antena propuesta se basa en una simple PIFA, donde las placas de excitación capacitiva, de radiación y de tierra se modifican a una geometría en U de tal manera que la antena puede poseer características de ancho de banda amplio. Mediante el uso de la configuración de excitación propuesta, la antena muestra un ancho de banda amplio de diagrama e impedancia del 81.6% para un VSWR ≤ 2.0 desde 1.66GHz a 3.95GHz la cual puede cubrir aplicaciones en la banda alta de LTE (1.71GHz-3.8GHz), DCS 1800, DCS 1900, UCDMA, UMTS, IMT 2000, DMB, Wi-Fi, 2.4GHz, WiMAX (2.3–2.5 GHz), WiMAX (3.4–3.5 GHz) y Bluetooth. Palabras clave: Antena plana F invertida (PIFA); antenas de banda ancha; técnica de excitación capacitiva; diseño de antenas para LTE.

1. Introduction The design of internal antenna for small-size mobile device used in wireless communication systems as LTE, CDMA, GSM, WCDMA, GPS, Bluetooth, among other bands continues to evolve even today, consequently several reports in the literature propose different PIFA designs. However to meet the needs of wireless communications, the bandwidth of the PIFA using a traditional wire–fed or a broadband design of a probe feed is too narrow to cover multi- frequency bands [1]. Therefore, a PIFA that is capable of covering many operating bands is desirable. Various design approaches have been applied to broaden the bandwidth of a conventional PIFA and to reduce antenna size while maintaining good multiband performance [2-4]. Some proposed that a very broad band (up to 65% for VSWR ≤ 2.0) can be achieved for a PIFA by selecting the

right values for the feed and shorting plates [5], others proposed that 45.2% impedance bandwidth for S11<10 dB can be achieved reforming the shorting strip of the PIFA into a meandering strip [6]. Instead of using a direct feed, the modified PIFAs using a capacitive feed have also been demonstrated. In [7], the proposed design exhibits an impedance bandwidth of 96.4% for VSWR ≤ 3:1 (tree resonances), in [8] the impedance bandwidth achieved is 61.92% for VSWR ≤ 2.0, in [9] the impedance bandwidth achieved is 52.44% plus 8% for VSWR ≤ 2.0 (Two resonances). In [10] PIFAs were combined with slot radiators to increase the coverage of the frequency spectrum; the impedance bandwidth achieved is 84.6% for VSWR ≤ 3:1 (tree resonances). In [11], a compact PIFA with a tunable frequency response is presented. Tuning of the resonant frequency is realized by loading a varactor on an embedded slot of the

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 84-89. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42103


Suárez-Fajardo et al / DYNA 82 (189), pp. 84-89. February, 2015.

proposed antenna structure. By changing the capacitance of the varactor from 0.1pF to 3pF, it will change the electrical length of current path flow as well as to shift the resonant frequency. The antenna shows a wide impedance bandwidth of about 49.4% for VSWR ≤ 2.0 from 1.57GHz to 2.6GHz, covering the GPS, PCS, DCS, UMTS, WLAN and LTE systems. In [12], a miniaturized microstrip-fed planar monopole antenna with archimedean spiral slot to cover WiFi, Bluetooth and LTE standards, both for VSWR < 2:1 has been presented. The optimized antenna exhibits a bandwidth of 2.18GHz to 2.92GHz to cover WiFi/Bluetooth (2.45GHz) and LTE (2.6GHz) mobile applications. The simulated antenna gain varies from about 2.77dBi to 2.93dBi. In [13], the design of reconfigurable antenna for LTE (band1, band23, band40) and WLAN applications has been presented. The proposed antenna consists of rectangular patch fed by a proximity feed. The presence of square slots on the diagonal corners is used for frequency reconfiguration. The antenna can operate at 2.07GHz, 2.1GHz, 2.4GHz and 2.45GHz by proper selection of diagonal slots. The directivity is greater than 5dB at all operating frequencies. In [14], a novel hollow coupling element antenna for applications in the lower LTE (698-787MHz) and GSM (824-960MHz) bands, both for VSWR < 3:1(S11<-6dB) has been presented. Matching networks was used to tune the antenna-system to the desired frequency with a suitable reflection coefficient (-6dB), antenna gain results was not provided. In this paper, a wideband PIFA structure is proposed for portable wireless units, which further increases the impedance bandwidth while exhibiting very stable radiating patterns and gain within the whole operating band. An antenna with wide impedance and pattern bandwidth is thus presented. As shown later, this behavior will be accomplished by using a U-shaped capacitive feed [9] to allow further control of the impedance and gain curves. A wideband capacitive feed PIFA has been designed and optimized using commercial electromagnetic software HFSS. The properties of the antenna will be analyzed and then validated by experimental measurements related with impedance and diagram bandwidth. By changing four parameters—the geometry of the feeding plate, the separation from the radiating top plate, the geometry of the radiating top plate and the geometry of the ground plate, it will be shown how the antenna designer can gain entire control over the resonance properties of the antenna. The results presented in this paper show a very wide pattern and impedance bandwidth of about 81.6% for VSWR ≤ 2.0:1 from 1.66 GHz to 3.95 GHz, which can cover the higher LTE band of (1.71GHz-3.8GHz), the maximum gain of the antenna remains very stable over the entire operating bandwidth (from 2.3dBi to 2.8dBi).

Figure 1. Top and side views of the proposed PIFA antenna. Source: The Authors.

feed is constructed by terminating the inner conductor of a coaxial into a conducting plate, which electromagnetically couples to the radiating top plate. The excitation of the antenna is placed at the edge of the capacitive feeding plate. The radiating top plate and the shorting plate are split in two parts, adding a slot in the ground plate. Dimensions of the antenna have been optimized to achieve wideband performance, both from the impedance bandwidth, radiation pattern and gain point of view. In relation to the Fig. 1, the dimensions of the antenna are: Ltop = 27mm (0.25λ), Wtop = 10mm (0.09λ), Htop = 7mm (0.06λ), LFeed1 = 21mm (0.2λ), WFeed1=3mm (0.03λ), LFeed2 = 17mm (0.16λ), WFeed2 = 2mm (0.019λ), Lgnd1 = 58mm (0.54λ), Lgnd2 = 51mm (0.48λ), Wgnd = 35mm (0.33λ), Hfeed = 3mm (0.03λ), Lslot = 22mm (0.2λ), Wslot = 5mm (0.05λ). The total volume of the antenna is 58x35x7 mm3. The antenna was made from a 0.3mm – thick cooper sheet and this parameter was included in the simulation process using HFSS Electromagnetic software. 3. Parametric Study As previously commented, the radiating behavior of the antenna can be controlled by changing four physical parameters: The geometry of the feeding plate, the separation from the radiating top plate, the geometry of the radiating top plate, and the geometry of the ground plate. In this section, the reflection coefficient of the antenna depending on the variation of these parameters will be analyzed. Fig. 2 shows the simulated S11 behavior of the proposed antenna for different values of the ground plane length (parameter Lgnd2 in Fig. 1). As observed, the length of ground plane has an important impact on the upper frequency band of the impedance bandwidth, decreasing the impedance bandwidth as the length increases.

2. PIFA Antenna Design Fig. 1 shows the top and side views of the proposed antenna structure. As observed, the U-shaped capacitive 85


Suรกrez-Fajardo et al / DYNA 82 (189), pp. 84-89. February, 2015.

Figure 2. Simulated reflection coefficient for different values of Lgnd2. Source: The Authors

Figure 4. Simulated reflection coefficient for different values of Lfeed1. Source: The Authors.

Figure 5. Feeding port position between the capacitive feeding plate and the ground plane. Source: The Authors.

Figure 3. Simulated reflection coefficient for different values of Hfeed. Source: The Authors.

Fig. 3 shows the simulated reflection coefficient results of the proposed antenna for three different values of separation between the capacitive feeding plate and the ground plane (parameter Hfeed in Fig. 1). As observed, the reflection coefficient is very sensitive to the height of the feeding plate within the entire frequency band, degrading the impedance coupling when this value is not optimum. Fig. 4 shows the simulated reflection coefficient results of the proposed antenna for five different values of one of the capacitive feed arms (parameter LFeed1 in Fig. 1). As observed, the reflection coefficient is again very sensitive to the length of the capacitive feed plate within the entire frequency band.

Figure 6. Simulated reflection coefficient for different values of Lfeed2. Source: The Authors.

Fig. 5 shows the feeding port position, between the ground plate and the capacitive feeding plate, which is displaced for analysis from point A to B. 86


Suรกrez-Fajardo et al / DYNA 82 (189), pp. 84-89. February, 2015.

Fig. 6 shows the simulated reflection coefficient results of the proposed antenna for four different values of the other capacitive feed arm (parameter LFeed2 in Fig. 1). As observed, this length has also an important impact on the upper frequency band. As a result of the parametric study previously commented, the radiating behavior of the antenna can be controlled by changing the geometry of the capacitive feed plate (LFeed2, LFeed1, WFeed2, WFeed1), the separation from the radiating top plate (Htop, Hfeed), the geometry of the ground plate (Lgnd1, Lgnd2, Wgnd, Wtop, Lslot, Wslot), and the geometry of the radiating top plate (Ltop, Wtop, Wslot, WFeed2, WFeed1). 4. Experimented Results and Discussion Once optimized the geometry of the antenna, a prototype has been fabricated and measured. Fig 7-a shows the antenna parts including: Rohacell material (antenna structure), capacitive feed plate, radiating top plate, ground plate, coupling plates (join the radiating top plate and ground plate together) and SMA connector. Fig. 7-b shows a picture of the top view for the fabricated prototype of the capacitive feed PIFA with SMA connector. The antenna was constructed over Rohacell material to facilitate the fabrication process.

Figure 8. Measured and simulated reflection coefficient for the proposed antenna. Source: The Authors.

4.1. Return loss Fig. 8 shows the reflection coefficient of the antenna, both simulated and measured. As shown, the measurement correlates quite well with the simulated response. As it can be observed, the proposed capacitive feed PIFA exhibits a very wide impedance bandwidth, covering approximately from 1.66 GHz to 3.95GHz for S11<-10dB. This represents a relative impedance bandwidth of more than 81.6%. A very narrow band is also present at lower frequencies (around 1.4 GHz), as observed. Thus the antenna satisfies a 10 dB return loss requirement to cover the upper band of LTE (1.71GHz-3.8GHz), Digital Communication System,

(a)

(b)

Figure 9. Measured radiation patterns in XZ-plane at 1.8, 2.5, 3.0, and 3.7 GHz. Source: The Authors.

Figure 7. Picture of the fabricated prototype of the capacitive feed PIFA: (a) Antenna parts; (b) assembled antenna top view. Source: The Authors. 87


Suárez-Fajardo et al / DYNA 82 (189), pp. 84-89. February, 2015.

1710–1880 MHz (DCS1800), 1850–1990 MHz (DCS1900), PCS (1850–1990 MHz), UMTS (1920–2170 MHz), International Mobile Telecommunication, 1885–2200 MHz (IMT2000), Wireless Local Area Network, 2400–2483 MHz (WLAN), Digital Mobile Broadcasting, 2605–2655 MHz (DMB), IEEE 802.11b/g, Wi-Fi, WiMAX (2,3–2,5 GHz) and (3,4–3,5 GHz) and Bluetooth standards at the same time. 4.2. Radiation pattern and gain Fig. 9 and Figure 10 illustrate two cuts (XZ-plane and YZ-plane) of the radiation patterns measured at different frequencies within the operating bandwidth (1.8, 2.5, 3.0 and 3.7 GHz).

Figure 12. Measured crosspolar and copolar components for the radiated electric Field (E) in the XZ plane at 2.0GHz. Source: The Authors.

As observed, quite stable omnidirectional radiation behavior is obtained at all operating frequencies, as it is desirable in handset antennas. Fig. 11 shows the measured gain within the overall bandwidth of the antenna. As observed, the maximum gain of the antenna remains very stable over the entire operating bandwidth (from 2.3dBi to 2.8dBi). Fig. 12 shows the measured crosspolar and copolar components for the radiated electric Field (E) in the XZ plane at 2.0GHz. The differences between the simulated results versus measured results for the reflection coefficient (S11) are due to manufacturing errors, especially to the distance between the capacitive feed plate and the ground plate. 5. Conclusions

Figure 10. Measured radiation patterns in YZ-plane at 1.8, 2.5, 3.0, and 3.7 GHz. Source: The Authors.

In this paper a U-shaped capacitive feed PIFA having very wideband pattern and impedance bandwidth characteristics has been designed. U-shaped capacitive feed PIFA offers satisfactory performance of the radiation patterns. The measured radiation patterns are in good agreement with conventional PIFA (omnidirectional), as well as improved impedance matching at the input port over a large bandwidth, 2.29GHz (up to 81% for VSWR ≤ 2.0, only one resonance). The proposed U-Shaped capacitive feed PIFA antenna has been simulated, prototyped and tested. It is shown that the numerically simulated results are in close agreement with the experimental prototype results and proved that the antenna operates as proposed. Measurements also indicate that the pattern and impedance bandwidths of the proposed U-shaped capacitive feed PIFA are larger than other published papers using other capacitive feeding techniques or a traditional wire-feed technique. Moreover, gain has a very stable behavior versus frequency.

Figure 11. Measured gain vs. frequency. Source: The Authors. 88


Suárez-Fajardo et al / DYNA 82 (189), pp. 84-89. February, 2015.

It finds an impedance bandwidth of 81.6% for VSWR ≤ 2.0 which can cover the Upper band of LTE (1.71GHz3.8GHz), and: DCS 1800, DCS 1900, UCDMA, UMTS, IMT 2000, DMB, Wi-Fi, 2.4GHz, WiMAX (2.3–2.5 GHz), WiMAX (3.4–3.5 GHz) and Bluetooth applications.

[14] Cihangir A., Sonnerat F., Ferrero F., Luxey, C., Pilard R., Gianesello F. and Jacquemod G., Design of traditional and a novel spaceefficient antenna-coupling elements for lower LTE/GSM mobile phones. Proceedings of 2012 Loughborough Antennas & Propagation Conference, pp 1-4, 2012. http://dx.doi.org/10.1109/LAPC.2012.6402954

Acknowledgements

C.A. Suárez-Fajardo, received the MSc. and PhD. in Electrical Engineering from the Universitat Politècnica de València, Valencia, Spain, in 2003 and 2006, respectively. In 2006, he joined the LIMER Group, Universidad Distrital Francisco José de Caldas, Bogotá and in 2007 he became as an associate professor at the Universidad Distrital Francisco José de Caldas, Bogotá, Colombia. His research interests include wideband and multi-band planar antenna design and optimization, microwave engineering, applied electromagnetic and small satellite communication systems.

The authors gratefully acknowledge professor M. Ferrando from Electromagnetic Radiation Group (ERG) of the Universidad Politécnica de Valencia (Spain) for the sharing of their manufacturing, anechoic chamber, measuring equipment and Electromagnetic software facilities.

R. Rodríguez-León, was born in 1985. Since 2010, he has been with SEQUOIA SPACE as a development engineer. He is currently a MSc. student in Space Engineering at Kyushu Institute of Technology, Japan. His research interests include satellite subsystems, Spacecraft Environment Interaction Engineering and digital applications.

References [1]

[2] [3]

[4]

[5]

[6]

[7]

[8]

[9] [10]

[11]

[12]

[13]

Feick, R., Carrasco, H., Olmos, M. and Hristov, H., PIFA input bandwidth enhancement by changing feed plate silhouette, Electronic Letters, 40 (15), pp. 921-922, 2004. http://dx.doi.org/10.1049/el:20045276 Wong, K.L., Planar antennas for wireless communications. New York: Wiley Series in Microwave and Optical Engineering, 2003. Chiu, C.W. and Chi, Y.J., Planar Hexa-Band Inverted-F antenna for portable device applications. IEEE Antennas and Wireless Propagation Letters, 8, pp. 1099-1102, 2009. http://dx.doi.org/10.1109/LAWP.2009.2033623 Du, Y., Zhao, A., Salo, A. and Saunamaki, J., Bandwidth potential analysis of GSM antennas based on oval-shaped mobile terminals, Proceedings of 2010 International Conference on Microwave and Millimeter Wave Technology (ICMMT), pp. 4-7, 2010. http://dx.doi.org/10.1109/ICMMT.2010.5525305 Chattha, H., Huang, T. and Yang, L., PIFA bandwidth enhancement by changing the widths of feed and shorting plates, IEEE Antennas and Wireless Propagation Letters, 8, pp. 637-640, 2009. http://dx.doi.org/10.1109/LAWP.2009.2023251 Chan, P.W., Wong, H. and Yung, E.K.N., Wideband planar inverted-F antenna with meandering shorting strip. Electronics Letters, 44 (6), pp. 395-396, 2008. http://dx.doi.org/10.1049/el: 20083688 Wu, C.H. and Wong, K.L., Ultrawideband PIFA with a capacitive feed for penta-band folder-type mobile phone antenna. IEEE Transactions on Antennas and Propagation, 57 (8), pp. 2461-2464, 2009. http://dx.doi.org/10.1109/TAP.2009.2024571 Suárez, C., Gómez, J., and Ferrando, M., Broadband PIFA with capacitive feed, Proceedings of IEEE International Symposium on Antennas and Propagation Society, APSURSI '09, pp. 1-4, 2009. http://dx.doi.org/10.1109/APS.2009.5171974 Suárez, C., Rodríguez, R. and Ferrando, M., Broadband planar antenna with improved pattern bandwidth. Revista Facultad de Ingeniería Universidad de Antioquia, 65, pp. 74-84, 2012. Anguera, J., Sanz, I., Mumbru, J. and Puente, C., Multiband handset antenna with a parallel excitation of PIFA and slot radiators. IEEE Trans. on Antennas and Propagation, 58 (2), pp.348-356, 2010. http://dx.doi.org/10.1109/TAP.2009.2038183 Elfergani, I., Hussaini A.S., Rodríguez, J., See, C.H. and Alhameed, R., Wideband tunable PIFA antenna with loaded slot structure for mobile handset and LTE applications. Radioengineering, 23 (1), pp 345-355, 2014. Zhou W. and Arslan T., Planar monopole antenna with archimedean spiral slot for Wifi/Bluetooth and LTE applications, Proceedings of 2013 Loughborough Antennas & Propagation Conference, pp 186189, 2013. http://dx.doi.org/10.1109/LAPC.2013.6711879 Bezawada V.N., Shambavi K. and Alex Z.C., Design of reconfigurable antenna for LTE and WLAN applications. Proceedings of 2013 International Conference on Communications and Signal Processing (ICCSP), pp 51-54, 2013. http://dx.doi.org/10.1109/iccsp.2013.6577013

E. Antonino-Daviú, was born in Valencia, Spain, on July 10, 1978. She received the MSc. and PhD. degrees in Electrical Engineering from the Universitat Politècnica de València, Valencia, Spain, in 2002 and 2008, respectively. In 2002, she joined the Electromagnetic Radiation Group, Universitat Politècnica de València, and in 2005 she became a Lecturer at the Escuela Politécnica Superior de Gandia, Gandia, Spain. During 2005 she stayed for several months as a guest researcher at the Department of Antennas & EM Modelling of IMST GmbH, in Kamp-Lintfort, Germany. Her current research interests include wideband and multi-band planar antenna design and optimization and computational methods for printed structures. Dr. Antonino-Daviu was awarded the “Premio Extraordinario de Tesis Doctoral” (Best PhD. thesis) from the Universitat Politècnica de València in 2008.

Área Curricular de Ingeniería Eléctrica e Ingeniería de Control Oferta de Posgrados

Maestría en Ingeniería - Ingeniería Eléctrica Mayor información:

E-mail: ingelcontro_med@unal.edu.co Teléfono: (57-4) 425 52 64

89


Kinetic aspects on ferric arsenate formation in a fix bed gas-solid reaction system Eduardo Balladares a, Roberto Parra b & Mario Sánchez c a

Departamento de Ingeniería Metalúrgica, Universidad de Concepción, Concepción, Chile. eballada@udec.cl Departamento de Ingeniería Metalúrgica, Universidad de Concepción, Concepción, Chile. rparra@udec.cl b Facultad de Ingeniería, Universidad Andrés Bello, Santiago de Chile, Chile. mario.sanchez@unab.cl

a

Received: February 18th, 2014. Received in revised form: August 20th, 2014. Accepted: August 22th, 2014.

Abstract The fixation of arsenic contained in gases produced during pyrometallurgical processes by using solid ferric oxide was studied in the range 873-1073 K under different oxygen potential and solid aggregates porosities. Arsenic fixation on solid iron oxides is described by the pore blocking model under the studied conditions. The solid product of the reaction has a molar volume 3 times larger than the solid reactant causing fast decreasing of the inter-granular spacing. The activation energies of arsenic fixation reaction are 34.96 and 35.46 kJ/mol for porosities of 0.88 and 0.74 respectively, and for porosity of 0.55 the activation energy was 26.88 kJ/mol. These values of activation energy show that intra-pellets diffusion has an effect only in samples with 0.55 porosity. Minor sintering of particles was detected. Industrial application of the concept demands a reaction system, which in is required better gas-solid contact for attaining larger conversions. Keywords: arsenic fixation; flue dust; gas treatment; copper smelting.

Aspectos cinéticos de la formación de arseniato férrico en lecho fijo mediante reacciones gas-sólido Resumen Se presentan los resultados para la fijación de arsénico contenido en una corriente gaseosa en el rango 873-1073 K, bajo diferentes presiones parciales de oxígeno en lechos de distinta porosidad. Se estudió la cinética de formación de arseniato férrico y se determinó que la reacción puede describirse por el modelo de bloqueo de poros, verificándose un aumento del volumen molar del producto formado limitando la difusión de arsénico gaseoso hasta la interfase de reacción. Las energías de activación de la reacción 0.25As4O6(g)+0.5O2(g)+0.5Fe2O3(s)=FeAsO4(s) fueron 34.96, 35.46 y 26.88 kJ/mol para las porosidades 0.88, 0.74 y 0.55, respectivamente. Estos valores de energía de activación muestran que la difusión intra-pellet juega un rol importante solo para porosidades de lecho bajas (ε=0.55). Se evidenció un incipiente grado de sinterización de las partículas. Lograr contacto más íntimo gas-partícula para mayores retenciones de arsénico resulta clave para su aplicación en la industria pirometalúrgica del cobre. Palabras clave: fijación de arsénico; gases de fundición; tratamiento de gases; fundición de cobre.

1. Introducción En la actualidad, la mayor parte de los concentrados de cobre en Chile son procesados por métodos pirometalúrgicos, generando enormes caudales de gases que contienen, entre otros elementos tóxicos, arsénico. Este elemento causa problemas tanto desde la perspectiva ambiental como operacional debido a las crecientes emisiones, por una parte, y a los requerimientos de calidad de ánodos y ácido, por otra. Así, la remoción de arsénico

desde la fase gas para producir un producto sólido estable disminuiría los problemas causados por el manejo de ingentes volúmenes de solución cuando estos se tratan por métodos hidrometalúrgicos convencionales. La fijación de arsénico con óxido de hierro (III) es termodinámicamente más favorable que con otros óxidos [1]. De este modo, la formación de arseniato férrico desde una corriente con trióxido de arsénico gaseoso con Fe2O3 sólido se presenta como muy atractiva debido a la estabilidad térmica y acuosa del arseniato férrico.

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 90-95. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42131


Balladares et al / DYNA 82 (189), pp. 90-95. February, 2015.

La Fig. 1 muestra un diagrama de predominancia de áreas para el sistema Fe-As-S-O en las condiciones en las que los gases salen del horno de fusión. En este se observa que la única fase estable portadora de arsénico es el trióxido de arsénico gaseoso (As2O3(g) dimerizado o As4O6(g)). Por otra parte, dado que los potenciales de S2 (o equivalentemente de SO2) en los gases de fusión están en el rango pS2=10-1-10-3 atm, el hierro es estable en la forma de sulfato férrico, tal como lo muestra el diagrama de predominancia de áreas de la Fig. 1. La reacción de formación de FeAsO4 a partir de As4O6 y FeSO4 tiene gradiente termodinámica negativa a 1573 K (Gº(1573 K)= -142 kJ/mol de FeAsO4) [2] y requiere de cantidades extremadamente bajas de As en fase gas (pAs4O6=10-22 atm a 1573 K), no obstante, en la práctica no se ha detectado cantidades significativas de FeAsO4 en las caracterizaciones de los polvos de fundición captados desde los sistemas de limpieza y manejo de gases [3]. De aquí, se plantea la opción de fijar el arsénico (o parte de él) en una etapa adicional mediante una reacción heterogénea en la que la reacción global, descrita por la reacción (1), idealmente podría dar cuenta de una fracción significativa del arsénico en una fase estable. 0.25 As4 O6 ( g )  0.5O2( g )  0.5Fe2 O3( s )  FeAsO4( s )

efectuaron en un horno vertical eléctrico que contenía el reactor para producir el As4O6(g) y el posterior contacto de este gas con la hematita sólida fue en un tubo de cuarzo de 18 cm de diámetro. Las muestras fueron ubicadas sobre un contenedor de óxido de aluminio poroso de modo tal que el gas circulara a través suyo. Este contenedor pendía de una balanza y estaba protegido por una campana de cuarzo cuyo detalle se muestra en la Fig. 3. En una prueba típica, la muestra se suspendía en la balanza termogravimétrica dentro del horno eléctrico. El flujo de gas se alimentaba desde la parte inferior del horno y la zona de reacción estaba ubicada en la sección isotérmica del horno. Los reactivos fueron hematita en polvo, como fuente de hierro, y un flujo de gas, constituido por O2(g) y As4O6(g), el que proporcionaba arsénico y oxígeno necesarios para la reacción. Se empleó un flujo de nitrógeno como gas de arrastre para el As4O6, el que volatilizaba en el fondo del tubo de reacción dentro del horno. El oxígeno fue alimentado por medio de un tubo de ¼” de diámetro dentro de un contenedor de cuarzo poroso, para las experiencias que utilizaron un lecho de hematita sólida, dentro de un cesto especialmente diseñado para las experiencias con pellets. En la parte inferior del horno, donde el As 4 O 6 es volatilizado, la temperatura fue mantenida constante a 573 K mediante un controlador conectado a una termocupla tipo K,

(1)

Los antecedentes recién mencionados, así como completos análisis termodinámicos previamente reportados ampliamente en la literatura [4-8], confirman la factibilidad de fijar el arsénico como FeAsO4 de acuerdo a la reacción (1). De este modo, el presente trabajo está dedicado al análisis cinético del proceso.

De Compresor Pistón Neumático Extracción de Gases Balanza

PC

Cadena

2. Experimental

Campana Impresora Desecadores

Los experimentos se realizaron en una balanza termogravimétrica tal como muestra la Fig. 2. En esta, el arsénico fue producido por volatilización de As2O3 sólido de 99.2 % de pureza y Fe2O3 de 99% pureza, esta última en forma de polvo fino (100% -300 m), ambos reactivos proporcionados por Riedel de Haën. Las experiencias se

Rotámetros

Termocupla

Tubo con O2(g)-N2(g)

Distribuidor anular O2(g)-N2(g)

Mezclador

Tubo con As4O6(g) Controlador

O2

N2

N2

Termocupla Gases

Figura 2. Aparato experimental. Fuente: Elaboración propia.

As4O6(g) N2 - O 2

N2 - O 2 Cadena

Receptáculo

N2 arrastre

Fe2O3(s)

As2O3

Placa porosa

Campana Termocupla

Figura 1. Diagrama de estabilidad cuaternario para el Sistema Fe-As–S–O a 1573 K con razón molar 0.0<Fe/(As+Fe)<0.5. Fuente: Elaboración propia.

N2 - O 2

Figura 3. Componentes del sistema de reacción. Fuente: Elaboración propia. 91


Balladares et al / DYNA 82 (189), pp. 90-95. February, 2015.

asegurando una tasa de volatilización constante. La balanza termogravimétrica fue conectada a un computador para la adquisición de datos en línea de la evolución del peso de la muestra. El peso instantáneo se desplegó en pantalla y se almacenó en un archivo de datos. Los gases producidos durante los experimentos fueron evacuados desde la parte superior del horno empleando un extractor. Este extractor mantenía una presión interna en el reactor levemente negativa permitiendo una pequeña infiltración en la sección superior del reactor, después de la zona de reacción, evitando emisiones de gases arsenicales al exterior.

X

X

Pruebas preliminares mostraron que la reacción se detenía a aproximadamente 80 minutos de iniciada, sin obtenerse información adicional después de este tiempo. De este modo, este tiempo fue seleccionado como tiempo de reacción fijo para todos los ensayos realizados. El efecto de la temperatura fue estudiado en el rango 873-1073 K. La Fig. 5 muestra el efecto de la temperatura sobre la conversión de Fe2O3 en FeAsO4 donde se observa que la conversión aumenta progresivamente hasta 1073 K. No obstante, en las pruebas en las que se empleó pellets (ε=0.55 y 0.74) el efecto de la temperatura fue marginal, aumentando la conversión solo levemente. En cambio, en las pruebas en las que se empleó Fe2O3 en lecho fijo (ε=0.88) el aumento en la conversión registrado fue significativo (se cuadruplicó al aumentar la temperatura de 873 a 1073 K). Aun cuando el efecto de la temperatura es mucho más marcado en reacciones controladas por la cinética química, comparado con aquellas controladas por transporte en el fluido o difusión gaseosa, en este caso, el aumento de la conversión no es exponencial con la temperatura por lo que no se puede inferir que el control sea químico. n ó i s r e v n o C

Fe2O3

(3)

3.1. Efecto de la temperatura

pO2= 0.5 atm

= 0.88

6 0 . 0

Fe2O3

Fe2O3

4 0 . 0

0 0 4

= 0.74 2 0 . 0

0 0 2

FeAsO4 FeAsO4·2H2O

0 0 6

FeAsO4·2H2O

8 0 . 0

Fe2O3

FeAsO4·2H2O

(2)

 Wt  Wi   W  Wi 

0 1 . 0

0 0 8 FeAsO4·2H2O

2 1 . 0

0 0 0 1 FeAsO4·(H2O)2 / FeAsO4·2H2O

3

donde (%Fe)FeAsO4 y (%Fe)Fe2O3 representan el contenido de hierro en la forma de FeAsO4 y Fe2O3, respectivamente. Mientras que Wt, Wi y W representan el peso de la muestra en el tiempo t, el peso inicial y el peso para una conversión completa, respectivamente.

La caracterización inicial realizada a los productos de reacción mostró la presencia de ciertas cantidades de compuestos del tipo FexAsyOz, tal como se muestra en el espectro de difracción de rayos X de la Fig. 4, obtenido para ε=0.88, pO2=0.5 y 973 K. En esta, se comprueba la presencia de FeAsO4 además de FeAsO4·2H2O, FeAsO4·(H2O)2, FeAsO4·3.5H2O y, Fe2O3 no reaccionado. Dada la ausencia de H2O en el sistema de reacción, la presencia de arseniato hidratado se explica en el manejo de las muestras post-reacción, favorecido por el comportamiento higroscópico del FeAsO4. La evaluación de los resultados se basó en la determinación de la conversión (o fracción convertida) de Fe2O3 a FeAsO4. La conversión total (registrada una vez que la prueba finaliza) se estimó mediante la expresión:

FeAsO4·3,5H2O

2

mientras que la fracción convertida instantánea está dada por:

3. Resultados y discusiones

FeAsO4·2H2O FeAsO4

4

4

Con el objetivo de mantener el flujo de gas arsenical constante en la zona de reacción (parte superior del reactor), se realizó pruebas de volatilización de As2O3 a diferentes temperaturas obteniéndose las correspondientes tasas de volatilización. Sin embargo, a temperaturas superiores a 603 K la tasa de volatilización resulta demasiado alta y, de este modo, se requería una cantidad de As2O3 mayor a la capacidad del receptáculo para el tiempo de duración de las pruebas. Por otra parte, a temperaturas inferiores a 523-553 K, es difícil mantener la temperatura de la zona de volatilización constante y, por tanto, también la temperatura de la zona de volatilización. De este modo, se seleccionó 573 K como la temperatura de volatilización ya que a esta se logró una tasa de volatilización constante y estable.

s p c , d a d i s n e t n I

 %Fe FeAsO  %Fe FeAsO   %Fe Fe O

= 0.55 0

0 6

0 s 4 o d a r g , 2

0 2

0

0 1 K 1 , a r u t a r e p m e T

0 5 0 1

0 0 0 1

0 5 9

0 0 9

0 5 08 0 . 0

0

Figura 5. Efecto de la temperatura sobre la fracción convertida a pO2=0.5 atm. Fuente: Elaboración propia.

Figura 4. Difractograma obtenido en residuo de prueba termogravimétrica (ε=0.88, pO2=0.5 y 973 K). Fuente: Elaboración propia. 92


Balladares et al / DYNA 82 (189), pp. 90-95. February, 2015.

La Fig. 6 (a) y (b) muestra leves diferencias en las formas de los límites inter-partícula, los que se señalan en círculos negros. En el caso de la muestra reaccionada a 1073 K (derecha) los bordes en contacto entre las partículas son mucho más paralelos, observándose, inclusive, granos prácticamente soldados. Aun cuando 1073 K es una temperatura baja comparada con la temperatura de fusión, tal evidencia podría indicar la posibilidad de sinterización localizada, más aun considerando que la reacción de formación del FeAsO4(s) dada por la reacción (1) es exotérmica, tal como lo indica su calor de reacción [13]:

3.2. Efecto de la porosidad El efecto del área superficial sobre la extensión de la conversión fue estudiado mediante experiencias en lecho poroso, cuyos resultados se muestran en la Fig. 6 para una presión parcial de oxígeno de 0.5 atm. A 1073 K la conversión obtenida en muestras con porosidad ε=0.88 aumenta 5 veces respecto a aquella alcanzada a ε=0.55. Para muestras compactas, tales como pellets (con ε=0.55), la reacción se inicia principalmente sobre la superficie exterior del pellet, de modo que a medida que la reacción avanza los poros se obstruyen y la reacción se detiene progresivamente, lográndose conversiones inferiores en comparación con muestras más porosas (polvo de Fe2O3 en lecho fijo). Esto puede ser explicado al comparar los volúmenes molares de los reactantes y productos sólidos. Específicamente, el FeAsO4 posee un volumen molar 3 veces superior al Fe2O3, así, por cada cm3 de Fe2O3 sólido reaccionado se forman 3 cm3 de FeAsO4, donde el aumento del volumen molar está dado por la expresión (4). z=

1  PM P / ρ P    α  PM R / ρ R 

(5)

Hº= -2·10-5·T2-0.0146·T-150.96 (kJ/mol)

La expresión anterior muestra que la reacción es exotérmica en todo el rango de temperatura de interés, más aún, los datos indican que varía muy poco en el rango 8731073 K, específicamente, de –151.6 a –150 (kJ/mol). En efecto, la generación de calor en la interfase de reacción (y la posible resistencia a que este fuera disipado) podría hacer aumentar la temperatura localmente, favoreciendo el mecanismo antes mencionado. La Fig. 7 muestra el efecto de la porosidad sobre la conversión de Fe2O3 a FeAsO4 a pO2= 0.5 atm a las 3 temperaturas evaluadas. En esta se observa claramente que muestras más porosas de sustrato hematítico producen mayores conversiones dada la mayor superficie de reacción disponible. El efecto es más marcado cuanto mayor es la temperatura dando cuenta de lo relevante de la disponibilidad de interfase de reacción en la cinética global, medida como conversión en la Fig. 7.

(4)

donde PMP y PMR son los pesos moleculares de producto y reactivo, P y R las densidades de producto y reactivo y  es la razón de coeficientes estequiométricos en la reacción (1), en este caso = ½. De lo anterior, se registra una reducción gradual del área superficial debido al bloqueo de poros externos, disminuyendo así la superficie inter-partícula. Este hecho coincide con resultados previamente reportados [9-12].

3.3. Cinética global de reacción La disminución de la superficie inter-partícula debido al bloqueo de poros se verificó por medio de microscopía electrónica de barrido (SEM), la cual muestra una estructura de poros de las muestras más compactas una vez finalizada la reacción en comparación con las muestras en su estado inicial. La evidencia experimental obtenida para la formación de arseniato férrico a partir de Fe2O3 y arsénico 2 1 . 0 0 1 . 0

n ó i s r e v n o C

pO2= 0.5 atm T = 1073 K

8 0 . 0 6 0 . 0 T = 973 K 4 0 . 0 2 0 . 0

T = 873 K

0

.d 1 a d i s o r o P

9 . 0

8 . 0

7 . 0

6 . 0

5 . 00 0 . 0

Figura 6. Micrografías SEM pO2=0.1 (atm) y ε=0.74; a) T = 873 K y b) T = 1073 K. Fuente: Elaboración propia.

Figura 7. Efecto de la porosidad sobre la conversión fraccional a pO2=0.5 atm. Fuente: Elaboración propia. 93


Balladares et al / DYNA 82 (189), pp. 90-95. February, 2015.

6 e 4 6 e 3

T = 973 K

6 e 2 6 e

0

6 .

0m t a , 2 O p

5 . 0

4 . 0

3 . 0

2 . 0

1 . 0

0 . 0

k '  b·k·f (p O2 )

Figura 9. Efecto de pO2 sobre constante de velocidad. Fuente: Elaboración propia.

(7) Tabla 1. Constantes de velocidad k (s-1·atm-1). T (K) ε=0.88 873 3.9·10-5 973 4.1·10-5 1073 1.0·10-4 Fuente: Elaboración propia.

k n l

ε=0.74 8.0·10-6 1.0·10-5 2.0·10-5

ε=0.55 5.0·10-6 7.0·10-6 1.0·10-5

8 9 8 8 , 0 =

Lecho poroso (

0 1 -

34.96 (kJ/mol)

Pellet (

5 5 , 0 =

Pellet (

4 7 , 0 =

1 1 -

35.46 (kJ/mol)

2 1 26.88 (kJ/mol)

0 . 2 1 1 K , 4 0 1 x 5 1T . 1 1

0 . 1 1

5 . 0 1

0 . 0 1

1 -

5 . 9

0 . 39 1 -

6

donde b es el coeficiente estequiométrico de la reacción (1), k es la constante cinética química y f(pO2) es una función de la presión parcial de oxígeno. Aunque la temperatura y el grado de obstrucción de poros tienen un leve efecto sobre λ, los datos experimentales dan un valor en torno a 0.05, por lo que este puede ser considerado constante como una primera aproximación para ajustar el modelo. Además, se verificó que el parámetro λ es casi independiente de la presión parcial de oxígeno. La constante de velocidad aparente, k', se obtiene de las pendientes de las curvas de la Fig. 8 y estos valores son entonces graficados como una función de pO2 en la Fig. 9 para ilustrar el efecto de la presión parcial de oxígeno sobre k'. En esta Figura se muestra también los resultados obtenidos en los experimentos que emplearon muestras menos porosas (ε=0.55). Los resultados obtenidos para porosidades mayores (ε=0.88 y ε=0.74) mostraron igual comportamiento. Los resultados experimentales obtenidos tanto para las porosidades mayores (ε=0.88 y ε=0.74) como para aquellas obtenidas de los pellets (ε=0.55) indican que la reacción es de primer orden con respecto a la presión parcial de oxígeno. Po lo tanto, la expresión (7) puede re-escribirse de la forma:

4

Figura 10. Gráfica tipo Arrhenius para las tres porosidades. Fuente: Elaboración propia.

T = 1073 K = 0.55

︶ 

6 e 5

T = 1073 K

(6)

donde λ es el parámetro de bloqueo de poros, k' es la constante de velocidad aparente y t es el tiempo de reacción. La constante de velocidad está dada en términos de la temperatura y la presión parcial de oxígeno de acuerdo a:

/ X

= 0.55

T = 873 K

 k 't    ln 1    

1

X Fe2 O3

s ,p ka

6 e 6

1

contenido en fase gas sugiere que el proceso es representado más apropiadamente por el modelo de bloqueo de poros que empleando otros modelos, tales como: cinética de primer o segundo orden, modelos de nucleación y crecimiento y ecuaciones de núcleo recesivo, entre otros. Así, de acuerdo a la ecuación de Evans [14], la expresión para la tasa de reacción con bloqueo de poros está dada por la ecuación:

pO2 = 0.1 atm

p x e

k '  k·p O2

(8)

2 0

pO2 = 0.5 atm

pO2 = 0.9 atm

n i m , o

e i T

0p 8m

0 6

0 4

0 2

0

Figura 8. Curvas exp(X/) versus tiempo. Fuente: Elaboración propia.

94

Esta ecuación permite obtener las constantes de velocidad, k, desde las pendientes de las líneas obtenidas al graficar k' versus pO2, y los valores obtenidos se muestran en la Tabla 1. Consecuentemente, la energía de activación se determina graficando estos valores en curvas tipo Arrhenius. Así, los resultados para las tres porosidades probadas se muestran en la Fig. 10. Las energías de activación obtenidas para el lecho poroso, así como aquellas para pellets, muestran que la reacción tiene lugar bajo control difusional. Los valores obtenidos para lecho poroso (ε=0.88) y pellet con ε=0.74


Balladares et al / DYNA 82 (189), pp. 90-95. February, 2015. Tabla 2. Parámetros cinéticos para distintas porosidades. Porosidad ko (atm-1·s-1) ε=0.88 4.5·10-4 ε=0.74 4.5·10-3 ε=0.55 2.0·10-4 Fuente: Elaboración propia.

[9]

Ea (kJ·mol-1) 34.96 35.46 26.88

[10] [11]

son muy similares, lo que sugiere la ausencia de efecto de difusión intra-pellet. Sin embargo, para pellets con porosidad ε=0.55 la energía de activación obtenida indica que los efectos difusionales intra-pellet son significativos y afectan la velocidad de reacción global. La Tabla 2 muestra un resumen de los parámetros cinéticos obtenidos para todas las condiciones estudiadas en el laboratorio.

[12] [13] [14]

4 Conclusiones

E. Balladares, se tituló de Ingeniero Metalúrgico en 1994, así como los grados de MSc. En 2004 y Dr. En 2008 en Ingeniería Metalúrgica en la Universidad de Concepción, Chile. De 1995 a 2001 trabajó como Ingeniero de procesos, Jefe de Planta y Jefe de Producción en SQM Salar. De 2002 a 2008 trabajó como Ingeniero de Proyectos y Consultor. Desde 2008 es Profesor Asistente en el Departamento de Ingeniería Metalúrgica de la Universidad de Concepción, Chile.

Los resultados experimentales obtenidos de las pruebas termogravimétricas muestran que es posible fijar arsénico empleando óxido férrico como sustrato, aunque las conversiones obtenidas son relativamente bajas. Para lograr mejores retenciones de arsénico se debe diseñar e implementar un sistema experimental que proporciones un mayor contacto gas-sólido. Dado que se verificó cierto grado de sinterización en el interior de las muestras parcialmente reaccionadas, mayores temperaturas no serían de utilidad para lograr este objetivo pues se incrementaría tal sinterización. Los valores de energía de activación obtenidos muestran que la difusión intra-pellet no afecta a la tasa global de reacción, excepto para el caso de las muestras de menor porosidad, esto porque probablemente en las muestras menos porosas la superficie se bloquea muy rápidamente.

R. Parra, titulado de Ingeniería Metalúrgica en 1991 de la Universidad de Concepción, C hile, obtuvo un D.E.A. en 1992 y un PhD. En 1998, en Ciencia e Ingeniería de Materiales, ambos en el Institut National Polytechnique de Grenoble, France. Profesor titular en el Departamento de Ingeniería Metalúrgica de la Universidad de Concepción, Chile. Sus principales áreas de interés en I+D son la Fisicoquímica de procesos a alta temperatura con especial énfasis en la pirometalurgia del cobre. Es Profesor Adjunto en la Escuela de Minas de Oviedo, España, donde desarrolla actividades académicas en el grupo de Investigación de Siderurgia, Metalurgia y Materiales. Es también investigador asociado del grupo de Sustentabilidad en procesos siderúrgicos y metalúrgicos en el CENIM, Madrid, España. M. Sánchez, es Ingeniero Civil Metalúrgico de la Universidad de Concepción, Chile. Dr. Ingeniero del Instituto Nacional Politécnico de Grenoble, Francia. PhD. en el Imperial College de Londres. Actualmente Director y Profesor de la Carrera de Ingeniería Civil en Metalurgia de la Universidad Andrés Bello, Santiago, Chile. Se ha desempeñado como docente y/o investigador en seis Universidades de América y Europa. Ha ejercido actividades profesionales en Fundiciones de Potrerillos y Chuquicamata de Codelco y en Hatch Ingenieros, Chile. Es autor de tres textos sobre Pirometalurgia del cobre, editor de 8 proceedings en el campo del Medio Ambiente en Minería y Metalurgia y editor de los proceedings de la VIII Conferencia Internacional Molten 2009. Es autor o co-autor de cerca de cien artículos científicos y técnicos en revistas y conferencias.

Agradecimientos Los autores desean expresar su gratitud al apoyo financiero de CONICYT por los fondos provenientes del Proyecto de Investigación Científica Nº1000474. Referencias [1] [2] [3] [4]

[5] [6] [7] [8]

ºC. Canadian Metallurgical Quarterly, 28 (2), pp. 117-126, 1989. http://dx.doi.org/10.1179/cmq.1989.28.2.117 Chaubal, P.C. and Sohn, H.Y., Intrinsic kinetics of the oxidation of chalcopyrite particles under isothermal and nonisothermal conditions. Metallurgical Transactions, 17B, pp. 51-60, 1986. http://dx.doi.org/10.1007/BF02670818 Wang, G.X., Chandra, D. and Fuerstenau, M.C., Oxidation of cobaltite: Part II. Kinetics. Metallurgical Transactions, 26B, pp. 523527, 1995. http://dx.doi.org/10.1007/BF02653869 Björkman, B., Degerstedt, U., Lindblom, B. and Samuelsson, C., Kinetics of impurity elimination during roasting. In Extraction and Processing for the Treatment and Minimization of Wastes, Ed. by J. Hager, B. Hansen, W. Imrie, J. Pusatori and V. Ramachandran, The Minerals, Metals & Material Society, pp. 825-842, 1993. Fan, Y.H., Tesis de MSc., Departamento de Ingeniería Metalúrgica, Universidad de Concepción, Concepción, Chile, 1997. Ronie, A., et al., Outokumpu Research Oy, 2006. Evans, U.R., The corrosion and oxidation of metals: Scientific principles and practical applications. Ed. Edward Arnold Ltd., 1960.

Ulloa, A., Sánchez M. and Terry, B., Lime roasting of enargite, Proceedings of Pyrometalurgy ’95, IMM Cambridge, pp. 275-283, July 1995. Barin, I., Thermochemical data of pure substances, Part I, VCH Verlags Gesellschaft, Weinheim, 1993. Balladares, E., Tesis de MSc., Departamento de Ingeniería Metalúrgica, Universidad de Concepción, Concepción, Chile, 2004. Lynch, D C., A review of the physical chemistry of arsenic as it pertains to primary metals production. Arsenic Metallurgy Fundamentals and Applications, Ed. by R. Reddy, J. Hendrix and P. Queneau, TMS Inc., pp. 3-33, 1987. Mah, A.D., Thermodynamic data for arsenic sulfide reactions. U.S. Department of Interior, Bureau of Mines, Report of Investigations Nº8671, pp. 1-85, 1982. Vian, A., Iriarte, C. and Romero, A., Fluidized roasting of arsenopyrites. I. & E. C. Process Design and Development, 2 (3), pp. 214-223, 1963. http://dx.doi.org/10.1021/i260007a008 Shigematsu, K., Vapor pressure measurements of arsenic compounds. Metallurgical Review of MMIJ, 3 (2), pp. 29-48, 1986. Skeaff, J. M., Thermochemical arsenate-oxide equilibria in the system Fe-As-O determined electrochemically between 317 and 536 95


Geotechnical behavior of a tropical residual soil contaminated with soap solution Yamile Valencia-González a, Oscar Echeverri-Ramírez b, Monica P. Benavides c, María A. Duque-López d, Yessica M. García-Quintero e, Estefanía Jiménez-Espinosa f, Juan E. Restrepo-Álvarez g & Daniel Eduardo Toscano-Patiño h b

a Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia, yvalenc0@unal.edu.co Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia, Medellín, oecheve@unal.edu.co c Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia, mpbenavides@unal.edu.co d Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia, maduquel@unal.edu.co e Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia, ymgarciaq@unal.edu.co f Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia, ejimeneze@unal.edu.co g Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia, jerestrepoa@unal.edu.co h Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia, detoscanop@unal.edu.co

Received: February 19th, 2014. Received in revised form: November 4th, 2014. Accepted: Nov 24th, 2014.

Abstract Tropical soils are soils that exhibit physical, chemical, mineralogical and mechanical characteristics that differ from those of temperate zone soils as a result of factors such as weather, humidity and other conditions of the tropics. These characteristics and the anthropogenic contamination of the environment are the subject of the present study, which aims to analyze a soil of tropical residual origin located in the municipality of Guarne – Antioquia (Colombia). Laboratory tests, some of which are more adequate to characterize this type of soil than classical methods (miniature compacted tropical classification, suction, the pinhole test, breakdown, the collapse index, X-ray diffraction, scanning electron microscopy) are performed on samples in their natural state and samples contaminated with a soap solution to establish the differences between the geotechnical characteristics of this soil under both conditions. Subsequently, the influence of the contaminant on the soil’s properties is discussed. Keywords: Tropical residual soil, Lateritic soil, Contamination with soap, Soap solution, Antioquia batholith.

Comportamiento geotécnico de un suelo residual tropical contaminado con solución de jabón Resumen Los suelos tropicales son aquellos que debido a factores como el clima, la humedad y otras condiciones propias del trópico, poseen características físicas, químicas, mineralógicas y mecánicas diferentes a los suelos de las zonas templadas. Dichas particularidades y la acción contaminante en el medio producida por el hombre, son la motivación del presente artículo, el cual pretende analizar un suelo de origen residual tropical ubicado en el municipio de Guarne – Antioquia (Colombia), mediante la realización de ensayos de laboratorio, algunos de los cuales son más adecuados para caracterizar este tipo de suelos (Clasificación Miniatura Compactado Tropical, Succión, Pinhole Test, Desagregación, Índice de Colapso, Difracción de rayos “X”, Microscopía Electrónica de Barrido), a muestras tanto en estado natural como contaminadas con una solución jabonosa, para establecer las diferencias entre las características geotécnicas de dicho suelo en ambas condiciones y posteriormente, discutir la influencia que tiene el contaminante en sus propiedades. Palabras clave: Suelo residual tropical, Suelo laterítico, Contaminación con jabón, Solución jabonosa, Batolito Antioqueño.

1. Introduction The existing studies on soil behavior are extensive. However, the information available on soils that are affected

by anthropic processes is relatively scarce. Generally, it is of special geotechnical interest when the soil mass interacts with substances that can alter its properties. In this paper, the effect of a soap solution is evaluated that is highly likely

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 96-102. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42162


Valencia-González et al / DYNA 82 (189), pp. 96-102. February, 2015.

to be found deposited in the soils of regions that do not possess an appropriate wastewater disposal system. In this study, a series of laboratory tests were performed to compare a residual soil sample from the Antioquia batholith in a natural state, with a sample of the same type that was contaminated with a soap solution. For this purpose, in addition to the classical soil mechanics tests (natural humidity, the specific gravity of solids, granulometry by mesh and hydrometer, consistency limits, the direct consolidated drained (CD) shear strength test), tests that accurately describe the characteristics of the studied soil type soils were performed (miniature compacted tropical (MCT) rapid classification, suction by filter paper, the pinhole test, disaggregation, consolidation, double-edometric assays, X-ray diffraction (XRD), scanning electron microscopy (SEM)).

inherited from the parent rock are observed. This horizon is predominantly sandy and primarily composed of quartz and plagioclases altered to clay minerals. Horizon 4 has a saprolitic soil in which several discontinuities inherited from the parent rock can be observed. These discontinuities are filled with organic matter with a spacing of approximately 5 mm. Finally, in Horizon 5, a sign of the intrusion of the Antioquia batholith over the Amphibolite of Medellín is found, which is described in [5] as “Hangingwall amphibolite assemblages over the Antioquia Batholith”. 3. Method Initially, using the soil samples collected in the study area, both altered (packed in bags) and unaltered (drawer type), the contamination of the material with the soap solution was performed in the Laboratory of Geotechnics and Pavement of the National University of Colombia, Medellín. For this purpose, it was determined that the humidity of the sample after contamination should exhibit approximately the same value as the soil natural humidity (27%-29%). Accordingly, a volumetric analysis was performed, which established the humidity to which the sample had to be decreased (15%) so that 40% of the initial void ratio (e) would be generated (Table 1) and to which the sufficient amount of soap solution in a concentration of 10% was then added to ensure the same initial humidity of the soil after contamination. Once the sample was contaminated with the soap solution, it was carefully sealed so the humidity would remain constant. The described process was performed to control at least one variable in the soil’s behavior. To obtain a proper infiltration of the solution and to facilitate a significant effect on the soil properties, the soap solution was allowed to act on the soil for 10 days before the respective tests were begun. For the case of uncontaminated soil, which facilitated the respective comparisons, the results of the study [6] were used.

2. Study area The study soil is located in the municipality of GuarneAntioquia (6°17´55´´N and 75°24´20´´W). It has a surface of 151 km2 and is located in eastern Antioquia Department on the Medellín-Bogotá highway 25 km from the city of Medellín. The municipal capital is located at approximately 2,150 m.a.s.l. with heights that range from 2,100 to 2,400 m.a.s.l. The average temperature is 19°C, the average relative humidity is 80% and the average annual rainfall is between 1,900 and 2400 mm. In the region, two climatic periods are presented, which correspond to the rainy seasons (April to March and August to November) and the dry seasons (June to July and December to March) [1]. 2.1. General aspects of the geology and geomorphology of the study area In the study area, an igneous-metamorphic core is geologically distinguished, which is located on the east slope of the Cordillera Central and corresponds to the igneous intrusion of the Antioquia batholith in the Medellín Amphibolite. The Antioquia batholith has a granitic composition with compositional variations that range from quartz-diorites to tonalities and with minerals such as, primarily, plagioclase, quartz, hornblende and biotite [2]. The municipality of Guarne is characterized by three geomorphological units associated with the Antioquia batholith: moderated to steep slopes, valleys associated with the La Mosca creek and ridges characteristic of regions of low hills with medium slopes and that are located between the valleys and the mountain units [3].

3.1. Physical characterization • Natural humidity content [7]. • Specific gravity of solids [8]. • Granulometry by mesh and hydrometer, with and without deflocculant [9]. • Consistency limits [10]. • MCT rapid classification [11]. This procedure enables the classification of the study soil using the method proposed by [11].

2.2. Description of the weathering profile 3.2. Mineralogical characterization The weathering profile of the region is described as follows. In Horizon 1, volcanic ash from the Ruíz – Tolima complex is found [4], which is highly weathered. Horizon 2 is primarily sandy loam with a high content of quartz and biotite. In this horizon, because of the characteristics of its location and the horizon’s strong reddish color, soils with signs of lateralization can be expected. Therefore, this study was performed on this horizon. In Horizon 3, no structures

• XRD [12]. • SEM [12]. 3.3. Chemical characterization • Measurement of pH in H2O and KCl [13]. According to [14], as cited by [15], if the 97


Valencia-González et al / DYNA 82 (189), pp. 96-102. February, 2015.

difference between the measured values of pH (KCl) and pH (H2O) is positive, this outcome indicates the predominance of oxides and hydroxides of iron and aluminum in the soil. A negative value is negative indicates the predominance of clay minerals.

e: Void ratio S: Saturation USCS: Unified Soil Classification System MCT: Miniature Compacted Tropical The soap solution influenced the increase in intermediate size pores and the decrease in the proportion of macropores in the soil. However, as shown in the characteristic curve, the void ratio did not change significantly.

3.4. Mechanical characterization • CD shear strength test [16]. • Double edometry [17], [18]. This approach consists of the simultaneous execution of two singleedometric tests, one in natural humidity conditions and the other in saturated conditions, from which two compressibility curves of the soil are generated. Based on the differences between the void ratios, the collapse index is calculated. • Disaggregation. This test aims to examine the stability of an undisturbed soil sample immersed in distilled water, which can be associated with phases of the erosion process [19]. • Pinhole test [20]: This test attempts to simulate the piping effect in the soil [19]. • Suction test by filter paper, mixed trajectory. This test enables the measurement of the matric and the total suction [21].

4.2. Granulometry The results for the natural and the contaminated samples are shown in Figure . It can be observed that the percentages of fines is very similar for both cases, which indicates that the contaminant does not affect the predominant size of the soil particles. However, the granulometry by hydrometer of both specimens was performed with (WD) and without deflocculant (FD) to identify the aggregations present in the soil before and after contamination. The expression used to determine the stability of the aggregates is defined according to [22], as cited by [12]: Total aggregates (TA) = % of clay with deflocculant - % of clay without deflocculant, particles with diameter less than 0.002 mm. The soil sample contaminated with soap presents stronger aggregation than the sample in the natural state (contaminated TA, 12%; natural TA, 4%). However, these aggregations are weaker and more unstable (higher TA indicates less stability, curves with and without deflocculant being more separated).

4. Analysis of results 4.1. Index properties Initially, classification tests were performed following the methods of the Unified Soil Classification System (USCS) and the MCT classification. These tests were performed on the sample in a natural state and after contamination with the soap solution on specimens with a natural humidity content and air-dried samples. Table 1 summarizes some of the index properties. In the case of samples in a humid state, both natural and contaminated, the limits do not vary significantly. Additionally, although in the case of samples in a dry state (0% moisture) the plasticity index decreased, which indicated that the drying process aggregates the particles, the classification of the material is not affected in any of the cases and remains a high-compressibility slime (MH). D: Dry H: Humid LL: Liquid Limit PI: Plasticity Index Wnat: Natural humidity content Gs: Specific Gravity Table 1. Summary of physical properties LL PI wnat SAMPLE (%) (%) (%) D 54 18 Natural 28 H 58 20 D 51 7 Soap 27 H 54 17 Source: The authors

Gs

e

S (%)

USCS

MCT

2.8

1.2

68

MH

LA'-LG'

2.8

1

73

MH

LA'-LG'

4.3. MCT rapid classification

% Passing

The MCT classification is a method primarily developed for tropical soils that enables the to be sorted into two main groups: lateritic (L) and non-lateritic soils (N) [11]. Additionally, these groups are divided into subgroups according to their granulometric characteristics.

Particle size (mm) Figure 1. Granulometric curve of the soil Source: The authors 98


Valencia-González et al / DYNA 82 (189), pp. 96-102. February, 2015.

The test was performed on the soil in the natural state and the soil contaminated with soap solution and determined that the soil under both conditions presents the characteristics of a tropical soil of subgroups LA’ – LG’. Considering the intrinsic characteristics of these soils, there is a direct relationship to the characteristics of the study area, specifically for the case of LG’, which presents soils of reddish color, with organic matter at the superficial level and the presence of sesquioxides. In addition, the soils are resistant to hydraulic erosion when properly compacted. However, in the natural state, they can collapse by immersion in water [11] and are susceptible to superficial erosion when unprotected. In addition, the relation between previous results and those obtained using the USCS classification, in which an MH soil was obtained [11], could be verified. The results obtained in the present test are not decisive in themselves and must be complemented with other tests, such as pH measurement, suction, SEM and XRD, which enable establishing if the soil is lateritic or under laterization process. When these results are compared with those obtained for the natural sample, it is observed that the contamination of the soil did not affect the MCT classification because it did not present any variation in the results.

observed in the double edometric test. Counts Quartz Silicate Gibbsite Calcium Sodium Aluminum Kaolinite

2 Theta (Copper (Cu)) a. Natural soil XRD Counts Gibbsite Quartz

Kaolinite Biotite

Hematite

4.4. Mineralogical and structural analysis of the soil 4.4.1. X-ray diffraction (XRD)

b.

2 Theta (Copper (Cu)) Soil contaminated with soap XRD

Figure 2. XRD results Source: The authors

Based on the XRD test results (Error! Reference source not found.2), in the analyzed soil (in the natural state and contaminated with soap), there is a predominance of primary minerals (quartz, plagioclase, biotite). Additionally, as product of the alteration of these soils, clay minerals (primarily kaolinites) appear. The presence of iron and aluminum sesquioxides (gibbsite and hematite in a smaller proportion) was also observed. Regarding the proportions between the sesquioxides and clay minerals, the first are low, which enables the inference that the soil is under an initial laterization process. As expected, the mineralogy of the two samples did not vary (the differences found are the result of the sampling and the heterogeneity of the soil). The time of exposure to the contaminant was too short to produce a mineralogical change in the soil.

a.

Natural soil

4.4.2. Scanning Electron Microscopy (SEM) From this test, images were obtained in which the structural arrangement of the soil controlled by its mineralogy can be observed (Fig. 3). In the case of the natural soil (Fig. 3a), a homogeneous and more compact structure can be observed with laminar minerals that possibly conform to the presence of minerals from the micas group (biotite). Fig. 3b shows a more dispersed structure of the soil grains, with a greater presence of medium size pores and micropores (as it will be observed in the characteristic curve). The difference between the two images can be associated with the alteration caused by the soap solution in the soil, which generated agglomeration between the grains. The agglomeration is unstable, as can be

b.

Soil contaminated with soap solution

Figure 3. SEM a. Natural soil b. Soil contaminated with soap (×500 magnification) Source: The authors 99


Valencia-González et al / DYNA 82 (189), pp. 96-102. February, 2015.

Figs. 3a and 3b show small accumulations of material that can possibly correspond to aggregations caused by iron (Fe) or aluminum (Al) oxides and hydroxides. These aggregations could indicate the presence of minerals produced by the initial laterization in the soil of the study slope. This indication is corroborated by the XRD analysis and with the classification obtained by the MCT test.

Table 2. Shear Strength parameters Natural sample Moisture c (kPa) Unsaturated 29.0 Saturated 3.0 Source: The authors

4.5. pH determination

The shear strength parameters obtained in the present test resemble the typical values of cohesion (c) and friction angle (φ) of the soils from the Antioquia batholith [24]. In addition, the data shown in Fig.e 4 and Table 2 demonstrate that the more significant changes in the shear strength parameters of the soil depend primarily on its saturation condition and to a lesser extent on whether the soil is natural or contaminated. Regarding the presence or absence of the contaminant, it can be observed that the variation in the resistance is minimal. That is, the cohesion and the friction angle are not significantly influenced by the action of the soap solution. In addition, the previous results are associated with the characteristic curve, in which for natural humidity the suction value in both samples is similar (Natural, 800 kPa; Contaminated, 1100 kPa). This outcome is reflected in the similarity of the shear strength parameters. For the saturated case, the suction in both cases decreases considerably, which affects those parameters.

Negative ΔpH values were obtained (-2.63 for the natural soil and -1.72 for the soil altered by the soap), which indicates the predominance of clay minerals [15] without emphasizing the presence of iron and aluminum sesquioxides, as was observed in the XRD test. Regarding the sample altered with soap, the soap solution increases the soil acidity. Because the ΔpH remained negative, it was concluded that the time in which the soap solution was left to act was too short to expect a change in the soil mineralogy. According to [23] and [15], in lateritic tropical residual soils, the acidity is associated with the presence of sesquioxides in large proportions, which produces aggregations between the particles and affects the structural distribution of the voids, regardless whether they are cemented by oxides or hydroxides of iron (Fe) and aluminum (Al). In this case, because the soil contaminated with soap solution presented on average an acidity increase (from 6.8 in the natural state to 5.7 when contaminated), the observed agglomerations (SEM, granulometry) and the presence of medium-size pores in the characteristic curve can be associated with this change in the soil’s pH. 4.6. Consolidated drained (CD) shear strength test The primary objective of this test is to determine the soil shear strength parameters. A CD shear test was performed. The behavior obtained is presented in Fig. 4. Table 2 shows the shear strength parameters that correspond to the failure envelopes represented in the previous figure. 110

Contaminated sample Moisture c (kPa) φ (°) Unsaturated 32.0 29.0 Saturated 1.0 30.0

4.7. Double edometric test This test enables the determination of the collapse index, which is obtained after performing the test in saturated and unsaturated conditions. In this case, this test is developed for specimens in natural conditions and for specimens contaminated with a soap solution (Fig.e 5). From the analysis of Fig.e 5 and the estimation of the collapse indexes by the method proposed by [25], the addition of the contaminating agent can activate the collapse potential of the soil. This statement is supported by comparing the values of the collapse index, which for the natural sample are below 3.0% (thus classifies as a moderately collapsible soil) and for the contaminated sample are above 5.0% for the last two load increments (400 and 800 kPa) (which groups the soil with problematic collapsible soils).

Nat-NS Nat – No Saturated Nat-S Nat – Saturated Jab-S Soap – Saturated Jab-NS Soap – No Saturated

100 90

Shear stress (KPa) τ [KPa]

φ (°) 29.0 30.0

80 70 60 50 40 30 20 10 0 0

10

20

30

40

50

60

70

80

90

100 110 120 130

[kPa] (KPa) Normal σstress

Figure 4. Shear strength of the natural sample and the sample contaminated with soap solution. τ (Shear strength) and σ (Normal load) Source: The authors

Figure 5. Result of the double-edometric test Source: The authors

100


Valencia-GonzĂĄlez et al / DYNA 82 (189), pp. 96-102. February, 2015.

4.8. Erodibility test During the visit to the study site, a series of erosion events that affected the soil were observed. These processes are superficial (grooves), which requires the performance of a series of tests that would allow establishing the degree of erodibility that the soil can present (disaggregation and the pinhole test). The erodibility can be defined as the soil’s capacity to resist erosion and depends not only on the soil’s intrinsic characteristics (e.g., mineralogy, texture, structure) but also factors such as wetting and drying cycles and the chemical composition of the water that affects the soil [19]. 4.8.1. Breakdown

Figure 7. Pinhole test (natural sample and sample with soap). Source: The authors

The description of the soil responses for the breakdown test can be found in [19]. At the beginning of the test, for both samples, an immediate dispersion effect was observed, which can be associated with the difference in pressure that is generated in the interior of the sample when the water tries to enter a medium that contains soap solution. A second effect was a slight fracturing in the upper face of the soil cube, which can be associated with the osmotic expansion process generated by a chemical effect of the soap solution in the interior of the sample. Finally, the process that characterized the test in both samples was the depletion indicated by the high degree of disintegration suffered by the samples (Fig. 6). This disintegration occurred because the aggregations or bonds formed by the soap solution were rapidly diluted when contact with the water was made. During the test, it was not necessary to complete the 24-hour observation period. The disaggregation effect was immediate for both samples. 4.8.1. Pinhole Test Based on Fig.e 7, the natural soil does not present internal erodibility because the load and unload intervals exhibit a linear behavior. In the sample altered with the soap solution, a marked difference was observed between the loading and

Figure 8. Characteristic curves of the natural soil and the soil contaminated with soap (matric and total suction) Source: The authors

unloading intervals. In this case, the observed phenomenon was associated with detached particles caused by the flow of water and the subsequent plugging of the hole of these particles (unload interval below the load interval). 4.9. Characteristic curve

A1. Partial immersion

A2. Total immersion

The results are presented in Fig.e 8. The curve that corresponds to the natural soil (matric suction) presents a soft slope, which is characteristic of a soil with homogenous structure, in agreement with the SEM analysis. In the curve that corresponds to the matric suction of the soil contaminated with soap, the presence of intermediate-size pores is observed (which were not so markedly present in the natural soil), as could be observed using SEM. The presence of intermediatesize pores can be explained by the agglomeration produced by the effect of the soap solution on the soil. Regarding the total suction, generally, the suction values in the sample contaminated with soap are greater than the values for the natural sample, which is evidence of the osmotic effect produced by the soap solution because of the chemical components that are added to the medium.

B1. Partial immersion

B2. Total immersion

5. Conclusions

Figure 6. Breakdown test process. a. soil with soap b. Natural soil Source: The authors

The presence of a substance such as a soap solution in the soil is common in regions that lack sewerage systems. 101


Valencia-González et al / DYNA 82 (189), pp. 96-102. February, 2015.

Understanding the alterations caused by the percolation of these contaminating agents is important to improving the design of mitigation and improvement works and to determining areas a risk of disaster because they are exposed to such conditions. Therefore, by studying in detail the results of the tests performed on samples in natural and contaminated states, is possible to describe the following tendencies: the physical characterization does not present significant changes, except for the granulometric analysis, in which unstable aggregations caused by the binding action of the soap are observed. The soil contaminated shows a more dispersed structure of the soil grains, with a greater presence of medium size pores and micropores. The difference between the two samples (natural and contaminated states) can be associated with the alteration caused by the soap solution in the soil, which generated agglomeration between the grains. The agglomeration is unstable, as can be observed in the double edometric test. The presence of the soapy substance influenced the hydromechanical behavior of the soil because with respect to soil deformability the collapse phenomenon becomes critical: the soil passes from a problematic to a severe state. In addition, when evaluating the soil erodibility, both superficial and internal, deformability becomes a critical condition. The composition of the fluid present in the interstices of a residual soil is decisive when estimating the geotechnical behavior, which occasionally cannot be fully appreciated using the classical methods of soil mechanics. Therefore, it is necessary to consider more specific tests that correspond to the properties that are induced in the soil mass by the presence of certain clay minerals and sesquioxides, which can easily be found at regional level from the weathering of the igneous rocks of the Antioquia batholith. Finally, it should be noted that this study is a preliminary geotechnical analysis of a soil that has to be affected by a contaminant such as soap. However, research should be further into issues such as the use of other types of soil, another kind of soap, different concentrations and amounts of soap, and the time of exposure to the contaminant. This will allow to perform a statistical analysis of the data and determine a general trend of the effect of a soil contaminated with a soapy substance, to propose the recovery of these soils [26]. References [1]

[2] [3]

[4]

[5] [6]

[7]

CONARE, Capacitación, planificación y formulación del plan de ordenamiento y manejo de la cuenca La Honda del Municipio de Guarne, Rionegro, 2010. Fernández, F. y Santa, N., Estudio general de suelos del Oriente Antioqueño, Bogotá, 1964. Colombia. Acuerdo número 061/2000, de 30 junio. Plan básico de ordenamiento territorial para el municipio de Guarne. 11 de junio de 2000, 185 P. Hermelin, M., Los suelos del oriente antioqueño un recurso no renovable, Bulletin de l'Institut Français d'Etudes Andines, 21 (1), pp. 25-36, 1992. Botero, G., Contribución al conocimiento de la petrografía del Batolito Antioqueño, Revista Minería, XX, pp. 9318,9330, 1942. Cano, Katherin. et al., Estudio geotécnico de una suelo tropical para determinar su estado de meteorización y su efecto en las propiedades mecánicas. Revista Facultad de Ciencias Universidad Nacional, Sede Medellín, pp.70-83, 2014. ASTM, Standard test methods for laboratory determination of water (moisture) content of soil and rock by mass. D 2216-10. United States of America, 2010.

[8]

ASTM, Standard test methods for specific gravity of soil solids by water pycnometer. D 854-10. United States of America, 2010. [9] ASTM, Standard test method for dispersive characteristics of clay soil by double hydrometer. D4211-11. United States of America, 2011. [10] ASTM, Standard test methods for liquid limit, plastic limit, and plasticity index of soils. D 4318-10. United States of America, 2010. [11] Nogami, J. and Villibor, D., Pavimentacao de baixo custo com solos lateríticos, Editora Villibor, Brasil, 1995. [12] Valencia, Y., Influencia da biomineralização nas propriedades físico mecânicas de um perfil de solo tropical afetado por processos erosivos, PhD Thesis, Universidad de Brasilia, Brasilia, Brasil, 2009. [13] ASTM, Standart test method for pH of soils. D 4972-01. United States of America, 2001. [14] Kiehl, E.J,. Manual de Edafologia: Relacoes Solo-Planta, 1st ed, Sao Paulo, Brasil: Editora Agronomica - Ceres Ltda, 1979. [15] Lima, M.C., Degradacao Físico-Química e Mineralógica de Macicos Junto ás Vocorocas, PhD Thesis, Universidade de Brasília, Brasília, Brasil, 2003. [16] ASTM, Standard test methods for direct shear test of soils under consolidated drained conditions. D 3080-04. United States of America, 2004. [17] ASTM, Standard test method for measurement of collapse potencial of soils. D 5333-92 (Reapproved 1996). United States of America, 1996. [18] ASTM, Standard test methods for one-dimensional consolidation properties of soils using incremental loading. D 4235-11. United States of America, 2011. [19] Camapun de Carvallo, J., Processos Erosivos no Centro- Oestre Brasileiro, Editora FINATEC, Brasil, 2006, 499 P. [20] ASTM, Standard test methods for identification and classification of dispersive clay soils by the pinhole test. D 4647-13, United States of America, 2013. [21] Fredlund, D.G. and Rahadjo, H., Soil mechanics for unsaturated soils, Wiley-Interscience, New York, 1993. http://dx.doi.org/10.1002/9780470172759 [22] Araki, M., Aspectos relativos as propriedades dos solos porosos colapsiveis do Distrito Federal, University of Brasília, College of Technology, 1997. [23] Da Fonseca Cardoso, F.B., Analise química, mineralógica e micromorfológica de solos tropicais colapsíveis e o estudo da dinámica do colapso, MSc Thesis, Universidade de Brasilia, Brasilia, Brasil, 1995. [24] Escobar, L. and Valencia, Y., Análisis de estabilidad y probabilidad de falla de dos taludes de suelo tropical en la autopista Medellín-Bogotá en el tramo de vía entre Marinilla y Santuario. Boletín de Ciencias de la Tierra, 31, pp. 51-64, 2012. [25] Conference for África on soils mechanics and foundation engineering (VI, 1975, Durban). A guide to construction on or with materials exhibiting additional settlement due to "Collapse" of grain structure, Durban, Sudáfrica, 1975, pp. 99-105. [26] Gómez, W., Gaviria, J. and Cardona, S., Evaluación de la bioestimulación frente a la atenuación natural y la bioaumentación en un suelo contaminado con una mezcla de gasolina - diesel. DYNA, 76 (160), pp. 83-93, 2009. Y. Valencia-Gonzalez, received the BS. in Civil Engineering in 2001, the MSc. in Civil Engineering-Geotechnical in 2005, both from Universidad Nacional de Colombia, campus Medellin, Colombia. In 2009 received the Dr. in geotechnical follow by a year as postdoctoral fellow, all of them in the University of Brasilia, Brasil. Currently, she is a full professor in the Civil Engineering department of the Universidad Nacional de Colombia, campus Medellin, Colombia. Her research interest includes: tropical soils, biotechnology, foundations and vibration control. O. Echeverri-Ramirez, received the BS. in Civil Engineering in 1980, the MSc. in Civil Engineering-Geotechnical in 2005, both from Universidad Nacional de Colombia, campus Medellin, Colombia. Currently, he is a full professor in the Civil Engineering department of the Universidad Nacional de Colombia, campus Medellin, Colombia. His research interest includes: geotecnia tropical environments, biotechnology and slope stability.

102


Elastoplastic behavior of longitudinally stiffened girder webs subjected to patch loading and bending Carlos Graciano a, Euro Casanova b & David G. Zapata-Medina c b

a Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia. cagracianog@unal.edu.co División de Ciencias Físicas y Matemáticas, Universidad Simón Bolívar, Caracas, Venezuela. ecasanov@usb.ve a Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia. dgzapata@unal.edu.co

Received: February 20th, 2014. Received in revised form: September 8th, 2014. Accepted: September 16th, 2014.

Abstract This paper is aimed at studying the elastoplastic behavior of longitudinally stiffened girder webs subjected to patch loading and bending. The investigation is carried out by means of nonlinear finite element analysis to study the structural behavior of the girder components (flanges, web and stiffener) at ultimate limit state. Initial geometrical imperfections, plastic material behavior and large deflection effects are considered in the model. For the numerical model validation, the computer results from the simulations are compared with experimental results taken from the literature. A parametric study was carried out in order to investigate the influence of the applied bending moment and the relative location of the stiffener on the ultimate strength to patch loading. Keywords: girders; structural stability; nonlinear finite elements; patch loading; bending; longitudinal stiffeners.

Comportamiento elastoplástico de vigas rigidizadas longitudinalmente sometidas a carga concentrada y momento flector Resumen Este artículo está enfocado en estudiar el comportamiento elastoplástico de vigas rigidizadas longitudinalmente en el alma y sujetas a combinaciones de carga concentrada y momento flector. La investigación se realiza mediante un análisis de elementos finitos no lineal para estudiar el comportamiento estructural de los diferentes componentes de la viga (aletas, alma y rigidizador) bajo el estado límite de carga. El modelo considera los efectos de imperfecciones geométricas iniciales, comportamiento plástico del material y grandes deflexiones. La validación del modelo numérico se hace mediante comparación directa de los resultados numéricos con valores experimentales disponibles en la literatura técnica. Finalmente, se realiza un estudio paramétrico con el objeto de investigar la influencia del momento flector y la localización del rigidizador en la resistencia última de la viga bajo cargas concentradas. Palabras clave: vigas; estabilidad estructural; elementos finitos no lineales; carga concentrada; momento flector; rigidizadores longitudinales.

1. Introduction In current practice, longitudinal stiffeners are primarily introduced in bridge girder webs in order to increase the resistance to shear and/or bending. For these two load types, the influence of longitudinal stiffeners has been extensively investigated and included in design codes. In order to account for the interaction between patch loading and bending moments, the formulae available for unstiffened webs are often used for longitudinally stiffened girder webs. Regarding the behavior of longitudinally stiffened girder

webs subjected to combined patch loading and bending only a small number of tests results is available [1-4]. [1] showed an increase of 34% in the resistance of stiffened webs with respect to unstiffened girders. [3] demonstrated that by using closed section stiffener the increase in ultimate strength can be of 40%. Similar results were observed by [4]. Regarding the use of multiple stiffeners, [2, 4 and 5] showed that the use of two stiffeners placed close to the loaded flange leads to an increase in patch loading resistance. Finite element simulations have also been used to gain more knowledge in this field [4, 6-11]. In particular, the

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 103-109. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42222


Graciano et al / DYNA 82 (189), pp. 103-109. February, 2015.

experiments performed recently by [4] were aimed at investigating the influence of the patch loading length. The results from that investigation showed that current formulae used for longitudinally stiffened girders underestimate the patch loading resistance when the patch load length is large. In a similar manner, [9] investigated by mean of finite element analysis the influence of girder depth and patch load length. Once again, the results showed an underestimation of the patch loading resistance when using the current formulae available in the literature [12]. A large amount of the research previously mentioned herein has been aimed at studying the influence of the following parameters: 1) presence of global bending (ratio between the applied bending moment and the bending resistance M/MR); 2) presence of a longitudinal stiffener (unstiffened versus stiffened); 3) position of a longitudinal stiffener (b1/hw); and 4) number of longitudinal stiffeners. The main conclusion of the aforementioned research works is that the presence of global bending reduces the ultimate strength of the webs under patch loading. As evaluated by Graciano and Casanova [8], general recommendations to estimate the reduction in patch loading resistance due to the presence of global bending for longitudinally stiffened girders have been presented in terms of interaction equations. However, the reasons that lead to this reduction are not well understood. It may be explained by studying the elastoplastic behavior of the girder components by means of three variables: 1) the nonlinear load-displacement response, 2) an interaction surface response, and 3) the plastic strain distribution. In this paper, the girder components are modelled accounting for elastoplastic material behavior and geometrical nonlinearities, such as large displacement and initial shape imperfections. The results obtained from the FEM simulations are validated against results from full-scale laboratory experiments. Subsequently, a parametric study was conducted in order to investigate the influence of the relative position of the stiffener and the magnitude of the applied bending moment on the ultimate resistance to patch loading.

This element accounts for finite strain and is suitable for large strain analysis as well as for complex buckling behavior. For the validation and corresponding parametric analysis, two girders, namely VT08 and VT10, tested experimentally [3] were used in the numerical analysis. Fig. 1 show the nomenclature used in the analysis, the subindexes w and f refer to web and flange, respectively. For Girder VT08 the dimensions were: a =2480 mm; hw = 1000 mm, tf = 8.35 mm; bf = 150 mm, c = 240 mm, b1 = 200 mm; and the yield strengths for the web and flanges are fyw = 358 MPa and fyf = 328 MPa. For Girder VT10 the dimensions were basically the same, except for b1 = 150 mm; and the material properties fyw = 380 MPa and fyf = 275 MPa. When modeling the plate materials (flange, web and stiffener), these were assumed to have a perfectly plastic behavior. The Young’s modulus was set to 210 GPa and Poisson’s ratio was set to 0.3. Initially, the FEM model was performed considering only the patch loading case, thereafter, the combined action of patch loading and bending were considered. Due to the symmetry in the geometry, loads and boundary conditions, just one half of each plate girder was modelled as shown in Fig. 2. Transverse stiffeners at the end of the plate girder were modelled by means of rigid body kinematic constraints of the degrees of freedom located in the corresponding side. [14] showed that this modeling assumption is only valid for small loading lengths (i.e., c/a < 0.25). The initial imperfections were introduced as sine waves in both the longitudinal and transverse directions, with a maximum amplitude wo = 7 mm, in agreement with experimentally measured values reported by [3]. Out-of-plumbness geometric imperfections [15-16] have not been included in this analysis.

2. Nonlinear finite element model The nonlinear computations were performed using the finite element program ANSYS [13]. Shell elements S181 from the ANSYS element library were used to model the web, flanges (top and bottom) and the longitudinal stiffener.

Figure 1. Stiffened plate girder under patch loading and bending. Source: The authors.

Figure 2. FEM model for girders VT08 and VT10. Source: The authors. 104


Graciano et al / DYNA 82 (189), pp. 103-109. February, 2015. Table 1. Comparison of experimental and computed values using FEM for patch loading (FR) and bending (MR) resistances. Girder

FR-Exp [kN]

VT08-4 199 VT08-5/6 232 VT08-8 VT10-4 161 VT10-5/6 281 Source: The authors.

FR-FEM [kN]

MR-Exp [kN.m]

MR-FEM [kN.m]

207 254 181 308

533 634 655 -

574 736 736 -

The patch load was transferred into the girder by loading all the nodes located in the web axis along the loading length c/2 with an equal value force. Displacement constraints were applied to the loaded nodes in the out-ofplane direction in function of a master node and all rotations were restrained. This master node was then displacement controlled in the FE analysis. The nonlinear path of the load-deflection curve was traced using the modified Riks method [17]. A convergence analysis was conducted using the ultimate resistance as parameter to calibrate the model, hence a mesh with 1620 elements was chosen (see Fig. 2). It is important to mention that the size of the elements was further reduced in the areas were the stress gradient was expected to changed. Table 1 shows a comparison between experimental and numerical results for girders VT08 and VT10. Moreover, it can be seen that the difference in patch loading and bending resistance from the FEM simulations is within 12 % of the experimentally measured values. It is worth quoting that the bending resistance in this paper is calculated using FEM simulations of the plate girder subjected to only bending. 3. Parametric analysis In the previous section the FEM model was validated, and both the patch loading and bending resistances for girders VT08 and VT10 were computed numerically. In this section a parametric analysis is performed to study the influence on the nonlinear load-displacement response of the relative position of the stiffener (b1/hw), and the magnitude of the applied bending moment (M/MR). 3.1. Influence of the stiffener position (b1/hw) The relative location of the stiffener was varied from 0.05 hw to 0.3 hw for girders VT08 and VT10. For each location the magnitude of the applied bending moment was also varied. The nonlinear load-displacement responses of the girders are shown in Figs. 3 and 4. Note that the maximum difference in the load-deflection curve of the girders for the various stiffener locations is reached at the ultimate load-state. Also, at the beginning of loading, the slope of the curves is quite similar. When the stiffener is placed at b1/hw = 0.05 (Figs. 3a and 4a) the curves are almost flat in the post-peak range for all the girders.

For the remaining stiffener locations (0.10 ≤ b1/hw ≤ 0.30), once the ultimate strength is achieved, the curves seem to follow a very similar path, especially in the range 0.19 ≤ M/MR ≤ 0.76. After this point the drop in the descending branch becomes sharper. In addition, for the stiffeners placed in this range the drop in the load becomes sharper when the distance b1 from the loaded flange increases. This is due to an increase in the sensitivity toward the initial imperfections; i.e. the larger the subpanel formed between the loaded flange and the stiffener, the greater the influence of the amplitude of the initial imperfections. In general, for values of bending moment of M/MR ≥ 0.76 the curves are very flat in the post-ultimate range (Figs. 3 and 4), this behavior is characteristic of plate girder webs subjected to predominant bending. Table 2 gives a summary of the numerical results of the patch loading resistance (FR) and bending resistance (MR) for the various locations of the stiffener. For girders VT08 and VT10 the optimum position to increase the patch loading resistance is at b1/hw = 0.10. For these girders is important to notice that the ratio between the patch load length and the girder width (c/a) is equal to 0.1. A wider length makes the buckle under the loaded flange larger and consequently the crippling area also increases. 3.2 Magnitude of the applied bending moment (M/MR)

The magnitude of the applied bending moment M was varied from 0.19 MR to 0.9 MR. Interaction curves for Girders VT08 and VT10 subjected to combined patch load and bending moment are shown in Fig. 5 for all the stiffener locations. After analyzing these two figures, the following conclusions can be drawn: a stiffener placed at b1/hw = 0.20 is better to improve the patch loading resistance in the presence of global bending in the range M/MR ≤ 0.60 approximately. This position corresponds also to the optimum of a longitudinal stiffener to increase the critical buckling load for girders subjected to bending [18]. For larger values of bending the best location is at b1/hw = 0.05. For this position, the stiffener is so close to the loaded flange that acts as a very stiff flange composed of the flange itself, the stiffener and the corresponding subpanel. Table 2. Patch loading (FR) and bending (MR) resistances for the girders. Girder

b1/hw

FR [kN]

MR [kN.m]

VT08-4

0.05 0.10 0.15 0.20 0.25 0.30 0.05 0.10 0.15 0.20 0.25 0.30

243 282 268 245 232 229 263 295 293 267 257 252

707 732 753 736 729 673 765 805 838 836 796 775

VT10-4

Source: The authors

105


Graciano et al / DYNA 82 (189), pp. 103-109. February, 2015.

Figure 3. Load-deflection curves for girder VT08-4 for various stiffener locations (b1/hw). Source: The authors.

Figure 4. Load-deflection curves for girder VT10-4 for various stiffener locations (b1/hw). Source: The authors.

106


Graciano et al / DYNA 82 (189), pp. 103-109. February, 2015.

more uniform with respect to the neutral axis of the girder, which represents a typical feature of girder subjected to pure bending. In Fig. 9, the maximum stress occurs beneath the loaded flange for both cases of bending. The increase in longitudinal stresses due to bending is greater in the web than in the flange as observed in Figs. 6 and 8.

Figure 5. Interaction curves for (a) Girder VT08-4 and (b) Girder VT10-4. Source: The authors Figure 6. Plots for longitudinal stress distributions for Girder VT08 (flange and stiffener) at ultimate load level. Source: The authors

4. Numerical results 4.1. Structural behavior of the girder components The structural behavior of the girder components can be better understood by analyzing the contour plots of stress distribution (von Mises and longitudinal stresses) and plastic strain distribution. The following figures show von Mises stress, longitudinal stress and plastic strain distributions for girders VT08 and VT10 used for the parametric analysis. These plots are calculated for two bending moments (M/MR = 0.20 and M/MR = 0.70). Fig. 6 shows the longitudinal stress distribution for the flange and stiffener of girder VT08 at ultimate load state at two different levels of bending, 20% and 70% of the moment resistance MR.(0.2MR and 0.7MR, respectively). As seen in this figure, the maximum compressive stress in the loaded flange increases of 18%, after increasing the magnitude of the applied bending moment. A greater increase is observed in minimum stress from 1.95 MPa to 75.56 MPa. Additionally, the stress distribution is more uniform for the larger bending moment. A similar situation is observed in Fig. 7 for the von Mises stress distribution. In order to investigate the behavior of the web of girder VT08, Figs. 8 and 9 show the plots for longitudinal stress and von Mises stress distributions, respectively. In Fig. 8, once again the increase in the compressive stresses in the web beneath the patch load is very large (51%). When the bending moment increases the stress distribution becomes

Figure 7. Plots for von Mises stresses for flange and stiffener of Girder VT08 at ultimate load level. Source: The authors

107


Graciano et al / DYNA 82 (189), pp. 103-109. February, 2015.

Figure 8. Plot for longitudinal stresses for the web of Girder VT08 at ultimate load level. Source: The authors

Figure 9. Plots of von Mises stresses for web of Girder VT08 at ultimate load level. Source: The authors

Fig. 10 shows the plastic strain distribution for the full girder VT08. It is interesting to observe that for the lower bending moment a yield line appears only in the web (Fig. 10a). For the larger bending moment (Fig. 10b), the yield lines are fully developed in the web, and also plastic hinges can be observed in the compression flange. A similar behavior was observed for girder VT10. However, the magnitude of the increase in longitudinal and von Mises stresses was smaller than for girder VT08. The flange of the former (tf =12mm) is larger than for the latter (tf =8mm). Consequently, girder VT10 is able to withstand effectively the stresses produced by bending. Fig. 10 shows the plastic strain distribution for girder VT08 at ultimate load level. For small bending moments (0.2MR), the yield lines appear only in the web plate (Fig. 10a) in the directly loaded subpanel. By increasing the applied bending moment (0.7M R ) the plate girder undergoes a larger plastic deformation, especially in the loaded flange, due mainly to the enhancement in longitudinal stresses over the compression flange. As seen in Fig. 10b, a plastic collapse mechanism is fully

developed in the whole plate girder, i.e. presence of plastic hinges in the loaded flange and yield lines on the web. 5. Conclusions The elastoplastic behavior of longitudinally stiffened girder webs under patch loading and bending was studied herein by means of the finite element method. The results show that an increase of the applied bending moment causes an increase in the magnitude of the longitudinal stresses in the girder components (loaded flange, web and even the stiffener). This increase in the longitudinal stresses leads to a reduction in the patch loading resistance. In the web the stress distribution becomes more uniform in the presence of bending. It was demonstrated that, for large bending moments the best location to increase patch loading resistance of the stiffener is within b1/hw =0.20 and b1/hw =0.25, which also corresponds to the optimum position of a longitudinal stiffener to increase the critical buckling load.

108


Graciano et al / DYNA 82 (189), pp. 103-109. February, 2015. [9] [10] [11]

[12]

[13] [14]

[15] [16] [17]

[18]

Figure 10. Plastic strain for Girder VT08 at ultimate load level. Source: The authors

References [1]

[2]

[3] [4] [5]

[6] [7]

[8]

Galea, Y., Godart, B., Radouant, I. and Raoul, J., Test of buckling of panels subject to in-plane patch loading, Proceedings of the ECCS Colloquium on Stability of Plate and Shell Structures, Ghent University, pp. 65-71, 1987. Shimizu, S. Belgium,, Yoshida, S. and Okuhara, H., An experimental study on patch loaded web plates, Proceedings of the ECCS Colloquium on Stability of Plate and Shell Structures, Ghent University, Belgium, pp. 85-94, 1987. Dubas, P. and Tschamper, H., Stabilité des âmes soumises à une charge concentrée et à une flexion globale. Construction Métallique, 2, pp. 25-39, 1990. Kuhlmann, U. and Seitz, M., Longitudinally stiffened girder webs subjected to patch loading, Proceedings of Steel Bridge - An International Symposium on Steel Bridges, Millau, France, 2004. Benedetti, A. and Dall'Aglio, F., Patch loading of longitudinally stiffened webs. Bridge maintenance, safety, management, resilience and sustainability: Proceedings of the Sixth International IABMAS Conference, Stresa, Lake Maggiore, Italy, pp. 1039-1046, 2012. Shimizu, S., The collapse behaviour of web plates on the launching shoe. Journal of Constructional Steel Research, 31 (1), pp. 59-72, 1994. http://dx.doi.org/10.1016/0143-974X(94)90023-X Dogaki, M., Nishijima, Y. and Yonezawa, H., Nonlinear behaviour of longitudinally stiffened webs in combined patch loading and bending, Proceedings of Constructional Steel Design, World Developments, pp. 141-150, 1992. Graciano, C. and Casanova, E., Ultimate strength of longitudinally stiffened I-girder webs subjected to combined patch loading and bending. Journal of Constructional Steel Research, vol. 61(1), pp. 93-111, 2005. http://dx.doi.org/10.1016/j.jcsr.2004.07.006

Davaine, L., Raoul, J. and Aribert, J.M., Patch load resistance of longitudinally stiffened bridge girders, Proceedings of Steel Bridge An International Symposium on Steel Bridges, Millau, France, 2004. Seitz, M., Tragverhalten langsversteifter Blechtrager unter quergerichteter Krafteinleitung, Ph.D. Thesis dissertation, Stuttgart University, Stuttgart, Germany, 2005. Braun, B. and Kuhlmann, U., The interaction behaviour of steel plates under transverse loading, bending moment and shear force, Proceedings of SDSS Rio 2010: International Colloquium Stability and Ductility of Steel Structures, Rio de Janeiro; Brazil, 2, pp. 731738, 2010. Graciano, C., Strength of longitudinally stiffened webs subjected to concentrated loading. Journal of Structural Engineering, 131 (2), pp. 268-278, 2005. http://dx.doi.org/10.1061/(ASCE)07339445(2005)131:2(268) ANSYS, Inc. Elements Reference. Release 12.1. Canonsburg, USA. 2009. pp. 1688. Graciano, C., Mendez, J. and Zapata-Medina, D., Influence of the boundary conditions on FE-modeling of longitudinally stiff-ened Igirders subjected to concentrated loads. Rev. Fac. Ing. Univ. Antioquia, 71, pp. 221-229, 2014. Aristizabal-Ochoa, J., Induced moments and lateral deflections in columns with initial imperfections and semirigid connections: I. Theory. DYNA, 79 (172), pp. 7-17, 2012 Aristizabal-Ochoa, J., Induced moments and lateral deflections in columns with initial imperfections and semirigid connections: II. Verification and examples. DYNA, vol. 79 (172), pp. 18-28, 2012 Riks, E., An incremental approach to the solution of snapping and buckling problems. International Journal of Solids and Structures, vol. 15(7), pp. 529-551, 1979. http://dx.doi.org/10.1016/00207683(79)90081-7 Rockey K.C. and Leggett, D.M.A., The buckling of a plate girder web under pure bending when reinforced by a single longitudinal stiffener. ICE Proceedings, 21 (1), pp. 161-188, 1962.

C. Graciano, received Bs. in 1992 and MSc. in 1995, both in Mechanical Engineering from the Simon Bolivar University, Venezuela. He later moved to Sweden where he obtained a Licentiate of Engineering in 2001 and a PhD. in 2002 in Structural Engineering from Chalmers University of Technology and Luleå University of Technology, Sweden, respectively. From 1997 to 2013, he served as Assistant, Associate and Full Professor in the Mechanical Engineering Department at the Simon Bolivar University, Venezuela. Currently, he is an Associate Professor in the Civil Engineering Department in the Facultad de Minas at the Universidad Nacional de Colombia, Medellin campus, Colombia. His research interests include: finite element modeling, structural stability, piping stress analysis and crashworthiness among others. E. Casanova, received BS. in 1990 and MS. in 1996, both in Mechanical Engineering from the Simon Bolivar University, Venezuela. He later moved to France where he obtained a PhD in 2002 in Numerical modeling in Mechanical Engineering from Université de Technologie de Compiègne, France. Currently, he is an Associate Professor in the Mechanical Engineering Department at the Simon Bolivar University, Venezuela. His research interests include the study of the influence of uncertainties (i.e., material properties, geometry, boundary conditions, etc.) on the numerical modeling of different mechanical systems. D.G. Zapata-Medina, received a BS. in 2004 in Civil Engineering from the Universidad Nacional de Colombia, Medellin campus, Colombia, a MSc. in 2007 in Geotechnical Engineering from the University of Kentucky, USA and a PhD. in 2012 in Geotechnics from Northwestern University, USA. Currently, he is an Assistant Professor in the Civil Engineering Department, in the Facultad de Minas at the Universidad Nacional de Colombia, Medellin campus, Colombia. His research interests include: soil characterization and constitutive soil modeling for geotechnical earthquake engineering applications; field instrumentation, numerical simulation and performance evaluation of earth retaining structures; and analytical and numerical solutions to calculate the static and dynamic stability of soil-structure interaction problems.

109


Exergoeconomic optimization of tetra-combined trigeneration system Juan Carlos Burbano J. a & Silvio de Oliveira Jr. b a

Facultad de Ingeniería Mecánica, Universidad Tecnológica de Pereira, Pereira, Colombia. jburbano@utp.edu.co b Escola Politécnica Universidade de São Paulo, São Paulo, Brasil. soj@usp.br Received: February 22th, 2014. Received in revised form: October 31th, 2014. Accepted: November 13th, 2014.

Abstract This work aims at obtaining optimal configurations of trigeneration systems in order to satisfy required demands for electricity and thermal loads for heating and cooling, evaluating the impact of the electricity, steam and chilled water production costs. A trigeneration system produces electricity, heat and cooling effect using electricity or heat available. Emphasis is made on systems using absorption chillers, including one using a hybrid absorption ejecto-compression chiller, here called tetra-combined trigeneration system. The performance evaluation of systems is carried out by the application of exergy and exergoeconomic analysis of the proposed alternatives in order to determine exergy efficiency and exergy based costs on production of system utilities. The Genetic Algorithms method has been chosen for optimization to show the applicability of evolutionary techniques in trigeneration plants. The optimization shows important profits in the exergy based costs of products, by means of the exergetic efficiency maximization of the different trigeneration systems. Keywords: trigeneration; absorption ejecto-compression chiller; exergoeconomic analysis; optimization; genetic algorithms.

Optimización exergoeconómica de sistema tetra-combinado de trigeneración Resumen Se pretende obtener configuraciones óptimas de sistemas de trigeneración para satisfacer demandas de electricidad y cargas térmicas de calentamiento y enfriamiento, evaluando el impacto de los costos de producción de electricidad, vapor y agua fría. Un sistema de trigeneración produce electricidad, calor y enfriamiento usando esa electricidad o calor disponible. Se hace énfasis en sistemas que usan refrigeración por absorción, incluyendo uno que usa refrigeración hibrida de absorción eyecto-compresión, llamado sistema tetra-combinado de trigeneración. La evaluación del desempeño de los sistemas se lleva a cabo mediante el análisis exergético y exergoeconómico de las alternativas propuestas para determinar la eficiencia exergética y los costos exergéticos de la producción de las utilidades del sistema. Se usó el método de Algoritmos Genéticos para la optimización de las plantas de trigeneración. La optimización muestra beneficios importantes en los costos exergéticos de los productos por medio de la maximización de la eficiencia exergética de los diferentes sistemas. Palabras clave: trigeneración; refrigerador de absorción eyecto-compresión; análisis exergoeconómico; optimización; algoritmos genéticos.

1. Introduction Trigeneration, the combined production of power, heat and cold (generally, cold water for air conditioned purposes) from a single energy source is a very effective way of utilizing the primary energy of a fuel more efficiently, economically, reliably and with less harm to the environment than centralized, dedicated electric production [1,2]. A trigeneration system can be divided into two parts: the CHP (Combined Heat and Power) unit, which produces electricity and heat, and the second part, the chiller (compression or

absorption type), which produces refrigerating effect using electricity and/or heat from the CHP unit. Combined heating and power (CHP) technology has been in use in industrial applications from the end of 19th century. However, the rapid development of the technologies involved through the last decades made easier the penetration of CHP technology in buildings, hotels, hospitals, schools, community heating or waste treatment sites. Most recent advances incorporate the use of alternative fuels such as hydrogen or biomass, or the exploitation of excess heat converting it into cooling power, which is used in air conditioning or in various industrial

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 110-117. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42245


Burbano J. & de Oliveira Jr. / DYNA 82 (189), pp. 110-117. February, 2015.

processes [3]. Trigeneration plant has become economically viable due to the commercial spread of absorption chillers [3,4]. Absorption chillers are generally classified as direct or indirect-fired, and as single, double or triple-effect. In directfired units, the heat source can be gas or some other fuel that is burnt in the unit. Indirect-fired units use steam or some other heat transfer fluid that brings in heat from a separate source, such as a boiler or heat recovered from an industrial process. Trigeneration includes various technologies like: gas turbines, steam turbines, combined cycles, internal combustion engines, fuel cells and Stirling engines. Some works show diverse applications of the trigeneration systems: [5] in supermarkets, [6] in the petrochemical industry, [7] in the food industry, [8] in hospitals or the work of [9] that proposes a conceptual system of trigeneration based on gas turbine. Exergy analysis predicts the thermodynamic performance of an energy system and the efficiency of the system components by accurately quantifying the entropy-generation of the components [10]. Exergy analysis of energy conversion plants allows characterizing how the available exergy (e.g. a fuel, employed as energy source) is used and destroyed in the existent processes of energy conversion in the plant, by means of a quantitative evaluation of the destruction and loss of exergy associated to the system. The basis of exergoeconomic approach is the consideration that exergy is an objective measure of the thermodynamic value of an energy carrier. Furthermore, it is considered that it is closely related to the economic value of the energy carrier. Hence, when a cost is attributed to an energy carrier, exergy is taken as the basis for allocating costs. In this paper an exergetic and exergoeconomic comparison of different trigeneration systems, including a tetra-combined one, is carried out in order to calculate the efficiencies and exergy based cost of electricity, steam and exergy transferred to chilled water. Then, genetic algorithms are applied to obtain optimal configurations of trigeneration systems.

2 System description The trigeneration system analyzed in this work and here called tetra-combined trigeneration system is formed by three subsystems in thermal cascade: gas turbine, a cogeneration system based on a steam cycle and a hybrid absorption ejectocompression chiller. The expression tetra-combined is derived from the fact that this system is based on two power cycles (Brayton and Rankine) and two refrigeration technologies (absorption and ejecto-compression). The performance of this system is compared with the performance of different conventional trigeneration systems, analyzed in [11], for the same operation conditions. In a Tetra-combined trigeneration system, the gas turbine produces power and it uses natural gas as energy source. The cogeneration subsystem, based on a steam cycle, uses the rejected gases from the gas turbine to produce superheated steam in a HRSG. A minimum part of superheated steam goes to the ejectors of the hybrid absorption ejecto-compression chiller. The rest of superheated steam feeds an extraction/condensation steam turbine. The steam turbine produces power and has two steam extractions. The first extraction is imposed by the process. This process steam is highly superheated and in certain applications saturated steam is needed, so it is necessary to include a desuperheater to take the superheated steam down to the saturated state. In the desuperheater a mixture of superheated steam and water is produced and therefore the saturated steam is obtained. The second steam extraction in turbine is used as heat source to feed the generator of hybrid absorption ejecto-compression chiller. The remaining steam goes out from turbine and enters into the condenser to be recovered like feed water for boiler. Fig. 1 shows a schematic diagram of the tetra-combined trigeneration system.

Figure 1. Schematic diagram of the tetra-combined trigeneration system. Source: Authors 111


Burbano J. & de Oliveira Jr. / DYNA 82 (189), pp. 110-117. February, 2015.

2.1. Hybrid Absorption ejecto-compression chiller The absorption ejecto-compression refrigeration system had its origin in the work of [12]. The system is characterized by having ejectors between the evaporator and absorber. The operation is similar to the single-effect absorption system, with the variation of using ejectors. A detailed description of this system is provided in [13]. To reduce the motive steam consumption, there is a mass flow rate deviation in each ejector exit that is sent again to the boiler, or used in another process, if the pressure conditions allow. An exergoeconomic comparison of absorption refrigeration systems including this hybrid chiller was made by the authors in [14]. A double effect and combined ejector-double effect absorption refrigeration systems are compared in [15]. Fig. 2 (a) and (b) shows a water/lithium-bromide absorption ejecto-compression refrigeration system and the evolution of motive steam and the refrigerant drawn vapor throughout ejector, respectively. Configurations of absorption refrigeration systems using ejectors are described in [16].

(a)

(b) Figure 2. (a) Absorption-ejecto compression refrigeration system Dühring chart schematic. (b) Evolution of motive steam and drawn vapor throughout ejector.

Source Oliveira Jr, S., 1991. Table 1. Assumed parameters used to simulate the trigeneration system. Parameter

Value

Compressor Isentropic Efficiency (%)

85

Gas Turbine Isentropic Efficiency (%)

87

Saturated Steam Pressure (bar)

10

HRSG heat losses (%) HRSG Pinch (°C) HRSG Approach (°C) Pump Isentropic Efficiency (%)

2 10 5 70

Electric Generator Efficiency (%)

95

Steam Pressure (bar)

42

Steam Temperature (°C) Turbine (condensing-extraction) Isentropic Efficiency (%) Pump Isentropic Efficiency (%) Source: Authors

420 82-85 70

3. Modelling and Simulation The tetra-combined trigeneration system was developed to satisfy the energy requirement of a dairy industry [17], thus it is possible to compare it with the performance of trigeneration systems described, developed and analyzed in [11] and others like systems based in steam turbines, gas turbines and combined cycle. The trigeneration system using gas turbine, combined cycle and tetra-combined cycle were modeled using a gas turbine commercial type, choosing it according to energy demand. For all systems, except for trigeneration system with gas turbine, a pressure drop between boiler and steam turbine was considered. Thus, the steam pressure in turbine inlet is 3% lower than the boiler output. Also, a drop of 5 °C in steam temperature between boiler exit and steam turbine inlet was considered. Some assumed parameters used to simulate the trigeneration systems are shown in Table 1. For the purpose of analysis of absorption refrigeration systems, the following assumptions are made: the analysis is made under steady state conditions; the refrigerant at the outlet of the condenser is saturated liquid; the refrigerant at the outlet of the evaporator is saturated vapor; the outlet temperatures from the absorber and from generators correspond to equilibrium conditions of the mixing and separation, respectively; pressure losses in the pipelines and in heat exchangers are negligible; heat exchanges between the system and surroundings, other than the prescribed at the generator, high temperature generator (in double-effect absorption system), evaporator, condenser and absorber, are negligible; the reference environmental state for systems is water at 25 °C (T0) and 1 bar pressure (p0). In hybrid absorption ejecto-compression chiller, the following assumptions were considered for ejectors energy balance: adiabatic flow; the kinetic energy in different points of ejector is negligible; one dimensional flow; steady state condition. The calculation of high-pressure steam flow entering into the ejector, energy and exergy consumed by ejector was made by the authors in [13,14]. The models presented above

112


Burbano J. & de Oliveira Jr. / DYNA 82 (189), pp. 110-117. February, 2015.

were implemented in the Engineering Equation Solver [18], and simulated considering a steady-state operation. For evaluating the costs, the idea is the development of cost balances for each component in the system. input

 cB 

exit

Solution concentration [%]

 cB 

65,0

(1)

Where B the exergetic rate and c is expresses the average costs per exergy unit of product. Considering the exergy-based cost for fuel equal to 1 kJ/kJ, it is possible to calculate the cost of the different plant flows. For distribution costs in control volumes with more than one product, the equality criterion was adopted. That is, each product has the same importance and consequently their exergy based cost were set equal (i.e. electricity and process steam, in cogeneration systems). Thus, the cost associated to the irreversibilities in the control volume is distributed equally among the exergy content of the outlet product flows.

4.1. Optimization of absorption refrigeration systems The performance and efficiency of reverse cycles are independent of the properties of any fluid. In contrast, the performance and efficiency of an actual cycle are determined to a great degree by the properties of the working fluid. The initial cost and operating cost of an absorption system are strongly dependent on the properties of the working fluid [19]. Thermodynamic variables considered important in projecting an absorption system are pressure, temperature and solution concentration. The idea is to find values of solution concentrations that optimize the system. Thus, the objective function of optimization problem was defined as the maximization of exergy efficiency of absorption refrigeration systems, and the solution concentration lithium bromide/ water was defined as an independent variable. Genetic Algorithms were applied to the different absorption refrigeration systems in order to optimize them. Fig. 3 shows the solution concentration evolution and its influence on exergetic efficiency and its evolution process of the hybrid absorption/ejecto compression refrigeration system in optimization process with genetic method. Optimization results for the hybrid absorption/eject compression refrigeration system are shown in Table 2.

55,0

50,0

45,0

40,0 0,1600

0,1620

0,1640

0,1660

0,1680

0,1700

0,1720

0,1740

0,1760

Exergetic Efficiency Weak solution

Strong solution

(a) 0,1760

Exergetic Efficiency

0,1740

4. Optimization of Trigeneration Plants The trigeneration plants optimization process is carried out trying to find optimal parameters in their sub-systems. Initially, optimization of absorption refrigeration systems: simple effect, hybrid absorption/eject compression, and double effect, will be performed. Then, the optimized refrigeration systems will be used in the optimization of entire trigeneration plant. The Genetic Algorithms method is used in this work in order to obtain optimal configurations.

60,0

0,1720 0,1700 0,1680 0,1660 0,1640 0,1620 0,1600 0

20

40

60

80

100

120

140

Generations Exergetic Efficiency

(b) Figure 3. (a) Solution concentration evolution and its influence on exergetic efficiency (b) Evolution process of exergetic efficiency of hybrid absorption/ejecto compression refrigeration system. Source: Authors.

Table 2. Assumed Optimization results for hybrid absorption/eject compression refrigeration system. Description Base Case Optimized Case Genetic Method Weak solution 55,59 45 concentration [%] Strong solution 60,15 56 concentration [%] Coefficient of 0,7763 0,8418 performance (COP) Exergetic Efficiency 0,161 0,1736 Source: Authors

4.2. Global optimization of trigeneration plants The decision variables are subjected to equality constraints imposed by the physical and thermodynamic model, as well as the inequality constraints imposed by upper and lower limits. For trigeneration systems using gas turbine like combined and tetra-combined cycles, the commercial gas turbine models were chosen based on its power capacity and the corresponding pressure ratio. Thus, variables considered for global optimization of trigeneration systems have to do with the Rankine cycle of these systems.

113


Burbano J. & de Oliveira Jr. / DYNA 82 (189), pp. 110-117. February, 2015. Table 3. Assumed Optimization

0,3168

Boiler Pressure [MPa] Steam Temperature [째C] Extracted steam pressure for simple effect absorption chiller [kPa]

Minimum

Maximum

2 280

12 580

80

Exergetic Efficiency

0,3166

Description

160

0,3164

0,3162

0,3160

0,3158

0,3156

0,3154

Extracted steam pressure for double effect absorption chiller [kPa]

0

20

40

60

80

100

120

140

50

60

70

Generations

300

450

Exergetic Efficiency

(a) Source: Authors

0,3169 0,3168 0,3168

Exergetic Efficiency

Additional restrictions are placed in the optimization process: (a) ensuring that the extracted steam from the steam turbine that goes to the simple effect absorption refrigeration unit and the hybrid absorption/eject compression unit is at least saturated steam; (b) the quality of the steam at turbine output is at least 86%; (c) the mass flows are positive in the cycle. Table 3 presents the decision variables of the optimization problem and its initial boundaries.

0,3167 0,3167 0,3166 0,3166 0,3165 0,3165 0,3164 0

10

20

30

40

Generations Exergetic Efficiency

5. Results

(b) 0,4180

Exergetic Efficiency

0,4170 0,4160

0,4150

0,4140

0,4130 0,4120

0,4110 0

10

20

30

40

50

60

70

Generations Exergetic Efficiency

(c) 0,4140

0,4130

Exergetic Efficiency

The results are presented and discussed for three scenarios, as carried out in [13]: the first one, for steam turbine configurations satisfying the plant requirements: 2.3 MW of electric power, 25 kg/s of chilled water at 5 째C and 2 kg/s of saturated steam at 5 bar for process. The second one includes a gas turbine with HRSG and absorption refrigeration system capable of generating 1662 kW of electricity surplus under modelling parameters. The last one includes a combined cycle with absorption refrigeration system and the tetra-combined trigeneration system generating 3143 kW of electricity surplus. The results of the optimization process presented are product of successive approximations to the optimum operation point by reducing the limits of the independent variables. This is because the average curve of the best individuals in various experiments shows the average performance of a genetic algorithm and serves to adjust parameters. The genetic method is very sensitive to changes in the limits of the independent parameters due to initial population and subsequent stochastic selections are chosen within limits. Fig. 4 shows the evolution process of exergy efficiency of some trigeneration systems for the best values obtained in the optimization with genetic method. The same methodology was used for the rest of the trigeneration systems under study. Table 4 shows the results of energetic and exergetic efficiency in the optimization performed in trigeneration systems using steam turbine, combined cycle and tetracombined cycle, able to generate 3143 kW electricity surplus.

0,4120

0,4110

0,4100

0,4090

0,4080

0,4070 0

10

20

30

40

50

60

70

Generations Exergetic Efficiency

(d) Figure 4. Exergetic efficiency evolution for some trigeneration systems: (a) Steam turbine and simple effect absorption refrigeration unit. (b) Gas turbine and double effect absorption refrigeration unit. (c) Combined cycle and double effect absorption refrigeration unit. (d) Tetra-combined system. Source: Authors.

114


Burbano J. & de Oliveira Jr. / DYNA 82 (189), pp. 110-117. February, 2015. Table 4. Energetic and exergetic efficiency in the optimization of trigeneration plants able to generate 3143 kW electricity surplus. Energetic Exergetic Efficiency Efficiency Trigeneration System Base Case Optimized Case Base Case Optimized Case (%) (%) (%) (%) Steam turbine and compression refrigeration unit. 41,63 49,1 25,32 29,87 Steam turbine and simple effect absorption refrigeration unit. 41,93 48,34 25,51 29,41 Steam turbine and double effect absorption refrigeration unit. 41,91 49,53 25,50 30,31 Combined cycle and simple effect absorption refrigeration unit. 66,08 67,4 40,21 41,48 Combined cycle and double effect absorption refrigeration unit. 66,04 67,67 40,17 41,74 Tetra-combined cycle 66,01 67,3 40,14 41,32 Source: Authors

In order to show the results of exergoeconomic optimization for the trigeneration systems, exergy destruction rate and exergy-based costs for each configuration were calculated and are discussed below.

Fig. 5 shows the exergy destruction rate (kW) of each configuration studied; next to the value of each system, the value of optimized system is provided.

Exergy destruction [kW]

25000

20000

15000

10000

5000

0

Configurations without excess electricity

Configurations with 1662 kW excess electricity

Gas turbine and simple effect absorption refrigeration unit

Optimized system

Gas turbine and double effect absorption refrigeration unit

Optimized system

Steam turbine and compression refrigeration unit

Optimized system

Steam turbine and simple effect absorption refrigeration unit

Optimized system

Steam turbine and double effect absorption refrigeration unit

Optimized system

Combined cycle and simple effect absorption refrigeration unit

Optimized system

Combined cycle and double effect absorption refrigeration unit

Optimized system

Tetra-combined system

Optimized system

Configurations with 3143 kW excess electricity

Figure 5. Exergy destruction rate (kW) of each configuration studied in comparison with optimized systems. Source: Authors.

As Fig. 5 shows, the exergy destruction in optimized trigeneration systems presents a decrease compared to the base cases as follows: for the three scenarios under study, trigeneration systems with steam turbines and compression refrigeration unit showed a drop of around 20%. For the scenario of 1662 kW electricity surplus where there are trigeneration systems with gas turbine and absorption refrigeration units of simple and double effect, the decrease in exergy destruction was 0.5% and 1.4% respectively. For 3143 kW electricity surplus scenario, combined cycles and tetra-combined present approximately 5% reduction in exergy destruction in comparison to their base cases. Fig. 6 shows a comparison of exergy based costs (kW/kW) of electricity, process steam and exergy transferred to chilled water for the configurations studied

producing 3143 kW excess electricity and its corresponding optimized systems. The optimization of trigeneration systems presents the following results in decreased exergy based costs of products: in the electricity and process steam cases, the trigeneration systems with steam turbines have an average decrease of 14%. For electricity, combined cycles and tetra-combined cycle have a decrease of about 1% for this product. For process steam, combined cycle and simple effect absorption refrigeration unit, a decrease of 7.16% is obtained, varying from 2.4 kJ/kJ to 2.228 kJ/kJ; combined cycle and double effect absorption refrigeration unit presents a decrease of 8.5%, varying from 2.4 kJ/kJ to 2.198 kJ/kJ and tetra-combined cycle shows a decrease of 7.2%, varying from 2.4 kJ/kJ to 2.227 kJ/kJ.

115


Burbano J. & de Oliveira Jr. / DYNA 82 (189), pp. 110-117. February, 2015. Steam turbine and compression refrigeration unit

25

Optimized system Steam turbine and simple effect absorption refrigeration unit

Exergy based cost [kW/kW]

20

Optimized system Steam turbine and double effect absorption refrigeration unit

15

Optimized system Combined cycle and simple effect absorption refrigeration unit

10

Optimized system Combined cycle and double effect absorption refrigeration unit

5

Optimized system Tetra-combined system

0

Electricity

Process steam

Chilled water Optimized system

3143 kW excess electricity

Figure 6. Exergy-based costs (kW/kW) of electricity, process steam and chilled water for 3143 kW excess electricity cases. Source: Authors.

With respect to the exergy based cost transferred to chilled water, the following reductions with optimized configurations are presented: 14.35% for trigeneration system with steam turbine and compression refrigeration unit, varying from 16.72 kJ/kJ to 14.32 kJ/kJ; 12% for trigeneration system with steam turbine and simple effect absorption refrigeration unit, varying from 20.97 kJ/kJ to 18.44 kJ/kJ and 27% for trigeneration system with steam turbine and double effect absorption refrigeration unit, varying from 17.03 kJ/kJ to 12.42 kJ/kJ; combined cycle and simple effect absorption refrigeration unit presents a decrease of 5.8%, going from 13.46 kJ/kJ to 12.68 kJ/kJ; combined cycle and double effect absorption refrigeration unit has decreased by 20.94%, varying from 10.87 kJ/kJ to 8.593 kJ/kJ and tetra-combined cycle shows a decrease of 3.5%, varying from 13.1 kJ/kJ to 12.65 kJ/kJ. 5. Conclusions The trigeneration represents a quite interesting alternative of producing electricity and reducing the production costs of utilities. In this work, an analysis and optimization of different trigeneration systems, including a tetra-combined system, was performed by means of exergoeconomic analysis to quantify its energetic and exergetic efficiency and the impact in the production of electricity, process steam and chilled water for air conditioning purposes. The results show that hybrid absorption/ejecto compression refrigeration system is an appropriate alternative for chilled water production due to the coefficient of performance (COP) and exergetic efficiency are higher than the simple effect absorption

refrigeration system. Noting the impact on costs formation of energy conversion for proposed trigeneration systems, systems using double effect absorption refrigeration unit are the ones that have a lower impact. The tetra-combined system has a lower impact, when compared with the combined cycle and simple effect absorption refrigeration unit. Optimization with genetic algorithms showed significant gains in exergy based costs of products, by maximizing the exergetic efficiency of different trigeneration systems. The results indicate that maximizing the exergetic efficiency leads to minimization of exergy based costs of products. The Genetic Algorithms method is shown as a robust method for the optimization of energy conversion systems, although it requires a large computational effort. The optimization process showed that genetic method is very sensitive to changes in the limits of independent parameters as the initial population and subsequent stochastic selections are chosen within limits. References [1] [2] [3]

[4]

116

Wu, D.W. and Wang, R.Z., combined cooling, heating and power: A review, Progress in Energy and Combustion Science, 32, pp. 459495, 2006. http://dx.doi.10.1016/j.pecs.2006.02.001 Hernandez-Santoyo, J. and Sanchez-Cifuentes, A., Trigeneration: an alternative for energy savings, Applied Energy, 76, pp. 219-227, 2003. http://dx.doi.10.1016/S0306-2619(03)00061-8 Kavvadias, K., Tosios, A. and Maroulis, Z., Design of a combined heating, cooling and power system: Sizing, operation strategy selection and parametric analysis, Energy Conversion and Management, 51, pp. 833-845, 2010. http://dx.doi.10.1016/j.enconman.2009.11.019 Cardona, E. and Piacentino, A., A methodology for sizing a trigeneration plant in Mediterranean areas, Applied Thermal


Burbano J. & de Oliveira Jr. / DYNA 82 (189), pp. 110-117. February, 2015.

[5]

[6]

[7]

[8] [9]

[10] [11]

[12] [13] [14]

[15]

[16]

[17] [18] [19]

Engineering, 23, pp. 1665-1680, 2003. http://dx. doi.10.1016/S13594311(03)00130-3 Maidment, G.G., Tozer, R.M. and Missenden, J.F. Combined cooling, heat and power in supermarkets. Heat Powered Cycles Conference, Conservatoire national des arts et métiers, Paris. pp. 277-284, 2001. Colonna, P. and Gabrielli, S., Industrial trigeneration using ammonia-water absorption refrigeration systems (AAR). Applied Thermal Engineering, 23, pp. 381-396, 2003. http://dx.doi.10.1016/S1359-4311(02)00212-. Bassols, J., Kuckelkorn, B., Langreck, J., Schneider, R. and Veelken, H., Trigeneration in the food industry. Applied Thermal Engineering, 22, pp. 595-602, 2002. http:// doi: 10.1016/S13594311(01)00111-9 Ziher, D. and Poredos, A., Economics of trigeneration system in a hospital. Applied Thermal Engineering, 26, pp. 680-687, 2006. http:// doi: 10.1016 / j.applthermaleng.2005.09.007 Khaliq, A., Exergy analysis of gas turbine trigeneration system for combined production of power heat and refrigeration. Int. Journal of Refrigeration, 32, pp. 534-545, 2009. http://doi: 10.1016 / j.ijrefrig.2008.06.007 Kwak, H.Y., Kim, D.Y. and Jeon, J.S., Exergetic and thermoeconomics analyses for power plant, Energy, 28, pp. 343-360, 2003. http://doi:10.1016/S0360-5442(02)00138-X Burbano, J.C., Pellegrini, L.F. and Oliveira Jr., S., Comparative exergoeconomic analysis of trigeneration systems for a dairy industry. 21st International Conference ECOS. Foz de Iguaçú, Brazil, 4, pp. 513-524, 2009. Oliveira Jr., S., Upgrading industrial thermal effluents – exergetic, entropic and economic analysis, In French. PhD Thesis dissertation. Polytechnic National Institute of Lorraine, France. 1991. Burbano, J.C., Pellegrini, L.F. and Oliveira Jr., S., Exergoeconomic analysis of tetra-combined trigeneration systems. The 22st International Conference ECOS. Lausanne, Switzerland, 2010. Burbano, J.C., Pellegrini L.F. and Oliveira Jr., S., Exergoeconomic comparison of absorption refrigeration system including a hybrid absorption ejecto-compression chiller. Revista DYNA, 78 (168), pp.81-89, 2011. Garousi, L., Mahmoudi, S.M. and Rosen, M., Exergoeconomic comparison of double effect and combined ejector-double effect absorption refrigeration systems. Applied Energy. 103. pp. 700-711, 2013. http://dx.doi.org/10.1016/j.apenergy.2012.11.022 Srikhirin, P., Aphornratana, S. and Chungpaibulpatana, S., A review of absorption refrigeration technologies, Renewable and Sustainable Energy Reviews, 5, pp. 343-372, 2001. http://doi: 10.1016/S13640321(01)00003-X Larrazábal, M.L. and Oliveira Jr., S., Thermoeconomic evaluation of cogeneration systems for a dairy industry. International Conference ECOS, Berlin, pp. 1409-1416, 2002. F-Chart, EES® Engineering Equation Solver. 2009. Herald, K., Radermacher, R. and Klein, S., Absorption chillers and heat pumps. CRC press. 1996. 329p. 1996.

and 73 Undergraduate Projects in Mechanical Engineering. He is author of the book Exergy: production, cost and renewability (Springer, 2013), author/co-author of about 190 publications and communications, senior member of the Brazilian Society of Mechanical Sciences and Engineering and has a Scholarship in Research Productivity of the National Council for Scientific and Technological Development. He is also member of the Editorial Board of Energy and the International Journal of Thermodynamics. He has been involved in the past ten years with research projects related to energy utilization in biodiesel production plants, sugar and alcohol utilities and production plants, offshore and onshore petroleum platforms, petroleum refinery plants, co/trigeneration and combined cycle plants, airplane energy systems modeling, modeling and simulation of twin-screw multiphase pumping systems and exergy behaviour of human body.

J.C. Burbano-Jaramillo, received the Bs. Eng in Mechanical Engineering in 1988, the MSc degree in Automatic Production Systems in 2002 all of them from Universidad Tecnológica de Pereira, Colombia, and the PhD degree in Mechanical Engineering in 2011 from the University of São Paulo, Brazil. Currently he is a Full Professor of the Faculty of Mechanical Engineering of Universidad Tecnologica de Pereira, Colombia. His research interests include power plants, co/trigeneration systems, exergy and exergoeconomic analysis of thermal processes and analysis and optimization of energy conversion systems. S. de Oliveira Júnior, is an Associate Professor at Polytechnic School of the University of São Paulo, Brazil. He has been developing research activities on heat pumps and refrigeration systems, solar energy, energy conservation in industrial processes, cogeneration systems and exergy and thermoeconomic analysis of thermal and chemical processes. He has supervised nine Doctor Thesis (in Mechanical Engineering), 18 Master Dissertations (in Mechanical Engineering, Automotive Engineering and Energy), 9 MBA in Energy and Cogeneration and Distributed Generation, 117

Área Curricular de Ingeniería Mecánica Oferta de Posgrados

Maestría en Ingeniería - Ingeniería Mecánica Mayor información:

E-mail: acmecanica_med@unal.edu.co Teléfono: (57-4) 4259262


A viable wireless PC assisted alternative to studies of vectorcardiography Juan Carlos Estrada-Gutiérrez a, Alfonso Hernández-Sámano a, Ernesto Edgar Mazón-Valadez a, José Ávila-Paz a, Arturo González-Vega b, Juan Alberto Leyva-Cruz c & Mario Eduardo Cano-González *a a

Centro Universitario de la Ciénega, Universidad de Guadalajara, Guadalajara, México, jcarlosredes@gmail.com, h.s.alfonso@gmail.com, mazon_valadez@hotmail.com, jocmos@hotmail.com, meduardo2001@hotmail.com*. b División de Ciencias e Ingenierías, Universidad de Guanajuato, León, México, ar.glz.ve@gmail.com. c Dpto. de Física, Universidade de Estadual de Feira de Santana, Bahía, Brasil, jalbertoleyva@yahoo.com.br. Received: February 28th, 2014. Received in revised form: October 28th, 2014. Accepted: November 11th, 2014.

Abstract The development of an analog device to wirelessly modulate and record twelve cardiac leads, PC assisted is reported. The system, which has been developed using low cost components, contains only one signal conditioning stage and one stage for amplitude modulation with FM transmission/reception. Also it contains an interface to select the cardiac leads remotely, which is based in the transmission/decoding of audible dual frequency tones. The device has been tested on a group of volunteers simultaneously using a registered trademark electrocardiograph, to assess the performance of the new device. Furthermore, the experimental results indicate that the device is a tool suitable to conduct studies of vector-cardiography with maximum uncertainties of 20 % in the cardiac axis orientation measurement. Keywords: wireless; cardiac; audio; modulation.

Una viable alternativa para estudios de vectorcardiografía de manera inalámbrica asistida por computadora Resumen Se presenta el desarrollo de un dispositivo analógico, para modular y registrar de manera inalámbrica las doce derivaciones cardiacas con una PC. El sistema que ha sido desarrollado con componentes de bajo costo, contiene una sola etapa de acondicionamiento de señales, una etapa de modulación de las señales en AM con transmisión/recepción en FM, más un medio de selección de las derivaciones de manera remota, basado en la transmisión/decodificación de tonos audibles de doble frecuencia. El dispositivo ha sido probado en un grupo de voluntarios de manera simultánea empleando un electrocardiógrafo de marca con el fin de evaluar su funcionamiento. Los resultados experimentales indican que el sistema es una herramienta capaz de conducir estudios de vector-cardiografía con una incertidumbre máxima del 20 % en la medición de la orientación del eje cardiaco. Palabras clave: inalámbrico; cardiaco; audio; modulación.

1. Introduction The electrocardiographic devices designed to perform diagnostics use 6 electrodes connected on the chest, 3 electrodes on the Einthoven triangle and another one as neutral reference. These electrodes are connected to a stage of conditioning and amplification which allow the detection of signals in the bandwidth from 0.05 to 150 Hz. This is in agreement with the AHA (American Heart Association) to diagnose adolescents and adults [1,2], and with the frequency spectrum of the ECG [3]. Other researchers suggest a

bandwidth 0.01 to 100 Hz [4]. These devices are also composed of a cardiac leads selector and a mean for display the electrocardiograms. Currently are observed several researches about new portables devices to the monitoring of the cardiac beats using smartphones or PC assisted with one or more means of data transmission [5-7]. These kind of interfaces are USB [8], Blue Tooth modules [9], Wi-fi [10] or Zigbee [11]. Other devices possesses a small size and low power consumption [12,13]. Nevertheless, some of these alternatives which work in situ or remotely to obtain the

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 118-126. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42364


Estrada-Gutiérrez et al / DYNA 82 (189), pp. 118-126. February, 2015.

twelve cardiac leads use more than one stage of amplification. This fact increases the cost and volume of the devices. Furthermore, in the last works is not sufficiently explained the stage of selection for the cardiac leads, neither the electrocardiograms presented are compared with others measured simultaneously using a trademark device, in order to qualitatively contrast their working. In agreement with the AHA, in order to make a more accurate diagnosis of heart function is necessary to measure their activity in a horizontal and vertical plane. Regarding the dipolar-electric approximation to model the heart [14], the electrodes are distributed following different equipotential lines and only 10 electrodes are needed to obtain 12 cardiac leads. Therefore, by analyzing the sense (up or down) of the QRS complex in the derivations D1 and AVF is obtained the quadrant of the axial orientation θ of the cardiac axis. Similarly, analyzing the sense in the precordial V2 we can obtain the sign of the azimuthal orientation φ. The cardiac axis is very important because their variations are related with many cardiac diseases [15]. By analyzing the rate r between the amplitudes R and S from the base line (iso-electric line), is possible to approximate the calculus of θ and φ. For example: if in D1 is observed r = 1, the corresponding angle is θ = 90° with the X axis, therefore the values r = 1.5 and 0.5 corresponds with θ = 45° and 135°. The sign of θ depends of the sense of R in AVF [15]. Recently our research group has performed a low cost device to convert a bipolar cardiac lead into an audible signal (AM modulated), this signal is transmitted in FM by a transmitter/receiver pair, to be stored trough the audio input of a PC [16]. Although analog transmission could be thought as outdated and has to bear with transmission impairments (Attenuation, Distortion and Noise) as well as the digital transmission does, it flaunts quite a useful characteristic unlike its most modern digital counterpart, the analog transmission inherently bypasses the critical issue of data packet frames losses due to conversion-transmission delays and bottlenecks in the communication protocols which is of utmost importance for the trusty representation of the received signal [17,18]. For this reason the aim of this work is to extend the working of this device by performing the instrumentation to wirelessly obtain the 12 cardiac leads for diagnostic or telemedicine purposes. Moreover, all the measurements are obtained simultaneously with our prototype and a trademark device, which satisfies the standard of the Association for the Advancement of Medical Instrumentation (AAMI). In order to evaluate the working of our new system and their ability to be used in vectorcardiography. Furthermore the device shall require a low cost for their construction using only one stage of conditioning and amplification. As the measurement of the cardiac leads is carried out differentially, there are two voltage poles V+ and V-, where the first one is more positive with respect to a same neutral reference (connected at the right leg of the patient). Both poles feed an instrumentation operational amplifier. The Table 1 [15,16,19,20] summarizes the procedure to interconnect the electrodes in order to obtain poles of the 12 cardiac leads using an electronic selector. The notation is: left arm (LA); right arm (RA); left leg (LL); right leg (RL); Table 1.

Formation of V+ and V- for each cardiac lead. LEAD V+ D1 LL D2 LL D3 LL AVR RA AVL RL AVF LL V1 CH1 V2 CH2 V3 CH3 V4 CH4 V5 CH5 V6 CH6 Source: Own

VRA RA LA RA RA RA RA RA RA RA RA RA

+ + + + + + + + +

LL LL LA LL LL LL LL LL LL

+ + + + + +

LA LA LA LA LA LA

Figure 1. Selector composed of 4 multiplexers to select the voltage poles of each cardiac lead. Source: Own

fourth intercostal space, just to the right of the sternum (CH1); fourth intercostal space, just to the left of the sternum (CH2); between CH2 and CH4 (CH3); fifth intercostal space in the left mid-clavicular line (CH4); horizontally even with CH4 in the left anterior axilary line (CH5); horizontally even with CH4 and CH5 in the midaxilary line (CH6); the “+" sign mean electrodes connected. 2. Materials and methods 2.1. Remote selector of the 12 cardiac leads The cardiac leads selector is performed using an array of 4 analogs multiplexers (HEF4067B) and it is detailed in the Fig. 1. In the bottom the electrodes are connected to

119


Estrada-GutiĂŠrrez et al / DYNA 82 (189), pp. 118-126. February, 2015.

the multiplexers (following the notation of Table 1) whereas on the right side are observed the digital inputs A, B, C, D; also, the output voltage V+ y V- for each cardiac derivation. This kind of multiplexers are characterized for the selection of the 16 possible analog inputs (AI), using a combination of values ABCD. They have a very low total harmonic distortion (THD) and the capability of switching electric current in the range of ÎźA at high speed. Our selector just needs 4 digital inputs in total, which feed at the same time all the multiplexers in order to obtain the pair of voltage poles of any chosen cardiac lead. The Table 2 shows the relationship between the cardiac leads and the digital values ABCD for each multiplexer, also the connections of the electrodes with their analog inputs. This selector is able of generate all the combinations detailed in Table 1. On the other hand, the values ABCD are obtained using a dual tone decoder, which is designed to decode audible tones of dual frequency (DTMF) HT9170B/D. When this chip receives a dual tone it allows four digital outputs, which could be connected directly to the selector. In the Fig. 2 is shown the diagram of the DTMF, and the Table 3 show the frequencies which compound a tone and their corresponding digital outputs, for each digit employed. Table 2. Multiplexer Performance Summary. Lead DGTL. V. M1 M2 D C B A D1 0 0 0 0 D2 0 0 0 1 D3 0 0 1 0 AVR 0 0 1 1 AVL 0 1 0 0 AVF 0 1 0 1 V1 0 1 1 0 V2 0 1 1 1 V3 1 0 0 0 V4 1 0 0 1 V5 1 0 1 0 V6 1 0 1 1 *NC: Not Connect. Source: Own

AI 0 1 2 3 4 5 6 7 8 9 10 11

E LA LL LL RA LA LL CH1 CH2 CH3 CH4 CH5 CH6

AI 0 1 2 3 4 5 6 7 8 9 10 11

M3 E RA RA LA LA RA RA RA RA RA RA RA RA

AI 0 1 2 3 4 5 6 7 8 9 10 11

M4 E NC NC NC LL LL LA LL LL LL LL LL LL

*

AI

E

0 1 2 3 4 5 6 7 8 9 10 11

NC NC NC NC NC NC LA LA LA LA LA LA

Table 3. Frequencies corresponding to each DTMF and their digital value. Low High Digit D Frequency Frequency 697 1209 1 0 697 1336 2 0 697 1477 3 0 770 1209 4 0 770 1336 5 0 770 1477 6 0 852 1209 7 0 852 1336 8 1 852 1477 9 1 941 1336 0 1 941 1209 * 1 941 1633 D 0 Source: Own

respective decoded C

B

A

0 0 0 1 1 1 1 0 0 0 0 0

0 1 1 0 0 1 1 0 0 1 1 0

1 0 1 0 1 0 1 0 1 0 1 0

The DTMF of Table 3, are superimposed sine waves and correspond to the sound heard when the digit of some telephonic devices is pressed. For instance: when a sinusoidal pulse composed of 697 Hz and 1209 Hz signal is received (corresponding to the digit 1), their correct decoding allow us the 4 digital values 0001, which, in accord with Table 2 correspond to the D2 lead. In our design, the tones corresponding to each digit are generated from a computer via the audio output, with maximum amplitude of 300 mV. This switching interface can operate in full wired way, nevertheless it is very easy to adapt to the digital outputs of a microcontroller to other applications. However, since the goal is to work wirelessly, the tones are transmitted using an FM audio-transmitter (ideal for microphone). To demodulate the FM signal, the tone must be amplified up to a value close to 1 V, therefore the FM receiver is connected to a non-inverting amplification stage using an operational amplifier with gain G = 11, in order to feed the DTMF and avoid decoding errors. In summary, the procedure for remotely selection of a cardiac lead is the following: at first, from the PC audio output, the dual tone are generated and transmitted as FM, the receiver output is amplified and introduced to the DTMF which generate the four digital signals to feed the lead selector, where the two poles that feed the amplifier are obtained, the output is then modulated in amplitude and transmitted by a second FM transmitter, to then be acquired through the audio card and digitally demodulated on a PC. 2.2 Heart signal amplifier and conditioner

Figure 2. Diagram of the tone decoder DTMF. Source: Own

A schematic diagram of the full system is shown in the Fig. 3(A), where it can see the electrodes on the patient and connected to the selector, which feeds the instrumentation amplifier, connected to the AM modulator and then to the (FM2) transmitter. Also the DTMF connected to the multiplexer and to the receiver of the (FM1) transmitter are displayed. In the same way, it can be observed the audio card output of a laptop connected to the FM1 to transmit the tone, and the FM2 receiver connected to the audio card input, where the AM signals are demodulated. While the Fig. 3(B) shows the corresponding block diagram. To avoid potential interference, care should be taken that the FM1 modulation frequency is not an integer multiple of FM2. 120


Estrada-Gutiérrez et al / DYNA 82 (189), pp. 118-126. February, 2015.

Figure 3. (A) Schematic diagram of the system and (B) block diagram respectively. Source: Own

The amplification consists of six stages built with mostly inexpensive electronic components. As shown in Fig. 4, the first stage is used to increase the CMRR of the instrumentation amplifier and is connected to the right leg of the patient, then is used an AD620 instrumentation amplifier with gain given by eq. (1).

G1 

49.4k  1  4.29 RG 1

(1)

which is feedback to the reference input by means of an operational amplifier on integrating configuration, with this step, the base line signal is stabilized, since it has a high pass filter behavior. Then there is a non-inverting amplifier stage with gain given by eq. (2). G2 

RG 2  1  5 .7 R1

(2)

followed by a rejection stage for the 60 Hz frequency and an active four order butterwort type low pass filter with gain G3 = 4; and finally a last non-inverting amplification

with a gain G4 = 2, plus the option to regulating the DC level to take control of the voltage levels that will be modulated in amplitude. Except for the feedback stage, rejection of 60 Hz and stabilization of the baseline stage, all other steps are explained in [16]. With this amplifier and selector it is achieved: A bandwidth of 0.034 to 150 Hz with a signal/noise ratio about to 40 dB, total gain Gt = 195.62, input impedance of 1 GΩ (according to the datasheet for the AD620), common mode rejection CMRR close to 100 dB since all the used amplifiers have a CMRR of about 110 dB, restoration time for base line minor than 3 s and adjustable DC level. Prior to the differential amplification stage, each electrode are connected to a voltage follower using an operational amplifier for the correct coupling of the electrodes and the subsequent circuits (See dotted line in Fig. 4). At the output of each follower a 47 kΩ resistor are connected to decrease any potential leakage currents and clipping diodes that discharge overvoltage to the power supply. The leakage currents sensed between terminals (lead-lead) and between terminals and ground (lead-ground) are less than 10 μA (in good agreement with [20,21]). Additionally, to avoid exposing patients to possible variations of the line voltage, the device is powered by a 12v battery connected to a regulating circuit for a dual voltage output of ± 5 V. In the graphs of Fig. 5, are displayed two curves experimentally determined (T1 y T2). The one of a Fukuda Denshi Cardimax FX-1201 electrocardiograph used as reference pattern (T1) and the signal obtained from our new device (T2), respectively. In this experiment the curves are obtained using a function generator Stanford Research mod. DS335 and an oscilloscope Tektronix DPO7104. It is observed that the curve obtained with the reference device T1 has a minimum cutoff frequency 0.05 Hz followed by a rejection of the 60 Hz band with an attenuation of -30 dB and a maximum cutoff frequency of 100 Hz. Whereas T2 has a minimum cutoff frequency of 0.034 Hz, then a rejection to the 60 Hz frequency of -19 dB and a maximum cutoff frequency of 150 Hz. Our observations indicate that increasing the attenuation of the 60 Hz signal with the notch filter lead to a reduction of components of the signals which may be important for a possible diagnostic, for instance: between the range of 30 a 40 Hz [3]. It is also noted that for T1 the attenuation is higher than in T2 for frequencies between 80 Hz and 100 Hz. Even so frequencies between 100 Hz and 110 Hz have a slightly higher intensity than all other (around 0.8dB), due to the established gain in the lowpass and to its transfer function [22]. 2.3. Amplitude modulator of the cardiac leads To the AM modulation an integrated circuit of the family MC1496BPG specially designed this purpose is employed. This circuit provides a lower total harmonic distortion (THD) than the modulation method based on a simple arrangement of differential transistors as used in [16], while the 2 kHz carrier signal is generated with a double integrator arrangement based on an operational amplifier as in [16]. The Fig. 6 shows the electronic circuit diagram of the modulator. Once the amplitude is modulated,

121


Estrada-Gutiérrez et al / DYNA 82 (189), pp. 118-126. February, 2015.

Figure 6. AM modulator circuit diagram of the cardiac signal. Source: Own

receiver system. The acquisition of the “audible cardiac signals” is performed using the audio input of a PC with a maximum sampling capacity of 192000 kS/s, 16 bits resolution, THD lower than 0.1% and bandwidth from 4 Hz to18 kHz in the Lab-View 8.2 environment. A similar setup is realized in [23] 2.4. Demodulation of the amplitude modulated leads For the signals demodulation, the National Instruments demodulation toolkit is used. As the cardiac signals of each person may vary in amplitude, moreover the amplitudes of the precordial signals are usually greater than the bipolar leads in the same subject, then the modulation factor of each measure lead changes considerably which could cause changes to the original signal, if is not properly demodulated. However, in this work a coherent type AM digital demodulation is used, which takes the carrier signal as an input parameter and it is independent of the modulation factor, as is described in below. Initially the envelope signal m(t) becomes the signal described in eq. (3).

Figure 4. Amplifier and conditioner circuit for the cardiac leads. Source: Own

x t   C  m t  cos wt 

(3)

where C is a constant that depends on the amplitude of the carrier signal. Multiplying the eq. (3) by cos(wt) and using the trigonometric identity cos2(θ) = ½ + cos(2θ)/2 is obtained the eq. (4)

1 1  y t   C  mt   cos2wt  2 2  

Figure 5. Experimental curves T1 (reference device) and T2 (AM modulator) of the frequency response of both devices. Source: Own

the cardiac signal is converted into audible signal which are transmitted using a commercial microphone FM transmitter-

(4)

Subsequently, to recover the m(t) signal, the y(t) signal is filtered using a band-pass filter tuned to the frequency w, in order to remove the DC component and higher frequencies than the carrier signal. Finally the result is multiplied by 2.

122


Estrada-GutiĂŠrrez et al / DYNA 82 (189), pp. 118-126. February, 2015.

After all the design, simulation and assembly work of the electronic device, the execution stage of experiments began, in order to test the ability of detection and acquisition using a commercial ecg signal simulator. In the Fig. 7 is show a typical measurement of the 12-lead amplitude-modulated. By analyzing the graphs, are evidenced higher modulation factors in the precordial leads. In these measurements the maximum THD observed oscillates around 4%, this is due to nonlinear behavior of the semiconductor components of the transmission/reception of signals system. However, the demodulated signals shows THD values lowers than 1% due to the lowpass filter of high order implicit in the digital demodulate method.

3. Measurements and discussion 3.1. Measurements of 12 leads modulated

3.2. Measurements with volunteers Thereafter, measurements of 12 cardiac leads (intervals of 3 seconds per lead) are obtained from a group of 12 volunteers with no history of heart disease, as follows: the electrodes are connected to our device and simultaneously to the inputs of the electrocardiograph of reference ECGref. The signals of ECGref are acquired of wired manner from a laptop over a distance of 10 m, using an analog acquisition interface USB-6805 from National Instruments, with 5 kS/s of sampling frequency and a shielded USB cable. While the same cardiac lead is modulated in AM and transmitted by

Figure 7. Graphs of the 12 modulated leads using a commercial ecg simulator. Source: Own

Figure 8. Graphs of the demodulated 12 leads of a volunteer (gray line) and those obtained simultaneously with the reference device (black line). Source: Own

123


Estrada-Gutiérrez et al / DYNA 82 (189), pp. 118-126. February, 2015.

FM2 (trademark ROMMS mod. MC-100), to the audio input of the same computer. The data are acquired with sampling frequency of 50 kS/s, in order to demodulate, store and graph them in real time; on a same graphical interface developed in LabView environment. Each lead is selected wirelessly from the same distance (10 m) using the FM1 transmitter (trademark steren, mod. Mic-280). In the Fig. 8 is shown the measurements of the 12 leads of the same volunteer, using both devices. Plotting the measured signals by the two methods is generally observed a shift in the amplitude and time. This observed displacement in the amplitudes can be explained by the different DC levels (offset) found in the signals. Furthermore the horizontal shift is due to the period to the acquisition, digitization, demodulation and sampling. Moreover, in Fig. 9 are displayed the ECG signals of D1 acquired with both devices, they are shown overlapped deliberately, in order to visibly compare the measurements more clearly. As can be observed the shape of the undulations, intervals and segments which compound the signals are maintained. This fact is very important because the iso-electric lines and amplitudes using both devices must be conserved, in order to carry out a correct determination of θ and φ. Nevertheless, a further analysis is also necessary.

are evaluated the absolute relative deviations (ARD) between the two signals point to point, following the definition of the eq. (5). In the graph of the Fig. 10(A) it can see the typical values of ARD of the volunteer 12 leads, whereas the Fig. 10(B) shows the typical values of ARD of the V2 lead, where are displayed the deviations to the amplitudes of the complex P, QRS and T. After a careful analysis of the ARD values in the leads of each volunteer, it is observed that the largest differences occur in the peak values of the QRS (mainly those associated with the amplitudes of the R and S), becoming more evident in leads of higher amplitude as V2, V4 and V5 and reaching differences up to 15 %. To determine the differences between the lengths L of the main intervals or segments of both kind of signals, the graph of D1 was analyzed in Origin 6.0 (the leads D1 or D2 are normally used for the reference device) of each volunteers, using the peak detection tool (peak detection). Next, the average value of the ARD is calculated following eq. (6) and the percentage values obtained are shown in the second row of Table 4. The same criterion is employed to determine the AARD values of the undulations P, Q, R, S and T, in the lead D2 as is shown in the last row of Table 4.

ARDRe ference / Audio 

ARe ference  AAudio ARe ference

(5)

Figure 9. Overlapped graphs of D1, simultaneously taken with the audio input (gray line) and with the pattern device (black line). Source: Own

3.3. Quantitative comparison between both devices

Actually there are several investigations [15,24-27], which employee different alternatives to the comparison of two signals. They are based in the direct measurement of the parameters of cardiology, or by calculating those parameters using signal processing based on Wavelets. For this purpose, initially we have done a subroutine in the Labview acquisition program to set the base lines (offset) at the same level and subtract the time shifting between them, in order to start at the same point. Likewise the acquired signals through the USB-6508 card are interpolated to match the number of samples acquired via the audio input. In this way

Figure 10. (A) Typical values of ARD (dimensionless) obtained in the 12 leads and (B) of V2 lead with, deviations related to the amplitudes of the complex P, QRS and T. Source: Own

124


Estrada-Gutiérrez et al / DYNA 82 (189), pp. 118-126. February, 2015. Table 4. Percentage values of ARD between the lengths L of the main intervals or segments of the D1 lead PR seg. PR int. QRS int. QT int. ST seg. ECG % % % % % AARD 7 5 7 7 9 ECG AARD Source: Own

Pamp. % 4

Qamp. % 4

AARDRe ference / Audio 

1 N

Ramp. % 10

Samp. % 8

 LRe ference  L Audio    L i 1 Re ference  i

Tamp. % 6

N

 

(6)

Acknowledgements

These ARD and AARD values experimentally found in the interval and segments of the signals, may be due to small variatios of the carrier AM signal, wereas the AARD values of the amplitudes are due to the differences in the frequency response of both devices, as shown in Fig. 5. Indeed, analyzing the AARD values of Ramp. and Samp. of the Table 4 and regarding that the cardiac axis is related with the ratio of the amplitudes r = R/S, the maximum expected error of cardiac axis orientation (eq. (7)) could be close to 20 %. This finding shows the importance of comparing all the alternatives of electrocardiographic devices, against a pattern device, for example [5-13].

rmax imum 

R  AARD( Ramp) S  AARD( Samp)

vertical plane of the heart, could be extended by adapting this selector in order to perform studies of vectorcardiography and the criterions of eq. (7) to evaluate the viability of the devices could be used. The system can be reproduced by an approximate cost of US$90 and exhibits a good performance according to the trademark pattern device, which meets the international standards for electrocardiography. Therefore it shown to be a viable tool to measure cardiac bio-electric potential, for telemedicine applications [28], research in biomedical engineering or in teaching activities. Due to their low cost, the device represents a suitable tool to be used in developing countries, similar to [29].

(7)

4. Conclusions In this work is presented in detail a low cost viable alternative PC assisted to determine 12-lead electrocardiograms (one by one), using a single stage of amplification and filtering, to conduct studies of vectorcardiography. The leads can be selected and stored using the audio input and output of a computer respectively; and a pair of inexpensive audio transmitter/receiver devices. Using an AM modulator with audible carrier, each lead becomes an audio signal, and could be transmitted through the microphone input of an economic mobile phone device. In the same way, using the telephone keypad and headphone output the desired cardiac lead can be selected. Nevertheless the module of analog transmission/reception can be easily replaced by a modern digital transmission system, in order to obtain the twelve cardiac leads through a peripheral port, like USB or COM. We have developed an alternative to the selection of cardiac leads using an arrangement of commercial analog multiplexers, which can be controlled wired or wirelessly from the audio output of a PC, using dual frequency tones and a tone decoder. However, the selector can be used to easily switch between cardiac leads via digital outputs from another device such as: a parallel port, a microcontroller, a digital signal transmitter zigbee or manually using a 4-digit keypad. So that, many devices reported for evaluation the

The authors wish to thank the facilities provided for obtaining measurements to the staff of the regional hospital of the IMSS in Ocotlán Jalisco and to CONACyT by the support given to students. References [1]

Kligfield, P., Gettes, L.S., Bailey, J.J., Childers, R., Deal, B.J., Hancock, E.W. et al. Recommendations for the standardization and interpretation of the electrocardiogram: Part I: The electrocardiogram and its technology: A scientific statement from the American Heart Association Electrocardiography and Arrhythmias Committee, Council on Clinical Cardiology; the American College of Cardiology Foundation; and the Heart Rhythm Society. Endorsed by the International Society for Computerized Electrocardiology. Heart Rhythm, 4 (3), pp. 394-412, 2007. http://dx.doi.org/10.1016/j.jacc.2007.01.024 [2] Pipberger, H.V. et al., Recommendations for standardization of leads and specifications for instruments in electrocardiography and vector cardiography. Circulation, 52, pp. 11-31, 1975. [3] Ferrero, C.A. and Hall, E.J., Textbook of Medical Physiology, 11 ed., Mc Graw-Hill, Spain, 2001. pp. 103-114, [4] Henneberg, K.A., Biopotentials and electrophysiology measurement, in Aller Mauren. Measurements instrumentation and sensors Handbook, CRC press, 2a ed., Boca Raton, Florida, 1999, pp. 20192037. [5] Silva, C.V. and Rojas, V.G., Design and implementation of a digital electrocardiographic system Rev.Fac.Ing.Univ. Antioquia, 55, pp. 99-107, 2010. Available at: http://jaibana.udea.edu.co/grupos/revista/revistas/nro055/Articulo%2 010.pdf [6] Tseng Y-L., Shi Y.-Z., Jaw F.-S., Portable, real-time, 12-lead ecg monitoring system, Instrumentation Science & Technology, 38 (4), pp. 305-312, 2010. http://dx.doi.org/10.1080/10739149.2010.508331 [7] Najeb, J.M., Ruhullah, A. and Sh-Hussain, S., 12-Channel USB data acquisition system For QT dispersion analysis, Proceedings of the International Conference on Robotics. Vision, Information and Signal Processing ROVISP, pp. 83-86, 2005. Available at: http://eprints.utm.my/2151/1/Najeb_ROVISP_2005.pdf [8] Lucani, D., A portable ECG monitoring device with Bluetooth and Holter capabilities for telemedicine applications. Proceedings of the 28th IEEE EMBS Annual International Conference New York City, USA, pp. 5244-5247, 2006. http://dx.doi.org/10.1109/IEMBS.2006.260798 [9] Jia-Ren, C.C. and Cheng-Chi T. A new wireless-type physiological signal measuring system using a PDA and the Bluetooth technology, Instrumentation Science & Technology, 37 (5), pp. 503-515, 2009. [10] Nopparat, V., The three-lead wireless ECG in sensor networks for mobile patients. SICE Annual Conference, pp. 2308-2311, 2008. http://dx.doi.org/10.1109/SICE.2008.4655050

125


Estrada-Gutiérrez et al / DYNA 82 (189), pp. 118-126. February, 2015. [11] Auteri, V., Roffia, L., Lamberti, C. and Cinotti, T.S., Zigbee-based Wireless ECG Monitor, Computers in Cardiology, 34, pp. 133-136, 2007. http://dx.doi.org/10.1109/CIC.2007.4745439 [12] Thaddeus, R.F., Fulford-Jones, G-Y.W., and Welsh, M., A Portable, Low-Power, Wireless Two-Lead EKG System. In Proceedings of the 26th Annual International Conference of the IEEE EMBS San Francisco, CA, USA, pp. 2141-2144, 2004. http://dx.doi.org/10.1109/IEMBS.2004.1403627 [13] Borromeo, S., Rodriguez-Sanchez, C., Machado, F., HernandezTamames, J.A. and de la Prieta, R.A., Reconfigurable, wearable, wireless ECG system. In Proceedings of the 29th Annual International Conference of the IEEE EMBS Cité Internationale, Lyon, France, pp. 1659-1662, 2007. http://dx.doi.org/10.1109/IEMBS.2007.4352626 [14] Gabor, D. and Nelson, C.V., Determination of the resultant dipole of the heart from measurements on the body surface, Journal of Applied Physics, 25, pp. 413-416, 1954. http://dx.doi.org/10.1063/1.1721655 [15] Davis, D., Quick and Accurate 12-Lead ECG Interpretation 4a ed., Philadelphia, USA, Lippincott Williams & Wilkins, 2007, pp. 6-7. Available at: http://resourcecenter.ovid.com/site/catalog/Book/4961.pdf [16] Cano, M.E., Jaso, R.A., Tavares, R.A., Estrada, J.C., Mena, E.A., Reynoso, O., González, V.A. and Córdova, T. A simple alternative for modulating and recording the PQRST complex. Rev. Mex. de Ing. Biomédica, 31 (2), pp. 100-108, 2011. Available at: http://www.medigraphic.com/pdfs/inge/ib-2011/ib112f.pdf [17] Chiuso, A., Laurenti, L. and chenato, A.Z., LQG cheap control subject to packet loss and SNR limitations. 2013 European Control Conference (ECC), Zürich, Switzerland, 2013. Available at: http://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6669629 [18] Elia, N., Remote stabilization over fading channels, Systems and Control Letters, 54, pp. 237-249, 2005. http://dx.doi.org/10.1016/j.sysconle.2004.08.009 [19] Guyton, C.A., John, H.E., Textbook of Medical Physiology. 11va. ed., Spain, Mc Graw-Hill, 2001. pp. 103-114. [20] Association for the Advancement of Medical Instrumentation, Cardiac monitors, heart rate meters and alarms. ANSI/AAMI EC13– 1992. Arlington (VA): AAMI, American National Standard. 2002. Available at: http://www.pauljbennett.com/pbennett/work/ec13/ec13.pdf [21] Association for the Advancement of Medical Instrumentation, American National Standard Safe Current Limits for Electromedical Apparatus, ANSI/AAMI ES1-1993. Arlington (VA): AAMI, American National Standard. 1993. Available at: https://courses.engr.illinois.edu/ece445/documents/Safe_Current_Li mits.pdf [22] Ying-Wen B., Chien-Yung C., Cheng-Kai L., Chuang-Hsiang H., Yuh-Ting Ch. and Ya-Nan L. Adjustable 60Hz Noise Reduction and ECG signal amplification of a remote electrocardiogram system. In proceedings of the Instrumentation and Measurement Technology Conference Vail, CO, USA, pp. 197-202, 2003. Available at: http://cs.ee.fju.edu.tw/paper/200301.pdf [23] Stojanovic, R. and Karadaglic, D., An economical and feasible teaching tool for biomedical education Computer-Based Medical Systems (CBMS), 2011 24th International Symposium on, 1, pp. 15, 2011. http://dx.doi.org/10.1109/CBMS.2011.5999116 [24] Dubin, D., Rapid Interpretation of EKG's. 6ta ed. Tampa,FL, Cover Pub Co, pp. 75-76, 2000. [25] Olarte, O.J., Sierra, D.A. and Rueda, O.L., System for the recognition and diagnostics of cardiac arrhythmias applied to the identification of wide complex tachycardia from the ECG. Rev. Fac. Ing. Univ. Antioquia, 48, pp. 153-164, 2009. Available at: http://ingenieria.udea.edu.co/grupos/revista/revistas/nro048/4815.pdf?origin=publication_detail [26] Sivannarayana, N. and Reddy, D.C., Biorthogonal wavelet transforms for ECG parameters estimation. Medical Engineering and Physics, 21, pp. 167-174, 1999. http://dx.doi.org/10.1016/S13504533(99)00040-5 [27] Dumont, J., Hernández, A.I. and Carrault, G., Parameter optimization of a wavelet-based electrocardiogram delineator with

an evolutionary algorithm. Computers Cardiology, 32, pp. 707-710, 2005. http://dx.doi.org/10.1109/CIC.2005.1588202 [28] Castellano, N.N., Gázquez, J.A., López, J.F. and Manzano, F., Telemetry system for transmission data from an ambulance. DYNA, 79 (175), pp. 43-51, 2012. Available at: http://www.scielo.org.co/pdf/dyna/v79n175/v79n175a05.pdf [29] Walker, B.A., Khandoker, A.H. and Black, J., Low cost ECG monitor for developing countries. Intelligent Sensors, Sensor Networks and Information Processing (ISSNIP), 2009 5th International Conference on 7 - 10 Dec. 2009 Melbourne, VIC, pp. 195-199, 2009. http://dx.doi.org/10.1109/ISSNIP.2009.5416759 J.C. Estrada-Gutiérrez, received the PhD. degree in Sc. in 2014 from the Universidad of Guadalajara, México, Full Professor en the Technologic Sciences department in the Centro Universitario de la Ciénega of the Universidad de Guadalajara, in México. His research interest include: Magnetic Hyperthermia, Automation and Control and Embedded Systems. A. Hernández-Sámano, received the MPhys. degree in 2013 from the University of Guanajuato, México, he is Student in the PhD in physics in the Centro Universitario de la Ciénega of the Universidad de Guadalajara, in México. His research interest include: Magnetic Hyperthermia, Resonant Inverters and Magnetometry. E.E. Mazón-Valadez, received, the BIE. degree in 2012 from the Universidad of Guadalajara, México, he is Student in the Masters in physics in the Centro Universitario de la Ciénega of the Universidad de Guadalajara, in México. His research interest include: Magnetic Hyperthermia, Resonant Inverters and SAR. J. Ávila-Paz, received MSc.in 2003 from the Universidad Central Marta Abreu de las Villas, Cuba, Full Professor in the Technologic Sciences department in the Centro Universitario de la Ciénega of the Universidad de Guadalajara, in México. His research interest include: Magnetic Hyperthermia, Automation and Control, and Embedded Systems. A. González-Vega, received the PhD degree in Ciences in 2007 from the Centro de Investigación en Matemáticas A.C. Mexíco. Full professor in the Biomedical Engineering department in the División de Ciencias e Ingenierías de la Universidad de Guanajuato, in México. His research interest include: Biomechanics, biomaterials, optics process, instrumentation and signal and image processing. J.A. Leyva-Cruz, received the PhD degree in Ciences in 2005 from the Universidade de São Paulo, Brazil. Full professor in the Physics Department in the Universidade Estadual de Feira de Santana (UEFS) na Bahia, in Brazil. His research interest include: Bioinstrumentation, electric and magnetic imaging in medicine, acquisition and automatic processing of biosignals, inverse problems and photoconductive sensors. M.E. Cano-González, received the PhD degree in Physics in 2007 from the University of Guanajuato, México. Full professor in the Basic Sciences department in the Centro Universitario de la Ciénega of the Universidad de Guadalajara, in México. His research interest include: Magnetic Hyperthermia, Resonant Inverters and Monte Carlo Simulations.

126


Analysis of hydrogen production by anaerobic fermentation from urban organic waste Edilson León Moreno-Cárdenas a, Arley David Zapata-Zapata b & Fernando Álvarez-Mejía c a

Facultad de Ciencias Agrarias, Universidad Nacional de Colombia, Medellín, Colombia. elmorenoc@unal.edu.co b Facultad de Ciencias, Universidad Nacional de Colombia, Medellín, Colombia. adzapata@unal.edu.co c Facultad de Ciencias Agrarias, Universidad Nacional de Colombia, Medellín, Colombia. falvarezme@unal.edu.co Received: March 6th, 2014. Received in revised form: June 10th, 2014. Accepted: July 9th, 2014.

Abstract The production of hydrogen by anaerobic fermentation of urban organic waste from fruits and vegetables was studied. Ten tests were carried out under an incomplete factorial experiment design with four factors and three levels. The factors were: acidification pH, acidification time, operational pH, and organic load. The response variables were: maximum hydrogen content (%) and maximum hydrogen production (L/day). The results were fitted to a quadratic polynomial model. In the case of the maximum hydrogen content, an R2 and an R2adjusted of 0.9987 and 0.988 were obtained, respectively. For the maximum production, an R2 and an R2adjusted of 0.9815 and 0.833 were obtained, respectively. Three mathematical techniques were used to obtain the maximum values in the response variables. Fuzzy logic showed the best fit between the experimental values and estimated values. In addition, it predicts a maximum hydrogen content of 58.5% and a maximum production of 63.4 L/day. Keywords: Hydrogen, anaerobic fermentation, mathematical model, organic waste, batch culture.

Análisis de la producción de hidrógeno por fermentación anaerobia de residuos orgánicos urbanos Resumen Se estudió la producción de hidrógeno por fermentación anaerobia de residuos orgánicos urbanos de frutas y verduras. Se realizaron 10 ensayos usando un diseño experimental factorial incompleto con cuatro factores y tres niveles. Los factores fueron pH de acidificación, tiempo de acidificación, pH de operación y carga orgánica. Las variables respuesta fueron contenido de hidrógeno máximo (%) y producción máxima de hidrógeno (L/día). Los resultados se ajustaron a un modelo polinomial cuadrático, para el contenido de hidrógeno se obtuvo un R2 y un R2ajustado de 0.99 y 0.98 respectivamente. En la producción máxima de hidrógeno, se obtuvo un R2 y un R2ajustado de 0.98 y 0.83 respectivamente. Tres técnicas matemáticas fueron usadas para obtener los valores máximos, siendo el modelo con lógica difusa el que presentó mejor ajuste entre los valores experimentales y los estimados, además pronostica un contenido de hidrógeno de 58.8% y una producción máxima de 63.4 L/día. Palabras clave: Hidrógeno; fermentación anaerobia; modelo matemático; residuos orgánicos; cultivo discontinuo.

1. Introduction The development of hydrogen technology has been limited due to the low availability of hydrogen. Although hydrogen is a highly abundant element in nature, it is not found isolated. Its traditional production is done with costly chemical processes (reforming hydrocarbons) or with processes with a negative energetic balance, such as electrolysis [1]. In recent years, it has been demonstrated that it is possible to generate hydrogen through the anaerobic fermentation of

organic waste (biohydrogen). The process is characterized as being complex, dynamic and highly dependent on multiple factors, including the type of substrate, temperature, pH, nutrient content, agitation, water retention time, bacterial population, and bioreactor, among others [2]. However, it can be said that high yields in the production and in the composition of biohydrogen (between 50% and 60% hydrogen) are achieved when substrates that are rich in sugars are used under thermophilic conditions (temperatures between 45 and 70oC) and a pH of around 6.0 [3].

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 127-133. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42461


Moreno-Cárdenas et al / DYNA 82 (189), pp. 127-133. February, 2015.

Studies have been carried out with the goal of identifying the combined effects of two variables; pH and substrate content and pressure and temperature. However, few studies have analyzed the synergistic effect of multiple variables when the substrates are residues and the culture is mixed [4]. Perhaps the most used model to describe the evolution of biohydrogen is Gompertz’s model; this empirical approximation is based on three parameters: the lag phase time, potential production of H2, and H2 production rate. Experimental information related to these three parameters must first be obtained in order to adjust the model; this allows a high correlation between the observed data and the adjustments to be obtained. The model should not be used for predictions because it does not take into account high incidence variables in the process, such as temperature, pH, and substrate type and content [5-8]. The conventional kinetic equations of Monod and of Luedeking and Piret have been used to study the production of biohydrogen. However, multiple rigorous simulations followed by a series of validations may be required to establish the generality of the equations and associated parameters. Additionally, a complete understanding of those models will be achieved when they can be integrated with other complex bioprocesses, such as hydrolysis and acetogenesis [9]. Other authors have used kinetic models that are highly successful in the prediction of methane generation (ADM1, open structure mechanistic model, Anaerobic Digestion Model1) and adjusted them to describe the production of biohydrogen. The ADM1 was used to predict the production of hydrogen, the chemical demand of oxygen and the formation of fatty acids, taking into account temperature, inoculum, agitation, pH control and pressure. The authors achieved a suitable prediction for the production of hydrogen with an adjustment of R2 = 0.91; however, for the chemical demand of oxygen, acetate, butyrate and propionate, the adjustments were inferior (R2 = 0.88; R2 = 0.76; R2 = 0.75; and R2 = 0.71, respectively) [10]. Other models are based on experimental designs where optimal values can be found through the gradient method or through the superposition of response surfaces [11-13]. These models provide an adapted approximation for the optimization of biohydrogen production when variables such as pH, glucose content, iron sulfate content, hydraulic retention time and inoculum rate have been analyzed [14,15]. However, many factors can affect optimal conditions, especially when mixed cultures are used; therefore, these conventional techniques can be laborious and time consuming and do not always ensure the determination of optimal conditions. These methods allow for the maximum possible coverage of cases and detect the key parameters in multivariate systems rather than provide optimal values [15]. Nonconventional mathematical techniques such as genetic algorithms (GA) are being used for modeling and optimizing non-linear multivariate bioprocesses [16]. Some hybrid models that use Artificial Neural Networks (ANNs) and GAs have been developed to optimize the production of hydrogen, using the following variables: initial pH, temperature, mixed substrate, content and age of the

inoculum. The results indicate that after optimization, it has been possible to increase the hydrogen yields up to 16% [17]. In general, it has been noted that, in models where an ANN is considered the objective function of a GA, a high optimization of hydrogen production has been achieved; higher than the one achieved by conventional techniques, including the response surface methodology [18,19]. Alternatively, heuristic models based on fuzzy logic have been used to predict the production rate of biogas and methane by anaerobic fermentation with notable results. A model with fuzzy logic was developed to predict the production of biogas and methane using five variables: organic load rate, chemical demand of oxygen, removal rate, alkalinity, and effluent and influent pH [20]. The model based on fuzzy logic demonstrated a high predictive capacity when compared with the non-linear regression model. The adjustment with the fuzzy logic model had R2 = 0.985, and it had R2 = 0.893 with the exponential model. The fuzzy logic model did not require the definition of the complex reactions or their biochemical and mathematical equations; thus a complex system with high non-linear structure such as anaerobic digestion could be easily modeled with suitable precision. In the present study, the generation of hydrogen by anaerobic fermentation from urban organic waste was studied and two stochastic techniques and one heuristic technique were used to analyze the percentage of hydrogen from gas and the daily production of hydrogen. 2. Materials and methods 2.1. Location This study was carried out at the Laboratorio de Mecanización Agrícola of the Universidad Nacional de Colombia, Medellín campus, located at 1,488 m.a.s.l., at the coordinates of 6°13′55″N and 75°34′05″W, with an average annual temperature of 24°C, relative humidity of 88% and average annual precipitation of 1,571 mm. 2.2. Raw material The raw material consisted of a mixture of organic waste compounds principally from lettuce leaves, cabbage, orange, lime, papayuela, mango, guava, cucumber, onion, garlic, pepper and tomato, which were blended in a processor (0.5 Hp, 1,730 rpm, Siemens). The waste was obtained from the Central Mayorista de Antioquia. 2.3. Materials For the tests, three cylindrical bioreactors of 2,000 L were used; these were operated in batch culture mode. The gas production was recorded with a gas meter (Metrex G2.5, precision of 0.040m³/h and maximum pressure of 40 kPa or 5.8 PSIG). The pH measurements were carried out daily with a digital pH-meter (Hanna Instruments) with a precision of 0.2 (at a temperature of 20°C).

128


Moreno-Cárdenas et al / DYNA 82 (189), pp. 127-133. February, 2015. Table 1. Operational ranges of the factors in the tests. Factor Level 1 Organic Load (OL, mg /L) 8000 Acidification Time (Ta, days) 5 Acidification pH (pHa) 3.5-4.5 Operational pH (pHo) 4.5-5.0 Source: Authors.

Level 2 15000 10 4.6-5.5 5.1-5.5

Level 3 30000 >15 >5.6 5.6-6.0

2.4. Methods Ten tests were carried out under an incomplete factorial design with four factors and three levels. The factors were: acidification pH (pHa), acidification time (Ta), operational pH (pHo) and organic load (OL). The response variables were: maximum hydrogen production (PH2, L/day) and maximum hydrogen content (CH2, %). The acidification pH corresponded to the pH of the substrate at the beginning of the test, which permitted the elimination of the methanogenic bacteria (hydrogen consumers). The acidification time represented the days in which the test remained with an acidification pH; when this was completed, agricultural lime was added (CaO 54%) until the operational pH that corresponded to each test was reached. Finally, the organic load associated with the chemical demand of oxygen (mg/L) was measured at the beginning of the tests and its magnitude was a function of the decomposition degree of the available waste. The operation volume of bioreactors was 1,400 L and each test had an average of 550 ± 20 kg of substrate blended with water at a proportion of 1:2 [21]; this represented 70% of the bioreactors' volume. The digestion time was variable according to the acidification time and all tests were performed without stirring. In tests, an inoculum was not

used; the microorganisms were native from the waste used. In Table 1, the ranges of each factor are presented.

2.4.1. Physicochemical Analysis The physicochemical analyses of COD (Chemical Oxygen Demand) followed the standardized methods of APHA in the 19 edition of 1995 (standard method 5220-C). To determine the composition of the generated gas, daily samples were taken using one (1) liter Tedlar bags. The samples were analyzed with a Perkin Elmer chromatograph, equipped with a thermal conductivity detector (TCD) and two columns connected in series (CP-5A and Moliseve CP Porabond Q). Oven temperatures and detector temperatures of 60 and 253°C, respectively, were used. The analysis of the gas included the quantification of CO2, O2, H2, CO, CH4 and N2 [22]. 2.4.2. Process Modeling

Response surface and non-linear regression model. Two nonlinear models were constructed by means of nonlinear regression and adjusted by least squares. For this the NonLinearModel.fit option of Matlab 2012 was used. A pure quadratic model was employed, which included independent, linear and quadratic terms. In order to

optimize the models, the rstool tool for the multidimensional statistical analysis of the response surface was used. Genetic algorithm and non-linear regression model. The aptitude function that was optimized with the genetic algorithm was the non-linear model obtained with the NonLinearModel.fit option of Matlab 2012. The individuals were composed of four genes, each one corresponding to a factor, codified in real values. The genetic algorithm was applied with the optimtool option of Matlab 2012. The genetics operators were: mutation, cross and replication by elite (4 individuals). Heuristic model with fuzzy logic. A model was created using fuzzy logic, which was integrated with four input variables corresponding to the four factors of the experiment and two output variables associated with the response variables. Both the input variables and the output variables were represented by five trapezoidal fuzzy sets linguistically labeled very low, low, medium, high, and very high. The employed fuzzy inference system was Mandani and the operator was the minimum (method And). The method for transforming the fuzzy results was centroid. The model was implemented with the Fuzzy Logic tool of Matlab 2012. 3. Results 3.1. Hydrogen Content and Production Table 2 presents the results obtained for maximum hydrogen content and maximum production in ten tests. The values of the factors remained in the previously defined ranges for each level. The content and production values correspond to the maximums achieved in each test. The most outstanding results were obtained for an organic load over 18,000 mg/L; a pHa between 4.1 and 4.5; a Ta between 7 and 8 days; and a pHo between 5.2 and 5.3 These operation conditions are similar to those reported by different authors when urban organic waste is used [14]. From experimental results (see table 2), the maximum hydrogen content obtained was 18% and the maximum production was 37.8 L/day. These values are considered low; however, it is important to emphasize that in all the tests, the temperature was in the mesophilic range, an inoculum was not employed, and the fermentation process was done without stirring. Table 2. Results for maximum hydrogen content and maximum production. OL Ta H2 (L/day) Test pHa pHo H2 (%) (mg/L) (days) 1 8667 4.3 6 5.0 6.7 4.0 2 12000 4.2 11 4.5 0 0 3 12000 5.3 10 5.1 5.7 5.4 4 12000 5.3 8 5.6 3.5 1.7 5 18000 4.1 7 5.3 10.5 37.8 6 19133 3.7 30 6.0 17.3 14.5 7 21000 4.8 5 6.2 9.2 32.7 8 23340 4.5 8 5.2 18.0 33.6 9 23340 4.3 14 5.1 7.0 12.5 10 27140 4.2 15 5.8 8.2 14.9 Source: Authors.

129


Moreno-Cárdenas et al / DYNA 82 (189), pp. 127-133. February, 2015. Table 3. Adjustment indicators of the models for the estimation of maximum hydrogen content and maximum production (Root Mean Squared R2adjusted Variable R2 Error, RMSE) Hydrogen 0.62 0.9987 0.988 content Hydrogen 5.77 0.9815 0.833 production Source: Authors.

The results fit a second order polynomial model, both for the hydrogen content and for the production of hydrogen. The adjustment made with the NonLinearModel.fit option of Matlab facilitated obtaining equations with independent, linear, and quadratic terms; when the interaction terms between the factors were included, it was not possible to carry out the adjustment. Information related to the adjustment of the models is presented in Table 3. The obtained models were:

Figure 1. Optimization of the maximum hydrogen content with multiple response surfaces. Source: Authors.

Model for maximum hydrogen content (CH2) 358.6180 0.0013 ∗ 8.5685 ∗ 8.6143 ∗ 10 2.1048 ∗ 0.1498 ∗

150.5930 ∗ 16.7956 ∗

5.4706 ∗

(1)

Model for maximum hydrogen production (PH2) 1235.3 0.0043 ∗ 42.2072 ∗ 2.2832 ∗ 10 ∗ 2.5467 ∗

462.4066 ∗ 49.2637 ∗

Figure 2. Optimization of the maximum hydrogen content with the genetic algorithm. Source: Authors.

7.9847 ∗ 0.1339 ∗

(2)

The model obtained for the estimation of hydrogen content presented a high fit with an R2adjusted value of 0.988. This means that 98.8% of the variation in the hydrogen content was attributable to the independent variables of the study. Additionally, the RMSE value was low (0.62), which indicates a low error between the model prediction and the experimental information. In the case of hydrogen production, the adjustment was good, albeit inferior to that of the model for hydrogen content. Its R2adjusted value was 0.833, which indicates that 83.3% of the variation in hydrogen production was attributable to the independent variables. 3.2. Hydrogen content optimization The optimization with the multiple response surfaces methodology was effective with a significance level of 0.05 (alpha). Despite the use of a model with high fit (see Table 3), this tool did not produce a suitable optimization because the resulting prediction was negative in magnitude (-5.6947, an unlikely situation for the experiment) with a broad interval (± 87.0799). This is attributable to the broad interval of confidence (red lines in Fig. 1) for each of the factors, possibly associated with the variability of the experimental information. This implies weakness in the prediction. The maximum estimation with this tool was 81.4%; a value that is very unlikely to be obtained with a bioprocess like the one developed in the present study: a batch system without inoculum cells, without temperature control and without agitation [23,24].

In the case of the predictions with the genetic algorithm, 100 interactions were required to obtain the results. The maximum hydrogen content was 58.7%. The initial population size was established at 40 individuals. The function employed for the creation of the initial population was obtained from a random initial population with a uniform distribution. The shift linear function was used for the classification of the individuals. The selection was statistically uniform. An elite population of 4 individuals was defined for the reproduction and the cross fraction was 0.6. For the mutation, the adaptive feasible function was employed. The cross function was intermediate, and the migration proceeded with a fraction of 0.2. The stopping criterion was defined by the number of generations. Fig. 2 contains the fit behavior of the genetic algorithm during optimization. Starting at generation number 40, a convergence can be seen between the mean value and the best value, presenting a high fit. The model, based on fuzzy logic, estimated the maximum hydrogen content at 58.8%, a value similar to that achieved with the genetic algorithm. This value was obtained when the organic load was between 20,000 and 25,000 mg/L (see Fig. 3), the acidification pH was between 4.4 and 4.6, the acidification time was between 5 and 7 days, and the operational pH was 5.8. In the surfaces obtained with the fuzzy logic model (Fig. 3), the existence of various maximum values was observed; however, there

130


Moreno-Cárdenas et al / DYNA 82 (189), pp. 127-133. February, 2015.

Figure 4. Optimization of maximum hydrogen production with multiple response surfaces. Source: Authors.

Figure 3. Estimation of maximum hydrogen content with fuzzy logic. Source: Authors.

Table 4. Estimation of the maximum hydrogen content OL H2 (%) Model (mg/L) -5.6947 Response surface 17662 ± 87.1 Genetic algorithm 58.7 13350 Fuzzy logic 58.8 20000 Source: Authors.

pHa

Ta (days)

pHo

4.5

11.4

5.4

4.5 4.5

18.3 5

6.2 5.8

was only one global maximum, which corresponded to the value estimated by the model. This indicates that the model was able to respond to the dynamic and non-linear behavior of the bioprocess in a suitable manner. Table 4 presents the optimal values obtained with the response surfaces and the genetic algorithm, as well as the estimation obtained with the fuzzy logic model. The latter two provided similar maximums for the hydrogen content. The genetic algorithm produced an estimation that required a substrate with a lower organic load as compared to that provided by the fuzzy logic model; however, the genetic algorithm estimated the acidification time at 18 days while the fuzzy logic model estimated it at 5 days. The acidification time is an adaptive stage of the substrate in which the hydrogen-consuming methanogenic bacteria are eliminated. During this time, hydrogen is not generated, so this time must be made as short as possible. 3.3. Hydrogen production optimization Similarly to the optimization of the hydrogen content, the estimation of the maximum daily production with the multiple response surfaces methodology was overly high. The achieved prediction was a negative value (-4.165), with a very broad interval (± 829.9778) associated with the broad confidence interval (see Fig. 4, especially for the acidification time). This represents low confidence for the predictions produced by this tool. There was a high overestimation, with an estimated maximum production of 825.8 L/day, a value well beyond the maximum experimental value with organic waste in a batch culture without inoculum cells or agitation and at a mesophilic temperature [25-27]. With the genetic algorithm, the maximum value for hydrogen production was 66.7 liters/day. The size of the initial population was established at 40 individuals, and it

Figure 5. Optimization of maximum hydrogen production with genetic algorithm. Source: Authors.

was created from an initial randomized population with uniform distribution. The function for the classification of the individuals was shift linear with a maximum survival rate of 5. The selection was uniform; the reproduction was carried out maintaining an elite of 4 individuals with a cross fraction of 0.6. For the mutation, an adaptive feasible function was employed; the cross function was intermediate. The migration proceeded with a fraction of 0.2. The stopping criterion was the number of generations, which was established at 100. The convergence between the mean value and the best value was achieved at generation 70 (Fig. 5). The maximum hydrogen production estimated with the fuzzy logic model was 63.4 L/day, a magnitude slightly lower than the genetic algorithm estimation. The value

Figure 6. Estimation of the maximum hydrogen production with fuzzy logic. Source: Authors.

131


Moreno-Cárdenas et al / DYNA 82 (189), pp. 127-133. February, 2015. Table 5. Estimation of the maximum hydrogen production and the value factors. OL H2 Ta Model pHa (liters/day) (mg/liter) (days) -4.165 ± Response surface 17,662 4.5 11.4 829.9 Genetic 66.7 14,945 4.8 25 algorithm Fuzzy logic 63.4 18,000 4.5 5 Source: Authors.

of the pHo 5.4 5.9 5.5

estimated with fuzzy logic was obtained with an organic load between 15,000 and 18,000 mg/L (see Fig. 6), an acidification pH between 4.4 and 4.6, an acidification time between 5 and 7 days and an operational pH of 5.5. Various maximum values can be seen, but with a unique global maximum, corresponding to the estimated value. The fuzzy logic model, as with the maximum hydrogen content estimation, responded suitably to the dynamic and nonlinear behavior of the bioprocess [28,29]. A summary of the results obtained for the maximum hydrogen production for the three methods is presented in Table 5. Similarly to the maximum content, the maximum value obtained with fuzzy logic was close to that of the genetic algorithm estimation, requiring a substrate with a slightly higher organic load but a much lower acidification time, changing from 25 days to 5 days. This creates an advantageous situation for the fuzzy logic model because it is desirable to start hydrogen production as soon as possible. In addition, the fuzzy logic model gave values of each factor for the hydrogen content very similar to those values obtained for production. This means that a gas with high hydrogen content and high production could be produced simultaneously; a desired situation for use in fuel cell, internal combustion engine and turbine [30-32]. 4. Conclusions

found at levels reported by various authors in similar conditions of the bioprocess (waste and operation mode of reactor) [33,34]. The genetic algorithm model presented estimations that were very similar to those produced by the fuzzy logic model; however, the estimated values for the optimization of the hydrogen content and the production of the gas are associated with an acidification time, notably higher than the values obtained by the fuzzy logic model: 3.6 times higher. This represents a huge limitation because the hydrogen production would be delayed without any additional increase in hydrogen content. In the case of optimization with the multiple response surfaces, the obtained results were not in accordance with the experiment tests. 5. Acknowledgement The authors wish to thank Universidad Nacional de Colombia and Central Mayorista de Antioquia for the support received during the present research. In addition, they wish to thank Deisy Juliana Cano Quintero for her contribution during the tests. References [1]

[2]

[3]

[4]

The production of hydrogen was possible with the use of 2,000-liter bioreactors, without agitation, without adding inoculum cells, at ambient temperature (mesophilic, 25°C) and using a substrate of urban waste (fruit and vegetable waste). The results obtained with the four independent variables and the two dependent variables allowed for the construction of two models, one for each of the dependent variables. The results of these variables presented good fit to polynomial models of degree two. A posterior optimization of both models involved the use of three mathematical tools: multiple response surfaces, genetic algorithm, and fuzzy logic; the values obtained after optimization for both the hydrogen content and the hydrogen production were higher than the values reached in experimental tests. The fuzzy logic produced results more in accordance with the expectations; this tool allowed to increase hydrogen content 3.3 times and hydrogen production 1.7 times. The values of independent variables should be between 18,000 and 20,000mg/L for the organic load; 4.5 for acidification pH; 5 days as the acidification time; and between 5.5 and 5.8 for operational pH. These values were

[5]

[6]

[7]

[8]

[9]

[10]

132

Ozmihci, S. and Kargi, F., Effects of starch loading rate on performance of combined fed-batch fermentation of ground wheat for bio-hydrogen production. International Journal of Hydrogen Energy, 35 (3), pp. 11061111, 2010. http://dx.doi.org/10.1016/j.ijhydene.2009.11.048 Ozmihci, S., Kargi, F. and Cakir, A., Thermophilic dark fermentation of acid hydrolyzed waste ground wheat for hydrogen gas production. International Journal of Hydrogen Energy, 36 (3), pp. 2111-2117, 2011. http://dx.doi.org/10.1016/j.ijhydene.2010.11.033 Obazu, F.O., Ngoma, L. and Gray, V.M., Interrelationships between bioreactor volume, effluent recycle rate, temperature, pH, %H2, hydrogen productivity and hydrogen yield with undefined bacterial cultures. International Journal of Hydrogen Energy, 37 (7), pp. 55795590, 2012. http://dx.doi.org/10.1016/j.ijhydene.2012.01.001 Lee, D.J., Show, K.Y. and Su, A., Dark fermentation on biohydrogen production: Pure culture. Bioresourse Technology, 102 (18), pp. 83938402, 2011. http://dx.doi.org/10.1016/j.biortech.2011.03.041 Chong, P.S., Jahim, J.M., Harun, S., Lim, S.S., Mutabil, S., Abd, Hassan, O. and Nor, M.T.M., Enhancement of batch biohydrogen production from prehydrolysate of acid treated oil palm empty fruit bunch. International Journal of Hydrogen Energy, 38 (22), pp. 95929599, 2013. http://dx.doi.org/10.1016/j.ijhydene.2013.01.154 Khanna, N., Kotay, S.M., Gilbert, J. and Das, D., Improvement of biohydrogen production by Enterobarter Cloacae IIT-BT 08 under regulated pH. International Journal of Hydrogen Energy, 152 (1-2), pp. 9-15, 2011. Pekgöz, G., Gündüz, U., Eroğlu, I., Yücel, M., Kovács, K. and Rákhely, G., Effect on inactivation of genes involved in ammonium regulation on the biohydrogen production of Rhodobacter capsulatus. International Journal of Hydrogen Energy, 36 (21), pp. 13536-13546, 2011. ttp://dx.doi.org/10.1016/j.ijhydene.2011.07.123 Yuan, X., Shi, X., Zhang, P., Wei, Y., Guo, R. and Wang, L., Anaerobic biohydrogen production from wheat stalk by mixed microflora: Kinetic model and particle size influence. Bioresource Technology, 102 (19), pp. 9007-9012, 2011. http://dx.doi.org/10.1016/j.biortech.2011.06.045 Khanna, N., Kumar, K., Todi, S. and Das, D., Characteristics of cured and wild strains of Enterobarter Cloacae IIT-BT 08 for the improvement of biohydrogen production. International Journal of Hydrogen Energy, 37 (16), pp. 11666-11676, 2012. http://dx.doi.org/10.1016/j.ijhydene.2012.05.051 Gadhamshetty, V., Arudchelvam, Y., Nirmalakhandan, N. and Johnson, D.C., Modeling dark fermentation for biohydrogen production: ADM1-


Moreno-Cárdenas et al / DYNA 82 (189), pp. 127-133. February, 2015.

[11]

[12]

[13]

[14]

[15]

[16] [17]

[18]

[19]

[20]

[21]

[22] [23]

[24]

[25]

[26]

based model vs. Gompertz model. International Journal of Hydrogen Energy, 35 (2), pp. 476-490, 2010. http://dx.doi.org/10.1016/j.ijhydene.2009.11.007 Liu, Q., Zhang, X., Zhou, Y., Chen, S., Qian, G. and Xu, Z.P., Optimization of fermentative biohydrogen production by response surface methodology using fresh leachate as nutrient supplement. Bioresourse Technology, 102 (18), pp. 8661-8668, 2011. http://dx.doi.org/10.1016/j.biortech.2011.03.002 Bakonyi, P., Nemestóthy, N., Lövitusz, É. and Bélafi-Bakó, K., Application of Plackett-Burman experimental desing to optimize biohydrogen fermentation by E. coli (XL1-BLUE). International Journal of Hydrogen Energy, 36 (21), pp. 13946-13954, 2011. http://dx.doi.org/10.1016/j.ijhydene.2011.03.062 Prakasham, R.S., Sathish, T., Brahmaiah, P., Rao, Ch.S. and Rao, R.S., Biohydrogen production from renewable agri-waste blend: Optimization using mixer desing. International Journal of Hydrogen Energy, 34 (15), pp. 6143-6148, 2009. http://dx.doi.org/10.1016/j.ijhydene.2009.06.016 Tenca, A., Schievano, A., Perazzolo, F., Adani, F. and Oberti, R., Biohydrogen from thermophilic co-fermentation of swine manure with fruit and vegetable waste: Maximizing stable production without pH control. Bioresource Technology, 102 (18), pp. 8582-8588, 2011. ttp://dx.doi.org/10.1016/j.biortech.2011.03.102 Sun, Q., Xiao, W., Xi, D., Shi, J., Yan, X. and Zhou, Z., Statistical optimization of biohydrogen production from sucrose by a co-culture of Clostridium acidisoli and Rhodobacter sphaeroides. International Journal of Hydrogen Energy, 35 (9), pp. 4076-4084, 2010. ttp://dx.doi.org/10.1016/j.ijhydene.2010.01.145 Nath, K. and Das, D., Modeling and optimization of fermentative hydrogen production. International Journal of Hydrogen Energy, 102 (18), pp. 8569-8581, 2011. Prakasham, R.S., Sathish, T. and Brahmaiah, P., Imperative role of neural network couple genetic algorithm on optimization of biohydrogen yiel. International Journal of Hydrogen Energy, 36 (7), pp. 4332-4339, 2011. http://dx.doi.org/10.1016/j.ijhydene.2011.01.031 Huang, S.R., Wu, Ch.Ch., Lin, Ch.Y. and Chen, H.T., Parameter optimization of the biohydrogen real time power generating system using differential evolution algorithm. International Journal of Hydrogen Energy, 35 (13), pp. 6629-6633, 2010. http://dx.doi.org/10.1016/j.ijhydene.2010.04.038 Wang, J.L. and Wan, W., Application of desirability function based on neural network for optimizing biohydrogen production process. International Journal of Hydrogen Energy, 34 (3), pp. 1253-1259, 2009. http://dx.doi.org/10.1016/j.ijhydene.2008.11.055 Aydinol, F.T. and Yetilmezsoy, K., A fuzzy-logic model to predict biogas and methane production rates in a pilot-scale mesophilic UASB reactor treating molasses wastewater. Journal of Hazardous Materials, 128 (1-3), pp. 460-471, 2010. http://dx.doi.org/10.1016/j.jhazmat.2010.06.054 Moreno, C.E.L., Cano, Q.D.Y. and Cortés, M.E.A., Generation of biohydrogen by anaerobic fermentation of organics wastes in Colombia, in Zhen F. Liquid, gaseous and solid biofuels conversion techniques, 1a ed., Croatia, InTech, 2013. pp. 377-400. APHA. Standard method for the examination of water and wastewater. Washington, 1995. Reungsang, A., Sreela-or, Ch. and Plangklandg, P., Non-sterile biohydrogen fermentation from food waste in a continuous stirred tank reactor (CSTR): Performance and population analysis. International Journal of Hydrogen Energy, 38 (35), pp. 15630-15637, 2013. http://dx.doi.org/10.1016/j.ijhydene.2013.03.138 Pendyala, B., Chaganti, S.R., Lalman, J.A., Heath, D.D., Shanmugam, S.R. and Veeravalli, S.S., Using a food and paper –cardboard waste blend as a novel feedstock for hydrogen production: Influence of key process parameters on microbial diversity. International Journal of Hydrogen Energy, 38 (15), pp. 6357-6367, 2013. http://dx.doi.org/10.1016/j.ijhydene.2013.03.003 Nathao, Ch., Sirisukpoka, U. and Pisutpaisal N., Production of hydrogen and methane by one and two stage fermentation of food waste. International Journal of Hydrogen Energy, 38 (35), pp. 1576415769, 2013. http://dx.doi.org/10.1016/j.ijhydene.2013.05.047 Wang, K.S., Chen, J.H., Huang Y.H. and Huang, S.L.. Integrated Taguchi method and response surface methodology to confirm

[27]

[28]

[29]

[30] [31]

[32]

[33] [34]

hydrogen production by anaerobic fermentation of cow manure. International Journal of Hydrogen Energy, 38 (1), pp. 45-53, 2013. http://dx.doi.org/10.1016/j.ijhydene.2012.03.155 Zhang, J. and Wang, Q., Buffering and nutrient effects of white mud from ammonia-soda process on thermophilic hydrogen fermentation from food waste. International Journal of Hydrogen Energy, 38 (31), pp. 13564-13571, 2013. http://dx.doi.org/10.1016/j.ijhydene.2013.08.047 Waewsak, Ch., Nopharatana, A. and Chaiprasen, P., Neural-fuzzy control system application for monitoring process response and control of anaerobic hybrid reactor in wastewater treatment and biogas production. Journal of Environmental Sciences, 22 (12), pp. 1883-1890, 2010. http://dx.doi.org/10.1016/S1001-0742(09)60334-X Gao, J., Wang, L., Feng, E. and Xiu, Z., Modeling and identification of microbial batch fermentation using fuzzy expert system. Applied Mathematical Modelling, 37 (16-17), pp. 8079-8090, 2013. http://dx.doi.org/10.1016/j.apm.2013.02.042 Razbani, O. and Assadi, M., Performance of a biohydrogen solid oxide fuel cell. International Journal of Hydrogen Energy, 38 (31), pp. 1378113791, 2013. http://dx.doi.org/10.1016/j.ijhydene.2013.08.061 Lee, M.C., Seok, S.B., Chung, J.H., Kim, S.M., Joo, Y.J. and Ahn, D.L., Gas turbine combustion performance test of hydrogen and carbon monoxide synthetic gas. Fuel, 89 (7), pp. 1485-1491, 2010. http://dx.doi.org/10.1016/j.fuel.2009.10.004 Klell, M., Eichlseder, H. and Sartory, M., Mixtures of hydrogen and methane in the internal combustion engine-Synergies, potential and regulations. International Journal of Hydrogen Energy, 37 (15), pp. 11531-11540, 2012. http://dx.doi.org/10.1016/j.ijhydene.2012.03.067 Bedoya, A., Castrillón, J.C, Ramírez, J.E., Vásquez, J.E. and Zabala, M.A., Producción biológica de hidrógeno: una aproximación al estado del arte. DYNA, 75 (154), pp. 137-157, 2008. De Gioannis, G., Muntoni, A., Polettini, A. and Pomi, R., A review of dark fermentative hydrogen production from biodegradable municipal waste fractions. Waste Management, 33 (6), pp. 1345-1361, 2013. http://dx.doi.org/10.1016/j.wasman.2013.02.019

E.L. Moreno-Cárdenas, received a Bs. Eng in Agricultural Engineering in 1998, from the Universidad Nacional de Colombia, Medellin, Colombia and an MSc. degree in Agricultural Engineering in 2005, from the Universidad de Concepcion, in Chile. He worked for the Colombian Coffee growers Federation and since 2009, he has worked for the Universidad Nacional de Colombia. Currently, he is a Full Professor in the Agricultural Engineering and Food Department, Facultad de Ciencias Agrarias, Universidad Nacional de Colombia. His research interests include: renewable energy sources, agricultural machinery, simulation, modeling and computational intelligence techniques. ORCID: 0000-0001-5693-4273 A.D. Zapata-Zapata, received a Bs. Eng in Chemical Engineering in 1998, from the Universidad de Antioquia, Medellin, Colombia. He received an MSc. degree in Biotechnology from the Universidad Nacional de Colombia, Medellin, Colombia and his PhD. degree in Sciences 2008, from the Universidad Nacional de la Plata, Argentina. Since the year 2000 he is a Full Professor at the Universidad Nacional de Colombia, in the Chemistry Department, Facultad de Ciencias, Universidad Nacional de Colombia. His research interests include: fermentative and enzymatic process, bioprocess, modeling and biofuels. F. Álvarez-Mejía, received a Bs. Eng in Agricultural Engineering in 1972, from the Universidad Nacional de Colombia, Medellin, Colombia and an MSc, degree in Agricultural Engineering in 1982, from the Universidad de Campinas, in Brasil. Since 1978 he is a Full Professor at the Universidad Nacional de Colombia, in the Agricultural Engineering and Food Department, Facultad de Ciencias Agrarias, Universidad Nacional de Colombia. His research interests include: agricultural machinery, agricultural mechanization, machinery design and modeling.

133


Identification of impacts of stages and materials on life cycle of footwear Bélgica Pacheco-Blanco ª, Daniel Collado-Ruiz ª & Salvador Capuz-Rizo ª ª Grupo Integración de Diseño y Evaluación Ambiental (ID&EA), Departamento de Proyectos de Ingeniería. Universitat Politècnica de Valencia, blpacbla@dpi.upv.es; dacolrui@dpi.upv.es; scapuz@dpi.upv.es Received: March 14th, 2014. Received in revised form: October 29th, 2014. Accepted: November 10th, 2014.

Abstract The environmental impacts caused by human activity, affects all productive and commercial activities that support the day to day. The products of massive consume such as footwear drive large impacts according to the materials and processes used for their manufacture. This paper present a literature review with the main aim to identify which are the phases and materials that cause greater environmental impacts to the environment, focusing on leather shoes. The results demonstrate that different authors reach similar results in terms of phases and high impact materials. The results permit change the current way of action and to focus the main efforts of research on tanning process. Keywords: Footwear, Life Cycle

Identificación de etapas y materiales de mayor impacto en el ciclo de vida del calzado Resumen La repercusión de los impactos al medio ambiente ocasionado por la actividad humana, afecta a todas las actividades productivas y comerciales que sustentan el día a día. Los productos de consumo masivo como el calzado, provocan grandes impactos de acuerdo a los materiales y procesos usados para su fabricación. Este trabajo de revisión y análisis, tiene por objetivo conocer cuáles son las etapas y materiales que provocan mayores impactos al medio ambiente, centrado en el calzado de piel. Los resultados demuestran que distintos autores llegan a resultados similares en cuanto a etapas y materiales de mayor impacto. Lo cual permite tomar medidas para revertir esta situación, así como canalizar los esfuerzos de investigación en los procesos de curtido. Palabras Clave: Calzado, Ciclo de Vida

1. Importancia y tamaño de la industria del calzado Para situar en su contexto la importancia del impacto ambiental del sector del calzado, se revisa la magnitud económica de este producto de primera necesidad y las etapas de su proceso de fabricación para tener una visión completa sobre la que centrar los análisis posteriores. Los impactos que provoca un par de zapatos al medio ambiente han sido analizados por varios autores a través del Análisis del Ciclo de Vida (ACV), utilizando la metodología ISO 14044 [1]. Sin embargo, el impacto también está asociado al perfil de los consumidores. En este sentido, el consumo per cápita de calzado ha aumentado de 1 par al año en 1950 a 2,6 pares de zapatos en 2005 [2].

Asimismo, en la UE se consumieron 2.864 pares de zapatos en 2011, correspondientes a 21.145 millones de euros. Alemania, Francia, Italia, España y Reino Unido son los 5 principales consumidores de calzado [3]. A nivel mundial, se estima que el consumo de calzado alcanza los 20.000 millones de pares al año, de los que menos del 5% son reciclados, siendo en su mayoría depositados en el vertedero. La relevancia de este sector y la justificación de su estudio tienen que ver con la importancia desde el punto de vista económico. Los ingresos de la industria del calzado mundial han incrementado un 2.2% en 2012 a USD 122.900 millones, frente a USD 107.400 millones en 2011: lo cual representa un crecimiento anual del 2.7% sobre los 5

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 134-141. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42575


Pacheco-Blanco et al / DYNA 82 (189), pp. 134-141. February, 2015.

últimos años [4]. De acuerdo a las estimaciones de APPICAPS [5], la producción mundial de calzado alcanzó 21.000 millones de pares en 2011. Alrededor del 87% de la producción mundial tiene lugar en Asia, principalmente en China (60.5%), seguida de la India (10.4%), Vietnam (3.8%), Pakistan (1.4%), and Bangladesh (1.3%). La industria de calzado India ha crecido considerablemente en los últimos años debido a la inversión de EEUU, Europa y Taiwan, las cuales han concentrado la producción en el precio medio del país [4]. Para responder al objeto de investigación, se analizan los resultados de distintos estudios publicados relacionados con el ciclo de vida del calzado. 2. Metodología La identificación de los impactos al medio ambiente provocados por la fabricación del calzado, puede ser utilizado como base para mejorar su comportamiento ambiental. En este sentido, se plantea identificar las fases y materiales de mayor impacto en la fabricación del calzado a partir de las siguientes tareas: 1. Descripción del proceso de fabricación de calzado (centrado en el calzado de piel), para situar el contexto y límites de cada estudio que se revise posteriormente. 2. Revisión y análisis del estado del arte sobre análisis del ciclo de vida del calzado. Siguiendo la propuesta de metodología planteada por Gómez-Luna et al. [6] 3. Identificación de fases y materiales de mayor impacto en la fabricación de diferentes tipologías de calzado. 3. Descripción del procesos de fabricación del calzado El proceso de fabricación de calzado consta de las etapas de: Confección del producto, Envasado y Expedición. Sin embargo, si consideramos el ciclo de vida completo del producto, se deben considerar las fases que contemplan el tratamiento de pieles, uso, mantenimiento y fin de vida. 3.1. Tratamiento de pieles Esta etapa se inicia una vez han sido extraidas las pieles de los animales, que se desinfectan y curan. El “curado” consiste en apilar las pieles con gran cantidad de sal durante 30 días para que la sal absorba las sustancias líquidas de la piel. Otros métodos menos usuales consisten en el tratamiento directo con salmuera, o tratamiento con una solución clorhídrica y la posterior congelación. Tras el curado se procede al curtido, basado en la utilización de elementos vegetales o el cromo, que tiene como finalidad básica aumentar la durabilidad de la piel animal. El proceso de curtido (partiendo de la piel curada) consta de tres etapas: el precurtido, el curtido y el acabado. El precurtido tiene por objeto limpiar la piel, así como eliminar la capa interna conjuntiva y todos los pelos o cerdas en aquellos casos en que el producto acabado deba estar en condiciones. El precurtido dota de elasticidad y flexibilidad a la piel. El curtido es el proceso que da a la piel el carácter inerte frente a los agentes exteriores. El acabado confiere a la piel el aspecto deseado.

En las distintas etapas del precurtido, es donde se produce un mayor flujo de y nivel de contaminación a través de las aguas residuales, que contienen sulfuro como principal sustancia contaminante y una gran cantidad de sales. El sulfuro se utiliza en la eliminación del pelo, sobre todo en las tenerías de pieles lanares. En la curtición, las sustancias contaminantes más importantes son el cromo III y la salmuera. El cromo debido al reciclado del agua de los baños, se encuentra en concentraciones muy bajas. Los taninos vegetales, que fundamentalmente se utilizan en las pieles vacunas, son de difícil biodegradabilidad, deben ser eliminados mediante tratamientos físico-químicos. Los vertidos obtenidos en las tres etapas no deben mezclarse antes de eliminar los sulfuros de las actividades enmarcadas en la etapa de precurtido anteriormente mencionadas, y el cromo de la etapa de curtición [7]. Sólo entre un 20- 25% en peso de la materia prima se transforma en piel curtida acabada, el resto de la piel procesada se convierte en residuos sólidos. Los residuos y subproductos sólidos que se generan en una tenería tienen un alto contenido en grasas, colágeno, proteínas, poder absorbente, poder calorífico en la combustión, resistencia mecánica, aislante térmico y acústico, etc. Aunque su aprovechamiento no siempre es rentable porque van acompañados de una gran cantidad de agua. Suele ser más económico depositarlos en el suelo o en un vertedero controlado. Algunos de estos residuos, como las carnazas, serrajes y recortes de serraje deben acondicionarse antes de ser depositados, porque se pudren fácilmente, causando problemas por el ataque bacteriano, olores desagradables, atracción de moscas, etc. Los principales problemas de contaminación a la atmósfera son: la descomposición biológica de residuos orgánicos, las emisiones de ácido sulfhídrico y de vapores de disolventes y otros compuestos volátiles de las operaciones de acabado. Estos compuestos son los responsables del olor característico de las tenerías. Además, algunas curtidurías tienen una pequeña incineradora de sus propios residuos, por lo que se producen emisiones por encima de los niveles permitidos. Las emisiones a la atmósfera se generan principalmente en la etapa de apelambrado y las operaciones posteriores. Las sustancias volátiles proceden fundamentalmente de operaciones de desengrase con disolventes y acabados. 3.2. Confección del producto El proceso de fabricación tiene en cuenta los materiales de entrada que han sido pensados desde las fases tempranas del diseño del producto. Los materiales varían en función del tipo de calzado que se trate (calzado deportivo, calzado de fiesta, etc.). Por lo tanto, los impactos al ciclo de vida van a ser diferentes debido al origen y tratamiento final que les corresponde. Esta división entre materiales de entrada, fabricación y materiales de salida, ha sido bien considerado en la publicación de la Categoría de Producto publicada en el Sistema EPD© (Fig. 1) [8], teniendo en cuenta que la piel no es el único material del calzado actual, sino uno de los

135


Pacheco-Blanco et al / DYNA 82 (189), pp. 134-141. February, 2015.

más importantes y que requiere de mayor atención en la industria. La fabricación del calzado de piel (o cuero), comienza con la compra de la materia prima (pieles) ya tratada en fábricas autorizadas. Se corta y confeccionan las partes del calzado, se añaden los accesorios que el modelo requiera, se retocan algunos componentes del conjunto para dar un acabado apto para su comercialización. Paralelamente, se debe contabilizar el uso de colas, adhesivos, disolventes, detergentes, agua y complementos de fabricación. Así como la energía eléctrica o calórica utilizada en el funcionamiento de la fábrica y sus máquinas. Como residuos de la fase de confección se obtienen residuos de la limpieza y mantenimiento de las máquinas, uso del suelo industrial y los residuos peligrosos y no peligrosos de productos químicos usados. Cuando el producto está acabado, debe ser envasado. En esta etapa se protege el producto acabado lo suficiente como para que llegue en buen estado al consumidor final. Habitualmente consiste en un envoltorio de papel o plástico y una caja de cartón donde se indican las características del producto. De esta manera, el producto ya puede ser distribuido a comercializadores y ser adquirido por los consumidores finales, quienes utilizarán, repararán y desecharán el calzado al final de su vida útil. 3.3. Envasado y expedición del producto Cuando el producto está listo para comercializar, es envasado de manera que quede protegido durante el transporte hasta el punto de venta. El envase suele estar compuesto de un papel o tela protectora que aísla de alguna manera el producto de la caja unitaria. La caja suele ser de cartón. Es decir, suele ser un envase que una vez convertido en residuos puede ser fácilmente gestionable. Los envases son productos cuyo proceso de fabricación es independiente a la fabricación del calzado, cuyo volumen de producción e impactos al medio ambiente han sido estudiados por varios autores desde distintos enfoques (Percepciones [9], ACV como herramienta de decisión [10], Impactos sociales y ambientales del envasado [11], etc.).

3.4. Uso, mantenimiento y fin de vida del calzado Después de la adquisición de un par de zapatos y el transporte hasta la vivienda del consumidor, el zapato pasa a la fase de uso. Ésta, dependerá del tipo de calzado y las expectativas de los usuarios. El mantenimiento pasa por el lustrado en el caso del calzado de piel formal y la aplicación de capas repelentes de agua en el caso del calzado de piel de montaña (si es que es necesario). No está especificado un patrón de mantenimiento del calzado, sino que varía según las costumbres de los usuarios. Posteriormente, cuando el consumidor decide dejar de emplear un calzado, no siempre significa que este agota su utilidad. En esta etapa, pueden contemplarse 4 escenarios posibles: 1) basura, que va directamente al vertedero (problemas: coste y restricciones); 2) Incineración y gasificación, recuperación energética (problemas: coste de incineración, emisiones toxicas, perdida de material); 3) Reuso y Remanufactura, se da una segunda vida al calzado en países menos desarrollados, lo cual equivale a posponer el fin de vida más que una alternativa de fin de vida; 4)Reciclaje a través de 4.1) Fragmentación, usando los residuos como relleno en materiales de construcción o bien, b) Separación de material fragmentado, que sirve para la fabricación de materiales de pavimentación, térmico/ acústico, aislante o materiales de base, y 4.2) clasificación de materiales a través de a) fragmentación y separación de materiales a través de maquinas de soplado y control de peso, b) desmontaje de partes como gomas y pieles para una reutilización. En Europa, la mayor parte del cuero bovino y ternero es producida en Italia (70,3%), seguida por la piel de ovejas y cabras (68,6%), y otros animales (49,3%). A nivel mundial el mayor productor de pieles es China con un 29,5% de la producción, seguida por el mercado europeo, con un 26.7% [12]. A pesar de que la amplia mayoría de impactos se producen en el procesado de materiales y las fases de fabricación (29% y 68% del impacto total) [13], se estima que la cantidad de residuos generados del postconsumo de calzado asciende a 1,2 millones de toneladas por año en la Unión Europea.

Figura 1. Modulo de Fabricación del Calzado. Fuente: Adaptado de EPD-Leather Footwear, 2013

136


Pacheco-Blanco et al / DYNA 82 (189), pp. 134-141. February, 2015.

Una de las razones que dificulta la separación y el reciclaje es la variedad de materiales que contiene un par de zapatos. Estudios demuestran que hay tres tipos de materiales de postconsumo que se pueden obtener: pieles, textiles, espumas y goma [2].

Dentro de los escenarios de fin de vida, en la actualidad existen pocas alternativas de futuro planteados por los fabricantes. Por ejemplo, la empresa NIKE ha construido dos plantas de reciclaje de zapatillas a gran escala, donde los consumidores pueden dejar su calzado deportivo a través

Figura 2. Diagrama del ciclo de vida de la fabricación del calzado. Fuente: Adaptado de Capuz et al., 2003; Albers et al., 2008; Joseph, Nithya, 2009; Herva et al., 2011; Lee M., Rahimifard, 2012; Join Research Centre, 2013; Rivela et al., 2004.

de procesos de reciclado mecánico se separan en 3 materiales principales: goma, espuma y textiles [2]. Estos materiales son usados para varios productos de refuerzo de material deportivo, con lo que ha reciclado alrededor de 25 millones de pares de zapatillas, sin embargo no es capaz de reciclar otros tipos de calzado. De acuerdo al estudio del Join Research Centre (JRC) [2] hay alrededor de 40 tipos de materiales que pueden ser empleados en la fabricación de calzado. Piel, goma, espumas, textiles y plásticos son los materiales básicos comúnmente usados en la manufactura de calzado.

de vida (Fig. 2), sintetiza el proceso de fabricación de un par de zapatos partiendo de la energía y materias primas necesarias, destacando especialmente los recursos necesarios para la obtención de la piel, recogiendo trabajos previos centrados en calzado de piel [14-16], ciclo de vida de la piel [17,18], procesos de fabricación [19], fin de vida del calzado [2], y en la valoración de impactos relevantes de ser comunicado a través de la información ambiental [3].

4. Impacto ambiental del proceso de fabricación del calzado

Los estudios revisados se plantean Unidades Funcionales (UF) distintas de acuerdo al objetivo de cada investigación. En el caso del calzado de piel, ha sido definida como: 1 par de zapatos [13,14,19-21]. Desde el punto de vista de la comercialización de

En este apartado se revisa y analiza el estado del arte del los impactos al ciclo de vida. Para ello, el diagrama del ciclo

4.1. Consideraciones previas

137


Pacheco-Blanco et al / DYNA 82 (189), pp. 134-141. February, 2015.

productos, la clasificación de productos del calzado según EUROSTAT [3] se divide en tantos tipos de calzado como materiales principales de composición de planta y cubierta, uso y destinatario (Tabla 1). Sin embargo, la clasificación a efectos de comparaciones de impacto ambiental y de acuerdo a los estudios previos, ha sido seleccionada a partir del destinatario, asignando una talla media de producto [3]. No obstante, de acuerdo al objetivo de cada investigación, se ha analizado el calzado teniendo en cuenta el uso de la piel como material principal, intermedio, compuesto de distintos materiales, o habiendo usado materiales sintéticos [3]. 4.2.

Identificación de las fases y materiales de mayor impacto al ciclo de vida del calzado (Revisión)

Para identificar las fases y materiales de mayor impacto en el ciclo de vida del calzado, se efectuó una revisión a partir de Join Research Centre (JRC) [2] y se extendió a todos aquellos estudios que utilizaban la metodología de Análisis del Ciclo de Vida o Huella de carbono para cualquier tipología de calzado. Posteriormente se indican cuáles son los motivos y fases de mayor impacto al medio ambiente (siempre que se disponga de los datos). Para diferenciar los estudios se indica la Unidad Funcional (UF) de cada uno de ellos, o unidad de medida estudiada. 4.2.1. 1000 horas de protección al pie Estudio basado en la norma ISO 14040 que demuestra que las entradas de materiales y energía, contribuyen en gran medida al cambio climático, acidificación y eutrofización. Asimismo, la curtiduría tiene un gran impacto debido al alto potencial de eutrofización al agua. Cerca del 50% de las materias primas no renovables y cerca del 70% del agua consumida durante el ciclo de vida son usados en esta fase. El gran consumo de agua genera una gran cantidad residuos contaminados, principalmente con materia orgánica nitrogenizada, que contribuye a la eutrofización (50% del todo el impacto). El consumo de energía durante la producción depende de las características de la producción de la electricidad [14]. Tabla 1. Clasificación del calzado.

Material de planta

Material de cubierta

Plásticos y gomas Pieles Madera Otras

Plásticos y gomas Pieles Textiles Otras

Uso

Deportes Botas de ski Interiores Exteriores Sandalias (Solo NACE) Protección (Solo NACE)

Género

Hombre Mujer Niños

4.2.2. 1000 kg de piel tratada Estudio basado en la norma ISO 14040 demuestra que las fases de mayor impacto corresponden a la Alimentación y Sacrificio del animal (45%), seguida por la producción de pieles (7,7%). El impacto de la agricultura se debe principalmente al consumo de energía y al uso de fertilizantes. En la ganadería, los principales impactos están relacionados con las emisiones asociadas al cuidado del animal, lo cual afecta cerca del 7,7% en los impactos atribuidos a la producción de pieles. La curtiduría es una de las fases de mayor importancia en todas las categorías de impacto debido al vertido de residuos de curtiembre. Esas emisiones son responsables de la contribución al cambio climático, formación de ozono fotoquímico, acidificación y eutrofización. Debe tenerse en cuenta que de los residuos sólidos del curtido sólo entre el 20% y el 25% del peso del cuero bruto es procesado para pieles. El consumo energético contribuye en gran medida a las emisiones a la atmósfera y por consiguiente, contribuye al cambio climático, acidificación y agotamiento de recursos. Respecto a los materiales de mayor impacto, están asociados a las emisiones de fertilizantes de agricultura, purines y excrementos, la cantidad de residuos sólidos generados durante el curtido y la gestión de estos residuos (incineración, reciclaje, vertedero); cantidad de cromo usado y enviado al vertedero o emitido el procesado de agua; y el consumo de energía asociado a la agricultura y curtiembre. Asimismo, se debe tener en cuenta el uso de productos químicos para la curtiduría (eutrofización, acidificación, toxicidad y ecotoxicidad) [17]. 4.2.3. 1 tonelada de pieles húmedas saladas Estudio basado en la norma ISO 14040 demuestra que el mayor impacto según el estudio es el curtido, que afecta en gran medida a las categorías de cancerígenos y ecotoxicidad. Los respirables inorgánicos y cambio climático se ven afectados por el consumo energético. El cromo contenido en los residuos al agua del curtido tiene un gran impacto sobre el ecosistema Asimismo como las emisiones de amoniaco al aire [20]. 4.2.4. Cubrir y proteger el pie (análisis de dos pares de zapatos de hombre y de mujer (nº 43 y 37 ½) Estudio basado en la norma ISO 14040 que demuestra que los principales impactos del ciclo de vida ocurren durante la fase de producción de materias primas (natural o sintético), en los casos estudiados. Los zapatos de línea convencionales tiene un mayor impacto en todas las categorías debido a la intensidad de los proceso. Estos zapatos están compuestos por materiales provenientes de fibras naturales que liberan etano que es un VOC capaz de generar smog. Los zapatos de fabricación y materiales convencionales tienen un gran impacto en 8 de las 10 categorías debido al uso de pieles.

Fuente: Join Research Centre, 2013 138


Pacheco-Blanco et al / DYNA 82 (189), pp. 134-141. February, 2015.

La jerarquía de materiales de calzado de mayor a menor impacto en la categoría de cambio climático y consumo energético son: Pieles, Nylon 6, Goma de silicona, Foam PU, EVA, goma látex, PET, algodón convencional, goma crepé, PET reciclado, algodón orgánico, y cáñamo [16]. 4.2.5. 100 m2 de piel acabada

 

Estudio basado en la norma ISO 14040 que demuestra que uno de los principales impactos al medio ambiente es ocasionado por el consumo de agua durante varios procesos (matanza y semi acabado de piel), debido al alto contenido de sustancia químicas usadas y contenidas que provocan eutrofización. Seguido por el consumo de electricidad usado en los procesos de transformación [18]. 4.2.6.

  

1000h de protección al pie (calzado de piel de señora)

Estudio basado en el ACV simplificado (ISO 14040) demuestra que la fase de montaje y materiales ocasiona el 62% de los impactos totales al medio ambiente. El transporte es poco relevante, ya que contribuye en un 8% al total de los impactos del ciclo de vida. Sin embargo el fin de vida provoca un 29% de los impactos totales, si se asume que los residuos van directamente al vertedero [21]. 4.2.7. Calzado de Seguridad

Los estudios que se centraban en zapatos de piel, coinciden en que las etapas de materiales y fabricación contribuyen entre un 50% y un 68% a producir los impactos al medio ambiente en todas sus categorías. La contribución al impacto total global del calzado de trote (gomas y espumas), centra sus impactos en la fabricación y transformación de las materias primas. Las botas de seguridad o botas que utilizan piezas de refuerzo afectan al medio ambiente entre70 y un 80% El impacto de los procesos de transformación del calzado de piel, se basa principalmente en el tipo de energía usada. Los impactos en la fase de fin de vida del calzado, se acercan al 15% y 29% en caso de ser desechado en el vertedero El tratamiento de las pieles para el calzado tienen su mayor impacto en el uso de sustancias químicas para el tratado de pieles y los consecuentes impactos al medio acuático.

Es decir, se demuestra que existen aspectos comunes que pueden ser tenidos en cuenta para reducir los daños al medio ambiente tanto en el diseño como rediseño de los productos. Asimismo, este tipo de información puede ser de utilidad para comenzar a concienciar a los consumidores, proporcionando cierta información que ayude a tomar decisiones de compra basadas en la información ambiental proporcionada. 5. Conclusiones

Estudio basado en el ACV simplificado (ISO 14040) demuestra que este tipo de calzado, a pesar de ser similar a una bota de trekking, tiene una serie de materiales que lo capacitan para proteger el pie en condiciones de trabajo duro (plantilla de metal, refuerzos hidrófugos, etc). El 41,6% de los impactos es provocado por la suela del calzado, seguido por aquellos materiales de corte (31,9%). La mayor contribución se produjo en la categoría de impacto “Combustibles Fósiles, seguido por respirables inorgánicos [22]. 4.2.8. Par de zapatillas numero 43 (Asics Gel Kayano) Estudio basado en la norma ISO 14040 que demuestra, demuestra que la mayoría de las emisiones al aire se centran en el procesado de materiales (29%) y la fase de fabricación (68%). El mayor impacto al cambio climático se debe a la fase de manufactura, debido al consumo energético (mitad al calor y mitad a la electricidad). Durante la transformación de materiales, el uso de polyester y poliuretano en la cubierta del calzado contribuye a más del 60% de las emisiones [13]. 4.2.9. Bota de trekking Estudio basado en el ACV simplificado (ISO 14040) demuestra que la gran cantidad de materiales usada, ocasiona alrededor de un 79% de los impactos totales al medio ambiente, seguido por el envase 10%; Corte y montado 7% [23]. De la revisión efectuada destaca el estudio de una o varias categorías de impactos, de las cuales se obtiene que:

La revisión de los estudios sobre el ciclo de vida de un par de zapatos (o de la piel utilizada para la fabricación del zapato), demuestran que el proceso seguido desde la crianza de los animales para extraer su piel hasta que se escoge el producto en la tienda, lleva asociado una gran cantidad de impactos al medio ambiente. A pesar de que los estudios revisados no se centran en la misma tipología de calzado, son desarrollados en diferentes países y usan diferentes materiales, se pueden identificar algunas conclusiones comunes sobre productos y procesos que provocan el mayor impacto al medio ambiente desde la cuna a la tumba.  Los procesos previos a la fabricación del calzado como la agricultura, ganadería y matanza tienen un gran impacto.  En la fabricación de materiales de entrada: pieles y materiales sintéticos. Los principales impactos provienen del agotamiento de los recursos naturales y el consumo de energía en los procesos (inyección y moldeado). En el algodón la ecotoxicidad está asociada al uso de agroquímicos y el consumo de agua para el riego. En las fibras sintéticas acrílico, nylon, poliamida, PP) y fibras de celulosa (viscosa), el cambio climático y ecotoxicidad están asociados a la energía usada para la fabricación de fibras.  En la fabricación del producto: el mayor impacto de esta etapa está condicionada por el consumo de energía (electricidad y calor) usada en la fabricación. Así como la fuente de producción de energía utilizada (nuclear, carbón, agua).

139


Pacheco-Blanco et al / DYNA 82 (189), pp. 134-141. February, 2015.

Las fases de distribución, uso y fin de vida son consideradas de menor importancia. Un par de zapatos provoca grandes impactos al medio ambiente cuanto más tradicional sea. Es decir, el uso de pieles está vinculado a una serie de procesos de gran impacto al medio ambiente si son comparados con otro tipo de materiales de fabricación. Sin embargo, desde el punto de vista de la sostenibilidad se deben incluir factores relacionados con el perfil del consumidor y el uso del calzado. Los escasos documentos encontrados sobre análisis del ciclo de vida del calzado ponen en evidencia la falta de interés aparente en mejorar el comportamiento ambiental del sector. Asimismo, la revisión demuestra que los esfuerzos deben estar centrados en reducir las emisiones al agua y al aire durante la fase de curtido de pieles, lo cual puede mejorar notoriamente el comportamiento ambiental de las empresas. El reemplazo de sustancias químicas por sustancias naturales o esfuerzos centrados en mejorar el proceso de limpieza y mantenimiento de pieles así como la contratación de energía verde para reducir el consumo energético durante la fase de uso. La principal contribución de este artículo, se centra en la exhaustiva revisión de la metodología de ACV en el sector del calzado, detectando posibles nichos de investigación y/o mejora del sector de acuerdo a criterios de sostenibilidad. Asimismo, se debería evaluar cómo han sido transmitidos estos hallazgos a los procesos de fabricación y hasta qué punto han sido tenidos en cuenta más allá del ámbito científico. Cómo investigaciones futuras se plantea la evaluación de la percepción de la información ambiental en diseñadores y consumidores.

[8]

[9]

[10]

[11]

[12]

[13]

[14]

Referencias [1] [2]

[3]

[4]

[5]

[6]

[7]

ISO (International Standard Organization), ISO 14044. Environmental management. Life cycle assessment, Requirements and guidelines, 2006. Lee, M. and Rahimifard, S. An air-based automated material recycling system for postconsumer footwear products. Resources, Conservation and Recycling [Online]. 69, pp. 90-99, 2012. [date of reference january 20th of 2014]. Available at: http://www.sciencedirect.com/science/article/pii/S09213449120016 93 Join Research Centre, European Commission. Background Report. Service Offer Subject: Revision of ecolabel for the group “Footwear” [Online]. pp 373, 2013 [date of reference december 14th of 2013] Available at: http://susproc.jrc.ec.europa.eu/footwear/docs/EU_Ecolabel_Footwea r_%20Background%20Report.pdf IBISWorld. Global Footwear Manufacturing. [online]. [date of reference september 12th of 2013] Available at: https://www.ibisworld.com/industry/global/global-footwearmanufacturing.html APPICAPS. World Footwear 2012 Yearbook Data Up to 2011. [online]. 2012. [date of reference March 2nd of 2014] Available at: http://www.apiccaps.pt/c/document_library/get_file?uuid=7d10300e -b8e0-40ae-b9be-246e4327714c&groupId=10136 Gómez-Luna, E., Fernando-Navas, D., Aponte-Mayor, G. and Betancourt-Buitrago, L., 2014. Metodología para la revisión bibliográfica y la gestión de información de temas científicos, a través de su estructuración y sistematización., DYNA 81 (184), pp. 158-163, 2014. http://dx.doi.org/10.15446/dyna.v81n184.37066 EPD, Product Category Rules Date 2013-09-16. UN CPC 2933 Leather Footwear 2013:15. [online]. Version 1.0. [date of reference january 3rd of 2014] Available at:

[15]

[16]

[17]

[18]

[19]

140

http://www.environdec.com/en/PCR/Detail/?Pcr=8495#.UyLnq_l5N 8E Ampuero, O. and Vila, N., Consumer perceptions of product packaging. Journal of Consumer Marketing [online]. 32, pp 100112, 2006. [date of reference october 7th of 2013] Available at: http://www.emeraldinsight.com/journals.htm?articleid=1549947&sh ow=abstract Sonneveld, K., The role of life cycle assessment as a decision support tool for packaging, Packaging Technology and Science [online]. 13 (2), pp. 55-61, 2000. [date of reference november 10th of 2014] Available at: http://onlinelibrary.wiley.com/doi/10.1002/10991522(200003/04)13:2%3C55::AID-PTS490%3E3.0.CO;2G/abstract Oki, Y. and Sasaki, H., Social and environmental impacts of packaging (LCA and assessment of packaging functions). Packaging Technology and Science [online]. 13 (2), pp. 45-53, 2000. [date of reference november 11th of 2014] Available at: http://onlinelibrary.wiley.com/doi/10.1002/10991522(200003/04)13:2%3C45::AID-PTS496%3E3.0.CO;2-%23/pdf COTANCE (Confederation of National Associations of Tanners and Dressers of the European Community), Social and Environmental Report - the European leather industry. [online]. 2012 [date of reference March 17th of 2014]. Available at: file:///C:/Users/blpacbla/Downloads/EuropeanSocialandEnvironmen talReport2012.pdf Cheah, L., Duque, N., Olivetti, E., Matsumura, S., Forterre, D., Roth, R. and Kirchain, R., Manufacturing-focused emissions reductions in footwear production. Journal of Cleaner Production [online]. 44, pp. 18-29, 2013. [date of reference December 14th of 2013] Available at: http://www.sciencedirect.com/science/article/pii/S09596526120063 00 Milà, L., Rieradevall, J., Domènech, X., Fullana, P. and Puig, R. Application of life cycle assessment to footwear. International Journal of Life Cycle Assessment [online]. 3 (4), pp. 203-208, 1998. [date of reference February 10th of 2014] Available at: http://link.springer.com/article/10.1007%2FBF02977570 Capuz, S., Gómez, T., Viñoles, R., López, R., Bastante, M.J., Vivancos, J. y Ferrer, P. Situación actual y perspectivas del ecodiseño en las Pymes de la Comunidad Valenciana. Valencia, Editorial Universidad Politécnica de Valencia, pp. 202, 2003. Albers, K., Canepa, P. and Miller, J., Simple shoes. Analyzing the environmental impacts of simple shoes. A life cycle assessment of the supply chain and evaluation of end-of-life management options, [Online]. 2008. [date of reference February 10th of 2014]. Available at: http://www.bren.ucsb.edu/research/documents/SimpleShoesFinalRe port.pdf Milà, L., Domènech, X., Rieradevall, J., Puig, R. and Fullana, P., Use of life cycle assessment in the procedure for the establishment of environmental criteria in the Catalan eco-label of leather. International Journal of Life Cycle Assessment [Online]. (7) pp. 3946, 2002. [date of reference February 10th of 2014]. Available at: http://link.springer.com/article/10.1007%2FBF02978908#page-1 Joseph, K. and Nithya, N., Material flows in the life cycle of leather. Journal of Cleaner Production [Online]. 17, pp. 676-682, 2009. [date of reference December 14th of 2013] Available at: http://www.sciencedirect.com/science/article/pii/S09596526080029 16 Herva, M., Álvarez, A. and Roca, E., Sustainable and safe design of footwear integrating ecological footprint and risk Criteria. Journal of Hazardous Materials [Online]. 192, pp. 1876-1881, 2011 [date of reference December 14th of 2013] Available at: http://www.sciencedirect.com/science/article/pii/S03043894110090 95 Rivela, B., Moreira, M.T., Borhardt, C., Méndez, R. and Feijoo, G., Life cycle assessment as a tool for the environmental improvement of the tannery industry in developing countries. Environment Science and Technology 38, pp. 1901-1909, 2004 http://pubs.acs.org/doi/pdf/10.1021/es034316t


Pacheco-Blanco et al / DYNA 82 (189), pp. 134-141. February, 2015. [20] Pacheco-Blanco, B., Bastante-Ceca, M.J., Nazer-Varela, A., SalazarRuiz, E. y Capuz-Rizo, S., Análisis del ciclo de vida de calzado de señora. XIV International Congress on Project Engineering, Madrid, [Online]. pp. 2507-2518, 2010, Available at: http://aeipro.com/files/congresos/2010madrid/ciip10_2507_2518.29 40.pdf [21] Centro Tecnológico del Calzado de la Rioja, Ecodiseño aplicado a la industria del calzado y conexas, IV Congreso encuentro de empresas en eco-innovación, ecodiseño y edificación sostenible. Bilbao, 22 de abril. 2010. Dra. B. Pacheco-Blanco, trabaja como investigador y docente en la Universitat Politècnica de Valencia en España. Es Dr. en Proyectos de Ingeniería e Innovación. Ha trabajado en Proyectos relacionados con el ecodiseño de productos, información ambiental, análisis del ciclo de vida en el sector de envases y embalajes, juguetes, calzado y productos electrónicos. Dr. D. Collado-Ruiz, trabaja como investigador y docente en la Universitat Politècnica de Valencia en España. Es Dr. en Desarrollo, Sostenibilidad y Ecodiseño. Ha trabajado en Proyectos relacionados con el diseño para la sostenibilidad y el análisis del ciclo de vida en el sector de envases y embalajes, juguetes, y productos electrónicos. Dr. S. Capuz-Rizo, es catedrático universitario e investigador por la Universitat Politècnica de València e investigador principal del Grupo ID&EA. Es doctor Ingeniero Industrial. Ha trabajado en proyectos relacionados con Análisis del Ciclo de Vida, Sostenibilidad, Ecodiseño de Productos, Información ambiental, Huella de Carbono, entre otros.

Área Curricular de Medio Ambiente Oferta de Posgrados

Especialización en Aprovechamiento de Recursos Hidráulicos Especialización en Gestión Ambiental Maestría en Ingeniería Recursos Hidráulicos Maestría en Medio Ambiente y Desarrollo Doctorado en Ingeniería - Recursos Hidráulicos Doctorado Interinstitucional en Ciencias del Mar Mayor información:

E-mail: acia_med@unal.edu.co Teléfono: (57-4) 425 5105

141


Experimental study for the application of water barriers to Spanish small cross section galleries Ljiljana Medic-Pejic a, Javier Garcia-Torrent a,b , Nieves Fernandez-Añez ª & Kazimierz Lebecki c a

School of Mines and EnergyEngineering, Technical University of Madrid, Madrid, Spain. liliana.medic@upm.es b Official Laboratory of J.M. Madariaga Madrid, Spain c School of Occupational Safety, Katowice. Poland Received: March 18th, 2014.Received in revised form: July 10th, 2014.Accepted: November 7th, 2014.

Abstract The objective of this work is the implementation of passive water trough barriers to put in practice EN-14591-2:2007 standard, as well as an update of the continuing study of passive water barriers. The viability of water barriers in typical Spanish small cross section galleries was analyzed and full scale testing at “Barbara” experimental mine in Poland was carried out. Suggestions for proper implementation of standards in Spain are presented. Keywords: Full scale tests, Passive water barriers, Small section galleries, gas and coal dust explosion.

Estudio experimental para la aplicación de barreras de agua a las galerías españolas de pequeña sección transversal Resumen El objetivo de este trabajo es la implementación de barreras pasivas de agua para la puesta en práctica de la norma EN-14591-2: 2007, así como una actualización del estudio continuo de las barreras de agua pasivas. Se analizó la viabilidad de las barreras de agua en las galerías típicas españoles de pequeña sección transversal y se realizaron pruebas a gran escala en la mina experimental "Bárbara" en Polonia. Se presentan sugerencias para la correcta aplicación de las normas en España. Palabras clave: ensayos a escala real, barreras pasivas de agua, galerías de sección reducida, explosiones de gas y polvo de carbón.

1. Risk of explosions in underground coal mines The presence of flammable gas and coal dust in the mine atmosphere is one of the biggest safety problems in the underground mining of coal. Although there are significant technological advances, they have not succeeded in eliminating the problem as the increased production and mechanization and electrification of the work contribute to this risk to remain. Today still very serious coal mine accidents occur, as the mine gas explosion at the Sago Mine in West Virginia, USA that left 12 dead on January 2, 2006, the Ulyanovskaya longwall coal mine explosion in the Kemerovo Oblast, Russia, killing 108 people on March 19, 2007, the La Preciosa coal mine explosion in Norte de Santander department, Colombia, leaving 21 miners dead on January 27, 2011, San Joaquin coal mine in Antioquia department, Colombia explosion of coal dust took place on June 16, 2010 killed 71 miners death or the likely explosion of coal

dust that caused 169 miners killed on 27 December 2005 at Donfeng mine in Heilongjiang province, China, a country which unfortunately declares numerous and continuous explosions in coal mines, throwing thousands of deaths every year. In the last 25 years the Spanish mining industry has suffered only two underground explosions in the same exploitation system. The first one was in 1995 with 14 fatalities and the second, was in 1998 with two died miners. In both collieries, the reason of primary explosion was the firedamp accumulations in the roadway, which exploited and resulted in the propagation of coal dust explosion; mainly, the final reports concluded that the explosive atmosphere was built up in both cases by one coal burst. The firedamp adsorbed in coal mines can continuously release by decreasing pressure, increasing temperature, fragmentation of coal due to pressures from the field and any changes in physical conditions thereof [1]. Dynamic gas

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 142-148. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42689


Medic-Pejic et al / DYNA 82 (189), pp. 142-148. February, 2015.

phenomena may also occur in some deep mines. But the greatest risk occurs as a result of desorption that takes place at the coal face, which is correlated with the mining speed. Due to its low specific gravity, methane tends to migrate toward the roof of the galleries, and its diffusion into the mainstream is a slow process. Methane tends to accumulate in both chambers in the roof in places and high points, and it is difficult to detect in such cases. The accumulation of methane in these cavities can significantly be often higher than usual concentrations in the workings. In addition to firedamp, it is essential to consider the risk due to coal dust [2]. At any mine dust is generated during normal operations associated with the mining and coal dust is an element that can generate flammable explosive atmospheres. Unlike firedamp whose characteristics are very stable, coal dust varies greatly in its characteristics of flammability and explosiveness, which was found to be very different in different coals. There is a correlation between the explosion of different types of coal and its composition (proximate and ultimate analysis) [3]. In general, the higher the volatile matter content of coal, the greater its flammability. To assess the risk of explosion due to coal dust, in addition to coal properties, it is necessary to consider the mining method and seam characteristics that affect dust production, accumulation and dispersion ability [4]. It is possible to apply traditional methods of risk assessment for specific mining explosions [5]. It should be noted that the presence of mine gas produces an increase in coal explosion due to gas adsorbed [6] or the presence in air of reduced concentrations of methane [7]. 2. Passive explosion water barriers Explosion barriers were known for long time and included among preventive and protective measures specific to mining, as the recommendations of the Permanent Safety and Health Commission for Coal Mines and other Extraction Industries [8], the traditional methods employed in mines in Poland with high risk of explosion [9] or the earlier forms of barriers against mine explosion [10]. Explosion barriers can be grouped into passive barriers and active barriers [11]. Passive barriers can be divided in stone-dust barriers and water barriers depending on the type of inert material used (incombustible stone dust or water). Water barriers are easier to maintain, less costly and as effective as stone dust barriers. Passive barriers base their own performance in the kinetic energy of the pressure wave moving ahead of the flame front in an explosion. When the flame of the explosion reaches the water barrier, it has already been activated by the energy associated with the pressure wave, resulting in the dispersion of the inert matter in the path of the flame. To be effective, water or stone dust should be completely dispersed on the arrival of the flame front. Water troughs barriers are self-protection systems designed to reduce the impact of the explosion, according to the directive 94/9/EC. They are designed and installed to prevent the spread of explosions and prevent incipient explosions escalating into stronger explosions or even the most devastating detonations. Passive water barriers simply consist of water filled containers,

such as troughs, tubs and bags [12]. When an explosion occurs, the pressure wave turns over, decays or even destroys the water containers, pouring its contents, so water is dispersed by the turbulence of the air and creates a barrier formed by the dispersion of water droplets along the path of the flame. They are only effective under a design and layout precisely defined. When the barrier is properly positioned, the flame is extinguished. If the barrier is too far or too close to the source of the explosion, the flame cannot be effectively extinguished. Its effectiveness is based on the dispersion in the entire cross section of the gallery of water in the troughs when caught by the pressure wave that precedes the explosion, thus acting as a means for extinguishing the flames of the explosion that followed behind. There are two types of explosion barriers: concentrated and distributed barriers. The concentrated barriers contain at least 200 litres of water per square foot gallery section and its length is at least 20 m and contains a minimum of 5 litres of water per cubic meter of gallery between the beginning and the end of the water barrier. Distributed barriers contain a minimum of 1 litre of water per cubic meter of gallery in the section between each set of troughs and the next group. The distance between adjacent groups of troughs should not exceed 30 m (50 m for a gallery section under 10 m2). The European Standardization Organization (CEN) has published the standard EN 14591-2 [13] with the requirements for the use of water barriers, their construction, and components. The most important elements of the barrier are the water troughs deployed in the workings. According to that standard “Water troughs barriers are designed and arranged in such a way that explosions are prevented from spreading through dangerous chain reactions and incipient explosions do not become detonations�. Barriers are deployed in determined distance from the expected ignition point and that means they do not protect the section room between the ignition point and the barrier itself. There are special types of concentrated and mobile watertrough explosion barriers [14] that could be moved along with the heading machines, so that when the front moves forward, the distance between the face and the barrier can be maintained within the application range, but the spatial conditions must be examined in depth to see whether the necessary explosion protection will be guaranteed. If the suppressant is dispersed prematurely, its concentration is diluted before it reaches the flame. When the suppressor agent is dispersed too late it goes after the flame and has minimal effect on the extinction of the flame. To avoid these drawbacks, the active barriers incorporate trigger mechanisms, which consist of three main components: the sensor, the distributor and the suppressor. A sensor device detects the arrival of the blast by the increase of the static pressure, temperature or radiation and triggers a mechanism to disperse the suppressor agent. The discharge is produced by a compressed gas, a spring or explosive materials [15]. 3. Implementation of water barriers in Spanish coal mines Among underground coal mines in Spain, the Asturias region was considered as an adequate place to implement water troughs barriers in the workings.

143


Medic-Pejic et al / DYNA 82 (189), pp. 142-148. February, 2015. Table 1. Explosion parameters of some coal dust in northern Spain COAL TMIc TMIn LIE EMI Pmax (ºC) (ºC) (g/m3) (mJ) (bar) 240 400 90 180 Brown lignite 250 490 120 70 Black lignite >400 630 30 >1000 Bitumi nous coal >400 740 NI NI Anthra cite Source: Adapted from García Torrent, J, et al. 2001

• Kmax (bar.m/s)

8,4

130

8,7

147

6,2

90

6,7

23

Experience in underground coal mining in Spain has been limited to experimental sporadic uses of passive water barriers in some individual galleries [16]. Actually in the underground mines the passive barriers are not in use as protection systems for limiting the spread of the coal dust explosions, because: • Particular coal properties – moderate volatile content combined frequently with high ash content; • Not very large methane emission from the seams. Explosion parameters shown in Table 1 of some Spanish coal dust were determinated by Laboratorio Oficial Madariaga (LOM): Those mines are characterized by: • Relatively small workings cross sections, rarely greater than 12m2; • Coal extraction mainly by the “sublevel” techniques with use of explosives. These factors diminish the risk of coal dust explosion, but the risk reduction is not completely obtained [17]. The most dangerous places are coal faces where shot firing is performed. 3.1. First steps to study the viability of water barriers According to preliminary study of viability it is recommended to follow several steps: • Select one or two places where the risk of coal dust explosion is the highest according to the view of mine management as suitable places for installation of water trough barriers. • Supply all material as water troughs, supporting elements, such as wooden shelves or metallic frames and others • Install the barrier in the cross section according to one possible arrangement. • Observe reaction of the mine crew and explain the idea of explosion barriers. • Assess the explosion risk in mine workings taking into account the coal properties, amount of settled coal dust, its humidity and incombustible content to establish the places where barriers should be installed. • Develop coal company safety regulations for explosion prevention and protection including settled dust inertizing and then study their extension to national guidelines.

Train all mining engineers and mine staff in explosion protection.

4. Demonstration of water barrier effectiveness Three water barriers full-scale tests at Barbara Experimental Mine were performed in order to: • Demonstration of water barrier effectiveness in a strong explosion case, with water troughs of 40 liters, 50 m3 methane, 100 kg/m2of cross section • Demonstration of water barrier effectiveness in weak explosion case with water bags, 25 m3 methane, 100 kg/m2 of cross section. • Demonstration of water barrier effectiveness in strong explosion case with mixed water troughs of 40 liters and 80 liters, 50 m3 of methane, 100 l/m2 of cross section. 4.1. Full-scale test specifications Tests were carried out in the 400 m long underground gallery (Fig. 1) having 7.5 m2 of cross section, which reflects the conditions present in most common galleries in the Spanish mining industry. On the cross section 2-2 the side shelves sections and crossbars are shown. Both elements serve to deploy the dust along the gallery. The enforced concrete gallery is built to withstand the explosions up to 45 bar. At the wall the sensors of flame and pressure are mounted. Flame sensors are positioned every 20 m, pressure sensors are placed every 20 m at the first 100 m, and every 40 m after that. As an ignition source a methane chamber with two possible volumes of 25 m3 and 50 m3 was applied, with 4.5 kg of coal dust deployed in front of the paper baffle closing the methane chamber. The objective of the test is to show that the explosion propagation is stopped when using the installation requirements defined in the standard EN 14591-2. The chamber is filled with methane/air mixture in concentration about 9.5% (stoichiometric mixture) and ignited with a detonator. Primary explosion of methane gives sufficient blast and temperature to lift and ignite coal dust in front of the chamber and consequently start the coal dust explosion at the gallery. The tested water trough barrier was arranged at a distance of 100 m from the closed end of the gallery and extended up to 121 m. This barrier contains 100 l of water per square meter of roadway cross section. Such amount is half of that required by standard EN 14591-2:2007 and is used in most national regulations to demonstrate the barriers effectiveness. In practice double amount is used to enhance the barrier reliability. Tested barrier was placed inside the dusty zone to be sure that explosion propagation is interrupted by the action of barrier and not by lack of dust in the gallery. All tests were performed using the same type of coal dust (bituminous coal similar to Asturias coal but with less ash content). The total amount of this dust deployed on side shelves and roof bars was 340 kg with 38.5% of volatile content.

144


Medic-Pejic et al / DYNA 82 (189), pp. 142-148. February, 2015.

Figure 1. Underground Experimental galleries in the Experimental Mine “Barbara”. Source: Cybulski, W, 1975

4.2. Test 1: demonstration of water barrier effectiveness in strong explosion case, with water troughs Test conditions for strong explosion, with water troughs of 40 l were: 4.2.1. Ignition source In 6-6 gallery cross-section the gas chamber was filled with a volume of 50 m3 having a 9.5% methane/air stoichiometric mixture closed with a paper baffle. This mixture was ignited with 500 g of black powder in the mortar and was ignited by a detonator. In front of the chamber, along a 2.5 m length gallery, 4.5 kg of coal dust mass were spread with a nominal concentration of 0.250 kg/m3. Coal dust was deployed on the horizontal shelves. When the methane explosion was started the blast wave lifted the coal dust and dispersed it in the air, and the proper dust explosion was initiated in the gallery. This dust contained 38% material passing 0.075mm sieve (200mesh). The volatile content of coal dust sample was 38.5%. 4.2.2. Dust zone 156.6 m of 6-6 gallery contained coal dust on side shelves and roof bars. The total amount of deployed coal dust was 340 kg and the nominal dust concentration in the dust zone was 0.300 kg/m3.

Figure 2. The water barriers efficiency in case of strong explosion with 40 l water troughs Source: Laboratorio Oficial J.M. Madariaga – Central Mining Institute, project code: 080601001-13

2:2007. The water barrier was composed by a total of 7 rows with 3 troughs of 40 liters volume in each row. The horizontal distance between two rows was 3 m and the total length was 21 m. The water troughs were set from 100 m up to 121 m of the gallery. The total water amount was 840 liters, 120 liters in each row and water concentration in barrier location was 5.3 kg/m3 or 112 l/m2. Fig. 2 shows the test record. The Y axis represents distance travelled by the flame front and the X axis represents the needed time; pressure waves are plotted at different distances and the flame front path is drawn by the dotted line. The yellow zone corresponds to the barrier disposition. This figure indicated that the dust explosion was stopped inside the zone of the gallery where coal dust was still present, a little beyond the position of the barrier. A view of the gallery after explosion showed that all containers were crushed into small pieces and were dispersed by the explosion blast along a distance up to 240 m of the gallery, then 120 m from the barrier.

4.2.3. Water trough barrier

4.3. Test 2: demonstration of water barrier effectiveness in weak explosion case with water bags

Water troughs were supplied by the Polish manufacturer Radom and they were certified according to EN-14591-

Test conditions for weak explosion, with water bags of 40 l were:

145


Medic-Pejic et al / DYNA 82 (189), pp. 142-148. February, 2015.

4.3.1. Ignition source In 3-3 gallery cross-section the gas chamber was filled with a volume of 25 m3 having a 9.5% methane/air stoichiometric mixture closed with a paper baffle. This mixture was ignited with 500 g of black powder in the mortar and was ignited by a detonator. In front of the chamber, along a 2.5 m length gallery, 4.5 kg of coal dust mass were spread with a nominal concentration of 0.250 kg/m3. Coal dust was deployed on the horizontal shelves. 4.3.2. Dust zone 153.3 m of 3-3 gallery contained coal dust on side shelves and roof bars. The total amount of deployed coal dust was 340 kg and the nominal dust concentration in the dust zone was 0.300 kg/m3. 4.3.3. Water bags barrier Water bags were supplied by Minova. The water barrier was composed by a total of 7 rows with 3 bags of 40 liters volume in each row. The horizontal distance between two rows was 3 m and the total length was 21 m. The water troughs were set from 100 m up to 121 m of the gallery.

The total water amount was 840 liters, 120 liters in each row and water concentration in barrier location was 5.3 kg/m3 or 112 l/m2. The test record (shown in Fig. 3) indicated that the dust explosion was not stopped. A view of the gallery after explosion showed that no changes observed, water bags are untouched, because explosion was too weak to disperse the water of the bags. 4.4. Test 3: demonstration of water barrier effectiveness in strong explosion case with mixed water troughs Test conditions for strong explosion, with water troughs of 40 l were: 4.4.1. Ignition source In 6-6 gallery cross-section the gas chamber was filled with a volume of 50 m3 having a 9.5% methane/air stoichiometric mixture closed with a paper baffle. This mixture was ignited with 500 g of black powder in the mortar and was ignited by a detonator. In front of the chamber, along a 2.5 m length gallery, 4.5 kg of coal dust mass were spread with a nominal concentration of 0.250 kg/m3. Coal dust was deployed on the horizontal shelves. 4.4.2. Dust zone 156.6 m of 6-6 gallery contained coal dust on side shelves and roof bars. The total amount of deployed coal dust was 340 kg and the nominal dust concentration in the dust zone was 0.300 kg/m3. 4.4.3. Water trough barrier Water troughs were supplied by the Polish manufacturer Rybnik and they were certified according to EN-14591-2:2007. The water barrier was composed by a total of 7 rows (6 rows with 3 troughs of 40 l volume in each row and one row with two troughs of 80 l volume). The horizontal distance between two rows was 3 m and the total length was 21 m. The water troughs were set from 100 m up to 121 m of the gallery. The total water amount was 1125 liters, 120 liters in each row and water concentration in barrier location was 5.3 kg/m3 or 150 l/m2. The test record (shown in Fig. 4) indicated that the dust explosion was stopped inside the barrier zone. A view of the gallery after explosion showed that all containers were crushed into small pieces and were dispersed by the explosion blast along a distance up to 280 m of the gallery, then 160 m from the barrier. 5. Discussion

Figure 3. The water barriers efficiency in case of weak explosion with water bags. Source: Laboratorio Oficial J.M. Madariaga – Central Mining Institute, project code: 080601001-13

Tests 1 and 3 probed and adequate efficiency of water barriers to stop strong explosions, even using half the amount of water needed. The explosion records did not leave any doubt about the actuation of the barrier and the inspection after test allowed to verify the correct operation of the water troughs. Both types of water troughs proved their validity as it should be since both were certified.

146


Medic-Pejic et al / DYNA 82 (189), pp. 142-148. February, 2015.

Figure 4. The water barriers efficiency in case of strong explosion with mixed 40 l+80 l water troughs. Source: Laboratorio Oficial J.M. Madariaga – Central Mining Institute, project code: 080601001-13

Water barrier arrangement used in test 3, consisting of a mixed distribution of 40 liter and 80 liter trough can be considered as more adequate for the Spanish mines, because more flame traces have been registered by the sensors for the 40 l distribution water troughs than for the mixed distribution of 40 liter l + 80 liter troughs showing that the explosion was contained sooner with the mixed trough distribution Regarding the weak explosion produced during test 2, some uncertainty was present because it was thought that several factors might interact to prevent the proper functioning of the water barriers. In fact, low explosibility coals or coals with a high degree of incombustible matter produce weak explosions, specially when the initiation is not too strong. As a result, the blast pressure of the explosion can be well below 1.5 kPa, the tanks cannot work properly, so that the dispersion of water is not effective enough to extinguish the flame front and the explosion continues beyond the barrier. The reason for including a weak explosion in the test series is justified because the likelihood of a failure in the activation of the bags is around 30 % of the test performed. It has been shown during the test that the water bags are suitable for strong explosions but they are not for weak explosions with pressures around 30 kPa or less. To check the different behaviors between water troughs and bags in case of weak explosions a similar test was carried

out in a 400 m experimental gallery with mixed distribution of water bags and troughs. The interesting thing was that the water troughs placed at the distance of 180 m from the ignition source were blown off, whereas the water bags hanged at the distance 100 m from ignition source were not deteriorated and the explosion was not stopped. As a result it was felt that the behavior of the water bags could be critical, resulting in a failure to arrest the explosion. Moreover these bags do not appear on the EN 14591-2 standard, so it was decided not to try them and reject their use in the Spanish mines, where coal characteristics often may produce weak explosions rather than strong explosions. Based on the obtained results and the analysis of the Spanish roadways, the suggested set-up for distributed water barriers is: • The trough groups shall cover the greatest width of the roadway cross-section (floor width or roadway diameter) at the point of installation • The achieved coverage is 80% (90 liter-type A troughs), 67% (40 liter-type A troughs) and 78% (all type B troughs) • The vertical distance between the bottom of any trough and the boundary of the roadway cross section shall not exceed 2.6 m in downward direction. • The vertical distance is 2.2 m (90 liter-type A troughs), 2.0 m (40 liter-type A troughs) and 2.2 m (all type B troughs). • The distance between rows is less than 2 m. 6. Conclusions Spanish coals are not extensively explosive, being characterized by relatively low volatile content (frequently less than 15%) and high ash content (average about 30%) . These two factors diminish the explosion risk. Water barriers will be implemented after detailed risk assessment in the workings where there is an elevated explosion risk. This evaluation should include a thorough analysis of the flammability characteristics of coal dust and the feasibility of inerting coal dust should always be considered. A general conclusion obtained from the underground tests is that passive water barriers are effective in the arrest of coal dust explosions in galleries of reduced section. The effectiveness greatly depends on the configuration of the barriers. The test at the mixed configuration (40 and 80 liter troughs) has yielded the best results. For reduced section galleries with unobstructed sections the installation of passive water barriers according to the EN 14591-2 is possible. However, the execution of mining works in reduced section galleries together with the installation of different equipment significantly reduces the effective section and it is very difficult or even unfeasible to install passive water barriers as required by EN 14591-2. For many existing forms of mining in Spain (longwall, and soutirage sublevels by room and pillar) the EN 14591-2 standard does not specify clearly which are the locations for installing passive water barriers. The standard can be difficult to be properly applied as it is necessary to draft a guide and perhaps some additional rules or regulations.

147


Medic-Pejic et al / DYNA 82 (189), pp. 142-148. February, 2015.

Acknowledgements The authors thank the Spanish Directorate General for Energy Policy and Mines Ministry of Industry, Commerce and Tourism (Dirección General de Política Energética y Minas del Ministerio de Industria, Comercio y Turismo) for funding this work through Laboratorio Oficial J.M. Madariaga - UPM (project code: 080601001-13) References [1] [2] [3] [4]

[5]

[6] [7]

[8]

[9] [10] [11] [12] [13] [14] [15]

[16]

[17]

Cybulski, W., Coal dust explosions and their suppression. National Science Foundation, 1975. Lebecki, K. et al., Specific conditions for the initiation of coal dust explosions. HSE (Przeglad Górniczy), pp. 7-8, 1981. García-Torrent, J., Sánchez-Armada I. and Alcántara-Pedreira, R., A correlation between composition and explosibility index for coal dust, Fuel, 67, 1988. García-Torrent, J., Querol-Aragón, E., Fernández,-Ramón, C. and Carrasco Galán, J., Definition of explosion risk assessment procedures in explosive atmospheres of coal dust in underground mine workings. III Safety Symposium in Mining and Allied Industries. Madrid. Ministry of Economy. Deputy General Directorate of Mines. LOMUPM, 2001. García-Torrent, J., and Querol-Aragón, E., Application of analytical methods for evaluating the risk of explosion in underground mining. Congress on safety, quality and environment in Mining Engineering. Barcelona, Spain, 2003. García-Torrent, J. and Arévalo, J.J., Increase in coal explosibility due to methane adsorption. 25th Int. Conf. Safety Mines Research Institute. Pretoria Session 5a, 1993. García-Torrent, J. and Cantalapiedra-Fuchs, J., Flammability and explosion propagation of methane coal dust hybrid mixtures. 23rd. International Conference of Safety in Mines Research Institutes. Washington. US Department of the Interior, Bureau of Mines, USA, 1989. Permanent Safety and Health Commission for Coal Mines and other Extraction Industries., Measures to reduce risks of fire and explosion in the mine workings with secondary ventilation and improvement in the protection of personnel in case of fire and explosion at coal mines. Doc. Nº 5147/89 FR. Luxemburg, 1990. Lebecki, K., Developments of water barrier to stop coal dust explosion, Conference on Mining Environment and Ventilation, New Delhi and Calcutta, Oxford & IBH Publishing Company, 2000. Lunn, G.A., Dust explosions: Barrier methods for industry. Health and Safety Executive, 1985. Zou, D.H. and Panawalage, S., Passive and triggered explosion barriers in underground coal mines - A literature review of recent research. CANMET Natural Resources Canada, 2001. Lebecki, K., Cybulski, K. and Dydyuch, Z. Test results and practical use of water bags barriers, Proceedings of the 29th International Conference of safety in Mines Research Institutes, Katowice GIG, Poland, 2001. EN 14591-2., Explosion prevention and protection in underground mines - Protective systems - Part 2: Passive water trough barriers, 2007. Michelis, J.; and Marth, W., Special types of concentrated and mobile water-trough explosion barriers. Experimental Mine Co, Dortmund, 1985. Lebecki, K., Sliz, J., Cybulski, K. and Dyduch, Z., Efficiency of triggered barriers in dust explosion suppression in galleries. Journal of Loss Prevention in the Process Industries, 14 (6), pp. 489-494, 2001. http://dx.doi.org/10.1016/S0950-4230(01)00056-0 García-Torrent, J., A review of protection measures against explosions in underground mining (Revisión de medidas de protección contra explosiones en la minería subterránea de carbón). Canteras y Explotaciones, vol. 304, 1992. Botín, J.A., Guzmán, R.R. and Smith, M.L., A methodological model to assist in the optimization and risk management of mining investment decisions, DYNA, 78 (170), pp. 221-226, 2011. ISSN 0012-7353

L. Medic-Pejic, is PhD by the Technical University of Madrid (UPM), Spain and Mechanical Engineer by the Belgrade University, Serbia. She develops her activity in the Energy and Mining School of Madrid where she is an associate lecturer of the Fuels and Chemical Engineering Department. Her investigation is related to combustion, solid biofuels and Industrial safety in explosive atmospheres. J. García-Torrent, is graduated as a Mining Engineer in 1982, PhD in 1986 by the Technical University of Madrid, Spain. He is a Full Professor at the Department of Energy and Fuels at the UPM, Spain. Director of the Specialization Course on Explosive Atmospheres. Principal investigator of the research group of the UPM on Industrial Safety in Explosive Atmospheres. Head of Dust Explosion Section of Laboratorio Oficial J.M. Madariaga (LOM), Spain. Responsible of the design and implementation of tests and experimental methodologies having led to the development of the Laboratory of Solids Flammability at LOM. Director and Lecturer in numerous courses, seminars and conferences in the field of industrial safety. N. Fernandez-Añez, is a PhD candidate in the Polytechnic University of Madrid, Spain, where she belongs to the research group “Industrial Safety in Explosive Atmospheres”. She is a Mining Engineer and she has a MSc. Degree in Environmental Research, Modelling and Risk Assessment. Her current research interest focuses on the explosiveness of solid biofuels. K. Lebecki, is Professor of Occupational Safety in the Central Mining Institute and School of Occupational Safety in Katowice, Poland. He is expert in Fire and Explosion Prevention and Protection.

148

Área Curricular de Ingeniería Geológica e Ingeniería de Minas y Metalurgia Oferta de Posgrados

Especialización en Materiales y Procesos Maestría en Ingeniería - Materiales y Procesos Maestría en Ingeniería - Recursos Minerales Doctorado en Ingeniería - Ciencia y Tecnología de Materiales Mayor información:

E-mail: acgeomin_med@unal.edu.co Teléfono: (57-4) 425 53 68


Mixture experiments in industrial formulations Diana Cristina Ortega-Pérez a, Moises Oswaldo Bustamante-Rua b, Derly Faviana Gutiérrez-Rôa c & Alexander Alberto Correa-Espinal d a Gestión Tecnológica, SUMICOL S.A., Medellín, Colombia. dortega@corona.com.co Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia. mobustam@unal.edu.co c Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia. dfgutierrezr@unal.edu.co d Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia. alcorrea@unal.edu.co b

Received: March 26th, 2014. Received in revised form: September 29th, 2014. Accepted: October 17th, 2014.

Abstract In this paper, we focus on the practical aspects of the formulation of industrial mixtures efficiently. Proposing a working strategy that integrates the design of experiments and the PDCA cycle, from the point of view of the experimenter, rather than from theoretical perspective, develop to define the experimental plan, get the data and adjust a statistically significant and high practical significance model. Keywords: formulation; design of experiments DOE; mixture experiment; PDCA cycle.

Diseño de mezclas en formulaciones industriales Resumen En este artículo nos hemos centrado en los aspectos prácticos de la formulación de mezclas industriales de forma eficiente, proponiendo una estrategia de trabajo que integra el diseño de experimentos y el ciclo PHVA, desde el punto de vista del experimentador más que desde una perspectiva teórica elaborada, para definir el plan experimental, obtener los datos y ajustar un modelo estadísticamente significativo y con alto significado práctico. Palabras clave: formulación; diseño de experimentos; diseño de mezclas; ciclo PHVA.

1. Introducción Ingenieros, académicos y científicos en muchas ocasiones tienen entre sus objetivos de investigación, el analizar la proporción en que los ingredientes o componentes deben participar en una mezcla, sin importar la cantidad absoluta de ellos, más conocido como formulación de mezclas. A lo largo de la historia, el problema de la formulación de mezclas ha sido tradicionalmente abordado por el método de ensayo y error, que consiste en formular mezclas donde las proporciones de los materiales utilizados se establecen de manera arbitraria y se selecciona aquella mezcla que mejora las propiedades de interés, sin ser necesariamente la óptima, ya que no se exploran todas las combinaciones posibles de los componentes. Desde los alquimistas, los metalúrgicos y los ceramistas, las mezclas obtenidas experimentalmente, en una secuencia de ensayo y error o como consecuencia de mezclas

accidentales, se plasmaban en “recetas” que eran sigilosamente conservadas y replicadas para obtener los productos deseados, para lo cual se debía garantizar que sus componentes, en proporción y procedencia exactas, sean empleados siguiendo estrictamente el procedimiento establecido. Sin embargo, fue con la llegada de la porcelana a Europa de las manos de Marco Polo, que este método fue alterado, pues se contaba con un producto, más no con la receta que permitía su elaboración, y fue por ello que China mantuvo el monopolio de fabricación de la porcelana desde su invención en el siglo VII hasta el siglo XVII, cuando Johann Friedrich Böttger reinventó el proceso en Europa, tras muchos intentos previos que dieron lugar a los distintos tipos de porcelana que se conocen actualmente. Este hecho agrega una condición al método del ensayo y error, ya que ahora deben ser tenidas en cuenta las propiedades exigidas al producto final, entre los requisitos de la mezcla a formular. Si bien los componentes, su proporción y procedencia, son

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 149-156. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42785


Ortega-Pérez et al / DYNA 82 (189), pp. 149-156. February, 2015.

la base de las recetas, el procedimiento de elaboración es fundamental para la obtención satisfactoria de las propiedades de interés y lo que subyace tras su éxito, es la tecnología disponible para su fabricación. Se pueden desarrollar recetas sofisticadas que de no contar con tecnologías apropiadas, quedan reducidas a buenas ideas. Entonces, la tecnología y por ende, las características del proceso de fabricación condicionan la formulación de la mezcla, adicionando otra condición al tradicional método de ensayo y error. Con el correr de los años, la competencia entre industrias que conlleva a la búsqueda incansable de reducción de costos; así como, la escasez de materias primas, demanda una condición adicional al método de ensayo y error tradicional, pues no siempre es posible para las industrias importar la materia prima exigida en la receta y se hace necesario modificar las fórmulas, para incluir las características de la materia prima disponible.

Las distintas condiciones exigidas al método de ensayo y error previamente mencionadas y resumidas en la Fig. 1, lo convierten en un método inviable, costoso y demorado, que ha motivado la consideración de otros métodos experimentales más eficientes para abordar la formulación de mezclas, como la programación lineal [1] y el diseño de experimentos. Cuando se piensa en diseño de experimentos, puede suponerse que se trata de diseños factoriales, que permiten estudiar el efecto sobre la variable respuesta al variar dos o más factores. Sin embargo, si al mantener constante la cantidad total de mezcla, el valor de la variable respuesta cambia cuando se realizan cambios en las proporciones de los componentes que la conforman, se trata de un diseño de mezclas, que es una metodología estadística que surgió a partir de la teoría de mezclas de Scheffé en 1958, y ha sido utilizado en la optimización de formulaciones de alimentos, pinturas, polímeros, asfalto, concreto, vidrio, cerámica, medicamentos, entre otros, obteniéndose excelentes resultados.

Figura 1. Método de ensayo y error para la formulación de mezclas. Fuente: Autores

Aunque el interés y aplicación del diseño de experimentos con mezclas es creciente, existen dificultades en su implementación e interpretación, que pueden deberse a que no es una metodología muy difundida, pues muchos libros de diseño de experimentos no la mencionan o le otorgan poca relevancia [2]. El objetivo de este artículo es presentar el diseño de experimentos con mezclas desde una perspectiva de procesos que facilite su aplicación en industrias que producen y venden productos elaborados a partir de mezclas; haciendo énfasis en las estrategias que orientan la planificación del experimento, su ejecución, el análisis de los datos experimentales y las acciones que deben emprenderse después de realizar los experimentos, con el ánimo de formular mezclas y obtener conocimiento de ellas. Para ello, se iniciará presentado brevemente una introducción al diseño de mezclas y algunos conceptos básicos relacionados, luego se desarrollarán las estrategias a tener en cuenta en el diseño de experimentos con mezclas. 2. Diseño de experimentos con mezclas Un diseño de experimentos con mezclas que tienen componentes o ingredientes, consiste en un conjunto de

experimentos en los que se prueban combinaciones particulares o mezclas de dichos ingredientes. Si se denotan por , las proporciones en las que participan los componentes de la mezcla, se deben satisfacer dos restricciones: para cada componente y . Estas restricciones indican que la suma de todos los componentes que integran la mezcla debe ser 100%, esto significa que los componentes no pueden ser manipulados independientemente unos de otros, y que sus proporciones deben variar entre 0 y 1. Sin embargo, existen situaciones donde algunas proporciones no pueden variar entre 0 y 1, porque algunas o todas las proporciones de los componentes están restringidas por límites inferiores y/o límites superiores , entonces la restricción puede definirse como: . Además de los límites superiores e inferiores que restringen a los componentes de forma individual, puede que exista cierta dependencia entre dos o más componentes y sea necesario utilizar restricciones lineales de multicomponentes, que ponen límites a las funciones de componentes. Por otro lado, es posible que se desee mantener fija cierta parte de la mezcla, entonces las proporciones deben ser escaladas, de tal forma que sumen la unidad.

150


Ortega-Pérez et al / DYNA 82 (189), pp. 149-156. February, 2015.

Figura 2. Ejemplos de diseños de mezclas para tres componentes. Fuente: Eriksson et al., 1998

Figura 3. Ejemplos de diseños de vértices extremos. Fuente: Eriksson et al., 1998

Al planear un experimento con mezclas se decide, en función del conocimiento no estadístico y el objetivo del problema, las mezclas que conformarán el conjunto de experimentos, pues no se trata de probar las formulaciones que se le ocurran al investigador, ya que se estaría retornando al método de ensayo y error [3]. Los diseños de experimentos con mezclas distribuyen adecuadamente las mezclas en la región experimental, la cual se representa con figuras geométricas de componentes, cuando los componentes de la mezcla pueden variar entre 0 y 1. Así para dos componentes la región experimental es un segmento de recta, para tres un triángulo, para cuatro un tetraedro y para más de cuatro un hipertetraedro. Los dos tipos básicos de diseño son el simplex reticular y simplex con centroide. El diseño simplex reticular considera componentes y permite ajustar un modelo estadístico de orden . Los puntos del diseño consisten en todas las posibles mezclas que se forman con . Este diseño incluye básicamente puntos en los bordes, pero si el investigador desea hacer predicciones en el interior es recomendable agregar el centroide global y las mezclas localizadas entre el centroide y los vértices. El diseño simplex con centroide se aplica cuando se tienen pocos componentes y consiste en puntos definidos de la siguiente forma: las mezclas puras, todos los puntos medios de las aristas definidas por cada dos vértices, los centroides de las caras definidas por cada tres vértices y así hasta obtener el centroide global (ver Fig. 2). Sin embargo, cuando existen restricciones adicionales, ya sean límites inferiores y/o superiores o restricciones lineales, la región experimental ya no es regular y su forma

depende de la ubicación de las restricciones (ver Fig. 3). Los puntos experimentales se colocan en los vértices extremos de la región experimental, utilizando seudocomponentes si la región está completamente al interior del simplex, y algoritmos de otro modo. Después de recolectar las observaciones definidas en el plan experimental, es necesario ajustarlas a un modelo estadístico para investigar el efecto de los componentes sobre la respuesta. Para ello se utilizan los modelos canónicos de primer, segundo o tercer orden (ver Tabla 1), que resultan de la modificación del modelo de regresión lineal al incluir la restricción . Los parámetros del modelo se estiman utilizando el método de mínimos cuadrados y el modelo se elige en función de la cantidad de puntos experimentales, la prueba de falta de ajuste y el resumen de estadísticos. Una vez se tenga modelada la respuesta, el investigador puede predecirla en cualquier formulación posible dentro de la región experimental utilizada para ajustar el modelo; encontrando así, la composición de la mezcla que corresponda a un perfil de respuesta óptima. También puede cuantificar la influencia que tienen los diferentes componentes sobre la respuesta, tanto en forma individual como en su acción conjunta con otros componentes, en cuyo caso, en función de su signo se determinará si existe sinergismo o antagonismo entre los componentes.

151


Ortega-Pérez et al / DYNA 82 (189), pp. 149-156. February, 2015.

Tabla 1. Modelos canónicos y número mínimo de puntos experimentales por modelo Modelo canónico de primer orden (lineal): puntos Modelo canónico de segundo orden (cuadrático): puntos Modelo canónico de tercer orden (cúbico especial): puntos Fuente: Adaptado de Cornell, 2002

Figura 4. DOE percibido como un proceso. Fuente: Autores

Figura 5. Estrategia PHVA aplicada a las etapas del diseño de experimentos percibido como un proceso. Fuente: Autores

3. Estrategias para diseñar experimentos con mezclas El ciclo PHVA, ideado por Walter A. Shewhart y difundido por Edwards Deming, es un método iterativo de gestión de cuatro etapas: planear, hacer, verificar y actuar; utilizado para el control y la mejora continua de procesos. Un proceso es un conjunto de actividades que interactúan para transformar elementos de entrada en resultados, los cuales a su vez pueden convertirse en entradas de otros procesos. El diseño de experimentos con mezclas visto

como un proceso, puede abordarse siguiendo el ciclo PHVA (ver Fig. 4). Así mismo, si cada una de estas etapas del ciclo PHVA se analizaran como si fuese un proceso y se aplicara nuevamente el ciclo PHVA a cada uno de ellas (ver Fig. 5), se podría obtener una estrategia a seguir que facilite la forma de encarar el diseño de experimentos con mezclas. Planear – Planear: Inicie definiendo el objetivo de la experimentación, ya que el orden máximo del modelo estadístico que se podrá ajustar para modelar

152


Ortega-Pérez et al / DYNA 82 (189), pp. 149-156. February, 2015.

adecuadamente la superficie de respuesta, depende de él. Un modelo lineal es útil cuando el objetivo es la exploración, o la prueba de robustez; mientras que los cuadráticos y cúbicos son relevantes para la optimización. La exploración se utiliza en las primeras fases de una investigación, sobre todo cuando se tienen muchos componentes y se desea revelar los más importantes. La optimización se utiliza para encontrar la combinación correspondiente a un perfil de respuesta óptimo y la prueba de robustez se utiliza para asegurar el cumplimiento de las especificaciones de un producto. El siguiente paso es especificar el número de componentes. Si la mezcla tiene muchos componentes y se conocen sus efectos, se pueden mantener constantes los menos importantes o algunos de los componentes pueden, a su vez, ser mezclas de otros componentes, teniéndose mezclas dentro de mezclas [4]. Habiéndose definido y , es posible determinar el número de ensayos o puntos experimentales requeridos (ver Tabla 1). Sin embargo, los experimentos de mezclas con frecuencia requieren un modelo de orden superior al que se había planificado inicialmente. Por lo tanto, es buena idea, en la medida de lo posible, aumentar puntos experimentales más allá del mínimo requerido para ajustar el modelo. Luego, a partir del conocimiento no estadístico del fenómeno que se analiza, el experimentador debe considerar el uso de límites y/o restricciones para los componentes, comprobar su coherencia y realizar los ajustes que sean necesarios. Sin embargo, es necesario ser cauteloso, porque su presencia tiene impacto decisivo sobre el número de puntos experimentales, ya que la región experimental es altamente mutilada y por tanto irregular, dificultando la obtención de un diseño de mezclas significativo. Si no se tiene conocimiento que oriente la fijación de dichos límites es mejor mantener la región regular o incluir límites en algunos componentes, únicamente cuando la combinación no sea factible o resulte peligrosa, para ello se pueden hacer corridas preliminares, sin caer en el ensayo y error de planes experimentales. En ocasiones, las costumbres en la operación limitan los componentes a un rango muy estrecho o sólo se cuenta con “recetas”, sintiéndonos tentados de partir de ellas y ampliar el rango de los componentes en cierto porcentaje, esta situación conlleva a una región irregular que demanda muchos experimentos y puede generar problemas de multicolinealidad. Es aconsejable mantener el espíritu de investigador y por ende de incrédulo, pues los experimentos otorgan soluciones y también generan conocimientos. Así mismo, es importante tener en cuenta que si el rango de variación de un componente es pequeño, por ejemplo menor a 3%, la región experimental será muy pequeña, lo cual derivará en un modelo de regresión débil o con los signos de los coeficientes incorrectos. En función de los límites elegidos se podrán usar distintas estrategias. Cuando uno o todos los componentes tienen límites inferiores, se recomienda utilizar Lpseudocomponentes: para conformar la ∑ región experimental, la cual estará dentro y con sus vértices alineados a los del simplex original. Cuando uno o todos los componentes tienen límites superiores, se recomienda

utilizar

U-pseudocomponentes:

para

conformar la región experimental, la cual es un simplex invertido denominado U-simplex, que deberá ser tenido en cuenta cuando se interpreten los coeficientes del modelo que se le ajuste. Si el U-simplex desborda el simplex , la región experimental será original la intersección con el simplex original y dejará de ser un simplex. Cuando al mismo tiempo los componentes tienen límites inferiores y superiores, la región experimental corresponde a un hiperpoliedro convexo, mucho más compleja que un simplex. Para definir la forma y el tamaño de regiones experimentales diferentes al simplex es necesario determinar el número de vértices, bordes, caras y demás [5]. Para ajustar el modelo se requieren al menos vértices para estimar los , los puntos medios de al menos bordes para estimar los y los centroides de las caras para y/o realizar la prueba de ajuste del modelo. estimar los Las coordenadas se obtienen con algoritmos como el de Vértices Extremos [6], que utiliza el centroide general en vez de los centroides de las caras; el algoritmo de XVERT [7] o el algoritmo XVERT1 [8]. Planear – Hacer: Para generar el plan experimental se puede emplear algún programa computacional; sin embargo, se debe tener el conocimiento y la capacidad de anular cualquier plan que sea inapropiado para el problema en cuestión, teniendo en cuenta la forma y el tamaño de la región experimental. Cuando la región experimental es irregular, se recomienda al experimentador generar unos planes experimentales preliminares, libres de límites y restricciones, e introducirlos de uno en uno mientras se evalúa su efecto, pues muchas veces las coordenadas de la región se ciñen a los límites definidos sin tener que recurrir a ellos, lo cual ahorra el número de experimentos. Si esta estrategia no es factible y se hace necesario incluir todos los límites y restricciones, utilice sólo los puntos experimentales necesarios para ajustar el modelo, sin sobredefinirlo. Por otro lado, tenga en cuenta incluir réplicas que permitan obtener los grados de libertad necesarios para la prueba de ajuste del modelo, el centroide general es el punto experimental más utilizado para ello. Planear – Verificar: El plan experimental obtenido debe revisarse cuidadosamente, verificando que los puntos experimentales sean coherentes y factibles, sobre todo los correspondientes a los centroides, porque suelen estimarse con 4 a 5 cifras decimales que dificultan su puesta en práctica, siendo necesario redondear las proporciones a una cantidad más manejable de decimales y por tanto, más realista. La ubicación de los puntos en la región experimental influye en la determinación de los coeficientes de regresión o tiene un efecto marcado sobre las estadísticas de resumen del modelo. En un caso extremo, los estimados del parámetro pueden depender más del subconjunto influyente de puntos que de la mayor parte de los datos; lo cual es totalmente indeseable, pues se prefiere un modelo regresión que sea representativo de todas las observaciones y no de algunas. Por lo tanto, se deben localizar estos puntos

153


Ortega-Pérez et al / DYNA 82 (189), pp. 149-156. February, 2015.

influyentes y evaluar su impacto en el modelo. El diagnóstico consiste en medir el apalancamiento de la diagonal de la matriz sombrero y si el diseño tiene puntos influyentes, por lo que se sugiere distribuirlos de forma uniforme, a través de réplicas en los puntos experimentales con más altos [9]. Planear – Actuar: Es menester del experimentador juzgar si la región a obtenerse con el plan experimental es científicamente válida y con un alto significado práctico. Si, por cualquier motivo, el plan experimental resulta inadecuado, se debe reconsiderar la configuración de componentes, límites y restricciones, retornando a la primera etapa de la estrategia. Hacer – Planear: Por muy bueno que sea el plan experimental definido, los modelos que se ajusten a los datos pueden ser débiles si se cometen errores en la ejecución de los experimentos, por ello es importante contener las ansias y no hacerlos hasta que se cuente con un protocolo de experimentación que garantice que todas las variables que puedan tener algún efecto en la respuesta, influyan exactamente igual en todos los experimentos. Por ejemplo, trate que los operarios sean los mismos y que realicen las mismas actividades para todos los experimentos, que los instrumentos y maquinaria empleada sea la misma, que los componentes provengan del mismo lote o si son de lotes distintos que sean mezclados antes del uso, que las condiciones ambientales sean similares, que el tiempo de realización de los experimentos y el que transcurre entre ellos sean lo más similares posibles, que el proceso de experimentación sea el mismo, etc. Si el costo no es muy elevado, realice pruebas con cualquier tratamiento, en las que también participen quienes están planeando el experimento, con miras a detallar más las instrucciones y prever las acciones a emprender frente a posibles contingencias. Para recolectar los datos diseñe una hoja de trabajo en la que se especifique de manera clara cada prueba, el orden en que será corrida y la forma en que se medirán los resultados o se colectarán los datos. Recuerde que el plan experimental debe realizarse en orden aleatorio para evitar efectos sistemáticos de factores ajenos a la experimentación. Finalmente, asegúrese que se dispone del equipo necesario para llevar a cabo la experimentación: las instalaciones y los servicios, los instrumentos de medición, los componentes en la cantidad necesaria, el personal, el tiempo, el presupuesto económico y los servicios de gestión. Cualquier problema de tipo logístico puede afectar negativamente el desarrollo de los experimentos. Hacer – Hacer: Durante la ejecución de los experimentos es recomendable registrar en una bitácora cualquier acontecimiento anómalo o situación inesperada, que permita posteriormente explicar la presencia de datos atípicos; así como, las acciones que fueron emprendidas. Hacer – Verificar: Tan pronto se finalicen los experimentos, es aconsejable verificar la calidad de los datos obtenidos, sometiéndolos a pruebas estadísticas para detectar valores atípicos, pues los coeficientes de regresión y los estadísticos de resumen son muy sensibles a su presencia y de acuerdo con su ubicación, pueden tener efectos moderados a graves.

Hacer – Actuar: Los valores atípicos deben ser cuidadosamente investigados, para ver si existe una razón de su comportamiento extraordinario. A veces, los atípicos se deben a eventos desacostumbrados pero explicables, como errores en la medición o en el registro, falla del instrumento de medición, etc. Si éste es el caso, el atípico debe corregirse, rehaciendo el tratamiento. Si por el contario, el atípico es una observación extraordinaria pero perfectamente factible, puede ser peligroso eliminar el punto porque se estaría perdiendo evidencia valiosa, por una sensación falsa de precisión. Cuando se tienen dudas de si mantener el atípico o quitarlo, se recomienda hacer el análisis con y sin la presunta anomalía, y si se obtienen las mismas conclusiones la disyuntiva deja de tener importancia, caso contrario se deberían recoger más datos o aplicar técnicas específicas para su tratamiento [10,11]. Verificar – Planear: A partir de los datos de un diseño es posible ajustar un modelo de primer o mayor grado, según el tipo de diseño. En esta etapa no hay mucho que planear, pues es una consecuencia de las etapas previas. Verificar – Hacer: Utilizando un software estadístico, obtenga el análisis de varianza para evaluar la calidad de ajuste del modelo y estime los coeficientes del modelo por mínimos cuadrados, a través de una regresión. Verificar – Verificar: El análisis de los resultados del diseño de mezclas inicia con el ajuste y selección del modelo adecuado, según el número de puntos experimentales utilizados. Para ello se cuenta con la prueba de bondad de ajuste, el coeficiente de determinación y las estadísticas de resumen. Con el criterio de la prueba de ajuste del modelo, presentada en el ANOVA, normalmente se elige el modelo más simple con un valor-p mayor que , lo cual conlleva en ocasiones a que todos los modelos sean buenos candidatos, debiéndose entonces recurrir al criterio del coeficiente de determinación . El es una medida adimensional cuyo recorrido está acotado entre cero y uno, lo que facilita su cálculo e interpretación y a la vez motiva su uso excesivo, con interpretaciones abusivas y hasta erróneas. Un error frecuente en la interpretación de es el de no tener en cuenta que este coeficiente y el número de datos suelen variar de forma inversa; o no recordar que el número de variables explicativas consideradas en el modelo también condicionan su valor, ya que es una función no decreciente del número de variables exógenas o regresoras presentes en el modelo. En ocasiones los investigadores seleccionan el modelo con base en el más elevado, lo cual puede conducir a conclusiones no acertadas. El objetivo de un análisis de regresión no es obtener un valor elevado de , sino obtener estimadores precisos de los verdaderos coeficientes de la regresión poblacional. En el análisis empírico no es raro encontrar valores altos de en modelos conformados con coeficientes de regresión que no son estadísticamente significativos o que tienen los signos contrarios a los esperados a priori. El investigador debe preocuparse por la relevancia lógica o teórica que tienen las variables explicativas para la variable endógena y por su significación estadística, considerando qué tanto contribuye cada término a la explicación de la variable respuesta, para de esta forma,

154


Ortega-Pérez et al / DYNA 82 (189), pp. 149-156. February, 2015.

eliminar los que tienen poca contribución, que son aquellos cuyo valor-p es mayor que en la prueba t sobre la significancia de los términos del modelo. Sin embargo, esta prueba no es decisiva, debido a que en ocasiones los coeficientes aparentan ser significativos porque sus estimadores están correlacionados con el estimador de otro coeficiente que sí tiene contribución significativa, por lo que se sugiere analizar los efectos en al ir eliminando los coeficientes que tienen menor contribución, retirando definitivamente aquellos coeficientes que al eliminarse mantienen casi invariable , hasta que sólo queden en el modelo términos significativos. Como alternativa de solución al problema del incremento artificial del valor se tiene el coeficiente de determinación ajustado, que tiene la propiedad de ser neutral frente a la introducción de variables adicionales, siendo mejor su uso en lugar de . Ahora bien, el uso de cualquiera de los coeficientes alternativos propuestos, tienen problemas propios de interpretación y no resuelve las deficiencias de . Aunque el es una de las medidas preferidas para evaluar el grado de ajuste del modelo al conjunto de observaciones, esta medida debe emplearse junto a otras para obtener conclusiones válidas, pues su exclusiva consideración puede conducir a errores importantes en el análisis de regresión. Entre las medidas sugeridas está el error estándar de la regresión , que representa la dispersión entre las observaciones y el modelo; por lo que cuanto más bajo sea su valor, mejor pronosticará el modelo. Otra medida es la suma de los cuadrados de predicción PRESS, que también evalúa la capacidad predictora del modelo, prefiriéndose los valores pequeños. El factor de inflación de la varianza VIF, que indica en qué medida la multicolinealidad está presente no hay serios en un análisis de regresión. Si implica problemas de colinealidad, si la colinealidad moderada a alta colinealidad y es severa. La multicolinealidad puede influir en forma dramática sobre la capacidad de estimar los coeficientes, haciendo que sean inestables, difíciles de interpretar e incluso con el signo incorrecto [12]. Su presencia se debe a múltiples causas, entre ellas las restricciones muy estrechas y el uso de modelos sobredefinidos. Sin embargo, los diseños de mezclas son propensos a la multicolinealidad, , por lo que debemos debido a la restricción aprender a vivir con ella [5], o usar modelos alternativos como la regresión por mínimos cuadrados parciales - PLS, que no asume dependencia matemática entre componentes [13]. Tenga presente que los buenos modelos son aquellos que cumplen más criterios de calidad del ajuste y que siempre existirán circunstancias en las que, al no cumplirse alguno de los criterios, desde el punto de vista práctico no necesariamente harán inviable el modelo; pero, bajo calidad similar en el ajuste de dos modelos, siempre ha de preferirse el más sencillo. Finalmente, la validez de los resultados obtenidos queda supeditado a que los supuestos del modelo (normalidad, varianza constante e independencia de los residuos) se cumplan. Verificar – Actuar: Si el modelo cumplió los criterios formales de evaluación podrá continuar a la etapa siguiente,

caso contrario deberá retornar a la primera etapa de esta estrategia. Si no son satisfactorias las comprobaciones comunes de diagnóstico de adecuación del modelo, se deberá recurrir a las transformaciones. Actuar – Planear: Aunque la ecuación se ajuste bien a los datos, y pase las pruebas normales de diagnóstico, no hay seguridad de que vaya a predecir con exactitud nuevas observaciones. Se recomienda evaluar la capacidad predictiva del modelo, con corridas de confirmación pertenecientes a la región experimental. Actuar – Hacer: Realice los experimentos adicionales siguiendo estrictamente todo lo indicado en la etapa Hacer de esta estrategia. Emplee varias repeticiones para que se tenga una buena estimación de lo logrado. Actuar – Verificar: Confirme la capacidad predictora del modelo ajustado, comparando los resultados experimentales contra los predichos. Si el modelo predice satisfactoriamente continúe el análisis, caso contrario deberá modificar el modelo, ya sea aumentando el diseño o retornando a la etapa inicial de esta estrategia, lo cual no significa que se han perdido recursos, sino que se ha logrado más conocimiento de la mezcla analizada. Saque provecho de lo realizado y trate de entender el fenómeno. Según Ronald Fisher, “el mejor momento para planificar una investigación es después de haberla hecho”. No cometa el error de desechar el experimento y valorarlo como un fracaso. Por el contrario, teniendo en cuenta el ciclo PHVA, use el aprendizaje obtenido en el nuevo ciclo. Además de los criterios formales de evaluación, el investigador debe preguntarse ¿es razonable la ecuación, las magnitudes de sus coeficientes y sus signos?, ¿tienen sentido los regresores en el modelo, considerando su contexto?, ¿los errores estándar son relativamente pequeños?, ¿el modelo obtenido es técnica y económicamente factible? Recuerde que en las industrias pesa más el valor económico que el estadístico, se pueden tener fórmulas estadísticamente válidas pero que por carecer de sentido práctico son abandonadas. Luego, interprete los coeficientes significativos obtenidos. Debido a la restricción de que la suma de las proporciones siempre es igual a la unidad, el efecto de un componente en un diseño de mezclas es diferente al efecto de un diseño factorial. Cuando el modelo es lineal, la mezcla es estrictamente aditiva. En mezclas no aditivas, dependiendo del signo del coeficiente se tendrá sinergismo o antagonismo entre los componentes. Tenga en cuenta la forma del simplex, especialmente si usó un U-simplex. Finalmente, realice la superficie de respuesta y verifique las tendencias. Actuar – Actuar: Habiéndose obtenido un modelo estadísticamente válido y con alto significado práctico, es hora de emplearlo para determinar en qué porcentaje debe participar cada uno de los componentes para lograr que la fórmula tenga las propiedades deseadas. Se debe evitar el riesgo de hacer extrapolaciones indiscriminadas con base en el modelo, que van más allá de la región que contienen las observaciones originales. En caso de contar con varias variables respuestas, utilice la optimización simultánea.

155


Ortega-Pérez et al / DYNA 82 (189), pp. 149-156. February, 2015.

[2]

[3] [4]

[5] [6] [7] [8] [9] Figura 6. Estrategia PHVA aplicada a DOE Mx. Fuente: Autores

[10]

Estas estrategias se hacen desde el punto de vista del experimentador, más que desde una perspectiva teórica elaborada y buscan facilitar el uso del diseño de experimentos de mezclas sin pretender constituirse en un manual, por lo que los investigadores deberán ampliar estos conceptos a la hora de aplicarlos. 4. Conclusiones Las bondades del uso del diseño de experimento para la formulación de mezclas industriales son superiores al método tradicional del ensayo y error; sin embargo, es necesario asegurar su correcta aplicación, para ello se puede usar la estrategia del ciclo PHVA para definir el plan experimental, obtener los datos, ajustar un modelo estadísticamente significativo y con alto significado práctico (ver Fig. 6). Si bien todas las etapas de esta estrategia son importantes, la etapa planificar es la más crítica, pues conocer los límites, las restricciones, la forma y el tamaño de la región experimental facilita la creación del diseño. Ignorar estas dimensiones vulnera al experimentador tornándolo totalmente dependiente de algún programa computacional y sin ninguna garantía de que el número total de experimentos del plan, es el correcto para los objetivos establecidos. Por otro lado, la elección del modelo adecuado, en la etapa verificar no puede supeditarse simplemente al Finalmente, en la industria cobra un gran significado la validez técnica y económica de las formulaciones que se desarrollen. En la Fig. 6, se representa a escala el desarrollo de esta estrategia.

[11] [12] [13]

D.C. Ortega-Pérez, graduada de Geología en 1991, de la Universidad EAFIT, Colombia, Esp. en Técnicas de Microscopía Electrónica del Instituto Eduardo Torroja, España, MSc. en Ingeniería de Minerales de la Universidad de Exeter, Inglaterra y candidata a Dr. en Ingeniería, Ciencia y Tecnología de Materiales de la Universidad Nacional de Colombia. M.O. Bustamente-Rua, graduado de Ingeniería de Minas y Metalurgia en 1986, de la Universidad Nacional de Colombia, Esp. en Minería y Metalurgia en 1988, MSc. en Minería y Metalurgia en 1991 y Dr en Minería y Metalurgia en 1999, todos ellos de la Universidad de Concepción, Chile. D.F. Gutiérrez-Rôa, graduada de Ingeniería Industrial en 2004 de la Universidad Mayor de San Simón, Bolivia, Esp. en Sistemas de Gestión de Calidad en 2006 y Magíster en Ingeniería Administrativa en 2010, ambos de la Universidad Nacional de Colombia. A.A. Correa-Espinal, graduado de Ingeniería Industrial en 1995 de la Universidad Nacional de Colombia, MSc. en Ingeniería Industrial en 1999 de la Universidad de los Andes y Dr. en Estadística e Investigación Operativa en 2007, de la Universidad Politécnica de Cataluña, España. Profesor de tiempo completo del Departamento de Ingeniería de la Organización, Facultad de Minas, Universidad Nacional de Colombia.

Referencias [1]

de sustratos mediante programación lineal. Interciencia, 30 (6), pp. 365-369, 2005. Cafaggi, S., Leardi, R., Parodi, B, Caviglioli, G. and Bignardi, G., An example of application of a mixture design with constraints to a pharmaceutical formulation. Chemometrics and Intelligent Laboratory Systems, 65 (1), pp. 139-147, 2003. doi: 10.1016/S01697439(02)00045-X Gutiérrez-Pulido, H. y De la Vara-Salazar R., Análisis y diseño de experimentos. Segunda edición. México: McGrawHill, 2008. 483 P. Eriksson, L., Johansson, E. and Wikstrom, C., Mixture design — design generation, PLS analysis, and model usage. Chemometrics and Intelligent Laboratory Systems, 43, pp. 1-24, 1998. doi: 10.1016/S0169-7439(98)00126-9 Cornell, J.A., Experiments with mixtures. Tercera edición. Nueva York: John Wiley & Sons, 2002. cLean, R.A. and Anderson, V.L., Extreme vertices design of mixture experiments. Technometrics, 8, pp. 447-454, 1966. doi: 10.1080/00401706.1966.10490378 Snee, R.D. and Marquardt, D.W., Extreme vertices design for linear mixture models. Technometrics, 16, pp. 399-408, 1974. doi: 10.2307/1267670 Nigam, A.K., Gupta, S.C. and Gupta, S., A new algorithm for extreme vertices designs for linear mixture models. Technometrics, 25, pp. 367-371, 1983. doi: 10.2307/1267858 Montgomery, D.C. and Voth, S.R., Multicollinearity and leverage in mixture design. Journal of Quality Technology, 26, pp. 96-108, 1994. Barnett, V. and Lewis, T., Outliers in statistical data. Segunda edición. Nueva York: Wiley, 1994. Myers, R.H., Classical and modern regression with aplications. Segunda edición. Boston: Publishers P-K, USA. 1990. Akay, K.U., A Note on model selection in mixture experiments. Journal of Mathematics and Statistics, 3 (3), pp. 93-99, 2007. doi: 10.3844/jmssp.2007.93.99 Muteki, K., MacGregor, J.F. and Ueda, T., Mixture designs and models for the simultaneous selection of ingredients and their ratios. Chemometrics and Intelligent Laboratory Systems, 86 (1), pp. 1725, 2007. doi: 10.1016/j.chemolab.2006.08.003

Zamora-Morales, B.P., Sánchez-García, P., Volke-Haller, V.H., Espinosa-Victoria, D. y Galvis-Spínola, A., Formulación de mezclas 156


A gas stations location and their relationship with the operational characteristics of a road network Diego Alexander Escobar-García a, Camilo Younes-Velosa b & Johnny Alexander Tamayo-Arias c a

Facultad de Ingeniería y Arquitectura, Universidad Nacional de Colombia, Manizales, Colombia. daescobarga@unal.edu.co b Facultad de Ingeniería y Arquitectura, Universidad Nacional de Colombia, Manizales, Colombia. cyounesv@unal.edu.co b Facultad de Ingeniería y Arquitectura, Universidad Nacional de Colombia, Manizales, Colombia. jatamayoar@unal.edu.co Received: February 5th, 2014. Received in revised form: October 31th, 2014. Accepted: November 26th, 2014.

Abstract This research proposal applies geostatistical techniques to discover the relationship between the geographic locations of different gas stations and the operational characteristics offered by the transport network of the city of Manizales. This research is supported by basic information gathered for more than a year using GPS equipment (more than 18 million records). The time needed to get to gas stations is calculated as well as the spatial coverage in terms of population and area. Graphical results are obtained and these explain the time needed to get to a particular gas station. Quantitative comparisons are made among the different types of gas stations and the sectors of the city lacking gas stations coverage are established. Keywords: Accessibility, coverage, geostatistics, gas stations, GPS.

Localización de estaciones de servicio y su relación con las características operacionales de la red viaria Resumen En esta investigación se aplican técnicas geoestadísticas con el fin de descubrir la relación existente entre la ubicación geográfica de las “Estaciones de Servicio” y las características operativas ofrecidas por la red de transporte de la ciudad de Manizales. La investigación se soporta en la toma de información primaria por un período superior a un año, con equipos GPS (más de 18 millones de datos). Se calculan los tiempos de desplazamiento que deben ser invertidos para alcanzar las estaciones de servicio, así como las coberturas espaciales en términos de población y área. Se obtienen resultados gráficos que explican el tiempo que se debe invertir para llegar a una determinada estación de servicio, así como comparaciones cuantitativas entre los diferentes tipos de estaciones de servicio estudiadas. Se establecen qué sectores de la ciudad presentan una deficiencia respecto a la cobertura de este tipo de nodos de actividad. Palabras clave: Accesibilidad, cobertura, geoestadística, estaciones de servicio, GPS.

1. Introduction Manizales is a city located in the central western region of Colombia, on the Andean mountain chain prolongation (2150 m.a.s.l.) with latitude between 5.4 degrees north and 75.3 ° Greenwich. The city has approximately 370,000 inhabitants. The concept of "accessibility” is very important in urban and regional planning. Its origins date back to the 20s when this concept was applied in areas such as location theory and regional economic planning [1]. This research proposal focuses on an accessibility analysis that relates the geospatial location of Gas Stations (GS) and the operational

characteristics of the road network. TransCAD ® and Surfer ® software were used to process the information. The following chapters introduce a literature review, the research methodology and a discussion of the main results. 2. Literature review Accessibility is a measure rarely used in Colombia, but is so representative that it should be recognized as a not perceived secondary need [2]. Accessibility is a means to reach priority events for the interest of the people (health care, education, employment, among others). Currently, fuel can be considered a basic need item in

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 157-164. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.41929


Escobar-García et al / DYNA 82 (189), pp. 157-164. February, 2015.

Colombia and therefore it should be accessible and affordable. The transport goals in many countries seek to eliminate class differences through increased access to services and basic need items. [3]. Accessibility is defined as a measurement of the ease of communication between activities and human settlements using a particular transport mode [4,5]. However, there are many other definitions of the term, and the most classic is: "... the potential of Opportunities for interaction. "[6]. There are different types of accessibility analyzes that tackle different applications in various fields of knowledge, such as: sustainability [7,8], economic development [9-11], demography [12], coverage analysis [13], social cohesion [14,15], transport modes operations [16, 17], studies of localization and services rendering [18-20], social networks [21], and tourism [22]. Classical models of accessibility are in terms of distance and attraction nodes [23], however, this ease is nowadays less related to the distance between two different places and more related to the distance to transport infrastructures and the reduction in connection times between regions [24]. Accessibility then becomes a key element of economic development, social welfare and land use planning [25]. Factors affecting accessibility [26] have been defined and categorized and these are: location of the nodes of activity (alpha factor), number of nodes (beta factor), transportation networks (gamma factor) and population distribution (delta factor.). It is emphasized that accessibility analyses are becoming very important in the evaluation of plans and infrastructure projects [27]. The improvement in accessibility levels is, in many cases, is one of the criteria used in these evaluations. The GIS store large amounts of information that allow a more detailed understanding of the accessibility features offered by a particular mode of transport. One of the advantages in using the GIS is that facilitate the understanding of the behavior of the networks, which might be analyzed using algorithms (eg shortest paths) [28] providing researchers with tools to simulate such behavior. In Colombia we have not yet implemented localization methods that include an territorial accessibility analysis, despite not find examples of GS localization if there are examples of location analysis and ethanol biofuel plants [29].

the accessibility analysis and its relationship with the GS geospatial location. 3.1. Information acquisition GPS devices were installed in different types of vehicles (cars, taxis, motorcycles, trucks and Urban Public Transport), in order to gather satellite positioning data according to a predetermined time interval (one second). Basic information was obtained from vehicles and the calculation of average travel time was done on each of the links that make up the system. A field study was carried out to identify the GS, categorizing the type of fuel offered and verifying their geospatial location. 3.2. Upgrade of the georeferenced network The road network provided by the Municipal Administration was analyzed and the information was supplemented with data provided by the fieldwork using GPS equipment, which allowed the correction and validation of the geographic information. The city of Manizales has a network of more than 12,000 links and around 9,000 nodes. 3.3. Calculation of operating speeds and instantaneous speed Operating speeds are calculated from real data and show the true operational characteristics of the links in the network. This is important because in accessibility analysis the operating speeds are usually assumed according to the category of the road [29]. However, recent research on accessibility takes into account the actual speeds of vehicles [30]. Different calculation algorithms were required to process all the information to carry out the project. The operating speed is calculated in each link of the network using the data of time constantly obtained by the GPS. Three parameters were examined: (1) the speed of the vehicle each data interval reading along the i-th link, (2) the average operating speed of the ith link, and (3) the operating speed in each link i of a specific route. 3.3.1. Calculation of instantaneous speed

3. Methodology The methodology of this research consists of four stages. The first stage is related to the set up of the entire transport infrastructure network, which in turn included several sub-stages such as information acquisition and the upgrade of the georeferenced network. The second stage is related to the calculation of the average operating speeds in the links. The third stage is related to the calculation of the global media accessibility offered by the infrastructure network in different transport modes. And the fourth stage is related to the calculation of the percentage of area, population and number of houses covered by the curves of average travel time obtained from

The operating speed per time interval between points 1 and 2 was obtained using eq. (1).

vi 

3.6 ( y2  y1 ) 2  ( x2  x1 ) 2 t

(1)

Where:

vi

= Speed in Km/h

x1, y1 = Coordinates in meters of point 1. x2 , y2 = Coordinates in meters of point 2.

t = Time interval in seconds between datum and datum This parameter is used to identify speed variations in a link, to determine the number of stops when values equal zero, and also to establish the durations of these stops.

158


Escobar-García et al / DYNA 82 (189), pp. 157-164. February, 2015.

3.3.2. Calculation of the average speed of a trip in the link The average travel speed in a link was obtained using the relation between the link length and the difference in the traveling times between the initial node and the end node (see eq. 2).

via  3.6

la t2  t1

(2)

Where: via = Speed i in link a (km/h), la Link a length in meters, t1 == Travel time in the initial node, t2 = Travel time in the end node. 3.3.3. Calculation of the average speed in the link in a time period The speed average in the link in a period of time is calculated by the application of eq. 3. This speed is calculated in each link of the road network and is used to set the impedances through this matrix of minimum times. n

va 

a i

n

Scenario 4 takes into account GS distributing natural vehicular gas -CNG.

4. Results and discussion 4.1. Scenario 1 (All the GS)

v i 1

Figure 1. Location of the GS in the city of Manizales. Source: Author’s design.

(3)

Where: v a = Average operating speed in link a, n = Number of speed data recorded in link a in a period of time. 3.4. Calculation of Global Media Accessibility Global Media Accessibility is analyzed beginning at the vector of average travel time, which represents the average travel time from node i to the other nodes of the road network. The indicator tends to favor the nodes located at the center of a network, because its geographical location makes travel times shorter from these nodes to the others. The unimodal matrix of distances must be obtained to get the vector of average travel time. Then, the matrix of minimum average travel times is designed using the average operating speed in each link, in which the average travel time between all the nodes in the network is minimized. The vector of average travel time obtained (nx1) is related to the geographic coordinates (latitude and longitude) in each of the nodes, resulting in a matrix of order (nx3) which in turn generates isochronous curves of average travel time. Four scenarios were analyzed: • Scenario 1 takes into account all the GS without classifying the type of fuel; • Scenario 2 takes into account only GS distributing premium gasoline; • Scenario 3 takes into account GS distributing regular gasoline and diesel fuel;

Initially, the geospatial location of all the GS were studied together, without considering the type of fuel distributed. Citywide there were 31 GS. Fig. 1 shows the spatial location of the GS in the city of Manizales. The results show the relationship between the location of the GS and the operational characteristics of the road network. The area reporting greater accessibility to GS nodes refers an average travel time of 4 minutes, covering a wide sector of downtown and expanding on both sides of main roads such as Avenida Centenario and Avenida Kevin Angel. Fig. 2 shows the area of the city covered by the curve of shorter average travel time. An analysis of the entire urban area shows that it is possible to reach a GS operating at an average travel times between 4 and 22 min. approx. The analysis of coverage of area, population and housing, regarding time curve, provide a better diagnosis of the geospatial location of the GS. Table 1 shows the results of coverage percentages. The curve of 6 minutes has the highest coverage percentage for the variables area and number of houses. This differs from the variable population where the curve of 10 minutes covers the largest amount of people. Fig. 3 shows the cumulative percentage of area, population and number of houses covered by isochronous curves. The three variables show quite similar behavior in terms of slope and coverage percentages. It is concluded in the first scenario that 50% of the population would get to a GS in 7.7 minutes of average travel time. This value decreases to 7.4 minutes with regards to the variable number of houses. Northwest, northeast and south sectors show the longest coverage times making them areas with greater difficulties in getting to GS.

159


Escobar-García et al / DYNA 82 (189), pp. 157-164. February, 2015.

Figure 2. Curve of shorter average travel time, scenario 1. Source: Author’s calculations. Figure 4. Curve of shortest average travel time. Scenario 2. Source: Author’s calculations. Table 1. Coverage percentage according to the time curve. Scenario 1. Area Population Housing Isochrone N° N° 2 curve Km % % % People Housing 4 3,6 9% 43.006 11% 11.875 13% 6 9,7 24% 79.903 20% 20.226 22% 8 8,0 20% 87.534 22% 19.243 21% 10 8,1 20% 93.141 23% 19.949 22% 12 5,8 14% 60.553 15% 13.398 15% 14 3,1 8% 23.420 6% 5.190 6% 16 1,1 3% 6.642 2% 1.306 1% 18 0,7 2% 2.469 1% 531 1% 20 0,1 0% 356 0% 69 0% 22 0,0 0% 171 0% 32 0% Total 40,2 100% 397.194 100% 91.817 100% Source: Author’s calculations.

Table 2. Coverage percentage according to the time curve, scenario 1. Area Population Housing Isochrone N° N° curve Km2 % % % People Housing 4 1,8 5% 19.859 5% 6.527 7% 6 7,7 19% 69.735 18% 18.301 20% 8 7,0 17% 81.720 21% 18.603 20% 10 8,5 21% 90.089 23% 19.304 21% 12 6,0 15% 63.320 16% 13.057 14% 14 4,1 10% 40.071 10% 8.500 9% 16 1,8 4% 19.510 5% 4.171 5% 18 1,1 3% 6.368 2% 1.729 2% 20 0,5 1% 1.561 0% 559 1% 22 0,5 1% 1.131 0% 307 0% 24 0,5 2% 989 0% 218 0% 26 0,4 1% 785 0% 145 0% 28 0,1 0% 629 0% 128 0% 30 0,1 0% 426 0% 112 0% 32 0,1 0% 535 0% 92 0% 34 0,1 0% 466 0% 65 0% Total 40,2 100% 397.194 100% 91.817 100% Source: Author’s design.

Figure 3. Cumulative Percentage Vs average travel time, isochrone curve. Stage 1. Source: Author’s calculations.

4.2. Scenario 2 (premium gasoline) 18 out of 31 GS (58%) in the city of Manizales distribute premium gasoline. Fig. 4 shows a zoom of the

sector of the city to be reached by the shortest average travel time; 4 minutes. This curve is located along the Avenida Kevin Angel (eastern sector). It is easily identified in Fig. 2 that the western area of the city is not covered by this time curve. Table 2 shows the coverage percentages obtained in the GS distributing premium gasoline. The city is covered by curves of average travel time between 4 and 34 minutes. The curve of 10 minutes has the highest percentage regarding the three variables (area, population and number of houses). Comparing the above results to those obtained in Scenario 1, and analyzing the variable population, it is observed that 100% of the population in scenario 1 is covered in 18 minutes of average travel time, whereas, 98% of the population in scenario 2 is covered by the same time curve; a difference of approximately 7,950 inhabitants.

160


Escobar-GarcĂ­a et al / DYNA 82 (189), pp. 157-164. February, 2015.

Figure 5. Cumulative Percentage Vs average travel time, isochrone curve. Stage 2. Source: Author’s calculations.

However, scenario 2 refers a coverage difference of 23,150 inhabitants regarding scenario 1 in the time curve of 4 minutes. Fig. 5 shows the cumulative percentage of area, population and number of houses covered by isochronous curves. It is concluded that 50% of the population would get to a GS in about 8.6 minutes of average travel time in scenario 2. Compared to scenario 1, and regarding the variable number of houses, this value decreases to 8.3 minutes; it takes extra time to get to a GS that distributes premium gasoline. It was found that the central and western sectors of the city have higher operational limitations to get to a GS that distribute premium gasoline; situation not present in the eastern sector. A large percentage of upper class houses sit in the eastern part of the city. 4.3. Scenario 3 (regular gasoline and diesel) 30 out of the 31 GS distribute regular gasoline, and 29 distribute diesel. The results are quite similar to those obtained in scenario 1, finding only some differences in the percentages of coverage of some curves of average travel time. It is concluded that in scenario 3, 50% of the population would get to a GS in 7.7 minutes of average travel time. This value decreases to 7.5 minutes in the variable number of houses. As in scenario 1, the northwest, northeast and south areas show the greatest coverage times, making them areas with greater difficulties in getting to a GS that distribute regular gasoline or diesel fuel. 4.4. Scenario 4 (Vehicular Natural Gas - CNG) 12 out of 31 GS distribute CNG, this is 39%. Fig. 6 shows a zoom of the area covered by the shortest average travel time curve (4 minutes). This curve expands along Avenida Kevin Angel and towards an important sector of

Figure 6: Shortest average travel time curve, scenario 4. Source: Author’s calculations.

the center of the city. It also shows a small covered area around the Intermunicipal Transport Terminal. Compared to the curve obtained for premium gasoline (see Fig. 4), there is more coverage of GS that distribute CNG towards the west sector of the city. Table 3 shows the coverage percentages obtained for GS that distribute CNG. The city is covered by average travel time curves between 4 and 40 minutes. That is to say that the longest time to get to a GS that distribute CNG is 40 minutes. The curve of 8 minutes refers the highest percentage in the variables population and number of houses. Comparing these results with those obtained in previous scenarios, and analyzing the variable population it is observed that 100% of the population is covered in 18 minutes of average travel time in scenarios 1 and 3. The same time curve covers 98% of the population in scenario 2, while 93% of the population is covered in scenario 4. The percentage ogive shown in Fig. 7 shows the relationship between the isochronous curve and the coverage percentage for the three variables studied. It is important to highlight that 90% of the population might get to a GS that distributes CNG in a maximum of 16 minutes of average travel time. It is concluded that 50% of the population would get to a GS in 8.9 minutes of average travel time in scenario 4. This value decreases to 8.6 minutes for the variable number of houses. This means that it takes longer to get to a GS that distributes CNG than to one distributing premium gasoline. An additional result is that most of the GS that distribute CNG are located along the main vehicular corridor in western direction - east and west, and are conspicuously absent in the corridor south - north and north-south.

161


Escobar-García et al / DYNA 82 (189), pp. 157-164. February, 2015. Table 3: Coverage percentage according to the time curve, scenario 4. Area Population Housing Isochrone N° N° 2 curve Km % % % People Housing 4 2,0 5% 22.190 6% 6.311 7% 6 3,9 10% 54.298 14% 14.022 15% 8 7,6 19% 83.817 21% 19.647 21% 10 7,7 19% 83.179 21% 18.185 20% 12 6,0 15% 62.921 16% 12.652 14% 14 5,1 13% 36.708 9% 7.842 9% 16 2,7 7% 16.222 4% 4.414 5% 18 1,0 3% 8.637 2% 2.229 2% 20 1,0 2% 8.617 2% 2.036 2% 22 0,9 2% 6.322 2% 1.416 2% 24 1,0 2% 6.152 2% 1.375 1% 26 0,8 2% 2.838 1% 637 1% 28 0,4 1% 2.737 1% 568 1% 30 0,1 0% 981 0% 191 0% 32 0,0 0% 418 0% 77 0% 34 0,0 0% 343 0% 64 0% 36 0,0 0% 415 0% 77 0% 38 0,0 0% 301 0% 56 0% 40 0,0 0% 99 0% 18 0% Total 40,2 100% 397.194 100% 91.817 100% Source: Author’s calculations

Figure 8. Location of the GS of greater geospatial coverage. 5 min. isochrone curve. Source: Author’s calculations.

Figure 7: Cumulative Percentage Vs average travel time, isochrone curve. Stage 4. Source: Author’s calculations.

refer greater coverage of the isochronous curve of 5 minutes. It was found that GS presenting greater coverage are located towards the eastern sector of the city (green fill), with a value of 3.5% of the covered urban area. Regarding the variable population (red fill), GS of greater coverage are located in the downtown area, with a value of 4.5% of the urban population. Regarding the variable number of houses (orange fill), the GS of greater coverage is located further est (GS Laureles). The GS with the greatest population coverage is located further west (GS Carrera 18). The third GS of higher coverage of number of houses is located among the above mentioned on Avenida Kevin Angel (GS La Carola). Fig. 9 shows the geographic location of the GS referring the greatest coverage of the isochrone curve of 15 minutes. Regarding the variables of population and number of houses, the three GS of greater coverage are located towards downtown, two on Avenida Santander (Cervantes and Caldas GS) and one on Avenida Kevin Angel (Los Cedros GS). These GS cover 46% of the population and 47% of the number of houses in 15 minutes of average travel time. Regarding the variable area, the GS of greatest coverage in the curve of 15 minutes is located towards east. Researchers need to design tools based on maps to show the

5. Conclusions It is possible to get to a GS in the city of Manizales in an average travel time of 4 and 22 minutes. The worst scenario is regarding GS that distribute CNG as it might take between 4 and 40 minutes to get to these GS. The importance of location has been recognized for years as one of the influencing factors in the economic development of a country, region or city [31]. The coverage percentages were calculated taking into account the variables area, population and number of houses in each GS of the city. This was done to determine the GS reporting greater coverage and thus referring a better relationship between geospatial location and the operational characteristics of the road network of the city. Fig. 8 shows the geographical location of the GS that

Figure 9. Location of GS of greater geospatial coverage. 15 min. isochrone curve. Source: Author’s calculations.

162


Escobar-García et al / DYNA 82 (189), pp. 157-164. February, 2015.

specific effects of changes in accessibility [32], especially when the aim is to study the location of new activity nodes. The results obtained show that the Northwestern sector, the sector on the Pan-American Highway towards east, and the southern sector of the city (Villamaría) are three areas in the city that would benefit from a new GS. References [1]

[2]

[3]

[4]

[5]

[6]

[7]

[8] [9]

[10] [11]

[12]

[13]

[14]

Batty, M., Accessibility: in search of a unified theory. Environment and Planning B: Planning and Design, [online] 36, pp. 191-194, 2009. [date of reference November 6th of 2012]. Available at: http://www.envplan.com/abstract.cgi?id=b3602ed Halden, D., The use and abuse of accessibility measures in UK passenger transport planning. Transportation Business & Management, [online] 2, pp. 12-19, 2011. http://www.sciencedirect.com/science/article/pii/S2210539511000022 Jones, P., Developing and applying interactive visual tools to enhance stakeholder engagement in accessibility planning for mobility disadvantaged groups. Transportation Business & Management, [online] 2, pp. 29-41, 2011. http://www.sciencedirect.com/science/article/pii/S22105395110003 20 Morris, J., Dumble, P. and Wigan, M., Accessibility indicators in transport planning. Transportation Research, A, [online] 13, pp. 91109, 1978. [date of reference September 21th of 2012]. Available at: http://projectwaalbrug.pbworks.com/f/Transp+Accessib++Morris,+Dumble+and+Wigan+(1979).pdf Zhu, X. and Liu, S., Analysis of the impact of the MRT system on accesibility in Singapore using an integrated GIS tool. Journal of Transport Geography, 4 (12), pp. 89-101, 2004. http://dx.doi.org/10.1016/j.jtrangeo.2003.10.003 Hansen, W., How accessibility shapes land use. Journal of the American Institute of Planners, [online] 25 (2), pp. 73-76, 1959. http://www.tandfonline.com/doi/abs/10.1080/01944365908978307#. VHPikfmG8uc Cheng, J., Bertolini, L. and Clercq, F., Measuring sustainable accessibility. Transportation research Board: Journal of the Transportation Research Board, 2017, pp. 16-25, 2007. http://dx.doi.org/10.3141/2017-03 Vega, A., A multi-modal approach to sustainable accessibility in Galway. Regional Insights, 2 (2), pp. 15-17, 2011. http://dx.doi.org/10.1080/20429843.2011.9727923 Rietveld, P. and Nijkamp P., Transport and regional development. In: Polak, J. and Heertje, A., Editors, European Transport Economics, European Conference of Ministers of Transport (ECMT), Blackwell Publishers, Oxford. 1993. Vickerman, R., Spiekermann, K. and Wegener, M., Accessibility and economic development in Europe. Regional Studies, [online] 33 (1), pp. 1-15, 1999. http://dx.doi.org/10.1080/00343409950118878 Mackinnon, D., Pirie, G. and Gather, M., Transport and economic development. In R. Knowles, J. Shaw, & I. Docherty, Editors, Transport Geographies: Mobilities, Flows and Spaces (10-28). Blackwell Publishers, Oxford, 2008. Kotavaara, O., Antikainen, H. and Rusanen, J., Population change and accessibility by road and rail networks: GIS and statistical approach to Finland 1970–2007. Journal of Transport Geography, [online] 19 (4), pp. 926-935, 2011. [date of reference October 16th of 2012]. Available at: http://www.sciencedirect.com/science/article/pii/S0966692310001948 Straatemeier, T., How to plan for regional accessibility?. Transport Policy, [online] 1, pp. 127-137, 2008. [date of reference October 1th of 2012]. Available at: http://projectwaalbrug.pbworks.com/f/Transp+Accessib++Straatemeier+(2007).pdf Schürman, C., Spiekermann, K. and Wegener, M., Accessibility indicators. Berichte aus dem Institut für Raumplanung, [online] 39, IRPUD, Dortmund, 1997. [date of reference July 11th of 2012]. Available at: http://spiekermann-wegener.de/pub/pdf/IRPUD_Ber39.pdf

[15] López, E., Gutierrez, J. and Gómez, G., Measuring regional cohesion effects of large-scale transport infrastructure investment: an accessibility approach, European Planning Studies, 16 (2), pp. 277-301, 2008. http://dx.doi.org/10.1080/09654310701814629 [16] Escobar, D. and García, F., Territorial accessibility analysis as a key variable for diagnosis of urban mobility: A case study Manizales (Colombia). Procedia - Social and Behavioral Sciences, [online] 48 (0), pp. 1385-1394, 2012. [date of reference April 10th of 2012]. Available at: http://www.sciencedirect.com/science/article/pii/S1877042812028509 [17] Cao, X. and Li, L., Accessibility distribution impact of intercity rail transit development on Pearl River delta region in China. CICTP 2012: Multimodal Transportation Systems—Convenient, Safe, CostEffective, Efficient. Proceedings of the 12th International Conference of Transportation Professionals. Beijing, China, [online] pp. 17191730, 2012. [date of reference August 3th of 2012]. Available at: http://ascelibrary.org/doi/abs/10.1061/9780784412442.175 [18] Calcuttawala, Z., Landscapes of information and consumption: A location analysis of public libraries in Calcutta, in Garten, E.D., Williams, D.E., and Nyce J.M. (ed.) 24. [online] (Advances in Library Administration and Organization, Volume 24), Emerald Group Publishing Limited, pp.319-388, 2006. [date of reference August 13th of 2012]. Available at: http://www.emeraldinsight.com/doi/pdfplus/10.1016/S07320671%2806%2924009-4 [19] Higgs, G., Langford, M. and Fry, R., Investigating variations in the provision of digital services in public libraries using network-based GIS models. Library & Information Science Research, [online] 35 (1), pp. 24-32, 2013. [date of reference January 15th of 2013]. Available at: http://www.sciencedirect.com/science/article/pii/S0740818812000977 [20] Park, S., Measuring public library accessibility: A case study using GIS. Library & Information Science Research, [online] 34 (1), pp. 13-21, 2012. [date of reference September 12th of 2012]. Available at: http://www.sciencedirect.com/science/article/pii/S07408188110009 58 [21] Sailer, K., Marmot A. and Penn, A., Spatial configuration, organisational change and academic networks. ASNA 2012 – Conference for ‘Applied Social Network Analysis’, Zürich, Switzerland, 2012. [online] [date of reference December 18th of 2012]. Available at: http://discovery.ucl.ac.uk/1381761/ [22] Kastenholz, E., Eusébio, C., Figueiredo, E. and Lima, J., Accessibility as competitive advantage of a tourism destination: The case of Lousã, in field guide to case study research in tourism, hospitality and leisure, in: Hyde, K.F., Ryan, C. and Woodside, A.G. (ed.), Advances in culture, tourism and hospitality research, Vol. 6, Emerald Group Publishing Limited, [online] pp.369-385, 2012. [date of reference November 1th of 2012]. Available at: http://www.emeraldinsight.com/doi/abs/10.1108/S18713173%282012%290000006023 [23] Curl, A., Nelson, J. and Anable, J., Does accessibility planning address what matters?. Transportation Business & Management, [online] 2, pp. 3-11, 2011. [date of reference September 22th of 2012]. Available at: http://www.sciencedirect.com/science/article/pii/S2210539512000041 [24] Gutierrez, J. Redes, espacio y tiempo. Anales de geografía de la Universidad Complutense, [online] 18, pp. 65-86, 1998. [date of reference May 9th of 2012]. Available at: http://revistas.ucm.es/index.php/AGUC/article/viewFile/AGUC9898 110065A/31393 [25] Kibambe, J.P., Radoux, J. and Defourny, P., Multimodal accessibility modeling from coarse transportation networks in Africa. International Journal of Geographical Information Science, [online] 27 (5), pp. 1005 – 1022, 2013. [date of reference December 23th of 2012]. Available at: http://www.tandfonline.com/doi/abs/10.1080/13658816.2012.73567 3#.VHP5bPmG8uc [26] Burkey, M., Decomposing geographic accessibility into component parts: methods and an application to hospitals. Annals of Regional science, [online] 48 (3), pp. 783-800, 2012. [date of reference April 19th of 2012]. Available at: http://doi: 10.1007/s00168-010-0415-3

163


Escobar-García et al / DYNA 82 (189), pp. 157-164. February, 2015. [27] Gutiérrez, J., Condeco-Melhorado, A. and Martín, J., Using Accessibility indicators and GIS to assess spatial spillovers of transport infraestructure investment. Journal of Transport Geography, 18, pp. 141-152, 2012. http://dx.doi.org/10.1016/j.jtrangeo.2008.12.003 [28] Zhang, H. and Gao, Z., Bilevel programming model and solution method for mixed transportation network design problem. Journal of Systems Science and Complexity, [online] 22 (3), pp. 446-459, 2009. [date of reference June 24th of 2012]. Available at: http://www.sysmath.com/jweb_xtkxyfzx/EN/Y2009/V22/I3/446 [29] Duarte, A.E., Sarache, W.A. and Cardona, C.A., Cost Analysis of the location of Colombian Biofuels Plants. DYNA, [online] 79 (176), pp. 71-80, 2012. [date of reference November 12th of 2014]. Available at: http://revistas.unal.edu.co/index.php/dyna/article/view/36275 [30] Burns, C. and Inglis, A., Measuring food access in Melbourne: Access to healthy and fast foods by car, bus and foot in an urban municipality in Melbourne. Health & Place, [online] 13, pp. 877-885, 2007. [date of reference October 4th of 2012]. Available at: http://www.sciencedirect.com/science/article/pii/S1353829207000263 [31] Li, Q., Zhang, T., Wang, H. and Zeng, Z., Dynamic accessibility mapping using floating car data: A network-constrained density estimation approach. Journal of Transport Geography, [online] 19, pp. 379-393, 2011. [date of reference June 26th of 2012]. Available at: http://www.sciencedirect.com/science/article/pii/S0966692310001158 [32] Zhu, C., Xie, H., Zhou, W. and Zhang, S., Impact of administrative division adjustment on location and accessibility of Heifei, China. Journal Applied Mechanics and Materials, Sustainable Development of Urban Infrastructure, [online] 253 (255), pp. 271-277, 2012. [date of reference January 28th of 2013]. Available at: http://www.scientific.net/AMM.253-255.271 [33] Crozet, Y., The three stages of accessibility: The coming challenge of urban mobility, in Mackett, R.L., May, A.D. and Haixiao-Pan M.K., (ed.) Sustainable Transport for Chinese Cities (Transport and Sustainability, Volume 3), Emerald Group Publishing Limited, [online] pp.79-97, 2012. [date of reference January 12th of 2013]. Available at: http://www.emeraldinsight.com/doi/abs/10.1108/S20449941%282012%290000003006 D.A. Escobar-García, received the Bsc. Eng in Civil Engineering in 1999 from the Universidad Nacional de Colombia, the MSc. degree in Civil Engineering in 2001 from the Universidad de los Andes, Colombia and the PhD degree in land management and transport infrastructure in 2008 from the Universidad Politécnica de Cataluña, Spain. From 1999 to 2001, he worked for road construction companies and since 2001 for the Universidad Nacional de Colombia. Currently, he is a Full Professor in the Civil Engeneering Department, Facultad de Ingeniería y Arquitectura, Universidad Nacional de Colombia, Sede Manizales, Colombia. His research interests include: accessibility, sustainable models transit and transport planning, simulation, modeling and forecasting in transport, and forecasting using geostatistical techniques. C. Younes-Velosa, received the Bsc. Eng in Electrical Engineering in 1999, the MSc degree in High Voltage Engineering in 2002 and PhD degree in Electrical Engineering, all of them from the Universidad Nacional de Colombia and received degree in laws from Universidad de Manizales in 2014. Since 2006 works as a full Professor in the Electric, Electronic and Computing Engeneering Department, Facultad de Ingeniería y Arquitectura, Universidad Nacional de Colombia, Sede Manizales, Colombia. His research interests include: Energy Policy on lighting, Renewable Energy Sources and Transport Regulation, Electromagnetic Compatibility and Lightning Protection. J.A. Tamayo-Arias, received the Bsc. in Business Administration in 1999 from the Universidad Nacional de Colombia, the MSc. degree in Comer Electrónic in 2002 and the PhD degree in Engineering Projects in 2004, all of them from Universidad Politécnica de Catalunya, Spain. Since 2005 works as a full Professor in the Industrial Engineering Department, Facultad de Ingeniería y Arquitectura, Universidad Nacional de Colombia, Sede Manizales, Colombia. His research interests include: Management and projects simulations. 164

Área Curricular de Ingeniería Administrativa e Ingeniería Industrial Oferta de Posgrados

Especialización en Gestión Empresarial Especialización en Ingeniería Financiera Maestría en Ingeniería Administrativa Maestría en Ingeniería Industrial Doctorado en Ingeniería - Industria y Organizaciones Mayor información: E-mail: acia_med@unal.edu.co Teléfono: (57-4) 425 52 02


Structural modification of regenerated fuller earth and its application in the adsorption of anionic and cationic dyes Oscar Dario Beltran-Pérez a, Angelina Hormaza-Anaguano b, Benjamin Zuluaga-Diaz c & Santiago Alonso Cardona-Gallo d a b

Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia, odbeltranp@unal.edu.co Facultad de Ciencias, Universidad Nacional de Colombia, Medellín, Colombia, ahormaza@unal.edu.co c Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia, bzuluagad@unal.edu.co d Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia, scardona@unal.edu.co

Received: April 7th, 2014. Received in revised form: September 11th, 2013. Accepted: September 25th, 2014.

Abstract: Fuller's earth is an inorganic material used in the electric industry for dielectric oil regeneration. After decontamination treatment, Fuller's earth is regenerated and reused. In this study, the removal capacity of regenerated Fuller for the treatment of water contaminated with dyes of different nature and in turn, how this capacity can be increased by structural modification of the material was evaluated. Thus, the regenerated Fuller earth without any modification reached 99% removal of methylene blue. However, for treatment of effluents contaminated with red 40, acid and thermal modification of material was required to obtain adsorption greater than 94% of the dye. In conclusion, regenerated Fuller earth adsorbent is suitable for treating effluents contaminated with cationic coloring materials. However, removal of anionic dyes is not efficient, the structural modification of the material to be necessary to enhance the removal of these type colorants. Keywords: Regenerated Fuller earth, methylene blue, red 40, acid modification, thermal modification, cationic and anionic dyes.

Modificación estructural de la tierra fuller regenerada y su aplicación en la adsorción de colorantes catiónicos y aniónicos Resumen: La tierra Fuller es un material inorgánico usado en la industria eléctrica para la regeneración del aceite dieléctrico. Después de un tratamiento de descontaminación, la tierra Fuller se regenera y reutiliza. En este estudio se evaluó la capacidad de remoción de la tierra Fuller regenerada para el tratamiento de aguas contaminadas con colorantes de diferente naturaleza y a su vez, como esta capacidad puede ser aumentada mediante la modificación estructural del material. Así, la tierra Fuller regenerada sin ninguna modificación alcanzó remociones del 99% de azul de metileno. Sin embargo, para el tratamiento de efluentes contaminados con rojo 40 se requirió la modificación acida y térmica del material para obtener adsorciones superiores al 94% del colorante. En conclusión, la tierra Fuller regenerada es un material adsorbente adecuado para el tratamiento de efluentes contaminados con colorantes de naturaleza catiónica. No obstante, la remoción de colorantes aniónicos no es eficiente, siendo necesaria la modificación estructural del material para mejorar la remoción de este tipo de colorantes. Palabras Clave: Tierra Fuller regenerada, azul de metileno, rojo 40, modificación ácida, modificación térmica, colorantes catiónicos y aniónicos.

1. Introduction Current population growth with the consequent increase in demand for water resources, extreme environmental conditions caused by climate change around the world and depletion and contamination of water sources available for human consumption have increased interest and concern both the authorities and the population for the quality and proper management of water resources. More stringent

regulations and controls have been developed, but their implementation is slow and the problems associated with the depletion and pollution of water resources continue [1]. Wastewater from industry has become the main cause of pollution of water sources due to its high volumes and variety of compounds present in them [2,3]. The presence of recalcitrant compounds and difficult to degrade as the dyes in water sources is a latent problem that tends to increase due to the wide variety and uses of these compounds in the

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 165-171. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.42954


Beltran-Pérez et al / DYNA 82 (189), pp. 165-171. February, 2015.

industry, generating increasing impacts on the environment and ecosystems [4]. The dye in the water affects the resource and its various ecosystems; the consequences are the reduction in the penetration of solar radiation and hence the decrease of the photosynthetic process that contributes to the preservation and quality of the resource [5,6]. On the other hand, the reduction of dissolved oxygen in the water and accumulation in the food chain of some of these compounds and their degradation products can have serious effects on humans, animals and aquatic species [7-9]. The physical appearance and characteristic of the water is also affected; small dye concentrations can generate visible effects in making resource unfit for human consumption [10]. In this regard, various technologies aimed at treating industrial effluents have been developed more quickly [11], especially those related to the removal of recalcitrant compounds as dyes [4]. Some conventional methods such as coagulation, oxidation, photocatalytic and degradation by microorganisms have been developed for the treatment of dyes; however, these approaches have shown little efficiency [10,12], because, the non-biodegradable nature, strength and high stability of these compounds [13-16]. Adsorption processes have efficient removals and advantages in implementation, operation and costs, making this physicochemical technique most commonly used for the treatment of water contaminated with dyes [10,12,17]. For a more economically favorable process, a large number of alternative materials as the activated carbon have been used in adsorption [18-20]. In contrast to activated carbon, clays have a lower cost [21]. Different types of clays, including Fuller's earth have been used in the removal of dyes [16,22,23]. The structure of these materials has been amended in several investigations in order to improve their adsorptive properties [24-26]. Fuller's earth is an aluminum silicate composed mainly by dioctahedral smectites (montmorillonite), natural zeolites (analcime) and sepiolite (loughlinite) [22,27]. In general, the structure of the material has a three-dimensional array, consisting of successive planes of oxygen (O) and hydroxyl (OH) connected or linked to elements such as silicon (Si), aluminum (Al), magnesium (Mg) and other cations, forming layers of tetrahedral silicon and octahedral aluminum or magnesium bound oxygens and hydroxyls [28,29]. Fuller's earth has been used in bleaching and refining of oils, fats and waxes for a long time [30,31]. Currently, it is used in the electric industry for the regeneration of the dielectric oil in power transformers. Once regenerated the dielectric oil, Fuller earth is impregnated with part of the oil and byproducts generated by the oxidation of it, making the Fuller earth a hazardous waste [32]. Earlier, this contaminated material was deposited in a conventional landfill, ignoring the consequences that this type of hazardous waste can cause in the environment. Alternatively, the residue was subjected to an incineration process, despite the potential risk of transformation into dioxins and furans (even more toxic than the original waste compounds) of some of the compounds containing the contaminated material [32,33]. From the technique of solid-liquid extraction using as solvent ethanol is achieved decontaminate and regenerate Fuller’s earth to get back their properties as adsorbent

material and extend its life cycle, making it possible to reuse in this case for the treatment of water contaminated with dyes [34,35]. Thus, the purpose of this study is to explore the possibility of using regenerated Fuller earth as adsorbent for the removal of cationic and anionic dyes. For this, the adsorptive capacity of the regenerated Fuller earth for the treatment of water contaminated with the dyes methylene blue and red 40 was evaluated, and in turn, is set as this capacity can be increased from the acid and thermal modification of the material. Therefore, a material of great untapped potential adsorbent is reused and partly contributes to solve the serious problems caused by the presence of dyes in water sources. 2. Materials and methods 2.1. Structural analysis In order to check the structural and morphological changes produced by each of the modifications made on native and regenerated Fuller earth, was determined in the modified samples their composition, morphology, point of zero charge and adsorptive capacity. The results of this analysis were compared with the native and regenerated Fuller earth unmodified. To determine the point of zero charge, the pH value and the adjustment thereof is carried out with the automatic titrator Titrino Plus 848 of Metrohm a 24°C. The chemical and morphological analysis of the material were performed at the Laboratory for Advanced Microscopy, Facultad de Minas, using energy dispersive detector coupled to a scanning electron microscope, equipment SEM JEOL JSM 5910 LV with an accelerating voltage of 15 kV, prior metallization of the samples with gold. With respect to the adsorption capacity, the amount of dye removed by the native material, regenerated and modified determined using a spectrophotometer UV/Vis Lambda 35 at wavelength of maximum absorption of λmáx = 665 nm for methylene blue and λmáx = 502 nm for red 40, used glass cell of 1 cm length. 2.2. Adsorbent material preparation Fuller's earth used in this research was provided by the local distributor of the material in Medellin, Colombia. Fuller’s earth contaminated with dielectric oil was decontaminated according to [34], through the technique of solid-liquid extraction using ethanol as solvent. The material thus decontaminated and recovered was used in the various tests carried out in this investigation. 2.2.1. Acid and thermal modification In general, the chemical and physical properties of clays can be modified to increase their natural capacity adsorbent and provide specific characteristics for certain applications. The modification can be achieved by various treatments, generating an effect on physicochemical and mineralogical properties of the material [36]. Acid and thermal modifications are the techniques most commonly employed

166


Beltran-PĂŠrez et al / DYNA 82 (189), pp. 165-171. February, 2015.

for such transformation. Changes in the mineralogical structure and chemical composition of the material depend on its nature and the conditions of treatment, as residence time, temperature and concentration of the medium [37]. The acid modification of the native and regenerated Fuller's earth was performed with 6.0 M HCl as described by [25]. 5.0 g of the material was mixed with 500 mL of a 6.0 M solution of HCl in a system under reflux at temperature of 368 K for 24 hours with occasional stirring of the mixture. After the modification, the resulting mixture was filtered and dried in an oven at 313 K. The thermal modification of the material is worked at temperature of 378 K. 2.2.2. Dilute acid modification The pH is a critical variable in the removal processes as influences the adsorption at the solid-liquid interface of the different species presents in the medium [38]. The variation of the pH value of the solution can significantly affect the surface charge of the material and the degree of ionization and speciation of the adsorbate [23]. Native and regenerated Fuller earth was modified. 0.5 g of the material was mixed with 50 mL of water previously adjusted with 0.1 M HCl to a pH value equal to 2.0. The resulting mixture remained in contact for a period of three hours under continuous stirring and room temperature in triplicate. 2.3. Determination of point of zero charge The surface of any material is sensitive to changes in pH of the medium. This generates surfaces charged positively or negatively. In general, if the pH of the medium is greater than the point of zero charge of the solid (pH value at which the surface of the material has a net charge of zero), it has a predominance of negative charges in the material. Conversely, if the pH of the medium is lower than the point of zero charge, positively charged solid particles is obtained [39,40]. Thus, the point of zero charge can establish the affinity of the material for the various ionic species present in the medium. Determination of point of zero charge (PZC) was the methodology used to establish the polarity of the surface of native and regenerated material. And so verify the change on their structure conducted after the respective modifications. This PZC was obtained from the method of pH drift. 0.5 g of the material was mixed with 50 mL of water adjusted with 0.1 M HCl and 0.1 M NaOH at different pH values (2, 3, 4, 5 and 6). Subsequently, the initial and final pH of each sample was measured, after 48 hours under continuous stirring and room temperature. This procedure was performed in triplicate for each sample. 2.4. Determination of adsorption capacity Acid and thermal treatment can alter the adsorptive capacity of the material [41]. The adsorbent capacity of the native, regenerated and modified Fuller earth was evaluated in a batch system, for 24 hours at room temperature and a solution-material relationship of 100 mLg-1, that is, 0.5 g of adsorbent material was mixed with 50 mL of a simulated effluent of methylene blue at 80 ppm. The adsorption capacity of the materials was also evaluated with a

simulated effluent of red 40 at 30 ppm under the same conditions referred before. Subsequently, the samples were centrifuged at 3000 rpm for 5 minutes. The dye concentration in each sample was determined, after checking that there are not changes in the absorption spectrum of the respective dyes, from the calibration curves previously drawn on the spectrophotometer. 3. Results and discussion 3.1. Morphological analysis The acid treatment is one of the most common chemical modifications. In general, the acid activation process consists of two stages: first, the substitution of the interlayer cations for protons and posteriorly, the partial dissolution of Al, Mg and Fe from the octahedral sheet and to a lesser extent, Si from the tetrahedral sheet as a result of dehydroxylation of structural OH groups of the material [11,29,42]. The gradual dissolution of these cations leads to its decreasing in the material, which is checked by chemical analysis (Table 1). The relative increase observed in the silicon content of the modified materials depends on the dissolution of structural and exchangeable cations [29], being these cations more susceptible to acid attack than the SiO4 and SiO3OH groups from the tetrahedral sheet of the material [26]. Acid modification is partly responsible for the morphological change of the material. The micrographs taken to the materials before and after conducted the respective modifications are presented in Fig. 1. The micrographs show the surface of the regenerated Fuller earth more stressed than the surface of native Fuller earth, due to the decontamination treatment which this material was initially submitted. By comparing the morphology of native, regenerated and modified Fuller earth, is seen as the modified Fuller earth has a more altered, worn and peeling surface than the other samples, being this effect larger in the acid and thermal modified Fuller earth than the only acid modified Fuller earth. This is due to cracks and cavities between the sheets of the material generate by the thermal treatment, as a result of the release of water absorbed in the pores and on the surface of the material, besides of the elimination of carbonates and other oxides that can be found as impurities [43]. 3.2. Effect on the point of zero charge In general, a reduction is observed in the value of the point of zero charge of the native and regenerated Fuller earth with different modifications. This result is presented in the Table 2. The less point of zero charge of the regenerated Fuller earth regarding native Fuller earth is partly due to the decontamination treatment to which the material is initially subjected. In the case of native Fuller earth, its point of zero charge changes from an initial value of 7.1 to 3.3 with the acid modification and then to a value of 2.1 with the thermal treatment (Table 2). This latter result is consistent with that reported by [25] who found a point of zero charge of 1.8 for a sample of Fuller earth similarly modified. The behavior of regenerated Fuller earth is similar to the native Fuller earth.

167


Beltran-PĂŠrez et al / DYNA 82 (189), pp. 165-171. February, 2015.

Table 1. Chemical analysis (wt %) of native, regenerated and modified Fuller earth. Source: Own authorship. Fuller earth O Mg Al Si Native 31.17 3.77 9.00 39.93 Dilute acid modification 46.85 3.46 6.85 34.24 Acid modification 33.21 2.65 5.17 36.97 Acid and thermal modification 48.38 2.41 3.89 36.90 Regenerated 40.31 4.37 8.38 36.29 Dilute acid modification 46.45 4.12 7.44 29.02 Acid modification 28.93 2.47 4.36 31.91 Acid and thermal modification 42.63 2.18 3.13 36.10 Source: Own authorship.

Cl 0.00 1.12 22.00 8.41 0.00 0.00 26.41 12.81

K 2.39 0.89 0.00 0.00 1.14 0.00 0.00 0.00

Ca 2.57 1.44 0.00 0.00 1.82 1.43 0.00 0.00

Fe 9.72 5.14 0.00 0.00 7.69 3.77 0.00 0.00

Others 1.45 0.01 0.00 0.01 0.00 7.77 5.92 3.15

Figure 1. Comparison of Fuller earth micrographs at x2000 and 10 Îźm (a) native, (b) native dilute acid modification, (c) native acid modification, (d) native acid and thermal modification, (e) regenerated, (f) regenerated dilute acid modification, (g) regenerated acid modification, (h) regenerated acid and thermal modification. Source: Own authorship.

This material reduced its initial point of zero charge from 6.6 to 2.3 after the respective acid and thermal modification. Thus, at pH values below the point of zero charge, the particles on the surface of the adsorbent will be positively charged; at pH values above will be negatively charged. Thus, the lowest point of zero charge of the modified materials with respect to the original material evidences the changes generated on its surface and allows in theory, establishes that native and regenerated Fuller earth modified by acid and thermal treatment exhibits greater affinity, due to their surface charge, by anionic dyes such as red 40. Modification of the materials with water adjusted to a pH of 2.0 was sufficient to reduce the point of zero charge

of native and regenerated Fuller earth to a value equal to 4.0. This result shows the sensitivity of the material with pH adjustment using HCl 0.1 M and a short contact period. Table 2. Point of zero charge of native, regenerated and modified Fuller earth. Point of zero charge Treatment Native Fuller Regenerated earth Fuller earth Without any modification 7.1 6.6 Dilute acid modification 4.0 4.0 Acid modification 3.3 2.9 Acid and thermal modification 2.1 2.3 Source: Own authorship.

168


Beltran-Pérez et al / DYNA 82 (189), pp. 165-171. February, 2015. Table 3 Adsorption of methylene blue (MB) and red 40 (R40) dyes on native and modified Fuller earth. MB R40 Native Fuller earth (%Adsorption) (%Adsorption) Without any modification 98.91 2.07 Dilute acid modification 99.28 15.16 Acid modification 91.25 91.07 Acid and thermal 91.45 94.46 modification Source: Own authorship.

Table 4. Adsorption of methylene blue (MB) and red 40 (R40) dyes on regenerated and modified Fuller earth. MB R40 Regenerated Fuller earth (%Adsorption) (%Adsorption) Without any modification 99.10 4.26 Dilute acid modification 99.30 14.08 Acid modification 91.30 91.48 Acid and thermal 91.90 94.99 modification Source: Own authorship.

is due in part to the strong repulsion that occurs between the dye molecules and the positively charged sites on the surface, and the competition between H+ ions and the dye molecules by available negatively charged sites on the material [25,38]. Another type of interaction between Fuller earth and dye molecules is related to the Si–OH and Al–OH or Mg–OH groups found on Fuller’s earth surface. These OH groups can have a positive or negative charge depending on the type of metal ions at which are united, and the pH of the solution [40]. Depending on the pH value of the medium, the hydroxyl groups can be protonated or deprotonated [46]. At low pH values, sites acquire a positive charge due to the presence of protonated groups AlOH2+ and SiOH2+, as a result, a strong interaction and adsorption of negative charges are generated. Conversely, with an increase in the pH value, these sites reduce their charge to a neutral value and then at higher pH values develop a negative charge according to equations 1 and 2.

3.3. Effect on the adsorbent capacity The adsorption of methylene blue and red 40 dyes on native, regenerated and modified Fuller earth is explained based on the two types of interactions that occur between the dye molecules and the surface of the material: the isomorphic substitution and protonation-deprotonation reactions. The internal and external surface of the Fuller earth and its permanent negative charge provide it with a special affinity for cationic dyes as methylene blue [22,25]. The permanent negative charge of the material is derived from isomorphic substitutions that occur in its structure regardless of environmental conditions [44]. The substitution generates an imbalance of charge due to the replace of Al+3 by Mg+2 and Fe+2 in the octahedral sites and Si+4 by Al+3 in the tetrahedral sites, and causes each tetrahedron of [AlO4]-5 has a net negative charge [45]. The total neutrality of the structure is preserved balancing each tetrahedron [AlO4]-5 with a positive charge provided by interchangeable cations (K+, Na+, Ca+2, Mg+2) electrostatically attached to the material structure. These cations have great freedom of movement and can even be exchanged for other cations. Excess of negative charges make the extremely acid surface thus favoring the adsorption of positively charged particles such as methylene blue cationic dye. This explains why the adsorption of methylene blue on native and regenerated Fuller earth naturally occurs with high percentages of removal, the structural modification of the material is unnecessary to achieve 98% higher adsorptions on both materials. Tables 3 and 4 shows that the modification of the material slightly decreases the percentage of adsorption of methylene blue dye because the lowest point of zero charge of the modified materials favors on the surface a positive charge repulsion generated by the similarly charged species. So, lower adsorption achieved with the modified materials

→ →

→ →

1 2

Thus, and as previously noted with the points of zero charge of native and regenerated Fuller earth modified, the modification generates a positive charge on the structure of the material that leads to an increase in the adsorption percentage of red 40 dye. Furthermore, in these materials, the negative charge of silica sites is balanced by ions of H+ produced during modification. This reduces the diffusion difficulties of molecules of the dye and generates a significant increase in electrostatic attractions between the negative charges of the anionic dye and the positive charged sites of alumina and manganese dioxide, with a consequent increase in the removal of dye. As the pH of the medium increases, the number of positively charged sites is reduced and therefore, the adsorption of the dye. It was found that native and regenerated Fuller earth without any modification has an adsorption percentage of 40 red almost nil. However, once modified, color removal was higher than 94% for both materials. The lower adsorption capacity of the red 40 on the native and regenerated Fuller earth without any modification is due to the ionic repulsion of the anionic dye molecules and the surface of the material. Furthermore, the presence of OHions in solution creates a competitive environment with the dye ions to positively charged sites on the material that decreases the adsorption percentage. The results show the affinity of the native and regenerated Fuller earth to cationic dyes and make clear the need to modify these materials for efficient removal of anionic dyes. 4. Conclusions Fuller's earth retains and enhances its properties as adsorbent material after decontamination treatment. Its potential for reuse, in this particular case for the treatment of water contaminated with dyes was proved. Due to the characteristics of the material and its point of zero charge, native and regenerated Fuller earth are suitable materials for

169


Beltran-Pérez et al / DYNA 82 (189), pp. 165-171. February, 2015.

removing cationic dyes such as methylene blue due to its surface having affinity for dyes of this type. For removal of anionic dyes, the structural modification of the material is required [47]. Acknowledgements The authors express gratitude to Universidad Nacional de Colombia Sede Medellín for the infrastructure support of the Laboratory of Experimental Chemistry and Hydraulics Laboratory. Likewise, Professor Medardo Pérez by Chemical Analysis and Micrographs taken to the materials and Dirección de Investigación Sede Medellín, DIME, for grant the research project QUIPU 201010011038. References [1]

[2]

[3] [4] [5]

[6] [7] [8] [9]

[10]

[11] [12]

[13]

Daifullah, A. and Girgis, B., Impact of surface characteristics of activated carbon on adsorption of BTEX, Colloids and Surfaces A: Physicochemical and Engineering Aspects, 214 (1-3), pp. 181-193, 2003. http://dx.doi.org/10.1016/S0927-7757(02)00392-8 Gupta, V.K and Suhas, Application of low-cost adsorbents for dye removal – A review, Journal of Environmental Management, 90 (8), p. 2313-2342, 2009. http://dx.doi.org/10.1016/j.jenvman.2008.11.017 Alemán-Romero, A.L., Evaluación de la esterificación sobre cascarilla de arroz como estrategia para incrementar la capacidad de remoción del colorante rojo básico 46, Medellín, 2012. Che-Galicia, G., Remoción de un colorante de los efluentes de la industria textil mediante adsorción en una zeolita natural, México D.F., 2011. McKay, G., Otterburn, M.S. and Sweeney, A.G., The removal of colour from effluent using various adsorbents - III. Silica: Rate process, Water Research, 14 (1), pp. 15-20, 1980. http://dx.doi.org/10.1016/0043-1354(80)90037-8 http://dx.doi.org/10.1016/0043-1354(80)90038-X Davis, J., American Dyestuff Reporter, 80 (3), 19 P, 1991. Slokar, Y.M. and Le Marechal, A.M., Methods of decoloration of textile wastewaters, Dyes and pigments, 37 (4), pp. 335-356, 1998. http://dx.doi.org/10.1016/S0143-7208(97)00075-2 Zollinger, H., Color chemistry: Syntheses, properties and applications of organic dyes and pigments, Wiley-VCH, 2003. Wang, S., Boyjoo, Y., Choueib, A. and Zhu, Z., Removal of dyes from aqueous solution using fly ash and red mud, Water Research, 39, pp. 129-138, 2005. http://dx.doi.org/10.1016/j.watres.2004.09.011 Garg, V., Amita, M., Kumar, R. and Gupta, R., Basic dye (methylene blue) removal from simulated wastewater by adsorption using Indian Rosewood sawdust: A timber industry waste, Dyes and Pigments, 63, (3), pp. 243-250, 2004. http://dx.doi.org/10.1016/j.dyepig.2004.03.005 Tuesta, E.G., Vivas, M., Sun R. y Gutarra, A., Modificación química de arcillas y su aplicación en la retención de colorantes, Revista de la Sociedad Química del Perú, 71, (1), pp. 26-36, 2005. Chowdhury, S. and Saha, P., Sea shell powder as a new adsorbent to remove Basic Green 4 (Malachite Green) from aqueous solutions: Equilibrium, kinetic and thermodynamic studies, Chemical Engineering Journal, 164, (1), pp. 168-177, 2010. http://dx.doi.org/10.1016/j.cej.2010.08.050 O’Neill, C., Hawkes, F.R., Hawkes, D.L., Lourenco, N.D., Pinheiro, H.M. and Delée, W., Colour in textile effluents – sources, measurement, discharge consents and simulation: a review, Journal of Chemical Technology and Biotechnology, 74, pp. 1009-1018, 1999. http://dx.doi.org/10.1002/(SICI)10974660(199911)74:11<1009::AID-JCTB153>3.0.CO;2-N

[14] Namasivayam, C., Yamuna, R.T. and Arasi, D.J.S.E., Removal of procion orange from wastewater by adsorption on waste red mud, Separation Science and Technology, 37 (10), pp. 2421-2431, 2002. http://dx.doi.org/10.1081/SS-120003521 [15] Waranusantigul, P., Pokethitiyook, P., Kruatrachue, M. and Upatham, E., Kinetics of basic dye (methylene blue) biosorption by giant duckweed (Spirodela polyrrhiza), Environmental Pollution, 125, pp. 385-392, 2003. http://dx.doi.org/10.1016/S0269-7491(03)00107-6 [16] Eren, E. and Afsin, B., Investigation of a basic dye adsorption from aqueous solution onto raw and pre-treated sepiolite surfaces, Dyes and Pigments. 73, pp. 162-167, 2007. http://dx.doi.org/10.1016/j.dyepig.2005.11.004 [17] Doğan, M. and Alkan, M., Adsorption kinetics of methyl violet onto perlite, Chemosphere, 50 (4), pp. 517-528, 2003. http://dx.doi.org/10.1016/S0045-6535(02)00629-X [18] Nassar, M.M. and El-Geundi, M.S., Comparative cost of colour removal from textile effluents using natural adsorbents, Journal of Chemical Technology and Biotechnology, 50, pp. 257-264, 1991. http://dx.doi.org/10.1002/jctb.280500210 [19] Singh, B.K. and Rawat, N.S., Comparative sorption equilibrium studies of toxic phenols on flyash and impregnated flyash, Journal of Chemical Technology and Biotechnology, 61, pp. 307-317, 1994. http://dx.doi.org/10.1002/jctb.280610109 http://dx.doi.org/10.1002/jctb.280610405 [20] Özacar, M. and Şengil, İ., Adsorption of reactive dyes on calcined alunite from aqueous solutions, Journal of Hazardous Materials, 98 (1-3), pp. 211-224, 2003. http://dx.doi.org/10.1016/S0304-3894(02)00358-8 [21] Juang, R., Wu, F. and Tseng, R., The ability of activated clay for the adsorption of dyes from aqueous solutions, Environmental Technology, 18, pp. 525-531, 1997. http://dx.doi.org/10.1080/09593331808616568 [22] Atun, G., Hisarli, G., Sheldrick, W. and Muhler, M., Adsorptive removal of methylene blue from colored effluents on fuller’s earth, Journal of Colloid and Interface Science, 261, pp. 32-39, 2003. http://dx.doi.org/10.1016/S0021-9797(03)00059-6 [23] Özcan, A.S., Erdem, B. and Özcan, A., Adsorption of acid blue 193 from aqueous solutions onto Na–bentonite and DTMA–bentonite, Journal of Colloid and Interface Science, 280, pp. 44-54, 2004. http://dx.doi.org/10.1016/j.jcis.2004.07.035 [24] Eren, E., Investigation of a basic dye removal from aqueous solution onto chemically modified Unye bentonite, Journal of Hazardous Materials, 166, pp. 88-93, 2009. http://dx.doi.org/10.1016/j.jhazmat.2008.11.011 [25] Hisarli, G., The effects of acid and alkali modification on the adsorption performance of fuller’s earth for basic dye, Journal of Colloid and Interface Science, 281, pp. 18-26, 2005. http://dx.doi.org/10.1016/j.jcis.2004.08.089 [26] Steudel, A., Batenburg, L., Fischer, H., Weidler, P. and Emmerich, K., Alteration of non-swelling clay minerals and magadiite by acid activation, Applied Clay Science, 44, pp. 95-104, 2009. http://dx.doi.org/10.1016/j.clay.2009.02.001 http://dx.doi.org/10.1016/j.clay.2009.02.002 [27] Yeniyol, M. and Lacin, D., IXth National Clay Symposium, Istanbul, Turkey, September, 1999. [28] Rowell, D.L., Soil Science: Methods and applications, Harlow, UK: Longman Scientific and Technical, 1994, 350 P. [29] Tyagi, B., C Chudasama,.D. and Jasra, R.V., Determination of structural modification in acid activated montmorillonite clay by FTIR spectroscopy, Spectrochimica Acta Part A, 64, pp. 273-278, 2006. http://dx.doi.org/10.1016/j.clay.2009.02.001 http://dx.doi.org/10.1016/j.clay.2009.02.002 [30] McKay, G., Otterburn, M.S. and Aga, J.A., Fuller's earth and fired clay as adsorbent for dyestuffs. Equilibrium and rate studies, Water, Air, and Soil Pollution. 24, pp. 307-322, 1985. http://dx.doi.org/10.1007/BF00161790 [31] Robertson, R., Fuller's Earth: a History of Calcium Montmorillonite, Volturna Press, 421 P., 1986.

170


Beltran-Pérez et al / DYNA 82 (189), pp. 165-171. February, 2015. [32] Duran-Rincon, M. y Contreras-C, N., Alternativa de tratamiento para tierra Fuller contaminada con aceite dielectrico, Scientia et Technica, 12 (32), pp. 419-424, 2006. [33] Agudelo, E.A. y Cardona, S., Análisis preliminar del tratamiento fisicoquímico y biológico del aceite dieléctrico presente en tierra Fuller, DYNA, 78 (167), pp. 193-202, 2011. [34] Agudelo, E.A., Un método de gestión ambiental adecuado para el tratamiento y la disposición final de un residuo peligroso. Caso: Tierra Fuller contaminada con aceite dieléctrico, Medellín, 2010. [35] Beltran, O., Berrio, L., Agudelo, E. y Cardona, S., Tecnologías de tratamiento para la tierra Fuller contaminada con aceite dieléctrico, Revista EIA, 10 (19), pp. 33-48, 2013. [36] Hussin, F., Kheireddine-Aroua, M. and Wan Daud, W.M.A., Textural characteristics, surface chemistry and activation of bleaching earth: A review, Chemical Engineering Journal, 170 (1), pp. 90-106, 2011. http://dx.doi.org/10.1016/j.cej.2011.03.065 [37] Amado-Duarte, E.S. y Rueda-Gómez, S.L., Aplicación de arcillas bentoníticas modificadas a la adsorción de iones cobre y zinc disueltos en efluentes cianurados, Bucaramanga, 2007. [38] Ye, H., Zhu, Q. and Du, D., Adsorptive removal of Cd(II) from aqueous solution using natural and modified rice husk, Bioresource Technology, 101, p. 5175–-5179, 2010. http://dx.doi.org/10.1016/j.biortech.2010.02.027 [39] Menéndez, J., Illán-Gómez, M., León C., and Radovic, L., On the difference between the isoelectric point and the point of zero charge of carbons, Carbon, 33 (11), pp. 1655-1659, 1995. http://dx.doi.org/10.1016/0008-6223(95)96817-R [40] Schoonheydt, R.A. and Johnston, C.T., Chapter 3 Surface and Interface Chemistry of Clay Minerals, in Developments in Clay Science: Handbook of Clay Science, vol. 1, Elsevier, 2006, pp. 87113. http://dx.doi.org/10.1016/S1572-4352(05)01003-2 [41] Valenzuela-Díaz, F.R. and De Souza-Santos, P., Studies on the acid activation of Brazilian smectitic clays, Química Nova, 24 (3), pp. 345-353, 2001. http://dx.doi.org/10.1590/S0100-40422001000300011 [42] Madejová, J., Bujdák, J., Janek, M. and Komadel, P., Comparative FT-IR study of structural modifications during acid treatment of dioctahedral smectites and hectorite, Spectrochimica Acta Part A: Molecular and Biomolecular Spectroscopy, 54 (10), p. 1397-1406, 1998. http://dx.doi.org/10.1016/S1386-1425(98)00040-7 [43] Ilic, B.R., Mitrovic, A.A. and Milicic, L.R., Thermal treatment of kaolin clay to obtain metakaolin, Hemijska industrija, 64,(4), pp. 351-356, 2010. [44] Matocha, C., Clay: Charge properties, in Encyclopedia of Soil Science, Taylor & Francis, 2006. [45] Önal, M. and Sarıkaya, Y., Preparation and characterization of acidactivated bentonite powders, Powder Technology, 172, pp. 14-18, 2007. http://dx.doi.org/10.1016/j.powtec.2006.10.034 [46] Bajpai, A. and Vishwakarma, N., Adsorption of polyvinylalcohol onto Fuller’s earth surfaces, Colloids and Surfaces A: Physicochem. Eng. Aspects, 220, pp. 117-130, 2003. http://dx.doi.org/10.1016/S0927-7757(03)00073-6 [47] Cardona, S., Reutilización y activación del coque de petróleo para remover metales en agua. Gestión y Ambiente, 9 (1), pp. 89-101, 2006.

S.A. Cardona-Gallo, es PhD. en Ingeniería Ambiental. Actualmente es profesor en la Facultad de Minas, Universidad Nacional de Colombia Sede Medellín, Colombia.

O. Beltrán-Pérez, es Ingeniero Químico, MSc. (p) en Aprovechamiento de Recursos Hidráulicos, de la Universidad Nacional de Colombia, Sede Medellín, Colombia. B. Zuluaga-Díaz, es Ingeniero Químico, de la Universidad Nacional de Colombia Sede Medellín, Colombia. A. Hormaza-Anaguano, es PhD. en Química. Actualmente es profesora en la Escuela de Química, de la Facultad de Ciencias, Universidad Nacional de Colombia Sede Medellín, Colombia.

171

Área Curricular de Ingeniería Química e Ingeniería de Petróleos Oferta de Posgrados

Maestría en Ingeniería - Ingeniería Química Maestría en Ingeniería - Ingeniería de Petróleos Doctorado en Ingeniería - Sistemas Energéticos Mayor información:

E-mail: qcaypet_med@unal.edu.co Teléfono: (57-4) 425 5317


FPGA-based translation system from colombian sign language to text Juan David Guerrero-Balaguera a & Wilson Javier Pérez-Holguín b a

Grupo GIRA, Universidad Pedagógica y Tecnológica de Colombia, Sogamoso, Colombia.. juandavid.guerrero@uptc.edu.co b Grupo GIRA, Universidad Pedagógica y Tecnológica de Colombia, Sogamoso, Colombia. wilson.perez@uptc.edu.co Received: April 22th, 2014. Received in revised form: September 9th, 2014. Accepted: October 2th, 2014.

Abstract This paper presents the development of a system aimed to facilitate the communication and interaction of people with severe hearing impairment with other people. The system employs artificial vision techniques to the recognition of static signs of Colombian Sign Language (LSC). The system has four stages: Image capture, preprocessing, feature extraction and recognition. The image is captured by a digital camera TRDB-D5M for Altera’s DE1 and DE2 development boards. In the preprocessing stage, the sign is extracted from the background of the image using the thresholding segmentation method; then, the segmented image is filtered using a morphological operation to remove the noise. The feature extraction stage is based on the creation of two vectors to characterize the shape of the hand used to make the sign. The recognition stage is made up a multilayer perceptron neural network (MLP), which functions as a classifier. The system was implemented in the Altera’s Cyclone II FPGA EP2C70F896C6 device and does not require the use of gloves or visual markers for its proper operation. The results show that the system is able to recognize all the 23 signs of the LSC with a recognition rate of 98.15 %. Keywords: FPGA; Colombian Sign Language (LSC); Image Processing; Sign Language Recognition; Artificial Neural Networks.

Sistema traductor de la lengua de señas colombiana a texto basado en FPGA Resumen Este trabajo presenta el desarrollo de un sistema diseñado para facilitar la comunicación e interacción de personas con discapacidad auditiva severa con las demás personas. El sistema emplea técnicas de visión artificial para el reconocimiento de las señas estáticas de la Lengua de Señas Colombiana (LSC). El sistema tiene cuatro etapas: Captura de la imagen, preprocesamiento, extracción de características y reconocimiento. La imagen es capturada mediante una cámara digital TRDB-D5M diseñada para tarjetas de desarrollo de DE1 y DE2 Altera. En la etapa de preprocesamiento, la seña es extraída del fondo de la imagen mediante el método de segmentación por umbral; posteriormente, la imagen segmentada es filtrada usando una operación morfológica para eliminar el ruido. La etapa de extracción de características está basada en la creación de dos vectores que caracterizan la forma de la mano mediante la que se realiza la seña. La etapa de reconocimiento está constituida por una red neuronal artificial perceptrón multicapa (MLP), la cual actúa como clasificador. El sistema fue implementado en el dispositivo FPGA Cyclone II EP2C70F896C6 y no requiere el uso de guantes o marcadores visuales para su correcto funcionamiento. Los resultados muestran que el sistema tiene la capacidad para reconocer todas las 23 señas estáticas de la LSC con una taza de reconocimiento del 98.15 %. Palabras clave: FPGA; Lengua de Señas Colombiana (LSC); Procesamiento de Imágenes; Reconocimiento de Lengua de Señas; Redes Neuronales Artificiales.

1. Introducción Según la organización mundial de la salud OMS [1], más del 5% de la población mundial, correspondiente a 360 millones de personas, padece pérdida incapacitante de la audición. En Colombia, más de 2’600.000 personas – equivalente al 6.7% de la población–, posee algún tipo de

discapacidad, de la cual el 17.4% tiene dificultades para oír, aún con aparatos especiales. Además, solo el 65% de este grupo de personas sabe leer y escribir y el 43% del total registrado vive en estrato 1 [2]. La Lengua de Señas (LS) es el principal método de comunicación empleado por las personas con déficit de audición para interactuar con las demás personas. Está

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 172-181. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.43075


Guerrero-Balaguera & Pérez-Holguín / DYNA 82 (189), pp. 172-181. February, 2015.

compuesta por un conjunto estructurado de gestos, movimientos, posturas y expresiones faciales que corresponden a letras y/o palabras. La Lengua de Señas no tiene una estructura generalizada alrededor del mundo, por lo cual, cada país tiene su propia lengua de señas, entre las que se encuentran: la Lengua de Señas Americana (ASL), la Lengua de Señas Colombina (LSC), la Lengua de Señas Alemana (GSL), etc. [3,4]. Las personas con déficit de la audición interactúan entre sí utilizando dicho lenguaje; sin embargo, se requiere de un intérprete para comunicarse con las personas que no comprenden su lengua. Esta situación crea una barrera en la comunicación y restringe la vida cotidiana de las personas con este tipo de limitaciones causando aislamiento y frustración [1,3,5]. Dadas las dificultades que presenta la población con discapacidad auditiva, la comunidad científica se ha interesado en el desarrollo de técnicas, procedimientos y sistemas para el reconocimiento de los gestos correspondientes a la lengua de señas. Sin embargo, la eficiencia de estos es limitada debido a la complejidad de la estructura de dicho lenguaje y a la elevada capacidad de procesamiento requerido. Por estas razones, éste sigue siendo un problema de investigación abierto que motiva el interés de muchos investigadores alrededor del mundo [3]. Los avances más significativos en el desarrollo de sistemas de reconocimiento de la lengua de señas se pueden agrupar en dos categorías: sistemas basados en visión artificial [6-10] y sistemas basados en el uso de guantes instrumentados [11-13]. A diferencia de los sistemas basados en el uso de guantes instrumentados, los sistemas basados en técnicas de visión artificial permiten una interacción más natural con el usuario ya que no requiere el uso de aditamentos especiales. Sin embargo, estas técnicas requieren capturar, procesar y reconocer imágenes, lo cual exige altas prestaciones de procesamiento paralelo de datos [14]. Las FPGAs (Field Programmable Gate Array) presentan la característica inherente de realizar procesamiento concurrente de alta eficiencia, debido a su arquitectura y a las ventajas de los lenguajes empleados para describir los circuitos y sistemas a ser implementados en este tipo de tecnología. Esto ha favorecido el desarrollo de aplicaciones de reconocimiento de los gestos, como el trabajo presentado en [15] en el que se describe la implementación en FPGA de un sistema que cuenta la cantidad de dedos mostrados en diferentes gestos realizados con las manos. Oniga et al. [16], presentan la implementación en FPGA de una red neuronal artificial para el reconocimiento de posturas estáticas de las manos. Además de considerar la capacidad de procesamiento requerida por el sistema, es necesario seleccionar un método de reconocimiento suficientemente robusto para identificar correctamente el conjunto de señas empleado. En los trabajos reportados en la literatura se observan diferentes técnicas para el reconocimiento de la lengua de señas tales como las redes neuronales artificiales [17-22], los modelos ocultos de Markov (HMM) [8,11,23,24], y las máquinas de soporte vectorial (SVM) [11,23,25]. En el trabajo presentado por Munib et al. [22], se muestra el desarrollo de

un sistema de visión artificial para el reconocimiento de los gestos estáticos de la Lengua de Señas Americana (ASL), basado en la transformada Hough para extracción de características, y redes neuronales artificiales para el reconocimiento. En [19], se presenta el desarrollo de un sistema de visión artificial para el reconocimiento de los gestos estáticos de la Lengua de Señas Persa (PSL), basado en la transformada Wavelet y redes neuronales artificiales. En [18], se presenta un sistema de visión artificial para el reconocimiento de las señas estáticas de la Lengua de Señas Colombiana (LSC), basado en redes neuronales artificiales para su implementación en hardware. En [7], se presenta un sistema de reconocimiento de la Lengua de Señas Árabe, mediante el uso de un sistema neuro-difuso adaptativo. Cabe mencionar que ninguno de los trabajos citados realiza la implementación hardware de los métodos de reconocimiento descritos. Otro aspecto importante en el reconocimiento de la Lengua de Señas es determinar la(s) característica(s) que permite(n) diferenciar una seña de otra; la forma de la mano es una de estas. De acuerdo con [26] existen varios métodos para extraer características basadas en la forma de la mano, entre los que se encuentran: descriptores de Fourier (FD), descriptores modificados de Fourier (MFD), descripción de contorno usando curvatura y características de la transformada de Karhunen Loeve (K-L). En [17] se presenta un método para la extracción de características basado en la proyección de la forma de la mano en dos vectores, a los que se les aplica posteriormente el método FD. Aunque los métodos para la extracción de características aquí citados presentan buenos resultados su implementación está orientada a software únicamente. En el presente trabajo se muestra el diseño de un sistema basado en visión artificial para el reconocimiento del alfabeto de señas estáticas de la LSC, usando procesamiento de imágenes y una red neuronal artificial MLP. Dicho sistema es implementado en una FPGA de Altera, mediante la tarjeta de desarrollo DE2-70. El resto del artículo está organizado de la siguiente forma: en la sección 2 se presenta el diseño del sistema conformado por las etapas de captura, preprocesamiento, extracción de características y reconocimiento. En la sección 3 se describen los resultados experimentales obtenidos. En la sección 4 se presentan las conclusiones y se plantean los trabajos futuros. 2. Diseño e implementación del sistema 2.1. Descripción general del sistema El sistema está diseñado para reconocer y traducir a texto de forma automática 23 señas estáticas del alfabeto de la Lengua de Señas Colombiana (LSC). Este sistema está basado en técnicas de procesamiento de imágenes y redes neuronales artificiales. En la interacción con el sistema, no se requiere el uso de guantes o elementos adicionales para resaltar las manos. En la Fig. 1 se muestra el conjunto de señas empleadas en el sistema de reconocimiento propuesto.

173


Guerrero-Balaguera & Pérez-Holguín / DYNA 82 (189), pp. 172-181. February, 2015.

2.2. Captura de la imagen Las señas a emplear en el sistema propuesto se realizan con una sola mano en un escenario con iluminación constante y fondo de color negro. Las imágenes son adquiridas mediante la cámara digital de 5 Mega Pixeles TRDB-D5M [27] utilizando una resolución de 800x480 pixeles en formato RGB. Las imágenes capturadas son almacenadas en memoria SDRAM, para visualizarlas en la pantalla TRDB-LTM [28] y realizar el posterior procesamiento y reconocimiento. 2.3. Preprocesamiento 2.2.1. Segmentación de la mano mediante umbralización

Figura 1. Conjunto de señas del Alfabeto de la Lengua de Señas Colombiana, empleados en el sistema de reconocimiento. Fuente: Autores

Figura 2. Diagrama general del sistema. Fuente: Autores

El sistema de reconocimiento diseñado se compone de cuatro etapas: Captura de la imagen, preprocesamiento, extracción de características y reconocimiento. En la Fig.2 se muestra el diagrama de bloques del sistema de reconocimiento propuesto.

La segmentación de la mano es el proceso que consiste en extraer de la imagen capturada la seña realizada con la mano. Una eficiente segmentación de la mano es clave para reconocer los signos de la lengua de señas [17]. La región de la mano puede ser extraída del fondo utilizando la segmentación por umbral. La segmentación por umbral es sencilla de implementar en hardware ya que solo es necesario comparar cada pixel de la imagen con un valor de umbral. Además, es un método óptimo para extraer regiones cuando se emplean imágenes con buena iluminación y una diferencia notable entre la región de interés y el fondo [29]. El método de segmentación por umbral (comúnmente utilizado en imágenes en escala de grises) consiste en seleccionar un valor umbral (o limite) para separar y etiquetar la imagen en dos grupos de pixeles. A esto se le conoce como umbralizacion global básica [29]. La selección del umbral se realiza con base en el histograma mediante la ubicación del umbral T en la separación o valle, que existe entre las crestas del histograma [29]. El resultado de aplicar la segmentación utilizando el umbral T es una imagen en blanco y negro, donde el color blanco representa el objeto de interés y el color negro representa el fondo. En éste trabajo, la selección del umbral se realizó experimentalmente mediante el siguiente procedimiento: 1. Capturar una imagen bajo las condiciones de operación del sistema de reconocimiento. 2. Calcular el histograma de cada una de las componentes de color R, G y B de la imagen capturada. 3. Analizar los histogramas observado la existencia de una clara separación o valle entre la región de la mano y el fondo de la imagen. Seleccionar el histograma que más se ajuste a dicho requerimiento. 4. Establecer un valor en la separación o valle del histograma y segmentar la imagen con el valor seleccionado. Este valor se ajusta hasta obtener el resultado deseado. Una vez realizado este ajuste, el valor final es seleccionado como el umbral utilizado en la segmentación. El procedimiento anterior fue realizado en MATLAB® R2010b [30], obteniendo como resultado un valor de umbral de 125 para la componente de color rojo. En la Fig. 3 se muestra el histograma de la componente de color rojo y el umbral seleccionado.

174


Guerrero-Balaguera & Pérez-Holguín / DYNA 82 (189), pp. 172-181. February, 2015.

T=125

Figura 5. Imagen resultado del pre-procesamiento. Fuente: Autores Figura 3. Histograma de la componente de color rojo con un umbral de 125 seleccionado para la segmentación. Fuente: Autores

+

Figura 4. Elemento estructurante utilizado para filtrado morfológico. Fuente: Autores

2.2.2. Filtrado morfológico Debido al tipo de segmentación utilizado la imagen obtenida puede contener ruido y errores. Por lo tanto, se utiliza la operación morfológica de apertura para filtrar dicho ruido. La operación morfológica de apertura se denota como A  B donde A es la imagen binaria y B es el elemento estructurante. Dicha operación está definida como la erosión de A por B, seguida de la dilatación por B del resultado obtenido [29]. En la eq. (1) se presenta la operación morfológica de apertura en términos de las operaciones morfológicas erosión y dilatación. El elemento estructurante utilizado se muestra en Fig. 4. La Fig.5 muestra la imagen obtenida como resultado del preprocesamiento.

A  B  ( AB)  B

(1)

2.4. Extracción de Características Una vez realizado el preprocesamiento, se obtiene una imagen binaria de la mano que representa una seña particular. Para reconocer esta seña, es necesario extraer ciertas características de la imagen. La forma es una característica importante que permite identificar un objeto.

Existen muchos métodos para representar y describir una forma en particular. En este trabajo, se presenta un método que permite caracterizar la seña con base en la transformación de la forma de la mano en dos vectores. El método de transformación propuesto consiste en proyectar la forma de la mano en dos vectores que contienen la cantidad de pixeles por fila y columna del objeto dentro de la imagen. El cálculo de estos vectores se realiza mediante dos algoritmos, el primero realiza un recorrido por las filas de la imagen para calcular el vector R, y el segundo hace un recorrido por las columnas de la imagen para calcular el vector C. Dichos algoritmos fueron diseñados para ser utilizados con imágenes binarias de cualquier resolución, por lo cual se emplean las siguientes definiciones: i) sea I un arreglo bidimensional de tamaño (n  m) , el cual representa la imagen binaria obtenida en la etapa de preprocesamiento, ii) sean i y j los índices de selección de un pixel en la i-esima fila y j-esima columna, y iii) sean R y C los vectores de transformación que se desean calcular. Los algoritmos desarrollados se presentan en la Fig. 6. En la Fig. 7 se muestra un ejemplo gráfico del cálculo de los vectores R y C a partir de una imagen binaria de 8x10 pixeles. En esta figura se observa que los vectores de transformación resultantes no dependen de la posición que ocupe el objeto dentro de la imagen, por lo que pueden considerarse buenos descriptores de la forma de la mano independientemente de su posición. Sin embargo, los vectores obtenidos tienen longitud dinámica, ya que las señas realizadas pueden tener cambios en su tamaño. Esto quiere decir que si una seña ocupa nh filas por mh columnas de la imagen, los vectores de transformación R y C dependerán de dichos valores. La naturaleza dinámica de los vectores R y C dificulta la etapa de reconocimiento, ya que en ésta se emplea una red neuronal artificial que requiere un número fijo de datos de entrada. Para solucionar este inconveniente es necesario seleccionar, a partir de dichos vectores, una cantidad constate de elementos. Mediante las eq. (2)-(3) se seleccionan k elementos de los vectores R y C, formando nuevos vectores (Row y Col) de longitud fija k.

175


Guerrero-Balaguera & Pérez-Holguín / DYNA 82 (189), pp. 172-181. February, 2015. Procedimiento Filas (I)

Caract _ Col ( j ) 

i0  0 Para

i  0

hasta n hacer

max{R} Col ( j )

 j  0,1,2,3...k  1

(5)

Finalmente, se obtiene un vector de características con longitud 2k, formado a partir de la concatenación de los vectores Caract_Row y Caract_Col. Mediante experimentación se encontró que el valor adecuado de k para describir las características de la forma de la mano es 60, de modo que el vector de características es de 120 elementos.

m

x    I (i, j ) j 0

Si x  0 entonces R(i0 )  x

i0   i0  1 Fin Si Fin Para Fin Procedimiento

2.5. Reconocimiento

Procedimiento Columnas (I)

La etapa de reconocimiento está basada en una red neuronal artificial perceptrón Multicapa (MLP), la cual es comúnmente utilizada en la solución de problemas de reconocimiento de patrones [5,6]. La red neuronal tiene como entrada el vector de características obtenido en la etapa de extracción de características.

j0  0 Para

j  0

hasta m hacer n

y    I (i, j ) i 0

Si

y0

entonces

C ( j0 )  y

2.5.1. Diseño de la red neuronal artificial

j0   j0  1

Una red neuronal artificial MLP está compuesta por múltiples capas de nodos, donde la salida de una capa se conecta completamente a la entrada de la capa siguiente. A excepción de los nodos de entrada, cada nodo es una neurona o (elemento de procesamiento) con una función de activación no lineal [31]. Las MLP están compuestas por tres tipos de capas: Capa de entrada, capa oculta y capa de salida. En el diseño de una red neuronal MLP para una aplicación específica, no existen reglas precisas que permitan determinar tanto el número de capas ocultas como la cantidad de neuronas por cada capa [22,31]. Por esta razón, la elección de los parámetros de la red se lleva a cabo mediante pruebas experimentales orientadas a encontrar la arquitectura con el mejor desempeño. En este trabajo fue seleccionada una red neuronal MLP con entrenamiento supervisado de tipo Backpropagation compuesta por una capa de entradas, una capa oculta y una capa de salidas [32] como se observa en la Fig. 8.

Fin Si Fin Para Fin Procedimiento Figura 6. Algoritmos para el cálculo de los vectores R y C. Fuente: Autores

0 1 2 3 4 5 6 7

0 0 0 0 0 0 0 0 0

1 0 0 0 0 0 0 0 0

2 0 0 1 0 0 0 0 0

3 0 0 1 1 0 1 0 0

4 0 1 1 1 1 1 1 0

5 0 0 1 0 0 1 0 0

6 0 0 1 0 0 0 1 0

7 0 0 1 0 0 0 1 0

8 0 1 1 1 0 0 1 0

9 0 0 0 0 0 0 0 0

C(j0)

1

3

6

2

2

2

4

X

--

--

R(i0) 2 7 3 1 3 4 ---

Figura 7. Representación gráfica para el cálculo de los vectores R y C. Fuente: Autores

  i  (nh  1)  Row(i)  R int   k   

 i  0,1,2,3,4...k  1

(2)

2.5.2. Fase de Entrenamiento y Validación

  j  (mh  1)  Col ( j)  C int    j  0,1,2,3,4...k  1 (3) k   

A partir de los vectores de longitud k, se obtienen dos nuevos vectores los cuales son concatenados para formar el vector de características empleado en la etapa de reconocimiento. Los elementos de estos nuevos vectores se calculan mediante la relación entre el elemento de valor máximo de R y C, y cada uno de los elementos de Row y Col. En las eq. (4)-(5) se muestra dicha operación. Caract _ Row(i) 

max{C} Row(i)

 i  0,1,2,3...k  1

(4)

Para que la red neuronal ejecute la tarea de clasificación correctamente, es necesario realizar un proceso de aprendizaje o entrenamiento [33]. El proceso de entrenamiento de la red neuronal se realizó en MATLAB® R2010b. La base de datos para el entrenamiento de la red neuronal seleccionada consta de 3680 imágenes, tomadas de 8 signantes diferentes, cinco mujeres y tres hombres, con edades entre 19 y 25 años. Se tomaron en total 160 muestras de cada letra del alfabeto de la LSC. Con el fin de evaluar el desempeño de la red neuronal seleccionada, esta fue entrenada para diferente número de neuronas en la capa oculta tomando como casos de estudio 50, 60, 70, 80, y 90 neuronas. A continuación se describen los paramentos de entrenamiento empleados en MATLAB® 2010b:

176


Guerrero-Balaguera & Pérez-Holguín / DYNA 82 (189), pp. 172-181. February, 2015.

Figura 9. ECV versus número de neuronas en la capa oculta. Fuente: Autores

2.6. Implementación del sistema en FPGA

Figura 8. Estructura de una red neuronal MLP. Fuente: Autores

-Tipo de Red: MLP feed-forward -Función de rendimiento: MSEREG -Función de entrenamiento: TRAINRP -No. de capas ocultas: 1. -No. de neuronas en la capa oculta: 50, 60, 70, 80, 90. -No. De iteraciones (Épocas): 2000 Para seleccionar el número de neuronas en la capa oculta que permiten obtener el mejor desempeño, se empleó el método k-fold cross-validation con un valor de k=10 y tomando como parámetro de estimación el error de validación cruzada (ECV). De acuerdo con [34,35] éste método se utiliza para comparar el rendimiento de dos o más modelos o arquitecturas de un clasificador y permite estimar aquel que posee el mejor desempeño. En [36] se presenta una descripción detallada de la aplicación de este método para la selección del mejor modelo de reconocimiento en función de su rendimiento. En la Fig. 9 se presentan los resultados de aplicar el método k-fold cross-validation obteniendo el ECV versus el número de neuronas en la capa oculta. En esta grafica se puede observar que los mejores resultados se obtienen con 90 neuronas en la capa oculta, teniendo un ECV aproximado de 0.1% en el entrenamiento y 0.35% en la validación. Sin embargo, para 60 neuronas en la capa oculta se obtiene el segundo mejor resultado con un ECV aproximado de 0.12% en el entrenamiento y 0,41% en la validación. Aunque la configuración con 90 neuronas en la capa oculta ofrece mejores resultados, se selecciona en este caso la configuración con 60 neuronas, teniendo en cuenta que la red neuronal será implementada en una FPGA, y que esta implementación requiere 3 veces menos operaciones que su contraparte con 90 neuronas.

El sistema desarrollado fue implementado en el dispositivo FPGA Cyclone II EP2C70F896C6 de la compañía Altera® empleando el kit de desarrollo DE2-70 [7]. El sistema fue diseñado siguiendo la metodología de diseño top-down. La descripción del sistema fue realizada mediante lenguaje VHDL. Se utilizó Quartus II 9.0 como herramienta de compilación, simulación y síntesis [37]. La implementación en hardware de los algoritmos de procesamiento de imágenes y de reconocimiento seleccionados previamente, se lleva a cabo en 4 etapas: captura, preprocesamiento, extracción de características y reconocimiento. La captura está conformada por cuatro módulos los cuales permiten configurar y capturar las imágenes de la cámara TRDB-D5M, así como configurar y visualizar en la pantalla TRDB-LTM las imágenes adquiridas. La etapa de preprocesamiento consta de tres módulos que permiten la aplicación de las operaciones: segmentación por umbral, erosión y dilatación. La etapa de extracción de características se realiza mediante un módulo encargado de extraer las características de la forma de la mano. En la etapa de reconocimiento se implementó una red neuronal artificial (MLP) con arquitectura pipeline. Además, fue necesario el diseño de una unidad de control para automatizar el funcionamiento del sistema, un controlador de memoria SDRAM para almacenar las imágenes en memoria SDRAM, un módulo de comunicación RS232 para enviar datos hacia el computador (PC), y un controlador de LCD 2x16 para visualizar el carácter ASCII correspondiente a la seña realizada. En la Fig. 10 se muestra el esquema general del sistema de reconocimiento implementado. El entrenamiento de la red neuronal se realizó off-line, es decir, se obtuvieron en primer lugar los datos de entrenamiento, luego se entrenó la red neuronal en el computador, y por último se cargaron en el sistema diseñado los pesos obtenidos en el entrenamiento. La base de datos para el entrenamiento se obtuvo utilizando el sistema de la Fig. 10, el cual permite capturar y enviar las muestras hacia el computador mediante comunicación serial. El entrenamiento de la red neuronal se realizó en un computador mediante el software MATLAB® R2010b como se explicó en la sección 2.5.2. Se cargaron los pesos obtenidos en el entrenamiento en el módulo ANN diseñado (Fig. 10) utilizando la herramienta Quartus II 9.0.

177


Guerrero-Balaguera & Pérez-Holguín / DYNA 82 (189), pp. 172-181. February, 2015. Tabla 2. Datos de validación del sistema. Letra

Figura 10. Esquema general del sistema implementado en FPGA. Fuente: Autores

Tabla 1. Cantidad de recursos de la FPGA utilizados por el sistema de reconocimiento propuesto % Recursos de la FPGA Disponibles Utilizados Utilizado Elementos Lógicos 68.416 21.302 31 Bits de Memoria 1.152.0000 280.784 24 Multiplicadores 300 32 11 PLLs 4 2 50 Fuente: Autores

En la Tabla 1 se muestran los resultados del proceso de compilación y síntesis del sistema. Cabe resaltar que los recursos utilizados fueron siempre inferiores al 50%, a pesar de que el sistema desarrollado hace uso intensivo de la lógica disponible en la FPGA, y que el procesamiento de imágenes y la implementación de la red neuronal, requieren típicamente grandes cantidades de memoria y el uso de multiplicadores embebidos. 3. Resultados El sistema desarrollado fue puesto a prueba en la FPGA empleando dos signantes (no incluidos en la base de datos de entrenamiento), tomando para cada uno 20 muestras por seña. En la Tabla 2 se muestran los resultados de la matriz de confusión, obtenidos para las 23 señas del alfabeto de la LSC. Los resultados muestran que la mayoría de las señas fueron correctamente reconocidas con un porcentaje mayor al 85%. Se debe observar que, para el sistema desarrollado, el tiempo promedio de procesamiento para cada seña depende del tamaño que ésta ocupe dentro de la imagen debido a que se requiere procesar una cantidad mayor o menor de pixeles. A partir de estos resultados, se evidencia que el sistema reconoce exitosamente cambios de tamaño de la seña, así como cambios en la posición de la misma dentro del campo de visión de la cámara, con tasas de éxito del 100% para

FN

FP

TP

TR (%)

A 0 0 40 100 B 2 1 38 95 C 1 0 39 97,5 D 4 1 36 90 E 0 0 40 100 F 0 0 40 100 G 0 0 40 100 H 0 0 40 100 I 1 1 39 97,5 K 0 0 40 100 L 0 1 40 100 M 0 0 40 100 N 0 1 40 100 O 0 0 40 100 P 0 0 40 100 Q 0 3 40 100 R 0 0 40 100 T 0 0 40 100 U 6 3 34 85 V 1 0 39 97,5 W 1 0 39 97,5 X 1 6 39 97,5 Y 0 0 40 100 Falsos Positivos (FP). Falsos Negativos (FN). Taza de reconocimiento (TR). Fuente: Autores

Tiempo promedio de procesamiento (ms) 433,54 452,29 416,09 417,70 443,00 443,14 425,87 451,61 429,89 442,16 434,49 421,10 431,67 429,22 445,18 401,42 419,95 428,92 415,16 417,09 436,41 429,83 431,68 Verdaderos Positivos (TP).

todas las señas. Para cambios que implican deformación en la imagen esperada para cada seña, debidos a giros o rotaciones de la mano del signante, el sistema presenta buenos resultados con detecciones cercanas al 100 % a pesar de que el sistema no fue diseñado para operar bajo estas condiciones. En la Fig. 11 se muestra el reconocimiento de una seña empleando la plataforma de desarrollo para FPGA de Altera DE2-70. En la parte superior de la figura se muestra la seña realizada y en la parte inferior se visualiza la letra correspondiente. La taza de reconocimiento total del sistema fue del 98.15% con un valor de confusión de 1,85%. La seña corresponde a la letra Q fue la que tomó el menor tiempo en ser procesada y reconocida, mientras que la seña que tardo más tiempo en ser procesada y reconocida fue la correspondiente a la letra B. Los algoritmos desarrollados en MATLAB fueron ejecutados en un computador con un procesador AMD PHENOM II a una frecuencia de 1800MHz y memoria RAM DDR3 de 4 GB. El tiempo de ejecución de cada uno de ellos fue tomado mediante el comando profile de MATLAB. Los módulos de procesamiento y reconocimiento implementados en la tarjeta de desarrollo operan a una frecuencia de 166MHz, y los datos fueron obtenidos a través de un circuito sniffer, implementado dentro del sistema, el cual cuenta la cantidad de ciclos de reloj que utiliza cada uno de los módulos para ejecutar su tarea. En la Fig. 12 se muestra una comparación entre las cantidad de ciclos maquina consumidos por los algoritmos desarrollados en MATLAB, y el sistema implementado en la tarjeta de desarrollo con FPGA. El eje horizontal corresponde a las etapas del procesamiento, mientras que el

178


Guerrero-Balaguera & Pérez-Holguín / DYNA 82 (189), pp. 172-181. February, 2015. 1E+10 954000000 429300000

576000000 239400000

201600000

100000000

Ciclos máquina

12439701

23157656

23003866

13786573

1000000

MATLAB FPGA 48108 10000

100

1 Umbralización

Erosión Dilatación Características Etapas del sistema de reconocimiento

Red Neuronal

Figura 12. Consumo en ciclos maquina utilizados en las operaciones de procesamiento y reconocimiento en MATLAB y en la FPGA. Fuente: Autores

Figura 11. Reconocimiento en el sistema de la seña correspondiente a la letra H. Fuente: Autores

eje vertical corresponde a los ciclos maquina en escala logarítmica requeridos en cada caso. Los marcas cuadradas corresponden a la cantidad de ciclos maquina consumidos por los algoritmos implementados en MATLAB, y las marcas romboidales corresponden a los ciclos máquina del sistema implementado en FPGA. Teniendo en cuenta el consumo de ciclos máquina del sistema implementado en FPGA y en MATLAB, se observa que el sistema desarrollado en hardware es mucho más eficiente y rápido aproximadamente en un orden de magnitud, que la ejecución de los algoritmos en el computador. Además, se observa que para el caso de la red neuronal implementada en FPGA ésta es más veloz que el modelo de simulación de MATLAB aproximadamente en 3 órdenes de magnitud. 4. Conclusiones En este proyecto se desarrolló un sistema orientado al reconocimiento de las señas estáticas del alfabeto de la lengua de señas colombiana LSC. El sistema se implementó en FPGA y consta de cuatro etapas: captura de la imagen, preprocesamiento, extracción de características y reconocimiento. Dicho sistema permite interactuar con el usuario sin utilizar guantes o dispositivos especializados. El sistema propuesto es poco sensible a los cambios en la posición y tamaño de la seña, obteniendo una taza de reconocimiento total del 98.15% El algoritmo desarrollado para extraer las características de la forma de la mano, describe adecuadamente la estructura de las señas estáticas del alfabeto del LSC, basado en la clasificación e identificación de señas realizada

en la etapa de reconocimiento. Además, los ciclos maquina utilizados por este algoritmo en el dispositivo FPGA son mucho menores a los requeridos en un computador. La red neuronal diseñada tiene una taza de reconocimiento alrededor del 98%, tanto en la implementación realizada en hardware, como el modelo de simulación de MATLAB. Sin embargo, como es natural, debido a la naturaleza concurrente de la FPGA, la implementación realizada en hardware es mucho más veloz que la simulación desarrollada en MATLAB. El uso de dispositivos lógicos programables como las FPGAs, en aplicaciones de visión artificial, incrementan el rendimiento, y suministran mayor capacidad de procesamiento que las aplicaciones en software de computador. 4.1. Trabajo futuro

El trabajo presentado en este artículo está enfocado únicamente en las señas estáticas del alfabeto de la LSC tomadas en un ambiente con características de fondo e iluminación uniforme. El sistema puede ser extendido en un trabajo futuro al reconocimiento de los gestos dinámicos que componen la LSC, teniendo en cuenta diferentes entornos con características de variabilidad tanto en el fondo como en la iluminación. Agradecimientos Este trabajo fue elaborado gracias al apoyo brindado por la Universidad Pedagógica y Tecnológica de Colombia y el programa Jóvenes Investigadores e Innovadores de Colciencias. Agradecemos a la Ingeniera Jenny Catalina López López por su valiosa colaboración en el desarrollo de este proyecto. Referencias [1]

179

World Health Organization, Deafness and hearing loss [Online], 2014 [date of reference February 10th of 2014]. Available at: http://www.who.int/mediacentre/factsheets/fs300/en/


Guerrero-Balaguera & Pérez-Holguín / DYNA 82 (189), pp. 172-181. February, 2015. [2]

[3]

[4]

[5]

Instituto Nacional Para Sordos, Estadísticas e información para contribuir en el mejoramiento de la calidad de vida de la Población Sorda Colombiana [Online], 2009 [date of reference March 10th of 2012 ] Available at:

[17] Adithya, V., Vinod, P.R. and Gopalakrishnan, U., Artificial neural network based method for Indian sign language recognition, in IEEE Conference on Information and Communication Technologies, pp. 1080-1085, 2013. http://dx.doi.org/10.1109/CICT.2013.6558259

http://www.insor.gov.co/historico/images/bolet%C3%ADn%20obse rvatorio.pdf

[18] Vargas, L.P., Barba, L., Torres, C.O. and Mattos, L., Sign language recognition system using neural network for digital hardware implementation, Journal of Physics: Conference Series. 274 (1), 2011. http://dx.doi.org/10.1088/1742-6596/274/1/012051

Ebrahim-Al-Ahdal, M. and Nooritawati, M.T., Review in sign language recognition systems, in 2012 IEEE Symposium on Computers and Informatics, pp. 52-57, 2012. http://dx.doi.org/10.1109/ISCI.2012.6222666 Kausar, S. and Javed, M.Y., A survey on Sign language recognition, in 9th International Conference on Frontiers of Information Technology FIT 2011, pp. 95-98, 2011. http://dx.doi.org/10.1109/FIT.2011.25 Instituto Nacional Para Sordos, Diccionario básico de la lengua de señas colombiana. [Online] 2006 [date of reference March 1st of 2012] Available at: http://www.ucn.edu.co/ediscapacidad/Documents/36317784-Diccionario-lengua-desenas.pdf

[6]

Vogler, C. and Metaxas, D., A framework for recognizing the simultaneous aspects of American sign language, Computer Vision and Image Understanding, 81 (3), pp. 358-384, 2001. http://dx.doi.org/10.1006/cviu.2000.0895

[7]

Al-Jarrah, O. and Halawani, A., Recognition of gestures in Arabic sign language using neuro-fuzzy systems, Artificial Intelligence, 133 (1-2), pp. 117-138, 2001. http://dx.doi.org/10.1016/S00043702(01)00141-2

[8]

Starner, T., Weaver, J. and Pentland, A., Real-time american sign language recognition using desk and wearable computer based video, IEEE Transactions on Pattern Analysis and Machine Intelligence, 20 (12), pp. 1371-1375, 1998. http://dx.doi.org/10.1109/34.735811

[9]

Waldron, M.B. and Kim, S., Isolated ASL sign recognition system for deaf persons, IEEE Transactions on Rehabilitation Engineering, 3 (3), pp. 261-271, 1995. http://dx.doi.org/10.1109/86.413199

[10] Davis, J. and Shah, M., Visual gesture recognition, IEEE Proceedings: Vision, Image and Signal Processing, 141 (2), pp. 101106, 1994. http://dx.doi.org/10.1049/ip-vis:19941058 [11] Ye, J., Yao, H. and Jiang, F., Based on HMM and SVM multilayer architecture classifier for Chinese sign language recognition with large vocabulary, in IEEE First Symposium on Multi-Agent Security and Survivability, pp. 377-380, 2004. http://dx.doi.org/10.1109/ICIG.2004.44 [12] Hernandez-Rebollar, J.L., Kyriakopoulos, N. and Lindeman, R.W., A new instrumented approach for translating American Sign Language into sound and text, in Sixth IEEE International Conference on Automatic Face and Gesture Recognition FGR 2004, pp. 547-552, 2004. http://dx.doi.org/10.1109/AFGR.2004.1301590 [13] Kim, J.S., Jang, W. and Bien, Z., A dynamic gesture recognition system for the Korean Sign Language (KSL), IEEE Transactions on Systems, Man, and Cybernetics, Part B: Cybernetics, 26 (2), pp. 354-359, 1996. http://dx.doi.org/10.1109/3477.485888 [14] Tolba, M.F. and Elons, A.S., Recent developments in sign language recognition systems, in 8th International Conference on Computer Engineering and Systems ICCES 2013, pp. xxxvi-xlii, 2013. http://dx.doi.org/10.1109/ICCES.2013.6707157 [15] Alex Raj, S.M., Sreelatha, G. and Supriya, M.H., Gesture recognition using field programmable gate arrays, in 2012 International Conference on Devices, Circuits and Systems, pp. 7275, 2012. http://dx.doi.org/10.1109/ICDCSyst.2012.6188677 [16] Oniga, S., Tisan, A., Mic, D., Buchman, A. and Vida-Ratiu, A., Hand postures recognition system using artificial neural networks implemented in FPGA, in 30th International Spring Seminar on Electronics Technology, pp. 507-512, 2007. http://dx.doi.org/10.1109/ISSE.2007.4432909

[19] Karami, A., Zanj, B. and Sarkaleh, A.K., Persian sign language (PSL) recognition using wavelet transform and neural networks, Expert Systems with Applications, 38 (3), pp. 2661-2667, 2011. http://dx.doi.org/10.1016/j.eswa.2010.08.056 [20] Admasu, Y.F. and Raimond, K., Ethiopian sign language recognition using Artificial Neural Network, in 10th International Conference on Intelligent Systems Design and Applications, ISDA'10, pp. 995-1000, 2010. http://dx.doi.org/10.1109/ISDA.2010.5687057 [21] Maraqa, M. and Abu-Zaiter, R., Recognition of Arabic Sign Language (ArSL) using recurrent neural networks, in International Conference on the Applications of Digital Information and Web Technologies, ICADIWT 2008, pp. 478-481, 2008. http://dx.doi.org/10.1109/ICADIWT.2008.4664396 [22] Munib, Q., Habeeb, M., Takruri, B. and Al-Malik, H.A., American sign language (ASL) recognition based on Hough transform and neural networks, Expert Systems with Applications, 32 (1), pp. 2437, 2007. http://dx.doi.org/10.1016/j.eswa.2005.11.018 [23] Yu, S. H., Huang, C. L., Hsu, S. C., Lin, H. W. and Wang, H. W., Vision-based continuous sign language recognition using product HMM, in Asian Conference on Pattern Recognition, ACPR 2011, pp. 510-514 , 2011. http://dx.doi.org/10.1109/ACPR.2011.6166631 [24] Kawahigashi, K., Shirai, Y., Miura, J. and Shimada, N., Automatic synthesis of training data for sign language recognition using HMM, in 10th International Conference On Computers Helping People With Special Needs And Pre-Conference, Vol. 4061, pp. 623-626, 2006. http://dx.doi.org/10.1007/11788713_92 [25] Rekha, J., Bhattacharya, J. and Majumder, S., Shape, texture and local movement hand gesture features for indian sign language recognition, in International Conference on Trendz in Information Sciences and Computing, TISC 2011, pp. 30-35, 2011. http://dx.doi.org/10.1109/TISC.2011.6169079 [26] Premaratne, P., Human computer interaction using hand gestures. Adelaide, South Australia, Australia: Springer, 2014. http://dx.doi.org/10.1007/978-981-4585-69-9 [27] Terasic-Technologies. TRDB-D5M User Guide. [Online] 2010 [date of reference June 1st of 2013] Available at: http://www.terasic.com.tw/ attachment/archive/281/TRDB_D5M_UserGuide.pdf [28] Terasic-Technologies. TRDB-LTM User Manual. [Online] 2009 [date of reference June 1st of 2013] Available at: http://www.terasic.com.tw/cgibin/page/archive_download.pl?Language=English&No=213&FID= b226168825c32dd5d7064e9a57f42b0b [29] Gonzalez, R.C. and Woods, R.E., Digital image processing, 2d ed.: Prentice Hall, 2002. [30] MathWorks®, Image Processing Toolbox. [Online] 2013 [date of reference June 1st of 2013] Available at http://www.mathworks.com/products/image/ [31] Mehrotra, K., Mohan, C.K. and Ranka, S., Elements of artificial neural networks: MIT press, 1997. [32]

Beale, M., Hagan, M.T. and Demuth, H.B., Neural network toolbox, Neural Network Toolbox, The Math Works, pp. 5-25, 1992.

[33] Quiroga, J., Cartes, D., and Edrington, C., Modelamiento basado en redes neuronales de un PMSM bajo fluctuaciones de carga, DYNA, 76 (160), pp. 273-282, 2009. [34] Abdul-Kadir, N.A., Sudirman, R. and Mahmood, N.H., Recognition system for nasal, lateral and trill arabic phonemes using neural

180


Guerrero-Balaguera & Pérez-Holguín / DYNA 82 (189), pp. 172-181. February, 2015. networks, in 2012 IEEE Student Conference on Research and Development SCOReD, pp. 229-234, 2012. http://dx.doi.org/10.1109/SCOReD.2012.6518644 [35] Andersen, T. and Martinez, T., Cross validation and MLP architecture selection, in International Joint Conference on Neural Networks IJCNN '99, Vol. 3, pp. 1614-1619, 1999. http://dx.doi.org/10.1109/IJCNN.1999.832613 [36] Wright, J.L. and Manic, M., Neural network architecture selection analysis with application to cryptography location, in The 2010 International Joint Conference on Neural Networks IJCNN, pp. 1-6, 2010. http://dx.doi.org/10.1109/IJCNN.2010.5596315 [37] Simpson, P., FPGA design: Best practices for team-based design: Springer New York, 2010. J.D. Guerrero-Balaguera, received the BS. in Electronics Engineering in 2013, from Universidad Pedagógica y Tecnológica de Colombia - UPTC, Colombia. He belongs to the Robotics and Automation Research Group GIRA, at the Universidad Pedagógica y Tecnológica de Colombia, UPTC, Colombia. His areas of scientific interest are image processing, advanced digital design and pattern recognition. W.J. Pérez-Holguín, has received the BS. in Electronics Engineering in 1999,from Universidad Pedagógica y Tecnológica de Colombia, UPTC, Colombia , the MSc. in Engineering in 2006, from Universidad Nacional de Colombia and the PhD in 2012, from Universidad del Valle, Colombia. Since 2005, he has been with the Electronics Engineering School, at UPTC Sogamoso, Colombia, where he is an Assistant Professor. His current research interests include advanced digital design, embedded systems, and robotics. Dr. Pérez had a fellowship from European Community with the Alfa-Nicron Project at Politecnico di Torino, Turin, Italy. Currently, he is the Director of the Robotics and Automation Research Group GIRA at Universidad Pedagógica y Tecnológica de Colombia, UPTC, Colombia.

Área Curricular de Ingeniería Eléctrica e Ingeniería de Control Oferta de Posgrados

Maestría en Ingeniería - Ingeniería Eléctrica Mayor información:

E-mail: ingelcontro_med@unal.edu.co Teléfono: (57-4) 425 52 64

181


Optimizing parameters for a dynamic model of high-frequency HID lamps using genetic algorithms Leonardo Cedeño-Rodríguez a, Jaime Paúl Ayala b, Susset Guerra-Jiménez c & Alexander Fernandez-Correa d a

Instituto Superior Politécnico José Antonio Echeverría, Havana, Cuba. leoced@electrica.cujae.edu.cu b Universidad de las Fuerzas Armadas-ESPE, Sangolquí, Ecuador. jpayala@espe.edu.ec c Instituto Superior Politécnico José Antonio Echeverría, Havana, Cuba. suset@electrica.cujae.edu.cu d Instituto Superior Politécnico José Antonio Echeverría, Havana, Cuba. alexande@electrica.cujae.edu.cu Received: April 21th, de 2014. Received in revised form: June 9th, 2014. Accepted: June 12th, 2014

Abstract This work is carried out to optimize the basic parameters of a dynamic model of high-frequency high intensity discharge lamps, which includes the effect of the phenomenon of acoustic resonance on the electrical parameters of the lamps. Hybrid modeling techniques are used, taking as their starting point the energy balance equations inside the lamp. The optimization of parameters is carried out using techniques based on genetic algorithms, included in the global optimization toolbox of Matlab. The implementation of the model is performed in Matlab R2011a. The result is a dynamic model for HID lamps at high frequency, validated for a high-pressure sodium lamp. Keywords: genetic algorithms; high-frequency HID lamps; hybrid modeling; acoustic resonance.

Optimización de parámetros de un modelo dinámico de alta frecuencia de lámparas HID mediante algoritmos genéticos Resumen En este trabajo se lleva a cabo la optimización de los parámetros fundamentales de un modelo dinámico de alta frecuencia para lámparas de descarga de alta intensidad, que incluye el efecto del fenómeno de la resonancia acústica sobre los parámetros eléctricos de las lámparas. Para el modelado se emplean técnicas híbridas, teniendo como punto de partida las ecuaciones de balance de energía en el interior de la lámpara. La optimización de los parámetros se realizó mediante técnicas basadas en Algoritmos Genéticos, incluidas en la caja de herramientas de optimización global de Matlab. La implementación del modelo se realiza con el software Matlab R2011a. Como resultado se obtiene un modelo dinámico para lámparas HID en alta frecuencia, validado para lámparas de alta presión de sodio. Palabras clave: algoritmos genéticos; lámparas HID en alta frecuencia; modelado híbrido; resonancia acústica.

1. Introduction Rational use of energy has become a priority for most countries. Lighting systems consume a quarter of the world's energy, therefore it is an important task to find more efficient lighting systems [1]. High intensity discharge (HID) lamps are an attractive source of illumination for their compact size, high luminous efficacy and good color quality. However, their use has been limited to low frequency operation, as at high frequency (where they are more efficient) they are affected by the phenomenon of acoustic resonance (AR), which may even end up destroying the lamp [2]. Designers of electronic ballasts for stable operation of HID lamps, prefer to move their designs to areas of low frequencies, to avoid this phenomenon, sacrificing the lamp’s performance [3].

Some models have been developed to emulate the high frequency operation of HID lamps, which are characterized by a complex dynamic and highly nonlinear behavior [4]. One of the biggest challenges is to optimize the modeling parameters, since lamp manufacturers regularly do not provide this information [5]. Genetic algorithms are an optimization technique successfully used to obtain the simplest model parameters of HID lamps [5], the aim of this work is to use these techniques in a dynamic model for these lamps, collecting a number of characteristics of the lamps that usually are not taken into account to simplify the solution. Such is the case for example of the drop on the electrodes of the lamps and the effect of the acoustic resonance phenomenon on the strength of these lamps.

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 182-188. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.43092


CedeĂąo-RodrĂ­guez et al / DYNA 82 (189), pp. 182-188. February, 2015.

the system should be move to an area of acoustic resonance, and change the power frequency change in the ballast inverter stage, trying to keep the power constant in the lamp [1]. 3. HID lamps model

Figure 1. Waveforms of voltage and current in HID lamps. a) at low frequencies. b) high frequency. Source: The Authors

A good optimization of the parameters of a lamp model with the mentioned features would be very useful for designers of ballasts, enabling new control systems for their power stages, with the comfort of having appropriate responding models to the presence of phenomena that affect high-frequency lamps. The parametric identification for discharge lamps including the phenomenon of acoustic resonance mathematical model is proposed, which allow researchers to raise ballast electronic control systems aimed at the operation of this type of acoustic resonance free lamps. 2. HID Lamps HID lamps base their operation on the light emission produced by the discharge that occurs in the gas constituent in the lamp upon application of an electric current [6]. Ballasts are devices that are responsible for feeding the lamps, making them work in a stable regime [7]. Various physical phenomena of thermal nature occur during operation of HID lamps, which determine its electrical characteristics [6]. Over its lifetime, several factors, both external and own internal operating condition, produce changes in the parameters required by the ballast to make variations to the energy delivered to the lamps as these get older [7]. The low frequency operation (Fig. 1a) causes reignition peaks during each line half cycle on the voltage waveform of the lamp, which produces the zero crossing of the current and the thermal phenomena that occur during this process. This feature of the low-frequency operation reduces the life of the lamps by surges that are exposed [6]. At high frequency, both waveforms of voltage and current are sinusoidal, as shown in Fig. 1b, reignition peaks disappear due to the rapidity with which the current crosses zero in each half cycle. The drawback, ballasts designers found for HID lamps operating at high frequency, is the phenomenon of AR, which usually occurs while HID lamps operate at these high frequencies. Acoustic resonance is a tilting electric arc produced by the gases inside the lamp [2,6]. If the deviation of the arc is significant, it could reach the wall of the discharge tube, permanently damaging the lamp [2]. There are several techniques to prevent acoustic resonance in HID lamps, the most interesting include measuring the voltage and current waveforms of the lamp and observe the behavior of the resistance of the lamp, once a trend is detected,

Currently there are a variety of models for HID lamps. Some of them consider the lamp as a dynamic resistance with delays, which are associated with the thermal constants of the lamp and represented in the model by RC networks [8]. Other models are based on the conductance of the lamp, taking into account their voltage-current characteristics [9], associating conductance density of free electrons within the discharge tube [3] or the pressure, temperature of the arc, the ionization energy gas filling and constants that depend for example on the geometry of the discharge tube [3]. HID lamps can be modeled by implementing hybrid techniques based on a priori knowledge about the physical processes that occur in it. The model can be extended to strangers and great uncertainty of the lamp due to some assumptions made about its operation areas. From the balance equations in the lamp, an understanding of the physical processes that govern its properties can reach. However some parameters derived directly or indirectly from these equations, can be difficult to obtain because the manufacturers do not release these, as already mentioned, but also because cumbersome and expensive determination by experimentation is required in order to obtain these parameters. [5]. In this type of process, the optimization technique based on genetic algorithms has been applied with good results for some types of HID lamps of mercury, which suggests to experts that it can also be applied to other HID lamps [4]. The study model was determined so that it should contain the keywords related to the energy balance equation of the lamp, since its performance and properties are closely related to the photo-thermal phenomena that occur in it. Also, the drop in the electrodes should be taken into account since the high frequency behavior of the lamp’s resistance is supported at this end of the model [6, 10]. Finally, the influence of the characteristics of the lamp on its resistance should not be ignored, since they are the reasons for the occurrence of acoustic resonance phenomenon affecting high frequency lamps [11]. The energy balance given by eq. (1) estates that from the power delivered by the power supply to the lamp [12], part is dissipated in the electrodes and the rest in the discharge column. Within column discharge the heat dissipated by heat conduction, convection, radiation and distribution, but usually the diffusion and convection losses are disregarded when the lamp is operated vertically.

183

(1) Where: is a parameter that allows a better fit to the model is the power consumed by the lamp are conduction losses is the radiation losses is the gas temperature of the lamp Also we know:


Cedeño-Rodríguez et al / DYNA 82 (189), pp. 182-188. February, 2015.

(2)

and are constants related to vectors influence acoustic resonance modes on the resistance of the lamp. K medium weight stable lamp The current through the lamp can be determined in the equivalent circuit of the ballast-lamp system by formulating Kirchhoff voltage law.

Where: i is the current of the lamp. R is the resistance of the lamp’s arc ⁄

(3)

Where: is the electron charge k is the Boltzmann constant is a parameter that allows a better fit to the model is linked to the average excitation potential of the lamp parameter (4) Where: is the temperature of the discharge tube wall is a thermal conductivity related parameter Based on the prediction methods of the natural frequency of a lamp and confirmed by experimental observations, the resistance of the lamp’s arc given by eq. (5) can be represented as the sum of a certain resistance by Saha's equation, expressing the resistance steady state arc discharge lamp and a series of frequency dependent coefficients, taking into account the influence of acoustic resonance on that resistance [11]. ⁄

⁄ ⁄

(5)

Where: f is the operating frequency of the lamp is the set of self-frequency of the lamp is an on resistance of the lamp parameter is related to the average ionization potential of the lamp parameter

(6) Where: is the voltage of the lamp r is the equivalent resistance of the circuit formed by the ballast and ignitor lamp is the voltage drop across the lamp electrodes Since until now a numerical model for is not available, an empirical model that can be easily implemented in software design was used as proposed in [13], by eq. (7). The same is developed from experimental observations of the waveform in lamps specially designed for these measurements. (7) Where: A controls the amplitude of the signal B controls the amplitude and the asymmetry of the signal C and D, were obtained by measurements at different frequencies and using linear regression techniques, as well as A and B. Table 1, shows the system of equations obtained by linear regression techniques for calculating the constants related to the generation of the model waveform . Implementation of the ballast-lamp model presented in Fig. 2 was performed with functions m-file type developed with the Matlab-Simulink tool. Table 1. System of equations for the calculation of the constants of the empirical model . Related constants with Vele A=70 B=8.3f+1090 6 if f 60Hz D=4.8f+761 C 1 other case Source: The Authors

Figure 2. Model for high frequency of a 70 W HPS lamp, developed in Simulink. Source: The Authors 184


Cedeño-Rodríguez et al / DYNA 82 (189), pp. 182-188. February, 2015.

,

,

,

,

,

∑ (8)

Parameters of Genetic Algorithm amending: Function optimization: @ FO Variable #: 6 Limits of the Universe: Bottom: [8000 1000 0.5 0.001 50 1] Top: [10000 4000 10 10 500 12] Initial Population: [10000 2513.4959 3.7821 0.0164 66.8994 4.7467] Population Size: 50 Feature selection: Roulette. Function Mutation: Uniform. Mutation rate: 0.1 Crossover function: Intermediate Radio crossing: 0.9 Hybrid Function: fminsearch Stop criteria: • Number of Generations (Number of Iterations): 100 • Tolerance function: 1x10-20 • Tolerance linearity restrictions: 1x10-20

Figure 3. Resistance of 70 W HPS lamp vs frequency. Source: The Authors

To perform the tests, an experimental facility was implemented in order to perform electrical measurements on HID lamps operating at high frequency and to collect data in both stable operation and when acoustic resonance occurs in the lamp in order to allow appropriate identification of the parameters. During the experiments, a data set of 2500 record measurements were obtained for a 70W HPS lamp, in 50 Hz supply frequency intervals, in a range from 2 to 18 kHz. Data analysis confirmed that both the excitation and the output signals have an adequate quality for performing the identification tasks. 3.1. Model parameterization During the parameterization stage, the values of the constants and model parameters were adjusted. With the values collected of voltage and lamp current, its equivalent resistance was calculated to identify possible areas of acoustic resonance. As result, a significant point of increased resistance was identified at 3.95 kHz which suggests that this is a frequency point where the energy is sufficient to excite the resonant mode in the lamp, as shown in the Fig. 3. With this value of auto-frequency ( ) and the frequency where the lamp operates at steady state, the and are calculated using the respective constants vectors Ai and Bi from eq. 5, by numerical methods. The values obtained for was 2301847.5432, while for a value of 0.0212 was obtained. Other universal physical constants are defined, as in the case of the Boltzmann constant (k: 1.38 x 10-23) and the electron charge (e: 1.6 x 10-19). The adjustment of key model parameters was performed at this point, once all the constants and the model implemented in Simulink were available. The global optimization toolbox based on Genetic Algorithms in MATLAB was used for purpose. The objective function was developed as defined in eq. (8) in a Matlab file and the parameters were also defined. The Genetic Algorithm was set in the working window, limiting the range of the search space and initial conditions were imposed. Objective function (@FO):

Other initial conditions required by optimization algorithm were also specified in the model implemented in Simulink, such as the temperature of the discharge tube wall lamp (T0), which was set to 1200 K, according to what is expressed by [10] for this type of sodium lamps. Similarly the initial temperature of the lamp was adjusted to 4500 K. The number of iterations was set based on several experimental runs, in which a standard deviation less than 1% was obtained After several runs, where the stopping criterion that prevailed was the preset number of iterations reached as mentioned above, the results for the optimization process was found the optimum value, for a given objective function, was 1.57905x105. Finally, the adjusted parameters are shown in Table 2. 4. Resolution model and validation of results The resolution of the model shows that the graphics obtained are in line with the expectations for both amplitude and waveform. The model outputs for temperature and the resistance of the lamp are also in the range values and behavior similar to the real system, as shown in Fig. 4. Note that the resistance value is approximately equal to the corresponding value in the real system at 9 kHz, which can be seen in the graph of Fig. 3. Table 2. Parameters obtained by Genetic Algorithm optimization for high-frequency model. Parameter Adjusted value a1

9990,76837

a2

2539,05449

a3

5,44916

a4

0,01914

a5

74,01949

a6

4,83055

Source: The Authors

185


Cedeño-Rodríguez et al / DYNA 82 (189), pp. 182-188. February, 2015.

be increased to values above 100 Ω, with a tendency to decrease, consistent with that shown in Fig. 3 at the same frequency for the real system, as result of which the operating frequency goes away from the acoustic resonance frequency.

Figure 4. Graphs of Resistance (a) and temperature of the lamp (b), obtained by the model at 9 kHz. Source: The Authors

To validate the results, the various criteria mentioned in [14] were used. First is the comparison of curves, to assess the similarity between the actual current and voltage curves with those obtained by the model. The measured data set at 9 kHz, was divided into three for use in the steps of parameterization, and validation of the model’s resolution respectively. Fig. 5 shows the waveforms of voltage and current, both real and obtained for the model in the interval corresponding to the observed data validation, a little convergence and mismatch between the actual and modeled forms of waves can be appreciated. The voltage model shows slightly higher amplitude compared to the actual values, but overall there is a good fit. Another validation method used is the operational validation, by which it is determined if the model responds with sufficient approximation to the real system for the intended purpose and in the domain of intended use. Therefore the simulation proceeds in other frequency ranges, real data is then compared with the model output. The results for the frequency of 15 kHz are shown in Fig. 6 As it can be seen, for this new frequency, the response of the model is also quite good, the curve fitting is appropriate, the amplitudes and waveforms of current and voltage generated by the model are consistent with the power of the HPS lamp (70 W). The voltage waveform pattern, as in the real system, does not shown reignition peaks in the lamp because it is operating at high frequency. Another interesting result on the operational validation of the model at high frequency is in the resistance curve lamp’s arc generated by the model for a frequency near to the resonance frequency of the lamp study (3.95 kHz). Fig. 7 shows that, as expected, the resistance of the lamp should

Figure 5. Comparison between actual wave forms and modeled, (a) tension and (b) current of a HPS lamp, for a frequency of 9 kHz. Source: The Authors

Figure 6. Comparison between actual wave forms and modeled, (a) tension and (b) current of a HPS lamp, during the validation of the model for a frequency of 15 kHz. Source: The Authors

186


Cedeño-Rodríguez et al / DYNA 82 (189), pp. 182-188. February, 2015.

Figure 7. Lamp resistance graph obtained by the model at high frequency, specifically at 4 kHz. Source: The Authors

Table 3. Statistical analysis of the model for different frequencies. Calculation of FIT. Frequency (kHz) Fit voltage waveform Fit current waveform (FIT_V) (FIT_I) 7 85.67 89.46 9 79.44 74.68 11 82.65 84.89 12 80.65 83.12 13 84.50 85.01 15 83.50 83.53 16 77.19 79.49 Source: The Authors

Where: σ is the standard deviation. y is the actual output ymod is the model output N is the number of samples The FIT rate reflects a good model when its value is close to 100% [15]. Table 3 shows the result of calculating the percentage of model fit for various frequencies for the 70 W HPS lamp during the validation stage. In all cases, the results exceed 70% of adjustment, which indicates a good fit for the model. The average value of the adjustment rate calculated for the model was 85.6086%, since the mean values of the fitting percentages for the modeled voltage and current curves are 84.4709% and 86.7464%, respectively. Considering the results obtained from the model validation, it can conclude that the model is perfectly suitable for use in the development of the power stages control systems for high frequency ballasts. 5. Conclusions Figure 8. waveform. a) low frequency (60Hz), b) high frequency (9 kHz). Source: The Authors

The behavior of waveform to high frequency also validates the model. According to [4], as the frequency of operation of the lamp increases, the second maximum in each half cycle of the waveform is reduced, as shown in waveform for a lamp Fig. 8b, where contrary to the operating at 60 Hz (Fig. 8a), the second peak of each cycle almost no appears [4]. All simulations were performed in the frequency range in which the voltage and lamp current data were collected, yielded similar results convergence. The third method of validation implemented was statistical, using criteria related to the mean square error [15]. In this way the percentage of fit was calculated according to eq. (9) and the last 30% of the data set was used for this method.

The implementation of a model for discharge high intensity lamps capable of working in a high frequency range, that also take in to consideration the influence of the acoustic resonance phenomenon and other characteristics of the lamps was made. This model can be used in future design studies of highfrequency ballasts for HID lamps. It was possible to optimize the parameter of the model by using the optimization techniques based on Genetic Algorithms with Matlab and the results were verified for high pressure sodium (HPS) lamps . Obtaining the parameters of the proposed model to predict the behavior of the HID lamp, which in turn facilitates the design of a controller for acoustic resonance free operation. The simulations and statistical calculations showed great graphical convergence and agreements between the results obtained by the model developed and the real system (HPS lamp 70 W) and high levels of fit, which on average were around 85%. References [1]

1

∗ 100

(9)

[2]

187

Correa, J., Estrategias de control en lámparas de descarga de alta presion para la eliminacion de resonancias acusticas, Tesis de MSc., Centro Nacional de Investigación y Desarrollo Tecnológico, Cuernavaca, México, 2000. Maussion, P., Chhun, L., Bhosle, S. and Zissis, G., acoustic resonance characteristics in a high pressure sodium lamp, Industry Applications Society Annual Meeting. IAS '08. IEEE, 2008.


Cedeño-Rodríguez et al / DYNA 82 (189), pp. 182-188. February, 2015. [3]

[4] [5] [6] [7]

[8]

[9]

[10] [11] [12] [13] [14] [15]

Blanco, C., Anton, J., Robles, A., Martin, F., Viera, J., Bhosle, S. and Zissis, G., Comparison between different discharge lamp models based on lamp dynamic conductance, Industry Applications, IEEE Transactions, 47, pp. 1983-1991, 2011. Yan, W. and Hui, S., A universal PSpice model for HID lamps, Industry Applications, IEEE Transactions, 41, pp. 1594-1602, 2005. Yan, W., Hui, S., Chung, H. and Cao, X., Genetic algorithm optimised high-intensity discharge lamp model, in Electronics Letters, IEE pp. 110-112, 2002. Waymouth, J., Electronic discrage lamps, The Massachusetts Institute of Technology Press, 2, pp. 2-9, 71-111, 187-200, 1971. Jiang Y., Shen, M., Li H. and Qian, Z., An adaptive acoustic resonance free electronic ballast for HID lamps, Industry Applications Conference, 2003. 38th IAS Annual Meeting. Conference Record of the, 2, pp. 1020-1024, 2003. Osorio, R., Vazquez, N., Hernandez, C., Rodriguez, E., Pinto, S. and Juarez, M., Electric dynamic modeling of HID lamps for electronic ballast design, Industrial Electronics, IEEE Transactions, 57, pp. 1655-1662, 2010. Zissis, G., Damelincourt, J. and Bezanahary, T., Modelling discharge lamps for electronic circuit designers: a review of the existing methods, Industry Applications Conference, 2001. ThirtySixth IAS Annual Meeting. Conference Record of the 2001 IEEE, 2, pp. 1260-1262, 2001. Van, Vliet, J. and De Groot, J., The high-pressure sodium lamps, London: MacMillan Education LTD, 1986. Yan, W. and Hui, S., An improved high-intensity discharge lamp model including acoustic resonant effect on the lamp arc resistance, Power Electronics, IEEE Transactions on, 19, pp. 1661-1667, 2004. Nieto, C., Mejía, R. and Agudelo, J., Dinámica de fluidos computacional aplicada alestudio de regeneradores térmicos, DYNA, 71, pp. 143-155, 2004. Wang, W., Zhu, G. and Xu, D., A physics-based model for HID lamps with rectifying effect, Vehicle Power and Propulsion Conference, 2008. VPPC '08. IEEE, pp. 1-5, 3-5, 2008. Sargent, R., Verification and validation of simulation models, Simulation Conference (WSC), Proceedings of the 2010 Winter, 1, pp. 166-183, 2010. Prieto, A., Identificación de modelos de sistemas no lineales utilizando agrupamiento borroso, Tesis, Departamento de Automática y Computación, Facultad de Ingeniería Eléctrica, Instituto Superior Politécnico José Antonio Echeverria, La HabanaCuba, 2009.

L. Cedeño-Rodríguez, received the Bs. in Electronic Engineering in 2001 from the Instituto Superior Politécnico Jose Antonio Echeverria (CUJAE), Cuba, currently is a MSc candidate in Automation by the CUJAE. ICID researcher, their research areas are in automation systems. J.P. Ayala-Taco, received the Bs. in Electronic Engineer in 1997 from the Universidad de las Fuerzas Armadas - ESPE, Ecuador, he earned his MBA in 2000 from the ESPE, Ecuador and his MSc in Mechatronics in 2004 from the Polytechnic University of Catalonia, Spain. Currently he is a candidate for Dr. of Science in Automation and Controls by CUJAE, Cuba. His research is in the static drives and advanced and intelligent applications of power electronics control. S. Guerra-Jiménez, received the Bs. in Automatic Control Engineering in 1994 from the IPSJAE, Cuba, MSc. in Automatic in 1998 from the IPSJAE, Cuba, PhD in Electrical Engineering, Automation and Control in 2001 from the Polytechnic School of the University of Sao Paulo, Brasil. His research lies in the techniques intelligent, robust and adaptive control and automation of industrial processes. A. Fernández-Correa, received the Bs. in Electronic Engineer from the Universidad de Oriente, Santiago de Cuba, Cuba. MSc in Electrical Engineering in 2000 from the Polytechnic School of the University of Sao Paulo, Brazil, PhD. in Electrical Engineering in 2004 from the Polytechnic School of the University of Sao Paulo, Brazil. PhD. in Electrical Engineering in 2007 from the Polytechnic School of the University of Sao Paulo, Brazil. His research lies in the power electronics

188

Área Curricular de Ingeniería Eléctrica e Ingeniería de Control Oferta de Posgrados

Maestría en Ingeniería - Ingeniería Eléctrica Mayor información:

E-mail: ingelcontro_med@unal.edu.co Teléfono: (57-4) 425 52 64


Liquefaction susceptibility assessment and study of “La Luciana” tailings dam fault (Spain, 1960) based on historical documents Francisco Javier Fernández-Naranjo, Virginia Rodríguez, Roberto Rodríguez, María Esther Alberruche, Julio Cesar Arranz & Lucas Vadillo Instituto Geológico y Minero de España, Madrid, España. fj.fernandez@igme.es, v.rodriguez@igme.es, roberto.rodriguez@igme.es, e.alberruche@igme.es, jc.arranz@igme.es, l.vadillo@igme.es

Received: May 20th, 2014. Received in revised form: September 30th, 2014. Accepted: October 29th, 2014. Abstract On 17 August, 1960 the biggest disaster by death toll in Spain, related with a tailings dam fault, took place in Reocín (Santander). The tailings dam “La Luciana” failed causing the death of eighteen people. After the fault, the mining company carried out several geotechnical tests in the remaining materials of the tailings dam. The results are available to be consulted in the Reocín Mines Documentary Collection, from which we have obtained mechanical Cone Penetration Test (CPT) data near the fault area as well as diverse maps of the dam pre-failure and post-failure. The processing of such data through current analysis techniques has revealed the relationship between the fault of the tailings dam and static liquefaction phenomena. Keywords: slope failure, tailings dam, CPT test, static liquefaction, flow failure.

Análisis de la susceptibilidad a la licuefacción y estudio de la rotura del depósito de residuos mineros “La Luciana” (España, 1960) basado en documentos históricos Resumen El 17 de agosto de 1960 se produjo en Reocín (Cantabria) el mayor desastre en pérdidas de vidas humanas acaecido en España en relación con la rotura de una presa de residuos mineros. El depósito de residuos mineros “La Luciana” sufrió un fallo que derivó en costosos daños materiales y provocó la muerte a dieciocho personas. Tras la rotura, la compañía minera realizó diversos ensayos geotécnicos sobre los materiales remanentes del depósito. Los resultados obtenidos pudieron ser consultados en el Fondo Documental Mina de Reocín, obteniéndose datos de Ensayos de Penetración Estática (CPT) mecánicos del entorno de la zona de rotura, así como diversa cartografía del depósito anterior y posterior a la catástrofe. A la luz de los conocimientos actuales y el tratamiento de estos datos mediante nuevas técnicas, ha podido evidenciar la relación de la rotura del depósito con fenómenos de licuefacción estática. Palabras clave: fallo de talud, depósito de residuos mineros, ensayos CPT, licuefacción estática, falla de flujo.

1. Introducción El depósito de residuos mineros denominado “La Luciana”, ubicado en Reocín (Cantabria), sufrió una rotura el 17 de agosto de 1960 sobre las 22:40 horas que derivó en una gran salida en masa de material provocando costosos daños ambientales, materiales y humanos dado que supuso la pérdida de 18 vidas, muchas de ellas niños. Pese a la magnitud del desastre, y al contrario que roturas más recientes como la acaecida en Aznalcóllar (Huelva) en 1998, la rotura de La Luciana no ha gozado de tanta relevancia en los medios, ni

interés por parte del mundo académico. Pocos meses después de la rotura, la compañía minera propietaria realizó diversos ensayos de campo sobre los materiales constituyentes del depósito de residuos. Parte de los resultados a día de hoy se conservan en el denominado “Fondo documental Mina de Reocín”, ubicado en la biblioteca de la Escuela de Mina de Torrelavega. Es poco probable que de dichos ensayos se obtuvieran resultados concluyentes en virtud del estado del conocimiento geotécnico de aquella época. No obstante, cabe la

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 189-198. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.43565


Fernández-Naranjo et al / DYNA 82 (189), pp. 189-198. February, 2015.

posibilidad de interpretar dichos datos utilizando técnicas y conocimientos actuales con el objeto de arrojar algo de luz sobre lo ocurrido en el desastre de La Luciana. 1.1. Características constructivas del depósito de residuos mineros “La Luciana” El depósito de residuos mineros “La Luciana” fue construido a partir de los estériles de lavadero de la mina de Pb y Zn denominada AZSA, entre los años 1951 y 1960, contando con un depósito principal y un recrecimiento lateral (Fig. 1). Este depósito se construyó mediante el método “Aguas arriba” (Upstream) [13], no disponiendo de una estructura de contención propiamente dicha debido a que los lodos de vertido ejercían de soporte una vez secos. Tal y como muestran documentos gráficos de la época el vertido se efectuó desde el contorno del depósito, formándose escalones que se recrecían en la vertical (Fig. 2.). Se estima que durante su construcción el caudal de vertido rondaba los 7 litros/segundo, lo que dejaba tasas de unas 11.000 Toneladas/mes. El material vertido era sustentado por tablones de madera arriostrados (Fig. 3) hasta que ganaba competencia mecánica tras la pérdida de humedad, para lo que se dejaba secar 15 días [1]. Debido a la exposición atmosférica y a las características mineralógicas de los relaves, éstos desarrollan una costra de tipo ferruginoso que incrementa la resistencia al corte de los escalones que conforman el talud del depósito de residuos mineros.

Figura 1. Fotografía aérea del depósito de residuos mineros “La Luciana” en la actualidad Fuente: Google Earth año 2011.

Figura 2. Detalles constructivos del recrecimiento del depósito poco antes de su rotura. Pueden apreciarse: 1) Las estructuras de vertido desde el contorno, 2) El escalonamiento resultante,, 3) Las manchas de vegetación en el talud debidas a la humedad y 4) La presencia de una importante laguna de decantación cercana al talud Fuente: Fondo documental “Mina de Reocín”.

A principios del año 1956, se inició la construcción del recrecimiento lateral que ganó altura alcanzando rápidamente la cota del depósito principal sobre mediados del año 1958. Posteriormente se recrecerían en conjunto unos 5 m más, hasta alcanzar el depósito una altura final de entre 19,5 y 20 m. Debido al particular sistema de vertido, el depósito de residuos minero ha adquirido una geometría de perfil característica, asemejándose a un sistema de escalones con una altura de 0,8 m y ancho de 2,4 m, dejando bermas de 4 metros de ancho cada 15 escalones, lo que proporciona al talud del depósito un ángulo medio de 18° [1]. El trazado en planta del depósito principal adopta, por lo general, suaves cambios de dirección. Por el contrario, dicha configuración de ángulos suaves en el trazado en planta no se respetó en la zona del recrecimiento lateral cuyo trazado resulta mucho más abrupto. El depósito fue construido sobre antiguos terraplenes constituidos a su vez por residuos mineros granulares de granulometría más fina, probablemente generados como rechazo de antiguos métodos de cribado por vía seca (“garbillado”) del mineral. Por desgracia no se dispone de más información relevante de los materiales constitutivos de estos niveles, no obstante la cartografía de la época muestra la existencia de tres de estos niveles de terraplén con espesores entre cinco y quince metros en la zona del recrecimiento. Es muy posible que la presencia de éstas condicionara de alguna manera el irregular trazado del recrecimiento lateral, tratando de ajustarse al del depósito principal sobre la irregularidad topográfica que la presencia de los terraplenes brinda al terreno. El sistema de drenaje del depósito se realizaba por medio de lagunas de decantación conectadas a chimeneas, y éstas a tuberías que descansaban sobre la superficie del terreno (terraplenes) y que saldrían por la base del talud del depósito. La laguna de decantación y las chimeneas se fueron desplazando ladera arriba a medida que el depósito se recrecía en vertical. Por último, el sustrato geológico subyacente sobre el que se apoya el conjunto de terraplenes que sirven de base al

190


Fernández-Naranjo et al / DYNA 82 (189), pp. 189-198. February, 2015.

depósito está constituido por calcarenitas, margas, calizas y arenas del Cretácico inferior-Aptiense, unidades sobre la que no hay registros de problemas de índole geotécnica. 1.2. Fallo del depósito de residuos mineros Pese a haber transcurrido más de 50 años, a día de hoy aún son evidentes las huellas de la rotura del depósito. Según la información documental recogida, el fallo movió una cantidad de material de entre 50.000 y 100.000 m3, si

Figura 3. Arriba: fotografía del sistema de vertido durante el relleno del depósito en la década de los 60. Abajo: Vestigios de dichas estructuras encontrados en la actualidad Fuente: [1] y fotografía propia.

bien estimaciones propias basadas en la cubicación a partir de perfiles elevan dicha cantidad hasta casi los 300.000 m3. La rotura arrastró tanto materiales del depósito como materiales propios de los terraplenes de base. Este hecho, unido a que no tardaron en iniciarse las labores de reconstrucción en la zona siniestrada, ha provocado dificultades en las labores de reconocimiento de los diferentes elementos constituyentes del depósito de residuos en la actualidad. No existe mucha información relativa a las causas del fallo. La única referencia de ámbito académico encontrada apunta a un fallo en la fundación del depósito constituida por viejos depósitos de residuos [12], si bien se destaca erróneamente que se hizo así debido a que la vegetación ocultó dichos depósitos, -siendo confundidos con terreno natural-, cuando es sabido que la existencia de estos materiales en la fundación del depósito era de sobra conocida antes de iniciarse la construcción del depósito. [11]. Ciertos testimonios afirman que en los informes periciales se consideró a los terraplenes de base como la unidad donde se generó la rotura, explicándose el fallo como producto de filtraciones de agua por parte de los relaves suprayacentes, si bien no se conserva registro alguno de dichos informes. Cabe destacar, tal y como quedó recogido en diversos medios de información de la época, que aunque en un primer momento se planteó un sismo como causa de la catástrofe, dicha hipótesis fue rápidamente descartada [12]. En cualquier caso, no se han encontrado registros de fenómenos de sismicidad que pudieran estar asociados a la rotura. Tampoco se han podido encontrar evidencias de periodos prolongados de lluvias, eventos tormentosos u otros factores que hayan podido influenciar en la misma o actuar como desencadenantes. Otro aspecto importante a considerar es que la geometría del plano de rotura pone en evidencia la casi completa destrucción del terraplén de nivel medio (Fig. 4).

Figura 4. Detalle de los niveles de terraplén tras la rotura. Puede observarse la desaparición del terraplén inferior, la casi completa destrucción del terraplén medio y el afloramiento del terraplén superior en el entorno inmediato de la zona de rotura. Se observa además el contacto entre materiales deslizados secos y materiales humedecidos por la salida del agua de la laguna de decantación Fuente: Fondo Documental “Mina de Reocín”. 191


Fernández-Naranjo et al / DYNA 82 (189), pp. 189-198. February, 2015.

Figura 5. Posible presencia de grietas ubicadas en el recrecimiento lateral, prácticamente en el contacto con el depósito principal Fuente: Fondo Documental “Mina de Reocín”.

Por otro lado, la información documental destaca la aparición de grietas en el depósito un mes antes de la tragedia [11]. Gracias a fotografías de la época recogidas en el fondo documental se ha podido comprobar que éstas se ubicaban en el lado Oeste del recrecimiento lateral, prácticamente en el contacto con el depósito principal (Fig. 5). 1.3.

Evidencias de licuefacción desencadenante de la rotura

estática

como

En el caso que nos ocupa se ha confirmado la existencia de fenómenos de licuefacción asociados a la rotura del depósito gracias a la presencia de diques de arena en el frente de rotura (Fig. 6) en los que el material arenoso penetra y atraviesa los niveles de limo. También es conocido que el material del depósito estaba totalmente saturado debido a la proximidad de la laguna de decantación al talud y a la presencia de áreas con manchas de vegetación en el mismo (Fig. 2). La ausencia de eventos sísmicos u otros fenómenos de carácter dinámico hace probable que dichos diques de arena hayan sido debidos a un fenómeno de licuefacción estática; sin embargo, atendiendo a la información testimonial recopilada en la prensa escrita de la época, la rotura del recrecimiento lateral de La Luciana debió resultar un fenómeno súbito que desencadenó una enorme cantidad de energía durante su activación. Basándonos en este carácter repentino y altamente energético de la rotura, el desastre de La Luciana guarda similitud con otras roturas de depósito de residuos mineros que han sido relacionadas con proceso de licuefacción estática, como el caso de Stava (Italia, 1985) o de Merriespruit (Sudáfrica, 1994). Diversos testimonios presenciales hablan de “estallido” al describir lo ocurrido en Reocín, lo que guarda similitudes con la rotura de la presa sudafricana en el que se llega a hablar del acontecimiento de una explosión (bang) como un aspecto crucial del carácter súbito del fenómeno, acuñándose el concepto de “licuefacción estática instantánea” [4]. También en el caso de la rotura de la presa italiana se llega a comentar que la presa sufrió un colapso tan repentino que “sonó como el disparo de un cañón” [3].

Figura 6. Detalles de diques de arena como producto de licuefacción. Pudo constatarse la presencia de abundantes diques de arena encontrados en la base de los materiales remanentes del lado Oeste de la zona de rotura Fuente: elaboración propia.

Detalles encontrados en prensa escrita de la época avalan la naturaleza explosiva de la rotura, como es la confusión de material proyectado con pedriscos de granizo en el barrio de La Barquera, distante unos 250 m del recrecimiento [12]. Existen testimonios que afirman, además, que el estallido pudo ser escuchado a más de 1 km de distancia. Se baraja, por tanto, la posibilidad de que el fallo inicial del depósito de residuos mineros responda a un fenómeno de “licuefacción estática explosiva”; no obstante, la única referencia académica encontrada que hace mención al posible carácter explosivo de la licuefacción es el trabajo de Rydelek & Tuttle (2004) [9], en el que asocia la aparición de cráteres de explosión y proyección de material a un fenómeno de licuefacción de carácter sísmico [9]. En cualquier caso, de lo que no cabe duda es que el carácter repentino de la rotura inicial y el elevado grado de energía liberada durante la misma deben responder a un aumento de gran magnitud y de carácter instantáneo de la presión de poro que debió superar la resistencia al corte del material en un intervalo de tiempo muy corto. Si consideramos la presencia de costras ferruginosas en el talud, de frágil resistencia y baja permeabilidad, podemos asumir que éstas pudieron actuar como tapón o sello que impidiera la salida o drenaje del material licuado lo que favorecería el carácter explosivo de la rotura. 1.4. Evidencias de salidas en flujo de material tras el fallo inicial Tras este primer fenómeno súbito de rotura, hay constancia de que el material sufrió varios deslizamientos de flujo hasta alcanzar cierto equilibrio geotécnico. Ha podido comprobarse que el material puesto en movimiento a través de dichos deslizamientos alcanzó distancias del orden de 500 m, distancias que podrían haber resultado mayores de no haber sido por la existencia de varias lagunas y escombreras que frenaron el flujo y lo encauzaron hacia el este, en dirección al río Besaya, en el que se registró una subida de 1,5 m en el nivel de agua del río [12]. Los deslizamientos se sucedieron durante varios días después, dejando una zona de afección final de casi 11 hectáreas concentradas en la margen izquierda del río Besaya. Este fenómeno de flujo puede diferenciarse fácilmente de la rotura inicial atendiendo a diversos

192


Fernández-Naranjo et al / DYNA 82 (189), pp. 189-198. February, 2015.

testimonios que afirman que tras el fallo inicial, algunas víctimas atrapadas en los escombros de sus propias casas perecieron al ser enterradas por aludes de lodo que acontecieron mientras se iniciaban las labores de rescate. 2. Metodología El fenómeno de licuefacción se produce cuando un aumento de la presión de poro logra anular la resistencia al corte de un determinado material. Dicho aumento de la presión de poro suele ir relacionado a una densificación del material con el consecuente descenso de la porosidad producto de una respuesta de naturaleza contractiva a un determinado esfuerzo-, en condiciones de elevada saturación. Para que ocurra la licuefacción estática se deben cumplir, por tanto, tres condiciones: 1) El material constructivo debe ser susceptible a un comportamiento contractivo ante una deformación de corte, 2) El material debe, además, estar necesariamente saturado en agua y 3) La presión de poros alcanzada debe reducir la tensión o resistencia al corte del material (conforme al principio de esfuerzos efectivos), hasta que la tensión de corte debida a las cargas gravitatorias resulte mayor que la resistencia residual del material. Esto ocurrirá con mayor facilidad en materiales con elevada capacidad para ganar densidad, es decir, materiales con valores muy bajos de Densidad Relativa. Adicionalmente, para que la licuefacción adquiera un carácter explosivo, dicho aumento de la presión deberá producirse de manera instantánea venciendo súbitamente la resistencia ofrecida por un material que actúe a modo de tapón. 2.1. Información del Fondo Documental Mina de Reocín Tras la consulta del Fondo Documental Mina de Reocín, se accedió a los datos de catorce Ensayos de Penetración

Estática CPT (Cone Penetration Test) elaborados en el entorno inmediato de la zona siniestrada (Fig. 7), realizados entre noviembre de 1960 y marzo de 1961. También se recopiló cartografía topográfica del depósito de residuos de antes y después de la rotura de los que pudo obtenerse datos relevantes sobre su geometría y la ubicación de dichos ensayos. Se procedió posteriormente a la digitalización y georreferenciación de la información obtenida empleando el software comercial AutoCAD Map 3D 2011. Esta información ha permitido un mejor conocimiento sobre la distribución espacial de los materiales involucrados en la rotura. 2.2. Ensayos CPT y determinación de los parámetros σ0 σ’0 y q1N Los ensayos de penetración estática fueron realizados con un antiguo penetrómetro mecánico de tipo Gouda. Los valores de resistencia en punta (qc) y resistencia a la fricción (fs) recogidos en el fondo documental se correspondían erróneamente con las lecturas de los medidores de presión, por lo que se realizaron las correcciones en base a los datos encontrados en las especificaciones técnicas del equipo. La mayoría de las correlaciones con ensayos CPT para la determinación de parámetros geotécnicos como: la tensión vertical neta (σ0) y efectiva (σ’0), y la resistencia en punta normalizada (qlN) - fundamentales para evaluar algunos de los factores que intervienen en la susceptibilidad de la estructura al fallo por licuefacción - se han realizado con valores obtenidos con penetrómetros eléctricos. Por lo tanto, se procedió a la conversión de los valores CPT mecánicos a eléctricos aplicando el modelo desarrollado por Schmertmann y Reyna [7].

Figura 7. Trazado sur del depósito y de los niveles de terraplén superior (SUP) medio (MED) e inferior (INF), y ubicación de los catorce CPT utilizados para la obtención de parámetros geotécnicos. Fuente: elaboración propia.

2.3. Determinación del carácter contractivo de los materiales Posteriormente, y mediante el software comercial CPeT-IT v.1.7.6.42 a partir de los datos de los propios ensayos CPT,

considerando los residuos saturados en su totalidad (algo que se ha podido comprobar cercano a la realidad a través del barrenado de los materiales remanentes del depósito) y considerando presiones de poro incrementales en profundidad

193


Fernández-Naranjo et al / DYNA 82 (189), pp. 189-198. February, 2015.

en relación directa a la altura de la columna de agua, el software determinó automáticamente los parámetros σ0, σ’0 y qlN. Se ha comprobado que cálculo de dichos parámetros ha sido realizado por CPTe-IT a partir del índice SBT no normalizado, lo que necesariamente implica posibles errores en la estimación de los mismos. No obstante, en base a la experiencia de los desarrolladores en la materia y en la validez de las referencias utilizadas, dichos errores se consideran asumibles. El comportamiento contractivo de los materiales es determinante en la susceptibilidad al fallo por licuefacción estática dado que es necesaria una reacción contractiva del material al esfuerzo vertical para provocar la densificación del mismo y el consiguiente aumento de la presión de poro. En nuestro caso, los criterios que se adopten para su determinación deberían poder ser calculados a partir de parámetros geotécnicos derivados de ensayos CPT, y no deberían asociarse con fenómenos de licuefacción dinámica o inducidos por eventos sísmicos. Se encontraron dos criterios que cumplían parcialmente dichos requisitos para la definición de la naturaleza contractiva-dilatante de los materiales: 1) El criterio de Robertson que relaciona la resistencia en punta y el coeficiente de fricción normalizados [8]; y 2) El criterio de Olson & Stark basada en la tensión vertical efectiva y la resistencia en punta normalizada [6]. Finalmente tras comprobar que la aplicación del criterio de Robertson a los valores obtenidos no es posible por quedar dichos valores fuera del rango propuesto por el autor, se decidió adoptar la correlación de Olson y Stark. Esta correlación permite además la determinación directa del carácter contractivo o dilatante del material sin necesidad de análisis de parámetros adicionales como la sensitividad del material. De esta manera se ha podido establecer la naturaleza contractiva-dilatante de los residuos mineros en el entorno de la rotura, y la distribución espacial en profundidad de los niveles más susceptibles a la licuefacción en cada uno de los sondeos donde se realizaron CPT, atendiendo a este factor (Fig. 8). 2.4. Estimación de la Densidad Relativa de los materiales. La Densidad Relativa de los materiales juega también un papel importante en la mayor o menor susceptibilidad de los mismos a la licuefacción dado que a mayor capacidad del material para densificar (materiales con densidades relativas bajas), mayores serán los valores de presión de poros que podrá alcanzar. Para su estimación se ha empleado la correlación de Bolton [2] que relaciona el valor de Densidad Relativa o Índice de densidad (ID) con los valores de resistencia en punta (qc), y tensiones verticales totales y efectivas (σ0 y σ’0) obtenidos a partir de los ensayos CPT, tal y como se ha descrito anteriormente, a través de la relación: 0.2831

32.964

(1)

3. Resultados y discusión 3.1.

Análisis de la contractividad y de la Densidad Relativa de los materiales

Los datos resultantes de la interpretación del carácter contractivo o dilatante de los CPT han sido agrupados en

Figura 8. Determinación de los niveles de comportamiento contractivo (negro) y dilatante (blanco) en profundidad bajo el criterio de Olson & Stark para el sondeo A-2 Fuente: elaboración propia.

torno a dos perfiles topográficos trazados al Este y Oeste del plano de rotura, respectivamente (Fig. 9). Se aporta un perfil reconstruido de la estructura con el sustrato geológico y la posición de los terraplenes de base (Fig. 10). Los resultados muestran numerosos niveles de materiales de comportamiento contractivo, y por lo tanto susceptibles a la licuefacción, en ambos perfiles. No obstante, el espesor de dichos niveles es significativamente mayor en el lado Oeste, y muy especialmente en el terraplén de nivel medio sobre el que se asienta el depósito. Es probable, por lo tanto, que el primer fallo de la estructura se iniciara en este último nivel y hacia este lado del recrecimiento, lo que explicaría el elevado grado de destrucción de los terraplenes de base a partir de este nivel y del depósito suprayacente en la zona de rotura. Por otra parte, la aparición de grietas en esta zona del depósito en los momentos previos a la catástrofe, corrobora que los materiales que caracterizan el perfil Oeste posiblemente sean los más representativos de las condiciones geotécnicas del depósito en el momento de su rotura, y que estos materiales estarían involucrados en el fallo de la estructura. El análisis conjunto del comportamiento contractivo de los materiales y su Densidad Relativa arroja resultados aún más reveladores. No se han podido encontrar niveles contractivos de baja densidad relativa en el perfil Este que tengan potencia suficiente como para localizar en ellos el origen del evento de licuefacción instantánea de gran magnitud (Fig. 11). No obstante, el estudio de los sondeos CPT del perfil Oeste: B-1, B-2 y A-2 pone de relieve la existencia de un nivel profundo de materiales de

194


Fernández-Naranjo et al / DYNA 82 (189), pp. 189-198. February, 2015.

comportamiento contractivo y una muy baja Densidad Relativa a unos 20 m de profundidad desde la superficie del depósito, coincidiendo con el nivel medio de los terraplenes de base (Fig. 11). Los materiales de este nivel, de naturaleza contractiva y baja densidad relativa, disponen además de potencia suficiente como para inducir un fenómeno de licuefacción de gran magnitud cuyo desencadenante entraría en relación con un aumento del grado de saturación de material por entrada de agua proveniente de los residuos mineros suprayacentes. Resulta, por tanto, más probable que el episodio de licuefacción se iniciara hacia el lado Oeste del recrecimiento y que las características de los materiales de este lado resulten más representativas de las condiciones geotécnicas del depósito que provocaron su rotura que las del lado Este. Por otro lado, cabe recordar la aparición de grietas en este lado del recrecimiento poco tiempo antes de la rotura catastrófica (Fig. 5) lo que en cierta medida vendría a corroborar que el fallo del depósito de residuos mineros pudo tener su origen en materiales del lado Oeste del recrecimiento. Al margen de lo anterior se ha identificado en el CPT A1, entre los 4.5 y los 8 m de profundidad un nivel que

también adopta un comportamiento contractivo y baja densidad relativa sobre los materiales del vaso del depósito (Fig. 12). Los valores de resistencia en punta (qc) medidos en el mismo resultan nulos. Esto podría ser indicativo de que dichos materiales se encontraban licuefactados en el momento en que los ensayos fueron realizados, sin embargo este nivel se corresponde con materiales de la propia presa de residuos ubicados a mucha menos profundidad que los materiales del terraplén en los que teóricamente se localizaría el origen de la rotura y separados por materiales de la presa de lodos con rangos medios de densidad relativa, por lo que no guardaría continuidad con las unidades que teóricamente desencadenaron el fallo. Se ignora si la pérdida de competencia de dicho nivel es un evento anterior, simultáneo o derivado del fenómeno de licuefacción estática que desencadenó el desastre, sin embargo el hecho de que este nivel se localice en el mismo lado en el que semanas antes se observara la aparición de grietas hace pensar que podría existir relación con las mismas, lo que implicaría que la pérdida de competencia de estos niveles sería un fenómeno anterior a la catástrofe.

Figura 9. Perfiles esquemáticos con resultados de los sondeos CPT del lado Oeste (arriba) y del lado Este (abajo) de la rotura. Se destaca la presencia de niveles de comportamiento dilatante (blanco) frente a los contractivos (negro) más continuos y potentes en el lado Oeste. Fuente: elaboración propia.

3.2. Hipótesis de la causa del desastre El hecho de que la rotura se concentrara en materiales del recrecimiento, y en vista de las evidencias de la sobresaturación de los materiales constituyentes del mismo (Fig. 4) es posible afirmar, -considerando el conocimiento técnico desarrollado relativo a las causas más comunes de fallo en este tipo de estructuras-, que el elevado grado de

saturación en agua guarda una estrecha relación causal con la rotura del depósito. Existen varias alternativas que podrían explicar qué los materiales de dicho recrecimiento se encontraran mucho más saturados que el del depósito principal. En primer lugar un fallo en los sistemas de drenaje provocaría que los relaves del recrecimiento se sobresaturaran. En base a la presencia de hasta tres chimeneas de drenaje y diversos

195


Fernández-Naranjo et al / DYNA 82 (189), pp. 189-198. February, 2015.

tramos de tuberías de desagüe en el lado Oeste de la rotura (Fig. 13), resulta factible que la rotura de una de estas estructuras derivara en la saturación en agua de los relaves. Por otro lado, tras la consulta de la fotografía aérea del vuelo americano (año 1957) de la zona, se ha comprobado que la superficie de vertido del recrecimiento resultaba muy reducida respecto al depósito principal (Fig. 13).

Esto implicaría necesariamente que el tiempo dedicado al relleno de cada escalón resultaría inferior para el recrecimiento lateral que para el depósito principal. En estas condiciones, para poder reducir lo menos posible la tasa de vertido sería entonces necesario ganar tiempo disminuyendo los periodos de remanso de cada escalón, quedando los relaves mucho más saturados en agua.

Figura 10. Perfil del depósito de residuos mineros (digitalizado y reconstruido a partir de documentación histórica). Puede observarse el sustrato geológico sobre el que se asientan las estructuras implicadas en el desastre de La Luciana, la línea de rotura, la posición aproximada de los niveles de terraplén, y del depósito de residuos mineros. Abajo: Leyenda, trazado del perfil y ubicación del depósito de residuos mineros Fuente: elaboración propia.

Figura 11. Esquema de perfil con los valores de Densidad Relativa (lado derecho de cada columna) junto al carácter contractivo o dilatante (lado izquierdo de cada columna). En el lado Oeste de la rotura uede observarse la presencia de niveles potentes de comportamiento contractivo y baja densidad relativa a

196


Fernández-Naranjo et al / DYNA 82 (189), pp. 189-198. February, 2015. unos 20 m de profundidad marcado con línea continua. También se observa un nivel similar entre los 4,5 y los 8 m de profundidad en materiales del propio depósito marcado con línea discontinua Fuente: elaboración propia.

utilidad a la hora de mejorar el conocimiento acerca del comportamiento geotécnico en este tipo de depósitos, aportándose además un claro ejemplo de que aspectos resultan

Figura 12. Sistemas de drenaje del recrecimiento lateral de La Luciana Fuente: elaboración propia.

También es posible que ambas circunstancias (rotura de tuberías y reducción de los periodos de remanso) se combinaran, fatídicamente de tal modo que al no respetar los periodos de secado de los escalones estos no ganaran la suficiente competencia y acabaran provocando la rotura de alguno de los elementos del sistema de drenaje. En cualquier caso la abundancia de agua pudo facilitar un proceso de percolación que añadiría el último elemento necesario para facilitar la densificación de los materiales e inducir el correspondiente aumento de la presión de poro, que provocaría a su vez la disminución de la resistencia al corte de los materiales y que acabaría provocando un fenómeno súbito de licuefacción. Aunque la aparición de las mencionadas grietas en el lado Oeste del recrecimiento de modo previo a la rotura guarda sin duda relación con el desastre, cabe destacar que considerando el amplio tiempo transcurrido (superior a un mes) desde la aparición de las grietas resulta difícil justificar una relación directa causa-efecto con respecto a la rotura de La Luciana, por lo que más que un auténtico desencadenante se considera una evidencia del mecanismo de fallo. La episódica salida en flujo de los relaves propiamente dichos puede ser debida a un fenómeno de falla regresiva en efecto dominó. 4. Conclusiones De acuerdo a los datos arrojados por los CPT y de la geometría de los materiales depositados tras el fallo, y contando con el apoyo de la información testimonial, se ha evidenciado que la fatídica rotura de La Luciana podría tener su origen en los terraplenes basales y se debiera probablemente a un fenómeno de licuefacción estática instantánea de carácter súbito o explosivo al que seguirían varios fenómenos de falla regresiva, debido al alto grado de saturación de los materiales, que provocarían en flujo de material del depósito. La existencia de una gran laguna de decantación (Fig. 2) y las evidentes huellas de salida de material húmedo (Fig. 4) parecer corroborar este hecho. Caracterizar la naturaleza constructiva, el mecanismo de rotura y las posibles causas del desastre ha resultado de gran

Figura 13. Comparación entre las superficies de vertido. Las superficies de las que se dispuso para realizar el vertido en el recrecimiento lateral resultaron muy reducidas en comparación con la superficie de vertido disponible para el depósito principal Fuente: fotografías aéreas del vuelo americano, año 1957.

clave a la hora de prevenir desastres en depósitos similares a “La Luciana”. De acuerdo a las conclusiones del presente estudio la integridad de este tipo de depósitos queda claramente condicionada por su naturaleza estratificada, el grado de saturación de los materiales constitutivos del depósito y la competencia de los materiales que actúan de base a los mismos. Agradecimientos A la Biblioteca de la Escuela Técnica Superior de Ingeniería de Mina de Torrelavega el acceso a la información sin la que no habría sido posible la redacción de este artículo. A los revisores anónimos del trabajo. Referencias [1] [2]

197

Berzal, J.L., Presas de residuos mineros. Revista de Obras Públicas. 123 (3131), pp. 301-333, 1976. Bolton, M.D. and Gui, M.W., The study of relative density and boundary effects of cone penetration tests in centrifuge. University of Cambridge, Department of Engineering, Cambridge, United Kingdom, 1993, CUED/D-SOILS/TR256


Fernández-Naranjo et al / DYNA 82 (189), pp. 189-198. February, 2015. [3] [4]

[5] [6]

[7]

[8]

[9] [10] [11] [12] [13]

Davies, M.P., McRoberts, E. and Martin, T., Static liquefaction of tailings: fundamentals and case histories. Proceedings Tailings Dams ASDSO/USCOLD, pp. 233-255, 2002. Fourie, A.B., Blight, G E. and Papageorgiou, G., Static liquefaction as a possible explanation for the Merriespruit tailings dam failure. Canadian Geotechnical Journal. 38 (4), pp. 707-719, 2001. http://dx.doi.org/10.1139/t02-079 Ishikara, K., Liquefaction and flow failure during earthquakes. Geotechnique. 43 (3), pp. 351-415, 1993. http://dx.doi.org/10.1680/geot.1993.43.3.351 Olson, S.M. and Stark, T.D., Yield strength ratio and liquefaction analysis of Slopes and embankments. Journal of Geotechnical and Geoenvironmental Engineering. 129 (8), pp. 727-737, 2003. http://dx.doi.org/10.1061/(ASCE)1090-0241(2003)129:8(727) Reyna, F.A.M., Field investigation and liquefaction potential in the Imperial Valley: Application of the California data, including data from the Loma Prieta earthquake in 1989. PhD. Thesis. Purdue University, West Lafayette, Indiana, USA, 1990. Robertson, P.K., Evaluation of flow liquefaction and liquefied strength using the Cone Penetration Test. Journal of Geotechnical and Geoenviromental Engineering. 136 (6), pp. 842-853, 2010. http://dx.doi.org/10.1061/(ASCE)GT.1943-5606.0000286 Rydelek, P.A. and Tuttle, M., Explosive craters and soil liquefaction. Nature. 427, pp. 115-116, 2004. http://dx.doi.org/ 10.1038/427115a Sanders, L.L., A manual of field hydrogeology. London: Prentice Hall International, 1998. Saiz, J.R., Torre la Vega siglo XX. 1950-1962: Crónica ilustrada de una ciudad. Tomo III. Santander: Ediciones Los Cántabros, 2008. pp. 251-262. Smith, E.S., Tailings disposal and liquefaction. Transactions Society of Mining Engineers (AIME). 244, pp. 179-187, 1969. Vick, S.G., Planning, design, and analysis of tailings dams. Richmond B.C: BiTech Publishers Ltd., 1990.

Permanent Scientist at the Geological Survey of Spain (IGME). He has developed his professional activities in areas such as environmental rehabilitation of mining sites; inventory and environmental characterization of dumps, quarries, and open-cast mines, assessment of the environmental risks of abandoned mines and studies of soil characterization in mining sites. L. Vadillo, received the Bs. in Mining Engineer, in 1984 from the Escuela Técnica Superior de Ingenieros de Minas de Madrid, Spain, specialized in Geology and Geophysics. Currently, he is Head of Division Energy Resources and Sustainable Mining of the Geological Service of Spain (IGME) with the specialization in the Mining and Environmental Impacts.

F.J. Fernández-Naranjo, received the Bs. in Geology with a specialization in Hydrogeology, Engineering & Environment, in 2000 from the Universidad Complutense de Madrid, Spain and the MSc. in Mineral Resources Engineering, in 2005 from the Universidad Politécnica de Madrid, Spain. He has worked in mining for fifteen years, ten of them in the field of mining safety. Currently he is developing is work in the Spanish Geological Service (IGME), focused in the security aspects of tailings dams. V. Rodriguez, received the Bs. in Environmental Sciences, in 2001 and a MSc. degree in Waste Management and Treatment, in 2003 from Autonomous University of Madrid, Spain. She has worked for more than nine years in environmental footprint of mining activities on the aquatic ecosystem and environmental impact assessment of energetic resources. Currently, she is working in the Spanish Geological Service (IGME), focused in environmental footprint of mining waste and environmental risk assessment. R. Rodriguez, achieved his the Bs. in Geological Engineer, in 1989 from the Instituto Superior Minero Metalúrgico, Moa, Holguín, Cuba. He has a specialization in Hydrogeology, obtained in 1997 from Fundación Centro Internacional de Hidrogeología Subterránea, Barcelona, Spain. In 2002, he got his PhD in Geology from the Universidad Politécnica de Cataluña, Spain. Currently, he is a full researcher in the Geological Service of Spain (IGME) with the specialization in the management of tailings dams and hydrogeology in mine areas. M.E. Alberruche, is graduate in Geography and History, Geography section, in 1987 from the Universidad Complutense de Madrid, Spain and achieved the MSc. in Geological and Environmental Engineering in 1991 from the Universidad Politécnica de Madrid, Spain. She is Specialist Upper Level Technician of the Geological Service of Spain (IGME), working in environmental impacts of mining activities and risk assessment of mining waste facilities, with more of twenty years of experience in this field. J.C. Arranz, is PhD. in Agronomic Engineering and Environmental Engineering Specialist from the Universidad Politécnica de Madrid, Spain. 198

Área Curricular de Ingeniería Geológica e Ingeniería de Minas y Metalurgia

Oferta de Posgrados

Especialización en Materiales y Procesos Maestría en Ingeniería - Materiales y Procesos Maestría en Ingeniería - Recursos Minerales Doctorado en Ingeniería - Ciencia y Tecnología de Materiales Mayor información:

E-mail: acgeomin_med@unal.edu.co Teléfono: (57-4) 425 53 68


Stochastic mathematical model for vehicle routing problem in collecting perishable products Elsa Cristina Gonzalez-L. a, Wilson Adarme-Jaimes b & Javier Arturo Orjuela-Castro c a

Facultad de Ingeniería, Universidad Católica de Colombia, Bogotá, Colombia. ecgonzalez@ucatolica.edu.co b Facultad de Ingeniería, Universidad Nacional de Colombia, Bogotá, Colombia. wajaimes@unal.edu.co c Facultad de Ingeniería, Universidad Distrital Francisco José de Caldas, Bogotá, Colombia. jaorjuelac@unal.edu.co Received: May 28th, 2014. Received in revised form: August 25th, 2014. Accepted: December 5th, 2014.

Abstract In this paper a model for the vehicle routing problem with stochastic components of demand, service time and delivery time for perishable products is presented. The purpose of the paper is to present an alternative to the problem of collecting the flower industry, using a model that reflects the stochastic behavior in collecting flowers, required by companies in Colombia. The model incorporates three stochastic components and a restriction not reported earlier by other authors. The solution method includes clusters for collection points, route design, allocation to truck routes, Monte Carlo simulation and a regression model to obtain the equation of the total system cost and optimal point of replenishment. Keywords: Stochastic-VRP, Logistics, Perishables, Flowers, Clustering, Montecarlo Simulation, Costs.

Modelo matemático estocástico para el problema de ruteo de vehículos en la recolección de productos perecederos Resumen En este artículo se presenta un modelo para el problema de ruteo de vehículos con componentes estocásticos en demanda, tiempos de entrega y servicios para productos perecederos. El propósito del trabajo es presentar una alternativa al problema de recogida del sector floricultor, mediante un modelo que refleja el comportamiento estocástico en el suministro de las flores, requeridas por las empresas productoras de ramos, en Colombia. El modelo incorpora tres componentes estocásticos a la función objetivo y una restricción no reportada antes en la literatura. El método de solución incluye la clusterización de puntos de recolección, diseño de rutas, asignación de camiones a rutas, simulación de Montecarlo y un modelo de regresión para la obtención de la ecuación del costo total del sistema y el punto óptimo de reabastecimiento. Palabras clave: VRP estocástico, Logística, Productos perecederos, Flores, Clusterización, Simulación Montecarlo, Costos.

1. Introducción Colombia es el principal exportadora de flores a EEUU, para el 2013 exportó 960,7 millones de U.S (ASOCOLFLORES). El principal departamento de producción es Cundinamarca con el 80%. La producción de flores en Colombia es estacional, obedece a factores climáticos, por lo tanto conseguir cierto tipo de colores o especies en determinados meses de año no es fácil. La demanda depende de la festividad asociada a la temporada del año, tales como el día de San Valentín, Madres, día de la Independencia, entre otros. De la misma manera, la composición de especie floral de color y de número de

tallos por bouquet (ramo) varía de acuerdo con diferentes tendencias de la moda, por su variabilidad, con implicaciones en la planeación y programación de las actividades de producción. 2. Revisión de la literatura 2.1. Problema VRP para Perecederos Los componentes aleatorios, ya sea con un sólo vehículo o con varios, es tardío y podría ubicarse hacia 1969 donde Tilman modela la entrega de combustible en varias estaciones de servicio y adiciona una demanda desconocida.

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 199-206. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.48549


Gonzalez-L. et al / DYNA 82 (189), pp. 199-206. February, 2015.

En [3] se plantea una estructura con componentes estocásticos que denomina SVRP (Stochastic Vehicle Routing Problem), en 1985 desarrolla las heurísticas denominadas Jezéquel VRPSC (Vehicle Routing Problem Stochastics Consumers) y Jaillet VRPSDC (Vehicle Routing Problem Stochastics Demand and Consumers), que modelan puntos de entrega y/o demandas aleatorias. Los trabajos de [1] resuelve un VRPSD con programación de recursos y en 1994, un VRPSTT (Vehicle Routing Problem Stochstics Time Travel) mediante un algoritmo de ramificación [2]. [3] Resuelven un VRPSDC con búsqueda Tabú. En años recientes aparecen los trabajos de Groër para un modelo VRPSC en 2009, [4] solucionan un problema de ruteo con demandas estocásticas y restricciones de duración de ruta VRPSD-DC (Vehicle Routing Problem with Stochastic Demand and Duration Constraints), proponiendo una búsqueda tabú [5]. En el ruteo de productos perecederos se encuentran trabajos que modelan un VRP considerando las condiciones de temperatura o daño a los productos debido a las operaciones de distribución y transporte. [6] un ruteo con ventanas de tiempo y aleatoriedad en la entrega de productos comestibles plantean un SVRPTW (Stochastic Vehicle Routing Problem) para obtener rutas, carga y tiempos de despacho óptimos desde un centro de distribución teniendo en cuenta la dependencia entre el tiempo de viaje y la variación de la temperatura, enriqueciendo así el problema tradicional del VRP. El trabajo de [7] hace énfasis en la pérdida de valor de los productos durante el proceso de distribución, proponen una función multi-objetivo que minimiza el costo y maximiza la frescura. [8] proponen un VRPTWTD (Vehicle Routing Problem with time Windows and time-dependat travel times), donde los tiempos de viaje entre dos nodos depende de las distancia, del día y la hora. El modelo considera el impacto de la perecebilidad como parte de todo el costo de distribución y se resuelve mediante una heurística de búsqueda Tabú, reportando mejoras hasta de un 47% de reducción de bienes deteriorados. [9] desarrollan un modelo matemático no lineal para ruteo y programación de rutas para alimento perecederos, combinando las ventanas de tiempo (VRPTW) con demandas aleatorias de los puntos de entrega (minoristas), se encuentran soluciones mediante una algoritmo propuesto por los autores (Nelder-Mead) con el fin de reducir la complejidad de cálculo del modelo. 2.2. Modelo matemático y metodología de solución Los diferentes autores consultados han formulado dos enfoques de modelamiento para el problema de ruteo estocástico [5] y [10]. Un enfoque (I) de re-optimización en tiempo real, donde las rutas se van rediseñando a medida que se va obteniendo información que permite conocer los parámetros inciertos; en este enfoque la estrategia de rediseño de las rutas es tramo a tramo, de acuerdo con la información recibida. Un método de solución usado y que responde a éste enfoque es el uso de la Programación dinámica [11]. El segundo enfoque (II) diseña una “Ruta a Priori”. La solución puede generarse con anticipación (etapa 1), la cual es contrastada con posibles valores presentados

Metodología Diagnóstico situación actual Diseño de la Investigación Hipótesis y Variables Instrumentos de recolección datos Validación de instrumentos Análisis de datos Cualitativos

Cuantitativos

Figura 1 Fases Metodológicas para ésa investigación Fuente: Hurtado de Barrera, 2000. [15]

por los parámetros aleatorios (etapa 2). Los métodos encontrados de solución son: La programación estocástica restringida, propuesta por [12], la programación estocástica de doble etapa propuesta por Madansky con funciones de recursos [13] y la optimización robusta [10]. En este trabajo se aborda el enfoque II de modelamiento, al clusterizar puntos de recolección por cercanía geográfica, asignar vehículos a rutas y generar rutas pre-diseñadas, las cuales se ven modificadas a medida que los parámetros inciertos se van conociendo. 3. Métodos La investigación establece las causas y correlaciones de los eventos a estudiar y además plantea una posible solución, a éste tipo de estudios se denominan explicativos[14]. Además, se genera una propuesta factible [15]. Las fases metodológicas se resumen la Fig. 1. Cada procedimiento utilizado desde la Investigación de operaciones y desde la estadística tiene sustento epistemológico, que trasciende la practicidad y el nivel de utilidad meramente técnico[16]. Con respecto al análisis de datos, se trataron las distancias, tiempos de recorrido, tiempos de espera en el nodo de salida, tiempos de espera en el nodo de llegada, tiempos de servicio (carga/descarga), cantidad recogida en fincas (en tallos), la presencia / ausencia de oferta en fincas, capacidad de los vehículos y costos de operación de transporte, los cuales fueron tomados durante los años de 2012-2013, en una industria productora de ramos de flores, en la sabana de Bogotá Colombia, exporta a EEUU. Los datos se procesaron mediante los software STATFIF® y EXCEL (solver) ®. Para el cálculo de las distancias se encontraron las coordenadas geográficas de cada municipio productor, para lo cual se utilizó Pixelis Map[17], aplicación web que obtiene la ubicación de un lugar mediante Google Maps. Dicho aplicativo aporta las coordenadas geográficas (latitud y longitud), además de las Coordenadas UTM-WGS84, de los sistemas de geo posicionamiento satelital (G.P.S.) y el mismo, las convierte en Coordenadas rectangulares X, Y, a partir de las cuales se calcularon las distancias euclidianas. 4. Modelamiento matemático y propuesta de solución 4.1. Planteamiento matemático Bajo las condiciones encontradas en el sector floricultor colombiano, en lo que respecta al problema de recogida de

200


Gonzalez-L. et al / DYNA 82 (189), pp. 199-206. February, 2015.

flores en la Sabana de Bogotá, se realizó la formulación del modelo específico. Para facilitar la comprensión del mismo, se desarrolla la notación utilizada. ,

: : : :

,…,

: ,

:

,

∈ , :

: :

´

:

´´

:

: : : : : : : ´

:

´´

: : : :

: :

Grafo Nodo, vértice o finca donde se recoge flor Bouquetera (Depósito) Conjunto de nodos (vértices), representan los proveedores (fincas) Conjunto de arcos, representan los trayectos desde el nodo hasta el nodo donde

: : : : :

Variable de decisión binaria que toma el valor de: 1 si se utiliza el arco que va desde i hasta j utilizando el camión k para la ruta; 0 en caso contrario Tamaño de la flota -Número de vehículos de capacidad Función esperada de recursos para cantidad de tallos a recoger en una etapa II de modelamiento, en el arco x. Función esperada de recursos para aparición de nodos en una etapa II de modelamiento en arco x. Función esperada de recursos para tiempos de recorrido y servicio en una etapa II de modelamiento en el arco x. Matriz de costo (distancias), simétrica con Costo (distancia) de ir desde el nodo i hasta el j Oferta de tallos asociada con cada proveedor Matriz de tiempos de recorridos desde i hasta j, simétrica con Capacidad del k-ésimo camión Tiempo de recorrido desde i hasta j Tiempos de servicio (cargadescarga) asociados a cada Tiempo de espera (fila) al ingreso del camión al nodo i Tiempo de espera (fila) a la salida del camión hacia el nodo j Valor esperado Longitud de ruta asociada al vehículo k Tiempo total (cota máxima) diario

: :

:

:

:

:

: : Ω

: : :

201

1,2, … ∞

:

1,2, … , n

:

1,2, … ,

:

1,2, … ,

:

Hora en que comienza el servicio en el nodo i cuando llega el vehículo k Hora en que comienza el servicio en el nodo j cuando llega el vehículo k Hora en que comienza el servicio en el nodo 1 cuando sale el vehículo k Hora más temprana para salir del nodo 1 Hora más temprana para servir en el nodo i Hora límite para servir al nodo i Hora límite para descargar en el nodo 1 r-ésima ruta factible representada como un vector V r Vector aleatorio que contiene todos los posibles valores de la cantidad de tallos recogidos en cada nodo. Vector aleatorio que contiene todos los posibles valores de las variables aleatorias Bernoulli asociadas a la oferta Vector aleatorio que contiene todos los posibles valores del tiempo de espera al ingreso en el nodo i en un subconjunto S Vector aleatorio que contiene todos los posibles valores del tiempo de espera a la salida del nodo i en un subconjunto S Vector aleatorio que contiene todos los posibles valores de los tiempos de recorrido desde i hasta j Vector aleatorio que contiene todos los posibles valores de los tiempos de servicio en el nodo i Vector transpuesto aleatorio para cada escenario Conjunto de todos los posibles escenarios asociados con la presencia para todos los nodos Elementos de un escenario Valores presentados por la Variable aleatoria tallos dentro de un subconjunto S de r Índice que denota la l-ésima falla de ruta Índice que denota la r-ésima ruta factible Índice que denota el i-ésimo nodo salida Índice que denota el j-ésimo


Gonzalez-L. et al / DYNA 82 (189), pp. 199-206. February, 2015.

1,2, … ,

: : : :

restricciones de cantidad y capacidad de cada vehículo. Las ecuaciones (7), (8) y (9) se relacionan con los tiempos de entrega y los horarios de los depósitos.

nodo llegada Índice que denota el k-ésimo vehículo Partición del conjunto V Distancia que se reduce por no visitar algunos nodos Probabilidad de presencia de un nodo

4.2. Método de solución La metodología propuesta consiste en desarrollar una secuencia de procedimientos de solución, que disminuyen gradualmente la complejidad.

El modelo se presenta a continuación:

4.2.1. Etapa I. Clusterización de nodos (Fincas)

Función Objetivo

El método inicia con la elección de variables a clusterizar, en éste caso, el costo (distancias) entre la empresa y los oferentes. Una vez se ha determinado la distancia, se procede a elegir la medida de asociación, de tal manera que los nodos elegidos conserven la menor distancia entre ellos, se utilizó la distancia Euclidiana. La técnica Clúster utilizada fue el Método Linkage simple aglomerativo [25].

∑∈ ∑

´

´´ (1)

Sujeto a: ∑

1 ∀ ∈

∑∈ ∑

∑∈

∑∈

0 ∀ ∈ ,

∑∈

(2)

1 ∀ ∈

(4)

∀ ∈

(5)

∀ ∈ ∧ ∀ ∈ 0 ∀ , ∈ ∧ ∀ ∈ ∀ ∈ ∑∈

∑∈ ∑∈ ∑, ∈

∑∈

(3)

´

∑∈

4.2.2. Etapa II. Diseño de las rutas Inicialmente, el problema es un VRP, con un alto grado de complejidad debido a la cantidad de variables aleatorias. El problema se subdividió en cinco sub problemas, de acuerdo con un análisis clúster realizado. Cada problema se convierte en un TSP. Se modela como un modelo de programación entera [26].

(6) (7)

4.2.3. Etapa III. Asignación de camiones a rutas

(8) ´´

∈ 0,1 ∀ ∈ , ∈ ,

En ésta etapa se asigna un camión a cada uno de los clúster, de acuerdo con la distancia total a recorrer en cada ruta diseñada en la Etapa II y el promedio de tallos recogidos en las fincas 27 . Para el cálculo de la función objetivo, se multiplicó la distancia por un indicador expresado como el cociente del promedio diario de cada clúster, entre la capacidad de camión, representando así el número de veces que el camión debería hacer la ruta si la demanda fuera constante y conocida. Para resolver la asignación, se utilizó Solver de Excel®.

(9) ∈

(10) (11)

Funciones de recursos: 2∑

∑ (12)

´

´

´´

, , ,

,

4.2.4. Etapa IV. Simulación de Montecarlo

(13) ´´ , , , ,

(14)

El modelo que incorpora las formulaciones propuestas por [18][19][4][20], [5] [21] [22] [23] [11] [19] [4], [20] [5] [22][1] [2][24]. La función objetivo (1) integra el problema de ruteo de vehículos donde se minimiza el costo (distancia) y tres funciones de recursos (12-14). La función (12) modela la aleatoriedad de la demanda, la aleatoriedad de los puntos de entrega (13) y la aleatoriedad de los tiempos de entrega y de servicio (14). (2), (3) y (4) son restricciones propias de los problemas de ruteo, garantizan que el vehículo salga del depósito y vuelva al mismo, que solo visite cada punto de recolección una sola vez. Las ecuaciones (5) y (6) son

Se simularon tres escenarios (políticas). En la llamada “Política 1” el camión sale del nodo 1, debe dirigirse al nodo 2, antes de seguir recogiendo, conoce cierta información y toma la decisión de si debe continuar con la ruta o no. La decisión se basa en la capacidad del camión y en la ventana de tiempo: Si le queda espacio para recoger la carga completa sigue (no se permiten cargas divididas), si no, se devuelve al depósito y descarga, retomando la ruta en el nodo siguiente al cual se devolvió. El camión puede tener capacidad pero debe calcular el tiempo que le tomaría ir al siguiente nodo o devolverse al depósito para cumplir con la llegada antes del cierre del depósito. El segundo escenario fue llamado “política 2”, la cual siempre permite recoger hasta copar la capacidad del camión. La decisión consiste en: Si hay capacidad restante

202


Gonzalez-L. et al / DYNA 82 (189), pp. 199-206. February, 2015.

y si la ventana de tiempo no se rompe, ir al siguiente nodo, recoger (se permite particionar carga) volver al depósito, descargar y retomar ruta en el nodo en el que ocurrió la “falla de ruta”. El algoritmo para la simulación de Montecarlo, permite cargas particionadas y devolviéndose al depósito a descargar. El tercer escenario, denominado “política 3”, realiza la simulación con diferentes capacidades del vehículo, es decir, al llegar a un porcentaje de la capacidad, el conductor se devuelve al depósito, descarga y retoma la ruta en el nodo en el que quedó. También, como en el modelo anterior, se permiten cargas particionadas. Esto con el fin de encontrar un “punto de reabastecimiento”, se simula desde un 95% hasta un 50% de capacidad copada del camión. Menos del 50% no considera el trabajo, puesto que no sería rentable operar un camión por debajo de esa capacidad. El algoritmo para la simulación de Montecarlo, permite cargas particionadas y con un “punto de reabastecimiento” basado en la capacidad restante del camión. 4.2.5. Validación, verificación y acreditación del modelo de Simulación Se realizó la validación del modelo, la verificación y la acreditación, utilizando los conceptos de Guasch A. [28], quien a su vez, presenta y resume los trabajos de Balci [29] [30] [31][32], Sargent[33], Arthur [34], Law y Kelton [35]. 4.2.6. Etapa V. Modelo de regresión En ésta sección, se toman las salidas de la simulación y se les realiza el respectivo análisis de salida, incluido un análisis de regresión lineal con el fin de obtener una función de costo a optimizar, sujeta a un sistema de ecuación restrictivas de distancia, tiempo y cantidades. La notación de las ecuaciones de costo: : Costo diario : Distancia : Tiempo total : Cantidad Restante : Cantidad acumulada : Punto de reabastecimiento (%)

La ecuación de costo diario es , , , , . Por su parte la ecuación de cantidad acumulada es , . la ecuación de distancia , la ecuación de tiempo total . la cantidad restante , y la ecuación punto de reabastecimiento , 5. Resultados Se realizaron 160 corridas para cada uno de los cinco clúster. La variable de respuesta fue el costo total de la operación, el cual está compuesto por: Salario (tiempo del operario), costo de oportunidad (cantidad no recogida) y costo por distancia (asociada a la operación del camión). Fue necesario encontrar el grado de correlación entre las variables de entrada y de salida, ya que el algoritmo de simulación se programó con base en el supuesto que el costo total diario de operación era la suma de esos tres factores y que cada uno de ellos es una función lineal. Para el costo por salario, se supuso el costo como función lineal del tiempo total del operario. El costo de oportunidad es una función lineal de la cantidad no recogida en el camión, la cual a su vez está restringida por la capacidad del camión. El costo por distancia es una función lineal de la operación del camión, la cual depende del número de kilómetros recorridos diariamente. Se obtuvieron los costos para todos los Cluster, Se presenta en la Tabla 1 las salidas del modelo para el Cluster 1. En esta parte de la investigación el objetivo fue encontrar una función (costo diario) a optimizar (minimizar), sujeta a la restricción de capacidad del camión; se determina la cantidad acumulada, la cantidad restante y el punto de reabastecimiento (expresado como una fracción de la cantidad acumulada con respecto a la capacidad); así como también la distancia y el tiempo total de operación diario. El modelo obtenido se expresa a continuación: Función Objetivo 0,349

107927,587 1036,442 0,563 29053,998

2388,042 (1)

Sujeto a: (Cantidad acumulada) , ,

(2)

Tabla 1 Salidas del modelo para el clúster 1

P. 1 P.2 PR 95% PR 90% PR 85% PR 80% PR 75% PR 70% PR 65% PR 60% PR 55% PR 50%

No. Días simulados

Cantidad a Recoger

370 370 366 366 366 366 366 366 366 366 366 366

5033 8537 6448 6510 7037 6433 6597 6583 6647 6518 6428 6222

Q Acumulada Camión 22855 27732 25009 24094 23745 22017 21329 20297 19465 18227 17033 15898

Q restante camión

Tiempo total

Distancia Acumulada

12145 7268 9991 10906 11255 12983 13671 14703 15535 16773 17967 19102

1,6 1,6 1,6 1,6 1,6 1,6 1,6 1,6 1,6 1,6 1,5 1,5

37,1 36,0 37,6 36,9 35,1 34,1 34,7 35,7 34,4 33,9 35,3 34,0

Fuente: Elaboración propia 203

Costo por Tiempo (salario) 73068 75026 74397 75159 70873 72032 71242 74983 72615 72809 76561 76604

Costo de oportunidad camión (Q) 10328 6217 8679 9241 9076 10348 11151 12384 12701 13714 15323 15875

Costo por Distancia

Costo total

38035 36853 38481 37685 35836 34974 35891 36581 35253 34713 36186 34810

121431 118096 121558 122085 115785 117353 118284 123948 120569 121236 128069 127289


Gonzalez-L. et al / DYNA 82 (189), pp. 134-141. February, 2015.

(Distancia) ,

,

(Tiempo total) ,

(3)

,

(4)

(Cantidad Restante) ,

,

,

(Punto reabastecimiento) , ,

(5)

,

(6)

Las siguientes restricciones se adicionaron de acuerdo con el comportamiento del sistema real: (Ventana de Tiempo de operación del sistema) (7) (Distancia mínima y máxima de Clúster) (8) (Valores mínimos reabastecimiento)

y

máximo

de

punto

,

de

(9)

(Restricciones de no negatividad) , ,

,

,

,

(10)

Se utilizó Solver de Excel® para encontrar una solución óptima. Los resultados se resumen en la Tabla 2. La Tabla 3 presenta un comparativo de la situación actual con los resultados obtenidos a partir de la simulación (propuesta). En la primera columna está el nombre de la Tabla 2 Resultados optimización salidas simulación Costo Diario Distancia $ 120.590 40 Fuente: Elaboración propia

Tiempo total

Cantidad Recogida (Tallos) Costo Diario de operación (Pesos colombianos) Fuente: Elaboración propia

Cantidad restante 6666

9,749

Tabla 3 Comparativo de indicadores de desempeño del sistema Actual Variable Desv. Media Estand. 113,00 21,88 Distancia (Km) Tiempo por punto de recolección 1,07 1,42 (Horas)

variable que se está comparando. La columna (Actual), presenta los promedios y las desviaciones estándar de la empresa. La columna tres presenta promedios y desviaciones estándar pero de la propuesta, obtenidos a partir de la simulación, en la siguiente columna se incluyen los indicadores de comparación y el porcentaje de variación. Una vez obtenidos los valores, se corrieron pruebas de diferencia de medias para establecer si efectivamente a un nivel de significancia del 5% existe la suficiente evidencia estadística para afirmar si la media del sistema actual es diferente a la media de la propuesta, todas son diferentes a excepción del tiempo por punto de recolección. Observando los promedios en sus valores absolutos, se observa que la distancia recorrida por camión en la forma actual de programación en la empresa es de 113 Km, mientras que en la propuesta es de 62,08, lo cual implica que los camiones se estarían utilizando menos con el nuevo método. En cuanto al tiempo de operación por punto de recolección, es mayor el de la propuesta que el actual, lo cual podría explicarse porque los camiones estarían más ocupados recogiendo flores que en viajes de ida y retorno hacia el depósito. En cuanto a la cantidad recogida en tallos, se observa que es mucho más eficiente el sistema propuesto por cuando casi se duplica la cantidad recogida (17.999 vs 8.732 del método actual). A partir de la obtención de la ecuación general de costo diario de operación y de las demás restricciones del sistema, mediante el análisis de regresión lineal multivariado y posterior optimización del mismo a través del planteamiento y resolución de un modelo de programación lineal, se establece que el punto óptimo de reabastecimiento es del 76% de la capacidad de carga de los camiones. Éste valor garantiza un costo mínimo ($120.590) y el cumplimiento de las restricciones de tiempo (9,75 horas diarias como máximo) de operación, distancia mayor a 40 Km, capacidad restante en el camión superior a 6.666 tallos y cantidad acumulada cercana a 25.185 tallos.

Propuesta

Cantidad acumulada

Punto de reabastecimiento

25185

0,76

Indicadores

Media 62,08

Desv. Estándar 21,49

1,71

0,15

18.638

Actual 77

8.732

12.863

17.999

4.286

1.364

119.321

21.448

148.586

24.273

13,66

204

Unidades

%

Efecto

290 Tallos/Km $/hora de 14.482 operación Tallos 1.754 /hora

73

Incremento

-29

Disminución

22

Incremento

-6

Disminución

Propuesta

8,26 $/Tallo


Gonzalez-L. et al / DYNA 82 (189), pp. 134-141. February, 2015.

6. Discusión Mediante las etapas de clusterización y diseño de rutas, se logra simplificar el problema al reducir un problema complejo a cinco sub-problemas de más fácil manejo y resolución. La asignación de rutas a camiones bajo un criterio de maximizar la utilización de la capacidad de los camiones, en vez de minimizar la distancia, podría ser una manera alternativa de resolución del problema. El algoritmo de simulación de Montecarlo facilita la resolución del problema con múltiples variables estocásticas, aunque requiere una alta capacidad de procesamiento del equipo en el que se realiza. Al levantar datos y hacer el respectivo tratamiento estadístico de entrada se pueden corroborar los supuestos de entrada: Las demandas, la presencia/ausencia de fincas, los tiempos de recorrido y de servicios son aleatorias y se pueden representar mediante un modelo matemático, ya sea una función de densidad o una distribución de probabilidad. El costo de operación de recogida depende de la distancia recorrida, la cantidad de nodos (fincas) visitados, el tiempo de operación (tiempo de viaje + tiempos de carga + tiempo descarga + esperas por documentos y otros trámites) y la cantidad transportada. Las condiciones de operación propias de cada sistema productivo se convierten en restricciones del modelo; los horarios de inicio y culminación de servicio, los turnos de trabajo de los conductores, los horarios de la planta son ventanas de tiempo; todo lo anterior condiciona y complejiza el sistema. En cuanto al comportamiento de las variables, se pudo determinar que la demanda no podía ser incluida en la ecuación final de costo, se hace necesario pronosticarla mediante otro tipo de técnicas que no son objeto de éste trabajo. El análisis de regresión multivariado permite generar un sistema de ecuaciones a optimizar, dando así respuesta al problema planteado inicialmente acerca de cuál sería el porcentaje de carga del camión a alcanzar, de tal manera que sea económico retornar a descargar. El análisis de regresión multivariado permitió generar una ecuación de costo diario de operación que depende de las variables distancia, tiempo, cantidad acumulada en el camión, cantidad restante (capacidad sobrante del camión) y punto de reabastecimiento. El modelo generado presenta un coeficiente de correlación del 99,8% el cual indica una alta medida de asociación lineal positiva entre las variables, y un coeficiente de determinación de 99,5%; es decir, en éste porcentaje las variaciones de costo son explicadas por variaciones de las variables independientes.

encontraron propuestas donde todos los tres aspectos mencionados fueran tratados en una misma formulación, posiblemente debido a la complejidad de la misma. El planteamiento de modelos para éste tipo de sistemas, donde la mayoría de las variables son estocásticas, es complejo; puesto que los niveles de variabilidad y la alta correlación entre los parámetros, no permiten el planteamiento de soluciones mediante métodos convencionales. Se hace necesario reducir el grado de dificultad de la solución mediante fases, las cuales combinan diferentes técnicas estadísticas y de optimización. El modelo planteado con tres elementos estocásticos en la función objetivo y la restricción, mostro ser una solución a este tipo de problemas. Así mismo, el punto de reabastecimiento, expresado como una fracción que relaciona la cantidad acumulada en el camión y su capacidad, presenta gran incidencia en el valor de salida del costo, puesto que a medida que la cantidad acumulada se incrementa, el costo de oportunidad Las empresas del sector floricultor presentan dificultades en cuanto a la gestión de la demanda. Los mercados internacionales son exigentes y cambiantes. Las flores son un producto que depende de la moda, por tal razón las combinaciones de colores, estilos y tipos de flores varían por temporadas. La producción de flores es estacional, en todo el año no se cosechan las mismas variedades y esto dificulta la planeación y programación de la producción. La principal causa de afectación al flujo de material sucede al inicio del proceso por falta de materia prima (flor), situación que produce cambios de última hora en el pedido original del cliente, o incumplimientos en plazos de entrega; con el incremento de costos y pérdida de imagen que esto acarrea. En este contexto el modelo planteado permitió disminuir los costos de transporte y aumentar la eficiencia del sistema, de manera que su capacidad de respuesta es mayor que la metodología de recogida utilizada actualmente en la empresa. Esto conduce a la posible replica en otro tipo de empresas, donde se presente este problema de recogidas, siendo el caso de los productos de las empresas agroalimentarias y agroindustriales. Como trabajos futuros se espera realizar la validación del modelo a casos de distribución y empresas alimentarias con alta variabilidad de la oferta. Referencias [1]

Laporte, G., Louveaux, F. and Mercure, H., The vehicle routing problem with stochastic travel times, Transportation Sciencie, 26 (3), pp. 161-170, 1992.

[2]

Gendreau, M.L.G.S.R., A Tabu Search Heuristic for the Vehicle Routing Problem with Stochastic Demands and Customers, Operations Research, 44 (3), pp. 469-477, 1996.

[3]

Golden, B., Raghavan, S. and Wasil, E., The Vehicle Routing Problem: Latest Advances and New Challenges, 2008.

[4]

Erera, A.L., Morales, J.C. and Savelsbergh, M., The vehicle routing problem with stochastic demand and duration constraints, Atlanta, Georgia, 2010.

[5]

Gendreau, M., Memorias del 42° Investigación de Operaciones, 2010.

[6]

Hsu, C.-I., Hung, S.-F. y Li, H.-C., Vehicle routing problem with time-windows for perishable food delivery, Joutnal of Food

7. Conclusiones En el caso de los modelos estocásticos de VRP la complejidad se incrementa debido a la aleatoriedad de los parámetros y variables a estudiar. En los últimos años los modelos estocásticos han presentado un interés particular. Se han planteado y solucionado modelos con demandas estocásticas, también donde la presencia o ausencia de nodos es probabilística y los tiempos de viaje y /o de servicio son estocásticos. En la revisión efectuada no se

205

Simposio

Brasilero

de


Gonzalez-L. et al / DYNA 82 (189), pp. 199-206. February, 2015. Engineering, 80 (2), pp. 465-475, 2007. [7]

[8]

[9]

Amorim, P. and Almada-Lobo, B., The impact of food perishability issues in the vehicle routing problem, Computer & Industrial Engimeering, 67, pp. 223-233, 2014.

[31] Balci, O. and Orsmby, W.F., Proceedings of the winter simulation Conference, 2000. [32] Balci, O., Orsmby, W., Carr III, J. and Saadi, S., Proceedings ofr the winter simulation Conference SCS, 2000.

Osvald, A. and Zadnik-S.L., A vehicle routing algorith for the distribution of fresh vegetables and similar perishable food, Journal of Food Engineering, 85, pp. 285-295, 2008.

[33] Sargent, R., Winter simulation conference, 1999.

Chen, H.-K. and Chang, M.-S., Production schedulling and vehicle routing with windows time for perishable food products, Computers & Operations Research, 36, pp. 311-2319, 2009.

[35] Law, A. and Kelton, W., Mc Graw Hill, 2000.

[10] Bianchi, L., Birattari, M., Chiarand, M., Mastrolilli, M., Paquete, L., Rossi-Doria, O. and Schiavinotto, T., metaheuristics for the vehicle routing problem with stochastic demand. [11] Tan, K., Cheong, C. and Goh, C., Solving multiobjective vehicle routing problem with stochastic demand via evolutionary computation, European Journal of Operational Research, 177, p. 813-839, 2007. [12] Charnes, A. and Cooper, W., Chance-constrained programming, 1959, pp. 73-79. [13] Madansky, A., Methods of Solution of linear programs under uncertainty, 10, 1962, pp. 463-471. [14] Sampieri-H., R., Fernández-Collado, C. y Baptista-Lucio, P., Metodología de la Investigación, México, México DF: Mc Graw Hill, 2006. [15] Hurtado de Barrera, J., Metodología de la investigción holística, Tecera ed., Caracas: Fundación Sypal, 2000. [16] Guadarrama-G., P,. Dirección y asesoría de la investigación científica, Bogotá: Magisterio, 2009.

[34] Arthur, J. and Nance, R., Proceedingsor the winter simulation conference, SCS, 2000.

E.C. Gonzalez-L, es Ingeniera Industrial, MSc. en Ingeniería Industrial, de la Universidad Distrital Francisco José de Caldas, Bogotá, Colombia, es Docente e Investigadora Universidad Católica de Colombia, en las áreas de Investigación de Operaciones, Producción y Gestión de Proyectos. Actualmente es estudiante de Doctorado Universidad EAN, Colombia. W. Adarme-Jaimes, es Ingeniero Industrial de la Universidad Industrial de Santander, Colombia, MSc en Ingeniería Industrial, PhD en Ingeniería Industria y Organizaciones ambos de la Universidad Nacional de Colombia, es Docente investigador en Facultad de Ingeniería de la Universidad Nacionalde Colombia, sede Bogotá, Colombia, y Líder grupo SEPRO. J.A. Orjuela-Castro, es Ingeniero de Alimentos, Ingeniero Industrial y Esp. en Ingeniería de Producción de la Universidad Distrital Francisco José de Caldas, Colombia, MSc. en Investigación de Operaciones y Estadística de la Universidad Tecnológica de Pereira, Colombia, actualmente estudiante de Doctorado Universidad Nacional de Colombia, Docente investigador en Logística en la Facultad de Ingeniería de la Universidad Distrital, Colombia y Líder grupo GICALyT.

[17] Pixelis Maps, [on line]. [date of reference August 15th of 2012] Available: http://www.maps.pixelis.es/. [18] Hansonn, R. and Finnsgard, C., Impact of unit load size on in-plant materials supply efficiency, International Journal Production Economics, 147, pp. 46-52, 2014. [19] Christiansen, C. and Lysgaard, J., A column generation approach to the capacitated vehicle routing problem with stochastic demand, Dinamarca, 2006. [20] Laporte, G., Louveaux ,F.V. and Mercure, H., A priori optimization of the probabilistic traveling salesman problem, Operations Research, 42 (3), pp. 543-549, 1994. [21] Yepes-P.,V., Optimización heurística económica aplicada a las redes de transporte tipo VRPTW, Dr. Thesis.Valencia, Spain. 2002. [22] Hongtao, L., Laporte, G. and Guo, B., A generalized variable neighborhood search heuristic for the capacited vehicle routing problem with stochastic services times, Sociedad de Estadística e Investigación Operativa, 2011. [23] Rei, W., Gendreau, M. and Soriano, P., A hybrid Monte Carlo local branching algorithm for the single vehicle routing problem with stochastic demands, Transportation Science, 44 (1), pp. 136-146, Febrero 2010. [24] M.L.G., Gendreau, H.A., An approximation algorithm for the traveling salesman problem with backhauls, Operations Research, 45 (4), pp. 639-641, 1997. [25] Universidad de Granada, [En línea]. [fecha de consulta Agosto 15 de 2012]. Disponible en: http://ugr.es/˷bioestad/private/cpfund7.pdf. [26] Wiston, W.L., Investigación de Operaciones. Aplicaciones y Algoritmos., Cencage Learning, 2010. [27] Hillier, F. y Lieberman, G.J., Introducción a la Investigación de Operaciones, Mc Graw Hill, 2010. [28] Guasch, A., Piera, M.Á., Casanovas, J. y Figueras, J., Modelado y simulación. Aplicación a procesos logísticos de fabricación y servicios, 1a ed., Barcelona, Catalunya: Ediciones de la Universidad Politécnica de Catalunya, 2002, 358 P. [29] Balci, O. and Sargent, R., Simulatter, 1984. [30] Balci, O. and Sargent, R., Communications of ACM, 1981. 206

Área Curricular de Ingeniería Administrativa e Ingeniería Industrial Oferta de Posgrados

Especialización en Gestión Empresarial Especialización en Ingeniería Financiera Maestría en Ingeniería Administrativa Maestría en Ingeniería Industrial Doctorado en Ingeniería - Industria y Organizaciones Mayor información: E-mail: acia_med@unal.edu.co Teléfono: (57-4) 425 52 02


Environmental performance evaluation under a green supply chain approach William Ariel Sarache-Castro a, Yasel José Costa-Salas b & Jhully Paulin Martínez-Giraldo a a

Universidad Nacional de Colombia, Manizales, Colombia. wasarachec@unal.edu.co; jpmartinezg@unal.edu.co b Facultad de Economía, Universidad de Manizales, Manizales, Colombia. yasel.costa@umnizales.edu.co Received: May 28th, 2014. Received in revised form: August 25th, 2014. Accepted: December 5th, 2014.

Abstract Among the environmental management approaches, the concept of Green Supply Chain Management (GSCM) has become one of the most important in recent years. The GSCM approach addresses all processes and activities that make up the supply chain echelons (procurement, manufacturing and delivery), also including design, purchasing, marketing and reverse logistics. Although the literature review identified the existence of a variety of environmental performance indicators framed the Pressure-State-Response approach, indicators applied under the GSCM approach were not found. Therefore, this paper presents a methodology for the construction of a multicriteria indicator to measure the environmental performance under the GSCM approach, based on 8 processes and 32 activities identified from the literature review. The indicator was applied in a group of 14 companies in the coffee region of Colombia. The results indicate a heterogeneous performance among the companies and a significant lag in some of the analyzed processes. Keywords: green supply chain management; environmental performance; manufacturing companies.

Evaluación del desempeño ambiental bajo enfoque de cadena de abastecimiento verde Resumen Entre los enfoques existentes de gestión ambiental, la gestión de cadenas de abastecimiento verde (Green Supply Chain Management, GSCM), se ha convertido en uno de los más relevantes en los últimos años. El enfoque GSCM aborda todos los procesos y actividades que componen la cadena de abastecimiento en los eslabones de aprovisionamiento, manufactura y entregas, incluyendo también el diseño, las compras, el marketing y la logística inversa. Aunque la revisión bibliográfica permitió identificar la existencia de una gran variedad de indicadores de desempeño ambiental que se enmarcan en el enfoque Presión-Estado-Respuesta, no se encontraron indicadores aplicados bajo un enfoque GSCM. Por tanto, el presente artículo expone una metodología para la construcción de un indicador de corte multicriterio que permite evaluar el desempeño ambiental desde el enfoque GSCM, con base en 8 procesos y 32 actividades detectadas en la revisión de literatura. El indicador fue aplicado en un grupo de 14 empresas de la región cafetera de Colombia. Los resultados indican un desempeño heterogéneo entre las compañías analizadas y un rezago importante en algunos procesos. Palabras clave: gestión de cadenas de abastecimiento verde; desempeño ambiental; empresas manufactureras.

1. Introducción El sector empresarial, especialmente el manufacturero, ha sido señalado como uno de los mayores generadores de contaminación ambiental, por lo cual la mayor parte de las regulaciones y estrategias para prevenir y mitigar esta problemática se han enfocado en este grupo de empresas [1,2]. Según [3], “El mejoramiento del desempeño ambiental de las organizaciones y la conciencia sobre la protección de los recursos naturales se han venido

consolidando como factores claves de diferenciación en los mercados competitivos a nivel mundial.” Junto con las regulaciones, las presiones provenientes de los consumidores y la propia competencia empresarial, se han convertido en el motor fundamental para equilibrar las decisiones organizacionales con el medio ambiente [4]. Dichas decisiones recaen sobre operaciones relacionadas con el diseño de productos, el abastecimiento, la manufactura y la distribución de bienes terminados, entre otros aspectos asociados al concepto de gestión de cadenas

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 207-215. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.48550


Sarache-Castro et al / DYNA 82 (189), pp. 207-215. February, 2015.

de abastecimiento (Supply Chain Management, SCM). De acuerdo con el Council of Supply Chain Management Professionals [5], la gestión de cadenas de abastecimiento “abarca la planeación y gestión de todas las actividades involucradas en el suministro y adquisición, conversión y todas las actividades de gestión logística (…), esta además incluye la coordinación y colaboración con los socios de la cadena, tales como proveedores, intermediarios, proveedores de servicios tercerizados y clientes”. El concepto SCM ha sido el resultado de un proceso de evolución que parte desde las primeras concepciones sobre la logística limitada a un problema de gestión de materiales, hasta la concepción moderna que promueve la integración total de los actores, procesos y actividades de la cadena. En esa vía y en la medida en que las presiones ambientales también han venido creciendo en las últimas tres décadas, uno de los enfoques de gestión ambiental que en los últimos años ha ganado mayor relevancia por su carácter integrador, ha sido el denominado enfoque de gestión de cadenas de abastecimiento verde (Green Supply Chain Management, GSCM) [6]. Según [7], el objetivo del enfoque GSCM es garantizar la sostenibilidad ambiental en la cadena de abastecimiento, a la vez que se gana ventaja competitiva en términos de reducción de costos, aumento de la calidad, diferenciación, mayor aceptación en el mercado y mejora de la imagen corporativa, entre otras ventajas. El enfoque GSCM requiere de la aplicación de indicadores que permitan medir el desempeño ambiental en todos los procesos y prácticas de gestión asociadas a la cadena de abastecimiento [8-10]. Aunque la revisión bibliográfica permitió identificar la existencia de una gran variedad de indicadores de desempeño ambiental (indicadores de producción limpia, indicadores de auditoría ambiental, indicadores de emisión y consumo, indicadores de riesgo ambiental, etc.), la mayoría se enmarcan en el esquema Presión-Estado-Respuesta [11-14] y no presentan una valoración del desempeño desde un enfoque GSCM. Por tanto, el presente artículo tiene como objetivo exponer la metodología de construcción y aplicación de un indicador de desempeño ambiental con enfoque GSCM. El indicador fue construido mediante la aplicación de un método de expertos y técnicas de ponderación simple y aborda de manera integral la medición en 8 procesos identificados en el estado del arte (diseño verde, compras verdes, manufactura verde, distribución verde, marketing verde, innovación verde, gestión de recursos humanos verde y logística inversa) y 32 actividades o dimensiones de desempeño. El indicador fue aplicado en un conjunto de 14 empresas de la región cafetera de Colombia. De acuerdo con los resultados obtenidos, existe un desempeño heterogéneo que fluctúa en un rango entre 2.0 y 4.5 (en una escala de cinco niveles). Así mismo, se pudo observar que el diseño verde y la manufactura verde, fueron los dos procesos en donde mayor esfuerzos se han realizado; en contraste, la distribución verde, que involucra operaciones de transporte, es la más rezagada. Para su presentación, el artículo se ha estructurado de la siguiente manera: en primer lugar, se expone una revisión de literatura orientada a identificar las contribuciones

existentes en relación a los indicadores de desempeño ambiental enfocados a cadenas de abastecimiento. Seguidamente, se presenta la metodología utilizada para la construcción del indicador y los resultados relevantes de su aplicación en un conjunto de empresas manufactureras de la región cafetera de Colombia. Finalmente, se presentan las principales conclusiones, en las cuales se plantean algunas perspectivas de investigación en relación con el desarrollo y aplicación del indicador. 2. Revisión de la literatura El concepto GSCM se sustenta en la introducción del pensamiento ambiental en la cadena de suministro [3] y ha sido el resultado de un proceso evolutivo fuertemente ligado a la evolución del concepto SCM. Éste tiene sus orígenes en los años 90´s cuando la influencia de la función de compras sobre el medio ambiente comenzó a ser investigada [15], posteriormente, [16] propusieron una definición y una taxonomía de mejores prácticas ambientales para toda la cadena de abastecimiento. Años más tarde, [17] realizó una extensiva recopilación del estado del arte identificando vacíos, problemas y oportunidades de investigación en este campo. A partir de ese estudio, dicho autor propuso el enfoque GSCM como elemento integrador de todas las etapas del ciclo de vida del producto. No obstante, en la revisión de literatura no se encontró consenso frente al concepto GSCM y este puede variar en función de la visión del investigador, los objetivos de la organización y el propósito de su implementación [18,19]. Por ejemplo, [17] integra en el concepto GSCM actividades relacionadas con el diseño verde, manufactura y remanufactura verde, logística en reversa y distribución verde; mientras que [13] integran las compras verdes, manufactura verde, gestión de materiales y distribución verde, marketing verde y logística en reversa. Por su parte, [20] lo dividen en diseño y empaque sostenible, producción sostenible, transporte sostenible, marketing sostenible y compras sostenibles. Una revisión del estado del arte permitió identificar un conjunto de 8 procesos principales y 32 prácticas de gestión verde (dimensiones de desempeño) que deben ser incorporados al enfoque GSCM. Los 8 procesos detectados fueron: diseño verde (DV), compras verdes (CV), manufactura verde (MV), distribución verde (DIV), marketing verde (MkV), innovación verde (IV), gestión de recursos humanos verde (GHV) y logística inversa (LI). La Tabla 1, expone una síntesis que permite identificar el conjunto de procesos y actividades (dimensiones de desempeño) que pueden ser incorporados en el enfoque GSCM. Tabla 1. Procesos y actividades asociadas al enfoque GSCM. Actividades Proceso DV1. Eliminación de sustancias peligrosas desde el diseño de producto DV2. Enfocar los diseños en la reducción en la fuente y la generación de residuos en el uso del producto DV DV3. Diseño de productos que tengan un menor gasto energético en proceso y uso DV4. Diseño para remanufacturar y desensamblar

208

Autores

[17, 21]


Sarache-Castro et al / DYNA 82 (189), pp. 207-215. February, 2015. Actividades CV1. Participación de los proveedores en la gestión ambiental de la empresa CV2. Certificación ISO 14000 por parte de proveedores CV3. Gestión de compra de materiales no CV contaminantes o agotadores de la capa de ozono CV4. Uso de 6 R´s (Reciclar, reusar, reducir, remanufacturar, recuperación de producto o material, reparar) en procesos de compra MV1. Implementación de tecnologías limpias para el proceso productivo MV2. Reducción del uso de sustancias peligrosas en los procesos de fabricación MV3. Reducción en la generación de residuos generado a partir de materia prima reciclada MV MV4. Ahorro energético en los procesos productivos comparado con años anteriores MV5. Implementación de TQEM/ISO 14003 MV6. Disminución de emisiones que generan un impacto en la población y el ecosistema DIV1. Uso de embalajes o empaques reciclables en distribución DIV2. Etiquetado de materiales para fines de DIV recuperación DIV3. Selección de transporte amigable o uso de vehículos con tecnología limpia MkV1. Uso del medioambiente como argumento de marketing MkV2. Patrocinio de los eventos ambientales /colaboración con organizaciones ecologistas MkV MkV3. Cooperar con los clientes y los proveedores en la formulación de objetivos ambientales IV1. Creación de ventaja competitiva a través del concepto del producto verde IV2. Participación del cliente en el IV diseño/proceso del producto IV3. Creación de centros de investigación para desarrollar productos verdes GHV1. Formación en Gestión ambiental al personal GHV2. Elección del personal basado en la motivación y compromiso en la gestión GHV ambiental GHV3. Creación de programas de entrenamiento medioambiental para empleados y gerentes LI1. Caracterización y retorno de residuos defectuosos, para mantenimiento, reparación y retorno de residuos de temporada. LI2. Implementación de las actividades 6´R en la cadena de suministro. LI3. Tratamiento integral a las emisiones de SO2, NOx y las emisiones de DQO LI LI4. Creación de un índice de protección del medio ambiente de la conservación de reciclaje, reducción de gases y energía. LI5. Empleo de métodos de reducción de la contaminación mediante el tratamiento de los residuos generados y la medición del impacto ambiental al tratarlos. Fuente: Elaboración propia con base en los citados autores Proceso

Autores

[17, 2223]

[6, 13,17, 24]

[17, 21]

[13, 25]

[26, 27]

En relación con el diseño y aplicación de indicadores para la medición del desempeño ambiental bajo un enfoque GSCM, se realizó una búsqueda de información sistemática en la ISI web of Science y Scopus. Las palabras clave utilizadas para orientar la búsqueda fueron: environmental performance indicator, environmental measurement, green supply chain management y sustainable supply chain. El rango de tiempo no se manejó como filtro con el fin de conocer la evolución de los aportes. En total se obtuvieron 49 artículos y cada uno de ellos fue sometido a un análisis detallado con el fin de identificar los aportes relevantes asociados al diseño y aplicación de indicadores ambientales. Asimismo, fueron analizados otros documentos aportados por organizaciones gubernamentales y no gubernamentales relacionadas con el tema. De acuerdo con la literatura analizada, en el estado del arte existe un gran número de indicadores ambientales propuestos por agencias internacionales (United Nations, World Bank, World Business Council for Sustainable Development, Global Reporting Initiative, Organization for Economic Cooperation and Development), agencias gubernamentales (US Environmental Protection Agency, la Agencia Europea de Medio Ambiente, UK Department for Environment, Food and Rural Affairs, US National Institute of Standards and Technology), agencias no gubernamentales e investigadores de la esfera académica. Desde la perspectiva de las agencias internacionales y organizaciones gubernamentales, los indicadores se han convertido en un marco de referencia para evaluar el desempeño a nivel nacional, integrando aspectos ambientales, sociales y económicos; sin embargo, estos no permiten hacer una medición con base en los procesos y actividades asociadas al enfoque GSCM identificadas en la Tabla 1. Por el contrario, tales indicadores se enmarcan en el enfoque Presión-Estado-Respuesta, el cual mide las políticas y acciones que afectan la forma como las personas y las organizaciones usan el medio ambiente [31]. En lo que respecta a las contribuciones académicas, se detectó un interés creciente sobre el tema según se expone en la Fig. 1.

[26, 28]

[29, 30]

Figura 1. Revisión de la literatura relativa al desempeño ambiental. Fuente: Elaboración propia 209


Sarache-Castro et al / DYNA 82 (189), pp. 207-215. February, 2015. Tabla 2. Procesos involucrados en contribuciones asociadas a indicadores bajo el enfoque GSCM. Procesos Autor DV CV MV DIV MkV IV GHV LI [11] X X X X X X [12]

X

X

X

[13]

X

X

X

X

X X

[31]

X X

X

[32]

X

X

[33]

X

X

[34]

X

[35] [36] [37]

X X

X

X X

expertos. Estos requisitos deben estar alineados con las limitaciones y finalidad del método. Paso 2. Definir el grupo director. El grupo director es el encargado de conducir apropiadamente la investigación; se encarga, fundamentalmente, de seleccionar los expertos, desarrollar el proceso de consulta y analizar los resultados. Paso 3. Seleccionar y valorar los expertos. Un experto es una persona que maneja con propiedad el tema asociado a la pregunta de investigación [46]. En cuanto al número de expertos, existen criterio que definen un número mínimo de 7 y un máximo de 50 [47-49]. No obstante, también se puede calcular a través de la Ecuación 1.

X

1

(1)

X

X

[38]

X

[39]

X

[40]

X

X

X X

[41] [42] X X Fuente: Elaboración propia con base en los citados autores

X X

X

Una segunda revisión orientada particularmente a detectar indicadores de desempeño ambiental asociados a las actividades del enfoque GSCM, permitió detectar 15 artículos relevantes (ver Tabla 2). En cada una de ellas se analizó el alcance de los indicadores propuestos con base en los 8 procesos identificados en la Tabla 1. Como puede observarse, la manufactura verde y la logística inversa son los dos procesos mayormente abordados. Otros procesos tales como el diseño verde, la innovación verde y la gestión de recursos humanos verde han sido abordados parcialmente. En contraste, el marketing verde no está incluido en ninguno de los indicadores identificados. Es evidente que en la literatura revisada no se propone un indicador integral que aborde todos los procesos que conforman el enfoque GSCM. 3. Metodología La presente metodología, expone un conjunto de pasos con miras a construir un indicador integral incorporando los 8 procesos y las 32 actividades detectadas para el enfoque GSCM. Para tal fin, se aplicó un método de expertos con el fin de obtener la importancia relativa entre procesos y entre actividades. El método de expertos tiene como finalidad conformar una opinión consensuada sobre un tema complejo. El método permite a los expertos expresar de forma anónima su opinión de forma libre, independiente y confidencial, mediante un proceso de retroalimentación controlada que les permite refinar sus posiciones [43]. Para los efectos de la presente investigación, la metodología propuesta incorpora los aportes de [43-45]. Una explicación detallada se presenta a continuación: Paso 1. Formular el problema. La formulación del problema permite identificar los objetivos y ofrece las pautas iniciales sobre los requisitos que deben cumplir los

donde: : número de expertos. : nivel de precisión deseado (±10). : porcentaje de error tolerado. : constante calculada a partir del nivel de confianza. La expresión anterior ha tenido aplicación frecuente para diversos contextos de la toma de decisiones (ver en [50]). Los expertos a integrar el panel deben ser personas cualificadas e independientes entre sí, que se pueden escoger discrecionalmente siempre que reúnan el perfil del experto objetivo [45]. Para determinar si un experto potencial cumple con los requerimientos, se calcula el coeficiente de competencia [45,48], mediante la Ecuación 2. 2

(2)

Donde es el coeficiente promedio de conocimiento calculado a partir de la valoración del propio experto sobre el conocimiento o información que tiene acerca del problema planteado, a través de una escala de 0 a 10 puntos. Cero representa un absoluto desconocimiento de la problemática que se evalúa, mientras que diez significa que el experto tiene un alto conocimiento del tema. Por otro lado, representa el coeficiente de argumentación o fundamentación del experto, obtenido como el resultado de la puntuación que el propio experto asigna a las principales fuentes de argumentación en sus respuestas. Utilizando el patrón de puntaje propuesto por [48], el experto indica el grado de influencia de estas fuentes (alto, medio y bajo) sobre sus respuestas. De esta manera, se calcula como la suma de los puntos alcanzados a partir de comparar las casillas marcadas por el experto con el patrón de puntaje, donde se establecen a priori la puntuación asignada a cada fuente. Finalmente, se evalúa la competencia del experto mediante la aplicación de la siguiente escala: Si 0.8 1, se considera que el experto tiene una alta competencia. Si 0.5 0.8, se considera que el experto tiene una competencia media. Si 0.5, se considera que el experto tiene baja competencia y el candidato se descarta como experto. Paso 4. Diseñar y aplicar el instrumento para la

210


Sarache-Castro et al / DYNA 82 (189), pp. 207-215. February, 2015.

consulta a expertos. El instrumento de recolección de información consiste en una encuesta que debe estructurarse en función de los objetivos de la investigación. Este puede ser diligenciado a través de correo electrónico, por medio telefónico o mediante una encuesta presencial. La selección del medio apropiado depende de la complejidad del problema, los recursos disponibles y el grado de interacción inherente deseada entre el grupo director y los expertos [49]. Inicialmente se envia un primer instrumento de recolección, el cual debe acompañarse con las instrucciones pertinentes que incluyen la introducción al método de ponderación seleccionado y el esquema de retroalimentación. Existen varios métodos de ponderación, tales como la ponderación simple (empleado en la presente investigación), el AHP, ANH y el método de la entropía entre otros; su selección depende de las posibilidades que se tengan de interacción con los expertos [51]. Paso 5. Realizar la prueba de concordancia. Esta prueba consiste en medir el nivel de acuerdo entre los expertos a través del indicador de concordancia de Kendall ( ). En cada caso, si es mayor o igual a 0.5, se considera que existe un buen nivel de acuerdo entre los expertos y, por tanto, las ponderaciones se validan [52]. El subprocedimiento a seguir se expone a continuación: Calcular el valor medio de los rangos ( ) 1

(3)

2

Calcular la desviación del valor medio de los juicios emitidos para cada criterio ( )

(4)

Calcular el coeficiente de concordancia de Kendall ( ).

12 ∑

(5)

donde: : valor medio de los rangos. : número de expertos. : número de criterios (procesos y actividades). : desviación al cuadrado del valor medio para cada criterio i. : orden de importancia dada al criterio i según el experto j. : coeficiente de Concordancia de Kendall. Paso 6. Construir y aplicar el indicador GSCM. A partir de las ponderaciones validadas, se procede a la construcción del indicador de desempeño ambiental, el cual incorpora los 8 procesos y 32 actividades identificados en la Tabla 1. La estructura general del indicador se expone en la Ecuación 6. La estructura particular, dependerá de las calificaciones que una empresa obtenga en cada una de las actividades.

(6)

donde: : Desempeño ambiental bajo GSCM en la empresa m. : Peso del proceso (DV, CV,…, LI). : Peso de la actividad en el proceso . : Calificación obtenida por la empresa en la actividad del proceso . 4. Resultados experimentales Al aplicar la metodología propuesta, los resultados fueron los siguientes: Paso 1. Formular el problema. Para el presente caso, el problema consiste en definir la jerarquía de los 8 procesos y las 32 actividades identificadas en el enfoque GSCM. Dadas las características del problema, el perfil de los expertos debe ofrecer experiencia académica y/o profesional en temas relacionados con cadenas de abastecimiento, gestión ambiental y algunos de los procesos verdes identificados. Paso 2. Definir el grupo director. Se constituyó un grupo director conformado por dos profesores investigadores expertos en el tema y un equipo de trabajo compuesto por dos profesionales en temas ambientales. Se definieron las actividades a realizar, se diseñó el instrumento de recolección y se realizó una selección preliminar de expertos. Paso 3. Seleccionar y valorar los expertos. Aplicando la Ecuación 1, el número inicial de expertos fue 11 ( 0.03; 3.8416 para un nivel de confianza del 95%; 0.1). Los expertos fueron contactados por vía email y a cada uno se les entregó un instructivo sobre el proceso de autovaloración a realizar. Para cada uno se calculó el coeficiente de conocimiento y el coeficiente de argumentación. Aplicando la Ecuación 2, se obtuvieron los resultados para el coeficiente de competencia. Como se observa en la Tabla 3, el Experto 1 obtuvo una calificación de 0.55; auque este resultado se clasifica dentro del rango de competencia media, para los efectos de la presente investigación se decidió trabajar con 10 expertos (Expertos 2 al 11), toda vez que este número sigue siendo adecuado. Tabla 3. Resultados de autocalificación de expertos. Experto

Experiencia Nivel de académica formación

Experiencia laboral

Ka

Kc

K

1-5 años

0.5

0.6

0.55

1

Más de 5

5

2

Más de 5

Doctorado

Más de 5 años 0.98

0.96

0.97

3

Más de 5

Doctorado

Más de 5 años 0.88

0.98

0.93

4

Más de 5

Doctorado

Más de 5 años 0.74

0.94

0.84

5

Más de 5

Doctorado

Más de 5 años 0.86

0.85

0.86

6

Más de 5

Doctorado

Más de 5 años 0.66

0.60

0.63

7

Más de 5

Doctorado

Más de 5 años 0.70

0.80

0.75

8

Más de 5

Doctorado

Más de 5 años 0.64

0.80

0.83

9

Más de 5

Doctorado

0.90

0.95

0.93

10

Más de 5

Doctorado

Más de 5 años 0.82

0.92

0.87

11 Más de 5 Doctorado Fuente: Elaboración propia

Más de 5 años 0.84

0.97

0.91

211

1-5 años


Sarache-Castro et al / DYNA 82 (189), pp. 207-215. February, 2015. Tabla 4. Jerarquización de los 8 procesos del enfoque GSCM. Expertos DV CV 2 6 2 3 8 6 4 8 4 5 8 7 6 8 6 7 8 5 8 7 6 9 7 4 10 8 4 11 8 3 Total 76 47 Ponderación 0.21 0.13 Fuente: Elaboración propia

MV 8 5 7 5 5 7 8 6 7 7 65 0.18

DV 1 1 1 1 1 1 2 1 1 1 11 0.03

MV 3 2 2 4 2 4 3 3 3 4 30 0.08

IV 4 7 6 6 7 3 5 8 6 6 58 0.16

GRHV 5 4 5 3 4 6 1 5 5 5 43 0.12

LI 7 3 3 2 3 2 4 2 2 2 30 0.08

Total 36 36 36 36 36 36 36 36 36 36 360 1

Tabla 5. Cálculo de los coeficientes de concordancia. Procesos 49,5 3566 0,70 Fuente: Elaboración propia

DV 20 194 0,61

CV 15 94 0,52

Matrices DIV 18 98 0,60

MV 24,5 425,5 0,50

MkV 16 98 0,77

IV 16 74 0,58

GRHV 17,5 149 0,61

LI 30 514 0,62

Tabla 6. Resultados de auto calificación por parte de las empresas Proceso

%

Actividad

DV1 DV2 DV 0.21 DV3 DV4 CV1 CV2 0.13 CV CV3 CV4 MV1 MV2 MV3 0.18 MV MV4 MV5 MV6 DIV1 0.03 DIV2 DIV DIV3 MkV1 0.08 MkV2 MkV MkV3 IV1 0.16 IV2 IV IV3 GHV1 GHV2 0.12 GHV GHV3 GHV4 LI1 LI2 0.08 LI3 LI LI4 LI5 Indicador GSCM Fuente: Elaboración propia

% 0.36 0.25 0.22 0.19 0.27 0.26 0.30 0.17 0.22 0.20 0.12 0.14 0.13 0.19 0.45 0.27 0.28 0.35 0.22 0.43 0.37 0.40 0.23 0.31 0.25 0.24 0.21 0.19 0.29 0.25 0.11 0.16

1 3 3 5 3 1 1 2 2 3 3 1 5 2 1 1 3 1 1 5 5 1 1 1 1 1 1 5 5 5 5 5 1 2.4

2 5 5 1 5 5 5 5 5 5 5 5 5 5 2 1 5 1 5 5 5 5 5 5 5 1 5 5 5 5 5 5 5 4.5

3 5 5 5 1 5 5 5 1 5 5 1 5 5 5 1 5 5 5 5 5 5 4 4 3 3 5 3 1 4 1 4 4 4.1

4 4 4 4 4 4 4 4 4 4 4 1 4 4 2 2 2 3 5 5 5 4 4 4 5 5 5 5 2 2 2 2 2 3.8

5 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 3 2 3 3 2 2 2 2 2 2.1

6 4 4 3 4 5 5 5 5 5 5 3 5 5 5 5 5 5 5 5 5 4 5 4 4 4 4 4 4 4 4 4 4 4.4

212

Empresas 7 8 4 2 4 2 4 2 4 2 4 2 4 2 4 2 4 2 4 3 4 3 4 3 4 3 4 3 4 3 4 1 4 5 4 5 5 2 5 2 5 4 4 4 4 3 4 3 3 3 3 3 3 3 3 3 4 1 4 1 4 5 4 5 4 5 3.9 2.7

9 4 4 4 1 4 5 5 3 4 4 1 5 4 5 1 3 5 4 4 5 4 4 4 5 5 5 5 1 4 4 4 4 4.0

10 5 5 5 5 5 4 4 5 5 5 1 4 5 5 1 5 5 2 2 4 4 3 3 3 3 3 3 1 1 5 5 4 3.9

11 4 4 4 4 4 4 4 1 4 4 1 4 4 4 1 2 2 2 2 2 2 2 2 4 4 4 4 2 2 2 2 2 3.1

12 3 5 3 5 1 1 2 1 2 2 1 3 2 1 1 1 1 1 5 1 4 1 1 2 1 1 4 5 4 2 1 1 2.3

13 2 1 5 5 1 1 1 1 5 5 1 1 1 1 1 5 1 2 1 1 2 1 1 2 1 1 1 5 2 1 1 2 2.0

14 5 5 5 2 5 1 5 1 5 5 5 5 4 5 1 1 3 1 1 1 1 1 1 4 1 5 4 1 1 1 1 5 3.1

Desempeño por proceso

3.7

3.3

3.6

2.5 3.4 3.0

3.3

3.0


Sarache-Castro et al / DYNA 82 (189), pp. 207-215. February, 2015.

Paso 4. Diseñar y aplicar el instrumento para la consulta a expertos. El instrumento de recolección de información se diseñó con base en los 8 procesos y 32 actividades identificadas en la Tabla 1. A cada experto se le solicitó aplicar una jerarquización simple para cada proceso y cada actividad asignando el mayor valor a la más importante y 1 a la menos importante. Con cada experto se mantuvo una retroalimentación con miras a facilitar el proceso de ponderación. En total se construyeron 9 matrices; una para jerarquizar los procesos y ocho adicionales para jerarquizar las actividades de cada proceso. A manera de ejemplo, en la Tabla 4 se expone la jerarquización dada por los expertos a los 8 procesos. Como se puede observar, la jerarquía establecida por los expertos es la siguiente: Diseño verde (0.21), manufactura verde (0.18), innovación verde (0.16), compras verdes (0.13), gestión de recursos humanos verde (0.12), logística en reversa (0.08), marketing verde (0.08) y distribución verde (0.03). Paso 6. Realizar la prueba de concordancia. Aplicando las Ecuaciones 3 a la 6 y con base en las 9 matrices antes enunciadas, se realizó el cálculo del coeficiente de concordancia de Kendall. Los resultados de los términos implicados en las expresiones mencionadas se exponen en la Tabla 5. Paso 7. Construir y aplicar el Indicador GSCM. A partir de los resultados del proceso de ponderación y aplicando la ecuación 6, se obtuvo el indicador de desempeño para un conjunto de 14 empresas (ver Tabla 6). Para tal fin, cada empresa realizó un proceso de autoevaluación en cada una de las 32 actividades planteadas en la Tabla 1. La autoevaluación se realizó a partir de una escala de cinco niveles, aplicada a cada actividad verde así: (1) no se ha considerado; (2) se considera implementar a futuro según los planes de la empresa; (3) en proceso de formulación; (4) en proceso de ejecución; (5) plenamente implementada. 5. Conclusiones En enfoque de gestión de cadenas de abastecimiento verde (GSCM) ha venido evolucionado desde el punto de vista conceptual en la medida en que las presiones y la conciencia hacia la protección del medio ambiente también lo han hecho. El estado del arte revela un creciente interés por los temas ambientales durante los últimos años y, en especial, un interés en temas ambientales aplicados a la gestión de cadenas de abastecimiento. Aunque no se encontró una definición unificada sobre el enfoque GSCM, la revisión de literatura permitió identificar un conjunto de 8 procesos y 32 actividades verdes que lo conforman. De los 8 procesos identificados, 4 de ellos se asocian a los eslabones principales de la cadena de abastecimiento (compras verdes, manufactura verde, distribución verde, logística inversa) y el resto se pueden agrupar en un conjunto de áreas de decisión y soporte que ejercen un efecto transversal en el desempeño de todos los eslabones de la cadena (diseño verde, innovación verde, gestión de recursos humanos verde y marketing verde). En relación a la existencia de indicadores para medir el desempeño ambiental, aunque la revisión de literatura

permitió identificar un número importante de contribuciones al respecto, no se encontraron indicadores que integren los 8 procesos y las 32 actividades identificadas en el presente estudio. Según los hallazgos, los esfuerzos de medición se han concentrado especialmente en procesos tales como la manufactura verde y la logística inversa, con menores aportaciones en dos procesos fundamentales como el diseño verde y la innovación verde. Más aun, no se encontraron indicadores que aborden la medición del marketing verde integrado a los demás procesos del enfoque GSCM. Sin embargo, al analizar la jerarquía establecida por los expertos se puede notar que los tres procesos más importantes fueron el diseño verde, la manufactura verde y la innovación verde. Es decir, para los expertos en temas asociados al concepto GSCM, el diseño verde y la innovación verde son dos procesos importantes en la medición del desempeño ambiental. Esto coincide con la visión de diversos autores debido a su impacto transversal en todas las operaciones de la cadena de abastecimiento. En cuanto a la manufactura verde, su jerarquización no resulta sorpresiva pues es un proceso que por su alto consumo de recursos, es el mayor generador de impactos en el medio ambiente, lo cual resulta coherente con lo identificado en el estado del arte. Otro hallazgo interesante gira en torno a la logística inversa; a pesar de ser este un tema de gran interés 8 en la teoría y en la práctica), por ser un proceso orientado a operaciones de recuperación y reutilización, los expertos lo ubicaron en el quinto lugar de la jerarquía. No obstante resulta fácil comprender la dominancia de los tres primeros procesos (diseño, manufactura, innovación), toda vez que en la medida que estos sean mejorados desde un enfoque verde, la necesidad de recuperar y reutilizar será menor. Por otro lado, los resultados revelan un desempeño medio en las empresas evaluadas, con un rango que fluctúa entre una valor de 2 (empresa 13) y 4.5 (empresa 2). Si bien cuatro empresas mostraron un desempeño igual o superior a 4, lo cual indica un esfuerzo importante en la implementación simultánea de las actividades que conforman los 8 procesos, resulta preocupante que 10 de ellas aun presenten rezagos en buena parte de los componentes del indicador. No obstante, y al observar el desempeño promedio (ponderado) de cada proceso, el diseño verde y la manufactura verde, junto con las compras verdes son las que exponen un mejor resultado, lo cual permite identificar esfuerzos importantes en dos de los procesos más relevantes según la jerarquía establecida por los expertos. Finalmente, a pesar de que los resultados proponen un avance en la medición del desempeño bajo un enfoque GSCM, es necesario avanzar en nuevas investigaciones dadas las limitaciones del presente estudio. Por ejemplo, el indicador propuesto puede ser refinado aplicando métodos de ponderación que permitan valorar la consistencia de los expertos con miras a mejorar la fiabilidad de la jerarquía obtenida. También resulta deseable realizar análisis de tipo multivariado que permitan establecer correlaciones entre el desempeño de las 32 actividades identificadas y otras variables como el desempeño financiero y la percepción de los stakeholders. Así mismo, estudios comparativos entre sectores podrían detectar los énfasis que cada tipo de compañía establece para mejorar su desempeño ambiental.

213


Sarache-Castro et al / DYNA 82 (189), pp. 207-215. February, 2015.

Agradecimientos Los autores expresan sus agradecimientos a la Universidad Nacional de Colombia, Sede Manizales, por su apoyo financiero en la presente investigación (Proyecto Código 19168). De igual forma, los autores desean expresar su gratitud respecto a la colaboración académica brindada por parte de la Facultad de Ingeniería (Decanatura), Universidad de Manizales

[16]

[17]

[18]

Referencias [1]

[2]

[3]

[4]

[5]

[6]

[7]

[8]

[9] [10] [11]

[12]

[13] [14]

[15]

Herva, M., Franco, A., Carrasco, E.F. and Roca, E., Review of corporate environmental indicators. Journal of Cleaner Production, 19 (15), pp. 1687-1699, 2011. http://dx.doi.org/10.1016/j.jclepro.2011.05.019 Brent, A.C. and Visser, J.K., An environmental performance resource impact indicator for life cycle management in the manufacturing industry. Journal of Cleaner Production, 13 (6), pp. 557-565, 2005. http://dx.doi.org/10.1016/j.jclepro.2003.12.007 Leguízamo-Díaz, T.P. and Moreno-Mantilla, C.E., Efecto de las prioridades competitivas en la implementación de prácticas de reverdecimiento en la cadena de suministro con TQM como mediador. DYNA, 81 (187), pp. 240-248, 2014. http://dx.doi.org/10.15446/dyna.v81n187.46106 Xu, L., Mathiyazhagan, K., Govindan, K., Noorul Haq, Ramachandran, N.V. and Ashokkumar, A., Multiple comparative studies of green supply chain management: pressures analysis. Resources, Conservation and Recycling, 78, pp. 26-35, 2013. http://dx.doi.org/10.1016/j.resconrec.2013.05.005 Council of Supply Management Professionals, SCMP. Supply Chain Management. Terms and Glossary. [on line] 2013. [date of reference August 10th of 2013]. Available at: http://cscmp.org/digital/glossary/glossary.asp. Zhu, Q., Sarkis, J. and Geng, Y., Green supply chain management in China: Pressures, practices and performance. International Journal of Operations & Production Management, 25 (5), pp. 449-468, 2005. http://dx.doi.org/10.1108/01443570510593148 Hui, I., Chan, A.H. and Pun, K., A study of the environmental management system implementation practices. Journal of Cleaner Production, 9(3), pp. 269-276, 2001. http://dx.doi.org/10.1016/S0959-6526(00)00061-5 Atkinson, G.D., Dubourg, R., Hamilton, K., Munasignhe, M., Pearce, D.W. and Young, C., Measuring sustainable development: Macroeconomics and the environment. Cheltenham: Edward Elgar Eds, 1997. Neely, A., Adams, C. and Kennerley, M., The performance prism. Edinburgh: Pearson Education Limited, 2002. Epstein, M.J., Making sustainability work: Best practices in managing and measuring corporate social, environmental, and economic impacts. Sheffield: Greenleaf Publishing Limited, 2008. Zsidisin, G.A. and Siferd, S.P., Environmental purchasing: A framework for theory development. European Journal of Purchasing and Supply Management 7, pp. 61-73, 2001. http://dx.doi.org/10.1016/S0969-7012(00)00007-1 Kafa, N., Hani, Y. and Mhamedi, A.E.L., Sustainability performance measurement for green supply chain management. 6th IFAC Conference on Management and Control of Production and Logistics, Fortaleza, Brazil, 2013. Hervani, A., Helms, M. and Sarkis, J., Performance measurement for green supply chain management. Benchmarking: An International Journal, 12 (4), pp.330-353, 2005. Hourneaux, F., Hrdlicka, H.A., Gomes, C.M. and Kruglianskas, I., The use of environmental performance indicators and size effect: A study of industrial companies. Ecological Indicators, 36, pp. 205212, 2014. http://dx.doi.org/10.1016/j.ecolind.2013.07.009 Baojuan, S.H.I., Green supply chain management and implementing strategy. Working paper, Hebei Polytechnic University, China, [on line] 1-4, 1996. [date of reference June 10th of 2013]. Available at:

[19]

[20]

[21]

[22] [23]

[24] [25]

[26]

[27]

[28]

[29]

[30]

[31]

[32]

[33]

214

http://www.seiofbluemountain.com/upload/product/201002/1265187 832vo7ihtiq.pdf. Handfield, R.B., Walton, S.V., Seegers, L.K. and Melnyk, S., “Green” value chain practices in the furniture industry. Journal of Operations Management, 15 (4), pp. 293-315, 1997. http://dx.doi.org/10.1016/S0272-6963(97)00004-1 Srivastava, S.K., Green supply-chain management: A state-of-the-art literature review. International Journal of Management Reviews, 9 (1), pp. 53-80, 2007. http://dx.doi.org/10.1111/j.14682370.2007.00202.x Ahi, P. and Searcy, C., A comparative literature analysis of definitions for green and sustainable supply chain management. Journal of Cleaner Production, 52, pp. 329-341, 2013. http://dx.doi.org/10.1016/j.jclepro.2013.02.018 Martínez-Giraldo, J. and Sarache-Castro, W.A., Green supply chains: Conceptual bases and trends, in Cardona-Alzate, C. and Sarache-Castro W.A., Green supply chains. Applications in agroindustries. Instituto de Biotecnología y Agroindustria, Universidad Nacional de Colombia, Manizales, 2014. pp. 13-26. Al-Odeh, M. and Smallwood, J., Sustainable supply chain management: Literature review, trends, and framework. International Journal of Computational Engineering & Management, 15 (1), pp. 341-347, 2012. Sarkis, J., A boundaries and flows perspective of green supply chain management. Supply Chain Management: An International Journal, 17 (2), pp. 202-216, 2012. http://dx.doi.org/10.1108/13598541211212924 Chen, C., Incorporating green purchasing into the frame of ISO 14000. Journal of Cleaner Production, 13 (9), pp. 927-933, 2005. http://dx.doi.org/10.1016/j.jclepro.2004.04.005 Toke, L., Gupta, R. and Dandekar, M., Green supply chain management; Critical research and practices, Proceedings of the 2010 International Conference on Industrial Engineering and Operations Management, Dhaka, Bangladesh, pp 9-10, 2010. Grant, J., Green marketing. Strategic direction, 24 (6), pp. 25-27, 2008. http://dx.doi.org/10.1108/02580540810868041 Andic, E., Yurt, O. and Baltacıoglu, T., Green supply chains: Efforts and potential applications for the Turkish market. Resources, Conservation and Recycling, 58, pp. 50- 68, 2012. http://dx.doi.org/10.1016/j.resconrec.2011.10.008 Seman, N.A.A., Zakuan, N., Jusoh, A., Arif, M.S.M. and Saman, M.Z.M., The relationship of green supply chain management and green innovation concept. Procedia - Social and Behavioral Sciences, 57, pp. 453-457, 2012. Sarkis, J., Zhu, Q. and Lai, K., An organizational theoretic review of green supply chain management literature. International Journal of Production Economics, 130 (1), pp. 1-15, 2011. http://dx.doi.org/10.1016/j.ijpe.2010.11.010 Yarahmadi, M., Motivations towards environmental innovation: A conceptual framework for multiparty cooperation. European Journal of Innovation Management, 15 (4), pp. 400-420, 2012. http://dx.doi.org/10.1108/14601061211272358 Carter, C.R. and Easton, P.L., Sustainable supply chain management: Evolution and future directions. International Journal of Physical Distribution & Logistics Management, 41 (1), pp. 46-62, 2011. http://dx.doi.org/10.1108/09600031111101420 OECD, Organization for Economic Cooperation and Development. Environmental indicators: Towards sustainable development, [on line]2001, [date of reference May 24th of 2013]. Available at: http://www.oecd.org/site/worldforum/33703867.pdf. Grant, R.M., The resource-based theory of competitive advantage: Implications for strategy formulation. California Management Review, 33 (3), pp. 114-135, 1991. http://dx.doi.org/10.2307/41166664 Gungor, A. and Gupta, S., Issues in environmentally conscious manufacturing and product recovery: A survey. Computers and Industrial Engineering, 36 (44), pp. 811-853, 1999. http://dx.doi.org/10.1016/S0360-8352(99)00167-9 Beamon, B. M., Designing the green supply chain. Logistics Information Management, 12(4), pp. 332-342, 1999. http://dx.doi.org/10.1108/09576059910284159


Sarache-Castro et al / DYNA 82 (189), pp. 207-215. February, 2015. [34] EEA, European Environment Agency. Environment in the European Union at the turn of the century, [on line] 1999. [date of reference May 23th of 2014] Available at: http://www.eea.europa.eu/publications/92-9157-202-0. [35] EEA, European Environment Agency. Environmental signals: Building the future we want, [on line] 2001. [date of reference March 20th of 2014]. DispoAvailable at: http://www.eea.europa.eu/publications/eea-signals. [36] Hermann, B.G., Kroeze, C. and Jawjit, W., Assessing environmental performance by combining life cycle assessment, multi-criteria analysis and environmental performance indicators. Journal of Cleaner Production, 15 (18), pp. 1787-1796, 2007. http://dx.doi.org/10.1016/j.jclepro.2006.04.004 [37] Shang, K.-C., Lu, C.-S. and Li, S., A taxonomy of green supply chain management capability among electronics-related manufacturing firms in Taiwan. Journal of environmental management, 91(5), pp. 1218-1226, 2010. http://dx.doi.org/10.1016/j.jenvman.2010.01.016 [38] Gupta, S. and Palsule-Desai, O.D., Sustainable supply chain management: Review and research opportunities. IIMB Management Review, 23 (4), pp. 234-245, 2011. http://dx.doi.org/10.1016/j.iimb.2011.09.007 http://dx.doi.org/10.1016/j.iimb.2011.09.002 [39] GRI, Global Reporting Initiative. Sustainability Reporting Guidelines. [on line] [date of reference July 22th of 2014]. Available at: https://www.globalreporting.org/resourcelibrary/GRI-AnnualReport-2011-2012.pdf. [40] Comoglio, C. and Botta, S., The use of indicators and the role of environmental management systems for environmental performances improvement: A survey on ISO 14001 certified companies in the automotive sector. Journal of Cleaner Production, 20 (1), pp. 92-102, 2012. http://dx.doi.org/10.1016/j.jclepro.2011.08.022 [41] Manfredi, S. and Goralczyk, M., Life cycle indicators for monitoring the environmental performance of European waste management. Resources, Conservation and Recycling. 81, pp. 8-16, 2013. [42] GRI, Global Reporting Initiative. Sustainability Reporting Guidelines. [on line]. [date of reference August 18th of 2014]. Available at: https://www.globalreporting.org/resourcelibrary/GRIAnnual-Report-2013-2014.pdf. [43] Seuring, S. and Müller, M., Core Issues in sustainable supply chain management. A Delphi study. Business Strategy and the Environment, 17, pp. 455-466, 2008. [44] Sarache-Castro, W.A., Castrillón, O.D. y Giraldo, J., Prioridades competitivas para la industria de la confección. Estudio de caso. Cuadernos de Administración, 24 (43), pp. 89-110, 2011. [45] Michalus, J.C., Modelo cooperativo de integración flexible de PyMEs orientado al desarrollo local. Factibilidad de aplicación en municipios de la provincia de Misiones, Argentina. Tesis Doctoral, Programa doctoral en Ingeniería Industrial, Universidad Central "Marta Abreu" de Las Villas, Santa Clara, Cuba, 2011. [46] Kauko, K.and Palmroos, P., The Delphi method in forecasting financial markets— An experimental study. International Journal of Forecasting, 30 (2), pp. 313-327, 2014. http://dx.doi.org/10.1016/j.ijforecast.2013.09.007 [47] Matthias-Muskat, M., Blackman, D. and Muskat, B., Mixed methods: Combining expert interviews, Cross- impact analysis and scenario development. Electronic Journal of Business Research Methods, 10 (1), pp. 9-21, 2012. [48] Vera-Toste, Y., La participación en los delitos de sujeto especial. III Encuentro Internacional “Justicia y Derecho". La Habana, Cuba, [en línea] 2006. [consultado en abril 15 de 2010]. Disponible en: http://www.tsp.cu/Archivos/Ponencias_JyD.html. [49] Salazar-Ordóñez, M. y Sayadi, S., Los principales instrumentos de la política agraria común en la reforma intermedia: ¿Permiten satisfacer las expectativas de la sociedad europea? VI Coloquio Ibérico de Estudios Rurales (CIER) “El papel de las regiones en las economías rurales”. Huelva, España. Universidad Internacional de Andalucía (UNIA), [en línea] 2006. [consultado en abril 22 de 2010]. Disponible en: www.cier.org. [50] Costa-Salas, Y.J. y Abreu-Ledón, R., Estrategias de localización con enfoque multiobjetivo para almacenes intermedios en procesos de

reciclaje de envases de vidrio. Ingeniería Industrial, 30 (1), pp. 1823, 2009. [51] Ramírez-Urizarri, A. y Toledo-Fernández, A.M., Algunas consideraciones acerca del método de evaluación utilizando el criterio de expertos. [en línea] 2005. [consultado en marzo 10 de 2013]. Disponible en: http://www.ilustrados.com/publicaciones/EEkZylEFEVDEhxqKXi.p hp. [52] May, T., Social research, issues, methods and process. Fourth edition. New York: Mc Graw Hill, 2011 W.A. Sarache-Castro, es ingeniero industrial de la Universidad de Ibagué, Colombia, MSc. en Ciencias y Dr en Ciencias Técnicas de la UCLV, Cuba. Actualmente es profesor asociado de la Universidad Nacional de Colombia, Sede Manizales en las áreas de producción, operaciones y cadenas de abastecimiento. Ha sido evaluador de diversas revistas nacionales e internacionales y es miembro del grupo de investigación en Innovación y Desarrollo Tecnológico de dicha institución. Y.J. Costa-Salas, es Ingeniero Industrial y MSc. en Ciencias de la UCLV, Cuba y Dr. en Ingeniería de la Universidad Otto-von-Guericke, Alemania. Ha sido evaluador de revistas internacionales tales como European Journal of Operational Research, Expert System with Applications and Decision Science. Actualmente es profesor asociado en la Facultad de Economía de la Universidad de Manizales, Colombia, en temas relacionados con matemática aplicada. W.P. Martínez-Giraldo, es Ingeniera Química y Esp. en Dirección de la Producción y las Operaciones de la Universidad Nacional de Colombia sede Manizales, Colombia. Es miembro del Grupo de Investigación en Innovación y Desarrollo Tecnológico y actualmente cursa estudios de Maestría en Ingeniería Industrial.

215

Área Curricular de Ingeniería Administrativa e Ingeniería Industrial Oferta de Posgrados

Especialización en Gestión Empresarial Especialización en Ingeniería Financiera Maestría en Ingeniería Administrativa Maestría en Ingeniería Industrial Doctorado en Ingeniería - Industria y Organizaciones Mayor información: E-mail: acia_med@unal.edu.co Teléfono: (57-4) 425 52 02


Lottery scheduler for the Linux kernel María Mejía a, Adriana Morales-Betancourt b & Tapasya Patki c b

a Universidad de Caldas and Universidad Nacional de Colombia, Manizales, Colombia, mariah.mejia@ucaldas.edu.co Departamento de Sistemas e Informática at Universidad de Caldas, Manizales, Colombia, adriana.morales@ucaldas.edu.co c Department of Computer Science, University of Arizona, Tucson, USA, tpatki@cs.arizona.edu

Received: April 17th, 2014. Received in revised form: September 30th, 2014. Accepted: October 20th, 2014

Abstract This paper describes the design and implementation of Lottery Scheduling, a proportional-share resource management algorithm, on the Linux kernel. A new lottery scheduling class was added to the kernel and was placed between the real-time and the fair scheduling class in the hierarchy of scheduler modules. This work evaluates the scheduler proposed on compute-intensive, I/O-intensive and mixed workloads. The results indicate that the process scheduler is probabilistically fair and prevents starvation. Another conclusion is that the overhead of the implementation is roughly linear in the number of runnable processes. Keywords: Lottery scheduling, Schedulers, Linux kernel, operating system.

Planificador lotería para el núcleo de Linux Resumen Este artículo describe el diseño e implementación del planificador Lotería en el núcleo de Linux, este planificador es un algoritmo de administración de proporción igual de recursos, Una nueva clase, el planificador Lotería (Lottery scheduler), fue adicionado al núcleo y ubicado entre la clase de tiempo-real y la clase de planificador completamente equitativo (Complete Fair scheduler-CFS) en la jerarquía de los módulos planificadores. Este trabajo evalúa el planificador propuesto en computación intensiva, entrada-salida intensiva y cargas de trabajo mixtas. Los resultados indican que el planificador de procesos es probabilísticamente equitativo y previene la inanición de procesos. Otra conclusión es que la sobrecarga de la implementación es aproximadamente lineal en el número de procesos que corren. Palabras clave: Planificador Lotería, Planificador de procesos, núcleo Linux, sistemas operativos.

1. Introduction Process management is one of the major responsibilities of any operating system. It involves allocating various resources to processes. The CPU is the most important resource that must be shared efficiently among many competing processes in a given system. The scheduler manages the running processes in the system and runs a scheduling algorithm to service running those processes. Different scheduling algorithms are better for particular application types: real time, batch, and user-interactive. There are many algorithms in the literature that provide efficient and fair scheduling for a CPU. Some of these algorithms are First-In-First-Out (FIFO), Round Robin, and Fixed-Priority Preemptive Scheduling. There are basically five criteria by which a scheduling algorithm can be evaluated: fairness that makes sure each process gets its fair share of the CPU, efficiency that keeps the CPU busy 100%

of the time, response time that minimizes response time for interactive users, turnaround that minimizes the time batch users must wait for output and, finally, throughput that maximizes the number of jobs processed in a given timeframe [1]. In 1994, Waldspurger et al. [2] proposed the Lottery Scheduler, a randomized resource allocation algorithm that efficiently implements proportional-share resource management. This scheduling algorithm solves the problems of starvation (perpetual denial of CPU time-slice) and priority inversion, and is probabilistically fair, unlike other process scheduling algorithms which do not ensure fairness. For this work, the lottery scheduling algorithm was implemented on the Linux 2.6.24 kernel. Although, the actual stable Linux kernel version is 3.14.1, the scheduler algorithm has not been modified mainly since the 2.6.23 version where the Completely Fair Scheduler (CFS) was introduced [3,4]. The rest of this report has been organized

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 216-225. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.43068


Mejía et al / DYNA 82 (189), pp. 216-225. February, 2015.

as follows. Section presents related work. Section provides an overview of the lottery scheduling algorithm. Section discusses the implementation of the lottery scheduling algorithm in detail. It includes the implementation of the lottery scheduling class, the integration of the scheduler with the Linux kernel, and the experience with User-Mode Linux which gives a virtual machine ideal for kernel development that supports the Linux 2.6.24 without risking the main Linux installation [14]. Section presents an overview of test cases and test scenarios, followed by a detailed discussion of the results obtained. Lastly, the conclusion and future work sections are presented. 2. Related work Computer resource allocation has been a research target in computer science with several works with different approaches to this topic. Miller and Drexler [5] proposed the escalating-bid auction mechanism in “Incentive Engineering for Computational Resource Management” as an alternative to be used for CPU allocation. The main goal of the Share scheduler presented by Kay and Lauder [6] in “A Fair Share Scheduler” is to grant fairness between users encouraging load spreading and avoiding starvation. This work describes an algorithm that grants users shares on a system in a comparable way to the resource rights granted to a user by lottery tickets. The Share scheduler seeks to guarantee fair-share allocation of CPU resources, being similar to lottery scheduling related to users’ resource rights preservation. Waldspurger et al [7] implement a distributed computational economy with CPU resource as the commodity of the economy (SPAWN), proposing that computer resource allocation can be performed according to resource allocation in a marketplace. This approach can solve the issue of fairness, but complexity and overhead are big issues on the corresponding implementation. In contrast, a lottery scheduler can also fairly manage resources with the advantage of minimal overhead. In “Lottery Scheduling: Flexible Proportional-Share Resource Management”, Waldspurger and Weihl [8] introduced the idea of lottery scheduling, giving each process a set of numbered lottery tickets and picking a random number that gives the winning process access to a required resource. A process’ odds of receiving the CPU are directly related to the number of lottery tickets that have been allocated to the process. Also, Waldspurger and Weihl [9] on "Stride Scheduling: Deterministic Proportional-Share Resource Management" introduced another scheduler designed to retain a high degree of control over proportional resource allocation like the lottery scheduler, attempting to improve the variability in process latency. Fong & Squillante [10] presented TFS (Time-Function Scheduling), which is similar to lottery scheduling, trying to maintain a high degree of control over resource allocation. With this approach, processes are grouped together in classes that are defined by a time-function, putting on the same class processes with similar scheduling objectives and similar characteristics. Petrou, Milford and Gibson [11] found some poor response time for I/O bound process on

Figure 1. Main ideas of the Lottery Scheduling Algorithm. Source: Owner

the implementation of the lottery scheduling algorithm in “Implementing Lottery Scheduling: Matching the Specializations in Traditional Schedulers”. This work was focused on the required changes to address the found shortcomings and performance of one hybrid lottery scheduler. Jennifer Spath [12] explores lottery scheduling in the Linux Kernel. This work focuses on the implementation of lottery scheduling in the Linux kernel. There is a comparison between system performances with the standard Linux scheduler. Compensations tickets are also implemented to ensure equal CPU time for interactive process. Zepp [13] explores how the Linux OS performs using the lottery method scheduling as compared to priority based scheduler, and “fair-share” scheduling in managing the CPU resource. All the tests are performed on vanilla 2.4 kernel, using the Linux user account as the trust boundary form modular resource management. This work focuses on the scheduler’s capacity to manage CPU bound and I/O bound processes. 3. Background – Lottery Scheduling Lottery scheduling is a probabilistic process scheduling algorithm. Each process is assigned a few lottery tickets, and the scheduler holds a lottery to draw a random ticket. The CPU is granted to the process with the winning ticket. The ticket distribution could be non-uniform. If a process has more tickets than other processes, it has a higher probability of winning and being selected for execution. Since a process with at least one ticket will eventually win a lottery, the problem of starvation is solved and probabilistic fairness is ensured. See Fig.1.The throughput of the system as well as the responsiveness depends on the distribution and allocation algorithm used [2]. The lottery scheduling approach can be used for any other kind of resource as well, not just the CPU [19,18]. In such situations, we refer to the competing entities as clients. Some techniques for implementing resource management policies with lottery tickets are: 3.1. Ticket transfers This technique is used in situations where a client is blocked holding a resource due to some dependencies, and another client is waiting for the first client to release the shared resource. One solution is to transfer the tickets to the blocked

217


MejĂ­a et al / DYNA 82 (189), pp. 216-225. February, 2015.

client, so that it has a higher probability of executing and can finish the task faster and release the resource sooner from which both clients will benefit. A client must have the ability to transfer its tickets to one or more clients that it depends on. 3.2. Ticket inflation This is considered an alternative to explicit ticket transfers where a client can create more tickets for itself. On one hand, this approach can present problems in the sense that a client can monopolize a resource by creating a large number of lottery tickets. On the other hand, inflation/deflation can be used to adjust resource allocations without any explicit communications between clients, leading to a better throughput. 3.3. Compensation tickets If a client uses only a fraction f of its allocated resource unit (for example, CPU cycles/time), it can be assigned compensation that inflates its number of tickets by a factor of 1/f. This ensures fairness and better responsiveness in case of process scheduling. Interactive processes show this behavior frequently because they enter the wait state while reading data from the disk/memory. Compensation helps these processes get their fair share of the CPU. Fig.2 shows an example of how this algorithm works. For selecting the winning process, the algorithm generates a random number between one and the total number of tickets in the system. It then traverses the run-queue by accumulating the number of tickets it has seen so far. For each process in the queue, it checks whether the accumulated number of tickets is greater than the random number. If it is, then this would be the winning process which holds the randomly drawn lottery ticket. Observe that the total number of tickets in the system is 40 and the random number is 35. For each process, we check whether the number of tickets accumulated so far is greater than 35. We continue until we reach the fourth process, which is declared to be the winner and is granted the CPU. 4. Implementation We present an overview of User-mode Linux and the existing Linux 2.6 scheduler followed by a detailed description of our implementation on the Linux 2.6.24 kernel. 4.1. User-mode Linux User-Mode Linux (UML) [14] is a virtual machine environment that lets us run Linux guest systems in user-

Figure 2. Lottery Scheduling. Source: Adapted from [2]

space. It is used for multiple purposes, such as kernel development, testing new distributions and patches, hosting of virtual servers, and running network services independently of a real system. Instead of interacting directly with the hardware, the UML kernel interacts with a Linux kernel like a user-space program. In addition, given that it is a virtual machine, it allows the user to run programs on top of it as if they were running under a normal kernel. Even if UML crashes, the host kernel is still working and is unaffected by the error. This makes UML an ideal platform for kernel development. It is possible to modify and program an instance of a kernel without suffering any damage in the host Linux. UML can also be debugged like any other normal process using standard debuggers like gdb. In other words, it is possible to carry out new development and testing at the kernel level in a safe way. Despite its advantages, UML is limited and does not offer all the functionality that a host Linux system would offer. For instance, it does not support multiple virtual consoles or terminals that are important when testing the kernel, and it is very difficult to set up networking. Another limitation is that testing for multiple users is not feasible. Because of these shortcomings, we could not test our implementation in a multiuser setup as UML did not return to the shell promptly after setting a user, rendering it impossible to set another user. We also had to run our processes in the background, as we had access to only one terminal screen and we could not launch multiple processes in the foreground and test them. UML can be downloaded and built from source by using the ARCH=um option while configuring and building the source. UML has a detailed installation guide [14,15]. 4.2. Overview of the Linux 2.6 Scheduler The Linux 2.6 kernel introduced an O(1) process scheduling algorithm that was independent of the number of runnable tasks in the system. The previous scheduler was an O(n) scheduler which was slow and lacked scalability. The pre-2.6 scheduler also used a single run-queue for all the processors and used a single run-queue lock, which further degraded performance [1,16]. One of the main differences in the earliest Linux 2.6 scheduler is that each processor has its own run-queue, which helps in reducing lock contention. Additionally, the concept of a priority array is introduced which uses the active array and the expired array to keep track of tasks in the system. The O(1) running time is obtained with the help of these new data structures. The scheduler puts all processes that used their time-slice in the current scheduling run into the expired array. When there are no active processes left in active array, it swaps active array with expired array. The scheduler always schedules the task with the highest priority first, and if multiple tasks exist at the same priority level, they are scheduled in a round robin fashion. The scheduler also achieves load balancing by migrating tasks from busy processors to idle processes. The earliest 2.6 kernel supports SCHED_FIFO and SCHED_RR for real-time scheduling, and the SCHED_NORMAL uses the O (1) policy. In kernel 2.6.23, the Completely Fair Scheduler (CFS) was introduced.

218


Mejía et al / DYNA 82 (189), pp. 216-225. February, 2015.

This scheduler, instead of relying on run queues, uses a redblack tree implementation for task management. Linux 2.6 kernel also introduced the notion of scheduling classes, and a hierarchy of scheduler modules. Each scheduling class encapsulates a scheduling policy. These classes are maintained as a linked list, and provide an extensible framework. The current implementation includes the CFS class, and the RT (Real Time) class which comprises of the SCHED_FIFO and SCHED_RR policies. When the policy of a task is set to SCHED_NORMAL or SCHED_IDLE, the CFS scheduling policy is used. This concept of scheduling classes led to a significant refactoring of the process scheduling code. We now provide a brief overview of the important data structures and the schedule() function from the Linux 2.6 scheduler. We discuss the fields that are most relevant to our implementation. The next subsection then illustrates how our code integrates with the data structures discussed here. 4.2.1. Struct task_struct This is the Process Control Block. Every process in the system is represented by a task_struct. This is a very large data structure that holds together all information related to a process. When a process or a thread is created, the kernel allocates a new task_struct for it. The kernel then stores this in a circular linked list called task_list. The most important fields from this structure from the point of view of implementing a scheduling algorithm are:  state: describes the current state of a process, which could correspond to TASK_RUNNING, TASK_INTERRUPTIBLE, TASK_UNINTERRUPTIBLE, TASK_ZOMBIE or TASK STOPPED.  policy: holds a value of scheduling policies.  sched_class: a pointer to schedule class. 4.2.2. Struct rq  The kernel creates a run-queue of type struct rq for each available processor at boot time. This structure further contains a run-queue for each scheduling policy and holds the following information:  nr_running: number of runnable tasks on the runqueue  nr_switches: number of context switches  cfs: run-queue for the CFS scheduling policy  rt: run-queue for the real-time scheduling policy  curr: pointer to the currently executing task  lock: spin lock for the run-queue  active: the active priority array, contains tasks that have not used up their time-slices  expired: the expired priority array, contains tasks that have used up their time-slices 4.2.3. Struct sched_class This structure provides the framework to implement a new scheduling class. It uses the following callback functions. To implement a new scheduling policy, we need

Figure 3. The Schedule() function in brief. Source: Owner

to define a new scheduling class. A run-queue has to be created, and queue operations such as enqueue, dequeue, requeue need to be implemented. These are discussed below.  enqueue_task: called when a task enters a runnable state; increments nr_running  dequeue_task: called when a task needs to go to the wait state; decrements nr_running  requeue_task: called when the time-slice of a task expires and it needs to be requeued  check_preempt_curr: checks if a task that entered the runnable state should preempt the currently executing task  pick_next_task: chooses the task that should run next from the run-queue  next: This is a pointer to the next scheduling class in the hierarchy 4.2.4. The Schedule() function The schedule() function is the most important function in the sched.c file. It is in-charge of selecting the next process based on the scheduling classes and for performing a context switch between the currently executing process and the process that has been selected to be executed. This function is called when a timer-interrupt occurs (scheduler_tick), when a process wants to sleep or when a process voluntarily yields the CPU (sys_sched_yield). Fig.3 and the call graph in Fig.4 provides an overview of this process. The first general instruction of the schedule() is to disable preemption. It then retrieves the run-queue based on current processor by calling smp_processor_id() followed by cpu_rq(). Then, it releases the kernel lock on the current task and obtains the lock on the current run-queue. The next step is to invoke the pre_schedule() method. At this point, it is time to determine which task should be executed next, and this is done by calling pick_next _task(). The scheduler invokes the function based on the scheduling policy, and looks for the appropriate implementation in the corresponding scheduling class. Once the next task has been chosen, the schedule function checks not only whether the current task is the same as the next task but also whether a context switch is really required. If the two tasks are the same, it simply releases the lock of running queue and executes post_schedule(). Otherwise, it performs a context switch and then executes post_schedule().

219


MejĂ­a et al / DYNA 82 (189), pp. 216-225. February, 2015.

Figure 5. Assumptions for the Lottery scheduling implemented in this work. Source: Owner

that have their scheduling policy set to SCHED_LOTTERY was declared in kernel/sched.c. An instance of the lottery run-queue was created in struct rq. The following code snippets illustrate these changes. Figure 4. Call graph for schedule() function. Source: Owner

4.3.3. Implementation of the lottery_sched_class

4.3. Implementing the Lottery Scheduler This subsection describes the detailed implementation of the lottery scheduling policy. We begin by stating our assumptions and the data structures that we introduced in the kernel. We then discuss the scheduling class that we added. Further, Section 4.4 explains our debugging and logging mechanisms [11,17].

As discussed in Section 4.2, to implement a new scheduling policy, we need to introduce a new scheduling class in the kernel. This involves creating a new run-queue for the scheduling policy, implementing the queue operations and the callback functions in the scheduling class, and making the design decision of where to place this scheduling class in the existing hierarchy of schedulers.

4.3.1. Assumptions For the scope of this implementation, we make the following 3 assumptions: 1) Every new process will be initialized to three tickets. 2) At any point in time, a process can possess a maximum of five tickets, and a minimum of one ticket. And 3) Compensation would favor interactive processes and punish processes that have been luckier than others. If less than 10ms have elapsed since the last time the process was on the CPU, the process loses one ticket. If more than 100ms have elapsed since the last time the process was on the CPU, the process gains one ticket [11]. See Fig.5 for the complete process undertaken every time the scheduler has to pick the next task for being processed in the CPU , taking into account the assumptions for Lottery scheduling. 4.3.2. Initialization and Data Structures To begin with, a new policy with the name SCHED_LOTTERY was added to include/linux/sched.h and a configuration option was set up for the lottery scheduler in arch/um/KConfig. The copy_process() function in fork.c was modified to initialize three tickets to each task that was being created in the system. We then modified the process control block structure, task_struct and added two fields to this structure that let us account for the number of tickets that the process held at the time, and the previous jiffies value, which is compared to the current jiffies value to check for compensation. A new run-queue that would hold tasks

The lottery scheduling algorithm is not real-time, so we decided to place it between the real-time scheduling class and the fair scheduling class. This would mean that any process that is not real-time and has its policy set to SCHED_LOTTERY would be given preference over the regular SCHED_NORMAL policy, which is the CFS algorithm. This is illustrated in Fig.6. The following code snippet shows the definition of the lottery scheduling class.

Figure 6. Hierarchy of scheduler modules including the Lottery scheduler. Source: Owner

220


MejĂ­a et al / DYNA 82 (189), pp. 216-225. February, 2015.

As discussed earlier, the main algorithm for a scheduling policy is contained in pick_next_task. For the lottery scheduler, this function uses the following algorithm: Step 1: Check for compensation This is done by subtracting the value of p->prevJiffies from jiffies. The number that we obtain gives us the time elapsed since the last time the process p was on the CPU. If this is less than 10ms, the process loses one ticket. If this is greater than 100ms, the process gains one ticket. While using jiffies is fine-grained enough for compensation, we realized that using a high-resolution timer like RDTSC could produce more accurate values. We modified our initial implementation to use exact CPU cycles and the processor clock frequency to obtain the elapsed time. A detailed discussion on timers can be found in Section 4.5. Step 2: Count the total number of tickets in the system We traverse the run-queue and add the total tickets present in the system at this time. Note that this depends on the number of runnable processes available, and is a linear scan. Step 3: Draw a lucky ticket randomly The get_random_bytes function is used to draw a random ticket in the range of 1 to total number of tickets in the system (as calculated in Step 2). Step 4: Search for the winning process As discussed in Section 3, we now scan the queue and search for the process with the lucky ticket. This is done by accumulating the tickets of the processes we have seen so far in the queue, and then checking whether the current process has the lucky ticket. This check is performed by comparing the accumulated value with the random value obtained in Step 3. This algorithm scans the entire queue in the worst case, and is hence linear in the number of runnable processes. Step 5: Set next to the winning process, update the prevJiffies (or TSC value) and return. This step returns back the control to the schedule function that had invoked pick_next_task. The schedule function then does a context switch and allocates the CPU to the winning process. A code snippet of pick_next_task has been attached in Appendix A. Table 1 lists all files that were modified or added in order to implement the lottery scheduling algorithm on Linux 2.6.24 kernel. 4.4. Debugging and logging information from the kernel One of the most challenging issues when writing kernel code is debugging. Kernel code cannot be easily traced or

Table 1. List of files modified or added to Linux 2.6.24 and the main changes. Linux 2.6.24 Main changes kernel - File task_struct (process control block), include/linux/sched.h declaration of sch_event and sch_event_log, register_sch_event(). kernel/fork.c copy_process() initialize tickets. runqueue structures, sched_init(), kernel/sched.c schedule(), sched_fork(), _set_scheduler(). Scheduling class for our policy, kernel/sched_lottery.c pick_next_task(),queue operations. sch_operations (sch_open, sch_read, fs/proc/proc_misc.c sch_release). Source: Owner

attached to a debugger. The most common debugging technique for application programming is to use printf statements. The same can be accomplished in kernel code with the help of the printk statement. Priorities, or loglevels, can be associated with printk statements. These loglevels are defined as macros. Some examples of log-levels include KERN_INFO, KERN_ALERT, KERN_ERR, KERN_CRIT and KERN_DEBUG. Depending on the loglevel, the message could be printed to the console or terminal. If the klogd and syslogd daemons are running on the system, these messages are appended to /var/log/messages. If klogd is not running, the message would have to be retrieved by reading the /proc/kmesg file. The printk function writes messages out to a circular buffer. The klogd process retrieves these and dispatches them to syslogd, which in turn decides whether or not to print the message to the console based on its priority. Although printk can be successfully used for debugging, it can slow down the system substantially. This is because syslogd needs to synchronize all the output file views, which means that every printk would incur a disk I/O penalty. syslogd tries to write everything out to the disk as soon as possible because the system might encounter a fatal state or could crash after printing out information from the kernel. Because of this limitation, debugging by printing is not considered to be the best practice when writing kernel code. The better approach is to query the system for relevant information when needed, instead of continuously producing data that might not necessarily be read. Thus, it is more appropriate to add a new file to the /proc/ file system and use the strategy of debugging by querying. We provide a brief overview of how the /proc/ file system works and discuss our event-logging mechanism in the next subsection. 4.4.1. Adding a Log to the /proc/File System The /proc/ file system is widely used in Linux to obtain statistical and configuration information. It is a pseudo file system that is used by the kernel to export its internal information and state to the user space. Files in the /proc/ file system do not map to physical files on disks and hence do not take up any space. The contents of the files are generated dynamically when a user attempts to read the file and are stored in memory as opposed to the disk. The /proc/

221


MejĂ­a et al / DYNA 82 (189), pp. 216-225. February, 2015.

file system registers itself with the Virtual File System (VFS), however, when VFS requests it for i-node or directory information, it creates these files/directories on the fly from information within the kernel. It thus provides a view into the running kernel. The linux/proc_fs.h header file provides the API that can be used to create /proc/ entries. /proc/ entries are created based on the proc_dir_entry structure, that links the created entry to the callback functions that would be used when it is read/written to. The following code segment depicts this.

The next code segment explains how we implemented the logging mechanism in our kernel. Here, sch_event is defined as the basic unit of logging in the /linux/sched.h file. This structure comprised of an action (like enqueue, dequeue, context switch or debug) that identified a significant event, a time-stamp to record when the event occurred, and a message that could contain some extra information about the event. A structure for holding the log that would record a series of events that occurred is also created. We further defined functions that would help initialize and obtain the log and register an event. The register_sch_event() is the key function that gets called whenever an event needs to be logged. Fig.7 shows a call graph that explains how this works. 4.5. Accurate time-stamping Another important aspect of this implementation was the resolution of the timers that we used for compensation and timestamping. The kernel keeps track of time using timer interrupts. These interrupts are generated by the timing hardware, and an architecture-dependent value for this is defined in the Hz variable in linux/param.h. This value specifies the number of interrupts that would occur per second, and is usually set to 100, or 1000. Every time a timer interrupt occurs, a counter maintained by the kernel called jiffies is incremented. This counter must be treated as read-only when writing kernel code. If the Hz value is set to 1000, a timer interrupt would occur every millisecond (1000 times in a second), and jiffies would be incremented every millisecond. A lower value of the Hz variable would mean lesser interrupt handler overhead and slower wrap around; however, this would lead to a low resolution and sampling rate of the kernel time-line.

Figure 7. Call graph for register_sch_event(). Source: Owner

Lottery scheduling uses compensation tickets, which means that a process that has not been “lucky� enough to win and has not been scheduled recently needs to be favored by granting it additional tickets. This requires accurate information about the time associated with the process. Also, when measuring scheduling overhead, we want to measure the time taken by the pick_next_task() to scan the queue and select the next task to be run. Both these operations, namely, checking for compensation and measurement of overhead need higher resolution timers than jiffies. The main reason for higher resolution is that modern processors have a clock cycle of the order of GHz, and this means that they perform tasks faster and need to be sampled at a resolution in the range of 0.5 to 1 nanoseconds. To address this issue, the RDTSC time stamp counter, which is a 64-bit machine specific register available on Pentium machine was used. This counts the number of processor cycles, and is incremented once per clock cycle making it highly accurate. RDTSC can be accessed from user space as well as kernel space with the help of the API present in asm/msr.h. This header file provides three functions to read the RDTSC value. These are rdtsc (low, high), rdtscl(low) and rdtscll(long_val). The first function reads the lower and higher order bits of the register in the low and high variables. The second function reads the lower order bits into low, and the third function reads the entire 64-bit value in an unsigned long long variable long_val. The following code snippet shows the usage of the

222


Mejía et al / DYNA 82 (189), pp. 216-225. February, 2015.

rdtscl() function to gather the lower-order 32-bits of the RDTSC counter. We used this to measure scheduling overhead and also to calculate compensation accurately by measuring processor cycles.

5. Evaluation As discussed in Section 1, the goals of a scheduler are to ensure fairness, prevent starvation, provide a good response time for interactive processes and have a high system throughput. In a multi-user system, it is also important to ensure load insulation. Another important aspect to be considered when evaluating a scheduling policy is the overhead incurred by the algorithm. We address these aspects in this section and present our results. All our experiments were run with root permissions, in a single-user, User-mode Linux setup with SMP disabled. UML was launched with 512MB of memory. 5.1. Test cases We used two test-cases to evaluate the performance of our scheduler. The first test-case was compute-bound. This test spawns four processes, and each process runs a long computational loop. To preclude the compiler from optimizing the loops, it is necessary to generate values that cannot be determined by the compiler in advance. Also, the loop termination condition needs to be unpredictable. This ensures that poor cache performance for the loop and that the computations cannot be incrementally calculated. This is important when evaluating fairness, because processes spawned later could take advantage of relevant data being present in the cache, and this would bias the results greatly. The second test-case is I/O-intensive. A structure that comprises of integer, floating-point and string data that is a little bigger than the memory page size is declared. We then write out thousands of such records to the disk, and read these in both random and sequential manner. After each operation, a cache flush is performed to ensure that we have a fair comparison between processes. 5.2. Test scenarios Equipped with the test-cases described previously, we evaluated how fair our scheduling policy is. The following test scenarios were considered:  Compute-intensive workload  I/O-intensive workload  Mixed workload, which comprises of both computeintensive and I/O-intensive processes.

For the compute-intensive workload, we executed up to five instances of our compute-bound test-case. Similarly, for the I/O-intensive workload, we ran up to five instances of our I/O-bound test-case. For the mixed workload, we ran one instance of the compute-bound and two instances of our I/O bound test-case. Since the lottery scheduler is expected to be linear in the number of processes in the run-queue, it was necessary to evaluate the overhead of our scheduling policy. As discussed in section 4.5, an important aspect of measuring this overhead was the accuracy and resolution of our timestamping mechanism. We used the RDTSC time stamp counter to measure the exact number of CPU cycles taken for the pick_next_task() function to count the total tickets in the system, draw a random ticket and scan the queue to find the process holding the winning ticket. All the results are presented in the next sub-section. 5.3. Results Figs. 8 and 9 illustrate the fairness results. The first set of graphs shows compute-intensive workload, and the second set of graphs illustrates the I/O-intensive and mixed workloads. When ran individually, the CPU-bound process (just one of the forked processes) takes about 3.5 seconds to execute. When 12 such processes were launched, it was observed that about half of these finished in less than 4 seconds. Two of the processes took as long as 4.6 seconds to execute. Similarly, when twenty such processes were launched, we observed that three of these took more than 4.5 seconds to execute, while most of the processes finished in less than four seconds. We can conclude from these results that the lottery scheduler is probabilistically fair, and does not starve compute-bound processes. Also, as there is some randomness involved, even with compensation, there may be a few processes (about 10 – 15 % of the processes launched) that may be slowed down significantly. We ran a similar test for I/O-bound processes, and observed the same phenomenon. When executed in isolation, the I/O bound process takes a little over 0.55 seconds to finish. When five such processes were launched, we observed that two of these finished a little earlier than expected (in about 0.53 seconds), and two other processes with the same workload took about 0.7 seconds. For the mixed workload, we observed an important trend-- the performance of the I/O-intensive tasks was not influenced by the compute-intensive tasks. This depicts the effectiveness of using compensation tickets. In sum, we observed that the implementation of the lottery scheduler was probabilistically fair, had good performance with I/Ointensive workload, and prevented starvation. Fig. 10 presents the overhead of our scheduling policy. Theoretically, we expect the scheduler to take linear time in the number of runnable processes, as we scan the run-queue to determine the process with the winning ticket when we pick the next task. We noted a few anomalies in our actual results though, and we would attribute these to the error in RDTSC measurements because of wrapping around of the counter values. Also, we conducted the experiment on UML and not on a real machine. Another thing to note here is that

223


Mejía et al / DYNA 82 (189), pp. 216-225. February, 2015.

the overhead includes the scheduling overhead for background processes and daemons that were running in the system, such as the kthreadd, ksoftirq, and keventd. We observed that the overhead is still roughly linear, especially after a queue length of six, beyond which most processes are the user-space processes.

Table 2. Existing solutions vs. Lottery scheduling. Priority Based Fair Share Schedulers Scheduling Tasks are given CPU usage is equally absolute priority. distributed among Issues: Starvation and clients. difficult to compose or Issues: Complexity abstract inter- module and overhead. priority relations

Lottery Scheduling Probabilistic resource allocation. Solves starvation and it is fairness. Efficient and responsive over relative execution rates of computation.

Source: Owner

Process

CPU Bound Processes 2 4 6 8 10 12 14 16 18 20

Figure 10. Overhead of the Lottery Scheduler. Source: Owner

6. Conclusions 0 0,5 1 1,5 2 2,5 3 3,5 4 4,5 5 5,5

Time (secs) Figure 8. Fairness of CPU-intensive workload. Source: Owner

Process

I/O Bound Processes 2 5 0

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

Time (secs)

References

Mixed Workload Processes

We presented the design and implementation of the lottery based process scheduling algorithm for the Linux 2.6 kernel. The results indicate that the scheduling policy is fair, and that compensation tickets help in boosting the performance of I/O-bound processes. Also, the scheduler prevents starvation and priority inversion. We also measured the scheduling overhead and observed that the algorithm is roughly linear in the number of runnable processes, as expected. Some suggested enhancements would include implementing a O(log n) algorithm for picking the next task. This would reduce the overhead of the scheduler significantly. Also, as discussed in [2,4] the performance can be further improved by using kernel priorities and abbreviated quanta.

[1]

1 3

[2]

B 0

0,5

1

1,5

2

2,5

3

3,5

Time (secs) Figure 9. Fairness for I/O-intensive and mixed workload. Source: Owner

4

4,5 [3] [4]

224

Silberschatz, A., Galvin, P.B. and Gagne, G., CPU Scheduling. operating system concepts, Ninth Edit., John Wiley & Sons, Inc., 2012, 972 P. Waldspurger, C.A. and Weihl, W.E., Lottery scheduling : Flexible proportional-share resource management. Interface. 19, pp. 1-11, 1994. The Linux kernel archives. [Online]. Available at: https://www.kernel.org/. Linux kernel newbies. [Online].Available at: http://kernelnewbies.org/.


Mejía et al / DYNA 82 (189), pp. 216-225. February, 2015. [5] [6] [7] [8] [9]

[10]

[11] [12] [13] [14] [15] [16] [17] [18]

[19]

Drexler, K.E. and Miller, M.S., Incentive engineering for computational resource management. Huberman, B.A. (Ed.), The Ecology of Computation, pp. 231-266, 1998. Kay, J. and Lauder, P., A fair share scheduler. Communications of the ACM, 31 (1), pp. 44-55, 1979. Waldspurger, C.A., Hogg, T., Huberman, B.A, Kephart, J. and Scott, W., Spawn: A distributed computational economy, 18 (2), pp. 103117, 1992. Waldspurger, C.A. and Weihl, W.E., Lottery scheduling: Flexible proportional-share resource management. Interface. 19, pp. 1-11, 1994. Waldspurger, C.A. and Weihl, W.E., Stride scheduling: Deterministic proportional-share resource management. Technical Memorandum MIT/LCS/TM- 528. Cambridge, MA: MIT Laboratory for Computer Science, 1995. Fong, L.L. and Squillante, M.S., Time-function scheduling: A general approach to controllable resource management. Yorktown Heights, NY: IBM Research Division, T.J. Watson Research Center, 1994, 230 P. Petrou, D., Milford, J.W. and Gibson, G.A., Implementing lottery scheduling: Matching the specializations in traditional schedulers, USENIX, pp. 1-14, 1999. Spath, J., Lottery scheduling in the Linux kernel. College of William and Mary, Williamsburg, Virginia, 1998. Zepp, D., Lottery scheduling in the Linux kernel: A closer look. MSc. Thesis, California Polytechnic State University, San Luis Obispo, USA, 2012. The User-mode Linux kernel. [Online]. Available at: http://usermode-linux.sourceforge.net/. Dike, J., User mode Linux. Prentice Hall, 2006. Bovet D.P. and Cesati M., Process scheduling. Understanding the Linux kernel, O’REILLY, 2000, 704 P. Grimm, R., Lottery Scheduling. [Online]. Available at: https://cs.nyu.edu/rgrimm/teaching/sp07-os/lottery.pdf. Zahedi, S.M. and Lee, B.C., REF: Resource elasticity fairness with sharing incentives for multiprocessors, Proceedings of the 19th international conference on Architectural support for programming languages and operating systems, Salt Lake City, Utah, USA, 2014. Nykiel, T., Potamias, M., Mishra, Ch., Kollios, G. and Koudas, N., Sharing across multiple MapReduce jobs, ACM Transactions on Database Systems (TODS), 39 (2), pp.1-46, 2014.

APPENDIX A Code snippet for the pick_next_task function. The algorithm was explained in Section 4.3.

M. Mejía, received the BS. in Computer science at Universidad Autónoma de Manizales, Colombia and a MSc. in Computer Science from both Instituto Tecnológico de Monterrey-Universidad Autónoma de Bucaramanga and the University of Arizona, USA. She also attended the University of Arizona for a PhD in Computer Science. She was awarded the Fulbright PhD Program Scholarship in 2009-2011. She interned at IBM-Almaden Research Center, CA, USA in 2010. She is currently an Associate Professor at Universidad Nacional de Colombia and she is Head of the Graduate office at Universidad de Caldas, Manizales, Colombia. Her research interests include activity recognition, machine learning and data mining. ORCID id: 0000-0002-0682-7338 A. Morales-Betancourt, received the BS. Eng. Electronica from the Universidad Nacional de Colombia. Is Sp. for a Networking from the Universidad de Manizales-Universidad Autónoma de Bucaramanga, Colombia. She is currently an Associate Professor at Universidad de Caldas, colombia and a MSc. student from the Universitat Oberta de Catalunya, Spain. T. Patki, received the BS. in Computer Science and Engineering in 2007, from Guru Gobind Singh Indraprastha University, New Delhi, India and was awarded the University's Gold Medal. She is a PhD (c) student at the Dept. of Computer Science, University of Arizona, USA. Her areas of interest include Memory Systems, Power/Performance Modeling and High Performance Computing.

225

Área Curricular de Ingeniería de Sistemas e Informática Oferta de Posgrados

Especialización en Sistemas Especialización en Mercados de Energía Maestría en Ingeniería - Ingeniería de Sistemas Doctorado en Ingeniería- Sistema e Informática Mayor información: E-mail: acsei_med@unal.edu.co Teléfono: (57-4) 425 5365


Security analysis of a WLAN network sample in Tunja, Boyacá, Colombia Julián Alberto Monsalve-Pulido a, Fredy Andrés Aponte-Novoa b & Fabián Chaparro- Becerra c a

Centro de Investigaciones de Ingenierías Alberto Magno, Universidad Santo Tomás Tunja, Colombia. julian.monsalve@usantoto.edu.co b Facultad de Ingeniería de Sistemas, Universidad Santo Tomás Tunja, Colombia. fredy.aponte@usantoto.edu.co c Facultad de Ingeniería Electrónica, Universidad Santo Tomás Tunja, Colombia. william.chaparro@usantoto.edu.co Received: May 2th, de 2014. Received in revised form: October 31th, 2014. Accepted: November 19th, 2014

Abstract This paper presents results of a safety analysis of WLAN networks in the city of Tunja, Boyacá Colombia, it is based on a random sample distributed in all over the City. The study is a research result of the project "diagnosis of technology security, applied to a sample of organizations in the city of Tunja". It was funded by the University of Santo Tomas Sectional Tunja. The information collected and analyzed was obtained through the techniques warchalking and Wardriving, in a meaningful representation of wireless networks from public, private, educational institutions and households located geographically in different parts of the city. As a result of the research it was demonstrated different risk levels regarding certain technology configurations of devices of the public, private and residential sectors, finally some conclusions and recommendations were made to enhance the level of security through good practice to configurational level and use of these networks. Keywords: Networks, Security, Warchalking, Wardriving, Wep, Wlan, Wpa.

Análisis de seguridad de una muestra de redes WLAN en la ciudad de Tunja, Boyacá, Colombia Resumen Éste documento presenta resultados de un análisis de seguridad de redes WLAN en la ciudad de Tunja Boyacá Colombia basado en una muestra aleatoria distribuida en toda la Ciudad. El estudio es resultado de investigación del proyecto “Diagnóstico de seguridad informática aplicado a una muestra de organizaciones de la ciudad de Tunja” financiado por la Universidad Santo Tomás Seccional Tunja. La información recolectada y analizada se obtuvo mediante las técnicas Warchalking y Wardriving en una representación significativa de redes inalámbricas de empresas públicas, privadas, entidades educativas y hogares ubicados geográficamente en diferentes sectores de la ciudad. Como resultado de la investigación se demostró diferentes niveles de riesgo con respecto a configuraciones de tecnología de algunos dispositivos de entidades públicas, privadas y sectores residenciales, por último se realizaron algunas recomendaciones y conclusiones que mejorarán el nivel de seguridad por medio de buenas prácticas a nivel de configuración y uso de estas redes. Palabras clave: Redes, Seguridad, Warchalking, Wardriving, Wep, Wlan, Wpa

1. Introducción Las redes inalámbricas y particularmente las de acceso local buscan ofrecer parámetros de uso que conlleven a la flexibilidad en la forma de conexión y de uso, la movilidad, el impacto frente a la estética de instalaciones y el ahorro de infraestructura. Por otro lado las redes cableadas no ofrecen flexibilidad en conexión, pero son más seguras para cualquier organización. En Colombia para el año 2005

comenzó en firme la proliferación de redes inalámbricas para la interconexión de información.[1] Incentivos del gobierno como el Plan Vive Digital [2] y del sector privado a través de las grandes operadoras de servicios de telecomunicaciones, los cuales integran y respaldan la curva incremental de oferta/demanda de servicios telemáticos, donde las redes inalámbricas son el actor principal en la masificación del transporte de datos. Los nuevos estilos de vida acelerados y con dependencia tecnológica han llevado

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 226-232. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.43259


Monsalve-Pulido et al / DYNA 82 (189), pp. 226-232. February, 2015.

a cambiar las formas de comunicación con un uso excesivo de dispositivos móviles y un aumento en la necesidad de conexión a redes inalámbricas [3]. Lo anterior lleva a la proliferación y masificación en la forma de conexión sea más rápida y transparente para el usuario final, sin detenerse a analizar la seguridad de las conexiones y la forma de interactuar con ellas. Además del uso en oficinas y en el hogar, las redes inalámbricas se hacen presentes en procesos de control en la industria, un ejemplo de esto es lo desarrollado en el proyecto “Sistema inalámbrico de monitorización para cultivos en invernadero” compuesto por una red de sensores inalámbricos, también llamada Wsn por sus siglas en inglés (Wireless Sensor Networks), red conformada por nodos sensores capaces de medir cambios en el ambiente, alMacenar la información y transmitirla al nodo vecino a través de redes multi-salto, para luego mostrar esta información al usuario en una interfaz gráfica. [4] El uso de redes inalámbricas para la transmisión de datos tiene como principal característica la flexibilidad de uso derivado de la no conectividad física y la disminución de costos referente al despliegue de soluciones cableadas; sin embargo, estas redes están propensas a interferencias y errores de transmisión debido al tipo de bandas de frecuencias libres utilizadas. [5] Es común encontrar redes Wlan [6] sin seguridad de acceso (abiertas) o con seguridad Wep (Wireless Encryption Protocol), lo cual representa una gran deficiencia en su estructura de seguridad y una vulnerabilidad fuertemente expuesta a ser atacada, las redes abiertas están expuestas a ser suplantadas fácilmente y las protegidas bajo Wep [6] son fuertemente vulnerables en su autenticación debido a que emplea una encriptación de 40 a 128 bits, que en la práctica representa un ataque en promedio de cuatro (4) minutos para lograr acceder a ellas [7]. Wpa (WiFi Protect Access) otro esquema de encriptación, aunque es más robusto en su esquema de seguridad, simplemente retarda el mecanismo de vulnerabilidad a un par de horas adicionales de procesamiento para encontrar la llave de acceso a la red; como solución y medida adoptada para la solución a estas deficiencias, la IEEE desarrollo una arquitectura de seguridad, especificada bajo el estándar IEEE 802.1x, particularmente el estándar IEEE 802.11i especifica cómo se implementa la seguridad en redes inalámbricas [8,9]. En los últimos años se desarrollaron diversos estándares de seguridad para las redes inalámbricas, en la práctica se encontraron razones de no utilización por parte de los usuarios, por limitantes en el hardware, configuración no adecuada, software desactualizado o por desconocimiento de los usuarios frente a las problemáticas y potenciales soluciones derivadas de las mismas. Lo anterior tiene consecuencias perjudiciales en la administración de estas redes, facilitando el ingreso de intrusos a la infraestructura de red y las vulnerabilidades que ello representa para la información que sobre ellas circula. Es importante reseñar que ningún sistema de seguridad es totalmente seguro y que cuando se usa el medio inalámbrico el riesgo aumenta con parámetros altamente significativos. El no disponer de un medio de conexión físico y de políticas de administración de seguridad eficientes en el plano de conectividad

inalámbrico, conlleva a una potencial puerta de vulnerabilidad de acceso que se puede abrir con conocimientos mínimos de herramientas informáticas especializadas y por consiguiente el acceso a la información que circula por la red de datos o a la que se encuentra en los dispositivos que conformen la misma. Se realizó un proceso de vigilancia tecnología en los temas de Warchalking y Wardriving en bases de datos Scopus e IEEE XPLORE donde se encuentra 26 trabajos en el área, se destaca un 69.2% de trabajos presentados en eventos científicos seguido con un 19.2% de artículos publicados en revistas investigativas, con un 11.4% repartido en revisiones, libros y conferencias. Por otro lado el mayor número de publicaciones se central en el año 2010 con 6 registros reduciéndose para el 2012 con 2 publicaciones, el 2013 con 4 y en el 2014 solo registrá 2 trabajos. Los países que más han registrado resultados en esta técnica se centran en los Estados Unidos con 14 trabajos, seguido con el Reino Unido con 5 trabajos, China con 3 trabajos y finalmente Francia con 2 trabajos. El uso del método Wardriving tiene como objetivo en la investigación la obtención de datos de redes inalámbricas por medio de un vehículo en movimiento [10], utilizando dispositivos tradicionales como un Smartphone, Laptops o un Gps. Investigaciones como [11] analizar los datos Wardriving en Wcdma reales, Gsm y redes WiFi describe cómo el arrastre de la señal degrada su rendimiento para su posterior filtro y análisis. Por otro lado Warchalking es la definición de un lenguaje para marcar los puntos donde las personas pueden conectarse a una red inalámbrica abierta para hacer el uso del internet. Investigaciones como [12] relacionan una metodología de aplicación de Warchalking para las redes abiertas y los retos técnicos de seguridad que se deben tener en cuenta en las redes abiertas con propósito social no delictivo. 1.1. Referentes Para realizar una auditoria en redes WiFi en la banda de frecuencia de 2.4 GHz y verificar el grado de vulnerabilidad y amenaza, se contempla la caracterización de ataques provenientes de terceros independientes a la infraestructura de red bajo la integración y uso de plataformas libres [13]. Para ello es necesario verificar el grado de seguridad de los tipos de encriptación mayormente utilizados como Wep y Wpa [14], permitiendo determinar las vulnerabilidades más esenciales de seguridad de estas llaves de encriptación. Wep parametriza un sistema de encriptación propuesto por el comité IEEE 802.11 [15], se implementa en la capa Mac (Media Access Control), relacionado en la capa de enlace del modelo OSI. Wep comprime y cifra los datos que se envían a través de las ondas de radio. La tarjeta de red encripta el cuerpo de los paquetes de información y el CRC (Cyclic Redundancy Check) de cada trama 802.11 antes de la transmisión utilizando el algoritmo de encriptación RC4 proporcionando por The Security Division of EMC Corporation (RSA Security). La estación receptora, sea un punto de acceso o una estación cliente, es la encargada de desencriptar la trama. Wep especifica una llave secreta compartida de 40 ó 64 bits

227


Monsalve-Pulido et al / DYNA 82 (189), pp. 226-232. February, 2015.

para encriptar y desencriptar información, la misma utiliza la encriptación simétrica en su proceso [15]. La vulnerabilidad de Wep reside en la insuficiente longitud del vector de inicialización y lo estáticas que permanecen las llaves del cifrado [16,17]. Wep utiliza la misma llave para paquetes diferentes, lo cual lleva a repetir a partir de cierto tiempo la transmisión continua, en este momento es cuando el atacante puede capturar suficientes tramas y determinar la llave compartida. Wpa es un sistema desarrollado para proteger las redes inalámbricas, este protocolo en principio fue desarrollado para intentar corregir las deficiencias del sistema previo Wep [14,15]. Wpa [18] implementa el estándar IEEE 802.11i [8,14] que mejora las debilidades más representativas presentes en su antecesor. El funcionamiento de Wpa [19] se basa en la autenticación de usuarios mediante el uso de un servidor, para ello se almacenan credenciales y contraseñas de los usuarios de la red; Wpa permite la autenticación mediante clave pre-compartida al igual que Wep, ella requiere introducir la misma clave en todos los equipos que quieran conectarse a la red. La ventaja de Wpa [20] frente a Wep es que la clave precompartida solo se envía una vez y no como en Wep, donde el envío de la llave es constante, podemos denominar a este proceso un handshake que correlaciona la negociación de apertura entre el cliente y el router para el intercambio de información. En Wep [20] por su parte se captura la llave basado en que está viaja con los paquetes intercambiados entre router y usuario, Wpa [20], requiere de la comparación con un diccionario para asociar y encontrar relación directa con la llave intercambiada entre router y usuario, solo en el momento en que se inicia negociación de conexión.

primer lugar se debe contar con una tarjeta de red asociada al computador que este en capacidad de inyectar paquetes y ponerse en modo de escucha en el espectro electromagnético. Los ataques de denegación de servicio son relativamente sencillos de realizar, buscan afectar la disponibilidad en los entornos inalámbricos, pueden ser realizados desde varios enfoques como aquellos que utilizan un dispositivo de radiofrecuencia de alta potencia para generar interferencias, esto limitaría el usuario legítimo en lo concerniente a la capacidad para utilizar servicios primarios. Se referencia la interferencia propia de canales, las mismas se producen por ejemplo cuando otro dispositivo como un router Wifi ó dispositivo que se encuentre operando en la frecuencia de 2.4 o 5.8 GHz (dependiendo de la tecnología) interfiere en el canal que tiene seleccionado el primer Access Point, esto provoca reenvíos continuos de datos con lo que la conexión limita su capacidad, ocasionando en algunas ocasiones caída completa del servicio. Cuando se está utilizando el protocolo IEEE 802.11n [22-24] el problema puede ser aún peor, derivado del funcionamiento en que se basa el envío de múltiples ondas de radio en un punto de acceso para conseguir una mayor velocidad, en el momento en que una de ellas es interferida el resto no funciona de manera correcta. 2. Materiales y Métodos Para esta investigación se analizaron 150 puntos de red WiFi utilizando técnicas como Warchalking y Wardriving [10] tomados en 17 diferentes lugares de la ciudad de Tunja. En la Fig. 1 se observa un mapa de la ciudad con la ubicación de los puntos donde se realizaron las muestras, cada uno de los sitios de muestreo identificados con letras

1.2. Principales debilidades en Redes Wlan Las redes Wlan presentan debilidades en la seguridad por la propagación de señales isotrópicas en el medio no guiado, en esta sección se van a relacionar algunos ataques que pueden tener este tipo de redes [7,14]. Los ataques de escucha de monitorización pasiva se realizan por medio de la autenticación mediante la captura y cracking de cierto número de paquetes, permitiendo acceder y realizar el monitoreo al tráfico presente en el entorno como cualquier cliente autenticado frente al punto de acceso. Análogamente también es posible realizar la inyección y modificación de mensajes sin necesidad de descifrar claves [7]. Los ataques de intercepción – inserción operan sobre el protocolo 802.11, facilitan la captura y redirección de sesiones, la estación que transmite no es capaz de detectar la presencia de estaciones adyacentes con la misma dirección Mac ó IP lo cual permite que se lleve a cabo un ataque de secuestro de sesión mediante el uso de dos estaciones hostiles diferentes; desde el Sistema Operativo Windows de Microsoft, tenemos herramientas de software como Fake Mac para clonar la dirección física asociada a cada tarjeta de red y de esta manera ejecutar ataques. Uno de los ejemplos para este tipo de ataques es realizar una auditoria con la suite de licencia de software libre Aircrack [21], en

Figura 1. Cartografía de redes inalámbricas caso de estudio ciudad de Tunja. Fuente: Autores

228


Monsalve-Pulido et al / DYNA 82 (189), pp. 226-232. February, 2015. Tabla 1. Información general en la toma de datos de redes Wlan en la ciudad de Tunja (Boyacá, Colombia) mediante técnicas de Warchalking y Wardriving. Punto Redes Redes No ID Zona Hogar Comerciales A 1 3 8 B. Maldonado B 3 5 2 Terminal C 2 2 1 Trav 16A No 20 D 1 2 1 Ed. Lumol E 2 1 6 C. R Villa Cecilia F 5 2 2 B. Suamox G 3 1 5 B. Centenario H 5 1 3 Plazoleta Muisca I 1 27 0 Unicentro J 2 4 2 Ed. California K 0 2 1 Glorieta L 2 0 1 Trav 2E - B. Muiscas M 6 2 1 Cl 19 No 13 N 1 0 0 Cl 24 No 14 O 9 0 0 Cr 14 No 23 P 6 4 0 B. San Antonio Q 6 0 6 Cr 7 No 23 Fuente: Los Autores

mayúsculas se encuentran acompañados de un número que representa la cantidad de puntos tomados en ese lugar. Tabla 1. En el proceso de parametrización de redes inalámbricas se utilizó la herramienta de software WiEye que en su fácil uso recolecta información importante para la investigación. A continuación, se muestra la Tabla 1 que correlaciona la información señalada. Para completar la información en la toma de los datos, fue importante el anexo del geo-posicionamiento de cada uno de los puntos relacionados donde se utilizó la herramienta de software Gps Logger, ya que por su facilidad de uso y por su licencia de software libre, permitió gestionar un proceso de geo-localización dinámico. Para cada uno de los puntos de red se capturó información como Ssid (Service Set IDentifier) o nombre de la red, Strength (fuerza de la señal), tipo de autenticación, cifrado y canal, además se identificó si la red corresponde a un hogar o a una entidad comercial. En la Fig. 2 se ilustra la agrupación de las redes por este parámetro, se puede observar que el 44% de las redes tienen relación con hogares, un 36% de las mismas con establecimientos comerciales, entre los que se encuentran Pymes, universidades, entidades estatales y privadas, y un 20% de estas redes no pudieron ser identificadas, debido a que presentan en su SSID nombres como “75711804”, lo que por lo general está asociado hacia la identificación de abonados residenciales y/o pequeñas empresas. La encriptación Wep utiliza un vector de inicialización para establecer los valores de la llave de seguridad (encriptación). La característica de estabilidad que permanecen en estas llaves posibilitan que el sistema sea vulnerable, en promedio el proceso de encontrar la llave de seguridad bajo parámetros Wep que no se extiende de cuatro (4) minutos aproximadamente, lo que correlaciona la existencia de problemas serios en este tipo de seguridad; los usuarios que utilicen el tipo de encriptación Wep pueden ser potencialmente vulnerados y la probabilidad del robo de información es alta [15,7]. Lo anterior fundamentado

Figura 2. Tipos de redes. Fuente: Autores

en la posibilidad de adoptar el rol de un usuario valido por parte de un atacante referenciado desde la puerta de la capa dos (2) de modelo OSI “capa de enlace”, donde se integran y correlacionan parámetros de identificación física de los dispositivos de red y los parámetros lógicos de la infraestructura. En Wpa y sus respectivas configuraciones se utiliza un esquema similar al empleado en Wep [20]. A diferencia, su vulnerabilidad no es tan latente. Para realizar un ataque dentro de este esquema de seguridad es necesario realizar un ataque de denegación de servicio y de esta manera forzar al usuario para que se valide nuevamente, esto posibilitaría capturar el handshake [7], necesario para descifrar la llave precompartida. El tiempo de captura en descifrar Wpa puede tardar aproximadamente 6 horas si no se dispone de un diccionario que permita comparar la llave de entrada con esta base de datos, Wpa nos ofrece un método más seguro para proteger los datos en una red WiFi este método es más trascendente ya que presenta forzamiento de la desconexión del usuario legitimo por medio de un ataque de denegación de servicio con el ánimo de capturar la llave precompartida, en este punto se correlaciona con un alto nivel de seguridad comparado con su predecesor Wep, además es necesario forzar la búsqueda de la llave en la comparación con el diccionario a partir de una búsqueda en la Rainbow Table (Tabla de Opciones) [18] .

Figura 3. Distribución de la seguridad en Wlan. Fuente: Autores

229


Monsalve-Pulido et al / DYNA 82 (189), pp. 226-232. February, 2015.

Figura 5. Canales utilizados. Fuente: Autores

Figura 4. Distribución de la seguridad Cifrado Wpa. Fuente: Autores

No importa el tipo de configuración que se use hoy en día, existen herramientas que permiten el acceso a redes privadas por medio de parámetros y agujeros que no hacen del todo robusta las llaves desarrolladas de encriptación, no ofrecen confiabilidad frente a lo que actualmente se encuentra desplegado en el ámbito comercial usado por la gran mayoría de usuarios convencionales (empresas, instituciones públicas y privadas y por supuesto a nivel residencial.) De las redes analizadas se puede decir que un 68.67% se encuentran protegidas con autenticación Wpa, distribuidas en un 44,67% y Wpa2 en un 24%, por otro lado el 31.1% de las redes objeto de estudio presenta un nivel bajo de seguridad [5], representados en un 22% con autenticación Wep, mientras que el 9.33% restante no tienen algún tipo de autenticación, siendo vulnerables a ser atacadas, los anteriores datos se correlacionan en la Fig. 3. De las redes que presentan autenticación Wpa y Wpa2 (68.67%) se presentan diferentes tipos de cifrado, en la Fig. 4 se observa que un 66% cuentan con cifrado TKIP, un 33% PSK y un 1% con cifrado CCMP [18]. Un factor importante a tener en cuenta en el rendimiento de una red WiFi es el canal utilizado, en la Fig. 5 se encuentra la distribución del uso de los canales en las redes analizadas. Se identificó que los canales más usados son el uno (18%), el seis (30%) y predomina el canal once (39.33%), aunque esta distribución minimiza el efecto de interferencia derivado de consecuencias de interferencia co-canal, observamos que el mismo puede presentar limitante de área de cubrimiento, latencias, intermitencias y falta de estabilidad en el funcionamiento derivado de la sobrecarga de uso en los espectros de frecuencia que ocupan estos canales citados, especialmente el del canal número 11. Por lo

anterior se recomienda a nuevos accesos y equipos instalados de cobertura inalámbrica nivelar el uso de canales a partir de la configuración del canal número 1 del espectro de frecuencias en el área metropolitana de la ciudad de Tunja y de esta forma caracterizar un adecuado sistema de multiplexación ortogonal de frecuencia que se disminuirá la sobrecarga por uso de canales comunes y de manera transversal el potencial efecto de traslapamiento de canales entre usuarios cercanos. Otro aspecto importante a tener en cuenta al momento de verificar la vulnerabilidad de una red inalámbrica es el Strength (fuerza) o intensidad de la señal, si presenta valores entre -58 y -84 dBm es vulnerable a ser atacada, es más fácil la captura de paquetes handshake para efectuar ataques, caso contrario se presenta en valores inferiores a 84 dBm donde se expone a la presencia de pérdida de paquetes en la captura de datos y en el caso de valores superiores a – 58 dBm se dificulta capturar la información circundante en el espectro radioeléctrico. En la Fig. 6 se observa la distribución de las redes analizadas en el rango de estos valores de Strength, con lo cual podemos identificar que un 32% de los puntos de red capturados son sensibles a ser atacados.

Figura 6. Porcentajes de intensidad de señal. Fuente: Autores

230


Monsalve-Pulido et al / DYNA 82 (189), pp. 226-232. February, 2015.

La seguridad de una red WiFi depende de muchos factores, como son el tipo de autenticación, el cifrado entre otros. Actualmente existen en el mercado un gran número de dispositivos hardware y de software que permiten realizar ataques a este tipo de redes de una forma más efectiva, es por esto que se debe tomar medidas de seguridad robustas en nuestras redes de datos inalámbricas principalmente. Para evitar ser víctimas de ataques, a continuación se presentan algunas recomendaciones muy útiles para aumentar el grado de seguridad en redes Wlan. 3. Resultados Ocultar el SSID en la configuración del Router es una buena práctica de seguridad para empresas y hogares, el nombre de la red Wifi queda invisible a la vista de atacantes, solo se puede conectar a la red las personas que conozcan el nombre de la red, esto puede ser bastante dispendioso para redes con alto volumen de usuarios pero para redes pequeñas pues ser una buena opción. Otra práctica de seguridad es configurar el router para que solo acepte conexiones confiables de dispositivos previamente registrados con su respectiva MAC desde la administración del mismo. Los limitantes que existen es la administración permanente ya que se debe registrar cada dispositivo del usuario para la autorización de conexión. Es una buena opción para redes con crecimiento no exponencial. Aunque el filtrado por MAC usado para proteger las redes WiFi es una medida buena de seguridad, no es suficiente ya que existen muchas herramientas que permiten cambiar la dirección MAC del equipo atacante para emular el de un cliente legítimo. Es recomendable utilizar contraseñas fáciles de recordar pero difíciles de adivinar, se recomienda contraseñas donde se utilice combinación de letras, números junto con caracteres especiales como el # ó @. En las organizaciones empresariales públicas o privadas la administración de la red inalámbrica siempre va ser de gran importancia para cuidar los activos del negocio, se recomienda una administración basada en estándares como ISO 27000 donde proponen prácticas certificadas para la administración de usuarios en redes inalámbricas, donde el uso de cortafuegos, directorios activos, LDAP, proxys, autenticaciones seguras deben correlacionarse para reducir los riesgos. Para los usuarios comunes que buscan redes en cualquier lugar para usar el servicio de internet, se recomienda desconfiar siempre si no es una red conocida, no todas están abiertas por desconocimiento de seguridad, la gran mayoría son creadas con un fin delictivo, ya que estas redes públicas abiertas están dispuestas a capturar información de usuarios y nos exponemos a posibles ataques permitiendo que la información como contraseñas, historiales de navegación y demás sean vistos y hurtados por los delincuentes. Ninguno de los esquemas de seguridad representa una solución completa, estos se deben fortalecer o combinar con otras prácticas como por ejemplo el intercambio de clave dinámica, eliminando el direccionamiento dinámico DHCP forzando las maquinas a tener IP´s fijas (estáticas), garantizando que aún si la contraseña es descubierta pero no

se conoce el rango de direccionamiento, no se podrá acceder a la misma; actualizar el firmware de los dispositivos inalámbricos, inhabilitar la difusión abierta del SSID, así como utilizar programas de gestión de redes que sean capaces de detectar clientes nuevos. Por lo anterior se correlacionan dentro de premisa a favor para la correcta protección de acceso en una red inalámbrica de datos. 4. Conclusiones Se identificó que el 9,33% de las redes Wlan no cuentan con mecanismos de autenticación, mientras que el 22% de las mismas presentan autenticación Wep, lo que representa que el 31.1% de las redes son vulnerables a ser atacadas, por consiguiente se requiere de que los dueños de estas redes aumenten su seguridad para disminuir el nivel de exposición. El estudio evidenció malas prácticas de configuraciones en las redes inalámbricas en el área de estudio (Tunja Boyacá – Colombia), en el análisis en las configuraciones se muestra un desconocimiento por parte de los administradores o los proveedores de servicio de internet aumentando los riesgos de ataques desde el exterior de las organizaciones o hogares y exponiendo datos importantes empresariales o personales. Las redes inalámbricas con baja seguridad se centran en sectores concurrentes, como por ejemplo centros comerciales y sectores con alta presencia de personas. Se identificó un riesgo alto de exposición debido a que los delincuentes pueden tener una ubicación física sin despertar sospechas en cualquier sitio público, es importante recordar que la calidad en la receptividad de la señal es fundamental para iniciar un ataque y por consiguiente se debe estructurar planes de cobertura descentralizada inteligente y no forzar la radiación en un área demasiado extensa que exceda los límites físicos de la empresa o hogar ya que se convierte en puntos fáciles de acceso por parte atacantes a la infraestructura de comunicación. Referencias [1]

[2]

[3] [4] [5] [6]

231

Rodrigo, C., Avanzando en la seguridad de las redes Wifi. Enfoques [Online]. 73, pp. 23-32, 2005. [date of reference January 25th of 2014]. Available at: http://www.rediris.es/difusion/publicaciones/boletin/73/ENFOQUE1 .pdf Ministerio de las Tecnologias de la Información y las Comunicaciones. [en línea]. MinTic, 2010. [consulta, 10 de febrero de 2014]. Available at: http://www.mintic.gov.co/portal/vivedigital/612/w3-propertyvalue6106.html Khetarpal, R. and Dronamraju, S., SMART—A Solution for Managing, the capacity, growth, and performance of wireless networks. IEEE - Bell Labs Technical Journal, pp. 182-193, 1997. Cama-Pinto, A., Gil-Montoya F., Gómez-López, J., García-Cruz, A. and Manzano-Agugliaro, F., Wireless surveillance sytem for greenhouse crops, DYNA, 81 (184), pp. 164-170, 2014. Tao, C., Lijun, C. and Tracey, H., Distributed optimization in wieless networks using broadcast advantage. Proceedings of the 46th IEEE Conference on Decision and Control, pp. 5839-5844. 2007. Sheldon, F.T. and Weber, J.M., Seong-Moo, Y. and Pan, W.D., The insecurity of wireless networks. Security & Privacy, IEEE, 10, pp. 54-61. 2012.


Monsalve-Pulido et al / DYNA 82 (189), pp. 226-232. February, 2015. [7]

[8] [9] [10] [11]

[12]

[13]

[14] [15]

[16]

[17]

[18]

[19]

[20]

[21] [22]

[23]

[24]

Ballesteros, C.J. y Chaparro, F., Seguridad en redes inalámbricas de acceso local bajo parámetros de uso de herramientas libres. Congreso Internacional de Investigación en Ingeniería de Sistemas,1, pp. 1-6. 2014. Molina, J.M., Seguridad en redes inalámbricas 802.11. Sistemas & Telemática, 1, pp. 13-28. 2004. Han, J.A., Lee, J.B., Kwon, T.A., Jo, D.C., Ha, T.D. and Choi, Y.A., How to mitigate signal dragging during wardriving. IEEE Pervasive Computing, 9, pp. 20-27. 2010. Battiti, R., Cigno, R.L., Sabel, M., Orava, F. and Pehrson, B., Wireless LANs: From warchalking to open access networks. Mobile Networks and Applications, 10, pp. 275-287. 2005. Jinyoung, H., Jeongkeun, L., Kwon, T,. Daehyung J., Taejoon H. and Yanghee C., How to mitigate signal dragging during wardriving, Pervasive Computing, IEEE, 9 (1), pp. 20-27, 2010. http://doi:10.1109/MPRV.2010.6 Battiti, R., Lo-Cigno, R., Sabel, M., Orava, F. and Pehrson, B., Wireless LANs: From WarChalking to open access networks, Mobile Networks and Applications, 10 (3), pp. 275-287, 2005. http://doi:10.1007/s11036-005-6422-4 Khakurel, S., Tiwary, P.K., Maskey, N. and Sachdeva, G., Security vulnerabilities in IEEE 802.11 and adaptive encryption technique for better performance, Industrial Electronics & Applications (ISIEA), 2010 IEEE Symposium on, pp. 207-210, 2010. http://doi:10.1109/ISIEA.2010.5679467 Bandela-Chaitanya, X.Y., Vulnerabilities and Security Enhancements for the wireless networks. IEEE Globecom 2005 proceedings,1 (1), pp. 1655-1659. 2005. Lashkari, A., Danesh, M. and Samadi, B., A survey on wireless security protocols (WEP, WPA and WPA2/802.11i), Computer Science and Information Technology, 2009. ICCSIT 2009. 2nd IEEE International Conference on, pp.48-52, 2009. http://doi:10.1109/ICCSIT.2009.5234856 Reddy, S., Sai, R., Rijutha, K., Ali, S.M. and Reddy, C.P., Wireless hacking - a WiFi hack by cracking WEP, Education Technology and Computer (ICETC), 2010 2nd International Conference on, pp. V1189-V1-193, 2010. http://doi:10.1109/ICETC.2010.5529269 Kavka, O., Garasym, I. and Dudykevych, V., The analyse of wireless communication encryption technologies. Modificated WEP protocol, Modern Problems of Radio Engineering, Telecommunications and Computer Science (TCSET), 2010 International Conference, pp.186-187, 2010. Xiaona, L., Shaoqing, M. and Kaining, Lu., Security issues and solutions of WPA encrypted public wireless Local Area Network, Multimedia Technology (ICMT), 2011 International Conference on, pp. 3655-3657, 2011. http://doi:10.1109/ICMT.2011.6002258 Lei, Z., Jiang, Y., Zugao, D. and Renfei, Z., The security analysis of WPA encryption in wireless network, Consumer Electronics, Communications and Networks (CECNet), 2012 2nd International Conference on, pp. 1563-1567, 2012. http://doi:10.1109/CECNet.2012.6202145 Lashkari, A., Mansoor, M. and Danesh, A., Wired Equivalent Privacy (WEP) versus Wi-Fi Protected Access (WPA), 2009 International Conference on Signal Processing Systems, pp. 445449, 2009. http://doi:10.1109/ICSPS.2009.87 Aircrack-ng. [en línea]. [consulta, 1 de Agosto de 2013]. Available at: http://www.aircrack-ng.org Mohamed, E.M., Kinoshita, D., Mitsunaga, K., Higa, Y. and Furukawa, H., IEEE 802.11n based wireless backhaul enabled by Dual Channel IPT (DCH-IPT) relaying protocol, Ultra Modern Telecommunications and Control Systems and Workshops (ICUMT), 2010 International Congress on, pp. 525-530, 2010. http://doi:10.1109/ICUMT.2010.5676587 Arslan, M., Pelechrinis, K., Broustis, I., Singh, S., Krishnamurthy, S., Addepalli, S. and Papagiannaki, K., ACORN: An autoconfiguration framework for 802.11n WLANs, Networking, IEEE/ACM Transactions on, 21 (3), pp. 896-909, 2013. http://doi:10.1109/TNET.2012.2218125 Mohamed, E., Kinoshita, D., Mitsunaga, K., Higa, Y. and Furukawa, H., MIMO wireless backhaul enabled by IPT forwarding, Telecommunications (ICT), 2010 IEEE 17th International

Conference on, pp. http://doi:10.1109/ICTEL.2010.5478810

763-770,

2010.

J.A. Monsalve-Pulido, received the Bs. Eng. in Systems in 2005, a MSc. in Free Software in 2008, from the Universidad Autónoma de Bucaramanga, Colombia and the Universitat Oberta de Catalunya. Spain. Currently he works as a research professor in the Systems Engineering Faculty at the Universidad de Santo Tomás, Tunja, Colombia, he is a leader of the research group GIBRANT and director of engineering research group Alberto Magno. His research areas are information systems and learning networks . His research interests included; software engineering, computer security, free software and data mining F.A. Aponte-Novoa, received the Bs. Eng. in Systems and Computing in 2006, from the Universidad Pedagogica y Tecnologica de Colombia, a MSc. in Free Software in 2011 from the Universidad Autónoma de Bucaramanga, Colombia and the Universitat Oberta de Catalunya, Spain. From 2007 to 2011, he worked as a teacher for the System Engineering Program at Universidad Pedagógica y Tecnológica de Colombia. From September 2008 to date he has worked as a teacher at System Engineering Program at Universidad Santo Tomas, Tunja, Colombia. His research interests include: Information Systems, Learning networks and communication networks. F. Chaparro-Becerra, received the Bs. Eng in Electronics Engineering in 2005 and the Sp. degree in Network Communications in 2010, both from the Universidad Santo Tomás, Colombia, and the MSc. in Telematics in 2013, from Universidad Autónoma de Bucaramanga, Colombia. He has experience in the public and private sectors in the Instituto Nacional Penitenciario and Carcelario de Colombia INPEC (2005-2006), Empresa de Teléfonos de Bogotá – ETB (2007-2008), dedicated of university academy since 2008, he is a member of the research group GIDINT, attached to the Universidad Santo Tomás, Colombia. His research interests include: networking, IPTV, Available Bandwith Estimation, and NetFPGA.

232

Área Curricular de Ingeniería de Sistemas e Informática Oferta de Posgrados

Especialización en Sistemas Especialización en Mercados de Energía Maestría en Ingeniería - Ingeniería de Sistemas Doctorado en Ingeniería- Sistema e Informática Mayor información: E-mail: acsei_med@unal.edu.co Teléfono: (57-4) 425 5365


Freight consolidation as a coordination mechanism in perishable supply chains: A simulation study Juan Pablo Castrellón-Torres a, Jorge Luis García-Alcaraz b & Wilson Adarme-Jaimes c b

a Facultad de Ingeniería, Universidad Nacional de Colombia, Bogotá, Colombia. jpcastrellont@unal.edu.co Instituto de Ingeniería y Tecnología, Universidad Autónoma de Ciudad Juárez, Juárez, México. jorge.garcia@uacj.mx c Facultad de Ingeniería, Universidad Nacional de Colombia, Bogotá, Colombia. wadarmej@unal.edu.co

Received: May 28th, 2014. Received in revised form: August 25th, 2014. Accepted: December 5th, 2014.

Abstract One of the most demanding needs of the primary sector is the development of methods, tools, models and techniques for the accurate and efficient management of perishables along the Supply Chain (SC), particularly focused on advanced logistics services (Third-Party Logistics 3PL) such as freight consolidation. This coordination strategy looks for the alignment of agents and processes around the efficient freight handling by minimizing costs and allowing the proper use of transportation capacity resources. The contribution of this paper relies on the analysis of benefits regarding freight consolidation strategies in the context of Agricultural Supply Chains (ASC) by using a simulation approach. The results of a discrete-event simulation with one commodity product evaluated in three different scenarios prove the benefits of this coordination strategy by reducing the number of annual shipments from 1732 to 725 in a city logistics context and increasing fleet utilization levels up to 71%. Keywords: Logistics services; Third-Party Logistics 3PL; Freight Consolidation; Agricultural Supply Chain; Perishables; Coordination; Discrete-event simulation.

Consolidación de carga como mecanismo de coordinación en cadenas de suministro de perecederos: Estudio de simulación Resumen Una de las necesidades más apremiantes del sector primario es el desarrollo de métodos, herramientas, modelos y técnicas para una gestión adecuada y eficiente de productos perecederos a lo largo de Cadenas de Suministro (SC), particularmente enfocados en los servicios logísticos especializados (Third-Party Logistics 3PL) como la consolidación de carga. Esta estrategia de coordinación busca la alineación de los agentes y procesos para la eficiente manipulación de carga, minimizando costos y permitiendo el uso adecuado de capacidades de medios de transporte. La contribución de este artículo se centra en el modelado y análisis de beneficios de las estrategias de consolidación de carga en el contexto de Cadenas de Suministro Agrícolas (ASC) a través de la simulación. Los resultados de la simulación de eventos discretos, evaluando un producto commodity en tres diferentes escenarios, prueba los beneficios de esta estrategia de coordinación al reducir el número anual de envíos de 1732 a 725 en un contexto de logística urbana e incrementando los niveles de utilización de la flota hasta el 71%. Palabras clave: Servicios logísticos; Third-Party Logístics 3PL; Consolidación de carga; Cadenas de suministro agrícolas; perecederos; coordinación; Simulación de eventos discretos.

1. Introducción Las dinámicas del sector de servicios logísticos, en el contexto de un mercado cada día más globalizado, vislumbran tendencias específicas que condicionan la operación de las cadenas productivas de talla mundial, así como las áreas de investigación que emergen de los conceptos de logística y

administración de la cadena de suministro (Supply Chain Management o SCM por su siglas en inglés), trascendiendo de las prácticas enfocadas únicamente en el traslado de los bienes y servicios a lo largo de cadenas de suministro (SC – Supply Chains), hacia la agregación de valor a partir de servicios especializados que determinan la diferenciación en aspectos como calidad, tiempo, costo y oportunidad [1].

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 233-242. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.48551


Castrellón-Torres et al / DYNA 82 (189), pp. 233-242. February, 2015.

Estas dinámicas, motivadas por la naturaleza creciente del comercio mundial que ha mostrado tasas cercanas al 6% en promedio anual entre 1971 y 2010 [2], ha orientado a las empresas a centrar cada vez más sus esfuerzos en procesos de diferenciación [3], dentro de los cuales los servicios logísticos juegan un papel fundamental para atender requerimientos de entregas puerta a puerta, empaques y embalajes amigables con el medio ambiente y agradables al cliente final, trazabilidad y rastreabilidad de pedidos, bajos costos de transporte, entre otros elementos que agregan valor al producto desde la perspectiva del cliente, los cuales son generalmente atendidos a través de servicios logísticos especializados, denominados 3PL - Third-Party Logistics [2]. Las redes suministro/abasto del sector primario no son ajenas a los efectos de estas dinámicas, identificándose la necesidad de generar desarrollos para el manejo adecuado y eficiente de la carga de productos perecederos a lo largo de la SC que, tal como se propone en [4], logren la alineación de los agentes y los procesos alrededor de la manipulación eficiente de la carga, con el objetivo de minimizar costos por pérdidas, e incentivar el uso adecuado de los medios de transporte con el aprovechamiento eficiente de su capacidad, impactando los niveles de servicio en cuanto a tiempos, calidad y oportunidad. Estas necesidades en el desarrollo de servicios logísticos para el sector agroalimentario surgen de los requerimientos cada vez más exigentes de los mercados objetivo, que no solamente demandan eficacia en cuanto a la calidad y disponibilidad del producto, sino que además condicionan las estructuras de operación a través de las restricciones para el acceso a los mercados de consumo masivo asentados generalmente en las urbes. Dichas restricciones para el acceso se enmarcan en el concepto de logística urbana que como principio busca mitigar los impactos del transporte, incentivar la eficiencia económica de sus industrias, minimizar el uso del espacio público y de los recursos materiales, racionalizar los flujos urbanos, y mejorar la calidad de vida de las personas residentes en la ciudad [5]. Dentro de la gama de servicios logísticos desarrollados en la industria con fundamento en la investigación, distintos autores [6-7-8] han identificado en las estrategias consolidación y des consolidación de carga una solución logística que responde no sólo a las necesidades de eficiencia de las redes, sino también a los lineamientos de logística urbana. Sin embargo, sus aplicaciones aún tienen el reto de considerar la naturaleza propia de los productos y las relaciones de las redes agroalimentarias [9]. El presente trabajo de investigación se enfoca en el desarrollo de servicios logísticos para productos de redes agroalimentarias, que contemplen no sólo niveles de eficiencia de la red sino también de respuesta a los lineamientos de la logística urbana en el contexto específico de Bogotá, Colombia. El desarrollo de los servicios logísticos se centra en el estudio puntual de la consolidación y des consolidación de carga, en las que se pueden contemplar decisiones referidas al número y tipo de vehículos para el reparto de última milla, el número y características de las paradas en zonas de reparto, la cantidad de envío, el empaque y embalaje de la

mercancía, entre otras variables que se relacionan directamente con los impactos de la logística en los contextos urbanos [10]. La pregunta de investigación que se pretende responder a través del desarrollo de este artículo se centra en determinar ¿cuál es la estrategia de consolidación de carga que puede responder al mejoramiento de las ineficiencias logísticas en las relaciones Productores – Prestadores de servicios 3PL de las cadenas de productos perecederos en Bogotá? La evaluación de las estrategias de consolidación, soportada en una simulación de eventos discretos incluye el estudio de los efectos de la coordinación de agentes, la configuración de la cadena, la adopción de tecnologías de información y comunicación (TIC), así como aspectos tácticooperativos como el uso de empaques y embalajes, la gestión del deterioro de la calidad en el tiempo y el apilamiento de carga en los medios de transporte y almacenamiento. El desarrollo de esta investigación representa un avance en el estado del arte al dar respuesta a brechas relacionadas con la contextualización de modelos de consolidación de carga en operaciones logísticas del sector primario y especialmente, en cadenas de productos perecederos en la logística urbana de mercancías [11], análisis de problemas de naturaleza estocástica y de manera más general, brechas en los avances de modelos de planeación de sistemas logísticos agroindustrial [9,12,13]. El artículo está organizado en cinco capítulos referidos a la identificación de los avances y brechas en el estado del arte, seguido del modelado de los sistemas de consolidación de carga, la presentación de la simulación y los resultados correspondientes para finalmente concluir con los hallazgos y áreas futuras de investigación. 2. Aproximación al concepto de consolidación de carga En [14] se define la consolidación de la carga como el proceso de combinar pequeños envíos en cargas más grandes y económicas, utilizando el mismo vehículo, y relacionándolo con la gestión de bodegas, la programación de vehículos y personal con el óptimo diseño del despacho de carga. En [15] definen la consolidación de carga como el proceso de agrupar diferentes envíos de proveedores en un gran envío dentro de un centro de consolidación. El objetivo principal de la consolidación de carga es disminuir el costo total del transporte entre un origen y un destino [16]. En [17] se clasifican en tres las formas de consolidación: consolidación de inventarios, consolidación de vehículos y consolidación de terminales. Consolidación de inventarios: Abarca el almacenamiento de ítems que son producidos y usados en diferentes momentos y transportados en la misma carga. “Consolidación temporal”. (Fig. 1)

Figura 1: Consolidación de inventarios Fuente: [17]

234


Castrellón-Torres et al / DYNA 82 (189), pp. 233-242. February, 2015.

Consolidación de vehículos: “Consolidación espacial” que se refiere a la colección de ítems que provienen de diferentes proveedores y/o la entrega a múltiples clientes. (Fig. 2).

Figura 2: Consolidación de vehículos Fuente: [17]

Figura 3: Consolidación de terminales Fuente: [17]

Consolidación de Terminales: Trae ítems de diferentes destinos a un nodo central donde son seleccionados, cargados en nuevos vehículos y llevados a diferentes destinos. En [18] hacen una clasificación similar pero agrega una forma de consolidación denominada independiente, en la que se atienden pequeños envíos directamente a cada cliente de manera independiente. A la clasificación de Hall, Pooley las denomina consolidación de envíos, ruteo de vehículos y consolidación de red respectivamente. 2.1.

Consolidación de carga como mecanismo de consolidación

Los hallazgos de las concepciones de la consolidación de carga estriban en que éste servicio logístico requiere no sólo de esfuerzos individuales por parte de los agentes de la cadena para hacer más eficientes sus operaciones, sino que también depende de fuertes relaciones de interdependencia que hacen que no sólo se compartan materiales e información, sino también objetivos como la minimización de costo, aseguramiento de la calidad, y entregas a tiempo, a través de las metodologías definidas como la consolidación de carga, lo que conlleva a que el desempeño de cualquier integrante de la cadena, en términos de la manipulación de la carga, depende del desempeño de los demás, y de sus habilidades particulares para coordinar las actividades al interior de la cadena. Las estrategias de consolidación de carga también demandan de los esfuerzos desde los planeadores y legisladores (Estado) en términos de la

definición de política pública que guíe/oriente/norme la acción para el desarrollo de este servicio logístico. Esta filosofía se encuadra dentro de los objetivos de la gestión del SCM, enfocados a incrementar la competitividad de los agentes que la conforman, no de manera individual sino como un todo; cambiando las dinámicas del mercado en cuanto a la naturaleza de la competencia, pues pasa de ser entre compañías independientes a ser entre SC. En [19] se identifican dos medios para lograr el crecimiento de la competitividad en una SC, cuyo componente fundamental es la conservación de la calidad a lo largo de la cadena, a través de la eficiente manipulación de la carga. El primero es la integración (o cooperación) de las compañías pertenecientes a la SC; y el segundo es la coordinación de los flujos de material, financieros y de información. Los mecanismos de coordinación, de acuerdo con [20], se entienden como los medios que tienen las SC para ser más competitivas, primero, en una estructura de información que define quién obtiene la información del entorno, cómo se procesa la información y la forma en que se distribuye entre todos los miembros que hacen parte del mecanismo; y segundo, en un proceso de toma de decisiones que ayuda a seleccionar la acción apropiada a realizar entre una serie de soluciones alternativas. En [21] se advierte que la coordinación de cadenas de suministro tiene que ver con la planeación, monitoreo, y alineación de los procesos logísticos intra- e interorganizacionales, estos procesos son los que permiten la operación de los tres flujos mencionados con anterioridad. Autores como [22-25] han contribuido con apreciaciones tendientes a hacer del mecanismo de coordinación un vehículo para gestionar la SC como una sola entidad o como un todo, evitando caer en la gestión individualizada de los agentes, que hace de los beneficios algo aislado e independiente a cada integrante de la cadena. De acuerdo con estos enfoques, los modelos de consolidación de carga requieren ser concebidos como mecanismos de coordinación donde se logre la alineación de los agentes y los procesos alrededor de la eficiente manipulación de la carga, que minimice los costos por pérdidas, y permita el uso adecuado de los medios de transporte, aprovechando al máximo su capacidad. La percepción estratégica del concepto de consolidación de carga es tímidamente desarrollada en la literatura, y su alcance se ve enfocado en la operatividad de los sistemas. Ésta limitación conlleva al desarrollo del presente trabajo en el que se centra el análisis de la consolidación de carga en su funcionalidad como un componente de coordinación en las cadenas de suministro. 3. Modelado de las estrategias de Consolidación de carga Las estrategias de consolidación de carga han sido desarrolladas como un medio para lograr la coordinación entre las decisiones de gestión de inventarios y de distribución. Iniciativas específicas incluyen estrategias como el Inventario Gestionado por el Proveedor (VMI – Vendor Managed Inventory) con Entregas de Tiempo Definido (TDD – Time Definite Delivery) y

235


Castrellón-Torres et al / DYNA 82 (189), pp. 233-242. February, 2015.

Almacenamiento / Distribución de la Tercera Parte (3PW/D - Third Party Warehousing / Distribution) [26]. 3.1. Estrategias de consolidación de carga con VMI con Entregas de Tiempo Definido (TDD) En la estrategia VMI, de acuerdo con los requerimientos que han sido establecidos, las entregas deben ser hechas en cada periodo de orden en las cadenas de abastecimiento tradicionales en busca de un flujo de materiales suave, pero esto puede llevar a que los vehículos de transporte no vayan completamente llenos lo que no es eficiente en cuanto al pago por la utilización del vehículo [27]. Se desean vehículos viajando completamente llenos, y así los costos de transportes se reducen ya que la demanda de transporte se minimiza [27]. Como solución a ésta problemática, en [27] se identifican dos mecanismos: los productos pueden ser llevados a centros de consolidación, consolidar cargas de diferentes proveedores o entregar de forma conjunta a un grupo de clientes; o establecer reglas de pedido en las que sólo se permitan cargas de vehículos completos, es decir, se establecen restricciones a los clientes para que pidan y reciban sólo con cargas completas de vehículos. En [28] modelan las estrategias de consolidación de carga para sistemas VMI, considerando el caso en el que el proveedor tiene una política de reabastecimiento del inventario (s, S), y una política de consolidación de carga basada en tiempo, para la atención de la demanda de sus clientes. Dentro de los supuestos del modelo se encuentran:  El proveedor observa una secuencia de demandas aleatorias de un grupo de clientes ubicados en una zona geográfica específica. En un escenario ideal, estas demandas se atienden inmediatamente. Sin embargo, se considera el caso en el que el proveedor tiene la libertad de no entregar los pedidos pequeños hasta no acumular un envío FTL (Full Truck-Load).  Los minoristas están dispuestos a esperar a expensas de un costo de espera.  Un nuevo ciclo de consolidación de carga empieza cada vez que una decisión de despacho es tomada. Así, todas las órdenes que llegan durante un ciclo de consolidación se combinan para formar una cantidad mayor de envío, que al alcanzar un nivel se despacha el transporte. El objetivo del modelo es minimizar el costo total de aprovisionamiento, transporte, manejo de inventario y tiempo de espera, atendiendo los requerimientos del cliente a tiempo. La Fig. 4 presenta el esquema general del problema en consideración. Los parámetros tenidos en cuenta son: : Costo fijo de reaprovisionamiento del inventario : Costo unitario de compra : Costo unitario de mantener el inventario por unidad de tiempo : Costo fijo de despacho : Costo unitario de transporte : Costo unitario por espera del cliente por unidad de tiempo

Figura 4 Consolidación en sistemas VMI Fuente: [28]

Figura 5 Realización de procesos de consolidación Fuente: [28]

.

En el modelo formulado, se parte del supuesto que las demandas se generan siguiendo un proceso estocástico con un tiempo entre llegadas : 1, 2, … . Se considera el caso donde 0 , 1, 2, … son variables aleatorias independientes e idénticamente distribuidas (i.i.d.) de acuerdo con la función de distribución ∙ donde 0 ∑ 1. Para 0y se define :

(1)

Así, es un proceso de nacimiento y muerte que registra el número de órdenes de pedido realizados en el instante . Bajo una política de consolidación basada en tiempo, la decisión de despacho es tomada cada unidades de tiempo, resultando el máximo valor de la longitud del ciclo de consolidación de carga. La realización de un proceso de consolidación se denota por , que representa el tamaño de la carga acumulada hasta el instante , y cuyo comportamiento se ejemplifica en la Fig. 5. El nivel de inventario en en el instante se denota por , y representa el nivel de inventario inmediatamente después que una orden de reaprovisionamiento llega. De esta manera se establece la rutina del comportamiento del inventario: 1. y , , 2 , … son observados. 2. El proveedor emplea una política especial de (s, S) con 0y . Por lo tanto es el nivel de inventario objetivo. Si , entonces se

236


Castrellón-Torres et al / DYNA 82 (189), pp. 233-242. February, 2015.

genera una orden de reaprovisionamiento de cantidad , donde

, 0,

(2)

3.

Una vez se recibe , una carga de tamaño se despacha instantáneamente. Un nuevo ciclo de consolidación de carga empieza con unidades en inventario empieza, donde

4.

í

La solución aproximada, con evaluación satisfactoria de precisión realizados por Çetincaya et. al. en [28], del problema de optimización determina un óptimo global cuando los valores de y cumplen la siguiente relación:

, ,

y

(7)

(3) 3.2. Estrategias de consolidación de carga con 3PW/D

El problema recae entonces en la determinación simultánea de Q∗ y T ∗ con los que se minimiza el costo total del sistema logístico estudiado. Aplicando la ecuación de balance de los procesos de nacimiento y muerte, en [28] definen la expresión del costo total así:

,

Estrategias de consolidación con 3PW/D asumen la prestación de servicios logísticos especializados en almacenamiento y distribución en los que se deben tomar decisiones sobre el tamaño del envío y la frecuencia del mismo hacia clientes ubicados en una zona en particular. La diferencia con la estrategia de consolidación asociada a VMI, reside en que las decisiones de consolidación son tomadas por un agente (tercero) prestador de servicios logísticos especializados de almacenamiento y distribución a una empresa productiva a la que presta el servicio, no de manera exclusiva, sino combinando los envíos con otras empresas para aprovechar economías de escala. En [29] se menciona que en estos casos, el ajuste temporal de los servicios de transporte ya no se hace específicamente para cada cliente. Los prestadores de servicios logísticos fijan unos plazos de distribución de la mercancía o unos horarios de envío fijos, que se determinan con el objetivo de cumplir con las expectativas y preferencias del máximo número de clientes. Esta tipología de servicios se denomina Less-Than TruckLoad (LTL), ya que el tamaño de la mercancía o envío de un solo cliente es muy inferior a la capacidad del vehículo de transporte. Por tanto, es necesario que cada viaje del vehículo sea cargado con envíos de múltiples clientes para incrementar su ocupación [29]. La Fig. 6 presenta el sistema analizado.

(4)

Donde el ciclo de reaprovisionamiento se define como el intervalo de tiempo entre dos decisiones consecutivas de ordenar un nuevo pedido . De tal forma que el problema se plantea de la siguiente manera: min

Sujeto a

, 0, 0.

(5)

De acuerdo con Çetincaya et. al. en [28], la expresión para , es:

1

,

1 2

2 Donde,

1

(6)

Figura 6 Representación esquemática del 237istema de 3PW/D. Fuente: [30]

237


Castrellón-Torres et al / DYNA 82 (189), pp. 233-242. February, 2015.

El modelado de este tipo de situaciones es desarrollado en [31], en el que se considera un envío de peso , cuyo costo de transporte por el prestador de servicios logísticos 3PL es , tal que , ,

(8)

Donde c c son las tarifas tanto por volumen como fijas respectivamente, y MWT es el mínimo peso para obtener descuentos por cantidad. Siguiendo la lógica del modelado de la consolidación de carga para estrategias VMI, en [31] definen la función de costo total de la siguiente forma: ,

2 ̅

,

2

,

2 Donde,

í í

(9)

Aproximaciones para la solución del problema de consolidación de carga han sido abordadas desde la optimización matemática o la simulación de Monte Carlo. Sin embargo, en [32] se sugiere que la complejidad del análisis simultáneo de los sistemas logísticos de abasto, almacenamiento y distribución, con las diferentes estrategias que surgen para el mejoramiento de los niveles de desempeño de la red, puede ser abordada a través de la simulación de eventos discretos. Utilizar la simulación como herramienta para evaluar las estrategias de consolidación se explica tras identificar en [33] las siguientes ventajas, que no tienen en su totalidad los modelos presentados previamente:  Contienen diversas interacciones entre los elementos  Contienen elementos afectados por la aleatoriedad, no predictibilidad, riesgo, etc.  Incluye actividades cuyo desempeño es afectado por demoras en el tiempo.  Permite analizar los recursos del sistema[6]logístico.  Permite evaluar las reglas, políticas, capacidades de resolución de problemas de operación que requieren los sistemas logísticos. En [34] se agrega a las ventajas de la simulación la posibilidad de verificación, sensibilidad (what-if analysis), optimización, robustez y análisis de incertidumbre para niveles estratégicos. Dadas estas ventajas, se diseña una simulación por eventos discretos que identifica las condiciones de operación de una estrategia de consolidación de carga en el contexto de la logística urbana de Bogotá, D.C. 4.1. Diseño de la red de simulación

De acuerdo con [30], el tiempo entre envíos consolidados que minimiza la función de costo sólo se ∗ justifica para , en el que ∗ satisfice ∗

4. Simulación de la estrategia de consolidación para productos perecederos

(10)

Para los demás casos no se justifica la consolidación de carga por lo que se realizan las entregas mediante envíos directos. Dentro de las limitaciones existentes de los modelos de consolidación de carga presentados, y a las que se pretende dar respuesta en éste trabajo, se encuentra la caracterización de políticas óptimas integradas que aseguren un nivel aceptable de servicio al cliente, en un ambiente estocástico para los procesos generales de demanda, para el transporte por flota privada y pública bajo restricciones de capacidad, y para únicos o múltiples áreas de mercado.

El diseño de la red de simulación del sistema logístico identificado, parte con el nodo de generación de carga perecedera, tomando como producto piloto el arroz colombiano cuya producción se presenta mayoritariamente en los departamentos del Tolima, Meta y Casanare con una participación del 31.69%, 18.35% y 16.72% respectivamente, del total nacional de acuerdo con el Ministerio de Agricultura. El nodo focal para el estudio se encuentra localizado en Bogotá, a donde converge diariamente carga arrocera en camiones de 40 toneladas de capacidad, para el caso del Tolima, 28 toneladas, para el caso del Meta y de 17 toneladas para el arroz proveniente del resto del país. Los camiones deben esperar bajo una regla de primero en llegar, primero en salir (FIFO – First In First Out) en un centro de consolidación de carga que des consolida y distribuye en pequeños envíos la carga al interior de la ciudad. La descarga se hace de forma manual, debido a la ausencia de estrategias de cooperación en las que se tenga en cuenta la paletización de la carga para procurar la eficiencia en su manipulación. El arroz se estiba al interior de la bodega, consolidándolo en grupos de 17 toneladas, que corresponde a la capacidad de los medios disponibles por el

238


Castrellón-Torres et al / DYNA 82 (189), pp. 233-242. February, 2015.

3PL para la posterior distribución, a través de los 12 vehículos con los que se cuenta para llegar a los almacenes de cadena de 200 Km a la redonda de Bogotá. La estructura de la red diseñada en el Software de Simulación Awesim with Visual Slam® en el que se cuenta con un generador de envíos de arroz que provienen de

diversas partes del país de acuerdo con las probabilidades descritas en la Tabla 1 y que se asignan en el banner “entity’s attributes”. Posteriormente pasan a una función de des consolidación para que finalmente se realice la distribución por parte del 3PL. La Fig. 7 presenta la red de la simulación. Anexo 1. Archivo simulación.

Tabla 1. Parámetros de la simulación – Escenario 1 Parámetro Valor Generación de carga arrocera en Colombia (días) Norm (0.3,0.12) Probabilidad de arribo de carga del Tolima 31.69% Probabilidad de arribo de carga del Meta 18.35% Probabilidad de arribo de carga del Casanare 16.72% Capacidad de los medios de transporte provenientes del Tolima 40 Ton Capacidad de los medios de transporte provenientes del Tolima 28 Ton Capacidad de los medios de transporte provenientes del Tolima 17 Ton Tiempo de viaje Tolima-Bogotá (días) TRIAG(4,6,8) Tiempo de viaje Meta-Bogotá (días) TRIAG(4,6,8) Tiempo de viaje Casanare-Bogotá (días) TRIAG(8,11,14) Tiempo de viaje Resto del País-Bogotá (días) TRIAG(5,9,13) Tiempo de descargue de mercancías – Vehículos 40 Ton (días) EXPON(0.25) Tiempo de descargue de mercancías – Vehículos 28 Ton (días) EXPON(0.17) Tiempo de descargue de mercancías – Vehículos 17 Ton (días) EXPON(0.12) Q de consolidación en el Hub 197.26 Ton* # Vehículos del 3PL 12 Capacidad de los vehículos del 3PL 17 Ton Tiempo de distribución (días) Norm(0.8,0.3) Tiempo de simulación (días) 365 *Q es calculado a partir del modelo matemático de consolidación de carga con 3PW/D presentado en la sección anterior con parámetros consultados a un operador logístico de Bogotá. Fuente: Propia.

Figura 7 Diseño de la red de simulación Fuente: Propia

4.2. Variables dependientes e independientes Las variables del modelo constan de dos naturalezas: las independientes corresponden al tiempo total que dura la carga en el sistema modelado, desde que se genera en los nodos de producción hasta que llega a los mercados de grandes superficies. Estas variables permiten identificar los problemas que se pueden ocasionar en la descomposición de

los productos debido a su naturaleza perecedera, así como determinar los costos que se generan, puesto que están en función de los tiempos calculados en cada eslabón de la cadena. El segundo tipo de variables, referidas a las dependientes, corresponden a la cantidad de medios utilizados para la operación logística con su respectiva capacidad, ejemplo el número de vehículos a utilizar en la

239


Castrellón-Torres et al / DYNA 82 (189), pp. 233-242. February, 2015. Tabla 2. Parámetros de la simulación – Escenario 2 Parámetro # Vehículos del 3PL Capacidad de los vehículos del 3PL Tiempo de distribución (días) Fuente: Propia

Valor 7 28 Ton Norm(1.5,0.5)

operación de distribución, que a través del diseño de escenarios se puede evaluar, identificando la mejor combinación entre el costo de almacenamiento y el costo de distribución. Cada escenario contó con 55 muestras experimentales y los resultados presentados corresponden al promedio de las variables de decisión con su respectiva desviación estándar, valores máximos y mínimos. 5. Resultados El primer escenario modelado corresponde a la situación actual, que cuenta con los parámetros del sistema descritos en la Tabla 1. De acuerdo con los resultados del primer escenario, se evidencia que la duración de una carga de arroz en el sistema es en promedio 14 días, antes de llegar al mercado de gran superficie, en una ventana de tiempo de un año, en el que se realizaron cerca de 1739 envíos hacia el Hub localizado en Bogotá. Este tiempo es considerablemente alto, atendiendo la naturaleza perecedera del arroz, que en menos de cinco meses, empieza a afectarse su calidad y valores nutricionales, teniendo en cuenta que todavía falta la etapa de comercialización, que puede durar cerca de 3 meses, lo que da poca holgura al proceso de abasto que se está llevando a cabo en la actualidad. El tiempo de almacenamiento en el Hub de Bogotá, tal como se muestra en los resultados, en promedio 1,09 días, es bastante eficiente en éste sistema donde la frecuencia de envíos es alta; sin embargo esto contrasta con los altos costos debidos a la distribución que una flota de 12 vehículos de 17 toneladas de capacidad genera. En el segundo escenario se reduce la flota de vehículos, pero se amplía la capacidad de los mismos, llegando a un número de 7 con una capacidad de 28 toneladas, con los que se distribuye las mercancías en los almacenes dentro del área mencionada. Algunos de los parámetros iniciales cambian, configurándose tal como se muestra en la Tabla 2. El escenario propuesto aumenta los tiempos de flujo de la mercancía, situación que no es favorable para las condiciones perecederas del producto, con un tiempo promedio de almacenamiento de 1,141 días. Sin embargo, reducciones en los costos son evidentes al disminuir la flota de vehículos, lo que además impacta de manera positiva el ambiente, reduciendo emisiones, ruido y congestión en la malla vial de las ciudad atendida. El número de envíos realizado es de 1001. Finalmente se plantea un escenario ideal, en el que exista una coordinación entre los productores y el prestador de servicios 3PL, para la paletización de la carga, y una consolidación efectiva de mercancías, con 5 vehículos de capacidad de 17 toneladas que hacen entregas, en busca de

Tabla 3. Parámetros de la simulación – Escenario 3 Parámetro Tiempo de descargue de mercancías – Vehículos 40 Ton (días) Tiempo de descargue de mercancías – Vehículos 28 Ton (días) Tiempo de descargue de mercancías – Vehículos 17 Ton (días) # Vehículos del 3PL Capacidad de los vehículos del 3PL Tiempo de distribución (días) Fuente: Propia

Valor EXPON(0.06) EXPON(0.04) EXPON(0.01) 5 17 Ton Norm(0.8,0.3)

aumentar la utilización de la flota, que hasta ahora, en los escenarios propuestos no ha pasado del 58%. Los parámetros modificados se detallan en la Tabla 3: Este escenario reduce considerablemente los costos de operación del sistema debido a la disminución de tiempos de almacenamiento, 1,066 días, así como los tiempos globales de flujo de productos, 13,531 días, logrado a partir de la cooperación entre agentes de la cadena al consolidar la carga de manera eficiente de tal manera que se agilizan las actividades de cargue, descargue, y se logra la reducción de la flota, aumentando su nivel de ocupación al 71,78%. El número de envíos realizados en este escenario es de 725. 6. Conclusiones El desarrollo de la disertación concluye con el diseño de una estrategia de consolidación de carga que considera para un caso piloto del sector agro industrial, cadena del arroz, un escenario ideal en el que exista una coordinación entre los productores y el prestador de servicios 3PL para la paletización de la carga, y una consolidación efectiva de mercancías, con 5 vehículos de capacidad de 17 toneladas que hacen entregas, en busca de aumentar la utilización de la flota, que hasta ahora, en los escenarios actuales no ha pasado del 58%. La definición del escenario ideal se logra a partir del diseño de escenarios para la implementación de la estrategia de consolidación que consideran el tiempo del producto a lo largo del sistema, considerando ésta variable fundamental para la evaluación de factores como la naturaleza perecedera de la mercancía, en la que a mayores tiempos de duración del producto en el sistema, menor la disponibilidad del producto en las condiciones requeridas por el consumidor. Así como la eficiencia en la utilización de los medios de transporte que resulta en reducción no sólo de costos del sistema logístico, sino también de impactos negativos en la movilidad de la ciudad en donde se realiza la operación. El diseño de la estrategia de consolidación se ajusta a las particularidades del contexto estudiado, que para la definición de parámetros y reglas de operación requirió del conocimiento de las dinámicas de las redes productivas y de servicios. Los hallazgos para el caso de estudio en Bogotá, muestran la importancia del sector agro industrial no sólo para la seguridad alimentaria sino para los esquemas de movilidad y ordenamiento del espacio público, que son elementos poco visibles en estudios previos relacionados con la consolidación de carga.

240


Castrellón-Torres et al / DYNA 82 (189), pp. 233-242. February, 2015.

La modelación de la consolidación de carga en el sistema logístico de una cadena agroindustrial que abastece la ciudad capital se realizó bajo un enfoque de simulación debido a que presenta ventajas, que no tienen en su totalidad los modelos presentados previamente, tales como: contienen diversas interacciones entre los elementos; contienen elementos afectados por la aleatoriedad, no predictibilidad, riesgo, etc.; incluye actividades cuyo desempeño es afectado por demoras en el tiempo; permite analizar los recursos del sistema logístico; permite evaluar las reglas, políticas, capacidades de resolución de problemas de operación que requieren los sistemas logísticos. Los resultados de la consolidación de la carga de arroz muestran que ésta disminuiría la pérdida de productos como consecuencia de la disminución de cerca del 12% del tiempo en el sistema con respecto al escenario base además de disminuir en 58,33% la capacidad total de transporte del servicio 3PL tenido en cuenta en este ejemplo, lo cual generaría beneficios que no son medidos en esta simulación como la reducción de emisiones de gases y el aumento en la velocidad del flujo de vehículos en la región. La simulación de este estudio toma como ejemplo de estudio al arroz, el cual, si bien es perecedero, presenta una vida útil que significa más de seis veces el tiempo promedio que pasa en sistema una carga; sin embargo si se consideran productos de vida útil más corta como el caso de una fruta cuyo tiempo medio adecuado para el consumo humano puede ser inferior a tres meses, el riesgo de desabastecimiento y/o de pérdidas por su vencimiento disminuiría en mayor proporción a la del ejemplo, que fue de 6,57%. Además de las futuras áreas de investigación vislumbradas en el recorrido por la literatura descrita en los capítulos 2 y 3, en [35] se reafirma la necesidad de contar con trabajos que destaquen la estructuración de la red para las actividades propias del JRP (definir quién entrega a quién,…), el desarrollo de modelos con parámetros dinámicos y la aplicación de los modelos teóricos a contextos reales. En cuanto a futuras simulaciones o modelos de ASC semejantes a la simulación presentada en este trabajo, se podrían considerar opciones que se acerquen a la complejidad que se encuentra en la realidad. Por ejemplo la consideración de multiplicidad de productos con tiempos de vida útil probabilísticos variables, lo cual sería aplicable a contextos como los de los países del trópico en donde las frutas y verduras frescas y no congeladas hacen parte de la dieta diaria de la mayoría de la población. Otro estudio que podría considerarse sería aquel que contenga a un servicio 3PL que cuente con diferentes tamaños de transporte para distribuir carga en el que la demanda de los clientes varíe y se deba decidir en el HUB el tamaño de vehículo a enviar posiblemente integrando la opción de considerar ruteo en caso de permitir que dos clientes diferentes compartan la capacidad de un solo vehículo. Un estudio más complejo podría tener en cuenta las variables presentadas en las dos propuestas anteriores en donde se cuente con una línea de ensamble de pedidos y un sistema de información que permita proveer kits de pedidos

de múltiples productos de diferentes a múltiples clientes con demanda probabilística. 7. Bibliografía [1]

[2] [3]

[4] [5] [6]

[7]

[8]

[9]

[10] [11]

[12]

[13]

[14]

[15] [16]

[17] [18]

241

Von der Gracht, H.A. and Darkow, I.-L., Scenarios for the logistics services industry: A Delphi-based analysis for 2025. International Journal of Production Economics, 127 (1), pp. 46-59. 2010. http://dx.doi.org/10.1016/j.ijpe.2010.04.013 Kirby, C., and Brosa, N., La logística como factor de competitividad de las Pymes en las Américas Santo Domingo, República Dominicana. 2011. 39 P. Andersson, D. and Norrman, A., Procurement of logistics services A minutes work or a multi-year project? European Journal of Purchasing & Supply Management, 8 (1), pp. 3–-14. 2002. http://dx.doi.org/10.1016/S0969-7012(01)00018-1 Grunow, M. and Rong, A., A methodology for controlling dispersion in food production and distribution. OR Spectrum, 32 (4), pp. 957-978. 2010. http://dx.doi.org/10.1007/s00291-010-0210-7 Benjelloun, A., Crainic, T.G. and Bigras, Y., Towards a taxonomy of city logistics projects. Procedia - Social and Behavioral Sciences, 2 (3), pp. 6217-6228. 2010. Correia, V. de A., Oliveira, L.K. de, and Guerra, A.L., Economical and environmental analysis of an urban consolidation center for Belo Horizonte City (Brazil). Procedia - Social and Behavioral Sciences, 39, pp. 770-782. 2012. Malhene, N., Trentini, A., Marques, G. and Burlat, P., Freight consolidation centers for urban logistics solutions: The key role of interoperability. In 2012 6th IEEE International Conference on Digital Ecosystems and Technologies (DEST) pp. 1-6. IEEE. 2012. Wilson, M.M.J. and Roy, R.N., Enabling lean procurement: A consolidation model for small- and medium-sized enterprises. Journal of Manufacturing Technology Management, 20 (6), pp. 817833. 2009. http://dx.doi.org/10.1108/17410380910975096 Akkerman, R., Farahani, P. and Grunow, M., Quality, safety and sustainability in food distribution: a review of quantitative operations management approaches and challenges. OR Spectrum, 32 (4), pp. 863-904. 2010. http://dx.doi.org/10.1007/s00291-0100223-2 Cai, X., Chen, J., Xiao, Y., Xu, X. and Yu, G., Fresh-product supply chain management with logistics outsourcing. Omega, 41 (4), pp. 752-765, 2013. http://dx.doi.org/10.1016/j.omega.2012.09.004 Khouja, M. and Goyal, S., A review of the joint replenishment problem literature: 1989–2005. European Journal of Operational Research, 186 (1), pp. 1-16. 2008. http://dx.doi.org/10.1016/j.ejor.2007.03.007 Ahumada, O. and Villalobos, J.R., Application of planning models in the agri-food supply chain: A review. European Journal of Operational Research, 196 (1), pp. 1-20. 2009. http://dx.doi.org/10.1016/j.ejor.2008.02.014 Rong, A., Akkerman, R. and Grunow, M., An optimization approach for managing fresh food quality throughout the supply chain. International Journal of Production Economics, 131 (1), pp. 421429, 2011. http://dx.doi.org/10.1016/j.ijpe.2009.11.026 Zhou, G., Hui, Y. Van, and Liang, L., Strategic alliance in freight consolidation. Transportation Research Part E: Logistics and Transportation Review, 47 (1), pp. 18-29, 2011. http://dx.doi.org/10.1016/j.tre.2010.07.002 Tyan, J., Wang, F.-K. and Du, T., An evaluation of freight consolidation policies in global third party logistics. The International Journal of Management Science, 31, pp. 55-62. 2003. Bookbinder, J. and Higginson, J., Probabilistic modeling of freight consolidation by private carriage. Transportation Research Part E, 38, pp. 305-318. 2002. http://dx.doi.org/10.1016/S13665545(02)00014-5 Hall, R., Consolidation strategy: inventory, vehicles and terminals. Journal of Business Logistics, 8 (2), pp. 57-73. 1987. Pooley, J. and Stenger, A., Modeling and evaluating shipment consolidation in a logistics system. Journal of Business Logistics, 12 (2), pp. 153-175. 1992.


Castrellón-Torres et al / DYNA 82 (189), pp. 233-242. February, 2015. [19] Christopher, M., Logistics and supply chain management, creating value-added networks (3rd ed.).3 Harlow: Finantial Times Prentice Hall. 2005. [20] Romano, P., Co-ordination and integration mechanisms to manage logistics processes across supply networks. Journal of Purchasing and Supply Management, 9, pp. 119-134. 2003. http://dx.doi.org/10.1016/S1478-4092(03)00008-6 [21] Hewitt, F., Supply chain redesign. The International Journal of Logistics Management, 5 (2), pp. 1-10. 1994. http://dx.doi.org/10.1108/09574099410805162 [22] Bechtel, C. and Jayaram, J., Supply chain management: A strategic perspective. The International Journal of Logistics Management, 8 (1), pp. 15-34. 1997. http://dx.doi.org/10.1108/09574099710805565 [23] Christopher, M., Logistics and supply chain management : Strategies for reducing cost and improving service (2nd ed.). London: Financial [24] Cooper, M.C., Lambert, D.M. and Pagh, J.D., Supply chain management: More than a new name for logistics. The International Journal of Logistics Management, 8 (1), pp. 1-14. 1997. http://dx.doi.org/10.1108/09574099710805556 [25] Cooper, M. and Ellram, L., Characteristics of supply chain management and implications for purchasing and logistics strategy. The International Journal of Logistics Management, 4 (2), pp. 13-24. 1993. http://dx.doi.org/10.1108/09574099310804957 [26] Cetinkaya, S., Coordination of inventory and shipment consolidation decisions: A review of premises, models, and justification. In Applications of supply chain management and e-commerce research New York: Springer Science+Business Media. 2005, pp. 3-52. [27] Disney, S.M., Potter, A.T. and Gardner, B.M., The impact of vendor managed inventory on transport operations. Transportation Research Part E: Logistics and Transportation Review, 39 (5), pp. 363-380. 2003. http://dx.doi.org/10.1016/S1366-5545(03)00014-0 [28] Çetinkaya, S. and Lee, C.-Y., Stock replenishment and shipment scheduling for vendor-managed inventory systems. Management Science, 46 (2), pp. 217-232. 2000. http://dx.doi.org/10.1287/mnsc.46.2.217.11923 [29] Estrada-Romeu, M., Análisis de estrategias eficientes en la logística de distribución de paquetería. Universitat Politècnica de Catalunya. 2007. [30] Smits, S.R. and de Kok, A.G., Approximations for the waiting time in (s,nQ)-inventory models for different types of consolidation policies. In Quatitative approaches to distribution logistics and supply chain management, Berlin: Springer-Verlag. 2002. pp. 395417. http://dx.doi.org/10.1007/978-3-642-56183-2_22 [31] Çetinkaya, S. and Bookbinder, J.H., Stochastic models for the dispatch of consolidated shipments. Transportation Research Part B: Methodological, 37 (8), pp. 747-768. 2003. http://dx.doi.org/10.1016/S0191-2615(02)00060-7 [32] Lee, E. and Farahmand, K., Simulation of a base stock inventory management system integrated with transportation strategies of a logistic network. In 2010 Winter Simularion Conference, pp. 19341945, 2010. http://dx.doi.org/10.1109/WSC.2010.5678877 [33] Ford, D.J., Inbound freight consolidation : A simulation model to evaluate consolidation rules. Massachusetts Institute of Technology. 2006. [34] Kleijnen, J.P.C., Supply chain simulation tools and techniques: A survey. International Journal of Simulation and Process Modelling, 1 (1-2), pp. 82-89. 2005. [35] Glock, C.H., The joint economic lot size problem: A review. International Journal of Production Economics, 135 (2), pp. 671686. 2012. http://dx.doi.org/10.1016/j.ijpe.2011.10.026

J.L. García-Alcaraz, es Ingeniero Industrial de la Universidad Autónoma de Ciudad Juárez, México; MSc. en Ingeniería Industrial del Instituto Tecnológico de Colima, México; Dr. en Ingeniería Industrial del Instituto Tecnológico de Ciudad Juárez, México y PhD. en la Universidad de La Rioja, España. El Dr. García es miembro fundador de la Sociedad Mexicana de Investigación de Operaciones y miembro activo de la Academia Mexicana de Ingeniería Industrial. Es investigador reconocido por el Consejo Nacional de Ciencia y Tecnología de México (CONACYT). Sus principales áreas de investigación están relacionadas con la toma de decisiones multicriterio y modelado aplicado a procesos de producción. Es autor-coautor de más de 100 artículos publicados en revistas, conferencias y congresos internacionales. W. Adarme-Jaimes, recibió el grado de Ingeniero Industrial en 1993 de la Universidad Industrial de Santander, Colombia; es Esp. en Ingeniería de la Producción y Mejoramiento Continuo en 1997 de la Universidad Pedagógica y Tecnológica de Colombia, Colombia, es MSc. en Ingeniería con énfasis Logística en 2007 de la Universidad del Valle, Colombia, Dr. en Ingeniería, Industria y Organizaciones en 2011 de la Universidad Nacional de Colombia, Bogotá, Colombia. Ha tenido experiencia en el sector metalúrgico y textil. Actualmente se desempeña como profesor asociado de la Universidad Nacional de Colombia, Bogotá, Colombia. Es el director del grupo Sociedad Economía y Productividad SEPRO – Línea Logística, donde ha dirigido proyectos de investigación y extensión en contextos regionales, nacionales e internacionales, todos en temas de logística y administración de la cadena de suministro. Sus áreas de interés comprenden la coordinación de actores, políticas públicas en logística.

J.P. Castrellón-Torres, recibió el grado de Ingeniero Industrial en 2012 y actualmente se encuentra culminando su MSc. en Ingeniería Industrial, ambos estudios en la Universidad Nacional de Colombia, Bogotá, Colombia. Se encuentra vinculado a la investigación en logística a través del Grupo Sociedad Economía y Productividad SEPRO – Línea Logística donde ha participado en proyectos de investigación y extensión con el sector público y privado en temas relacionados con la logística y la administración de la cadena de suministro. Sus áreas de interés abarcan los temas de logística de productos perecederos, los servicios logísticos 3PL, políticas públicas en logística. 242

Área Curricular de Ingeniería Administrativa e Ingeniería Industrial Oferta de Posgrados

Especialización en Gestión Empresarial Especialización en Ingeniería Financiera Maestría en Ingeniería Administrativa Maestría en Ingeniería Industrial Doctorado en Ingeniería - Industria y Organizaciones Mayor información: E-mail: acia_med@unal.edu.co Teléfono: (57-4) 425 52 02


A hybrid metaheuristic algorithm for the capacitated location routing problem John Willmer Escobar a, Rodrigo Linfati b & Wilson Adarme-Jaimes c a

Departamento de Ingeniería Civil e Industrial, Pontificia Universidad Javeriana, Cali, Colombia. jwescobar@javerianacali.edu.co b Departamento de Ingeniería Industrial, Universidad del Bío-Bío, Concepción, Chile. rlinfati@ubiobio.cl c Departamento de Ingeniería de Sistemas e Industrial, Universidad Nacional de Colombia, Bogotá, Colombia. wadarmej@unal.edu.co Received: June 22th, 2014. Received in revised form: June 17th, 2014. Accepted: June 18th, 2014.

Abstract This paper addresses the Capacitated Location-Routing Problem (CLRP) in which the aim is to determine the depots to be opened, the customers to be assigned to each open depot, and the routes to be performed to fulfill the demand of the customers. The objective is to minimize the sum of the cost of the open depots, of the used vehicle costs, and of the variable costs associated with the distance traveled by the performed routes. In this paper, a Granular Tabu Search (GTS) with different diversification strategies within a Iterated Local Search (ILS) is proposed to solve the CLRP. A shaking procedure is applied whenever the best solution found so far is not improved for a given number of iterations. Computational experiments on benchmark instances taken from the literature show that the proposed approach is able to obtain, within short computing times, high quality solutions illustrating its effectiveness. Keywords: Location Routing Problem (LRP), Iterated Local Search (ILS), Granular Tabu Search (GTS), Metaheuristic Algorithms.

Un algoritmo metaheurístico híbrido para el problema de localización y ruteo con restricciones de capacidad Resumen Este artículo considera el problema de localización y ruteo con restricciones de capacidad (CLRP), en el cual la meta es determinar los depósitos a ser abiertos, los clientes a ser asignados a cada depósito abierto y las rutas a ser desarrolladas para satisfacer la demanda de los clientes. El objetivo es minimizar la suma de los costos fijos de los depósitos abiertos, el costo del uso de los vehículos, y los costos variables asociados con la distancia recorrida por las rutas. En este artículo, una búsqueda tabú granular (GTS) con diferentes estrategias de diversificación contenida en una búsqueda iterativa local (ILS) es propuesta para resolver el CLRP. Un procedimiento de perturbación es aplicado cuando la mejor solución encontrada no se puede mejorar por un número determinado de iteraciones. Experimentos computacionales sobre instancias de benchmarking tomadas de la literatura muestran que el algoritmo propuesto es capaz de obtener, con tiempos computacionales reducidos, soluciones de alta calidad mostrando su efectividad. Palabras clave: Problema de Localización y Ruteo (LRP), Búsqueda Iterativa Local (ILS), Búsqueda Tabú Granular (GTS), Algoritmos Metaheuristicos.

1. Introducción El problema de localización y ruteo con restricciones de capacidad (CLRP) puede ser modelado como el siguiente problema de grafos: Sea , un grafo indirecto, donde es un conjunto de nodos que contienen un subconjunto , … , de depósitos potenciales y un subconjunto , … , de clientes. Cada depósito potencial ∈ tiene una capacidad y un costo de

apertura . Cada cliente ∈ tiene una demanda la cual debe ser satisfecha por un depósito abierto. Un conjunto de vehículos idénticos, cada uno con capacidad y costo fijo , está disponible en cada depósito . Cada arco , ∈ es asociado con un costo de viaje . La meta del CLRP es determinar los depósitos a ser abiertos, los clientes a ser asignados a cada depósito abierto y las rutas a ser desarrolladas para satisfacer las demandas de los clientes. Las siguientes restricciones son impuestas:

© The author; licensee Universidad Nacional de Colombia. DYNA 82 (189), pp. 243-251. February, 2015 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v82n189.48552


Escobar et al / DYNA 82 (189), pp. 243-251. February, 2015.

 Cada ruta debe comenzar y finalizar en el mismo depósito;  Cada cliente debe ser visitado exactamente una vez por una sola ruta;  La carga total de cada ruta debe no exceder la capacidad del vehículo ;  La carga total de las rutas asignadas a un depósito abierto i no debe exceder su capacidad . La función objetivo del CLRP está determinada por la suma de los costos de apertura, de los costos de viaje y de los costos fijos asociados con los vehículos usados. El CLRP es conocido por ser un problema NP-hard, desde que este es una generalización de dos problemas NP-hard: el problema de localización de instalaciones con restricciones de capacidad (CFLP) y el problema de ruteo de vehículos con múltiples depósitos (MDVRP). Algoritmos exactos han sido propuestos para resolver el CLRP en [1-3]. Estas aproximaciones han sido capaces de probar optimalidad en instancias de tamaño mediano (menores o iguales a 150 clientes). Debido a esto, heurísticas y metaheurísticas han sido propuestas para resolver exitosamente instancias de CLRP de gran tamaño. En [4] se propone una búsqueda tabú de dos fases para resolver el CLRP. La búsqueda tabú de dos fases itera entre la etapa de localización y la etapa de ruteo, en aras de obtener mejores soluciones para instancias de gran tamaño. En este trabajo, resultados para instancias de hasta 200 clientes son reportados. Otro algoritmo basado en una aproximación de dos fases ha sido propuesto por [5]. En la primera fase (fase de localización), los clientes son agregados en nodos llamados “súper-clientes” y el problema de localización con restricciones de capacidad es resuelto a través de una relajación Langragiana. En la segunda fase (fase de ruteo), una búsqueda tabú granular (GTS) con un vecindario es usado para resolver el correspondiente problema de ruteo de vehículos (VRP) para cada depósito. Métodos basados en agrupación han sido propuesto por [6]. Estos métodos consideran tres etapas. En la primera etapa, el conjunto de clientes son divididos en grupos de acuerdo a la capacidad de vehículos. En la segunda etapa, un problema de viajero de negocios (TSP) es resuelto para cada grupo. Finalmente, en la tercer etapa, cada tour TSP es agrupado en “súper-clientes” para resolver el correspondiente problema de localización de instalaciones con restricciones de capacidad (CFLP). En [7] se propone un procedimiento aleatorio goloso (GRASP) con una estrategia de conectividad de soluciones de alta calidad para el CLRP. Los mismos autores (ver [8]) han propuesto una algoritmo memético con administración de la población. Recientemente, varios algoritmos metaheurísticos han sido propuestos por [9-13]. En [9], una búsqueda de vecindario variable con siete vecindarios ha sido propuesto. En el segundo trabajo ([10]), se propone una metaheurística basada en un GRASP híbrido con una búsqueda local evolutiva (ELS). En [11] se propone un algoritmo basado en recocido simulado con tres vecindarios aleatorios para el CLRP. En [12] se han introducido una búsqueda de vecindario variable para el problema de localización y ruteo periódico con restricciones de capacidad (PLRP) y para el

CLRP. En este trabajo, una combinación de una búsqueda de vecindario variable (VNS) pura con la solución de varios ILPs es considerada para la solución del CLRP. Finalmente, en [13] se ha propuesto un algoritmo exitoso de dos fases, el cual es capaz de encontrar soluciones de alta calidad dentro de tiempos computacionales cortos. En este artículo, se introduce una metaheurística basada en una búsqueda tabú granular dentro de una búsqueda iterativa local para el CLRP. El algoritmo propuesto explota la potencialidad de la búsqueda local iterativa que ha sido estudiada en [14] y la búsqueda tabú eficiente propuesta en [15]. En la literatura revisada hasta el momento no se ha hallado la combinación del GTS dentro de un esquema de ILS. El artículo está organizado de la siguiente forma. En la sección 2 el marco general del algoritmo es detallado. Sección 3 presenta el algoritmo propuesto, denominado GITS. Experimentos computacionales en las instancias de benchmarking son mostradas en Sección 4. Finalmente, sección 5 detalla las conclusiones e investigación futura. 2. Marco general del algoritmo 2.1. Esquema de la Búsqueda Local Iterativa (ILS) Esta técnica ha sido propuesta a principios de los años 1980 ([16]). La búsqueda local iterativa es principalmente una versión mejorada del algoritmo Ascenso de Colina (Hill Climbing) con reinicios aleatorios. Este método realiza una búsqueda de óptimos locales, ya que realiza un tour desde un óptimo local a otro. La ILS se basa en dos principios. Primero, el ILS no escoge un reinicio aleatorio al azar, sino que busca un punto de reinicio lo suficientemente lejano para obtener un óptimo local diferente al actual, pero a su vez, suficientemente cerca para que no ser una búsqueda aleatoria de óptimos locales. Segundo, cuando encuentra un nuevo óptimo local debe decidir si utilizarlo como nuevo punto de partida para el reinicio o no, en caso de escoger siempre el nuevo óptimo local se estaría en presencia de una caminata aleatoria, si sólo se seleccionan óptimos locales nuevos mejores que el anterior, se estaría haciendo un proceso de Ascenso de Colina (Hill Climbing). La ILS escoge un punto intermedio entre ambos extremos. 2.2. Espacio de búsqueda granular El algoritmo propuesto utiliza la idea de un espacio de búsqueda granular introducida por [15], el cual está basado en la utilización de un grafo incompleto que contiene los arcos incidentes a los depósitos, los arcos que pertenecen a las mejores soluciones encontradas durante la búsqueda y los arcos cuyo costo es menor que un valor de ̅, donde ̅, es el costo promedio de los arcos de la mejor solución factible encontrada durante la búsqueda y es un factor de esparsificación, actualizado dinámicamente durante la búsqueda. La modificación dinámica del grafo incompleto permite al algoritmo alternar entre etapas extensas de intensificación y etapas breves de diversificación. Un valor pequeño de es asociado con etapas de intensificación, mientras que un valor alto de es asociado con etapas de

244


Escobar et al / DYNA 82 (189), pp. 243-251. February, 2015.

diversificación. La idea general de la búsqueda tabú granular es encontrar soluciones de gran calidad, conservando las características de la búsqueda tabú original, dentro de tiempos de computación cortos. 2.3. Procedimiento de solución inicial La solución inicial es construida usando un algoritmo híbrido propuesto por [13]. Este algoritmo es usado para construir la solución inicial, debido a la capacidad de obtener buenas soluciones factibles dentro de tiempos de computación razonables. Primero, un tour TSP gigante es construido conteniendo todos los clientes mediante la conocida heurística Lin-Kernighan (LKH) ([17]). Luego el tour gigante es partido en varios grupos para cada uno de los cuales, la capacidad del vehículo es satisfecha. Para cada depósito y cada grupo , un TSP tour es ejecutado para obtener la distancia real de asignar el depósito al cluster . Luego, los depósitos son asignados a los grupos resolviendo un modelo de programación entera mixta correspondiente al bien conocido problema de localización con restricciones de capacidad y fuente única (ver, e.g. [18] y [19]). Note que el procedimiento de solución inicial es repetido veces (donde es el número de clientes) seleccionando cada vértice como vértice inicial para dividir el tour gigante. Finalmente, un procedimiento de división es aplicado para reducir el costo de la distancia recorrida por las rutas adicionando nuevas rutas y asignándolas a diferentes depósitos [13]. El procedimiento de división es aplicado dos veces manteniendo la solución mejor solución factible encontrada. 2.4. Vecindarios El algoritmo propuesto permite soluciones infactibles con respecto a las capacidades de los vehículos y de los depósitos. Dada una solución factible S durante la búsqueda tabú granular, se asigna un valor de la función objetivo . El es igual a la suma de los costos fijos de los valor de depósitos abiertos, del costo de la distancia recorrida por los arcos que pertenecen a las rutas de la solución , y del costo fijo de los vehículos usados en . En adición, para cada solución infactible con respecto a la capacidad del depósito, se adiciona a un término de penalización obtenido por la multiplicación de la capacidad extra del depósito por un parámetro de penalización dinámicamente actualizado durante la búsqueda ∝ . De esta manera, el valor de la función objetivo es obtenido. Un procedimiento similar es aplicado al valor de la función objetivo para cualquier solución infactible con respecto a la capacidad de los vehículos usando un factor de penalización ∝ . Note que . si la solución es factible En particular, si se han encontrado soluciones infactibles respecto a la capacidad del depósito durante iteraciones, el valor del factor de penalización ∝ es calculado como el min ,∝ , donde 1. De lo contrario, si soluciones factibles se han encontrado con respecto a la capacidad del depósito durante iteraciones, el valor del factor de penalización ∝ es

calculado como max ,∝ , donde 1 . ,∝ , , , y son parámetros ajustados. Una aproximación similar es aplicada para calcular el valor del factor de penalización ∝ . El algoritmo metaheurístico aplica movimientos entre rutas y al interior de las rutas correspondiente a los siguientes vecindarios:  Inserción: Un cliente es transferido de su posición actual a otra posición, dentro de la misma ruta o en una ruta diferente (que pertenece al mismo depósito o a otro diferente).  Intercambio: Un par de clientes son intercambiados al mismo tiempo en la misma ruta o en una ruta diferente (que pertenece al mismo depósito o a otro diferente).  Two-opt: Esta es una extensión del movimiento tradicional Two opt. Si los dos clientes pertenecen a la misma ruta, el movimiento es considerado como el bien conocido movimiento intra ruta Two-opt ([17]). Si los clientes pertenecen a una ruta diferente que pertenece a un mismo depósito, el movimiento es similar al tradicional Two-opt en el problema de ruteo de vehículos (VRP). De lo contrario, si cada par de clientes pertenecen a depósitos diferentes, es necesario desarrollar un movimiento adicional con los arcos incidentes a los depósitos para reconectar las rutas de forma correcta.  Doble inserción: Dos clientes son transferidos de su posición actual a otra posición manteniendo el arco que los conectan. Los clientes pueden ser insertados en la ruta actual o en una ruta diferente (perteneciendo al mismo depósito o a uno diferente).  Doble intercambio: Un par de arcos son intercambiados al mismo tiempo. Los arcos puedes estar en la misma ruta o en una ruta diferente (que pertenece al mismo depósito o a otro diferente). Un movimiento es realizado sólo si los nuevos arcos insertados en la solución están en el espacio de búsqueda granular. 3. Descripción del algoritmo propuesto Esta sección presenta la discusión del algoritmo desarrollado (GITS) para la solución del CLRP. El algoritmo propuesto utiliza una búsqueda tabú granular (GTS) internamente dentro de una búsqueda iterativa local (ILS) para las estructuras de vecindario descritas en la sección anterior. En particular, ILS controla la búsqueda global; mientras que el GTS guía el proceso de búsqueda local usando los diferentes vecindarios y el eficiente espacio de búsqueda descrito en la sección 2.2. En particular, después de construir la solución inicial (mediante el procedimiento descrito en la sección 2.3), GITS itera a través de diferentes vecindarios para mejorar la mejor solución factible encontrada durante la búsqueda. El algoritmo propuesto selecciona un vecindario de las estructuras descritas en la sección 2.4, y aplica una búsqueda tabú granular (GTS) en el vecindario seleccionado hasta que un mínimo local es encontrado. Luego el vecindario es reiniciado aleatoriamente y de nuevo el procedimiento GTS es aplicado. El algoritmo es ejecutado por iteraciones (donde es un parámetro dado). El procedimiento GTS explora el espacio de solución

245


Escobar et al / DYNA 82 (189), pp. 243-251. February, 2015.

moviéndose en cada iteración de una solución a la mejor solución (solución con el menor valor en el vecindario , de , inclusive si esta es infactible). El último movimiento es declarado como tabú. El tamaño de la lista tabú es aleatoriamente ajustado en el intervalo , , donde y son paramétricos. El GTS considera tres estrategias de diversificación. La primera estrategia está basada en la diversificación granular propuesta por [15]. Inicialmente el factor de esparsificación es ajustado a un valor pequeño . Cuando la mejor solución factible no es mejorada después de iteraciones, el factor de esparsificación es incrementado a . Luego un nuevo iteraciones son desarrollados grafo es calculado, y comenzando de la mejor solución factible encontrada. Finalmente, el factor de esparsificación es reseteado a su valor original y la búsqueda continua. , , y son paramétricos. La segunda estrategia de diversificación está basada en un esquema de penalización: en la selección del mejor movimiento a ser desarrollado para cualquier solución infactible , un término extra de penalidad es adiccionado al valor de la función objetivo . El valor de es igual al producto de la diferencia absoluta ∆ entre dos valores sucesivos de la función objetivo, de la raíz cuadrada del número de rutas , y del factor de escala ( [20]). Finalmente, la última estrategia de diversificación determina cada iteraciones (donde es un parámetro dado) una solución factible usando el procedimiento VRPH propuesto por [13] para el problema del CLRP. Finalmente, un procedimiento de perturbación es aplicado cuando el GTS se mantiene en óptimo local por un número de iteraciones (donde es un parámetro dado). En particular, este procedimiento aplica el movimiento de inserción considerando tres rutas aleatorias al mismo tiempo (por mayores detalles ver [21]). En particular, nosotros consideramos un procedimiento aleatorio de selección de las rutas a ser perturbadas. El algoritmo selecciona la primera ruta (k1) aleatoriamente. La segunda ruta (k2) es el vecino más cercano de k1, y la tercera ruta (k3) es el vecino más cercano de k2, diferente a k1. La evaluación de la distancia entre rutas se calcula teniendo en cuenta su ''centro de gravedad''. Para cada cliente i1 de la ruta k1, cada cliente i2 de la ruta k2, cada arco (h2,j2) de la ruta k2 (con h2≠i2 y j2≠i2), y cada arco (h3,j3) de la ruta k3, se obtiene una nueva solución S considerando los siguientes movimientos: 1) remover cliente i1 de ruta k1 e insertarlo entre vértices h2 y j2 en ruta k2; 2) eliminar cliente i2 de ruta k2 e insertarlo entre vértices h3 y j3 en ruta k3. El movimiento asociado con el valor mínimo de la función objetivo es implementado. El procedimiento de perturbación permite al algoritmo explorar nuevas regiones del espacio de solución. 3.1. Pseudocódigo del algoritmo propuesto S <- Solución Inicial N <- Vecindario Inicial

S’ = GTS(S, N) SI (S’ es mejor que S_best) S_best = S’ SI (S’ cumple criterio de aceptación) S = S’ S = Reinicio(S) N = Reinicio(N) S = Perturbación(S) 4. Descripción del algoritmo propuesto El algoritmo propuesto (GITS) fue implementado en C++ y los experimentos han sido desarrollados en una Intel Core Duo (un solo core ha sido usado) CPU (2.00 Ghz) bajo Linux Ubuntu 11.04 con 2 GB de memoria. El desarrollo del algoritmo propuesto ha sido testeado en tres conjuntos de instancias propuestas en [4,22,23]. En todos los conjuntos, los clientes y los depósitos son representados por puntos en el plano. De esta manera, el costo de un arco es calculado como la distancia euclidiana, multiplicada por 100 y calculado como un entero (ver [22]), o calculado como número real de doble precisión (ver [4,23]). El conjunto de datos propuesto por [23] considera 36 instancias con depósitos sin restricciones de capacidad. El número de clientes es ajustado en el intervalo (100, 200), y el número de depósitos potenciales está entre 10 o 20. La capacidad del vehículo es ajustado a 150. El conjunto de datos propuesto en [22] considera 30 instancias. El número de clientes es ajustado en el intervalo [20, 200], y el número de depósitos potenciales es 5 o 10. La capacidad del vehículo es 70 o 150. Finalmente, el conjunto de datos propuesto en [4] contiene 13 instancias obtenidas desde problemas clásicos del VRP adicionando nuevos depósitos con sus correspondientes capacidades y costos fijos. El número de clientes está entre 21 a 150, y el número de depósitos potenciales de 5 a 10. 4.1. Ajuste de parámetros En particular, para cada instancia, una corrida del algoritmo ha sido ejecutada. Los mejores resultados del algoritmo son reportados en Tablas 1-4. El siguiente set de parámetros ha sido obtenido después de varias corridas en los tres set de instancias: 10, ∝ 0.0075 ,∝ 0.0050 , 0.04 , 1.00, 2.00, 0.30, 3, 6, 1.80, 2.00 , 1.00 , 0.01, 2.40, 1.50 , 0.20 , y 7 . Estos valores han sido usados para las soluciones de las instancias consideradas. 4.2. Estudio comparativo El algoritmo propuesto ha sido comparado con los siguientes algoritmos publicados para el CLRP: GRASP ([7]), MA|PM ([8]), LRGTS ([5]), GRASP+ELS ([10]), SALRP ([11]), VNS+VLNS ([12]) y 2-Phase HGTS ([13]). Los resultados se presentan según aparecen en la literatura. Note que los resultados promedio no están disponibles para

WHILE (Condición de Término) 246


Escobar et al / DYNA 82 (189), pp. 243-251. February, 2015. Tabla 1.Resultados resumidos en Gap BR y Tiempo CPU para el conjunto completo de instancias GRASP

MA|PM

LRGTS

Set

Size

Gap BR

Tiempo CPU

Tuzun-Burke

36

2,91

163

1,29

207

1,27

22

Prodhon

30

3,49

97

1,27

96

0,63

Barreto

13

1,58

20

2,01

36

1,61

Promedio Global Total NBR

2,91

GRASP+ELS

Gap Tiempo Gap Tiempo Gap BR CPU BR CPU BR

VNS+VLNS 2-Phase HGTS

GITS

Gap BR

Tiempo CPU

0,72

607

0,92

826

--

--

0,57

392

0,49

201

18

0,96

258

0,31

422

0,76

7

0,42

176

0,47

91

18

0,03

188

0,25

161

--

--

0,74

105

0,93

53

114 1,40 137 1,08 20 8 18 8 Pentium 4 (2.4 Pentium 4 (2.4 Pentium 4 (2.4 CPU Ghz) Ghz) Ghz) Índice CPU 314 314 314 Fuente: Elaboración Propia

0,70

405 35 Core 2 Quad (2.83 Ghz) 4373

todos los algoritmos. Los resultados reportados para GRASP, MA|PM, LRGTS, SALRP, y 2-Phase HGTS corresponde a una sola corrida del algoritmo asociado. VNS+VLNS ha sido ejecutado 30 veces para cada instancia, y el costo reportado y tiempo computacional corresponde al costo promedio y tiempo promedio sobre las corridas. Finalmente, GRASP+ELS ha sido ejecutado cinco veces considerando cinco diferentes semillas, y los costos reportados corresponden a las mejores soluciones sobre las corridas y el tiempo computacional requerido para alcanzar dichas soluciones. En Tablas 1-4, la siguiente notación es usada: Instancia nombre de la instancia; n número de clientes; m número de depósitos potenciales; Costo costo de la solución obtenida por cada método (en una sola corrida o la mejor corrida); BR costo del mejor resultado entre los algoritmos considerados; CPU CPU usado por cada algoritmo; Índice CPU Passmark performance test para cada CPU; Tiempo CPU tiempo de ejecución en segundos en la CPU usada por cada algoritmo; Gap BR porcentaje gap del costo de la solución encontrada por cada algoritmo con respecto al BR; NBR número de BR obtenidos por cada algoritmo. En Tablas 2-4, los valores para los cuales cada algoritmo es capaz de encontrar el valor de BR, son escritos en negrilla. Cuando el algoritmo propuesto (GITS) mejora el valor de BR, este resultado es subrayado. Finalmente, el índice CPU es obtenido por el Passmark Performance Test1. Este es un bien conocido benchmark test. Una CPU es más rápida cuando el índice CPU índex es alto. En Tabla 1, se reporta un resumen de resultados obtenidos por los algoritmos considerados para el set completo de instancias. En particular, valores promedio del Gap BR, CPU time, Total NBR y CPU índex son reportados. Tabla 1 muestra que el algoritmo propuesto provee el valor promedio más pequeño

1

SALRP

Tiempo CPU

0,58

564 33 Core 2 Quad (2.66 Ghz) 4046

Gap Tiempo Gap Tiempo Gap Tiempo BR CPU BR CPU BR CPU

--

-2 Core 2 Quad (2.83 Ghz) 4373

0,54

263 26 Core 2 Duo (2.00 Ghz) 1398

0,56

135 35 Core 2 Duo (2.00 Ghz) 1398

de Gap BR que el reportado por GRASP, MA|PM, LRGTS, GRASP+ELS, SALRP y VNS+VLNS. Solamente algoritmo 2-Phase HGTS provee, con mayores CPU times, ligeramente mejores valores promedio de Gap BR. En cuanto al tiempo de CPU, GITS es más rápido que GRASP+ELS, SALRP y 2-Phase HGTS, los cuales han sido los algoritmos previamente publicados que han sido capaces de obtener los mejores resultados. Es de notar que el CPU time usado por algoritmo GRASP+ELS no representa el tiempo global requerido para encontrar la mejor solución, desde que este corresponde al tiempo de CPU utilizado para encontrar la mejor solución en su respectiva corrida. Por otro lado, algoritmos GRASP, MA|PM, LRGTS and VNS+VLNS toman menos CPU time, pero ellos parecen ser menos robustos que el algoritmo propuesto en términos de la calidad de solución. Además, el algoritmo propuesto junto con el GRASP+ELS son capaces de obtener el mayor número de BKS. El algoritmo propuesto ha sido capaz de alcanzar 35 BR de 79 instancias consideradas en este artículo. Los resultados para el conjunto de datos propuesto en [4] son reportados en Tabla 2. Los resultados muestran que el algoritmo propuesto es capaz de producir 18 BR sobre 36 instancias; de las cuales 12 corresponden a nuevos valores de BR. En este conjunto de datos, se puede observar que el algoritmo supera todas las otras heurísticas en términos del promedio Gap BR y número global de soluciones de BR encontradas. Los resultados para el conjunto de datos propuestos en [22] son detallados en Tabla 3. En promedio, el algoritmo propuesto es capaz de obtener mejores resultados que GRASP, MA|PM, LRGTS, GRASP+ELS y VNS+VLNS. Sólo, SALRP y 2-Phase HGTS proveen también con tiempos computacionales mayores, ligeramente mejores resultados de Gap BR. Finalmente, Tabla 4 reporta los resultados obtenidos para el set de instancias propuestas en Barreto [23]. Los resultados muestran que el algoritmo propuesto es competitivo en términos de la calidad de la solución. Algoritmo GITS es capaz de obtener mejores resultados promedios que GRASP, MA|PM y LRGTS, pero es superado por algoritmos GRASP+ELS, SALRP y 2-Phase HGTS.

Passmark® Software Pty Ltd, http://www.passmark.com 247


Fuente: Elaboraci贸n Propia

248

1390,87

123222

NBR

Promedio

1778,28

1467,54

122212

1932,05

1722,99

122122

123212

2103,82

122112

123122

2236,73

121222

1082,59

2239,65

121212

1969,38

2166,20

121122

122222

2258,02

121112

123112

1203,44

1155,96

133212

133222

1402,94

133122

1444,17

1204,42

132122

132212

931,49

1443,80

132112

1701,34

1801,39

131222

132222

1983,09

131212

133112

1933,67

1852,35

131112

131122

902,26

1018,29

1246,00

113122

113212

1238,49

113112

113222

791,66

728,30

112212

112222

1167,16

1102,24

112112

112122

1396,59

1432,29

111212

111222

1473,36

1449,20

111112

BR

111122

Instance

1408,63

1788,70

2090,95

2044,66

1095,92

1496,75

1807,29

2137,08

2345,10

2273,19

2288,09

2384,01

1231,33

1223,70

1425,74

1736,90

940,80

1240,40

1456,82

1508,33

1856,07

2033,93

1888,90

2006,70

1022,51

912,19

1272,94

1273,10

747,84

814,00

1123,64

1200,24

1482,29

1423,54

1526,90

1525,25

Cost

2,91

1,28

0,59

8,22

3,82

1,23

1,99

4,89

1,58

4,85

1,50

5,63

5,58

6,52

1,68

1,63

2,09

1,00

2,99

0,88

4,47

3,04

2,56

1,97

3,78

0,41

1,10

2,16

2,79

2,68

2,82

1,94

2,83

3,49

1,93

5,36

3,52

Gap BR

GRASP

0

163

296

199

399

283

309

243

370

338

419

311

410

385

135

89

128

93

143

134

166

118

133

100

161

113

38

20

36

23

38

23

34

28

36

28

41

33

Tiempo CPU

1396,24

1782,23

1979,05

1973,28

1088,00

1467,54

1771,53

2106,26

2376,25

2274,57

2277,39

2293,99

1158,54

1203,44

1429,34

1720,30

934,79

1207,41

1459,83

1448,27

1855,25

1984,25

1881,67

1959,39

1022,93

903,82

1251,32

1262,32

730,51

793,97

1115,37

1173,22

1492,46

1418,83

1471,36

1493,92

Cost

1,29

0,39

0,22

2,43

0,20

0,50

0,00

2,82

0,12

6,24

1,56

5,13

1,59

0,22

0,00

1,88

1,11

0,35

0,25

1,08

0,31

2,99

0,06

1,58

1,33

0,46

0,17

0,43

1,92

0,30

0,29

1,19

0,52

4,20

1,59

1,53

1,40

Gap BR

MA|PM

2

207

530

353

406

413

505

323

378

351

436

378

458

523

223

154

156

144

196

201

155

168

144

111

144

129

63

35

48

38

49

38

43

33

36

36

36

33

Tiempo CPU

1401,16

1786,79

1986,49

1984,06

1090,59

1488,55

1737,81

2120,76

2259,52

2260,87

2207,50

2296,52

1162,16

1216,32

1424,59

1729,31

936,93

1211,07

1492,86

1448,65

1819,89

2010,53

1875,79

1946,01

1025,51

913,06

1256,12

1267,93

742,96

813,28

1115,95

1187,63

1443,06

1412,04

1471,76

1490,82

Cost

1,27

0,74

0,48

2,82

0,75

0,74

1,43

0,86

0,81

1,02

0,95

1,91

1,71

0,54

1,07

1,54

1,64

0,58

0,55

3,37

0,34

1,03

1,38

1,27

0,64

0,71

1,20

0,81

2,38

2,01

2,73

1,24

1,75

0,75

1,11

1,56

1,19

Gap BR

LRGTS

0

3

5

4

6

4

6

5

8

8

8

4

8

22

43

34

53

43

39

38

59

48

40

33

40

41

14

15

19

18

14

19

28

23

16

11

19

13

Tiempo CPU

1453,82

1778,80

1964,40

2004,33

1085,69

1474,25

1779,05

2106,47

2265,53

2246,39

2203,57

2295,90

1155,96

1214,82

1402,94

1712,11

945,81

1219,86

1444,17

1453,78

1835,25

1992,41

1864,24

1944,57

1018,29

902,30

1246,00

1240,39

728,30

792,03

1102,24

1167,16

1432,29

1396,59

1449,20

1473,36

Cost

0,72

4,53

0,03

1,67

1,77

0,29

0,46

3,25

0,13

1,29

0,30

1,73

1,68

0,00

0,95

0,00

0,63

1,54

1,28

0,00

0,69

1,88

0,47

0,64

0,56

0,00

0,00

0,00

0,15

0,00

0,05

0,00

0,00

0,00

0,00

0,00

0,00

Gap BR

607

2202

1398

1273

1451

1243

514

618

1521

2192

1566

432

655

375

251

524

271

224

459

662

103

415

727

705

518

196

249

233

55

48

5

259

27

114

112

9

233

Tiempo CPU

11

GRASP + ELS

1396,42

1779,10

1932,05

1994,16

1088,64

1469,10

1722,99

2112,65

2326,53

2260,30

2258,16

2324,10

1159,12

1216,84

1415,85

1720,81

934,62

1206,24

1455,50

1453,30

1801,39

2057,53

1899,05

1953,85

1024,02

902,26

1247,28

1238,49

731,95

791,66

1110,36

1177,14

1432,29

1408,65

1470,96

1477,24

Cost

0,92

0,40

0,05

0,00

1,26

0,56

0,11

0,00

0,42

4,01

0,92

4,25

2,93

0,27

1,11

0,92

1,14

0,34

0,15

0,78

0,66

0,00

3,75

2,52

1,04

0,56

0,00

0,10

0,00

0,50

0,00

0,74

0,86

0,00

0,86

1,50

0,26

Gap BR

SALRP

7

826

1427

1314

1412

1318

1429

1299

1400

1320

1428

1319

1455

1328

837

756

833

742

842

752

828

750

833

456

835

743

316

291

428

300

418

360

342

348

420

231

274

369

Tiempo CPU

1390,87

1778,41

1958,98

1984,77

1082,59

1473,27

1749,10

2121,93

2237,81

2249,40

2166,43

2265,59

1156,05

1234,83

1416,74

1705,36

931,49

1204,42

1452,07

1445,25

1803,01

2012,69

1856,51

1961,75

1018,29

902,26

1251,22

1238,49

728,30

791,66

1102,24

1167,16

1474,01

1407,26

1486,27

1479,21

Cost

0,57

0,00

0,01

1,39

0,78

0,00

0,39

1,52

0,86

0,05

0,44

0,01

0,34

0,01

2,61

0,98

0,24

0,00

0,00

0,55

0,10

0,09

1,49

0,22

1,45

0,00

0,00

0,42

0,00

0,00

0,00

0,00

0,00

2,91

0,76

2,56

0,40

Gap BR

392

518

697

617

542

616

724

691

522

558

527

603

522

380

526

342

444

335

270

493

449

302

406

298

485

157

135

237

160

254

201

224

232

146

120

239

152

Tiempo CPU

11

2-Phase HGTS

1392,26

1778,28

1972,75

1969,38

1084,28

1469,45

1750,66

2103,82

2236,73

2239,65

2166,20

2258,02

1156,05

1235,05

1416,74

1701,34

931,90

1204,42

1452,07

1443,80

1803,01

1983,09

1852,35

1933,67

1018,29

902,26

1247,27

1238,49

728,30

803,27

1102,24

1188,66

1460,03

1406,55

1491,09

1479,21

Cost

0,49

0,10

0,00

2,11

0,00

0,16

0,13

1,61

0,00

0,00

0,00

0,00

0,00

0,01

2,63

0,98

0,00

0,04

0,00

0,55

0,00

0,09

0,00

0,00

0,00

0,00

0,00

0,10

0,00

0,00

1,47

0,00

1,84

1,94

0,71

2,89

0,40

Gap BR

GITS

18

201

317

349

344

261

349

318

433

278

351

287

300

315

208

207

175

182

177

128

210

186

175

184

173

179

85

71

127

82

126

96

105

83

99

74

126

84

Tiempo CPU

Escobar et al / DYNA 82 (189), pp. 243-251. February, 2015.

Tabla 2. Resultados para las instancias propuesta por [4]


Fuente: Elaboraci贸n Propia

249

250882

204815

476778

377716

449006

374717

471978

362827

100-10-3a

100-10-3b

200-10-1a

200-10-1b

200-10-2a

200-10-2b

200-10-3a

200-10-3b

NBR

Promedio

203988

100-10-2b

287864

100-10-1a

243778

152467

100-5-3b

100-10-2a

200242

100-5-3a

234210

157150

100-5-2b

100-10-1b

194124

100-5-2a

61890

61830

214885

87380

86203

100-5-1b

52059

51822

389016

496694

379980

512679

416753

490820

216173

270826

206555

254087

271477

323171

154596

203999

159550

199520

216159

279437

84055

84055

276137

68042

67308

90632

90111

64761

37542

37542

88786

48908

48908

63242

39104

88298

55021

39104

Cost

54793

BR

100-5-1a

50-5-3b

50-5-3a

50-5-2bbis

50-5-2bis

50-5-2b

50-5-2a

50-5-1b

50-5-1a

20-5-2b

20-5-2a

20-5-1b

20-5-1a

Instance

3,49

7,22

5,24

1,40

14,18

10,34

2,95

5,55

7,95

1,26

4,23

15,91

12,27

1,40

1,88

1,53

2,78

0,59

1,20

0,10

1,37

0,46

0,00

1,09

0,55

2,40

0,58

0,00

0,00

0,00

0,42

Gap BR

GRASP

4

3

3

3

2

3

3

2

2

0

0

0

0

97

290

425

368

554

379

518

40

35

30

39

30

38

20

21

23

18

24

28

Tiempo CPU

364834

478132

375019

451840

380044

483497

204815

253669

205052

245123

270251

316575

153322

201749

157325

195568

216656

281944

61830

86203

51822

84055

67893

88298

63242

90160

37542

48908

39104

54793

Cost

1,27

0,55

1,30

0,08

0,63

0,62

1,41

0,00

1,11

0,52

0,55

15,39

9,97

0,56

0,75

0,11

0,74

0,82

2,10

0,00

0,00

0,00

0,00

0,87

0,00

0,00

0,05

0,00

0,00

0,00

0,00

Gap BR

MA|PM

11

8

5

6

5

5

5

5

4

96

341

266

401

351

579

431

45

36

39

31

45

31

43

36

45

45

44

365250

476684

377351

453353

380613

481676

205883

258656

204435

246708

235532

291887

154709

201952

157792

196545

214885

277935

61830

86203

51992

84181

67698

88715

63256

90160

37542

48908

1 0

39104

55131

Cost

0

0

33

Tiempo CPU

0,63

0,67

1,00

0,70

0,97

0,77

1,03

0,52

3,10

0,22

1,20

0,56

1,40

1,47

0,85

0,41

1,25

0,00

0,65

0,00

0,00

0,33

0,15

0,58

0,47

0,02

0,05

0,00

0,00

0,00

0,62

Gap BR

LRGTS

6

3

3

4

3

9

9

1

0

1

3

2

2

1

0

0

1

0

1

18

74

78

78

60

60

365166

478380

376027

452276

382329

486467

205087

11 63

253511

203988

243778

269594

301418

152528

200345

157375

194267

215854

276960

61830

86203

51822

84055

67308

88643

63242

90111

37542

48908

39104

54793

Cost

14

10

15

14

14

Tiempo CPU

0,96

0,64

1,36

0,35

0,73

1,22

2,03

0,13

1,05

0,00

0,00

15,11

4,71

0,04

0,05

0,14

0,07

0,45

0,30

0,00

0,00

0,00

0,00

0,00

0,39

0,00

0,00

0,00

0,00

0,00

0,00

Gap BR

0

3

0

0

0

0

258

591

1596

1610

112

359

1521

203

164

139

260

186

363701

473875

376674

450848

383586

481002

205009

250882

205312

245813

234210

291043

152467

221 48

200242

157150

194124

216002

277035

62700

86456

51822

84055

67340

88298

63242

90111

37542

48908

39104

54793

Cost

141

125

212

68

148

0

0

11

0

16

11

Tiempo CPU

13

GRASP + ELS

0,31

0,24

0,40

0,52

0,41

1,55

0,89

0,09

0,00

0,65

0,83

0,00

1,10

0,00

0,00

0,00

0,00

0,52

0,33

1,41

0,29

0,00

0,00

0,05

0,00

0,00

0,00

0,00

0,00

0,00

0,00

Gap BR

SALRP

15

422

1326

1776

1245

1796

1336

1428

240

338

199

261

203

270

197

250

212

349

269

349

58

74

66

75

59

95

58

75

15

19

15

20

Tiempo CPU

365705

475344

376836

452374

381516

481141

207410

255140

205718

245614

238058

291775

154917

201748

158217

195022

216286

278292

62095

86727

52131

84208

68013

89859

63472

90389

37542

48933

39104

54890

Cost

0,76

0,79

0,71

0,57

0,75

1,01

0,92

1,27

1,70

0,85

0,75

1,64

1,36

1,61

0,75

0,68

0,46

0,65

0,78

0,43

0,61

0,60

0,18

1,05

1,77

0,36

0,31

0,00

0,05

0,00

0,18

Gap BR

2

VNS+VLNS

15

18

16

17

16

18

7

7

7

6

10

9

4

4

5

4

8

5

3

2

5

3

4

2

3

2

1

1

1

1

Tiempo CPU

7

363252

472321

374961

449951

378289

476778

205837

254716

204252

245768

238002

289755

153663

201086

157319

194625

214892

276186

61830

86203

52087

84055

68479

89342

64073

90402

37542

48945

39104

54793

Cost

0,42

0,12

0,07

0,07

0,21

0,15

0,00

0,50

1,53

0,13

0,82

1,62

0,66

0,78

0,42

0,11

0,26

0,00

0,02

0,00

0,00

0,51

0,00

1,74

1,18

1,31

0,32

0,00

0,08

0,00

0,00

Gap BR

7

2-Phase HGTS

389

624

530

483

476

671

144

125

99

92

152

277

168

163

193

145

136

157

38

66

29

23

21

23

27

27

4

3

4

3

176

Tiempo CPU

362827

471978

374717

449006

377716

478154

207171

255070

204252

245768

237632

287864

153617

200788

157364

194920

216878

276137

61885

86203

52270

84126

68438

89342

63936

90785

37611

48945

39104

54793

Cost

9

0,47

91

214

290 330

231 0,00

0,00

239 0,00

0,00

320 0,00

78

82

42

52

0,29

1,15

1,67

0,13

0,82

117

203

0,00 1,46

68

69

82

76

0,75

0,27

0,14

0,41

59

75 0,93

20

18

9

8

10

12

0,00

10

3

2

3

2

13

Tiempo CPU

0,09

0,00

0,86

0,08

1,68

1,18

1,10

0,75

0,18

0,08

0,00

0,00

Gap BR

GITS

Escobar et al / DYNA 82 (189), pp. 243-251. February, 2015.

Tabla 3. Resultados para las instancias propuesta por [22]


Escobar et al / DYNA 82 (189), pp. 243-251. February, 2015. Tabla 4. Resultados para las instancias propuesta por [23] GRASP Instance

BR

Cost

MA|PM Tiempo CPU

Gap BR

Cost

Gap BR

LRGTS Tiempo CPU

Cost

Gap BR

GRASP + ELS Tiempo CPU

Cost

Gap BR

SALRP Tiempo CPU

Cost

Gap BR

2-Phase HGTS Tiempo CPU

Cost

GITS

Tiempo CPU

Gap BR

Cost

Gap BR

Tiempo CPU

Christofides69-50x5

565,6

599,1

5,92

3

565,6

0,00

4

586,4

3,68

3

565,6

0,00

8

565,6

0,00

53

580,4

2,62

45

582,7

3,02

22

Christofides69-75x10

848,9

861,6

1,50

10

866,1

2,03

9

863,5

1,72

10

850,8

0,22

86

848,9

0,00

127

848,9

0,00

94

865,2

1,92

45 111

Christofides69-100x10

833,4

861,6

3,38

26

850,1

2,00

45

842,9

1,14

28

833,4

0,00

127

838,3

0,59

331

838,6

0,62

234

837,1

0,44

Daskin95-88x8

355,8

356,9

0,31

18

355,8

0,00

34

368,7

3,63

18

355,8

0,00

130

355,8

0,00

577

362,0

1,74

148

361,6

1,63

97

43963,6

44625,2

1,50

156

44011,7

0,11

255

44386,3

0,96

119

43963,6

0,00

1697

45109,4

2,61

323

44578,9

1,40

456

44578,9

1,40

199

Daskin95-150x10 Gaskell67-21x5

424,9

429,6

1,11

0

424,9

0,00

0

424,9

0,00

0

424,9

0,00

0

424,9

0,00

18

424,9

0,00

6

424,9

0,00

4

Gaskell67-22x5

585,1

585,1

0,00

0

611,8

4,56

0

587,4

0,39

0

585,1

0,00

15

585,1

0,00

17

585,1

0,00

9

585,1

0,00

6

Gaskell67-29x5

512,1

515,1

0,59

0

512,1

0,00

1

512,1

0,00

0

512,1

0,00

9

512,1

0,00

24

512,1

0,00

11

512,1

0,00

7

Gaskell67-32x5

562,2

571,9

1,73

1

571,9

1,73

1

584,6

3,98

1

562,2

0,00

18

562,2

0,00

27

562,2

0,00

40

562,2

0,00

20

Gaskell67-32x5

504,3

504,3

0,00

1

534,7

6,03

1

504,8

0,10

1

504,3

0,00

34

504,3

0,00

25

504,3

0,00

22

504,3

0,00

15

Gaskell67-36x5

460,4

460,4

0,00

1

485,4

5,43

1

476,5

3,50

1

460,4

0,00

0

460,4

0,00

32

460,4

0,00

39

460,4

0,00

22

Min92-27x5

3062,0

3062,0

0,00

0

3062,0

0,00

1

3065,2

0,10

0

3062,0

0,00

35

3062,0

0,00

23

3062,0

0,00

11

3062,0

0,00

7

Min92-134x8

5709,0

5965,1

4,49

50

5950,0

4,22

111

5809,0

1,75

48

5719,3

0,18

280

5709,0

0,00

522

5890,6

3,18

252

5920,8

3,71

134

Promedio NBR

1,58

20 4

2,01

36 5

1,61

18

0,03

2

188 11

0,25

161 11

0,74

105 8

0,93

53 7

Fuente: Elaboración Propia

[6]

5. Conclusiones y futuras investigaciones En este artículo se propone un algoritmo efectivo para el problema de localización y ruteo con restricciones de capacidad (CLRP). El desarrollo del algoritmo propuesto ha sido evaluado considerando instancias de benchmarking propuestas en la literatura. Los resultados computacionales muestran el algoritmo propuesto es capaz de producir, dentro de tiempos computacionales cortos, varias soluciones obtenidas por los métodos previamente publicados y algunas nuevas mejores soluciones. Los resultados obtenidos sugieren que el algoritmo propuesto es competitivo con los algoritmos previamente publicados. El algoritmo propuesto podría ser aplicado a otros problemas de ruteo con múltiples depósitos como el problema de ruteo de vehículos con múltiples depósitos (MDVRP), el problema de localización y ruteo con restricciones de periodicidad (PLRP), etc.

Este trabajo ha sido parcialmente soportado por la Pontificia Universidad Javeriana, Cali, la Universidad del Bío-Bío, Chile y la Universidad Nacional de Colombia. Este soporte es gratamente agradecido.

[3]

[4]

[5]

[9]

[10]

[12]

[13]

Bibliografía

[2]

[8]

[11]

Agradecimientos

[1]

[7]

Laporte, G., Nobert, Y. and Arpin, D., An exact algorithm for solving a capacitated location-routing problem. Annals of Operations Research, 6 (9), pp. 291-310, 1986. http://dx.doi.org/10.1007/BF02023807 Contardo, C., Gendron, B. and Cordeau, J.F., A branch-and-cut-andprice algorithm for the capacitated location-routing problem. CIRRELT, 2011. Belenguer, J.M., Benavent, E., Prins, C., Prodhon, C. and Calvo, R.W., A branch-and-cut method for the capacitated location-routing problem. Computers & Operations Research, 38 (6), pp. 931-941, 2011. http://dx.doi.org/10.1016/j.cor.2010.09.019 Tuzun, D. and Burke, L.I., A two-phase tabu search approach to the location routing problem. European Journal of Operational Research, 116 (1), pp. 87-99, 1999. http://dx.doi.org/10.1016/S03772217(98)00107-6 Prins, C., Prodhon, C., Ruiz, A., Soriano, P. and Calvo, R.W., Solving the capacitated location-routing problem by a cooperative Lagrangean relaxation-granular tabu search heuristic. Transportation Science, 41 (4), pp. 470-483, 2007. http://dx.doi.org/10.1287/trsc.1060.0187

[14] [15] [16]

[17] [18]

250

Barreto, S., Ferreira, C., Paixao, J. and Santos, B.S., Using clustering analysis in a capacitated location-routing problem. European Journal of Operational Research, 179 (3), pp. 968-977, 2007. http://dx.doi.org/10.1016/j.ejor.2005.06.074 Prins, C., Prodhon, C. and Calvo, R.W., Solving the capacitated location-routing problem by a GRASP complemented by a learning process and a path relinking. 4OR: A Quarterly Journal of Operations Research, 4 (3), pp. 221-238, 2006a. Prins, C., Prodhon, C. and Calvo, R.W., A memetic algorithm with population management (MA|PM) for the capacitated locationrouting problem. Lecture Notes on Computer Science, 3906, pp. 183194, 2006b. http://dx.doi.org/10.1007/11730095_16 Jabal-Ameli, M.S., Aryanezhad, M.B. and Ghaffari-Nasab, N., A variable neighborhood descent based heuristic to solve the capacitated location-routing problem. International Journal of Industrial Engineering Computations, 2 (1), pp. 141-154, 2011. http://dx.doi.org/10.5267/j.ijiec.2010.06.003 Duhamel, C., Lacomme, P., Prins, C. and Prodhon, C., A GRASP× ELS approach for the capacitated location-routing problem. Computers & Operations Research, 37 (11), pp. 1912-1923, 2010. http://dx.doi.org/10.1016/j.cor.2009.07.004 Yu, V.F., Lin, S.W., Lee, W. and Ting, C.J., A simulated annealing heuristic for the capacitated location routing problem. Computers & Industrial Engineering, 58 (2), pp. 288-299, 2010. http://dx.doi.org/10.1016/j.cie.2009.10.007 Pirkwieser, S. and Raidl, G.R., Variable neighborhood search coupled with ILP-based very large neighborhood searches for the (periodic) location-routing problem. In Hybrid Metaheuristics, Springer Berlin Heidelberg, pp. 174-189, 2010. http://dx.doi.org/10.1007/978-3-64216054-7_13 Escobar, J.W., Linfati, R. and Toth, P., A two-phase hybrid heuristic algorithm for the capacitated location-routing problem. Computers & Operations Research, 40 (1), pp. 70-79, 2012. http://dx.doi.org/10.1016/j.cor.2012.05.008 Gendreau, M. and Potvin, J.Y., Handbook of metaheuristics. Vol. 2. New York, Springer, 2010. http://dx.doi.org/10.1007/978-1-44191665-5 Toth, P. and Vigo, D., The granular tabu search and its application to the vehicle-routing problem, INFORMS Journal on Computing, 15 (4), pp.333-346, 2003. http://dx.doi.org/10.1287/ijoc.15.4.333.24890 Baxter, J., Local optima avoidance in depot location. Journal of the Operational Research Society, 32 (9), pp. 815-819, 1981. http://dx.doi.org/10.1057/jors.1981.159 http://dx.doi.org/10.2307/2581397 Lin, S. and Kernighan, B.W.m An effective heuristic algorithm for the traveling-salesman problem. Operations Research, 21 (2), pp. 498-516, 1973. http://dx.doi.org/10.1287/opre.21.2.498 Barcelo, J. and Casanovas, J., A heuristic Lagrangean algorithm for the capacitated plant location problem. European Journal of Operational Research, 15 (2), pp. 212-226, 1984. http://dx.doi.org/10.1016/0377-2217(84)90211-X


Escobar et al / DYNA 82 (189), pp. 243-251. February, 2015. [19] Klincewicz, J. and Luss, H., A Lagrangian relaxation heuristic for capacitated facility location with single-source constraints. Journal of the Operational Research Society, 37 (5), pp. 495-500, 1986. http://dx.doi.org/10.1057/jors.1986.84 http://dx.doi.org/10.2307/2582672 [20] Taillard, E., Parallel iterative search methods for vehicle routing problems. Networks, 3 (8), pp. 661-673, 1993. http://dx.doi.org/10.1002/net.3230230804 [21] Renaud, J., Laporte, G. and Boctor, F., A tabu search heuristic for the multi-depot vehicle routing problem. Computers & Operations Research 23 (3), pp. 229-235, 1996. http://dx.doi.org/10.1016/03050548(95)O0026-P [22] Prins, C., Prodhon, C. and Wolfler-Calvo, R., Nouveaux algorithmes pour le probleme de localisation et routage sous contraintes de capacite. MOSIM., 4e´me Conference Francophone de Modelisation et Simulation, Nantes, France, 4, pp. 1115-122. 2004. [23] Barreto, S., Analise e modelizacao de problemas de localizacao distribuicao, PhD. Thesis, University of Aveiro, Aveiro, Portugal, 2004. J.W. Escobar, es Dr. en Investigación de Operaciones de la Universidad de Bologna, Italia. Docente de programas de Pregrado y Posgrado de la Pontificia Universidad Javeriana y Universidad del Valle, Colombia. Sus intereses de investigación incluyen el diseño e implementación de efectivos algoritmos exactos y heurísticos para problemas de optimización combinatoria. R. Linfati, es Dr en Investigación de Operaciones de la Universidad de Bologna, Italia. Profesor en el Departamento de Ingeniería Industrial de la Universidad del Bío-Bío, Chile. Sus intereses de investigación incluyen el diseño e implementación de efectivos algoritmos exactos y heurísticos para problemas de optimización combinatoria. W. Adarme-Jaimes, recibió el grado de Ing. Industrial en 1993 de la Universidad Industrial de Santander, Colombia; es Esp. en Ingeniería de la Producción y Mejoramiento Continuo en 1997 de la Universidad Pedagógica y Tecnológica de Colombia, Colombia, es MSc. en Ingeniería con énfasis Logística en 2007 de la Universidad del Valle, Colombia, Dr. en Ingeniería, Industria y Organizaciones en 2011 de la Universidad Nacional de Colombia, Bogotá, Colombia. Profesor en la Facultad de Ingeniería de la Universidad Nacional de Colombia, Sede Bogotá. Director del grupo de investigación en Logística Sociedad, Economía y Productividad (SEPRO). Ha dirigido en los últimos diez años seis investigaciones sobre logística para diferentes sectores de la economía colombiana, con publicación de resultados en revistas indexadas. Es consultor en política pública sobre logística y sistemas de abastecimiento para los Ministerios de Comercio, Transporte y Salud de Colombia y Alcaldía mayor de Bogotá. Director de 14 tesis de maestría y tres tesis de Doctorado en Logística. Ponente en congresos internacionales sobre logística en Alemania, México, Panamá, Venezuela y Colombia.

251

Área Curricular de Ingeniería Administrativa e Ingeniería Industrial Oferta de Posgrados

Especialización en Gestión Empresarial Especialización en Ingeniería Financiera Maestría en Ingeniería Administrativa Maestría en Ingeniería Industrial Doctorado en Ingeniería - Industria y Organizaciones Mayor información: E-mail: acia_med@unal.edu.co Teléfono: (57-4) 425 52 02


tailingss

DYNA

82 (189), February 2015 is an edition consisting of 250 printed issues which was finished printing in the month of February of 2015 in Todograficas Ltda. MedellĂ­n - Colombia The cover was printed on Propalcote C1S 250 g, the interior pages on Hanno Mate 90 g. The fonts used are Times New Roman, Imprint MT Shadow


• 3D Modeling and functional analysis of a Spanish historical invention of the nineteenth century for mineral extraction: The Emilina Machine • Aluminum coating by fluidized bed chemical vapor deposition on austenitic stainless steels AISI 304 and AISI 316 • Three-dimensional modeling of pavement with dual load using finite element • Insights of asphaltene aggregation mechanism from molecular dynamics simulation • Energy demand and vehicle emissions stimate in Aburra Valley from 2000 to 2010 using LEAP model • Pechini method used in the obtention of semiconductor nanoparticles based niobium • ICT mediated collaborative work in system dynamics learning • Integration of emerging motion capture technologies and videogames for human upper-limb telerehabilitation: A systematic review • Analysis of tailing pond contamination in Galicia using generalized linear spatial models • Wideband PIFA antenna for higher LTE band applications • Kinetic aspects on ferric arsenate formation in a fix bed gas-solid reaction system • behavior of a tropical residual soil contaminated with soap solution • Elastoplatic behavior of longitudinally stiffened girder webs subjected to patch loading and bending • Exergoeconomic optimization of tetra-combined trigeneration system • A viable wireless PC assisted alternative to studies of vectorcardiography • Analysis of hydrogen production by anaerobic fermentation from urban organic waste • Identification of impacts of stages and materials on life cycle of footwear • Experimental study for the application of water barriers to Spanish small cross section galleries • Mixture experiments in industrial formulations • A gas stations location and their relationship with the operational characteristics of a road network • Structural modification of regenerated Fuller earth and its application in the absorption of anionic and cationic dyes • FPGA-based translation system from colombian sign language to text • Optimizing parameters for a dynamic model of high-frequency HID lamps using genetic algorithms • Liquefaction susceptibility assessment and study of “La Luciana” tailings dam fault (Spain, 1960) based on historical documents • Stochastic mathematical model for vehicle routing problem in collecting perishable products • Environmental performance evaluation under a green supply chain approach • Lottery scheduler for the Linux kernel • Security analysis of a Wlan network sample in Tunja, Boyacá, Colombia • Freight consolidation as a coordination mechanism in perishable supply chains: A simulation study • A hybrid metaheuristic algorithm for the capacitated location routing problem

DYNA

Publication admitted to the Sistema Nacional de Indexación y Homologación de Revistas Especializadas CT+I - PUBLINDEX, Category A1

• Modelado tridimensional y análisis funcional de una invención histórica española del siglo XIX para la extracción del mineral: La Máquina Emilina • Recubrimientos de aluminio por deposición quimíca de vapor en lecho fluidizado sobre aceros inoxidables austeniticos AISI 304 y AISI 316 • Modelado tridimensional de un pavimento bajo carga dual con elementos finitos • Visualización del mecanismo de agregación de asfaltenos usando simulación de dinámica molecular • Estimación de la demanda energética y de las emisiones vehiculares en el Valle de Aburrá durante el periodo 2000-2010, usando el modelo LEAP • Uso del método Pechini en la obtención de nanopartículas semiconductoras a base de niobio • Trabajo colaborativo mediado por TIC en el aprendizaje de dinámica de sistemas • Integración de tecnologías emergentes de captura de movimiento y videojuegos para la telerehabilitación de miembro superior: Una revisión sistemática • Análisis de contaminación de balsas mineras en Galicia usando modelos lineales espaciales generalizados • Antena PIFA de banda ancha para aplicaciones en la banda alta de LTE • Aspectos cinéticos de la formación de arseniato férrico en lecho fijo mediante reacciones gas-sólido • Comportamiento geotécnico de un suelo residual tropical contaminado con solución de jabón • Comportamiento elastoplastico de vigas rigidizadas longitudinalmente sometidas a carga concentrada y momento flector • Optimización exergoeconómica de sistema tetra-combinado de trigeneración • Una viable alternativa para estudios de vectorcardiografía de manera inalámbrica asistida por computadora • Análisis de la producción de hidrógeno por fermentación anaerobia de residuos orgánicos urbanos • Identificación de etapas y materiales de mayor impacto en el ciclo de vida del calzado • Estudio experimental para la aplicación de barreras de agua a las galerías españolas de pequeña sección transversal • Diseño de mezclas en formulaciones industriales • Localización de estaciones de servicio y su relación con las características operacionales de la red viaria • Modificación estructural de la tierra Fuller regenerada y su aplicación en la adsorción de colorantes catiónicos y aniónicos • Sistema traductor de la lengua de señas colombiana a texto basado en FPGA • Optimización de parámetros de un modelo dinámico de alta frecuencia de lámparas HID mediante algoritmos genéticos • Análisis de la susceptibilidad a la licuefacción y estudio de la rotura del depósito de residuos mineros “La Luciana” (España, 1960) basado en documentos históricos • Modelo matemático estocástico para el problema de ruteo de vehículos en la recolección de productos perecederos • Evaluación del desempeño ambiental bajo enfoque de cadena de abastecimiento verde • Planificador lotería para el núcleo de Linux • Análisis de seguridad de una muestra de redes Wlan en la ciudad de Tunja, Boyacá, Colombia • Consolidación de carga como mecanismo de coordinación en cadenas de suministro de perecederos: Estudio de simulación • Un algoritmo metaheurístico híbrido para el problema de localización y ruteo con restricciones de capacidad

Red Colombiana de Revistas de Ingeniería


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.