SEDE MEDELLÍN
SEDE MEDELLÍN
COUNCIL OF THE FACULTAD DE MINAS
JOURNAL EDITORIAL BOARD
Dean John Willian Branch Bedoya, PhD
Editor-in-Chief Juan David Velásquez Henao, PhD Universidad Nacional de Colombia, Colombia
Vice-Dean Pedro Nel Benjumea Hernández, PhD Vice-Dean of Research and Extension Verónica Botero Fernández, PhD Director of University Services Carlos Alberto Graciano, PhD Academic Secretary Carlos Alberto Zarate Yepes, PhD Representative of the Curricular Area Directors Gaspar Monsalve Mejía, PhD Elkin Rodríguez Velásquez, PhD Representative of the Basic Units of AcademicAdministrative Management Germán Alberto Sierra Gallego, PhD
Editors George Barbastathis, PhD Massachusetts Institute of Technology, USA Tim A. Osswald, PhD University of Wisconsin, USA Juan De Pablo, PhD University of Wisconsin, USA Hans Christian Öttinger, PhD Swiss Federal Institute of Technology (ETH), Switzerland Patrick D. Anderson, PhD Eindhoven University of Technology, the Netherlands Igor Emri, PhD Associate Professor, University of Ljubljana, Slovenia
Representative of the Basic Units of AcademicAdministrative Management Juan David Velásquez Henao, PhD
Dietmar Drummer, PhD Institute of Polymer Technology University ErlangenNürnberg, Germany
Professor Representative Jaime Ignacio Vélez Upegui, PhD
Ting-Chung Poon, PhD Virginia Polytechnic Institute and State University, USA
Delegate of the University Council Pedro Ignacio Torres Trujillo, PhD
Pierre Boulanger, PhD University of Alberta, Canadá
Undergraduate Student Representative Rubén David Montoya Pérez
Jordi Payá Bernabeu, Ph.D. Instituto de Ciencia y Tecnología del Hormigón (ICITECH) Universitat Politècnica de València, España
FACULTY EDITORIAL BOARD Dean John Willian Branch Bedoya, PhD Vice-Dean of Research and Extension Santiago Arango Aramburo, PhD Members Hernán Darío Álvarez Zapata, PhD Oscar Jaime Restrepo Baena, PhD Juan David Velásquez Henao, PhD Jaime Aguirre Cardona, PhD Mónica del Pilar Rada Tobón MSc
Javier Belzunce Varela, Ph.D. Universidad de Oviedo, España Luis Gonzaga Santos Sobral, PhD Centro de Tecnología Mineral - CETEM, Brasil Agustín Bueno, PhD Universidad de Alicante, España Henrique Lorenzo Cimadevila, PhD Universidad de Vigo, España Mauricio Trujillo, PhD Universidad Nacional Autónoma de México, México
Carlos Palacio, PhD Universidad de Antioquia, Colombia Jorge Garcia-Sucerquia, PhD Universidad Nacional de Colombia, Colombia Juan Pablo Hernández, PhD Universidad Nacional de Colombia, Colombia John Willian Branch Bedoya, PhD Universidad Nacional de Colombia, Colombia Enrique Posada, Msc INDISA S.A, Colombia Oscar Jaime Restrepo Baena, PhD Universidad Nacional de Colombia, Colombia Moisés Oswaldo Bustamante Rúa, PhD Universidad Nacional de Colombia, Colombia Hernán Darío Álvarez, PhD Universidad Nacional de Colombia, Colombia Jaime Aguirre Cardona, PhD Universidad Nacional de Colombia, Colombia
DYNA 81 (187), October, 2014. Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online
CONTENTS Page’s Editors Juan D. Velásquez
Tips for Avoiding Ethical Problems in Scientific Publication
9
Juan D. Velásquez
11
Determination of the zeolite optimal diameter for the settlement of nitrifying bacteria in an aerobic bed fluidized reactor to eliminate ammonia nitrogen
21
Santiago Pozo-Antonio
Characterization of the supply and value chains of Colombian cocoa Rafael G. García-Cáceres, Alejandra Perdomo, Oscar Ortiz, Paulina Beltrán & Karen López
Study of copper deposit on a porous electrode of carbon and stainless steel by SEM-XRD and image analysis Robinson Constanzo-R., Antonio Pagliero-N. & Froilán Vergara-G.
Implementing an evolutionary algorithm for locating container yards of a 3PL provider Carlos Osorio-Ramírez, Martín Darío Arango-Serna & Wilson Adarme-Jaimes
Ontological learning for a dynamic semantics ontological framework Taniana Rodríguez & José Aguilar
Problems of code of products that affect the inventory management: Cuban companies case study Igor Lopes-Martínez, Abel González-Carvajal-Alberto, Dianelys M. Ruíz-Alvarez, Yinef Pardillo- Baez, Martha I. Gómez-Acosta & José A. Acevedo-Suárez
Effect of the molding temperature and cooling time on the residual stresses of crystal polystyrene María Teresa Acevedo-Morantes, María Brieva-Sarmiento & Alvaro Realpe-Jiménez
Automatic detection of bumblebees using video analysis Willy Azarcoya-Cabiedes, Pablo Vera-Alfaro, Alfonso Torres-Ruiz & Joaquín Salas-Rodríguez
A modified firefly-inspired algorithm for global computational optimization Iván Amaya, Jorge Cruz & Rodrigo Correa
Detection of explosive atmospheres using the software AtmosXp V2.0 Carlos Mauricio Álvarez-Álvarez, Angélica María Zapata-Montoya, Sandra Marcela Montoya-Cañola, Oswaldo Ordoñez-Carmona & German Darío Zapata-Madrigal
Kinetic of biogas production from oil palm empty fruit bunches Danay Carillo-Nieves, Lourdes Zumalacárregui-de Cárdenas, Rafael Franco-Rico & Ilona Sarvari-Horvath
Vinasse treatment by coupling of electro-dissolution, hetero-coagulation and anaerobic digestion Olga Lucía Paz-Pino, Luz Edith Barba-Ho & Nilson Marriaga-Cabrales
Lattice-Boltzmann method applied to the pattern formation on periodic surface structures generated by multiline nanosecond laser Frank Rodolfo Fonseca-Fonseca, José Edgar Alfonso-Orjuela & Darío Fernando Andrade
Cuantificación del efecto de la precipitación como factor detonante de deslizamientos en los alrededores de Medellín – Colombia Estefanía Muñoz, Hernán Martínez-Carvajal, Jorge Arévalo & Daniel Alvira
Electrodes friendly with the environment for detect heavy metal Jairo Alberto Barón-Jaimez, José Luddey Marulanda-Arévalo & José José Barba-Ortega
Electrodissolution aluminum electrode during an electrocoagulation acid whey Francisco Prieto-García, Judith Callejas-Hernández, Víctor Esteban Reyes-Cruz, Yolanda Marmolejo-Santillán & Judith Prieto-Méndez
Adaptation and validation of a methdology for determing ammonia flux generated by litter in naturally ventilated poultry houses Jairo Alexander Osorio-Saraz, Ilda de Fatima Ferreira-Tinoco, Richard S. Gates, Keller Sullivan Oliveira-Rocha, Enrique Miguel Combatt-Caballero & Fernanda Campos-de Sousa
Airport terminal choice model Claudia Helena Muñoz-Hoyos, Ivan Sarmiento-Ordosgoitía & Jorge Eliécer Córdoba-Maquilón
Effect of an electrolyte flow on electrochemical hydrogen permeation Ana María Pérez-Ceballos, Jorge Andrés Calderón-Gutierrez & Oscar Rosa-Mattos
30 41 49 56 64 73 81 85 91 96 102 108 115 122 129 137 144 152
Classic and bayesian estimation of Subjective Value of Time Margareth Gutiérrez-Torres & Víctor Cantillo-Maza
The conceptual modeling in the process of computer-assisted generation of data warehouse models Lindsay Alonso Gómez-Beltrán, Rosendo Moreno-Rodríguez & Ramiro Pérez-Vázquez
Multiobjective optimization of the reactive power compensation in electric distribution systems Manoel Socorro Santos-Azevedo, Ignacio Pérez-Abril, Carlos de León-Benítez, Jandecy Cabral-Leite & Ubiratan Holanda-Bezerra
Monte Carlo simulation of epitaxial growth of GaInAsSb films Jheison Alejandro Morales, Manuel Eduardo Ríos-Olaya & Liliana Tirado-Mejía
Projections in the national mining development plan (NMDP) using @risk Giovanni Franco-Sepúlveda, Luz Viviana Villa-Posada & Cristian Camilo Henao-Gómez
Concurrent sketching model for the industrial product conceptual design Juan Carlos Briede-Westermeyer, Marcela Cabello-Mora & Bernabé Hernandis-Ortuño
Application of Bayesian techniques for the identification of accident-prone road sections Thomas Edison Guerrero-Barbosa & Gloria Estefany Amarís-Castro
Heuristic for production scheduling on job-shop plants considering preventive maintenance tasks Ronald Díaz-Cazaña, Yasel José Costa-Salas & William Ariel Sarache-Castro
An algorithm for the routing problem with split deliveries and time windows (SDVRPTW) applied on retail SME distribution activities Juan Sepúlveda, John Wilmer Escobar & Wilson Adarme-Jaimes
Reliability in urban freight distribution: A Markovian approach Miguel Gastón Cedillo-Campos, José Luis de la Riva-Canizales, Alfredo Bueno-Solano, Jesús Gonzalez-Feliu & Jorge Luis García-Alcaraz
Effect of competitive priorities on the greening of the supply chain with TQM as a mediator Tatiana Paola Leguízamo-Díaz & Carlos Eduardo Moreno-Mantilla
An emission model as an alternative to O-D matrix in urban goods transport modelling Jesús González-Feliu, Miguel Gastón Cedillo-Campo & Jorge Luis García-Alcaraz
Model for the logistics distribution of medicines in the Colombian public health program Juan Pablo Castrellón-Torres, Jairo Humberto Torres-Acosta & Wilson Adarme-Jaimes
The importance of being chemical affinity. Part V: The fruits Guillermo Salas-Banuet, José Ramírez-Vieyra, Oscar Restrepo-Baena, María Noguez-Amaya & Bryan Cockrell
Our cover Image alluding to Article: Concurrent sketching model for the industrial product conceptual design Authors: Juan Carlos Briede-Westermeyer, Marcela Cabello-Mora & Bernabé Hernandis-Ortuño
158 167 175 184 193 199 209 215 223 232 240 249 257 267
DYNA 81 (187), October, 2014. Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online
CONTENIDO Editorial Juan D. Velásquez
Consejos para Evitar Problemas Éticos en la Publicación Científica Juan D. Velásquez
11
Determinación del diámetro óptimo de zeolita para el asentamiento de bacterias nitrificantes en un reactor de lecho fluidizado para eliminar nitrógeno amoniacal
21
Santiago Pozo-Antonio
Caracterización de las cadenas de abastecimiento y valor del cacao en Colombia Rafael G. García-Cáceres, Alejandra Perdomo, Oscar Ortiz, Paulina Beltrán & Karen López
Estudio de electrodeposición de cobre sobre electrodos porosos de grafito y acero inoxidable vía SEM-DRX y análisis de imagen Robinson Constanzo-R., Antonio Pagliero-N. & Froilán Vergara-G.
Aplicación de un algoritmo evolutivo para la ubicación de patios de contenedores de un operador logístico Carlos Osorio-Ramírez, Martín Darío Arango-Serna & Wilson Adarme-Jaimes
Aprendizaje ontológico para el marco ontológico dinámico semántico Taniana Rodríguez & José Aguilar
Problemas de codificación de productos que afectan la gestión de inventarios: Caso de estudio en empresas cubanas Igor Lopes-Martínez, Abel González-Carvajal-Alberto, Dianelys M. Ruíz-Alvarez, Yinef Pardillo- Baez, Martha I. Gómez-Acosta & José A. Acevedo-Suárez
Efecto de la temperatura de moldeo y tiempo de enfriamiento sobre los esfuerzos residuales del poliestireno cristal María Teresa Acevedo-Morantes, María Brieva-Sarmiento & Alvaro Realpe-Jiménez
Detección automática de abejorros usando análisis de video Willy Azarcoya-Cabiedes, Pablo Vera-Alfaro, Alfonso Torres-Ruiz & Joaquín Salas-Rodríguez
Un algoritmo modificado inspirado en luciérnagas para optimización global computacional Iván Amaya, Jorge Cruz & Rodrigo Correa
Detección de atmosferas explosivas usando el software AtmosXp V2.0 Carlos Mauricio Álvarez-Álvarez, Angélica María Zapata-Montoya, Sandra Marcela Montoya-Cañola, Oswaldo Ordoñez-Carmona & German Darío Zapata-Madrigal
Determinación de la cinética de producción de biogás a partir de racimos sin frutos de palma aceitera Danay Carillo-Nieves, Lourdes Zumalacárregui-de Cárdenas, Rafael Franco-Rico & Ilona Sarvari-Horvath
Tratamiento de vinazas acoplando electrodisolución, heterocoagulación y digestión anaerobia
30 41 49 56 64 73 81 85 91 96
Olga Lucía Paz-Pino, Luz Edith Barba-Ho & Nilson Marriaga-Cabrales
102
Método de Lattice-Boltzmann aplicado a la formación de patrones sobre estructuras superficiales periódicas generadas por láser de nanosegundos multilineas
108
Frank Rodolfo Fonseca-Fonseca, José Edgar Alfonso-Orjuela & Darío Fernando Andrade
Quantification of the effect of precipitation as a triggering factor for landslides on the surroundings of Medellín – Colombia Estefanía Muñoz, Hernán Martínez-Carvajal, Jorge Arévalo & Daniel Alvira
Electrodos amistosos con el medio ambiente para detectar metales pesados Jairo Alberto Barón-Jaimez, José Luddey Marulanda-Arévalo & José José Barba-Ortega
Electrodisolución de electrodos de aluminio durante la electrocoagulación de un lactosuero ácido Francisco Prieto-García, Judith Callejas-Hernández, Víctor Esteban Reyes-Cruz, Yolanda Marmolejo-Santillán & Judith Prieto-Méndez
Adaptación y validación de una metodología para determinar emisiones de amoniaco generado en camas de galpones avícolas con ventilación natural Jairo Alexander Osorio-Saraz, Ilda de Fatima Ferreira-Tinoco, Richard S. Gates, Keller Sullivan Oliveira-Rocha, Enrique Miguel Combatt-Caballero & Fernanda Campos-de Sousa
Modelo de elección de una terminal aeroportuaria Claudia Helena Muñoz-Hoyos, Ivan Sarmiento-Ordosgoitía & Jorge Eliécer Córdoba-Maquilón
9
115 122 129 137 144
Efecto de un flujo de electrolito en la permeación electroquímica de hidrógeno Ana María Pérez-Ceballos, Jorge Andrés Calderón-Gutierrez & Oscar Rosa-Mattos
Estimación clásica y bayesiana del Valor Subjetivo del Tiempo Margareth Gutiérrez-Torres & Víctor Cantillo-Maza
El modelado conceptual en el proceso de generación asistida por computadoras de modelos de almacenes de datos Lindsay Alonso Gómez-Beltrán, Rosendo Moreno-Rodríguez & Ramiro Pérez-Vázquez
Optimización multiobjetivo de la compensación de potencia reactiva en sistemas eléctricos de distribución Manoel Socorro Santos-Azevedo, Ignacio Pérez-Abril, Carlos de León-Benítez, Jandecy Cabral-Leite & Ubiratan Holanda-Bezerra
Simulación por el método de Monte Carlo del crecimiento de películas epitaxiales de GaInAsSb Jheison Alejandro Morales, Manuel Eduardo Ríos-Olaya & Liliana Tirado-Mejía
Proyecciones en el plan nacional de desarrollo minero (PNDM) utilizando @risk Giovanni Franco-Sepúlveda, Luz Viviana Villa-Posada & Cristian Camilo Henao-Gómez
Modelo de abocetado concurrente para el diseño conceptual de productos industriales Juan Carlos Briede-Westermeyer, Marcela Cabello-Mora & Bernabé Hernandis-Ortuño
Aplicación de técnicas Bayesianas en la identificación de tramos viales propensos a accidentes Thomas Edison Guerrero-Barbosa & Gloria Estefany Amarís-Castro
Heurística para la secuenciación de producción en plantas job-shop considerando tareas de mantenimiento preventivo
158 167 175 184 193 199 209
Ronald Díaz-Cazaña, Yasel José Costa-Salas & William Ariel Sarache-Castro
215
Un algoritmo para el problema de ruteo de vehículos con entregas divididas y ventanas de tiempo (SDVRPTW) aplicado a las actividades de distribución de PYMEs del comercio al por menor
223
Juan Sepúlveda, John Wilmer Escobar & Wilson Adarme-Jaimes
Confiabilidad en distribución urbana de mercancías: Un enfoque Markoviano Miguel Gastón Cedillo-Campos, José Luis de la Riva-Canizales, Alfredo Bueno-Solano, Jesús Gonzalez-Feliu & Jorge Luis García-Alcaraz
232
Efecto de las prioridades competitivas en la implementación de prácticas de reverdecimiento en la cadena de suministro con TQM como mediador
240
Tatiana Paola Leguízamo-Díaz & Carlos Eduardo Moreno-Mantilla
Un modelo de emisión como una alternativa a la generación de matrices O-D para modelar el transporte urbano de carga Jesús González-Feliu, Miguel Gastón Cedillo-Campo & Jorge Luis García-Alcaraz
Modelo para la operación logística de distribución de medicamentos del programa de salud pública en Colombia Juan Pablo Castrellón-Torres, Jairo Humberto Torres-Acosta & Wilson Adarme-Jaimes
La importancia de llamarse afinidad química. Parte V: Los frutos Guillermo Salas-Banuet, José Ramírez-Vieyra, Oscar Restrepo-Baena, María Noguez-Amaya & Bryan Cockrell
Nuestra carátula Imágenes alusivas al artículo: Modelo de abocetado concurrente para el diseño conceptual de productos industriales Authors: Juan Carlos Briede-Westermeyer, Marcela Cabello-Mora & Bernabé Hernandis-Ortuño
152
249 257 267
Tips for Avoiding Ethical Problems in Scientific Publication Juan D. Velásquez a a
Facultad de Minas, Universidad Nacional de Colombia, Medellín, Colombia. jdvelasq@unal.edu.co
Received: April 15th, 2013. Received in revised form: May 16th, 2014. Accepted: August 8th, 2014.
Abstract The Committee on Publication Ethics (COPE) —conformed by the main scientific publishers— has warned about the increasing number of ethical problems in scientific publication and recent scandals seem to indicate that ethical misconduct is repetitive. Ethical problems in scientific publication arise when the person deviates from expected moral behavior. Misconduct may be explained, at least in part, because many postgraduate students and young researchers seem to understand that ethical problems are only related to plagiarism of complete works or duplication of publications, and because it seems to be a lack of knowledge of the ethical standards in scientific publication. However, there are many other aspects conducing to ethical problems. The objective of this paper is to discuss and spread the ethical position of the main scientific publishers and researchers with the aim of build a unified point of view. In this paper, seventeen tips for avoiding ethical problems in scientific publication are presented, explained and discussed. I hope that this work will be valuable for postgraduate students and young researchers and answers many common questions about ethics in scientific publication. Keywords: publication ethics; authorship; scientific scandals; publication bias; editorial policies; plagiarism.
Consejos para Evitar Problemas Éticos en la Publicación Científica Resumen El Comité sobre Ética de la Publicación (COPE) — conformado por las principales editoriales científicas– ha alertado sobre el creciente número de problemas éticos en la publicación científica y los escandalos recientes parecen indicar que la mala conducta ética es repetititva. Los problemas éticos en la publicación científica surgen cuando la persona se desvia del comportamiento moral esperado. La mala conducta puede ser explicada, al menos en parte, porque muchos estudiantes de postgrado y jovenes investigadores parecen entender que los problemas éticos están unicamente realcionados con el plagio de trabajos completos o la duplicación de publicaciones, y porque parece existir una falta de conocimiento de los estándares científicos en la publicación científica. Sin embargo, hay muchos otros aspectos que conducen a problemas éticos. El objetivo de este artículo es discutir y diseminar la posición ética de muchas editoriales científicas e investigadores con el ánimo de consturir un punto de vista unificado. En este artículo, diecisiete consejos para evitar problemas éticos en la publicación científica son presentados, explicados y discutidos. Espero que este trabajo sea valioso para estudiantes de postgrado y jovenes investigadores y que responda muchas preguntas típicas sobre la ética de la publicación científica. Palabras clave: Ética de la publicación; autoría; escándalos científicos; sesgo en la publicación; políticas editoriales; plagio.
1
Introducción
Mi trabajo preliminar sobre la ética de la publicación [1], pretendió resolver muchas preguntas repetitivas de estudiantes de cursos de postgrado en ingeniería sobre este tópico; este interés de los estudiantes es explicado por la existencia de una presión creciente por publicar, la cual es ejercida por las instituciones investigativas y la academia en general [2] donde la publicación es un requerimiento del trabajo [3]; en algunas ocasiones, esta presión a conducido a la aparición de prácticas cuestionables y de faltas a la ética
que han sido ampliamente documentadas en la literatura como se detallará más adelante. En América Latina esta presión no es tan fuerte como en el primer mundo, pero muchas universidades tradicionalmente orientadas a la docencia hace 20 años atrás, hoy en día tienen un claro giro hacia la investigación. En muchos casos, los requerimientos para vincular docentes de planta incluyen la tenencia de un título de maestría o doctorado mientras que la permanencia en el cargo está supeditada a la publicación continua de artículos en revistas indexadas. Así mismo, los estudiantes de postgrado han sufrido este cambio en sus currículos, por
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 11-20. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.46102
Velásquez / DYNA 81 (187), pp. 11-20. October, 2014.
lo que en muchos casos deben elaborar ensayos como parte de la evaluación de asignaturas y se les exige que tengan un artículo sometido a una revista o aceptado para publicación como requisito de grado. Consecuentemente, la ética de la publicación científica se ha venido convirtiendo en un tema frecuentemente abordado en los postgrados y sobre el cuál los estudiantes tienen muchas dudas a la hora de abordar casos prácticos. Una opinión que ha venido ganando terreno en los círculos académicos es que la formación técnica en ingeniería no es suficiente para lograr una conducta responsable de investigación [2, 4] por lo que existe la necesidad de enseñar que es un comportamiento ético apropiado [2]; adicionalmente, la interacción aislada de los estudiantes con sus compañeros, sus profesores y sus directores de investigación no parece ser suficiente para aprender cual es el comportamiento moral esperado de un investigador. En este sentido, muchos estudiantes de postgrado y jóvenes investigadores parecen entender el comportamiento no ético únicamente como el fraude científico (fabricación de datos) o como la copia textual de trabajos completos; esto podría ser explicado posiblemente por la magnitud de los escándalos y el cubrimiento realizado por la prensa en casos que han sido protagonizados por importantes figuras públicas —como el de Guttenberg, ex Ministro de Defensa en Alemania, quien cometió plagio su tesis doctoral [5]— o por el alto costo para la sociedad en general, como la falsificación de datos realizada por Andrew Wakefield (http://www.bmj.com/content/342/bmj.c7452), con el fin de soportar la conclusión de que existía una relación entre la vacuna MMR y el autismo, lo que llevó a que dicha vacuna fuera retirada de uso y a que la población quedará desprotegida por la falta de dicha vacuna. Más aún, parece que otros tipos de infracciones a la ética y a los derechos de autor son ignoradas o desconocidas, y que la comunidad científica —y la sociedad en general— es vulnerable a estos tipos de infracciones, fraudes y engaños. La ignorancia y el desconocimiento son explicados posiblemente porque hay zonas inherentemente grises en muchas decisiones del proceso de investigación, incluyendo la publicación de resultados; en este punto la ética juega un papel central [6]. A diferencia del método científico enseñado en las universidades, el cual es basado en la lógica y la observación, las decisiones éticas son basadas en la moralidad de la persona [7], la cual es enseñada por fuera de los claustros universitarios; y en este mismo sentido, la discusión de esta clase de temas en el interior de nuestras instituciones es obligatorio [2, 4]. La vulnerabilidad de la comunidad científica está demostrada por la cantidad y variedad de faltas cometidas; por ejemplo, el Sokal Affair fue un engaño protagonizado por Alan Sokal quien publicó un artículo sin sentido en una revista [8]; Ball [9] describe como Stribling et al, fueron aceptados como ponentes en una conferencia con un manuscrito generado
automáticamente por un computador sin intervención humana; hay muchos otros ejemplos como los casos de fabricación de datos de W. S. Hwang [10] y M. Penkowa (http://www.nature.com /news/2011/110107/full/news.2011.703.html). Es claro que el correcto comportamiento ético y el respeto a los derechos de autor es uno de los pilares fundamentales de la publicación científica para muchas editoriales científicas en el mundo. Por ejemplo, el IEEE Publication Services and Products Board (PSPB) Operations Manual [11] señala en su Sección 8.2 que todos los autores, editores y revisores de cualquier publicación del IEEE deben seguir estrictamente los principios consignados en dicho manual; en estos principios se abordan diferentes aspectos éticos relacionados con la definición de autoría y la responsabilidad profesional y ética de los autores, revisores y editores; así como también, los procedimientos y acciones correctivas para aquellos autores que son encontrados como culpables de mala conducta. Los principios generales discutidos en [11] no representan una posición exclusiva de la IEEE, ya que otras editoriales y asociaciones científicas tienen posiciones éticas que se rigen bajo los mismos principios morales. En este sentido, la preparación y sometimiento de un manuscrito a una revista supone que el autor conoce, acepta y respeta las reglas éticas en la investigación y la publicación científica, y particularmente, los principios mínimos consignados en la Sección 8.2 cuando se trata de una revista del IEEE. Es así entonces, que las faltas a la ética no pueden ser justificadas por la falta de principios morales claros, ya que los principios fundamentales son claros y bien definidos. A pesar de que muchas editoriales han definido claramente sus principios básicos no han sido inmunes a los problemas éticos en sus publicaciones: por ejemplo, una simple búsqueda de la cadena «Notice of Retraction» en el IEEE Xplorer recuperó más de 9.700 documentos retractados que fueron publicados entre los años 2007 y 2013. Más aún, se han llegado a casos tan extraños y complejos como la remoción de más de 100 trabajos publicados en conferencias debido a que ellos fueron generados automáticamente por computador [12]. Como casos particulares se tiene, por ejemplo, que el IEEE Journal of Solid–State Circuits reporta que en dicha el Dr. Adrian Maxim falsificó datos y fotografías, reportó diseños inexistentes y creo coautores inexistentes [13]; Nasrullah Memon, un profesor de ciencias de la computación, fue encontrado culpable de plagio y sufrió la retracción de siete artículos publicados en conferencias de la IEEE [14]. Otras editoriales también han sufrido este problema y han debido retractar artículos, entre los que se incluyen los trabajos sobre controladores difusos de Karakuzu [15], sistemas multiagente de Khalgui et al [16] y redes de sensores inalámbricos [17] entre muchos otros. Es incuestionable la gran cantidad de esfuerzos que se han realizado para resolver y prevenir los problemas éticos 12
Velásquez / DYNA 81 (187), pp. 11-20. October, 2014.
que surgen en la publicación científica, tales como la creación del Committee on Publication Ethics (COPE), en 1997, que reúne a las editoriales científicas más importantes como IEEE, Elsevier, Wiley-Blackwell, Springer, Taylor & Francis, Palgrave Macmillan, y Kluwer. Sin embargo, la mala conducta continua hoy (véase [18]) afectando no solamente la reputación del infractor: «each case of research misconduct impacts on our trust in scientific findings and our trust in scientists» [19]. Si bien la motivación para cometer faltas éticas está relacionada con la obtención de algún tipo de ganancia como una evaluación favorable, hay casos extremadamente raros como el reportado en [20], donde la motivación para el fraude es desconocida: la revista recibió un manuscrito con apropiación de resultados de investigación de otro investigador, los autores tenían nombres y afiliaciones institucionales falsas y se suministró una dirección de correo electrónico que no pertenecía a una institución universitaria. El objetivo de este trabajo es presentar y discutir algunos consejos para evitar problemas éticos muy comunes en la publicación científica. Ellos son obtenidos de mi experiencia en la enseñanza [1], de mi papel como editor jefe de la revista de ingeniería DYNA [72] (http://dyna.unalmed.edu.co/es/index.php), y de los hallazgos recientes sobre este tema [2, 18]. Este trabajo pretende platear una discusión de los problemas éticos derivados de malas practicas que infringen los derechos de autor y la propiedad intelectual en el contexto de la publicación científica. En este sentido, busca aportar elementos de discusión sobre la concepción de lo que es un comportamiento moral apropiado en el contexto académico y clarificar diferentes tipo de infracciones que pueden presentarse. En este mismo sentido, Gross [3] propone como una regla general de sentido común lo siguiente: «No author should submit work that he/she would not approve as a reviewer». Para cumplir con este objetivo, en la siguiente sección presento y discuto 17 consejos; una de las principales contribuciones de estos consejos, es que en muchos de ellos se presenta una visión unificada y complementaría tanto de las principales editoriales científicas como de diferentes editores e investigadores en el tema de la ética. Posteriormente, discuto las principales conclusiones. 2 2.1
plagiarism» [21] y no existe un nivel mínimo aceptable de copia sin la debida citación [22]. Tal como se puede leer en el manual de publicación APA [23], las reglas de citación son estrictas y se entiende que cualquier violación de ellas es plagio : Whether paraphrasing, quoting an author directly, or describing an idea that influenced your work, you must credit the source. To avoid charges of plagiarism, take careful notes as you research to keep track of your sources and cite those sources according to the guidelines presented in this chapter
Para evitar el plagio es necesario citar apropiadamente. Las citaciones pueden ser directas o indirectas [23]; en la citación directa, el texto del otro autor es colocado entre comillas y la fuente es identificada cuando el texto copiado está en el mismo renglón del texto que se está escribiendo; véase los párrafos anteriores. Cuando la citación directa excede cierto número de líneas (más de dos renglones según IEEE o más de 40 caracteres según la APA), la mayoría de los manuales indican que el texto copiado debe aparecer en un párrafo separado sin comillas e indentado de tal forma que el texto citado sea claramente diferenciable del texto del autor del documento, y posiblemente, con un tamaño de letra más pequeño; véanse los párrafos anteriores. Aquí es importante resaltar que «credited verbatim copying of a major portion of a paper without clear delimitation» es también plagio [22] y que la citación sola sin el uso de comillas no es suficiente para indicar la fuente; esta forma de escritura parece ser un problema muy común en las tesis de maestría especialmente para hablantes no nativos [24]. En las citaciones indirectas, las palabras o ideas de otros autores son colocadas en las palabras del escritor, pero el citado de la fuente es obligatorio. Sin embargo, también existe un límite en la extensión de las frases e ideas citadas de un trabajo de otros autores; como una idea general es ilegal citar, directa o indirectamente, tal cantidad que las ideas y aportes centrales del trabajo citado son reproducidos; pero también es ilegal citar cuando dicha cita no es requerida de forma genuina [25]. Generalmente, cada país tiene su propia legislación sobre este aspecto, y en algunos casos existe un límite al número de palabras que pueden citarse textualmente; por ejemplo, en Argentina (Articulo 10, Ley 11.723 de 1933) este límite es de mil palabras. Otra forma de plagio es la copia sustancial [26] del trabajo de otros donde los hallazgos y contribuciones son presentadas como propias y sin la debida citación a la fuente. Esta clase de comportamiento no ético es difícil de probar ya que no es una copia literal y el ofensor siempre alega ignorancia sobre la existencia del trabajo original. Para evitar esta mala conducta, los autores deben verificar y reportar las principales diferencias con trabajos publicados similares, incluyendo las diferencias con los aportes y hallazgos.
Consejos Evite el plagio
Una versión preliminar de esta sección fue presentada en [72]. En mi experiencia práctica con estudiantes, el plagio parece ser más el resultado del descuido o la cryptomnesia, más que una mala conducta real; la cryptomnesia ocurre cuando el autor cree genuinamente que está creando nuevo conocimiento, pero realmente dicho conocimiento ya había sido aprendido y olvidado hace mucho tiempo atrás. Sin embargo, tal como lo plantea el IEEE «plagiarism is 13
Velásquez / DYNA 81 (187), pp. 11-20. October, 2014.
Finalmente, el auto–plagio es definido como el reuso excesivo de partes de trabajos previos del mismo autor sin la adecuada citación [27-29]; sin embargo, en otros casos, el auto–plagio es definido como publicación duplicada [30], en la que el infractor remite y publica el mismo trabajo en dos revistas diferentes. En el caso del reciclado de textos, no es necesario que el autor coloque entre comillas los textos de sus trabajos previos, pero la citación es obligatoria [28]; en este caso, hay acuerdo en el efecto de detrimento de los manuscritos cuando hay grandes porciones de texto reusado [30, 31]. Tal como es recomendado en [32], una regla efectiva para evitar el plagio es el uso de herramientas para detección de plagio —tales como Turnitin (www.turnitin.com)— antes de remitir el manuscrito a una revista; la herramienta CrossCheck (http://www.crossref.org/crosscheck/index.html) es usada por las editoriales científicas más importantes tales como IEEE, Elsevier, Springer, y Taylor & Francis. En la página Web de Taylor & Francis se indica que [33]:
Otras editoriales y asociaciones tienen definiciones similares. En [35] se indica que el ICMJE (International Committee of Medical Journal Editors) establece los siguientes criterios: 1) substantial contributions to conception and design, or acquisition of data, or analysis and interpretation of data; 2) drafting the article or revising it critically for important intellectual content; and 3) final approval of the version to be published. All three conditions should be met for assigning authorship
Sin embargo, Taylor & Francis va más allá y advierte [36] que la política editorial especifica que los autores deben: accept that if the article is found to be unsafe, in error, or in some way fraudulent, or in breach of warranties made, that responsibility is shared by all named co-authors
Dos problemas de autoría surgen en este punto [37, 38]; el primero es el problema de autor fantasma que ocurre cuando un autor real que cumple con las condiciones previas es ignorado; y el segundo, es el autor invitado o honorario (o regalo de autoría) que ocurre por la inclusión como autor de una persona que no cumple con los requisitos para autoría; en este caso, varias razones podrían explicar este comportamiento: (1) la inclusión de un investigador reconocido con el objetivo de facilitar la aceptación de la publicación o la adjudicación de financiación [35]; (2) el acuerdo entre varios investigadores cuando uno de ellos está en un cargo administrativo como líder de equipo o director de departamento que hace que su productividad académica se reduzca [35]; (3) por confundir una contribución menor o trivial con una contribución mayor; (4) por miedo a la venganza de un superior cuando la autoría no es dada [35]; y (5) por mejoramiento mutuo de los CVs entre investigadores [35, 37]. Como regla general, los contribuidores están involucrados en la investigación pero no cumplen con las condiciones de autoría [39], o en otras palabras, son personas cuya contribución no es suficiente para ganar el status de autor [35]; ejemplos de estos casos incluyen: programadores, técnicos de laboratorio, ilustradores científicos, escritores técnicos y editores científicos. Un caso especial muy importante es el del escritor fantasma [37], que es un escritor profesional no involucrado en la investigación y que es quien escribe el manuscrito; este tipo de caso parece ser muy común en medicina y ciencias de la salud. Dependiendo de las responsabilidades del escritor, en algunos casos, puede alcanzar la categoría de autor. En este caso se debe definir desde el principio si el escritor es o no autor del documento. Usualmente, los contribuidores alegan mala conducta cuando ellos piensan que sus contribuciones no son mínimas y que por tanto ellos merecen las categorías de autores; esto parece será causado por la ignorancia de las
Authors submitting to a Taylor & Francis journal should be aware that their manuscript may be submitted to CrossCheck at any point during the peer review or production processes.
La IEEE presenta una indicación similar [11] en la Sección 8.2.2, Literal C: For maximum effectiveness among IEEE periodicals and conferences, all IEEE articles shall be submitted to a plagiarism detection process prior to being uploaded to IEEE Xplore
Este tipo de verificaciones son muy importantes especialmente cuando los escritores tienen dificultades con la escritura científica en inglés [32]. 2.2
Considere todos contribuidores
los
posibles
autores
y
Una fuente muy importante de problemas éticos y legales potenciales es la cuestión de la autoría. En [34], la siguiente definición es propuesta para clarificar quién es un autor: To be an “author” one must have responsibility for a particular aspect (that is not minimal) of the research or preparation of the work, that is, must have made a significant contribution to the conception, design, execution, or interpretation of the reported study, and must have approved the final form of the work. Fundamentally, an author must be prepared and have the ability and responsibility to publicly defend the work.
Más aún, Elsevier [34] propone el siguiente test para establecer la autoría: «All Authors of a paper have the ability and responsibility to publicly defend that paper». 14
Velásquez / DYNA 81 (187), pp. 11-20. October, 2014.
algunos casos se traslapa con el caso de la publicación inflada (meal–extended publication) donde una nueva publicación es obtenida mediante el adicionado de nuevos datos o casos a un trabajo existente, pero manteniendo las conclusiones de la publicación anterior. Tal como es mostrado en [32], las publicaciones salami producen varios artículos de baja calidad en lugar de un único manuscrito excelente. La publicación redundante es referida como «using all or some of the same set of data to produce more than one publication» [33, 35]; es muy importante anotar que las contribuciones en ambos trabajos son muy similares o son las mismas. Cualquier forma de publicación salami o redundante es considerada como una mala conducta [42], y prácticamente todas las editoriales científicas alertan sobre el sometimiento de manuscritos basados en trabajos previos:
reglas indicadas o por la magnificación del propio trabajo. Para evitar problemas potenciales de autoría con autores y contribuidores, los tests presentados en [34] y [35] deberían ser cuidadosamente evaluados y la autoría debería ser definida previamente a la escritura del manuscrito inicial, socializando la decisión entre todos los participantes. 2.3
Obtenga de todos los autores el consentimiento para publicar
Parece que en muchos casos se asume que todos los autores quieren publicar su trabajo a cualquier costo [2], y como consecuencia, los manuscritos son enviados sin el consentimiento explícito de todos ellos (los autores). Sin embargo, este es un comportamiento no ético por parte del autor que remite el trabajo ya que está violando el derecho moral indelegable, imprescriptible e inalienable que tienen los autores no informados de mantener su trabajo sin publicar; véase el capítulo IV en [40]. Muchas editoriales, tal como Wiley-Blackwell [25], requieren que el autor de contacto confirme explícitamente que los otros autores fueron informados y aceptaron la remisión del manuscrito. 2.4
Authors should not submit previously published work, nor work which is based in substance on previously published work, either in part or whole. [33]
Otras editoriales tienen advertencias similares. Otra regla para evitar comportamientos no éticos, es no publicar el mismo trabajo en una conferencia y luego como un artículo en una revista o como un capítulo de libro; esta advertencia significa que cuando se remite el artículo final de investigación a una conferencia, se está perdiendo la oportunidad de publicar en una revista de alto impacto. El lector también debe ser advertido que la revisión por pares en seminarios y conferencias es comúnmente más superficial que en las revistas de alto impacto [46]. La práctica de la publicación evolutiva es bien aceptada como un proceso natural de la evolución de una investigación [31]; en este caso, versiones mejoradas son publicadas primero en un seminario, luego en un conferencia y, finalmente, como un capítulo de libro o como un artículo de revista. Pero, tal como es advertido en [31], es fácil caer en problemas de publicación duplicada o salami cuando las diferencias entre las contribuciones de cada trabajo con los demás no son muy claras y hay grandes porciones de texto reciclado. Estos casos de mala conducta son explicados por la presión por publicar que sufren los investigadores [31]. Una pregunta muy importante es ¿cuándo un trabajo derivado de otro es nuevo? Para el ACM [47], cuando un trabajo derivado tiene menos de un 25% de material substancialmente nuevo es una revisión menor; y es una revisión mayor (un nuevo trabajo) en caso contrario.
Evite cualquier forma de publicación traslapada
Publicaciones traslapadas son publicaciones donde porciones significativas de textos, ideas o hallazgos son duplicados [41]. Una publicación dual o duplicada es definida como la publicación del mismo trabajo en dos o más revistas [29]; tal como en el caso del plagio, el texto o la esencia es la misma en los dos manuscritos, pero la diferencia con el plagio es que en la duplicación dual, todos los manuscritos comparten un subconjunto de autores [29]. Note que publicar la misma investigación en diferentes lenguajes es una forma de publicación duplicada ya que la contribución es la misma [1]; en este caso, los editores debe rechazar ambos manuscritos si están en proceso de evaluación [25, 42] o retractar ambas publicaciones si el caso se descubre después de que fueron publicadas. Sin embargo, este comportamiento es válido cuando ambos editores están informados y hay un acuerdo para publicar dicho trabajo [25, 42]. Note que, también, es válido publicar un manuscrito derivado de una tesis, tal como es indicado en muchas revistas (véase [43]); sin embargo, otras editoriales tácitamente asumen que el artículo es primero y después sigue la tesis; véase por ejemplo [44]. La publicación salami1 se define como [45]: dividing reports of the outcome of a research project into as many papers as possible in order to maximize the number of potential scientific publications
2.5
Véase también [29]. Esta no es la única definición, y en
Evite remitir el mismo trabajo a varias revistas
En el caso de múltiples envíos, el tiempo y esfuerzo de los revisores y los editores es desperdiciado [35]. En esta práctica no ética, el manuscrito es retirado de las revistas
1 Esta también es conocida en inglés como “salami slicing” o “sibling publication” [35].
15
Velásquez / DYNA 81 (187), pp. 11-20. October, 2014.
que no han dado una respuesta editorial cuando el manuscrito es aceptado en otra revista. En términos prácticos, todas las editoriales advierten sobre evitar esta práctica; por ejemplo, Taylor & Francis especifica que [33]: «Authors must not submit a manuscript to more than one journal simultaneously.»
cualquier cosa desde fraudes hasta conclusiones erróneas. Una lista de editoriales y revistas académicas de acceso abierto que son potencial, posible o probablemente predadores es suministrada en http://scholarlyoa.com/publishers/. 2.8
2.6
Evite la autocitación excesiva
La confidencialidad es una de los comportamientos éticos esperados de los editores y los evaluadores [51, 41]. En este caso, la confidencialidad significa que el editor únicamente da a los evaluadores el acceso al manuscrito, y que únicamente es aceptable la discusión del manuscrito entre cada evaluador y el editor (no entre pares ni entre autores y pares directamente). Palgrave da claras advertencias a los evaluadores [52]:
La autocitación es el proceso de citar en el manuscrito actual, el trabajo propio previamente publicado. Aunque la autocita es válida cuando el trabajo citado está claramente relacionado con la investigación actual, esto es usualmente un indicador de mala conducta. Por ejemplo, en [48] se ilustra como el índice h de un autor puede ser aumentado por la citación del trabajo propio irrelevante y la publicación múltiple; en [49] es demostrado como el índice h calculado por Google Scholar Citations y Google Scholar Metrics puede ser fácilmente manipulado por la creación de documentos ficticios y autores falsos citando las publicaciones del autor infractor. La presión por publicar y las ansias de ganar reputación y fama, tal como en otros casos, explican la motivación para tal comportamiento no ético. 2.7
Guarde silencio profesional como autor o como evaluador
This includes, but is not restricted to, keeping their identity hidden from authors and not externally distributing any work that is passed to them for their eyes only.
Sin embargo, es imposible ignorar que los evaluadores y los editores tienen acceso a información sensible y privilegiada, que es potencialmente útil para su investigación. Para evitar comportamientos no éticos es necesario considerar si el manuscrito es aceptado o rechazado. Cuando el manuscrito es aceptado pero no ha sido publicado, los revisores deben obtener permiso del editor para usar el manuscrito; cuando el manuscrito es rechazado, ambos, los evaluadores y el editor, deben obtener un permiso escrito de los autores. En cualquier caso la debida citación es necesaria. Más aún, en [41] se indica que:
Evite publicar en revistas predadoras de acceso abierto y citar sus artículos
Las revistas de acceso abierto son publicaciones académicas que ofrecen a sus lectores el libre acceso a los artículos publicados [50]. El soporte financiero es obtenido, en algunos casos de los autores [50], y en otros casos de las instituciones, como por ejemplo, las revistas académicas publicadas y financiadas por las universidades. Aunque este modelo es muy importante para difundir el progreso científico, algunas editoriales inescrupulosas usan este modelo financiero para ganar dinero explotando el interés de los autores por publicar. Tal como es descrito en [50], en el caso de las revistas predadoras de acceso abierto, los autores reciben un e-mail spam invitándolos a publicar y prometiendo la publicación rápida de los manuscritos aceptados; los autores que remiten manuscritos deben dar a la revista los nombres de evaluadores potenciales. Finalmente, cuando los artículos son publicados, los autores reciben una factura que nunca fue mencionada en la invitación a publicar. Mientras que las revistas de acceso abierto legítimas y bien establecidas siguen un proceso riguroso para evaluar y publicar artículos, las revistas predadoras tiene un proceso débil y poco transparente [50]; por ejemplo, para un autor es fácil revisar su propio trabajo mediante la creación de una cuenta de correo no institucional con otro nombre, y suministrando dicho nombre ficticio como un evaluador potencial a la revista. Así, la calidad de la investigación es comprometida y los artículos publicados pueden contener
When a manuscript is rejected, it is best practice for journals to delete copies of it from their editorial systems unless retention is required by local regulations. Journals that retain copies of rejected manuscripts should disclose this practice in their Information for Authors.
2.9
Evite las infracciones de derechos de autor
Las infracciones de derechos de autor cubren tres aspectos. El primero está relacionado con los derechos del autor sobre sus artículos publicados; estos dependen de la editorial, en el caso de las revistas por subscripción, o del tipo de licencia creative-commons usada. Por ejemplo, Elsevier permite que el autor use internamente en su institución el artículo final publicado [44]. Para evitar esta clase de infracciones, los autores pueden revisar la política de cada editorial en la base de datos SHERPA/RoMEO. Note que «Copyright protects only the particular form of expression of a work, and not the ideas or facts contained in it.» [53]. La ACM acepta que los autores publiquen la versión final 16
Velásquez / DYNA 81 (187), pp. 11-20. October, 2014.
revisada por pares (no la versión final diagramada) en su página Web personal o en el repositorio institucional [47]. En el mundo open–access, las editoriales usan las licencias creative–commons o contratos específicos de acceso abierto; en el caso de Elsevier [54], existen dos formas de acceso abierto: oro y verde; en la opción oro (gold) los autores pueden dar acceso a la versión final publicada; en la opción verde (green) los autores pueden auto-archivar las versiones finales publicadas y dar acceso libre a las versiones finales de la revisión por pares (no la versión final diagramada). Por otra parte, Springer permite que los autores tengan la posibilidad de publicar bajo la licencia creative-commons CC–BY, donde el usuario es libre de copiar, redistribuir, mezclar, transformar y construir sobre el artículo con cualquier propósito [55]. WileyBlackwell permite que los autores seleccionen entre las licencias creative-commons CC–BY, CC–BY–NC y CC– BY–NC–ND [25]. El segundo aspecto es relacionado con el uso de material protegido por derechos de autor como ilustraciones, gráficas o fotografías, las cuales son usadas sin una adaptación significativa. Las políticas editoriales de Elsevier [53] y Wiley–Blackwell [25] indican que los autores están obligados a obtener los permisos para usar material protegido; sin embargo, para otras editoriales como IEEE, el uso de material protegido por derechos de autor sin la debida autorización es un caso más de plagio [21]. El cuarto caso es relacionado con el uso de información privilegiada. En este aspecto, Taylor & Francis es muy claro respecto a su política [33]:
discutidos formalmente en seminarios o informalmente en conversaciones entre ellos. 2.11
Tal como es definido en el sitio Web de Elsevier [57]: Fraud is publishing data or conclusions that were not generated by experiments or observations, but by data manipulation or invention. Changing the data measurements to conveniently fit the desired end result is fraud, but excluding inconvenient results is deliberate research error, which, in effect, is the same end result – fraud.
Note que el borrado de datos posiblemente mal registrados también es una forma de manipulación. Otra forma es la invención de datos para que soporten conclusiones preestablecidas. Esta clase de mala conducta parece ser un patrón comportamental del individuo y no un evento aislado en la carrera del investigador: en la revista Acta Crystallographica Section E, Zhong publicó 41 artículos reportando estructuras cristalográficas falsas, mientas que Liu publicó otras 29 [58]; Poehlman (véase http://66.129.110.148/press-release-poehlman) falsificó datos de investigación entre 1992 y 2002 en aplicaciones a becas y en artículos de investigación; en [59] fue anunciado que el Dr. William McBridge fue encontrado culpable de alterar resultados experimentales y publicar reportes falsos de investigación. En otro caso J. H. Schön publicó, al menos, 21 artículos fraudulentos en las revistas más prestigiosas, tales como Science, Physical Review, Applied Physics Letters, Advanced Materials, y Nature (http://www.dw.de/scandal-rocks-scientific-community/a646321-1). Fuji fabricó datos en 172 publicaciones entre 1973 y 2012 [60]. Otros resúmenes de casos de mala conducta pueden ser encontrados en http://ori.hhs.gov. La mala conducta repetitiva no es exclusiva de la manipulación o invención de datos: en [48] es mostrado como Tansu (un profesor de indonesia) incrementó su índice h por un proceso continuo de autocitación indiscriminada y doble publicación durante al menos cinco años. Un caso extremadamente raro es la invención de datos por locura y el único caso conocido es el de J. Traver [61] en 1951, quien publicó información detallada sobre sus experiencias con una enfermedad únicamente detectable por ella. Un mecanismo para evitar la invención o manipulación de datos es forzar a que los autores mantengan o entreguen una copia de la información original, tal que los hallazgos puedan ser revisados en detalle en cualquier momento por la comunidad científica; en la política de Elsevier se expresa que [62]:
Information obtained privately, as in conversation, correspondence, or discussion with third parties, should not be used or reported in the author's work unless fully cited, and with the permission of that third party.
Nótese también que el uso de información obtenida privadamente sin la cita y sin dar crédito es una forma de apropiación. 2.10
Evite la manipulación o la invención de datos
Evite la apropiación de resultados de investigación
En este caso un autor presenta resultados de investigación como propios [56]. Note que aquí la investigación no ha sido publicada en ninguna revista y el infractor no cumple con la definición de autor (puede ser un contribuidor e inclusive alguien externo al grupo de trabajo). Me explico: cuando el infractor pertenece al grupo de investigación, se da un caso de autor fantasma para los autores ignorados; cuando la investigación fue publicada previamente y el infractor no es un autor del trabajo ya publicado se da un caso de plagio; finalmente, la apropiación de resultados se da cuando el infractor no cumple con las condiciones de autoría y la investigación no ha sido publicada. Este caso parece ser muy común en estudiantes de postgrado ya que los avances de investigación son
Authors may be asked to provide the raw data in connection with a paper for editorial review, and should be prepared to provide public access to such data 17
Velásquez / DYNA 81 (187), pp. 11-20. October, 2014.
2.16 Mientas que en la página Web de Taylor & Francis dice que [33]: «if required, authors must facilitate access to data sets described in the article». Palgrave extiende esta política a materiales de terceras partes y trabajos no publicados [52]. 2.12
Una característica muy importante de la escritura científica es la precisión [69]. Esto es entendido como la precisión de ideas, reconcomiendo de las fuentes correctas, y preparación de gráficos, ecuaciones y tablas sin errores. Los autores y los lectores tienen la obligación de reportar imprecisiones o errores fundamentales a los editores [62] y es necesario que los autores revisen cuidadosamente el trabajo completo antes de someterlo a una revista. Hay tres posibles situaciones: primero, que el artículo omita hechos o análisis sin afectar la credibilidad del trabajo; en este caso, los autores publican en la misma revista un addendum al trabajo publicado; el addendum indica explícitamente la nueva información adicionada y como esta afecta el trabajo publicado. Segundo, se pueden detectar errores menores en el trabajo publicado pero sin afectar su credibilidad; errores menores de este tipo corresponden a: errores en la notación matemática, casos muy simples de falta de limitación con comillas o errores de citación. En este caso, los autores remiten un corrigendum corrigiendo el artículo. Y tercero, el trabajo contiene errores fundamentales afectando su credibilidad o hay infracciones éticas o legales tales como plagio o duplicación [70, 41]. La política de Elsevier [70] indica que un artículo podría ser retirado cuando está en proceso de impresión, retractado (el artículo es conservado con una nota de retracción), removido (para artículos difamatorios o artículos con información altamente riesgosa) o reemplazados.
Evite violaciones de los estándares de investigación
Esta clase de comportamiento no ético ocurre cuando «there was no informed consent on human subjects, or that the animal protection protocols were not being followed» [63]. Esta clase de problemas parecen estar lejos de la ingeniería; pero en medicina varios escándalos son bien conocidos, como por ejemplo, el reclutamiento de pacientes sin el debido consentimiento [64]. 2.13
Declare conflictos de interés
Los conflictos de interés ocurren cuando hay relaciones financieras, profesionales o personales que pueden influenciar los juicios y las decisiones [65]; y también cuando [66]: existe soporte financiero que podría afectar los resultados, o cuando hay violaciones potenciales de la propiedad intelectual. Aunque la persona podría considerar que su juicio no será afectado, la existencia de conflictos de interés afecta la credibilidad del proceso [65]. Note que el proceso ciego de revisión por pares en muchas revistas es realizado con el fin de evitar conflictos de interés, tal que el juicio sea únicamente basado en los méritos del trabajo. Un ejemplo de comportamiento inapropiado que lleva a conflictos de interés es el uso de evaluadores que pertenezcan al mismo grupo de investigación de los autores del manuscrito. Sin embargo, parece imposible eliminar todos los conflictos de interés entre los editores y los autores porque los editores conocen la identidad, el cargo y la institución de los autores [67]. 2.14
2.17
Evite enviar versiones tempranas del manuscrito
Tal como es advertido en [71], algunos autores usan la remisión de una versión temprana del manuscrito como una forma de obtener retroalimentación de pares, aunque saben que el editor finalmente rechazará el manuscrito. Esta es una mala práctica que desperdicia los recursos editoriales y el tiempo y esfuerzo de los revisores.
Evite evaluar artículos cuando sospeche que tiene relaciones financieras, personales o profesionales con los autores
3
Este es un caso especial de conflictos de interés y los editores deberían evitar la selección de tales pares, porque la existencia de sesgo tanto a favor como en contra del manuscrito es posible [68]. En este sentido, los autores deben declarar conflictos de interés potenciales [33]. 2.15
Al final, revise el manuscrito de nuevo
Conclusiones
Los problemas éticos en la publicación científica pueden surgir cuando la persona necesita toma decisiones de investigación que son basadas más en su moralidad que en un pensamiento científico racional. Para muchos estudiantes e investigadores jóvenes, algunos problemas éticos parecen ser más pequeños pecaditos o reconocen solo como mala conducta unos pocos casos, pero en realidad la mala conducta es mala conducta y las consecuencias para la reputación de los infractores son importantes y desastrosas; en otros casos, las causas de la mala conducta parecen ser desconocidas. En este trabajo, se discutieron los siguientes 17 consejos para evitar la mala conducta en la publicación científica:
Declare fuentes de financiación y patrocinio
Para evitar alegatos de mala conducta o fraude, los autores deben declarar patrocinios y fuentes de financiación que podrían afectar la credibilidad de los resultados [66]. Véase los párrafos anteriores. Este es un requerimiento común de muchas editoriales [33, 65].
18
Velásquez / DYNA 81 (187), pp. 11-20. October, 2014. [12] Van Noorden, R., Publishers withdraw more than 120 gibberish papers. Nature News. [Online] [Date of reference February 24 th of 2014]. doi:10.1038/nature.2014.14763 [13] Nauta, B. and Sansen, W., Retraction of paper with falsified information, IEEE Journal of Solid–State Circuits, 43 (6), pp. 13391339, 2008. [14] Weber–Wulff, D., Multiple retractions of articles by computer science professor, [Online]. Available at: http://copy-shakepaste.blogspot.com.es/2013/01/multiple-retractions-of-articlesby.html [15] Karakuzu, C., Retraction notice to: Fuzzy controller training using particle swarm optimization for nonlinear system control, ISA Transactions, 47 (2), pp. 229-239, 2008. [16] Khalgui, M., Moshabi, O., Hanish, H.-M. and Li, Z., Retracted Article: A multi-agent architectural solution for coherent distributed reconfigurations of function blocks, Journal of Intelligent Manufacturing, 23 (6), pp. 2531-2549, 2012. [17] Mizanian, K., Yousefi, H. and Jahangir, A.H., Retracted: Worst case dimensioning and modeling of reliable real-time multihop wireless sensor network, Performance Evaluation, 66 (12), pp. 685-700, 2009. [18] James, I., The COPE Case Taxonomy: Reclassification and analysis of COPE’s publication ethics cases, Presentation in the COPE European Seminar, Brussels, 14 March 2014. [19] Titus, S.L. and Ballou, J.M., Ensuring PhD Development of responsible conduct of research behaviors: Who’s Responsible?, Science and Engineering Ethics, 20 (1), pp. 221-235, 2014. [Published online: 18 May 2013]. [20] Carafoli, E. Editorial. A bizarre case of scientific fraud, Biochemical and Biophysical Research Communications, 441 (3), pp. 529-530, 2013. [21] IEEE, Identifying Plagiarism [Online]. [Date of reference January of 2014]. Available at: 28th http://www.ieee.org/publications_standards/publications/rights/ID_P lagiarism.html [22] IEEE, A Plagiarism FAQ [Online]. [Date of reference January 28th of 2014]. Available at: http://www.ieee.org/publications_standards/publications/rights/plagi arism_FAQ.html [23] Publication Manual of the American Psychological Association, Sixth Edition, American Psychological Association, Washington, DC, 2010. [24] Eckel, E.J., Textual appropriation in engineering Master’s Theses: A preliminary study, Science and Engineering Ethics, 17 (3), pp. 469483, 2011. [Published online: 4 June 2010]. [25] Wiley-Blackwell, Copyright FAQs. [Online]. [Date of reference of 2014]. Available at: February 13th http://authorservices.wiley.com/bauthor/faqs_copyright.asp th [26] Elsevier, Plagiarism [Online]. [Date of reference January 28 of 2014]. Available at: http:// http://www.elsevier.com/__data/assets/pdf_file/0005/163715/ETHI CS_PLA01a.pdf. [27] Elsevier, Questions and Answers [Online]. [Date of reference of 2014]. Available at: January 28th http://www.elsevier.com/editors/perk/questions-and-answers [28] ACM, ACM Policy and Procedures on Plagiarism [Online]. [Date of of 2014]. Available at: reference January 28th http://www.acm.org/publications/policies/plagiarism_policy [29] Andreescu, L., Self-Plagiarism in academic publishing: The anatomy of a misnomer, Science and Engineering Ethics, 19 (3), pp.775-797, 2013. [30] Elsevier, A Question of Ethics: plagiarism and ethical infringement in publishing [Online]. [Date of reference January 28th of 2014]. Available at: http://www.elsevier.com/reviewers/reviewersupdate/archive/issue-2/a-question-of-ethics-plagiarism-and-ethicalinfringement-in-publishing [31] Visser, L., Haidgger, T. and Papanikolopoulos, N., Pitfalls of publications: On the sensitive issue of plagiarism, IEEE Robotics & Automation Magazine, 19 (4), pp. 85-87, 2012. [32] Li, Y., Text-Based plagiarism in scientific publishing: Issues, developments and education, Science and Engineering Ethics, 19 (3), pp. 1241-1254, 2013. [Published online: 26 April 2012].
1. 2.
Evite el plagio. Considere todos los posibles autores y contribuidores. 3. Obtenga de todos los autores el consentimiento para publicar. 4. Evite cualquier forma de publicación traslapada. 5. Evite remitir el mismo trabajo a varias revistas. 6. Evite la autocitación excesiva 7. Evite publicar en revistas predadoras de acceso abierto y citar sus artículos. 8. Guarde silencio profesional como autor o como evaluador. 9. Evite las infracciones de derechos de autor. 10. Evite la apropiación de resultados de investigación. 11. Evite la manipulación o la invención de datos. 12. Evite violaciones de los estándares de investigación. 13. Declare conflictos de interés. 14. Evite evaluar artículos cuando sospeche que tiene relaciones financieras, personales o profesionales con los autores. 15. Declare fuentes de financiación y patrocinios 16. Al final, revise el manuscrito de nuevo. 17. Evite enviar versiones tempranas del manuscrito. Espero que este trabajo sea de valor para estudiantes de postgrado y jóvenes investigadores, y que responda muchas preguntas comunes sobre la ética de la publicación científica. Referencias [1]
Velásquez, J.D. Sobre la ética en la publicación científica, Revista Avances en Sistemas e Informática, 7 (3), pp.7-9, 2010. [2] Foo, J.Y.A. and Wilson, S.J., An Analysis on the Research ethics cases managed by the Committee on Publication Ethics (COPE) Between 1997 and 2010, Science and Engineering Ethics, 18 (4), pp. 621-631, 2012. [online: 29 April 2011]. [3] Gross, C.A., Dealing ethically with the publish or perish pressure, Proceedings of Power and Energy Society General Meeting Conversion and Delivery of Electrical Energy in the 21st Century, 2008 IEEE. 20-24 July, pp. 1-2, 2008. [4] Abaté, C.J., Should engineering ethics be Taught?, Science and Engineering Ethics, 17 (3), pp. 583-596, 2011. [Published online: 4 June 2010]. [5] Khaled, K.F., Scientific fraud in the digital age, Der Pharma Chemica, 5 (1), pp. 28-38, 2013. [6] Grinnell, F., Research integrity and everyday practice of science, Science and Engineering Ethics, 19 (3), pp. 685-701, 2013. [Published online: 28 June 2012]. [7] Lind, R.A. and Swenson-Lepper, T., Measuring sensitivity to conflicts of interest: A preliminary test of method, Science and Engineering Ethics, 19 (1), pp. 43-62, 2013. [Published online: 15 November 2011]. [8] Guillory, J., The Sokal affair and the history of criticism, Critical Inquiry, 28 (2), pp. 470-508, 2002. [9] Ball, P., Computer conference welcomes gobbledegook paper. Nature 434, 946 P, 2005. [10] Kakuk, P., The legacy of the Hwang case: Research misconduct in biosciences. Science and Engineering Ethics, 15 (4), pp. 545-562, 2009. [11] IEEE, IEEE PSPB Operations Manual, Amended 22 November 2013. [Online] [Date of reference February 10th of 2014]. Available at: http://www.ieee.org/documents/opsmanual.pdf
19
Velásquez / DYNA 81 (187), pp. 11-20. October, 2014. [54] Elsevier, Open access options. [Online]. [Date of reference February 10th of 2014]. Available at: http://www.elsevier.com/journalauthors/open-access/open-access-options. [55] Springer, Open Choice-Your research. Your choice. [Online]. [Date of reference February 1th of 2014]. Available at: http://www.springer.com/la/open-access/springer-open-choice. [56] Elsevier, Research results misappropriation, Identify 4. [Online]. [Date of reference February 8th of 2014]. Available at: http://www.elsevier.com/editors/perk/research-resultsmisappropriation/identify-4 [57] Elsevier, Allegations of research errors and fraud, Identify 5. [Online]. [Date of reference February 8th of 2014]. Available http://www.elsevier.com/editors/perk/allegations-of-research-errorsand-fraud/identify-5 [58] The Lancet, Editorial. Scientific fraud: Action needed in China, The Lancet, 375 (9907), pp. 94, 2010. [59] Ragg, M., Australia: McBride guilty of scientific fraud, The Lancet, 341 (27), pp. 550, 1993. [60] Zielinska, E., Top Science Scandals of 2012. [Online]. Available at: http://www.thescientist.com/?articles.view/articleNo/33695/title/Top-ScienceScandals-of-2012/ [61] Shelomi, M., Mad scientist: The unique case of a published delusion, Science and Engineering Ethics, 19 (2), pp. 381-388, 2013. [Published online: 16 December 2011]. [62] Elsevier, Publishing responsibilities of authors. [Online]. [Date of of 2014]. Available at: reference February 12th http://www.elsevier.com/journal-authors/ethics#writing-an-article [63] Elsevier, Research standards violations, Identify 6. [Online]. [Date of reference February 8th of 2014]. Available at: http://www.elsevier.com/editors/perk/research-standardsviolations/identify-6 [64] Hyde, R., Germany launches investigation into human trials scandal, The Lancet, 382 (9887), pp. 115-116, 2013. [65] Elsevier, Undisclosed conflicts of interest, Identify 7. [Online]. [Date of reference February 8th of 2014]. Available at: http://www.elsevier.com/editors/perk/undisclosed-conflicts-ofinterest/identify-7 [66] Elsevier, Conflict of interest form. [Online]. [Date of reference of 2014]. Available at: February 10th http://help.elsevier.com/app/answers/detail/a_id/286/p/7923 [67] Oleinik, A., Conflict(s) of interest in peer review: Its origins and possible solutions, Science and Engineering Ethics, 20 (1), pp. 5575, 2014. [Published online: 5 January 2013]. [68] Elsevier, Reviewer bias or competitive harmful acts by reviewers, Identify 8. [Online]. [Date of reference February 8th of 2014]. Available at: http://www.elsevier.com/editors/perk/reviewer-bias-orcompetitive-harmful-acts-by-reviewers/identify-8 [69] Katz, M.J., From research to manuscript: A guide to scientific writing. Springer, Nueva York, 2006. [70] Elsevier, Article withdrawal. [Online]. [Date of reference February of 2014]. Available at: 16th http://www.elsevier.com/about/publishingguidelines/policies/article-withdrawal [71] Hirshleifer, D., Schwert, G.W. and Singleton, K.J., Joint Editorial, Journal of Financial Economics, 10, pp. 279, 2013. [72] Velásquez, J.D., Editorial. Correct citation in DYNA and antiplagiarism editorial policy, DYNA, 81 (185), pp. 9-10, 2014.
[33] Taylor & Francis, Copyright and reusing your own work [Online]. [Date of reference February 15th of 2014]. Available at: http://journalauthors.tandf.co.uk/preparation/ ethics.asp [34] Elsevier, Identify 1. [Online]. [Date of reference February 1th of 2014]. Available at: http://www.elsevier.com/editors/perk/1.authorship-complaints/Identify-1 [35] Gollogly, L. and Momen, H., Ethical dilemmas in scientific publication: Pitfalls and solutions for editors, Revista Saúde Pública, 40, pp. 24-29, 2006. [online] [36] Taylor & Francis, Writing your article [Online]. [Date of reference of 2014]. Available at: February 9th http://journalauthors.tandf.co.uk/preparation/writing.asp#link8 [37] COPE, How to spot authorship problems [Online]. [Date of of 2014]. Available at: reference February 2th http://publicationethics.org/files/u2/04F_How_to_spot_author_probl ems.pdf [38] Bird, S.J., Self-plagiarism and dual and redundant publications: What is the problem?, Science and Engineering Ethics, 8 (4), pp. 543-544, 2002. [39] Council of Science Editors, CSE's White Paper on Promoting Integrity in Scientific Journal Publications [Online]. [Date of of 2014]. Available at: reference February 3th http://www.councilscienceeditors.org/i4a/pages/index.cfm?pageid=3 638 [40] Dirección Nacional de Derechos de Autor, Decisión Andina 351 de 1993 régimen común sobre derecho de autor y derechos conexos [Online]. [Date of reference February 6th of 2014]. Available at: http://www.derechodeautor.gov.co/web/guest/decision-andina [41] ICMJE, Recommendations for the conduct, reporting, editing, and publication of scholarly work, in Medical Journals [Online]. Available http://www.icmje.org/icmje-recommendations.pdf [42] Elsevier, Identify 3. [Online]. [Date of reference February 3th of 2014]. Available at: http://www.elsevier.com/editors/perk/multiple,duplicate,-concurrent-publicationsimultaneous-submission/identify3 [43] Laurent, G.J., Radola, B.J. and Breen, C.G., Editorial, A case of scientific fraud, The International Journal of Biochemistry & Cell Biology, 36 (11), pp. 2097, 2004. [44] Elsevier, Author Rights [Online]. [Date of reference February 10th of 2014]. Available at: http://www.elsevier.com/journalauthors/author-rights-and-responsibilities#author-use [45] Berlin, L., Plagiarism, salami slicing, and Lobachevsky, Skeletal Radiology, 38 (1), pp. 1-4. 2008. [46] ACM, ACM Policy on The publication of Conference Proceedings in ACM Journals [Online]. [Date of reference February 12th of 2014]. Available at: http://www.acm.org/publications/policies/conference-proceedingsin-acm-journals [47] ACM, ACM Author Rights [Online]. [Date of reference February 13th of 2014]. Available at: http://authors.acm.org/main.html [48] Dem, G., How to increase your papers citations and h index in 5 simple steps [Online]. [Date of reference February 4th of 2014]. Available at: https://www.academia.edu/934257/How_to_increase_your_papers_c itations_and_h_index_in_5_simple_steps [49] Delgado López-Cózar, E., Robinson-García, N.; Torres-Salinas, D., Manipulating Google Scholar citations and Google Scholar metrics: Simple, easy and tempting. EC3 Working Papers 6, 29 May, 2012 [50] Butler, D., The dark side of pubishing, Nature, 495, pp. 433-435, 2013. [51] Elsevier (2014, February 8), Pubishing Ethics [Online]. Available http://www.elsevier.com/about/publishing-guidelines/publishingethics [52] Palgrave, Palgrave Macmillan Journals – Ethics Policy [Online]. [Date of reference February 9th of 2014]. Available at: http://www.palgrave-journals.com/pal/authors/ethics_policy.html [53] Elsevier, Permission seeking guidelines for Elsevier authors [Online]. [Date of reference February 10th of 2014]. Available at: http://www.elsevier.com/journal-authors/permission-seekingguidelines-for-elsevier-authors
J. D. Veláquez-Henao, received the Bs. Eng in Civil Engineering in 1994, the MS degree in Systems Engineering in 1997, and the PhD degree in Energy Systems in 2009, all of them from the Universidad Nacional de Colombia. Medellin, Colombia. From 1994 to 1999, he worked for electricity utilities and consulting companies within the power sector and since 2000 for the Universidad Nacional de Colombia. Currently, he is a Full Professor in the Computing and Decision Sciences Department, Facultad de Minas, Universidad Nacional de Colombia. His research interests include: simulation, modeling and forecasting in energy markets; nonlinear time-series analysis and forecasting using statistical and computational intelligence techniques; and optimization using metaheuristics.
20
Determination of the zeolite optimal diameter for the settlement of nitrifying bacteria in an aerobic bed fluidized reactor to eliminate ammonia nitrogen Santiago Pozo-Antonio a a
Department of Natural Resources and Environmental Engineering, University of Vigo, Spain. ipozo@uvigo.es Received: June 13th, de 2013. Received in revised form: May 12th, 2014. Accepted: June 4th, 2014
Abstract In this work, the determination of the diameter of zeolite as a support for a microbial aerobic fluidized bed reactor is performed. The design of the reactor is recommended by Navarro and Palladino [1]. For the present study, the zeolite is crushed and classified granulometrically. Subsequently, the diameters of 0.5, 1 and 2 mm are arbitrarily chosen for the study of microbial adhesion. After the study of adherence of nitrifying bacteria, the obtained adhesion values for each diameter are not significantly different from each other. However, 1 mm is chosen to achieve higher adhesion values. Subsequently the aerobic fluidized bed reactor proposed by Navarro and Palladino [1] is built with the 1 mm-diameter zeolite. This presented an inlet flow of 1.35 mL.min-1 and a capacity of 8 L. The optimized quantity of zeolite for proper fluidization is 500 g, which is an 8% of total volume of the column. During operation, a good efficiency of reduction of the organic material is observed (50%). Keywords: nitrification, Nitrosomonas, Nitrobacter, microbial adhesion, fluidization, water.
Determinación del diámetro óptimo de zeolita para el asentamiento de bacterias nitrificantes en un reactor de lecho fluidizado para eliminar nitrógeno amoniacal Resumen En este trabajo se realiza la determinación del diámetro de zeolita óptimo que es empleado como soporte microbiano en un reactor aerobio de lecho fluidizado. El diseño de dicho reactor es recomendado por Navarro y Palladino [1]. Para el presente estudio, la zeolita es triturada y clasificada granulométricamente. Posteriormente, son escogidos, arbitrariamente, los diámetros 0.5, 1 y 2 mm para realizar el estudio de adhesión microbiana. Tras el estudio de adherencia de bacterias nitrificantes, a pesar de que los valores obtenidos para cada diámetro no presentan diferencias significativas entre sí, se escoge el agregado de 1 mm por conseguir valores de adherencia mayores. Una vez escogido el diámetro de zeolita se realiza la construcción del reactor aerobio de lecho fluidizado propuesto por Navarro y Palladino [1], con una alimentación de 1.35 mL.m-1 y una capacidad de 8 L. La cantidad de zeolita optimizada para una correcta fluidización es de 500 g, lo que es un 8% del volumen total de la columna. Se observa una buena eficiencia de reducción de la materia orgánica durante el funcionamiento, siendo esta de 50%. Palabras clave: nitrificación, Nitrosomonas; Nitrobacter; adhesión microbiana; fluidización; agua.
1. Introduction Reactive forms of common inorganic nitrogen in aquatic ecosystems are ammonium (NH4+), nitrite (NO2-) and nitrate (NO3-). These ions are naturally present in the aquatic environment as a result of atmospheric deposition, surface runoff and groundwater, dissolution of geological deposits
rich in nitrogen, biological decomposition of organic matter and nitrogen fixation by certain organisms [2]. Further, humans severely alter the nitrogen cycle by increasing its availability in many regions of the planet as a result of point and diffuse sources of pollution. Widespread pollution produces problems such as toxic algae blooms that after intake through food or water can lead to various
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 21-29. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.38424
Pozo-Antonio / DYNA 81 (187), pp. 21-29. October, 2014.
microbial support was determined by adhesion tests. The whole investigation takes three different stages: - Crushing and sieving of the zeolite and the choice of the three particle diameters (0.5, 1 and 2 mm). - Study of bacterial adherence as a function of the diameter of the particles. - Manufacturing of the aerobic fluidized bed reactor [1]. The diameter of the zeolite used as microbial support was the one that corresponds to the best adherence results from the previous stage. To ensure a proper implementation of the fluidized bed aerobic reactor a number of biological, chemical and physical parameters such as temperature, pH, microbial support, volume, feeding rate, retention time, and the reactor dimensions and configuration must be taken into account [28]. There are nitrifying microorganisms showing activity in a temperature range from 5°C to 42°C [29]. Most often, the optimum operating temperature is in the range from 28 to 36°C [29]. Temperature effects on the kinetics constant is very important, thus 1ºC change between 25 and 26°C gives rise to a 9.5% increase of the growth rate of Nitrosomonas and 5.9% of the Nitrobacter [30]. Alkaline media are more favourable for nitrifying bacteria with optimal levels of pH between 7.5 - 8.5 [31]. The pH value affects the environmental conditions for a favourable physiological development of microorganisms, and also has a great influence on the inhibition degree of the nitrifying bacteria. It was found that ammonium produces the inhibition of Nitrobacter [31]. Nitrifying bacteria are sensitive to multiple substances (heavy metals, organic compounds, free ammonia, etc.). These substances can interfere with the cell metabolism, reducing the rate of formation of intermediates compounds [32]. For these bacteria to develop physiologically, a proper support material should be chosen to take into account the biological process itself, the equipment size and experimental conditions that bacteria will find. In this case, the preferred zeolite particle size for the fluidized bed reactor was between 0.1 and 1 mm, as smaller sizes difficult operations with the reactor [33]. Most of the materials, such as sand and clay with irregular shapes and sizes, were chosen to take into account that they were cheap and readily available. One of the most important variables in reactor design is the density of the aerobic fluidized bed material, as it affects the bed hydrodynamics and has a direct effect on power consumption [34]. Density affects the bed fluidization, so when particle density approaches the corresponding value for the fluidizing liquid, velocities for minimum fluidization conditions and for a 20% expansion, become close. It must be noted that particles should not be fragile as because of their continuous movement they can collide and become fragmented, changing their fluidizing characteristics and thus making even more difficult the control of the bed expansion. In this sense, there are works that use active carbon as the support, with a density lower than that of the natural zeolite [1]. One advantage of fluidized bed reactor is the large surface available for adhesion, where the biofilm can grow.
physiological disorders and symptoms of intoxication [3-5], eutrophication [6,7], acidification of rivers and lakes with low or reduced alkalinity [8-12], direct toxicity of nitrogenous compounds in aquatic animals [13] and adverse effects on human health [14-16]. In most countries, there are laws and legal regulations establishing limits for the concentration of ammoniacal nitrogen in the wastewater industry such as the Biological Oxygen Demand (BOD) and Chemical Oxygen Demand (COD) [17]. Removal of nitrogen present in the wastewater resulting from domestic and industrial activities is usually carried out combining biological processes of nitrification and denitrification, since costs are lower compared to the physical and chemical processes. Nitrification consists in the biological oxidation (aerobic process) of ammoniacal nitrogen in a first step to nitrite and its oxidation to nitrate, carried out by autotrophic ammonia-oxidizing bacteria (Nitrosomonas) and nitrite-oxidizing (Nitrobacter), respectively [18]. According to the nitrification reaction: NH4- + 1,5 O2 NO2- + ½ O2
NO2- + H2O + 2H+ ; NO3
3.43 mg of oxygen (O2) are required to oxidize 1 mg of N-NH3 to nitrite and 1.14 mg of O2 to oxidize 1 mg N-NO2to N-NO3- [19]. Therefore, concentration of dissolved oxygen in water must be kept around 2 to 3 mg.L-1 for an adequate nitrification [20]. We find various treatment methods that help decrease BOD and COD. Among the most common biological processes, we have fluidized activated sludge, where a granular bed within a column is used. In the column, the lower part has the input of effluent to be treated and recycled effluent and the top part has the treated effluent outlet. In these systems, feed and recycle rates must sustain the fluidization of the bed [1,21] and degradation of organic matter by micro-organisms on the surface of the particles [1, 22-23]. Air injection is essential to get a proper aeration in the system [24]. In these systems, granular activated carbon, sand and clay are used as microbial support [1, 25-26]. The constant levels of biomass must to be maintained. Excess biomass can be removed by friction between particles or transported to a device where the biomass is separated from the particles; these are incorporated back into the bed [27]. Navarro and Palladino proved the effectiveness of an aerobic fluidized bed reactor using as support: granular activated carbon [1]. They achieved an efficiency of biological degradation between 21 and 89 %, using feed rates between 20 and 300 mL.min-1 and recycle flow rates between 1400 and 4800 mL.min-1 and organic loads ranging between 74 and 571 mg.L-1. They determined that higher efficiencies correspond to low flow rates and high organic loads. In this work, we determine the optimal zeolite size for the correct physiological development of nitrifying bacteria to be used in a subsequent aerobic fluidized bed reactor to remove ammonia nitrogen existing in industrial wastewater. The building, design and dimensioning of the aerobic fluidized bed reactor have been based on previous works [1, 17]). The optimal size of the zeolite employed as a 22
Pozo-Antonio / DYNA 81 (187), pp. 21-29. October, 2014.
It was determined that optimum pore size is about five times the dimension of the cells, that leave room for two adhered cells and two more cells growing by fusion and some free space between them for transferring substrates [35].
Table 1 Composition of the reactor feed or industrial waste liquid used.
Component NH4Cl Urea KH2PO4 FeSO4.7H2O NaHCO3 Yeast extract Saline solution
2. Materials and methods 2.1. Crushing and sieve analysis Upon receipt of the zeolite from the supplier, the grinding was started to obtain the required diameters (0.5, 1, 2 mm) using a crusher (DECO BH41A) and a bar mill (DECO 7997B). Then ASTM Sieves numbers 11, 16, 20, 30 and 35 were used to sieve the zeolite.
Amount 0.764 g.L-1 0.450 g.L-1 0.181 g.L-1 0.0992 g.L-1 3.12 g.L-1 0.28 g.L-1 1 mL.L-1
Source: The author.
Table 2 Composition of saline solution needed for the industrial liquid waste.
Component EDTA HCl FeSO4 HBr ZnCl2 MgCl2
2.2. Microbial adhesion For the microbial adhesion tests, assemble of 16 mini digesters were used with a volume of 200 mL, for each one of the zeolite diameters (Fig. 1).
Amount 0.15 g.L-1 1 mL.L-1 2 g.L-1 0.05 g.L-1 0.05 g.L-1 0.05 g.L-1
Source: The author.
Table 3 Characterization of the inoculum added to the mini-reactors.
Parameter pH TSS VSS CODT
Value 7.25 4904 mg.L-1 3903 mg. L-1 18480 mgO2 .L-1
Source: The author.
Each mini-digester contained 40 g of zeolite, 100 mL of liquid industrial waste and 72 mL of sludge. Aeration was performed with dual output aerating pumps (RESUN AC 6600, 45L, 220V). The industrial waste feeding liquid to the reactor corresponds to a synthetic solution, whose composition was obtained from previous works [36]. Table 1 details the composition of the feeding liquid and Table 2 shows that of the saline solution used to prepare the synthetic industrial waste liquid. The mini-reactors were inoculated with microorganisms (nitrifying bacteria) from an activated sludge plant, which was in a process of recovery. Prior to their employment in the mini-reactors, they were subjected to the following characterization (Table 3): - pH determination using a Crison pH 25 pH-meter. - Total Suspended Solids (TSS) measurement (Standard Methods 2540 D, drying 103 - 105째C) [37]. - Volatile Suspended Solids (VSS) measurement (Standard Method 2540 E, drying from 103 to 105째C and ignition till 550째C) [37]. - Total Chemical Oxygen Demand (CODT) determination [37]. Once the mini-digesters were filled and the aeration pumps connected, the system was allowed to evolve for five days. After this initial time zeolite and liquid samples were taken every two or three days. Mini-digesters were grouped in pairs, for each zeolite diameter. Each sampling day, the zeolite and liquid of both mini-digesters from one of the pair for the three
Figure 1. Above: Sketch of the mini-reactor (digester) with a 200 mL volume. Below: Picture of a mini-digester set mounted for microbial adherence test. There were three similar sets for each one of the zeolite diameters. The picture corresponds with the mini-reactors for the 0.5 mm zeolite diameter. Experiments for microbial adherence test were performed along twenty one days. Source: The author. 23
Pozo-Antonio / DYNA 81 (187), pp. 21-29. October, 2014.
different zeolite diameters were analyzed. Most assays were done three times in order to have well defined average values. This method allows considering that the mass of the minidigester was kept constant during the whole sampling time. The whole experiment ran for three weeks. The liquid part of each sample was characterized by measuring the pH, TSS, VSS and CODT following the above-mentioned standards. Adhesion tests were performed with the zeolite extracted from each mini-reactor. The extracted zeolite was placed on a filter paper on a capsule and introduced into a hot oven for six hours to ensure complete drying of the support. To determine the mass of the adhered solids the following expression can be applied: AM = D – (A + B + C)
Table 4. Characterization of the inoculum used in the implementation of the aerobic fluidized bed reactor designed for the removal of ammoniacal nitrogen.
Parameter
Value
pH
7.8
TSS
12050 mg.L-1
VSS
9933.33 mg.L-1
CODT
22020 mg.L-1
Source: The author.
Table 5. Weight of zeolite as a function of the grains diameter after trituration.
Diameter of the zeolite grains
Weight
0.5 mm
2.54 kg
0.8 mm
2.52 kg
1 mm
9.70 kg
2 mm
6.14 kg
(1)
where: AM: adhered solids mass (g) A: mass of the dry filter paper, where the zeolite is placed (g) B: mass of the supporting capsule (g) C: mass of zeolite added initially to the mini-digesters (g) D: dry mass of the capsule with the zeolite and filter after six hours into the heating oven (g).
Source: The author.
2.3.1. Tuning of the reactor A nitrogen load speed (NLS) of 0.11 kgN.m-3.d-1 [39] and a Total Kjeldahl Nitrogen (TKNi) of liquid industrial waste of 452 mg.L-1 were used [36] that resulted in a Hydraulic Residence Time (HRT) of 98 hours. A first run was performed with water to verify the state of the seals and the general operation of each system component (Fig. 2). Aeration equipment is critical for this type of reactors as to achieve the expected efficiency a proper air distribution is needed. Once confirmed that no leakage or conduction problems occurred, 8 L of the synthetic industrial waste liquid were introduced within the column. Then the structure was mounted and the system switched on. Firstly, with a total recirculation and later, when the recirculation rate was chosen, the feeding was started. The feeding pump was connected to a timer to achieve the necessary inflow. The NLS and TKNi experimental values corresponded to an inlet flow of 1.35 mL.min-1, so the pump was calibrated to that flow rate. The reactor was in operation for 21 days (like the minidigesters). Different control parameters were measured at the beginning and end of the operation. These parameters are: organic load in the effluent input (CODTent) and output (CODTexit), pH of the treated effluent, VSS, TSS and microbial adhesion).
2.3. Implementation of aerobic fluidized bed reactor After the adhesion test, the construction of the aerobic fluidized bed reactor based on the construction of Navarro and Palladino was performed using the zeolite of the most adequate diameter [1]. The reactor consisted of an acrylic column 10 cm in diameter and 1.05 m height. The final 20 cm corresponded to an inverted truncated cone with a 20 cm diameter base (Fig. 2). This design was chosen in order to prevent particles escaping from the reactor. The acrylic column had two side outlets located at 25 and 70 cm from the top. Both side outlets with a 2.5 cm diameter possessed outlet valves and hoses with the same diameter. The plate that support the filler was composed of a stainless steel mesh placed 10 cm above the base. Below the plate there were feeding inlets for the effluent to be treated and recycling. Above these two inlets two cross-placed diffusers ensured an even air distribution. The installation also had a 20 cm high pyramidal settler with a weir at the top for discharge of treated effluent and a bottom outlet for recycling. A purge was also available for use if necessary. The supporting material used was zeolite of the chosen diameter. This was loaded onto the column to achieve a fixed bed height of 15 cm. This height was set so that a significant liquid volume was above the bed of particles, thereby enabling work with different fluidizing speeds and thus different bed expansions. Two peristaltic pumps completed the system, for a constant feed rate and an optimum recirculation. The reactor was filled with 500 g of zeolite, 4783 mL of liquid industrial waste and 2416 mL of sludge. The liquid industrial waste had the same composition as that used in the mini-digesters (Tables 1 and 2). The sludge was from another source, so it was again subjected to the analysis of pH, TSS, VSS and CODT [38]. Results are shown in Table 4.
3. Results and discussion 3.1. Crushing and sieve analysis As shown in Table 5, after crushing and sieving enough zeolite for each of the expected sizes (0.5, 1 and 2 mm) was obtained. The optimum crushing and sieving times for the zeolite was determined to be 10 min and 8 min, respectively.
24
Pozo-Antonio / DYNA 81 (187), pp. 21-29. October, 2014.
3.2.1. pH behavior
3.2. Microbial adhesion Graphs and results for each performed analyses are presented below.
Fig. 3 shows the pH as a function of time (in days). To avoid inhibition the pH value must be kept in the range from 7.5 to 8.5, as alkalinity of the system prevent the pH lowering caused by the nitrification [31].
Figure 2. Above: Scheme of the aerobic fluidized bed reactor. Below: Picture of the reactor prototype during an assay to detect possible leaks. Source: The author.
25
Pozo-Antonio / DYNA 81 (187), pp. 21-29. October, 2014.
It is observed that the pH was kept constant along the experiment time for 1 and 2 mm diameter zeolite samples. However for the 0.5 mm diameter case, pH was decreased in the sixteenth day till twentieth. This is a value beyond the optimal range for the survival of aerobic nitrifying bacteria. However, this is not an acidic enough pH to avoid the life of microorganisms, so this diameter zeolite may perform its metabolic functions, but not optimally. 3.2.2. Organic filler CODT results are shown in Fig. 4. It can be seen that there was an almost complete biodegradation of organic matter in all samples for the different diameters, being 99.3, 95.0 and 98.6 % for the 0.5, 1 and 2 mm diameters, respectively. The best removal was obtained for the 0.5 mm diameter case; however, values are so close that statistical analysis determined that there are no significant differences among them (P=1>0.05).
Figure 3. Time dependence of the pH measured in the liquid fraction of the mini-reactors during the nitrification for the three zeolite diameters. Experiments lasted for twenty one days. Source: The author.
Figure 4. CODT behaviour of liquid samples obtained from the mini-reactors during the twenty one-days experience. Each line represents the CODT for the each one of the zeolite diameters. Source: The author.
the fourteenth day. A similar behaviour was observed for the 2 mm zeolite diameter case, the TSS was initially
3.2.3. Suspended Solids TSS and VSS refer to the microorganisms found in industrial waste liquid, i.e. they are not adhered to the interstitial spaces of the zeolite granules. TSS comprises both microorganisms and every substance that is suspended in the liquid industrial waste; however, VSS refers only to the microorganisms. As a consequence TSS values must always be greater than VSS values and both must show a similar behaviour. Fig. 5 shows the TSS time dependence for the three zeolite diameters used in the experiments. As can be seen, for the 0.5 mm zeolite diameter, TSS values remains nearly constant from the fifth to the ninth day; later, on the fourteenth day, an abrupt decrease from 3990 to 700 mg.L-1 was observed. This result is in accordance with the adherence maximum observed for the same day. Then there is a slight increase in the seventeenth day followed by a fall back to values similar to the one of
Figure 5. Total Suspended Solids as a function of time (days) of the liquid from the mini-aerobic reactors for each one of the zeolite diameters of the zeolite. Results correspond to experiments extending along twenty one days. Source: The author.
26
Pozo-Antonio / DYNA 81 (187), pp. 21-29. October, 2014.
Figure 6. Volatile Suspended Solids values measured on the liquid phase of the mini-aerobic reactors as a function of time for the three zeolite diameters. Source: The author.
Figure 7. Time dependence of the microbial adhesion to the zeolite support for the three zeolite diameter. Source: The author.
roughly constant and then an abrupt decrease from 5403 mg.L-1 (eleventh day) to 1376 mg.L-1 (thirteenth day) was observed. This decrease was followed by a slight increase following days. This increase is associated to the cryptic growth stage of the microorganisms natural cycle (growth curve), which takes place after the death phase. For the 1 mm diameter case, a minimum for the TSS value (1060 mg.L-1) was observed the ninth day. Further, TSS value increased to 3120 mg.L-1 due to the above mentioned cryptic growth stage. At the experiment end TSS values were constant. Fig. 6 shows the time dependence of VSS. As indicated, they have a behaviour similar to TSS values, but the VSS values are always smaller than the TSS ones. For the 0.5 mm zeolite diameter the initial TSS values remain nearly constant. On the twelfth day, VSS began to decrease to a minimum of 530 mg.L-1 that was reached on the fourteenth day. A similar evolution was observed in the 2 mm zeolite diameter case. In this case, VSS also decreased after the twelfth sampling day, but the values were different in magnitude and the decreasing behaviour was extended to the twentieth day where a minimum of 200 mg.L-1 was reached. The final value corresponding to a drastic increase till 2300 mg.L-1 is due to errors in the data collection and sampling. Finally, in the case of the zeolite with 1 mm diameter, VSS values showed a continuous fluctuation along the whole experiment time, with a minimum of 790 mg.L-1 on the sixteenth day and a slight increase until the end of the experiment.
space was available for the bacteria. This state corresponds with the maximum of the adhesion curves. Then the bacteria far away form interstitial spaces dissociated from the zeolite and, as a consequence, the TSS value increased while adhesion decreased. The adhesion maximum was achieved for the 1 mm zeolite diameter, with a value of 0.2891 g of nitrifying microorganisms adhered. However, similar values were obtained for the 0.5 and 2 mm zeolite diameters, 0.2329 and 0.2729 g, respectively. This similarity in the results is in accordance with the statistical analysis, that yielded P> 0.05, which indicate that the zeolite diameter was not a determining parameter for the microbial adhesion (see explanation in next section). Thus a 1 mm zeolite diameter was used in the implementation and operation of the fluidized bed aerobic reactor. The statistical analysis performed, with the Minitab software package, on the amount of mass attached to the zeolite contained into each mini-reactor indicated that there are no significant differences between the three diameter values, as P = 0.325>0.05. Data differences were determined using oneway ANOVA. However, experience showed that notwithstanding similar in a statistical sense, the best adhesion was obtained for 1 mm diameter and therefore this was the chosen size to be employed in the reactor construction. 3.3. Tuning of the aerobic fluidized bed reactor As a general fact, one can conclude that the zeolite was a good support for microorganism population, in this case of nitrifying bacteria for the removal of nitrogen. That made it useful to be included in fluidized bed reactors. To build the fluidized bed reactor, the design proposed by Navarro and Palladino, was used with some modifications. First modification related to the employed microbial support [1]. There activated carbon support was used, with a density ranging from 0.3 to 0.7 g.cm-3. In this work, the zeolite used had a density of 2 g.cm-3, leading to a lower amount used in the reactor as compared to activated carbon. Therefore, the power of the diffusion pump was enough to overcome the gravitational forces acting on the particles to achieve the fluidization of the system entirely. As Navarro and Palladino showed [1], the volume of activated carbon is 50%, but in this study the optimal volume of zeolite is 8%.
3.2.4. Microbial adhesion Fig. 7 shows the behaviour of nitrifying bacteria adhesion on the zeolite support. Unlike both Volatile and Total Suspended Solids, there is an initial increasing trend of the adhesion, for the first days of the experiment, that finished on the eleventh day for the 1mm zeolite diameter of 1 mm and the thirteenth for 0.5 and 2 mm zeolite diameter, where maximum values were reached. Later (on the fourteenth day) and for the three cases, a decreasing behaviour was observed until curves reached a nearly constant value at the experiment end. The initial region of the adhesion increase, shown in Fig. 7, is associated with nitrifying bacteria growth due to the presence of nutrients in the synthetic liquid industrial waste. This growth extends until not enough zeolite interstitial 27
Pozo-Antonio / DYNA 81 (187), pp. 21-29. October, 2014. [3]
Table 6. Characterization of the output and input of the reactor.
Parameter pH TSS VSS CODTent CODTexit
Value 7.1 10250 mg.L-1 8920 mg.L-1 22020 mg.L-1 10050 mg.L-1
[4] [5]
Source: The author. [6]
In the Table 6, the parameters which were measured after 21 days of operation. If we compare Tables 4 and 6, we can observed that the pH is maintained constant during 21 days. The COD experimented an important decrease from 22020 to 10050 mg.L-1. As Navarro and Palladino [1] obtained, the biological degradation using this kind of aerobic fluidized bed reactor is acceptable; we have obtained a biological degradation of 50%.As they affirmed, with higher CODTent, the degradation efficiency is better.
[7] [8]
[9]
4. Conclusions [10]
The optimum crushing and sieving times for the zeolite was determined to be 10 min and 8 min, respectively. The sieving process to obtain the 1 mm diameter zeolite was shown to be the more efficient. There is not significant differences in the measured microbial adhesion for the three diameters (0.5, 1 and 2 mm), thus the zeolite diameter in this range is not a determining parameter to adhesion of nitrifying microorganism colonies. The treatment system of liquid effluents designed by Navarro and Palladino was tested, changing the activated carbon by zeolite as a microbial support. Results indicated an organic degradation of 50%. Microbial degradation is acceptable. In response to the experience, a constant control of the reactor is required to achieve a good oxygenation. The reactor, designed by Navarro and Palladino [1], has proven to be a well suited system for removing of ammonia nitrogen that is present in industrial waste liquids. In conclusion, operating with a feed rate of 1.35 mL.min-1 and a capacity of 8 L, with an organic load input of 22020 mg.L-1, a reduction efficiency of organic matter of 50% is achieved. The higher efficiencies correspond to low flow rates and high organic loads.
[11] [12]
[13]
[14] [15]
[16] [17]
[18]
Acknowledgments [19]
Author wants to give thanks to University of Vigo for the financial support given.
[20]
References [1] [2]
[21]
Navarro, A.F. and Palladino, L.A., Degradación de efluentes líquidos mediante lechos fluidizados. Información Tecnológica 20 (5), pp. 13-18, 2009. Abel, P.D., Water Pollution Biology. 2nd edition, Taylor & Francis Publishers, London. 2000.
[22]
28
Hitzfeld, B.C., Höger, S.J. and Dietrich, D.R., Cyanobacterial toxins: Removal during drinking water treatment and human risk assessment. Environ. Health Perspectives 108 (SUPPL.), p. 113-122, 2000. Van Dolah, R.F., Chestnut, D.E., Jones, J.D., Jutte, P.C., Riekerk, G., Levisen, M. and McDermott, W., Environmental Monitoring and Assessment 81, pp. 85-95, 2003. Newcombe, G., Chorus, I., Falconer, I. and Lin, T-F., Cyanobacteria: Impacts of climate change on occurrence, toxicity and water quality management. Water Research (Editorial) 46, pp. 1347-1348, 2012. Iosip, A., Dobon, A., Hortal, M. and Bobu, E., The influence of contaminants in the environmental impact of recovered paper: A life cycle assessment perspective. Int J Life Cycle Assess. 17, pp. 10501058, 2012. Karydis, M. and Kitsou, D., Eutrophication and environmental policy in the Mediterranean Sea: A review. Environ Monit Assess. 184, pp. 4931-4984, 2012. Caraballo, M.A., Macías, F., Rötting, T.S., Nieto, J.M. and Ayora, C., Long term remediation of highly polluted acid mine drainage: A suitable approach to restore the environmental quality of the Odiel river basin. Environmental Pollution 159, pp. 3613-3619, 2011. Palmer, S.C.J., van Hinsberg, V.J., McKenzie, J.M. and Yee, S., Characterization of acid river dilution and associated trace element behavior through hydrogeochemical modeling: A case of the Banyu Pahit River in East Java, Indonesia. Applied Geochemistry 26, pp. 1802-1810, 2011. Dos Santos, C., Bernusso, V.A., Sobreiro, H., Gaeta, E.L. and Fernandes, M.N., Biomarket responses as indication of contaminant effects in Orechromis niloticus. Chemosphere 89, pp. 60-69, 2012. Nystrand, M.I., Österholm, P., Nyberg, M.E. and Gustafsson, J.P., Metal speciation in rivers affected by enhanced soil erosion and acidity. Applied Geochemistry 27, pp. 906-916, 2012. Jardine, T.D., Kidd, K.A. and Rasmussen, J.B., Aquatic and terrestrial organic matter in the diet of stream consumers: implications for mercury bioaccumulation. Ecological Applications 22 (3), pp. 843-855, 2012. Mebane, C.A., Dillon, F.S. and Hennessy, D.P., Acute toxicity of cadmium, lead, zinc and their mixtures to stream-resident fish and invertebrates. Environmental Toxicology and Chemistry 31 (6), pp. 1334-1348, 2012. Fewtrell, L., Drinking-Water Nitrate, Methemoglobinemia and global burden of disease: A discussion. Enviromental Health Perspectives 112 (14), pp. 1371-1374, 2004. Kay, D., Bartram, J., Prüss, A., Ashbolt. N., Wyer, M.D., Fleisher, J.M., Fewtrell, L., Rogers, A. and Rees, G., Derivation of numerical values for the World Health Organizations guidelines for recreational waters. Water Research 38, pp. 1296-1304, 2004. Camargo, J.A., and Alonso, A., Ecological and toxicological effects of inorganic nitrogen pollution in aquatic ecosystems: A global assessment. Environmental International 32, pp. 831-849, 2006. Bertola, N., Palladino, L., Bevilacqua, A. and Zaritzky, N., Optimisation of the design parameters in an activated sludge system for the wastewater treatment of a potato processing plant. Journal of Food Engineering 40, pp. 27-33, 1999. Daims, H., Maixner, F. and Schmid, M.C., The Nitrifying microbes: Ammonia oxidizers, nitrite oxidizers and anaerobic ammonium oxidizers. In: Nielsen, P., Daims, H. and Lemmer, H. FISH Handbook for biological wastewater treatment: Identification and qualification of microorganism in activated sludge and biofilms by FISH. London, United Kingdom, Ed. IWA, 2009, pp. 9-17. Fernández-Polanco, F., Villaverde, S. and García, P.A., Temperature effect on nitrifying bacteria activity in biofilters: Activation and free ammonia inhibition. Water Sci Technol., 30 (11), pp. 121-130, 1994. Hanaki, K., Wantawin, C., Ohgaki, S. Nitrification at low levels of dissolved oxygen with and without organic loading in a suspendedgrowth reactor. Water Research 24 (3), pp. 297-302, 1990. Yang, W.C., Handbook of Fluidization and Fluid Particle System, Ed. by. CRC Press. N.Y. 2003. Shieh, W.K., Sutton P.M. and Kos P., Predicting reactor biomass concentration in a fluidized bed system, Journal WPCF:, 53 (11), pp. 1574-1684, 1981.
Pozo-Antonio / DYNA 81 (187), pp. 21-29. October, 2014. [23] Wang, X.C., Yuan, H.L., Liu Y.J. and. Jin, P.K., Fluidized pellet bed birreactor; a promising technology for onsite wastewater traetment and reuse, Water Science and Technology, 55, pp. 59-67, 2007. [24] Rajasimman, M. and Karthikeyan, C., Aerobic digestion of starch wastewater in a fluidized bed bioreactor with low density biomass support, Journal of Hazardous Materials, 143, pp. 82-86, 2007. [25] Nicolella, C., van Loosdrecht, M.C.M and Heijnen, J.J., Wastewater treatment whit particulate biofilm reactor, Journal of Biotechnology: 80, pp. 1-33, 2000. [26] Gómez, C. y Lopera, E., Evaluación experimental de las velocidades mínimas de fluidización para mezclas de carbón ripio y residuos agrícolas Colombianos, DYNA (Colombia), 78 (169), pp. 105-112, 2011. [27] Perry R.H. and Green, D., Perry´s Chemical Engineering Handbook, 7th edición, Sec. 25, McGraw Hill Companies, Inc. United State of America, pp. 75 – 76, 1999. [28] Palm, J.C., Jenkins, D. and Parker, D.S., Relationship between organic loading, dissolved oxygen concentration and sludge settleability in the completely-mixed activated sluge process, Journal of the Water Pollution Control Federation 52, pp. 2484-2506, 1980. [29] Gerardi, M., Nitrification and denitrification in the activated sludge process. Wiley- Interscience, New York, 2002. [30] Sharma, B. and Ahlert, R.C., Nitrification and nitrogen removal. Water Research 11, pp. 897-925, 1977. [31] Anthonisen, A.C., Loehr, R.C., Prakasam, T.B.S. and Srinath, E.G., Inhibition of nitrification by ammonia and nitrous acid, Journal of the Water Pollution Control Federation 48 (5), pp. 835-852, 1976. [32] Garrido, J.M., Nitrification and denitrification of wastewater with high concentrations of formaldehyde and urea. PhD dissertation, Santiago de Compostela University, Spain, 1996. [33] Cunningham, A.B., Bouwer, E.J. and Characklis, W.G., Biofilms in porous media. In: Biofilms. Characklis, W.G. and Marshall, K.C. eds. Wiley and Sons, New York, 1990. [34] García, C.D. and Buffiere, P., Anaerobic digestion of wine distillery wastewater in Down-Flown fluidized Bed. Elsevier Science 38, pp. 3593-3600, 1998. [35] Messing, R.A. and Oppermann, R.A., Pore dimensions for accumulating biomass. I Microbes that reproduce by fission or by budding. Biotechnology Bioeng 21, pp. 49-58, 1979. [36] Dal Pozzo, L.A., Design of a joint-reactor for nitrificacióndenitrificaction biological. PhD dissertion, Federico Santa María University, Chile, 1999. [37] American Public Health Association, Standard Methods for the Examination of Water and Watewater. Water Environment Federation, Washington, DC. 1998. [38] Arnold, E.G., Lenores, S.C., Andrew, D.E. Standard Methods for the Examination of Water and Watewater. American Public Health Association. Washington, DC. 1992. [39] Muñoz, M.A., Construction of a joint-reactor of nitrificationdenitrification. Degree dissertation, Federico Santa María University, Chile, 2006. S. Pozo-Antonio, received a Bs. Eng. in Mining in 2009, a MSc. degree in Environmental Technology in 2010, and his PhD. degree in Environmental Technology in 2013, all of them from the University of Vigo, España. From 2010 to 2013, he worked in the Department of Natural Resources Engineering and Environment in University of Vigo in several projects related with mining and Conservation and Restoration of Built Heritage. From 2013-2014 he got an internship in Getty Conservation Institute in Los Angeles (USA). His research interests include: cultural built heritage, mining techniques, landscape management and landscape assessment.
29
Characterization of the supply and value chains of Colombian cocoa Rafael G. García-Cáceres a, Alejandra Perdomo b, Oscar Ortiz c, Paulina Beltrán d & Karen López e b
a Escuela Colombiana de Ingeniería “Julio Garavito”, Colombia, rafael.garcia@escuelaing.edu.co Department of Industrial Engineering, Pontificia Universidad Javeriana, Bogotá, Colombia perdomo-maria@javeriana.edu.co c Industrial Engineering School, Universidad de Pamplona, Colombia, oscarortiz@unipamplona.edu.co d Department of Industrial Engineering, Instituto Tecnológico de los Mochis, Sinaloa, Mexico e Department of Industrial Engineering, Instituto Tecnológico de los Mochis, Sinaloa, Mexico
Received: August 13th, 2013. Received in revised form: April 12th, 2014. Accepted: June 27th, 2014.
Abstract This paper introduces the supply and value chains of the Colombian cocoa agribusiness. For such purpose, we have identified not only the agents, phases, stages and factors influencing the planting and harvesting of the product, but also the chocolate and confection production process, as well as the final consumption. Finally, the national production is described in the context provided by the international market. Keywords: value chain, supply chain, cocoa agribusiness.
Caracterización de las cadenas de abastecimiento y valor del cacao en Colombia Resumen El presente artículo presenta la cadena de abastecimiento y de valor del sector agroindustrial cacaotero en Colombia. Para ello identifica los agentes, fases, eslabones y factores que influyen en la siembra y cosecha del grano, así como en el procesamiento del mismo hacia la producción de chocolates y confites, hasta llegar a las manos del consumidor final. Igualmente, se describe la producción nacional en el contexto del mercado mundial. Palabras clave: cadena de valor, cadena de abastecimiento, agroindustria del cacao.
1. Introduction As a basic contribution to the development of the cocoa sector, the current paper is aimed at characterizing the supply chain (SC) and value chain (VC) of this commodity. This type of characterization allows companies to identify the value added by a given unit or function, in order to satisfy customer needs. Framed in the search for competitiveness, value is the amount that the customer is willing to pay for a product or service supplied by a company. Based on previous developments of the concept [1], the definition of VC proposed in this work highlights the fact that SC dynamics integrates several companies, together with their activities and interrelations. The SC comprises all activities involved in the flow and transformation of goods, from raw materials to final consumers, including information flow [2, 3]. In this work, “Supply Chain Management is defined as the systematic, strategic and tactical coordination of traditional company
interactive functions aimed at improving the individual performance of organizations within the chain as a whole” (ibid). Colombia has been making sustained progress in agribusiness chains such as those of sugar and confections, coffee and instant products, milk and dairy products, meat and derivatives, oils and oleaginous materials, cereals, poultry and pig farming, among others; all of which has had a significant overall impact on exports. Taken together, agriculture and agroforestry are ranked fifth in the Colombian economy, thus constituting one of its most important sectors, contributing 9% of the Gross Domestic Product (GDP), 21% of total exports in the sector, 19% of its employment at the national level and 66% in rural areas [4]. During the 2004 – 2009 period, this sector’s GDP grew by 2.3% real annual average, reaching levels of 3.9% in 2006 and 2007. This favorable behavior is explained both by a rise in exports (from three to six thousand million US$ between 2004 and 2009) and an expansion of the internal
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 30-40. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.39555
García-Cáceres et al / DYNA 81 (187), pp. 30-40. October, 2014.
market [5]. In addition, the Cocoa Market Review 2012 foresees a 100,000 tonne deficit, the satisfaction of which constitutes a good business opportunity. The importance of this supply chain in Colombia lies on its economic and social impact, since cocoa (Theobroma cacao L.) is grown by approximately 25,000 families, 90% of production being carried out by smallholders [4]. Yet, the export potential is just marginal, as far it is only accounted for by the few producers that are able to fulfill certification requirements such as those of Good Agricultural Practices (GAP) and Rainforest Alliance, among others. The 2012 2021 National Cocoa Plan [4] contemplates the modernization of 130 thousand hectares by a transition in which the old and less productive plants are substituted by the so called clones in order to guarantee the productivity of world quality cocoa. In general, the efforts of the farmers, the National Government and international agribusiness development entities have made cocoa a good alternative for illegal crop substitution. Therefore, the current paper is structured as follows. First, a literature review is presented, followed by the identification of the agents and interactions involved in this chain and of the product flow and value adding processes at each step. Finally, upon discussing the data, we draw conclusions and highlight future challenges. The particular value of the current contribution lies on its contextualizing the gray literature on the topic, complemented by information obtained through interviews with different agents of the SC.
Table 1. Summary of works dealing with Colombian agribusiness SCs Reference Methodology [15]
Based on [16] and [17], agents, associated product flow and their interactions are defined. [18] Based on [19], this work characterizes relationships within the supply chain through its central logistic functions: Procurement – Production – Distribution, which are performed by its different actors. [20], [21] Based on methodology by [18], these works are featured by: and [22] 1. Identification of quantitative and qualitative variables affecting the SC. 2. Identification of decisions featuring SCs in general and specifically agribusiness SCs. 3. Description of the oil palm SC phases and of the cropping, harvest, transport, storage and stocking processes. [23] Methodology is based on defining SC phases according to the stages of the productive process, namely the primary, trading and industrial ones. [24] This method consists not only in identifying the network of socio-economic actors that interact to take cocoa intermediate industrial products to international markets, but also in determining the phases of this productive chain. Source: The authors
In turn, [13] take an Activity-Based-Cost (ABC) approach to Supply Chain Management (SCM), taking into consideration monetary expense and value appreciation on the part of the client, and proposing production volume improvements according to costs, by identifying value adding activities and eliminating those that reduce or do not add any value to the process. Featuring a cause-effect relation between costs and demand, this approach is based on identifying those processes that promote a better performance in the organization, thus allowing a complete control of production and manufacturing costs and of the company’s general expenses. In the study conducted by [14], time is considered to be a SC performance measure that allows the identification of those activities which do not generate any value within the chain, together with their associated costs, finally integrated into the total costs of the system. This facilitates identifying the relation between time and cost within SC processes, as well as the adequate combination of both parameters when it comes to decision-making. As to SC characterization [15,18, 20–22] it has been mainly oriented to agribusiness, namely biodiesel, oil palm upstream and middlestream phases and, specifically regarding cocoa, the performance of its different SCs from 2003 to 2012 (Table 1). In addition, we researched general market aspects and the position of Colombia in the international context.
2. Background A series of different standpoints, namely strategic [6] marketing [7], and supply chain management [8] have clearly recognized how the competitive development of organizations is strongly affected by the way they interact to exchange goods and services. In this sense, the supply chain structure has a two-fold effect, comprising both cost reduction [9, 10] and generation of added value [10]. The work of [11] focuses on the cost performance of the SC, taking into account final customer delivery times under a centralized administration and integrating the performance level of the SC into its quality management processes. For its part, the contribution of [12] analyzes the modularization of the SC’s processes, which allows increased flexibility. This is usually done when very similar products change their form after assembly, or when the chain incorporates outsourcing and postponement, which means that the products differentiate more and more as they approach the final consumer. This allows reducing uncertainty in the predictions about the operation of the chain, thus improving the overall performance of the company. These authors state that low input modularization levels are associated to vertically integrated supply chains; while the opposite case corresponds to SCs with elevated levels of decentralization through outsourcing. On the other hand, elevated output postponement indicates a make-toorder SC environment in which the products differentiate towards the last stages of the process; whereas low postponement levels identify a make-to-stock environment in which demand satisfaction is guaranteed through abundant inventories.
3. Methodology Inspired by Stone [16,17], we followed the methodology detailed in [15-22, 18], which is apparently the only one developed so far to characterize SCs. It has been frequently used in agribusiness SCs such as those of coffee and oil palm, which facilitates future comparisons between Colombian agribusiness SCs. Hence, the method in question comprises the following steps: 0. Providing the local and global contexts of the studied SC. 1. Determining and describing its links and 31
García-Cáceres et al / DYNA 81 (187), pp. 30-40. October, 2014.
stages. 2. Describing the value added by the chain’s agents and links. 3. Describing performance specificities. 4. Diagnose and conclusion about the SC. This methodology does not include data collection specific procedures, which is understandable if we take into account that SC characterization requires both primary and secondary information that, in turn, demands a broad and diverse series of procedures. In the current work we maximized the information available in the literature, which we complemented with primary information obtained through 29 interviews with key actors of the SC, namely personnel from FEDECACAO, cocoa growers, and agents from the chocolate industry, among others. The interviewed organizations are detailed under “acknowledgments”.
Table 3. Cocoa production zones Cocoa production National production Production (tons) zones (%) Santander 47.8 17,272.1 Norte de Santander 3.7 1,338.57 Antioquia 5.6 2,029.68 Nariño 5 1,795.38 Arauca 11 3,967.42 Huila 8.3 3,009.01 Caldas 1.3 491.37 Cundinamarca 1.5 550.73 Valle 1.3 451.78 Tolima 5.7 2,059.32 Meta 1. 9 676.36 Cesar 2.4 881.91 Risaralda 0.7 237.94 Others 3.8 1,356.53 Source: Federación Nacional de Cacaoteros. FEDECACAO, 2007, [26]
3.1. Global and national markets The International Cocoa Organization presents statistical data on the major cocoa importing and exporting countries along a yearly production cycle which, in Colombia, goes from October 1st to September 30 [25]. Cocoa is mainly cultivated in Western Africa, Central America, South America and Asia. Colombia is the fourth Latin American producer after Brazil, Ecuador and the Dominican Republic, as it can be seen in the following Table 2. Currently, Colombian cocoa plantations cover an area of 147,000 ha with a domestic production of 36,118.10 tonnes harvested from common, hybrid and cloned trees. As it can be observed in Table 3, the department of Santander accounts for half the national production (mainly through common germplasm), while the rest is broadly distributed over the country.
Cocoa production in Colombia is generally featured by several decade old, hybrid material plantations with low planting densities (600 to 700 trees per hectare) [27] and low technological levels, all of which considerably hampers productivity and competitiveness (Ministry of Agriculture and Rural Development - MADR, 2010). CORPOICA, FEDECACAO and the MADR [28] conducted a zoning study on land suitability for cocoa cropping, which estimated that in Colombia there are 2 million ha very suitable for cocoa production (2003). Of this area, 662,669 ha have no restrictions (they do not require any soil adjustment for cultivation) and 1.3 million present moderate restrictions.
Table 2. Cocoa world production.
Table 4. Cocoa clones recommended for the different Colombian agro-ecological zones RECOMMENDED CLONES BY AGRO-ECOLOGICAL ZONES Nº Clones TRF DIV AZ MS 1 THS-565 X X X X 2 ICS-1 X X X X 3 ICS-39 X X X 4 ICS-40 X X 5 ICS-60 X X X X 6 ICS-95 X X X X 7 IMC-67 X X X X 8 MON-1 X 9 TSA-644 X X 10 EET-8 X 11 EET-96 X 12 EET-400 X 13 CCN-51 X X X X 14 CAP-34 X 15 UF-613 X 16 FLE-3 X 17 SCC-61 X 18 FSA-11 X 19 FSA-12 X 20 FAR-5 X 21 FTA-1 X 22 FTA-2 X MS: Mountains of Santander, TRF: Tropical Rain Forest, DIV: Dry Interandean Valley, AZ: Andean Zone or Low marginal coffee zone: Great Caldas, Southwestern Antioquia and Northern Tolima. Source: Pinzón-Useche & Rojas-Ardila, 2007, [29]
Cocoa bean production by countries (2005/2010)
2005/06
2006/07
2007/08
2008/09
2009/10
20052010 Average
Ivory coast
1,407.8
1,229.3
1,382.4
1,223.2
1,190
1,286.54
2
Ghana
740.5
614.5
729
662.4
645
678.28
3
Nigeria
210
220
230
250
260
234
4
Other countries
Thousands of tons No. 1
Total Africa:
297
302.6
351.3
384.6
374
341.9
2,655.3
2,366.4
2,692.7
2,520.2
2,469
2,540.72
1
Brazil
161.6
126.2
170.5
157
150
153.06
2
Ecuador
117.5
123.5
27.5
130
140
107.7
3
Dominican Republic
45.9
42.2
45.3
55
55
48.68
4
Colombia
36.8
29.6
27.4
35.5
40.5
33.96
5
Other countries
99.4
101.1
94.5
105.4
104.8
101.04
461.2
422.6
365.2
482.9
490.3
444.44
585
545
485
490
525
526
51.1
49.3
51.5
51
57
51.98
Total America: 1
Indonesia
New Guinea Other 3 countries Total Asia and Oceania: 2
WORLDWIDE TOTAL:
58.1
56
54.3
48.5
47
52.78
694.2
650.3
590.8
589.5
629
630.76
3,810.7
3,439.3
3,648.7
3,592.6
3,588
3,615.92
Source: International Cocoa Organization, 2012, [25] 32
GarcĂa-CĂĄceres et al / DYNA 81 (187), pp. 30-40. October, 2014.
through the aging of plantations in the most suitable areas, thus determining the need to import the product in order to supply local market requirements. This situation takes place in spite of the availability of adequate clones (Table 4), and probably due to lack of adequate promotion strategies.
A recent study on the cocoa SC [23] reports that the Colombian production is completely absorbed by the national chocolate industry, which pays lower prices than international markets. Nevertheless, this industry has had to import part of their raw material because the national production has been decreasing lately, mainly because of a) low grain local price, which leads the farmers to quit plantation improvement processes and simply assume a harvesting attitude; and b) the growing attack of the crop by pests and diseases, in turn associated with poorly trained personnel in charge of technology transfer, finally resulting in the hindrance of necessary productive increases. Productivity drop is expressed through lesser yields in areas where the crop has not been traditionally grown and
3.2.
Characterization of the Colombian cocoa supply chain
Cocoa beans are the major raw material for the confectionery, chocolate, cosmetic and pharmaceutical industries. The characterization of this SC goes from agricultural supply providers to final consumers [28].
Figure 1. Characterization of the Colombian cocoa supply chain. Source: Castellanos, et al, 2007, [28]
factories. Finally, the Downstream phase covers the industrial processing of the beans to obtain liquors, pasta, cocoa butter, cocoa powder, and chocolates and confections containing chocolate, all of which is carried out by the cocoa processing and chocolate industries, as well as by those producing confections containing chocolate. Fig. 2 illustrates the cocoa SC from cropping to final consumption.
According to its industrial process, this SC is divided in three phases: Upstream, Middlestream and Downstream. Comprising plantation set up, maintenance and harvest, the Upstream phase groups all farmers, land owners and supply manufacturers. Middlestream consists in grain commercialization both at the national and international levels, from the moment it is bought by wholesalers to its selling to the
Figure 2. Links of the cocoa supply chain Source: Source: Adapted from Espinal, et al, 2005, [23]
undergo a post-harvest process known as beneficio, after which they are ready to be commercialized for industrial transformation purposes that depend on market needs. The stages of the upstream phase are detailed in Table 5:
3.2.1. Upstream After harvest, which is carried out with pruning scissors, the cocoa beans are extracted from the pod, which is commonly known as mazorca in Colombia. Next, the beans 33
García-Cáceres et al / DYNA 81 (187), pp. 30-40. October, 2014. Table 5. Upstream stages DESCRIPTION STAGES Optimum crop growth soil conditions should be sought. A Land selection: series of factors must be taken into consideration, namely
climate (temperature should range between 22 and 30 °C; precipitation between 1,500 and 2,500 mm well distributed along the year so as to guarantee a minimum of 120 mm per month), altitude (up to 1,200 m. asl), and the following physical and chemical soil properties: deep loose conditions, good water drainage and retention, and adequate Potassium (K), Phosphorus (P), Nitrogen (N), Magnesium (Mg), Calcium (Ca), Sulphur (S), Zinc (Zn), Nickel (Ni), Cobalt (Co), Boron (Bo), Iron (Fe) and Molybdenum (Mo) levels[30].
Harvest:
Shelling:
Once opened, the pods are scooped out in order to get the seeds and take them to the post-harvest process.
Table 6 details the steps of the post-harvest process. Table 6. Post-harvest process steps STAGES DESCRIPTION Fermentation: This step confers the product its characteristic taste and
accompanying shade trees. The residues of this vegetation should ideally be decomposed in situ, since they improve soil quality. Next, the cocoa plant sites (and then the shade tree ones) are preliminarily located by stabbing “witness” sticks in a triangular pattern to provide uniform spacing between trees. Usually planted first, the shade trees take approximately six months to grow, during which parallel nursery processes are conducted, namely cocoa seed sowing and plantlet protection against pests and diseases. Each seed is put into a plastic bag, planted at a three cm depth, and then covered with at least two cm of soil. Both the underneath and covering substrates must be watered and fertilized. There, the plantlets must remain under strict surveillance since the moment of seed sowing and until their transplant to the field [30]. While the shade trees are growing in the field, the holes for the cocoa plants must be dug (reaching dimensions of approximately 40 by 40 cm) [30] and amended with one pound of organic manure. The cocoa tree starts producing by the age of 24 months, during which the farmer obtains income from transitory crops such as cassava or plantain.
Pest and disease control:
The pods are initially separated in groups, leaving aside those that are not at the adequate ripening point, as well as the diseased ones, which are destroyed and buried in the field. The resulting fruit piles are placed in a plot in the field to render an easier splitting later on, which can be carried out manually or mechanically. The fruit shells are also piled up for them to undergo decomposition and turn into organic fertilizer, which is later applied to the plantation.
Source: The authors
This process starts by clearing up the plot from preexisting Soil preparation: vegetation, which shall be replaced by the cocoa and
Weeding and pruning:
Pod opening:
aroma. The grains are stored in a ventilated place and covered with leaves for five days, which allows bacteria and yeasts to grow on the grain. When this process fails, ordinary cocoa is obtained. Well fermented cocoa is featured by a swollen, dark brown, easily breakable bean releasing a pleasant aroma and offering a bitter taste. During fermentation, the beans must be put in wooden boxes with lateral and bottom holes (at 10 to 15 centimeters above the ground) to allow the resulting liquids an easy drainage. These boxes should be kept in a sheltered and warm place protected from cold breeze. This warm, constant temperature is essential to guarantee a complete and uniform fermentation process [30].
The rooted area around the growing cocoa trees has to be protected from weeds for a period of two years, after which the first pods are obtained. Both these and the shade trees must undergo formation pruning to prevent not only inadequate crown orientation or shaping, but also the covering of the crop by the shade trees, which results in delayed growth. Pruning must be done twice a year. The first one is the main pruning, while the second one is known as central pruning. Both processes start with the highest branches, which are followed by the lateral ones; then, this stages antecedes the culling of remnants.
Washing:
Although fermentation usually eliminates all fruit pulp, the beans must be washed to eliminate any possible remnant.
Drying:
During this step, the product loses any moisture excess. It can be carried out by exposing the beans to sunlight on structures such as drying greenhouses, “cocoa houses”, or simply drying yards. Just as well, it can be done artificially in mechanical stoves or dryers which pass a warm air current through the cocoa mass.
Selection:
This process eliminates impurities such as soil particles and moldy or broken beans, among others. It can be done manually or by passing the grain through a series of sieves while blowing hot air to eliminate the residues.
Source: The authors
The most common insect plague is Monalonion dissimulatum, whose attack on the cocoa fruit is associated to excessive shading and is controlled manually or chemically. Witches' broom disease and frosty pod rot, caused by Moniliophthora perniciosa and Moniliophthora roreri, respectively, are the most common diseases attacking cocoa. For this reason, farmers ought to check the plantation and remove the damaged pods once a week. Twice a year, they clean the trees from the parts affected by the witches' broom disease. It is worth noting that these are lifelong controls.
3.2.2. Middlestream This phase includes the commercialization of the product from wholesalers to commission agents, who act as quality inspectors by checking the grain for its necessary aroma, color and moisture. The minimum trading cocoa qualifications have been established by Colombian Technical Norm 1252 (Norma Técnica Colombiana – NTC 1252). Cocoa commercialization is carried out among associations of farmers, wholesalers, commission agents (who trade at the national level) and exporters. Exports depend on whether there is an internal market surplus and on attractive international prices. Seventy five percent of the national cocoa production goes to the cocoa processing and chocolate and confectionery industries; the remaining 25% is absorbed by small drinking chocolate manufacturers [31]. Wholesalers operate in local towns, where they have direct contact with farmers and frequently sell the product
The gathering process only takes into account ripe and healthy (i.e., disease free) fruits, which are identified through variety specific external color and appearance and must be cut from the tree with pruning scissors (never plucked down). The main flowering period takes place between June and July, while the second flowering, which is less abundant, corresponds to September and October. Fruit ripening takes from four to six months, depending on altitude and temperature. Hence, the first harvest takes place from October to November, while the second one comes between March and April. Fruit gathering can be done on a weekly basis, depending on available labor. As to disease control, a disinfectant is applied on the fruit pedicel after it has been cut. The harvesting tools are also disinfected when the process moves from one tree to another [30].
34
GarcĂa-CĂĄceres et al / DYNA 81 (187), pp. 30-40. October, 2014.
they get to commission agents [23]. This product has low quality, since it is stored with other merchandise goods for prolonged periods. The price is fixed according to moisture and spoiled bean content. Wholesalers frequently omit applying NTC 1252 because the elevated national demand currently leads them to stock huge amounts of product at the expense of quality, thus paying the same for different product qualities. In face of this, many farmers dismiss complete fermentation in wooden boxes, instead resorting to grain fermentation in plastic fiber bags. The commercialization of this product, which is known as cacao en baba (pulpy cocoa), has a negative effect on grain quality.
Table 7. Middlestream transformation stages. Grinding and pressing The cocoa beans are This It is intended to During this roasted to enhance process, neutralize the process, the chocolate taste and which is acids that beans are aroma. During this carried out might be ground to process, cocoa loses by contained in the obtain cocoa moisture excess. It is machines, bean, in order liquor, which worth noting that removes to prevent any is then different bean types the bean negative effect pressed to require specific time shell, they may have separate and temperature leaving on chocolate cocoa butter combinations. only the quality. from a solid seeds. mass known Source: Prepared by the authors based on Proexport, 2012, [4]. Roasting
Threshing
Alkalinization
Figure 3: Manufacturing process of basic cocoa products Source: The authors
for powdered cocoa or drinking chocolate.
Representing the cocoa processing companies, commission agents operate in small towns, where they purchase and stock huge amounts of beans. The price they pay depends on bean size, number of grains in 100 grams, fermentation degree, moisture, impurities, spoiled bean content and presence of plagues. They usually receive bonuses for their purchase work from the companies they represent. When the commission agent is too far from the factory, the beans are sold to wholesalers [23]. Both wholesalers and commission agents sell the purchased product to the processing industry. The national market is under the influence of two economic signals, namely importing and exporting bean prices [27]. Regulation: cocoa regulation is assumed by entities taking action in both internal and external markets. The objective pursued by these organisms is to promote product consumption and regulate its price, offer and demand. Within the Middlestream phase, Table 7 presents the most value adding processes of the cocoa SC, namely the transformation ones, which are carried out by the trading and processing companies. After these processes, the resulting products split the SC: cocoa butter goes to chocolate, ice-cream, cosmetic and pharmaceutical production; while cocoa cake is employed
3.2.3. Downstream This phase comprises the manufacturing and trading of the different final products obtained from the cocoa basic products resulting from the previous phase (Fig. 3). In the International Standard Industrial Classification of all Economic Activities (ISIC), the two sub-sectors involved in this part of the SC are: 31191: manufacturing of chocolates and cocoa derivatives. 31192: manufacturing of chocolate confections. The processing industry does the roasting, shelling and grinding of the grain [23]. An important portion of the resulting cocoa liquor goes to chocolate production. Drinking chocolate elaboration constitutes a lesser value adding process in which ground cocoa is mixed with sugar. For its part, the chocolate confectionery and covering industry mixes cocoa liquor with sugar, milk and cocoa butter. The cocoa liquor that is not employed in either of these processes is filtered to separate cocoa cake, which is solid, from cocoa butter, which is liquid. Cocoa cake is pulverized to obtain powdered cocoa, while cocoa butter is centrifuged, crystallized, molded and packed. 35
García-Cáceres et al / DYNA 81 (187), pp. 30-40. October, 2014. Table 8 Chocolate Types Chocolate Types
The great variety of existing chocolate products results from the various ingredients that are combined with four basic raw materials differentiated by their cocoa content (Table 8). Both at the local and global levels, the stages of the cocoa SC differentiate through the activities, processes and market types they involve. At the national level, this chain comprises agricultural production, post-harvest processing, industrial transformation and end point commercialization of the manufactured goods. The agents of the VC are presented next.
Description
Black chocolate Milk chocolate
Consists in cocoa cream with sugar, containing up to 70% cocoa Corresponds to black chocolate mixed with condensed or powdered milk White A mix of milk, sugar and cocoa butter, owing its color to chocolate the lack of roasted cocoa grain Liquid In which cocoa butter has been replaced with vegetable chocolate oil to keep a liquid mix; it is usually employed for baking [32]. In the lines that follow, we will present a general perspective of the different stages of the chain. Source: The authors
Figure 4. Characterization of the Colombian cocoa value chain. Source: The authors
Table 10 Regulatory and development entities of the Colombian cocoa supply chain Entities Role A national private law, non-profit guild association grouping those cocoa growers operating in the country Fedecacao: who have manifested their intention to be part of it. A non-profit business associative organization made up Ecocacao of farmer families and people related to this SC at (cooperative different phases. Its main objective is the economic association): progress of its associates, for which purpose it delivers i i f i l l d opened l Non-profit agricultural organization to all cocoa Aprocasur: growers without any racial, religious or political These are regional not-for-profit private agricultural Local and companies associated to the two first links of the chain. For example, Asocati, located the municipality of Tibú, regional Norte de Santander, gathers cocoa bean producers and associations: traders.
3.3. Description of the local supply chain 3.3.1. Non-regulatory entities Table 9 shows the Non-regulatory entities of the local SC: 3.3.2. Regulatory and development entities These are guild and government institutions intended to provide technical or financial support to cocoa growers in order to promote and regulate the issues related to this commodity. The Colombian organizations in this category are introduced in Table 10. Table 9 Non-regulatory entities of the Colombian cocoa supply chain Entities Role Suppliers:
They provide cocoa growers with agricultural supplies such as tools, fertilizers, financial, technological and transportation services, etc.
National growers:
Supplying the chain with the cocoa grain.
Warehouses:
Commission agents:
National industry:
Finagro:
Purchasing and stocking cocoa beans in order to sell them to the commission agents. Corresponding to cocoa grower cooperatives, guilds, and individual farmers, they are responsible for cocoa harvest purchase, distribution and selling. It responds for cocoa grain processing into several products like chocolate and cocoa powder and butter, among others.
The Fund for the Financial Support of the Agricultural Sector (Fondo para el Financiamiento del sector Agropecuario) was created through Law 1 of 1990 to respond to the call for an Agricultural Credit National System. It is an autonomous specialized institution in charge of managing credit resources which are scattered in several entities. Finagro is a complementary variant of the macro-economic policy of the Board of Directors of the Bank of the Republic (Banco de la República).
A public, non-centralized entity with a private law regime. It is in charge of generating scientific knowledge and technological solutions not only through Corpoica: research, innovation and technology transfer, but also through researcher training activities benefiting the Colombian agricultural sector. Source: The authors
Source: The authors 36
García-Cáceres et al / DYNA 81 (187), pp. 30-40. October, 2014.
Cocoa growing in Colombia is featured by abandonment and recovery of the plantation by the farmer. The reason for this are prolonged periods of unfavorable prices resulting in no income for the farmer, who finds it difficult to invest in crop maintenance. As a result, plantations receive only minimum or simply no attention. This leads to cycles of low national production and, consequently, to the importation of this commodity by the processing industry. The presence of wholesalers in towns and country settlements comes to be a Colombian specific feature, inasmuch as they operate as credit agents for the farmers, who finally pay their debts with coming production. Government strategies intended for value adding, in situ processing of the grain (i.e., local agribusiness activity) should be implemented and evaluated. Such a strategy would not only strengthen cooperation and association among cocoa growers in the municipalities that concentrate production, but also improve, by adding value, the quality of life of the farmers and their families, who, after all, constitute the main agents of the cocoa-chocolate chain in Colombia. From an economic standpoint, upstream is the most vulnerable phase, but also the one that produces the strongest social impact. The government should ideally develop downstream strategies, labor unions and business initiatives, which would position the brand “Colombia” as an icon of quality culture and first-rate production. For such purpose, it is important to implement in situ transformation processes and local performance controls and evaluations so as to strengthen cooperation and partnership between farmers in cocoa producing municipalities. This is likely to bring about a series of advantages: a) balanced production across regions at the national level, thus opening the possibility of a common front negotiation before the chocolate industry; b) value added increase throughout the chain, thus enhancing the quality of raw materials and final products and optimizing final prices; c) improved life quality of the cocoa growing families, thus advancing this activity as an effective alternative against the proliferation of illegal crops; and d) product and process innovation, which confers international prestige to the middlestream and downstream phases. According to the latest Cocoa World Conference [33], greater cooperation is necessary among all actors in the chain in order to foster sustainability. Those efforts that help growers perceive more benefits from the wealth generated by the chain are likely to improve their quality of life, especially when children are involved. As well, it is important to move towards a more innovative, qualified, clean and environmentally friendly chain also taking food security, biodiversity and conservation of existing ecosystems into account. In this sense, Nutresa, a food industry trust operating in the department of Antioquia and its surroundings, has been conducting an important effort through which they supply cocoa growers with cropping resources from a specific fund for such purpose, without claiming any property on the farmers’ lands. This is not only a more egalitarian way of sharing risks and benefits with all chain links, but also a value adding strategy for stakeholders.
3.4. Considerations about information and material flow Regarding the flow of materials, Colombian logistics is considered to be one of the most important limitations for SC competitiveness due to its considerable dependence on road transportation, the latter being particularly sensitive to climate change which, in turn, produces a stronger impact in tropical countries. In addition, the Colombian public servants in charge of transport infrastructure and maintenance are constantly criticized. The Colombian cocoa SC is oriented to the local market. In this respect, during upstream and middlestream, materials are transported along a variety of roads that go from the farms themselves through country paths to tertiary and secondary roads, most of which are unsurfaced, thus bringing about costly technical difficulties that affect both farmers and traders. During downstream, transport is done along primary roads, where productivity is significantly improved, although it is far from the standards of the competing countries in the region. For its part, information flow might constitute a larger difficulty because lack of communication and redundant flows take a considerable tall on upstream (and especially downstream) product quality and profitability as a consequence of middlestream expansion, which is basically devoted to transport and has created an unnecessary commercial link with speculative hues. Upstream and downstream are the most value-adding stages within the chain. Yet, a more thorough communication between them is necessary to guarantee profit quality and equality, which are considerably precarious for the upstream stage, thus urgently calling for price improvement. 4. Analysis of results In the lines that follow we synthesize the fieldwork employed to confirm information and identify the sector’s problems. This activity was carried out in plantations of the departments of Santander and Norte de Santander, where we researched cocoa cropping and commercial details; and in FEDECACAO (Bogota), where we conducted meetings with guild leaders about specific features and competitiveness of this SC. Cocoa cultivation in Colombia has comparative advantages arising from favorable natural conditions for production determined by climate, humidity and environmental conservation due to agroforestry. Development agencies of the cocoa sector can take advantage of these conditions to develop strategies for future grain exports. However, most lands are located on sloppy areas that prevent mechanized work and make cultivation excessively labor demanding, thus raising logistic costs and hindering productivity and profitability. An important part of cocoa production is classified as fine flavor cocoa, which is mainly used for the production of high-quality chocolates. But unlike the commercial policy of other countries such as Ecuador, there has been no proper promotion of the brand “Colombia” in terms of developing a quality culture among cocoa farmers. Sustainability strategies are required to achieve this goal. 37
García-Cáceres et al / DYNA 81 (187), pp. 30-40. October, 2014.
work has been fully funded by the Administrative Department of Science, Technology, and Innovation (COLCIENCIAS) of Colombia, Inter-American Development Bank (IDB) and World Bank (WB) BIRF, Project Reference 0371- 2012. We express our gratitude to agronomic engineer Joshua Rangel for helpful collaboration in the development of this work. Just as well, we want to thank several agents of the Colombian cocoa supply chain for their contributions to our understanding of the sector’s condition and troubleshooting, as listed below: · Santa Isabel farm, locality of Llana Fría, municipality of San Vicente de Chucurí, Santander. · El Placer farm, locality of Hojarasco, municipality of El Carmen de Chucurí, Santander. · Venecia farm, locality of Palmira, municipality of San Vicente de Chucurí, Santander. · Los Samanes farm, locality of San Nicolás Bajo, municipality of Lebrija, Santander. · Lomalinda farm, locality of Honduras Bajo, municipality of Rionegro, Santander. · Santa Inés farm, locality of El Quinal Alto, municipality of El Carmen, Santander. · Parcela 4 farm, locality of Manzanares, municipality of El Tarra, Norte de Santander. · Sabanalarga farm, locality of La Perla, municipality of Tibú, Norte de Santander. · El Porvenir farm, locality of La Miel, municipality of Sardinata, Norte de Santander. · La Siberia farm, Locality of Nueva Frontera, municipality of Cúcuta, Norte de Sder. · La Fortuna farm, locality of Caño Victoria, municipality of Tibú, Norte de Santander. · Parcela 2 farm "Luz de la Verdad", locality of Caño Victoria, municipality of Tibú, Norte de Santander. · Parcela 7 farm, locality of Venecia, municipality of Tibú, Norte de Santander. · San Antonio farm, locality of La Fortuna, municipality of Sardinata, Norte de Santander. · El Diamante farm, locality of Bellavista, municipality of Sardinata, Norte de Santander. · Hogar Juvenil Campesino (Youth Farming Project), locality of El Caimán, municipality of Teorama, Norte de Santander. · Las Marías farm, locality of Vijagual, municipality of Teorama, Norte de Santander. · La Trinidad farm, locality of Nueva Victoria, municipality of Cúcuta, Norte de Sder. · Sincelejo farm, locality of Venecia Guamalito, municipality of Tibú, Norte de Santander. · Villahermosa farm, locality of Campoeyuca, municipality of Tibú, Norte de Santander. · La Arenosa farm, locality of El Llano, municipality of El Tarra, Norte de Santander. · El Limoncito farm, locality of Los Curos, municipality of Sardinata, Norte de Santander.
From the current results it can be said that both the state and the sector should: a) conduct further analyses to determine how much land should be dedicated to this crop, looking forward to reducing subsidies to a minimum; b) ensure training that generates a quality culture as supported by Good Agricultural Practices; and c) facilitate soft credit and affordable extension services, which become more important in face of the risk associated to this activity, especially under the adverse effects of climate change. In turn, the cocoa guild ought to implement not only an observatory of best practices in all phases of this supply chain in order to ensure the quality of the brand “Colombia”, but also a series of policies promoting the consumption of cocoa in Colombia, the penetration of emerging markets and the consolidation of those already in operation. 5. Conclusions and research perspectives The current study presents a clear perspective of the logistical processes involved in the cocoa SC and VC. It summarizes key local and global aspects of this chain, looking forward both to supporting future studies and aiding in the establishment of policies, strategies, tactics and operational possibilities for its different stages and processes. The methodology applied to characterize the chain provides an organized and detailed description of the stages through which cocoa and its derivatives are processed, thus identifying value added at each step. Efforts should be made to render the chain as short as possible, in order to improve coordination, efficiency and flow traceability. Moreover, the current global cocoa agenda should be followed. In this respect, Colombia did not participate in the World Cocoa Conference in 2012, which followed the International Cocoa Agreement 2010. The case of the cocoa growers of the department of Santander constitutes a reference standard in the sense that they are associated, which allows solving two important upstream aspects, namely quality assurance and price management. Unfortunately, this case seems to be an exception, since cocoa growers in the rest of the country certainly face a survival economy. In summary, crop quality and crop productivity are the key aspects to generate the welfare of the chain, especially in the upstream phase. This involves investing in research for the development of new species and the renewal of crops. Research perspectives relate to government and sector gray literature making use of the results of this work in search of policies and actions aimed at improving the chain. From the scientific point of view, it would be desirable to characterize other important agribusiness chains such as that of floriculture. Acknowledgements Research work was supported by the project “Sustainability of cocoa production in the departments of Santander, Norte de Santander, Antioquia and Cundinamarca by means of life cycle assessment”. This 38
García-Cáceres et al / DYNA 81 (187), pp. 30-40. October, 2014.
· · · · · · ·
La Soñada farm, locality of La Pita, municipality of Sardinata, Norte de Santander. Villa Antigua farm, locality of Astilleros, municipality of El Zulia, Norte de Santander. La Nacional farm (Nutresa Group), municipality of Támesis, Antioquia. El silencio farm, locality of Cámbulos, (in the small town of Aguaclara), municipality of Cúcuta, Norte de Santander. Las Acacias farm, locality of Cámbulos, municipality of Cúcuta, Norte de Santander. El Horizonte farm, locality of Bracitos, municipality of El Tarra, Norte de Santander. El Diviso farm, locality of Caño Victoria Norte, municipality of Tibú, Norte de Santander.
[18] García-Cáceres, R.G., Olaya, E.S., Torres, S., Díaz, H.B. and Castro, H.F., Creación de valor en la cadena de abastecimiento del sector salud en Colombia, Cuadernos de Administración, 22 (39), pp. 235256. 2009. [19] Carrillo, J., Gantiva, J.C., Nieto, E and Yáñez, E., Implementación de buenas prácticas operativas. Lecture presented at IX Reunión Técnica de Palma de Aceite. Colombia [Online], 2010. [date of reference June of 2012]. Avalilable at: http://www.cenipalma.org/sites/ default/files/Implementaci%C3%B3n%20beunas%20pr%C3%A1cti cas%20operativas%20Frupalma.pdf. [20] García-Cáceres, R.G., Núñez, A.L., Ramírez, T.A. and Jaimes, S.A., Caracterización de la etapa Upstream de las cadenas de valor y de abastecimiento de palma de aceite en Colombia, DYNA, 80 (179), pp. 79-89. 2013. [21] García-Cáceres, R.G., Núñez, A.L., Ramírez, T.A. and Ortiz, O.O., Caracterización de la etapa Middlestream de las cadenas de valor y de abastecimiento de palma de aceite en Colombia, Reporte de investigación 02. Centro de investigaciones en Manufactura y Servicios CIMSER, 2012. [22] García-Cáceres, R.G. and Jaimes, S.A., Caracterización de las cadenas de valor y de abastecimiento del biodiesel en Colombia. Reporte de investigación 03, Centro de investigaciones en Manufactura y Servicios CIMSER 2012. [23] Espinal, C., Martínez, H. and Ortiz, L., La cadena de cacao en Colombia: Una mirada global de su estructura y dinámica 19912005. Documento de trabajo No.92. Ministerio de Agricultura y Desarrollo Rural. Observatorio de Agrocadenas Colombia, [Online] 2005. [date of reference August of 2012]. Available at: http://www.agronet.gov.co/www/docs_agronet/2005112145659_car acterizacion_cacao.pdf [24] Alvarado, E., Línea base para la Caracterización de la cadena productiva de cacao y diagnóstico de la cooperación entre actores. Informe de consultoría para Aprocacaho-Catie. Project Cacao Centroamérica. Cortes, Honduras. [Online] 2006. [date of reference of 2012]. Available at: March 25th http://www.catie.ac.cr/BancoMedios/Documentos%20PDF/informe %20final%20cadena%20productiva%20honduras.pdf [25] International Cocoa Organization (ICCO), Growing Cocoa - Origins of Cocoa and its spread around the world. [Online] 2012. [date of reference July of 2012]. Available at: http://www.icco.org/aboutcocoa/growing-cocoa.html [26] Federación Nacional de Cacaoteros. FEDECACAO, Producción Nacional de cacao en grano por municipio 2008-2009. [Online] 2007. [date of reference July of 2012]. Available at: http://www.fedecacao.com.co/cw/index.php?secinfo=15 [27] Ministry of Agriculture and Rural Development. Fondo de estabilización de precios del cacao. Federación Nacional de Cacaoteros (FEDECACAO). [Online] 2010. [date of reference September of 2012] Available at: http://es.scribd.com/doc/210143086/Fedecacao-2007-Guia-tecnicapara-el-cultivo-del-cacao-2%C2%AA-ed [28] Castellanos, O.F., Torres, L.M, Fonseca, S.L., Montañez, V.M. and Sánchez, A. Agenda Prospectiva de investigación y desarrollo tecnológico para la cadena productiva de cacao-chocolate en Colombia In: Ministerio de Agricultura y Desarrollo Rural. Universidad Nacional de Colombia. Grupo de investigación y desarrollo en gestión, productividad y competitividad BioGestión. [Online] 2007. [date of reference July of 2012]. Available at: http://www.corpoica.org.co/SitioWeb/Archivos/Publicaciones/Publi cableFinalCacao.pdf [29] Pinzón-Useche, J.M. and Rojas-Ardila, J., Guía técnica para el cultivo del cacao. 2nd edition, FEDECACAO, 2007. [30] Ministerio de Agricultura y Federación Nacional de Cacaoteros (Fondo Nacional del Cacao - FEDECACAO), Guía Ambiental para el cultivo del cacao. [Online] 2013. [date of reference June of 2013]. Available at: http://www.fedecacao.com.co/site/images/recourses/pub_doctecnico s/fedecacao-pub-doc_05B.pdf [31] Gil-Vallejo, L.F., Guía de campo para la identificación y manejo de enfermedades y plagas en el cultivo de mango. Corporación Colombiana de Investigación agropecuaria. CORPOICA. [Online]
References [1] [2] [3] [4]
[5] [6] [7] [8]
[9] [10] [11] [12] [13]
[14]
[15] [16] [17]
Porter, M.E., Managing Value: From competitive advantage to corporate strategy. Harvard Business Review, 65 (3), pp. 43-60. 1987. Handfield, R.B and Nichols Jr., E.L., Introduction to supply chain management. Upper Saddle River, NJ: Prentice-Hall, 1999. Ballou, R.H., Logística Administración de la Cadena de Suministro (Vol. 5ta Edición), México, 2004. Proexport, Cacao Colombiano fino y de aroma, [Online], 2012, [date of reference August of 2012], Available at: http://www.inviertaencolombia.com.co/images/Perfil%20Cacao%20 2012.pdf Departamento Administrativo Nacional de Estadística (DANE), Resultados generales Base 2005., 2011. Williamson, O.E., Comparative economic organization: The analysis of discrete structural alternatives. Administrative Science Quarterly, 36 (2), pp. 269-296. 1991. Dwyer, F.R., Schurr, P. and Oh, S., Developing buyer-seller relationships, Journal of Marketing, 51 (2), pp. 11-27.1987. Grover, V. and Malhotra, M.K., Transaction cost framework in operations and supply Chain management research – Theory and measurement, Journal of Operations Management, 21 (4), pp. 457473. 2003. Brennan, C.D., Integrating the healthcare supply chain, Healthcare Financial Management, 52 (1), pp. 31-34. 1998. McKone-Sweet, K., Hamilton, P. and Willis, S., The ailing healthcare supply Chain: A prescription for change, Journal of Supply Chain Management, 40 (1), pp. 4-17. 2005. Guiffrida, A. and Nagi, R., Cost characterizations of supply chain delivery performance, International Journal of Production Economics, 102, pp. 22-36. 2006. Ernst, R. and Kamrad, B., Evaluation of supply chain structures through modularization and postponement. European Journal of Operational Research, 124, pp. 495-510. 2000. Askarany, D., Yazdifar, H. and Askary, S., Supply chain management, activity-based costing and organizational factors, International Journal of Production Economics, 127, pp. 238-248. 2010. Whicker, L., Bernon, M., Templar, S. and Mena, C., Understanding the relationships between time and cost to improve supply chain performance, International Journal of Production Economics, 121, pp 641-650. 2009. García-Cáceres, R.G. and Olaya, E.S., Caracterización de las cadenas de valor y abastecimiento del sector Agroindustrial del Café, Cuadernos de Administración, 19 (31), pp. 197-217. 2007. Stone, R.B. and Wood, K.L., Development of a functional basis for design, Journal of Mechanical Design, 122 (1), pp. 61-69. 2000. Stone, R.B., Kurfman, M.A., Rajan, J.R. and Wood K.L., Functional modelling experimental studies, Design Engineering Technical Conferences, Pittsburgh (USA), 2001. 39
García-Cáceres et al / DYNA 81 (187), pp. 30-40. October, 2014. 2013. [date of reference July of 2012]. Available at: http://www.corpoica.org.co/SitioWeb/Corpoica/Corpoica.asp [32] Olvieras. J.M., La elaboración del chocolate, una técnica dulce y ecológica, Technical Industrial [Online] 268, March-April, 2007. [date of reference October of 2012]. Available at: http://www.tecnicaindustrial.es/tiadmin/numeros/28/37/a37.pdf [33] Cocoa World Conference, Organized by the International Cocoa Organization, Abidjan, Republic of Ivory Coast, 2012. R.G. García-Cáceres, received the Bs Eng. Industrial Engineering in 1998 from the Universidad Pedagógica y Tecnológica de Colombia (UPTC), Colombia; MSc. in Industrial Eng. in 1999 from the Universidad de los Andes, Colombia; PhD. in 2007 from the Universidad de los Andes, Colombia. Since 2010 is Associate Professor at Escuela Colombiana de Ingeniería “Julio Garavito”, Colombia; director of the Centre for Research on Optimization and Logistics (CIOL) and the Research Center on Manufacture & Services (CIMSER). Main research interests correspond to operations research, decision making support systems and logistics. A. Perdomo, received the Bs Eng. Industrial Engineering in 2013, from the Pontificia Universidad Javeriana, Colombia. O. Ortiz, received the Bs Eng. Industrial Engineering, from the Universidad Libre de Colombia, Cucuta campus, Colombia; the MSc of Engineering Management in 2002 from the Queensland University of Technology, Australia; the MSc in Environmental Engineering in 2007, from the Universidad Rovira i Virgili, Spain; the PhD in Chemical Environmental and Process Engineering in 2009 from the Universidad Rovira i Virgili, Spain. Is Associate Professor at Universidad de Pamplona, Colombia. Main research interests associated to Life cycle analysis and sustainability. P. Beltrán, received the Bs Eng. Industrial Engineering in 2013, from the Instituto Tecnológico de los Mochism México. K. López. received the Bs Eng. Industrial Engineering in 2013, from the Instituto Tecnológico de los Mochism México.
40
Study of copper deposit on a porous electrode of carbon and stainless steel by SEM-XRD and image analysis Robinson Constanzo-R. a, Antonio Pagliero-N. b & Froilán Vergara-G. c a
Escuela de Ingeniería Química, Pontificia Universidad Católica de Valparaíso, Chile. robinson.constanzo@ucv.cl b Departamento de Ingeniería Metalúrgica, Universidad de Concepción, Chile. apaglier@udec.cl c Departamento de Ingeniería Metalúrgica, Universidad de Concepción, Chile. fvergar@udec.cl Received: September 16th, de 2013. Received in revised form: February 18th, 2014. Accepted: July 14th, 2014
Abstract The purpose of this work was to make a qualitative analysis of the distribution of copper deposit inside of stainless steel and graphite porous electrodes. For that, representative sections of steel and graphite samples were analyzed by stereoscopic microscopy, SEM-XRD analysis and image analysis by software Scentis Struers Software®. The analysis showed that the copper is not deposited uniformly over the electrode thickness. For steel electrode, the deposit depth in the thickness was around 50%, while graphite electrode about 90% of the thickness. In general, an increase of the deposit towards the end facing the anode was observed and with different sites of copper deposit growth. This behavior shows a current and voltage distribution which is a function of the physical parameters of electrode, and physicochemical and hydrodynamic characteristics of the electrolyte. Keywords: Porous electrode, potential distribution, current distribution.
Estudio de electrodeposición de cobre sobre electrodos porosos de grafito y acero inoxidable vía SEM-DRX y análisis de imagen Resumen El objetivo de este trabajo fue realizar un análisis cualitativo de la distribución de un electrodepósito de cobre en el interior de electrodos porosos (EP) de acero inoxidable y carbono grafito. Para ello, se realizaron pruebas de electrodepositación de cobre a nivel de laboratorio, con un posterior análisis de cortes de muestras de acero y grafito vía Microscopía Estereoscópica, Microscopía SEM-DRX y Análisis de Imagen, los cuales mostraron que el cobre no se deposita en forma uniforme al interior del electrodo. En el electrodo de acero, la penetración del depósito en el espesor fue alrededor de 50%, mientras que para el grafito alrededor de 90%. En forma general, se observó un aumento de la cantidad de depósito hacia el extremo frente al ánodo y con sitios de diferente crecimiento en depósito de cobre. Esto demuestra una distribución de corriente y potencial, función de parámetros físicos de electrodo y de las características fisicoquímicas e hidrodinámicos del electrolito. Palabras clave: Electrodo poroso, distribución de potencial, distribución de corriente.
1. Introducción La necesidad de utilizar electrodos porosos (EP) o volumétricos nace con el surgimiento de la ingeniería electroquímica en los años 70, intentando resolver dos preocupaciones principales: a) la crisis del petróleo y de algunas materias primas metálicas a fin de fortalecer la disponibilidad de energía eléctrica y b) la aparición de nuevas restricciones y convenciones ambientales, en particular la contaminación de aguas por materiales orgánicos y metales pesados 1-4. Sin embargo, intentar recuperar metales pesados o preciosos desde soluciones diluidas implicaba una inversión importante debido al tamaño y configuración de las celdas. Por lo tanto, para lograr
mayor eficiencia en la recuperación y/o producción, se concibieron nuevos tipos de electrodos y de celdas, introduciendo el concepto de “electrodo de alta área específica”, el cual permite aprovechar mejor volumen de la celda y tratar vía electrolisis soluciones diluidas sin elevar excesivamente los costos de operación 5. Sin embargo, dada la configuración física de los electrodos, se hace importante el problema de la distribución de potencial y corriente en el interior del electrodo 6-11. Por otra parte, la evolución de los materiales ha tenido un impacto directo en el desarrollo de los EPs, con electrodos de fibras de grafito, acero inoxidable, carbón vítreo, níquel, mallas de titanio activado por películas de óxidos de Ti-Ir, polímeros y cerámicos recubiertos en metal 5.
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 41-48. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI:http://dx.doi.org/10.15446/dyna.v81n187.39924
Constanzo-R et al / DYNA 81 (187), pp. 41-48. October, 2014.
Donde as, es el área de sólido por unidad de volumen de sólido y la porosidad del electrodo. Otra característica relevante de un EP, es la capacidad de ser promotor de turbulencia, ya que gracias a la configuración física se puede alcanzar un nivel de agitación mayor respecto a un electrodo plano, elevando así el coeficiente de transferencia de masa (kd) 5,13-15. Así, para un determinado proceso electroquímico, la densidad corriente límite (iL), es una magnitud proporcional a la concentración de la especie electroactiva tal como:
2. Consideraciones teóricas 2.1. Características de un electrodo poroso En un EP la superficie se encuentra distribuida en el volumen y el valor depende del tipo de electrodo y la configuración física que este tenga, es decir, si es un lecho de partículas (fijo o móvil), metal desplegado, fibras o espumas metálicas 12. Algunos ejemplos son, electrodos de pilas de combustible, compuestos por partículas nanoporosas catalizadoras de diámetro de poros (dp), 1 nm dp 10 nm, bajo la forma de revestimientos catalíticos en electrodos de desprendimiento gaseoso 12. El espesor y la profundidad del lecho varían según el tipo de electrodo, aplicación y celda. La operación del EP puede ser en paralelo (Fig. 1), si el flujo de electrolito tiene la dirección de I, o perpendicular si el flujo de electrolito es perpendicular a la dirección de I. Se puede separar un flujo anódico (anolito) y un flujo catódico (catolito) utilizando membranas, operando con o sin recirculación. La superficie específica o superficie de electrodo por unidad de volumen total de electrodo se puede estimar por:
a e = a s 1- ε
i L = νe Fk d CAS
(2)
Donde CAS es la concentración de la especie A en el seno del fluido, F la constante de Faraday y e el número de electrones involucrados en la reacción electroquímica. Por lo tanto, un aumento de ae o kd puede elevar la corriente (I = iae) y generar una mayor producción. La ecuación de Laplace y la ley de Ohm, permiten desarrollar expresiones para la distribución de corriente y potencial en un EP. Para ello, se considera un balance de cargas en un elemento diferencial de volumen de EP (Fig. 2). El balance de cargas en el elemento de volumen de EP de la Fig.2, lleva a la siguiente:
(1)
v i dV = v a e i dV Luego
i = ae i
(3) (4)
Figura 1. Esquema de un electrodo volumétrico y su funcionamiento. Fuente: Los autores
Donde ae, es la superficie específica e i densidad de corriente local de reacción. El producto ae∙i (Coulomb m-3 s1 ), corresponde a la velocidad de producción de cargas por unidad de volumen de EP y su signo depende, de si la reacción es catódica o anódica. La mayoría de los modelos de EPs tratan su comportamiento en términos de parámetros macroscópicos utilizados en diseño y optimización de procesos. Estos parámetros son valores promedio en el volumen o área del electrodo y en la práctica son fácilmente medibles, lo que evita describir detalles microscópicos de los poros,
Figura 2. Distribución de corriente en un elemento de electrodo poroso. Fuente: Los autores
Figura 3. Esquema de la distribución de potencial a través del espesor L, de un electrodo poroso. Fuente: Los autores 42
Constanzo-R et al / DYNA 81 (187), pp. 41-48. October, 2014.
en particular porque las características físicas de estos pueden variar significativamente de un lugar a otro. Algunas simplificaciones consideran un diámetro de poro efectivo y la matriz metálica como un medio cuasi homogéneo, con una distribución uniforme del sólido en el interior del electrodo y con una fase liquida caracterizada por parámetros efectivos. De esta manera un modelo de EP en 3D se puede simplificar a uno 1D. Para efectos de análisis, se considera un EP como una superposición de 2 medios continuos, una fase sólida y una fase solución 7,16, como se muestra en la Fig. 3. Donde L es el espesor del EP, Qv el flujo de solución, I la corriente eléctrica (en dirección del flujo de solución), Φm potencial de la fase sólida, Φs potencial de la fase solución, im e is, las densidades de corriente en cada fase. En presencia suficiente de electrolito soporte, la migración iónica en las cercanías del electrodo se hace despreciable frente al movimiento de cargas por efecto del gradiente difusivo. Para simplificar el análisis se considera flujo pistón con dispersión axial despreciable y porosidad uniforme. Si el flujo de electrolito está en la dirección negativa de x, el potencial y la densidad de corriente local para ambas fases se relacionan por la ley de Ohm:
im = -σΦm
(5)
is = -γΦs
(6)
di s = -ai dx di m = -ai dx
d2η 1 1 = - ai dx 2 σ γ
(13)
3. Parte experimental En una primera etapa se realizaron pruebas exploratorias de electrodepositación de Cu sobre EPs, con ayuda de curvas cinéticas para obtener condiciones de operación. Luego se realizaron los ensayos formales para obtener depósitos compactos y bien adheridos a la superficie, adecuados para tratamiento mecánico y análisis de imagen por microscopia estereoscópica, acompañados de SEM y difracción de rayos X (DRX). Previo a la formación de los depósitos, se midió la superficie específica electroactiva del acero inoxidable poroso con la ayuda de la técnica de voltametría, mientras que para el electrodo de carbón se estimó su área específica en base a propiedades físicas conocidas de fabricación (densidad) y otras calculadas (porosidad).
(7)
(8)
Si el potencial depende sólo de la coordenada x:
E(x) = Φm (x) - Φs (x)
(12)
Esta expresión, relaciona el sobrepotencial con la densidad de corriente y su forma matemática final depende del electrolito, de la fase métalica y del control que tenga la reacción electroquimica 5. En tal sentido, Coeuret desarrolló soluciones analíticas en una dimensión para el potencial dentro del electrodo [5]. Otros autores han desarrollado soluciones para la distribución de potencial bajo control difusivo para un electrodo bidimensional [17, 18, 19].
Integrando (7) se obtiene:
i = is + i m
(fase sólida)
(11)
Luego, si se encuentra la primera derivada de las expresiones (5) y (6) y la segunda derivada de la relación (10) y se combinan convenientemente con las expresiones (11) y (12), se obtiene la expresión (13), que relaciona la corriente en la fase metal con la corriente en la fase solución:
Donde σ y son las conductividades aparentes de la fase sólida y la fase líquida respectivamente en ohm-1cm-1 y es el gradiente de potencial. La ecuación de conservación de la carga eléctrica en un elemento diferencial de electrodo es:
is + i m = 0
(fase solución)
(9)
3.1. Preparación y acondicionamiento de electrodos porosos
Luego, el sobrepotencial local η se puede expresar a partir de los potenciales de cada fase y del equilibrio ( 0 ) según:
El acondicionamiento de los EPs de trabajo (Fig. 4) se debe realizar en forma rigurosa, puesto que se debe procurar (10) η = Φm - Φs - Φ0 que los poros estén libres de suciedad, para que el electrolito sea accesible a todas las fibras y estas a su vez estén libres Cuando las concentraciones de las especies reducida (CR) y de grasa u otro elemento que puedan disminuir los posibles electroactivos. El protocolo incluye: i) oxidada (CO) son las concentraciones iniciales ( C0R , C0O ) sitios dimensionamiento de electrodos, ii) limpieza ultrasónica (en se puede considerar Φ 0 igual a cero. Por otro lado, según la solución desengrasante o alcohol, 15 min.), iii) enjuague y Ley de Kirchhoff [7], el cambio de la densidad de corriente, secado en estufa a 65 °C durante una hora. corresponde al paso de corriente desde una fase a otra. Algunas características físicas de los EPs de trabajo, Matemáticamente el flujo de corriente por unidad de área utilizados para electrodepositación, se resumen en la Tabla proyectada (a) en la dirección de x: 1. 43
Constanzo-R et al / DYNA 81 (187), pp. 41-48. October, 2014.
Figura 4. Materiales electródicos porosos utilizados en laboratorio. Fuente: Los autores
Figura 6. Corte de electrodo poroso para análisis micrográfico. t = 3 h. Fuente: Los autores
Tabla 1 Caracteristıcas físicas de electrodos porosos de estructuras de fibras. Electrodo Material L (mm) ε ae (m2/m3) E1
Acero inoxidable 316L
E2
Carbón grafito
0,37
79,53
9654
2
94.60
23520
de color entre el material base (acero, grafito) y el depósito de cobre, manifiesta una primera señal de la distribución del depósito. Luego se realizaron cortes de electrodo como se muestra en la Fig. 6. 4.1. Análisis microscópico
Fuente: Los autores
En la Fig. 7, se muestra el espesor de electrodo de acero inoxidable (E1) y de grafito (E2) luego de la electrodeposición. Se aprecian depósitos de Cu a través del espesor por diferencia de color en contraste con el de la malla base, además, se puede observar heterogeneidad en el depósito a través del espesor. Luego, para lograr una mejor comprensión del proceso, se realiza análisis SEM, para las muestras de 1 y 3 h, y se elige la muestra de 1 h, dado que para 3 h, los electrodos están con un nivel de colmatación mayor (ver Figs. 8 y 9).
Figura 5. Montaje experimental para electroobtención. Fuente: Los autores
3.2. Electrodepositación de Cu en EPs Las experiencias de electrodepositación de Cu se realizaron en condiciones controladas de corriente y flujo de electrolito. Se trabajó a 15 g/L de Cu2+ (CuSO4*5H2O, PM = 249.69 g/mol), 30 g/L de H2SO4 (95-97%, PM = 98.08 g/mol), flujo de electrolito (Qv) 25 mL/s, corriente de trabajo 0.1 A y tiempo de depósito 1-3 h. En cada experiencia se utiliza un solo electrodo de trabajo (cátodo) y según la experiencia 1 o 2 contraelectrodos (ánodos) de Pb. El montaje experimental se esquematiza y detalla en la Fig. 5. Una vez realizada la electrodepositación, se realizaron cortes de secciones de electrodos de trabajo para: a) Análisis microscópico en microscopio estereoscópico Zeizz Wess®, b) Análisis en microscopio electrónico de barrido JEOL JSM 6380lb® con sistema de análisis DRX Oxford® y programa de análisis Inca®. Figura 7. Depósito de cobre sobre eléctrodos porosos, vista Microscópio Estereoscópico. a) Acero inoxidable 316L, t = 1h. b) Acero inoxidable 316L, t = 3 h, c) Grafito t = 1 h. Fuente: Los autores
4. Resultados y discusión Las características de los depósitos dependen de la densidad de corriente y material electrodico. La diferencia 44
Constanzo-R et al / DYNA 81 (187), pp. 41-48. October, 2014.
a)
b)
Figura 8. a) Depósito de Cu en el espesor de electrodo de acero inoxidable (E1). L = 0.37 mm. b) Zoom en zona central. Fuente: Los autores
a)
b)
Figura 10. Análisis local SEM-DRX de fibra en zona central sin depósito de Cu. Fuente: Los autores
Figura 9. a) Depósito de Cu en el espesor de electrodo de grafito. L = 2 mm. b) Zoom en zona central. Fuente: Los autores
El análisis microscópico muestra que la cantidad de depósito no es homogénea a través del espesor y se observa que en una misma zona, alternan sitios contiguos con y sin depósito, indicando que en los sitios sin depósito, no se alcanzó el potencial electroquímico requerido para la electrodeposición. Este comportamiento se observa en el acero y en el carbón a pesar de la diferencia en espesor, porosidad y material. El análisis cuantitativo requiere de una metodología de trabajo más precisa para estimar la cantidad de cobre depositado por zonas. Con este fin, se realizó análisis DRX en 2 sitios específicos (Figs 10 y 11). El análisis DRX permite definir que elementos existen en una determinada area, teniendo en consideración que aquellos elementos diferentes al cobre son aquellos componentes del substrato base sobre el cual se realiza el deposito, en este caso acero inxoidable 316L. El resumen de los análisis DRX, para las Figs. 10 y 11 se muestra en las Tabla 2. Tabla 2. Análisis DRX para Figuras 10 y 11. Sitio 1 Elem %W %At Cr K 12.14 19.07 Fe K 48.41 70.81 Ni K 6.27 8.73 Mo L 1.63 1.39 Total 68.45 Fuente: Los autores
Elem OK Si K Cr K Fe K Cu K Total
Sitio 2 %W 7.13 0.33 1.09 3.12 63.25 74.91
%At 29.14 0.76 1.37 3.65 65.08
Figura 11. Análisis local SEM-DRX de fibra en zona central con depósito de Cu. Fuente: Los autores
45
Constanzo-R et al / DYNA 81 (187), pp. 41-48. October, 2014.
1 = 77.2197 %
2 = 51.6151 %
4 = 42.1272 %
5 = 29.5685 %
3 = 39.9901 %
1 = 60.0662 % 3 = 56.5197 %
Figura 12. Estimación del porcentaje de depósito de cobre para grafito, vía software Scentis Struers. Fuente: Los autores
2 = 38.4753 % 4 = 43.6144 %
Figura 13. Estimación del porcentaje de depósito para electrodo inoxidable, vía software Scentis Struers. Fuente: Los autores
4.3. Análisis de la distribución del depósito
4.2. Análisis de imagen
La distribución de potencial es el principal problema que enfrentan los EPs, debido a que afecta la selectividad de la reacción de interés y podría dar paso a la ocurrencia de reacciones secundarias (si existieran varias especies susceptibles de reducirse), con una disminución de la eficiencia del proceso. El potencial eléctrico y la corriente están relacionados y por lo tanto una mayor corriente responde a un mayor gradiente de potencial, sin embargo, hay que considerar el efecto que tiene el campo eléctrico en los extremos del electrodo por estar frente al ánodo y las continuas caídas de potencial en el interior de la matriz. Por otra parte, la presencia de depósito de cobre a través del espesor, implica que en dichos sitios se alcanza el requerimiento energético a través del sobrepotencial necesario. Se observaron, pequeños cristales en zonas centrales que no crecieron en relación a otros cristales ubicados hacia el
Para establecer la distribución de la cantidad de depósito de cobre en el espesor EP, se trabajó con el software de análisis de imagen Scentis Struers® e Image J®. De esta forma, se estimó una penetración promedio del depósito y se realizó una estimación del área cubierta por el depósito, realizando un barrido a través del espesor. Este proceso se lleva a cabo por diferencia en la escala de grises que se capta por Software Scentis (Figs. 12 y 13). Según las Figs. 12 y 13, el depósito de cobre cubre algunas fibras y une otras y se observa que la cantidad de depósito es mayor hacia el extremo izquierdo, que corresponde a la cara que se ubica frente al ánodo durante el ensayo de electroobtención. Este fenómeno se explica por la mayor intensidad de campo eléctrico y aumento de la densidad de corriente hacia ese extremo. 46
Constanzo-R et al / DYNA 81 (187), pp. 41-48. October, 2014.
el perfil podría ser más complejo, mientras que para flujos turbulentos, el perfil de velocidad se puede hacer constante 22,23. Cabe mencionar, que las técnicas de análisis de imagen han sido utilizadas por investigadores en el análisis de depósitos sobre superficies de electrodos planos 24, en EPs 25 y análisis de corrosión y de manera integrada pueden suministrar información cualitativa y cuantitativa relevante para el estudio de mapeos de depósitos electroquímicos.
extremo frente al ánodo. Esto implicaría que la competencia entre nucleación y crecimiento no es igual en el volumen poroso debido a las diferentes densidades de corriente a que están expuestas las diferentes zonas del electrodo. Como resultado, el depósito es heterogéneo en la estructura y la variación en la distribución de potencial se puede atribuir a cambios en la conductividad de la solución a medida que avanza dentro del electrodo, cambios en la conductividad y porosidad de la matriz metálica producto del depósito de Cu y a constantes caídas ohmicas metal-solución. Otro punto importante son las diferencias locales de concentración que implican diferentes gradientes de concentración y por lo tanto, el transporte de las especies electroactivas a la interfase de reacción difiere en diferentes zonas, generando sobrepotenciales que finalmente inducen diferentes densidades de corriente locales. Comparando los cortes de acero inoxidable y grafito, se observa que la penetración del depósito para el caso del electrodo de grafito, fue de alrededor de un 90% del espesor frente a un valor de de 40% de penetración en el acero. Respecto a este punto, algunos autores [6,20,21] han desarrollado una expresión que relaciona parámetros físicos de electrodo y de cinética de reacción, para condiciones de corriente limite, definiendo la penetración “p” de la corriente en un EP de matriz completamente conductora:
p=
2 ε γΔη a s k d nFC0
5. Conclusiones Un EP es un sistema complejo en su concepción y su tratamiento teórico requiere de varias suposiciones tales como porosidad constante en el tiempo, régimen pistón, entre otras. Desde el punto de vista experimental su tratamiento también es complejo, debido a que los parámetros físicos del electrodo cambian en el tiempo. La distribución de potencial y corriente se manifiesta en electrodos planos y constituye un problema aún mayor en EPs dado que por su estructura física es imposible tener control sobre las variables de electrodo y operación en el cuerpo del electrodo durante un proceso. En consecuencia, resultan zonas de depósito preferencial bien marcadas hacia donde el campo eléctrico es más intenso y densidad de corriente más alta, que corresponden según las micrografías a los sitios cercanos a la cara frente al ánodo. Además, por efecto de la tortuosidad de las líneas de flujo de corriente, los cambios de concentración local y caídas óhmicas locales, resulta un depósito heterogéneo. Se pudo observar que el desarrollo del depósito asociado a la distribución de potencial y corriente, aparece indistintamente del material constitutivo, como producto de la variación en la concentración, en la conductividad, caídas de potencial, etc. Por lo tanto, en la penetración del depósito pareciera que tienen mayor influencia los parámetros físicos del electrodo (porosidad, espesor, diámetro de fibras, etc.), que la composición del material electródico (acero o carbón), no obstante, el substrato influye directamente en la cinética de reacción electroquímica. La metodología de trabajo y análisis SEM-DRXAnálisis de Imagen, resultó adecuada para el análisis del depósito. Sin embargo, abre una ventana interesante para la cuantificación de las especies y una aproximación gráfica de la distribución de corriente como consecuencia de la cantidad y distribución del depósito.
(14)
Donde es el intervalo de sobrepotencial donde la depositación ocurre bajo condiciones de corriente límite, la porosidad, n el número de electrones, F la constante de Faraday C° la concentración en el seno de la solución, la conductividad de la solución y kd el coeficiente de transferencia de masa. De acuerdo a la expresión (14), la penetración de un depósito cambia de un material electródico poroso a otro y más aún, pueden existir comportamientos locales diferentes en un mismo material de un sitio a otro, debido a las variaciones de concentración de la especie electroactiva, que para efectos de simplificación, se considera un flujo pistón con variación de concentración sólo en el eje x, tal como sigue: kd L x Q V
CA (x) = C A exp E
(15)
Agradecimientos
En la práctica, la porosidad puede variar a medida que se desarrolla el depósito al igual que la conductividad del material, no obstante, este último parámetro no es tan influyente en los casos en que el material del electrodo y el material depositado son altamente conductores. Además, en general la conductividad de la matriz porosa es muy superior que la conductividad de la solución. Por otra parte, dado que el valor de kd es dependiente de las condiciones hidrodinámicas al interior del EP (kd = D/ y kd = f(Re), Re = N° de Reynolds), existirán velocidades locales del electrolito que definirán condiciones cinéticas de depósito particulares en diferentes sitios. Para flujos lentos,
Se agradece al Departamento de Ingeniería Metalúrgica y la Dirección de Postgrado de la Universidad de Concepción, por el apoyo brindado para esta investigación. Referencias [1] [2] [3]
47
Coeuret, F. y Storck, A., Éléments de génie électrochimique, Paris, Lavoisier, 2° ed., 1993. Maslii, A., Porous flow electrodes for solving ecological problems, Chemical for Sustainable Development, 12, pp. 275-285, 2004. Conway, B.E., Ayranci, E. and Al-Maznai H., Use of quasi-3dimensional porous electrodes for adsorption and electrocatalytic
Constanzo-R et al / DYNA 81 (187), pp. 41-48. October, 2014.
[4] [5] [6]
[7] [8] [9] [10] [11]
[12] [13] [14]
[15] [16] [17]
[18]
[19]
[20]
[21] [22]
[23] [24] [25]
removal of impurities from waste-waters, Electrochim. Acta, 47, pp. 705-718, 2001. Gasparotto, L., et al., Removal of Pb (II) from simulated wastewaters using a stainless-steel wool cathode in a flow-through cell, Journal of Applied Electrochemistry, 36, pp. 677-683, 2006. Coeuret, F., Introducción a la ingeniería electroquímica, Barcelona, Reverté, 1992. Doherty, T., Sunderland, J., Roberts, P. and Pickett, D., An improved model of potential and current distribution within a flowthrough porous electrode, Electrochem. Acta, 41 (4), pp. 519-526, 1996. Scott, K. and Argyropoulos, P., A current distribution model of a porous fuel cell electrode, Journal of Electroanalytical Chemistry, 567, pp. 103-109, 2004. Reddy, R. and Reddy, R. G., Analytical solution for the voltage distribution in one-dimensional porous electrode subjected to cyclic voltammetric conditions, Electrochem. Acta, 53, pp. 575-583, 2007. Langlois, S. and Coeuret, F., Flow-through and flow-by porous electrodes of nickel foam, Part I material characterization, J. App, Electrochem. Acta, 19, pp. 43-50, 1989. Diwakar, V. and Subramanian, V., Effect of varying electrolyte conductivity on the electrochemical behavior of porous electrodes, J. Electrochem. Society, 152 (5), pp. A984-A988, 2005. Koshev, A, Chirkina, M. and Varentsov, V., Nonstationary mathematical models of the electrochemical processes in volumetric porous flow electrodes, Russian Journal of Electrochemistry, 43 (11), pp. 1299-1304, 2007. Wendt, H. et Kreyza, G., Génie electrochimique, principes et procédes, Paris, Dunod, 2001. Yan-Ping, S. and Scott, K., An analysis of the influence of mass transfer on porous electrode performance, Chemical Engineering Journal, 102, pp. 83-101, 2004. Maslii, A.I., Poddubnyi N.P. and Medvedev, A.Zh, Dynamics of variations in the metal deposit distribution in porous flow-through electrodes: effect of solution flow velocity and direction, Russian Journal of Electrochemistry, 42 (3), pp. 245-250, 2006. De Vidst, P. and White, R.E., Governing equations for transport in porous electrodes, Journal of Electrochemical Society, 144 (4), pp. 1343-1353, 1997. Vilard, E. and Coeuret, F., Mass transfer to flow-through thin porous electrodes under laminar flow, Electrochimica Acta, 40 (5), pp. 585590, 1995. Storck, A. et al., Electrochemical study of liquid-solid mass transfer in packed bed electrodes with upward and downward co-current gasliquid flow, Journal of Applied Electrochemistry 16, pp. 947-963, 1996. Langlois, S. and Coeuret, F., Flow-through and flow-by porous electrodes of nickel foam Part III: theoretical electrode potential distribution in the flow-by configuration, Journal of Applied Electrochemistry, 20, pp. 740-748, 1990. Card, J., Valentin, G. and Storck, A., The activated carbon electrode: A New, experimentally-verified mathematical model for the potential distribution, Journal of Electrochem. Soc., 137 (9), pp. 2736-2745, 1990. Maslii A. and Poddubny, N., Influence of solid phase conductivity on spatial localization of electrochemical processes in flow-through porous electrodes Part I: Electrodes with uniform conducting matrix, Journal of Applied Electrochemistry 27, pp. 1036-1044, 1997. Bagotsky, V., Fundamentals of electrochemistry, A John Wiley & Sons, New York, 2° ed., 2006. Gadri A., Ratel A. y Lacoste G., Influence des parametres hydrodynamiques sur le transfert de matiere dans un liquide en ecoulement pulse dans une cathode cylindrique, Journal Applied Electrochemistry, No 28, pp. 921-928, 1998. Pletcher, D. & Walsh, F., Industrial Electrochemistry, New York, Chapman and Hall, 2° ed., 2° ed., 1990. Piratoba, U., Vera, E. y Ortiz, C., Caracterización superficial, electroquímica y de composición de aleaciones zinc níquel electrodepositadas, Revista DYNA, 75 (156), pp. 217-221, 2008. Vande Vyver, O., Caractérisation d’une électrode tridimensionnelle en vue de son utilisation pour la récupération d’ions métalliques en
solution diluée, Université Libre de Bruxelles, Faculté des Sciences Appliquées, 2004. R. Constanzo-R., obtuvo el título de Ing. Civil Metalúrgico en 2009 y el Dr. en Ingeniería Metalúrgica en 2014, en la Universidad de Concepción, Chile. Trabajo durante los años 2005-2013 como Investigador e Ingeniero de Proyectos, en la Universidad de Concepción. Se especializó en las áreas de electrometalurgia y corrosión electroquímica, dictando cursos de pre y postgrado en el área de la Metalurgia Química. En la actualidad se desempeña como Profesor Asociado de la Escuela de Ingeniería Química de la Pontificia Universidad Católica de Valparaíso y dicta cursos en las áreas de procesamiento de minerales y electrometalurgia. A. Pagliero-N., obtuvo el título de Ing. Civil Químico en 1972 en la Universidad de Concepción, Chile y el Grado de Dr. Ing. Electroquímico en 1978 en la Universidad Politécnica de Grenoble, Francia. Ha trabajado desde entonces, como Profesor del Departamento de Ingeniería Metalúrgica de la Universidad de Concepción, dictando cursos de Electrometalurgia, Corrosión y Cinética Electroquímicay ha dirigido numerosas tesis de pre y postgrado. Además, ha participado activamente de proyectos de investigación y asesoría técnica para la Industria Minera. F. Vergara-G., obtuvo el título de Ing. Civil Metalúrgico en 1974 en la Universidad de Concepción, Chile y de Dr. Ing. Electroquímico en 1978, en la Universidad Politécnica de Grenoble, Francia. Desde entonces ha sido Profesor del Departamento de Ingeniería Civil Metalúrgica de la Universidad de Concepción. Ha desarrollado docencia de pre y postgrado en el área de la Metalurgia Química y Electrometalurgia. Además, ha realizado proyectos con la industria minera en el área de la electroobtención y elecrorefinación de cobre. En la actualidad, se desempeña como director del Departamento de Ingeniería Metalúrgica de la Universidad de Concepción.
48
Implementing an evolutionary algorithm for locating container yards of a 3PL provider Carlos Osorio-Ramírez a, Martín Darío Arango-Serna b & Wilson Adarme-Jaimes a a
Facultad de Ingeniería, Universidad Nacional de Colombia, Colombia,. caosoriora@unal.edu.co b Facultad de Minas, Universidad Nacional de Colombia, Colombia, mdarango@unal.edu.co a Facultad de Ingeniería, Universidad Nacional de Colombia, Colombia,. wadarmej@unal.edu.co Received: September 26th, 2013. Received in revised form: July 9th, 2014. Accepted: July 25th, 2014
Abstract Defining the facility location is considered as a strategic decision in the context of the supply network management. Often, this decision is made based on minimum cost or best service criteria. However, most of the time these criteria are taken into account separately because the inherent complexity of the multi-objective optimization problems. This study shows the application of the multi-objective evolutionary algorithm known as NSGAII in a real situation faced by a logistics operator in Colombia in order to evaluate different alternatives of distribution for this company. Keywords: Facilities location, supply network, multi-objective problem, evolutionary algorithm.
Aplicación de un algoritmo evolutivo para la ubicación de patios de contenedores de un operador logístico Resumen Definir la ubicación de las instalaciones para una cadena de suministro, es considerada como una decisión de tipo estratégico. A menudo esta decisión se toma con base en criterio de mínimo costo o mejor nivel de servicio o de cobertura. Sin embargo, estos criterios usualmente no son tenidos en cuenta de manera simultánea por la complejidad inherente que pueden tener los problemas de optimización con varios objetivos, los cuales generalmente están en conflicto. El presente trabajo muestra la aplicación del algoritmo evolutivo multiobjetivo NSGAII, en una situación real afrontada por un operador logístico en Colombia, y sirve como punto de partida para dicha empresa para evaluar alternativas de distribución Palabras clave: Ubicación de instalaciones, cadena de suministro, problema multi-objetivo, algoritmo evolutivo.
1. Introduction Locating facilities in the supply chain is one of the most important decision making problems in this context, since it determines the shape and configuration of the network itself. In this decision phase, the alternatives are defined along with its associated costs and needed capacity levels to operate the system [1]. The decisions about the location imply the definition of the number, location, and size of the warehouse or production plant to be used, and even the choice of different alternatives of transportation [2]. This set of facilities is represented as nodes in a network, which can be plants, ports, warehouses, or retailers. The development of methodologies for facility location has been a popular research topic within Supply Chain Management, mainly due to the factual characteristics of the problem. Brandeau [3], on
one of the first review works related with the topic, proposed alternative ways from the quantitative point of view to face the network location problem. Drezner [4] combines both quantitative and qualitative methodologies to define infrastructure location policies. A more oriented-focus to customer service is the one proposed by Korpela et al [5] where the network design depends on the demand that must be satisfied. Nozick and Turnquist [6] integrate the concept of location in network design with transportation and distribution activities. The trend of incorporating more formal but also more effective techniques for the studying of the location problem has been growing in the last years. Revelle and Eiselt [7] made a comparative study of the different techniques that have been applied in the last two decades to solve this problem, concluding that one of the great obstacles to overcome,
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 49-55. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40044
Osorio-Ramírez et al / DYNA 81 (187), pp. 49-55. October, 2014.
despite the computational advances, consists in the combinatorial complexity whenever there are a considerable number of instances to solve within reasonable times. Furthermore, the combination of depot location and vehicle routing has inspired a growing stream of research because, among other causes, both issues raise two hard combinatorial optimization problems [8]. Although exact algorithms and approximation algorithms for solving these type of problems are increasing their effectiveness and efficiency [9-11], metaheuristics techniques are still the preferred set of methodologies applied for the solution to these problems and other related to logistics and supply chain management [12]. The appearance of the meta-heuristic optimization techniques has contributed in several ways to the solution of problems that cannot be solved through classical optimization techniques in an efficient and effective way. In the locating facilities case with a considerable number of instances, the problem could become highly combinatorial, so meta-heuristic techniques have to be applied in order to obtain good solutions in reasonable times. (See Badhury et al. [13] in genetic algorithms, Crainic et al. [14] with tabu search and Bouhafs et al. [15] which combine ant colony with simulated annealing). Generally, the different focuses to tackle the location problem, have in common that their objective function is typically cost minimization. However, depending on the context where the problem is found, it is convenient to include other kind of objective functions, for example, maximizing service levels, or minimizing environmental losses. The presence of additional objectives causes the need of modeling the design of distribution networks or infrastructure location as multi-objective optimization problems. Proof of this, among others, the review article of Farahani et al. [16] present an extensive classification of the different approaches to address and solve this kind of problem. Badri et al. [17] propose a goal programming approach to locate fire stations; Matsui et al [18] suggest a fuzzy model for the location of ambulance stations applying particle swarm optimization (PSO). Bhattacharya [19] presents a max-min approach for the solution of the multi-objective set coverage problem. Frequently, the objectives of this kind of problems are conflictive. In the network design case, the costs and service levels can be taken into account simultaneously as objectives. The most efficient designs usually do not generate the best service, while the network configurations with excellent service levels require high money investments
has service implications, for instance, the coverage level generated by a given arrangement of the network. Then, the classical linear programming transportation problem is extended inserting the maximum coverage assignment model, which is purely binary [20] and its main objective is to cover the most of the points. Consequently, the multi-objective location problem can be formulated, according to Villegas et al [21], taking into account the following elements: 2.1. Indexes
Set of origin nodes (where the infrastructure may be located), i, i = 1, …, m Set of destination nodes, j, where j = 1, …, n
2.2. Parameters
fi = fixed operation cost of the facility if located at node i. Cij = Cost for serving the demand of the node j from facility i. Ki = Potential capacity of facility i. Dj = Demand of the market node j. hij = Distance between nodes i-j that connect after allocation. Distmax = Maximum distance that can exist between nodes i and j. This value generally represents a service policy and is linked to the desired coverage level.
2.3. Decision Variables
The optimization model applied to the location problem already mentioned would be expressed in the following way: ଵ
2. Formulation of the multi-objective location problem
ଶ
The infrastructure location optimization models have their origin in the formulation of the transportation problem with a set of origins (supply nodes) that must satisfy the demand from a respective set of destinations (market nodes) at the lowest possible cost. The location of production plants or warehouses has as common objective the fulfilling of a specific demand. The location problems may acquire a binary component, because depending on the specific location of the infrastructure (which is modeled through a binary variable), the network and its related costs may vary. Nevertheless, the fact of serving and fulfilling the demand 50
Subject to:
Osorio-Ramírez et al / DYNA 81 (187), pp. 49-55. October, 2014.
This formulation complements the basic mono-objective approaches [22], since it includes the coverage maximization function to the location problem. It must be noted that these approaches also seek to minimize distances, which are associated to the variable costs of serving demands. The first objective function (1) corresponds to a cost minimization function, which is formed by the fixed cost of the warehouse and the variable cost to the extent in which this infrastructure is used. The second objective function (2) refers to the maximization of the coverage in terms of the attended demand. The expression (3) guarantees that each market is served from one and only one origin point. The constraint (4) ensures that the served demand does not overcome the capacity of the infrastructure that is used, as long as there is the decision to open business. On the other hand, the constraint (5) makes sure that the distance that exists between a couple of nodes, that are connected because of the choice of the place to locate the infrastructure with its corresponding market to serve, does not exceed a maximum distance that must be previously defined, by the decision maker. Finally, the expression (6) indicates the binary nature of the decision variables.
t←1 Initialize P(t) Evaluate P(t) while t ≤ T do Cross P(t) Generate H(t) Mutate H(t) Evaluate H(t) Select P(t + 1) de P(t) t←t+1 end while
H(t)
Figure 1: Basic schematics of an evolutionary algorithm. Source: Adapted from [23]
3. Evolutionary Algorithms The evolutionary algorithms are a set of meta-heuristic methods which have taken a great importance in the solution of engineering problems during the last decade, due to their efficiency and precision levels that their results provide in real situations of engineering. An evolutionary algorithm is a random- search technique which replicates the evolutionary behavior of species, where the individuals who are better adapted, have bigger chances of surviving. For the replication of an evolutionary process, in every interaction the algorithm keeps a population of chromosomes, where each chromosome represents a solution, which can be feasible or not-feasible. The essential structure of an evolutionary algorithm according to Michalewicz [23] is shown in the Fig. 1 P(t) is the population of solutions (parents) of the generation t, H(t) is the population of solutions (children) of the same generation. 3.1. Application of evolutionary algorithms to the multiobjective infrastructure location problem. In the development of the implementation of an evolutionary algorithm, the first thing to do is to determine how the codification of the solutions is done. The following procedure was taken from Kratica et al [24] and Villegas et al [21] for the codification of solutions in facility location problems. A codification with a binary string is applied, where the i-th position represents if the corresponding facility is open. Besides, another codification type must be considered, with a representation which indicates the allocation of the supply nodes to the demand nodes.
51
Figure 2: Example of a binary representation of the solution of a location problem. Source: Adapted from [24]
In Figure 2, an instance of a facility location assignation solution is showed. In this example, the chromosome indicates that the origins marked out in the positions 2 and 4 correspond to those where the infrastructure will be located. As it was previously mentioned, an integer-type auxiliary codification is needed, to indicate how the demand points will be served. In this case, the integer-type chromosome is represented as [4,4,2,2,2]. This means, for example, that markets 3, 4, and 5 are served by the origin 2 and markets 1 and 2 by the source 4. In order to generate the original population, often randomization mechanisms are used. In the binary representation, strings of zeroes and ones, with a length of m, are generated. For the integer codification, a string of integers with a length n is generated. In the case of the evaluation and selection, we must take into account that the problem is multi-objective and hence, the set of dominant chromosomes must be determined over another set of worse solutions. In order to make the parents selection the tournament method may be used, in which two chromosomes are randomly chosen from the population and the chromosome with the best fit is chosen as parent. Nevertheless, in evolutionary algorithms the elitist method of selection has a considerable application, where the best parents are chosen by directly making the evaluation of their fit. To apply the crossover operator, the parents that have been chosen are crossed to obtain the children. This
Osorio-Ramírez et al / DYNA 81 (187), pp. 49-55. October, 2014.
front is structured by the solutions that are not dominated by any single remaining solution among the population; the second front would be formed by those solutions, which hypothetically would belong to the efficient frontier if the ones on the first front didn’t exist, and so on, until the whole population is completed. According to Deb et al [26], initially a size N population is generated in a random manner (P0). Each solution is classified according to its non-dominance level. Later, applying selection, crossover, and mutation mechanisms, an N-size population Q0 of children is generated. Afterwards, a population Rt = Pt Qt, where Rt has a size of 2N, is generated. This population is also arranged according to nondominance criteria. Consequently, the first optimal front will be integrated by the best solutions of the combined population and must be part of the next generation, Pt+1. If the size of the first front is smaller than N, then all the members of the aforementioned front will make up the next generation. The remaining members of the population Pt+1 will be chosen from the remaining fronts, giving precedence to the second front, then the third front and so on, until the N members of the population are completed. This cycle can be repeated up to T generations. In the Fig.4. the NSGAII algorithm is introduced.
Figure 3. Example of a crossover in the position 2 of the chromosome Source: Adapted from [21]
Generate P0 Evaluate the Objective Functions in P0 Apply the non-dominance classification to P0 Generate Q0 executing selection, crossover and mutation to P0 Evaluate the O.F. in Q0 while t ≤ T do Rt = Pt Q t Apply non-dominance classification to Rt Sort Rt Build Pt+1 with the first L chromosomes of Rt Select and cross Pt+1 to obtain Qt+1 Mutate Qt+1 Evaluate the O.F of the chromosomes on Qt t←t+1 end while
4. Problem description
Figure 4. Scheme of the NSGAII algorithm. Source: Adapted from [26]
crossover operation can be made in a single point, which consists in randomly selecting a position from the chosen chromosomes, and this position works as a starting point to determine which information will be inherited to the children. This can be better observed in the Fig. 3. In the mutation operation, the value of certain randomly chosen positions within the chromosome is changed. This operation is executed with a very low probability to avoid the algorithm to work as the local search routines. In order to mutate a binary chromosome, m random numbers, with a uniform distribution between 1 and 0 are generated, and the positions where the value of the pattern is lower than the mutation probability are changed. Since additionally there is an integer representation, for the case of location problems, it is recommended to have other additional mutation operators. In this case, the operator assigns some randomly chosen demand nodes, to other supply nodes which are also randomly chosen. 3.2. NSGAII The NSGAII algorithm (Non-dominated Sorting Genetic Algorithm) was initially proposed by Deb and Srinivas [25] as the NSGA, and later an improved version, from the computational efficiency point of view was introduced [26]. In this algorithm, the choosing process of the chromosomes is based on the classification of the population in optimal Pareto fronts, more specifically in dominant solution fronts. The first 52
The situation that was subject of the application of the NSGA II evolutionary technique belongs to a real instance faced by an international logistic operator (freight forwarded -3PL) who has a great operations volume in Colombia (due to confidentiality reasons its name is not provided). One of the reiterative issues and one among those that arise the most difficult during the decision making process, corresponds to the dispatch of containers from the maritime and dry ports, to the different cities of the country where there is the infrastructure to attend the demand, especially at the regional level. Despite this, it has been taken into consideration to centralize the reception and handling of containers in a lower number of ports, compared to the ones that are currently used, because according to the costs and services analysis performed by the company, there is sub-utilization of the installed capacity at the ports, and the fixed operating costs are considerably high, making it really complex to afford them, given the current operation level. The company does not want to neglect its service levels with the centralization of its container handling, because its service policy has represented a competitive advantage in the market and it is acknowledged because of its high standards in terms of accomplishment of promised delivery times to its customers. The information of the problem, which will be used as input for the optimization model to be solved, is characterized in the following manner: There are port operations and container yards in seven cities of the country: Barranquilla, Cartagena, Santa Marta, Buenaventura, Cali, Ipiales and Bogotá. Hence, these are the origin or supply nodes in the mathematical model.
Osorio-Ramírez et al / DYNA 81 (187), pp. 49-55. October, 2014.
Population Size: According to [21], in the multiobjective location problem the results tend to get better as the size of population increases; however, the computational times tend to increase as well, even though in this particular case the number of instances is relatively small. Previous pilot runs were executed with population sizes of 50, 70 and 100 individuals. The latter one showed better results on the tests and was chosen to be implemented in the case study. Generations: Similar to the population size parameter, the larger the number of generations, larger the probability to get better results. Nevertheless, depends on the size of the problem or number of instances, the probability of getting convergence of the results also increases. Previous pilot runs were executed with 100, 200 and 500 generations. The cases where the number of generations are greater than 100 showed results convergence, so this first value was chosen to be implemented in the model. Mutation probability: In the mutation operation, the value of certain randomly chosen positions within the chromosome is changed. According to [21], this operator must be executed with low probability values in order to avoid premature convergences to local optima solutions in multi-objective location problem. In the pilot experiments, three different values of mutation probability were used: 0.01, 0.03, and 0.05. As a result of the experiments, 0.01 was the probability implemented as in the other two cases the results showed a significant number of local optima solutions. Crossover: In this particular case, the single point crossover operator was chosen to be implemented in the final model For the execution of these runs, the JAVA libraries called JGA © developed by the Universidad de Los Andes (Bogotá, Colombia) to execute Genetic Algorithms were adapted and used, in th multi-objective modes. JGA © is an object oriented-based framework for solving multi-objective optimization models applying evolutionary algorithms. This platform allows to focus on the application’s logic by reusing a set of built-in components, as described in [27, 28].
Figure 5. Map of the current operation of the freight forwarder Source: own elaboration
As receiving centers, 25 points across the country have been considered. These spots are located mainly in the provincial capitals and are considered the destination or market nodes. The distances in kilometers between the origin and destination nodes are introduced in Table 1, where 0 is assumed when origin and destination are the same. In Fig. 5, the map shows the central dispatching from Bogota to the main demand centers. The demand, capacities, fixed costs, and variable costs, are assumed to be constant and deterministic for the planning period of the problem. This information is also subject to confidentiality agreements. The performance of the algorithm was evaluated for maximum coverage distances of 250, 400, and 500 km. 4.1. Parameters of the implemented algorithm The following are the values that were implemented as parameters for running the NSGA II model:
Table 1. Distances (in km) between Colombian cities. Source: Adapted from Google Earth® results. Armen Barranq Bogota Buenav Cali Cartag Ipiales Santa Marta
Barranq Bogota Buenav Cali Cartagena Ipiales Santa Marta
Barranq 1098 286 235 194 974 641 1191
0 1302 1116 1212 124 1580 93
Bogota
Bucaram 1302 0 519 484 1178 804 1139
739 439 937 923 917 1227 700
Buenav
Cali 1116 519 0 129 1154 593 1266
1212 484 129 0 1088 466 1305
Cartagena Cucuta 124 1178 1154 1088 0 1520 217
Floren 926 649 1138 1133 1050 1430 833
Ibague 1849 547 564 521 1507 251 1724
Ipiales 1179 205 319 279 1055 726 1272
Maniza 1580 804 593 466 1520 0 1669
1003 299 380 275 879 722 1096
Medellin 750 552 499 462 626 884 843
Medellin Monteria Neiva Pasto Pereira Popayán Quibdo Rioacha Sincele Santa Marta Tunja Valledupar Villavicencio 750 424 1386 1612 1054 1361 998 284 309 93 777 777 777 552 943 302 884 330 633 800 1147 993 1139 147 868 116 499 899 531 521 268 265 606 1459 966 1266 660 1048 632 462 933 486 400 224 149 710 1403 893 1305 631 1352 600 626 300 1262 1488 930 1237 874 408 185 217 1554 488 1294 884 1290 512 82 671 330 846 1795 1354 1669 950 1578 899 843 517 1479 1705 1147 1454 1091 191 402 0 992 271 1255
53
Osorio-RamĂrez et al / DYNA 81 (187), pp. 49-55. October, 2014.
4.2. Achieved results The parameters that are evaluated correspond mainly to the maximum coverage distance in which the container yards should be located. It can be observed that the Pareto frontiers for the three evaluated instances have too few points due to the small size of the problem, as illustrated in Figs. 6, 7, 8. It is worth highlighting that for the first two configurations, the solutions are similar in cost terms, but the coverage percentage increases slightly as the maximum distance also increases. These two solution groupings implied that the container yards must be located in Barranquilla, Buenaventura and Cali; nevertheless, this solutions set sacrifices the coverage percentage for those cities that are located inland, as it can be appreciated in the graphic, this coverage hardly reaches 30%. According to the third configuration, the yards should be located in the three aforementioned cities; the difference with the previous configurations lies in that from Buenaventura dispatches to more inland cities can be made, increasing the coverage percentage to 53% in this case. The interesting side of this last solution is that in terms of costs, it is cheaper than the two first solution sets, for which it could be said that, as the coverage index increases, a better service level will take place, without affecting the costs in a substantial way.
Figure 8. Pareto Frontier for a maximum coverage distance of 500 kilometers. Source: own elaboration
Figure 6. Pareto Frontier for a maximum coverage distance of 250 kilometers. Source: own elaboration
Figure 9. Map of the suggested operation for a maximum coverage distance of 500 kilometers. Source: own elaboration
5. Conclusions In this research the application of meta-heuristic techniques was implemented, to solve multi-objective problems in real world situations in the engineering field. For this case, the NSGA II algorithm was chosen, because of its versatility and implementation efficiency. The problem consisted basically in an assignment or location situation to serve a specific demand, modeling this problem as a network or graph. The implementation of the NSGA II had as results a set of solutions formed in Pareto Fronts, which varied according to the problem instance. Nevertheless, it must be clarified that in this research, metric performance measurements were not evaluated, which help to complement the analysis about the execution of the algorithm.
Figure 7. Pareto Frontier for a maximum coverage distance of 400 kilometers. Source: own elaboration 54
Osorio-Ramírez et al / DYNA 81 (187), pp. 49-55. October, 2014.
It is necessary to annotate these results indicate that service and efficiency parameters of the freight forwarder are not aligned, in the sense that the fact of centralizing affects considerably the service levels. The company must evaluate the market that will be affected by the centralization decisions that may be taken, and dimension the impact both in cost and branding terms. The proposed coverage levels by the model’s solution could not be acceptable in practical terms, due to the fact that the market standards can achieve higher levels. Despite this, the scenarios shown by the model allow identifying the cons that the distribution centralization policies would have for the analyzed freight forwarder. Likewise, a representative part of the customers (close to 30%) of this forwarder are really sensitive to the delivery times in their markets (cosmetics and cleansing products), and hence these decisions need to be revised and analyzed really carefully, analyzing the immediate and collateral effects in their customers operational performance.
[16] Farahani, R., Steadieseifi, M. and Asgari, N., Multiple criteria facility location problems: A survey, Applied Mathematical Modelling, 34, pp. 1689-1709, 2010. [17] Badri, M.A., Mortagy, A.K. and Alsayed, A. A multi-objective model for locating fire stations. European Journal of Operations Research, 110, pp. 243-260, 1998. [18] Matsui, T., Sakawa, M., Kato, K. and Uno, T., Particle swarm optimization for nonlinear 0-1 programming problems, IEEE International Conference on Systems, Man and Cybernetics, pp. 168-173, 2008. [19] Bhattacharya, U.K., A multi-objective obnoxious facility location model on a plane, American Journal of Operations Research, 1, pp. 39-45, 2011. [20] Rardin, R., Optimization on Operations Research, Pearson, New York, 1998. [21] Villegas, J.G., Palacios, F. and Medaglia, A.L., Solution methods for the bi-objective (cost-coverage) unconstrained facility location problem with an illustrative example, Annals of Operations Research, 147 (1), pp. 109-141, 2006. [22] Daskin, M.S., Network and Discrete Location: Models, Algorithms and Applications, John Wiley & Sons, New York, 1995. [23] Michalewicz, Z., Genetic Algorithms + Data Structures = Evolution Programs, Springer-Verlag, Berlin, 1996. [24] Kratica, J. and Filipovic, V., Solving the simple plant location problem by genetic algorithm, RAIRO Operations Research, 35, pp. 127-142, 2001. [25] Deb, K. and Srinivas, N., Multiobjective optimization using nondominated sorting in genetic algorithms, Evolutionary Computation, 2 (3), pp. 221-248, 1994. [26] Deb, K., Agrawal, S., Pratap, A. and Meyarivan, T., A fast elitist non-dominated sorting genetic algorithm for multi-objective optimization: NSGA-II. KanGAL report 200001. Indian Institute of Technology, Kanpur, India, 2000, 11 P. [27] Medaglia, A.L. and Gutiérrez, E., JGA: An object-oriented framework for rapid development of genetic algorithms. In: Rennard, J.-P., (ed.) Handbook of Research on Nature Inspired Computing for Economics and Management. Idea Group Publishing, Hershey, 2006. [28] Medaglia A.L., Villegas, J.G. and Rodríguez-Coca, D.M., Hybrid biobjective evolutionary algorithms for the design of a hospital waste management network, Journal of Heuristics, 15, pp. 153-176, 2009
References [1] [2] [3] [4] [5] [6] [7] [8] [9]
[10] [11] [12] [13] [14]
[15]
Ballou, R., Business Logistics/supply management: planning, organizing and controlling the supply chain. Prentice-Hall, NY, 2004. Arango, M.D., Adarme, W. and Zapata, J.A., Commodities distribution using alternative types of transport. A study in the Colombian bread SME’s, DYNA, 77 (163), pp. 222-233, 2010. Brandeau, M., An overview of representative problems in location research, Management Science, 35(6), pp. 645-674, 1989. Drezner, Z., Facility Location, Springer-Verlag, Nueva York, 1995. Korpela, J., Lehmusvaara, A. and Tuominen, M., Customer service based design of the supply chain, International Journal of Production Economics, 69, pp. 193-204, 2001. Nozick, L.K. and Turnquist, M.A., Inventory, transportation, service quality and the location of distribution centers, European Journal of Operations Research, 129, pp. 362-371, 2001. Revelle, C.S. and Eiselt, H.A., Location analysis: a synthesis and survey, European Journal of Operations Research, 165, pp. 1-19, 2005. Prodhon, C. and Prins, C., A survey of recent research on locationrouting problems, European Journal of Operational Research, 238, pp. 1-17, 2014. Belenguer, J.-M., Benavent, E., Prins, C., Prodhon, C. and WolflerCalvo, R., A branch-and-cut method for the capacitated locationrouting problem, Computers and Operations Research, 38 (6), pp. 931–941, 2011 Baldacci, R., Mingozzi, A. and Wolfler-Calvo, R., An exact method for the capacitated location-routing problem, Operations Research, 59 (5), pp. 1284–1296, 2011. Harks, T., König, F.G. and Matuschke, J., Approximation algorithms for capacitated location routing, Transportation Science, 47 (1), pp. 3–22, 2013. Griffis, S.E., Bell, J.E. and Closs, D.J., Metaheuristics in logistics and supply chain management, Journal of Business Logistics, 33 (2), pp. 90-106, 2012. Badhury, J., Batta, R. and Jaramillo, J., On the use of genetic algorithms to solve location problems, Computers and Operations Research, 29, pp. 761-779, 2002. Crainic, T.G., Sforza, A. and Sterle, C., Tabu search heuristic for a two-echelon location-routing problem, CIRRELT Technical Report. [Online], 2011, [date of reference: June 14th of 2012], Available at: https://www.cirrelt.ca/DocumentsTravail/CIRRELT-2011-07.pdf Bouhafs, L., Hajjam, A. and Koukam, A., A Tabu search and ant colony system approach for the capacitated location-routing problem, Proceedings International Conference on Artificial Intelligence and Parallel Computing, pp. 46-54, 2006.
C. Osorio-Ramírez, holds a Bs. Eng. in Industrial Engineering from the Universidad Industrial de Santander, Colombia and a Graduate Certificate in Logistics and Supply Chain Management from the Massachusetts Institute of Technology, USA. He is currently a PhD candidate in Industry and Organizations Engineering in the Universidad Nacional de Colombia, in Bogotá, Colombia. He is also currently a research associate of the Society, Economy and Productivity research group from the Engineering Faculty of the Universidad Nacional de Colombia. M. D. Arango-Serna, received the Bs. Eng. in Industrial Engineering in 1991 from the Universidad Nacional de Colombia, Specialist in Finance, Formulation and Evaluation of Projects in 1993 from the Universidad de Antioquia, Colombia, Sp. in Universitary Teaching in 2007 from the Universidad Politécnica de Valencia, Spain. He also holds a MSc. in Systems Engineering in 1997 from the Universidad Nacional de Colombia in Medellín, Colombia and a PhD. in Industrial Engineering in 2001 from the Universidad Politécnica de Valencia, Spain. Is Titular Professor of the Department of Engineering of Organization in the Facultad de Minas of the Universidad Nacional de Colombia. Senior researcher according to Colciencias 2013 classification. Director of the Research Group I+D+i Organizational-Industrial Logistics “GICO”. W. Adarme-Jaimes, holds a Bs. Eng. in Industrial Engineering from the Universidad Industrial de Santander, Colombia, Sp. in Production and MSc. in Industrial Engineering-Logistics from the Universidad del Valle, Colombia and a PhD in Industry and Organizations Engineering in the Universidad Nacional de Colombia. Is Associate Professor of the Engineering at the Universidad Nacional de Colombia, in Bogotá, Colombia. Director of the Society, Economy and Productivity research group of the Universidad Nacional de Colombia.
55
Ontological learning for a dynamic semantics ontological framework Taniana Rodríguez a & José Aguilar b a
Centro de Estudios en Microelectrónica y Sistemas Distribuidos (CEMISID), Universidad de Los Andes Mérida, Venezuela taniana@ula.ve, Centro de Estudios en Microelectrónica y Sistemas Distribuidos (CEMISID), Universidad de Los Andes Mérida, Venezuela aguilar@ula.ve
b
Received: October 1th, 2013. Received in revised form: June 16th, 2014. Accepted: July 7th, 2014
Abstract: In this paper we propose an Ontological Learning architecture, which is one of the key components of the Dynamic Semantic Ontological Framework (MODS) for the Semantic Web. This architecture supports the automatic acquisition of lexical and semantic knowledge. In particular, it allows the acquisition of knowledge of terms (words), concepts (taxonomic, not taxonomic) relations, production rules, or axiom. The architecture establishes where each acquired knowledge must be incorporated into the structures of MODS: its interpretive ontology, language ontology, or lexicon. Furthermore, the paper presents an example of use of architecture to the case of semantic learning Keywords: Natural Language Processing, Ontological Learning, Semantic Web.
Aprendizaje ontológico para el marco ontológico dinámico semántico Resumen: En este trabajo se propone una arquitectura de Aprendizaje Ontológico, que es uno de los componentes claves del Marco Ontológico Dinámico Semántico (MODS) para la Web Semántica. Esta arquitectura general soporta la adquisición automática de conocimiento léxico y semántico. En particular, permite la adquisición de conocimiento sobre términos (palabras), conceptos (taxonómicos, no taxonómicos), relaciones entre ellos, reglas de producción o axiomas. La arquitectura establece donde cada conocimiento adquirido debe ser incorporado en las estructuras del MODS, ya sea en su ontología interpretativa, ontología lingüística, o lexicón. Además, el trabajo presenta un ejemplo de uso de la arquitectura para el caso del aprendizaje semántico. Palabras clave: Procesamiento del Lenguaje Natural, Aprendizaje Ontológico, Web Semántica.
1. Introducción En este trabajo se describe la arquitectura del componente de aprendizaje ontológico utilizado en mods. El mods es un sistema que permite el procesamiento ontológico de consultas, expresadas en lenguaje natural, para la web [1]. Mods está compuesto por una ontología lingüística del lenguaje español, una ontología para las tareas de procesamiento de la consulta, y una ontología interpretativa del perfil del usuario, además de un lexicón. El marco ontológico es dinámico, en el sentido que se actualiza a través de mecanismos de aprendizaje automático, para adaptarse a los cambios de la web y al perfil de los usuarios. Algunos de los objetivos que se persiguen con mods son: usar el lenguaje natural español para realizar
consultas sobre la web, explotar el contenido semántico sobre la web en procesos de razonamiento automático con el fin de optimizar los procesos de búsqueda, aprender sobre el uso y el contenido de la web, entre otras cosas. Para lograr el proceso de adaptación del mods, se requiere de un componente de aprendizaje que permita el proceso de adquisición de conocimiento, el cual actualizará el contenido del resto de sus componentes. Sin este componente de aprendizaje, el mods se reduce a un simple sistema de interpretación de consultas, usando un conocimiento inicialmente definido en sus componentes. Así, la importancia de este componente tiene que ver con la capacidad que se le confiere al mods para adaptarse a su entorno (web y usuarios). En este trabajo se presenta la
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 56-63. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40087
Rodríguez & Aguilar / DYNA 81 (187), pp. 56-63. October, 2014.
arquitectura genérica del componente de aprendizaje. Además, se presenta los dos macro algoritmos, para el caso del aprendizaje morfosintáctico y del aprendizaje semántico. A continuación se describen algunos trabajos previos, vinculados al problema de aprendizaje: doddle-owl es un sistema que soporta el aprendizaje de relaciones taxonómicas y no taxonómicas, usando métodos estadísticos (análisis de co-ocurrencia), word net [3] y textos específicos a un dominio dado [6]. Text2onto es el oficial sucesor de text toonto, el cual es una herramienta de aprendizaje de ontologías desde texto [10], capaz de identificar términos, sinónimos, conceptos, relaciones taxonómicas y axiomas. Además, tiene incorporado un modelo probabilístico ontológico, que permite registrar la evolución de una ontología (cambios en su corpus) [7]. Cameleon es un sistema que encuentra relaciones léxicas taxonómicas y no taxonómicas en textos planos, por medio de patrones léxicosintácticos [8]. Hasti es un sistema para la construcción automática de ontologías, usa como entrada información noestructurada en la forma de texto en lenguaje natural persa. Hasti no usa conocimiento previo, es decir, construye las ontologías desde cero. Usa un lexicón que se encuentra inicialmente vacío, y va creciendo incrementalmente en la medida que va aprendiendo nuevas palabras. Hasti aprende conceptos, relaciones conceptuales taxonómicas, notaxonómicas, y axiomas. Hasti usa un enfoque simbólico hibrido (una combinación de lógica y métodos heurísticos, entre otros) [9]. Ontolearn, es un sistema que permite enriquecer una ontología de dominio con conceptos y relaciones. Usa aprendizaje de máquina, el cual ofrece algunas técnicas para el descubrimiento de conocimiento (patrones) basadas en cadenas de markov [11] Este trabajo se diferencia de los trabajos previos, en primer lugar, porque forma parte de un componente de aprendizaje donde otros aspectos se aprenden (léxicos, semánticos, coloquiales, entidades nombradas); en segundo lugar, porque el resultado de la adquisición de conocimiento alimenta a específicos componentes del mods (en este caso, al lexicón y a la ontología interpretativa); y tercero, porque su fuente de aprendizaje es la consulta en lenguaje natural o el resultado arrojado por la web para dicha consulta. Este trabajo está organizado de la siguiente manera, en la sección 2 se presenta el marco ontológico dinámico semántico, en la sección 3 se presenta el aprendizaje ontológico, en la sección 4 se presentan algunos ejemplos de uso de esa arquitectura en mods, específicamente para el caso de aprendizaje semántico, y finalmente, en la sección 5, se presentan las conclusiones y trabajos futuros.
Figura 1. Marco Ontológico Semántico Fuente: Rodríguez, T. et al., 2010
sus esquemas internos frente a la dinámica de la Web para tratar futuras consultas (para lo cual requiere de mecanismos de adaptación). Específicamente, en [1] se propone la arquitectura de MODS. A continuación presentamos dicha arquitectura (ver Fig. 1). De manera general, MODS transforma la consulta en un lenguaje ontológico, utilizando sus diferentes componentes: el lexicón, la ontología lingüística, la ontología de tareas y la ontología de dominio. De esta manera, MODS utiliza mecanismos de la semántica ontológica y herramientas del procesamiento del lenguaje natural para el procesamiento de las consultas de los usuarios. Una descripción más detallada de la arquitectura (Fig. 1) es la siguiente: la ontología de tareas modela las tareas de procesamiento de la consulta en lenguaje natural (análisis léxico-morfológico, análisis sintácticosemántico, análisis pragmático); la ontología lingüística especifica la gramática del lenguaje español, y cuenta con una extensión de derivaciones coloquiales y con un lexicón para caracterizar al lenguaje español, que a su vez contiene un onomasticon (se define como onomasticon como una colección de nombres propios y/o términos especializados y/o coloquiales); la ontología interpretativa modela el conocimiento sobre el contexto específico del usuario (es una ontología de alto nivel, con especializaciones/extensiones basadas en ontologías de dominio externas al MODS), donde esta ontología interpretativa, está compuesta con una ontología del usuario que describe el uso del sistema que va realizando cada usuario, lo que permite incorporar a la consulta formal las características propias del usuario (contextualización) para intentar delimitar la respuesta de la web. Finalmente, otro componente clave para la adaptabilidad del MODS a la dinámica de la web y del usuario, es el componente de aprendizaje de ontologías que se propone en este trabajo, cuyo fin es permitir que las ontologías evolucionen a la par con la usabilidad del sistema.
2. Marco Ontológico Dinámico Semántico (MODS) El MODS es una propuesta novedosa que permite el análisis y la realización de consultas en lenguaje natural en la Web Semántica. La consulta para el MODS, más que una petición de información, es un elemento cargado de información útil para formarse una idea del tipo de usuario, y aproximarse, de manera sucesiva, a una respuesta que satisfaga cada vez más las necesidades del mismo. MODS tiene el desafío de interpretar y formalizar la consulta realizada por el usuario en lenguaje natural, como refinar
3. Arquitectura de aprendizaje ontológico El aprendizaje ontológico es usado para la adaptabilidad del MODS. Este componente recibe como entrada (ver Fig. 2):
57
Rodríguez & Aguilar / DYNA 81 (187), pp. 56-63. October, 2014. Tabla 1. Requerimientos de aprendizaje de información morfosintáctica. Categoría G N T M Ti A V Sustantivo x x x Adjetivo x x x Adverbio x Verbo x x x x Fuente: Los autores
P
x
A continuación describimos las dos unidades de aprendizaje, que definen los dos tipos de aprendizaje del MODS. 3.1. Unidad de Aprendizaje Morfosintáctica Consiste en una serie de métodos de aprendizaje para la adquisición, ampliación y refinamiento de la información morfológica y sintáctica almacenada en el lexicón, sin los cuales MODS no podría robustecerse en su capacidad de interpretación del lenguaje natural. Así, esta unidad tiene como objetivo enriquecer el lexicón. Las estructuras del lenguaje natural principales que tienen que ver con el aprendizaje morfosintáctico son las unidades léxicas de alto nivel (verbos, sustantivos, adjetivos, adverbios). Según la categoría lingüística a aprender, esta unidad de aprendizaje requiere de un conjunto de conocimientos a adquirir, la Tabla 1 los define. Donde G es el Género, N: Número, T: Tipo, M: Modo, Ti: Tiempo, A: Aspecto, V: Voz, P: Persona. Dicha información es caracterizada en la siguiente función, que constituye la interfaz del MODS con el componente de aprendizaje: lex_mor (componente léxico, categorías, tipo, género, número, modo, tiempo, aspecto, voz, persona, instancia_ontologia_linguistica). Esta unidad está formada por cuatro fases (ver Fig. 3).
Figura 2. Componente de Aprendizaje Fuente: adaptado por La cruz, Rodríguez, Aguilar, 2012
Términos desconocidos o documentos Web. El primer caso ocurre con el análisis de la consulta, cuando se encuentra frente a un término desconocido por el lexicón del MODS; en este caso, el MODS invoca el aprendizaje ontológico morfosintáctico [4]. El segundo caso ocurre cuando el proceso de interpretación de la consulta es exitoso, lo que resulta en un grupo de información recuperada de la Web por la consulta generada por MODS. En este caso, el MOD invoca el aprendizaje ontológico semántico [5], el cual aprende nuevos conceptos, relaciones taxonómicas y no taxonómicas. La arquitectura de aprendizaje ontológico consta de cinco componentes: el primer componente es la unidad de pre-procesamiento, que caracteriza la información de entrada, sea un término desconocido o información recuperada de la Web. El segundo componente es la unidad de aprendizaje semántico, el cual contiene un repositorio de técnicas de aprendizaje de conceptos, relaciones taxonómicas y no taxonómicas, a partir de documentos. El tercer componente es la unidad de aprendizaje morfosintáctica, este componente utiliza diccionarios en línea para determinar las estructuras léxicas o sintácticas de términos desconocidos (este componente se encuentra implementado en su totalidad en [4]). El cuarto componente es la unidad de actualización que determina el elemento del MODS que se va actualizar, según el aprendizaje que se esté́ realizando: al lexicón, a la ontología interpretativa, o a la ontología lingüística. Finalmente, el motor de mapeo automático, es el que se encarga de llamar a las unidades de aprendizaje según la entrada al sistema (determina cuál de los dos aprendizajes se va a utilizar).
Figura 3. Macro Algoritmo de la Unidad de Aprendizaje Morfosintáctica Fuente: Los autores 58
Rodríguez & Aguilar / DYNA 81 (187), pp. 56-63. October, 2014.
La fase de aprendizaje simiente que es de preprocesamiento y caracterización, recibe como entrada un término desconocido, y halla la información morfosintáctica básica del término, tal como su forma canónica, afijos (prefijos y sufijos), etc. Con esta información se caracteriza el término. La forma canónica de un verbo en infinitivo es el mismo, y para un verbo conjugado su forma infinitiva: para un sustantivo, adjetivo o adverbio en plural, su forma canónica es su singular. En esta fase se hace uso de una librería de algoritmos diseñados para tales fines: un lematizador y un analizador de constituyentes, respectivamente. En el caso de los adverbios, muchos son derivados de los adjetivos (por ejemplo, felizmente es derivado del adjetivo feliz). Es así que para el aprendizaje simiente de un adverbio se separa el sufijo o el prefijo del núcleo. En cuanto a los adjetivos, son palabras que nombran o indican cualidades, rasgos y propiedades de los nombres o sustantivos a los que acompañan. El tratamiento de aprendizaje simiente para el adjetivo consiste en aprender su forma canónica. Las demás unidades léxicas de orden inferior, tales como pronombres, determinantes etc., se encuentran predefinidos en MODS, y no son objeto de aprendizaje. Después sigue la fase de aprendizaje ágil, cuyo objetivo es validar y aprender información gramatical en función del término. Para ello recibe la salida generada en el aprendizaje simiente, y devuelve alguna de las siguientes salidas: Caso 1: Ocurre cuando la categoría descubierta de la palabra desconocida es un sustantivo, adjetivo o adverbio. Caso 2: Ocurre cuando la categoría de la palabra descubierta es un verbo. Caso 3: Ocurre cuando no se ha encontrado ninguna información relacionada con la palabra desconocida. Según sea el caso realiza diferentes tareas, en el caso 1 va a la unidad de actualización para actualizar el lexicón, en el caso dos, entra en la fase de aprendizaje duro, el cual soporta el aprendizaje morfosintáctico de verbos, y consiste en la conjugación de los verbos, tantos regulares como irregulares, del español. En el caso 3 envía un mensaje de error al MODS. En general, una de las tareas más complejas dentro del aprendizaje morfosintáctico es el aprendizaje de verbos. En este trabajo se ha desarrollado para el aprendizaje duro un conjunto de algoritmos que pueden diferenciar entre verbos regulares e irregulares, y desplegar la conjugación de los verbos regulares y parte de los irregulares del español, a partir de su forma en infinitivo. En general, el verbo es una categoría léxica que, al conjugarse puede variar en persona, número, tiempo, modo, aspecto y voz. Desde un punto de vista morfológico, el verbo consta de dos partes: la raíz, que es la parte que nos aporta el significado del verbo, tal y como lo podemos encontrar en el diccionario (información léxica). las desinencias, que son los morfemas flexivos que nos dan la información referente a la persona, número, tiempo, modo, aspecto y voz (información gramatical). De este modo, en una forma verbal como “amo”, se pueden distinguir las siguientes partes: am-, raíz cuyo
Figura 4. Esquema conceptual de la Unidad de Aprendizaje Semántico Fuente: Los autores
significado es “tener amor a alguien o algo”, y la desinencia que nos revela que la forma verbal amo se corresponde con la primera persona (persona) del singular (número), del presente (tiempo) del indicativo (modo) de la voz activa. Finalmente, la fase de la Unidad de Actualización del lexicón, recibe como entrada la función lex_mor y actualiza el lexicón. 3.2. Unidad de Aprendizaje Semántico Este aprendizaje cubre el aprendizaje de conceptos, relaciones taxonómicas, relaciones de dominio, relaciones no taxonómicas, propiedades y axiomas. En el caso del MODS el aprendizaje de relaciones no taxonómicas es fundamental, y consiste en el descubrimiento de verbos relacionados con el dominio, en la extracción de conceptos que están relacionados no taxonómicamente, en la extracción de relaciones de marcado (por ejemplo, las etiquetas puestas a un producto que hablan sobre él), de reglas de comportamiento, entre otras cosas. El aprendizaje de información semántica es fundamental para la ontología interpretativa (dominio) y lingüística. En la Fig. 4 se muestra el esquema conceptual del aprendizaje semántico, el cual se describe brevemente a continuación. La Unidad de Aprendizaje Semántico ocurre cuando el proceso de interpretación de la consulta es exitoso, generando como insumo, un conjunto de enlaces web, a partir de la consulta hecha por el MODS. Ese conjunto de enlaces es la entrada a esta unidad. La información de esos enlaces puede traer consigo información heterogénea: textos, diccionarios, bases de conocimiento, información semi-estructurada (anotaciones RDF de recursos WEB, esquema XML), información relacional, ontologías, entre otros. Esta información pasa tres fases. Se comienza por la fase de pre-procesamiento para caracterizar la entrada. Para ello se realiza una clasificación débil, la cual consiste en una preselección de los documentos recuperados, tomando como base los términos de la consulta. El criterio utilizado para la 59
Rodríguez & Aguilar / DYNA 81 (187), pp. 56-63. October, 2014.
selección de los documentos relevantes es que el 100 % de los términos de la consulta estén en el documento. Otro factor que se toman en el pre- procesamiento, es que solo se van a tomar los documentos no estructurados que están en el formato HTML. En decir, la clasificación débil es un filtro sobre los documentos recuperados, basados en los criterios antes descritos. Luego se pasa a la fase de categorización, comenzando con el tratamiento de cada documento, que consiste en separar todos los términos de los documentos relevantes en tokens, y por cada tokens se busca si existe en el lexicón. En caso que no exista, se genera una tabla de frecuencia de los términos a aprender, con su respectiva frecuencia de aparición en los documentos relevantes. A cada término almacenado en la tabla de frecuencia, se le realiza el análisis morfosintáctico llamando a la unidad de aprendizaje morfosintáctica, para obtener la categoría de cada término (sustantivo, verbo), y generar la lista de los términos a aprender. La fase de aprendizaje involucra un conjunto de tareas: Aprendizaje de relaciones taxonómicas, que en nuestro caso es la taxonomía de conceptos definidos en la ontología interpretativa del MODS, el cual usa un árbol de aprendizaje como representación (ver Fig. 5). Este árbol está compuesto por Entidades, que representan los objetos físicos y abstractos (normalmente son los sustantivos), y por Eventos, que representan una acción (normalmente son los verbos). Por cada concepto a aprender se establece una función numérica de pesos, utilizada para reforzar el concepto que se está aprendiendo La función está definida con la siguiente fórmula:
Astractas Entidades Concretas Arbol de Aprendizaje
Cambios
Eventos
Comportamentos
etc
Figura 5. Árbol de Aprendizaje Fuente: Los autores
pesos del árbol, reforzando los pesos de los arcos que representan que los conceptos son usados según lo establecido en la plantilla, debilitando el resto de los casos que representan usos distintos del concepto a lo establecido en la plantilla. Si no se encuentra se actualiza el árbol de relación (ya que es una relación entre dos conceptos). En la sección 4 se presenta un ejemplo de cómo se comporta esta unidad. Por último, en la fase de actualización se actualiza la ontología interpretativa. 4. Ejemplo de la unidad de aprendizaje semántico
Peso=peso +incremento (incr), En esta sección se desarrolla un ejemplo de la unidad de aprendizaje semántico. Para el caso del aprendizaje morfosintáctico, ya existen ejemplos en [4]. El aprendizaje semántico ocurre cuando el proceso de interpretación de la consulta es exitoso. Supongamos una información recuperada de la Web, por la siguiente consulta “Profesores and pertenecen and ‘Universidad de Los Andes’ and Mérida and Venezuela filetype: html”, realizada por el MODS. En la Fig. 6 se muestra una parte de los documentos recuperados. El siguiente paso es la preselección de los documentos recuperados (fase de pre-procesamiento): los documentos 1, 2, 4 y 6 son seleccionados como documentos relevantes, por tener todos los términos de la consulta (criterios de la clasificación débil), mientras que los documentos 3 y 5 son rechazados. Siguiendo con la fase de categorización, se genera una tabla de frecuencia con los términos a aprender y su categoría (sustantivo o verbo), ver Tabla 2. Luego se pasa a la fase de aprendizaje, que se detalla a continuación para un caso en particular; por ejemplo, uno de los términos que se encuentra en la tabla de términos a aprender es Universidad, con una frecuencia de 35 y con categoría “sustantivo”. El procedimiento que se sigue es el siguiente:
Donde incr = α*incr, siendo α el factor de aprendizaje. La misma fórmula usa para decrementar el peso. Ese peso es usado en el arco que enlaza el tipo de nodo evento o entidad, con el concepto a aprender. Si ese peso tiene un valor superior a un umbral dado, después de culminar el proceso de aprendizaje, es incorporado al MODS, de lo contrario se descarta. Aprendizaje de relaciones no taxonómicas, el cual consiste en aprender las relaciones entre los conceptos. Los tipos de relación a aprender pueden ser las relaciones binarias, donde solo se relaciona dos conceptos (por ejemplo, José dicta Inteligencia Artificial), relaciones entre sinónimos, de polisemia. En particular, el procedimiento general que se sigue en esta fase es el siguiente Para cada elemento de la lista de aprendizaje, se busca el documento donde se encuentra el elemento, y se extrae del documento la frase donde es usado. Luego se realiza el análisis morfosintáctico y la etiquetación de la frase. Con el resultado, se busca el patrón en la base de datos de plantillas de frases (patrones léxicos-sintáctico). En caso de que se encuentre ese patrón, se actualiza el árbol de aprendizaje (el cual es una jerarquía de concepto). Esa actualización consiste en modificar los 60
Rodríguez & Aguilar / DYNA 81 (187), pp. 56-63. October, 2014.
la siguiente frase: “Universidad de Los Andes es una Universidad”; Se realiza el análisis morfosintáctico de la frase, que consiste en obtener la información morfológica y la estructura sintáctica, utilizando en este caso la gramática en español. Luego de este análisis, se obtiene lo siguiente para nuestro ejemplo: Universidad [NP] de [prep] “Los Andes” [NP] “es una” Universidad [NP] Donde: NP: Nombre Propio Prep: preposición La regla (patrón) para Nombre Propio es la siguiente: NP=> NP | NP prep NP Por lo tanto, la frase anterior queda de la siguiente manera “Universidad de Los Andes” [NP] “es una” Universidad [NP] Obteniendo el siguiente patrón: NP “es una” NP 2. El patrón obtenido se busca en la base de datos de las plantillas de patrones léxicos-sintáctico. Un ejemplo de las plantillas que podrían estar en esa base de datos se muestra en la Tabla 3. 3. Si encuentra el patrón determina que tipo de relación es. En nuestro ejemplo es una relación es_una (Universidad, Universidad de Los Andes), 4. Luego busca en el árbol de aprendizaje de la Fig. 5 el concepto Universidad, si no encuentra el concepto ve que tipo de concepto es. En este caso se dedujo que es un nombre propio. Por la regla 11 se sabe que puede ser una cosa, persona, animal o un lugar; y por la regla 13 que debe ir en la rama de Entidades y Concreta. Por lo tanto, se inserta el concepto en la rama de entidades, con su respectivo peso inicial de 0.25, tal como se muestra en la Fig. 7.
1
2
3
4
5
6
Figura 6. Extracto de los documentos recuperados de la consulta realizada por el MODS. Fuente Resultado obtenido del motor de búsqueda google. Fecha: 12/08/2013.
Tabla 2. Ejemplo de la tabla de frecuencias Término Frecuencia Universidad 35 Organización 13 Dicta 7 Mérida 4 Fuente: Los autores
Categoría Sustantivo Sustantivo Verbo Sustantivo
1. Se extrae de uno de los documentos relevantes la frase donde se encuentra la palabra Universidad, obteniéndose
Figura 7. Árbol de Aprendizaje después de considerar los términos Universidad y Universidad de Los Andes en la frase. Fuente: Los autores
61
Rodríguez & Aguilar / DYNA 81 (187), pp. 56-63. October, 2014.
En una segunda iteración volvemos a buscar el término en los documentos relevantes y recomenzamos de nuevo: 1. Por ejemplo, se encuentra en otro documento relevante la siguiente frase: “Universidad es una Organización”. 2. Realizando el proceso anterior se tiene: NP es una NP, en este caso es una relación es_una (Organización, Universidad) 3. Además, Universidad y Organización están en el árbol de aprendizaje, por lo que lo que se hace es incrementar los pesos de los conceptos donde están universidad y organización, y disminuir los pesos en los otros lugares donde se encuentra universidad pero no organización. En concreto, donde está Organización y Universidad se incrementa a 0,26, y los otros, tales como persona y Universidad, Lugar y Universidad, etc. se disminuye a 0,24 (ver Fig. 8)
Tabla 3. Base de Datos de patrones léxicos-sintáctico Patrón Ejemplo de instancias de reglas 1. FNi {,FNi}*{,} u otros FNn 2. FN1 {,FNi}*{,} u otras FNn 3. FN1 es un FN2 4. FN1 es una FN2 5. Es_una(FN2,FN1) 6. Es_un(FN2,FN1) 7. U_otros(FNn,FNi) para i=1 hasta n-1 8. U_otras(FNn,FNi) para i=1 hasta n-1 9. FN->NP 10. NP-> NP de NP 11. NP->Persona | Organización | Animal | Lugar 12. FN->N 13.NPsem-> Entidades -Concretas
1. Por el patrón 1. “Jose Aguilar, Gerard Paez, u otros profesores” 2. Por el patrón 5. “Universidad de Los Andes” es una Universidad
Fuente: Los autores Donde FN-> Frase Nominal. NP-> Nombre propio. NPSem-. Semántica del Nombre Propio.
Figura 8. Árbol de Aprendizaje después de considerar los términos Organización y Universidad que aparecen en la frase Fuente: Los autores
Supongamos que en otro documento relevante se encuentra nuevamente la frase: “Universidad es una Organización”. Esto hará nuevamente reforzar el concepto de que Universidad es una Organización, lo que implica la actualización de los pesos otra vez; es decir, donde esta organización y universidad se actualiza a 0,27, y los demás se disminuye. Este proceso se sigue haciendo cada vez que se encuentre en algún documento relevante frases donde aparece el término Universidad, reforzando y debilitando a las ramas respectivas. Para la fase de actualización, se seleccionan del árbol de aprendizaje los conceptos cuyos pesos de sus ramas sean mayor a 0,90. Los conceptos que están en ese rango, son candidatos para la actualización de la ontología Interpretativa del MODS. Entonces, esta fase se encarga de actualizar, tanto al lexicón como a la ontología Interpretativa, con estos términos.
5. Conclusiones En este trabajo se presentó la arquitectura de aprendizaje ontológico para el MODS, capaz de adquirir nuevo conocimiento en función de la información suministrada por el proceso de análisis de una consulta en lenguaje natural, y/o de la información recuperada desde la web por dicha consulta. Esta arquitectura, a partir del nuevo conocimiento adquirido, permite potenciar las estructuras del MODS. La arquitectura de aprendizaje ontológico se caracteriza por integrar diferentes métodos y técnicas de descubrimiento de conocimiento léxico, morfológico, sintáctico, semántico y pragmático. Además, a través de la arquitectura es posible explotar cualquier recurso computacional, sea una página web, una base de datos, una ontología. Así, se ha diseñado una arquitectura novedosa con capacidad para soportar una variedad de elementos de aprendizaje. 62
Rodríguez & Aguilar / DYNA 81 (187), pp. 56-63. October, 2014.
Lograr su implementación completa ha mostrado ser un reto de gran complejidad. Una de las razones es que estamos frente a uno de los fenómenos más interesantes en la inteligencia humana, el aprendizaje lingüístico. En términos computacionales, esto implica la construcción de varios algoritmos que emulen los procesos que para los humanos son fáciles, como por ejemplo, saber si una palabra es un verbo o un sustantivo (por ejemplo: comer y pan). Esto tiene que ver con lo que se ha denominado aprendizaje morfosintáctico. Otro ejemplo seria saber si es un concepto o una relación (por ejemplo, Juan dicta Matemáticas), este caso ocurre dentro de lo que se ha denominado aprendizaje semántico. En este trabajo se describe en forma general los dos macro algoritmos de la unidad de aprendizaje, y en particular, se muestra el uso del de la unidad de aprendizaje semántico, ya que el de la unidad morfosintáctica ya fue presentado en [4]. Según los resultados obtenidos, vemos que la unidad de aprendizaje semántico realiza el aprendizaje de conceptos, relaciones taxonómicas y no taxonómicas, en documentos no estructurados que son recuperados de la Web tradicional. Entre los trabajos futuros se tiene la implementación de la unidad de aprendizaje semántico, y la integración de ese componente de aprendizaje con el MODS.
Information Systems (NLDB), vol. 3513 of Lecture Notes in Computer Science, Alicante, Spain, pp. 227-238. 2005. Available at: https://code.google.com/p/text2onto/ [8] Aussenac, N. y Seguela, P., Les relations sémantiques: Du linguistique au formel. Cahiers de grammaire. N° spécial sur la linguistique de corpus. A. Condamines (Ed.) Vol. 25. Toulouse: Presse de l'UTM, 2000. [9] Shamsfard, M. y Barforoush, A., An introduction to Hasti: An ontology learning system, Proceedings of the iasted international conference artificial intelligence and soft computing, Acta Press, Galgary, Canada, pp 242-247, 2002. [10] Valencia, R., Un entorno para la extracción incremental de conocimiento desde texto en lenguaje natural. Tesis Doctoral, Departamento de Ingeniería de la Información y las Comunicaciones, Universidad de Murcia, España, 2005. [11] Missikoff, M. Navigli R. y Velardi, P., The usable ontolgy: An environment for building and assessing a domain ontology, Research paper at International Semantic Web Conference (ISWC), Sardinia, Italia, 2002. T. Rodríguez, es graduada como Ing. de Sistemas en 1993, MSc. en Computación en 2000, ambos en La Universidad de Los Andes, Venezuela. Actualmente candidata a Dr en Ciencias Aplicadas de la Facultad de Ingeniería de la Universidad de los Andes, Mérida Venezuela; en los últimos 4 años se desempeña como investigadora en el Centro Estudios en Microelectrónica y Sistemas Distribuidos (CEMISID) en el área de Ontologías, Semántica Web. Aprendizaje Ontológico. Se desempeña como administradora general tecnología de información en el postgrado en computación de la Universidad de Los Andes, Venezuela. Página Web: http://taniana.novacorp.co/ J. Aguilar, es graduado como Ing. de Sistemas en 1987 en la Universidad de Los Andes, Mérida, Venezuela. MSc. en Informática en 1991 en Paul Sabatier, Toulouse, Francia. Dr. en Ciencias Computacionales en 1995 en la Universidad Rene Descartes, Paris, Francia. Es Profesor Titular del Departamento de Computación de la Universidad de los Andes, Venezuela e investigador del Centro Estudios en Microelectrónica y Sistemas Distribuidos (CEMISID) de la misma Universidad. Ha publicado más de 350 artículos y 8 libros, en el campo de sistemas distribuidos y paralelos, computación inteligente, automatización industrial, gestión en ciencia y tecnología. Actualmente se desempeña como Jefe del Departamento de Computación de la Escuela de Ingeniería de Sistemas de la Universidad de Los Andes, Venezuela y Coordinador del Programa Doctoral en Ciencias Aplicadas de la Facultad de Ingeniería de la misma universidad. Página Web: http://www.ing.ula.ve/~aguilar/
Agradecimientos Al proyecto CDCHT I-1237-10-02-AA, y su proyecto satélite I-1239-10-02-ED, de la Universidad de Los Andes, y al Programa de Cooperación de Postgrados (PCP) entre Venezuela y Francia, titulado “Tareas de Supervisión y Mantenimiento en Entornos Distribuidos Organizacionales”, contrato Nro. 2010000307. Referencias [1] [2]
[3]
[4]
[5]
[6]
[7]
Rodríguez, T. Puerto, E. y Aguilar, J., Dynamic semantic ontological framework for web semantics. Proceeding of the 9th WSEAS(CIMMACS’10, Mérida-Venezuela), pp. 91-98, 2010. Randal, D. Howard, S. and Szolovits, P., What is a knowledge representation? AI Magazine [En Línea], 14 (1), pp. 17-33, 1993. [Fecha de consulta marzo 09 de 2010] Disponible en: http://groups.csail.mit.edu/medg/ftp/psz/k-rep.html Gómez, A., Fernández, M. y Corcho, O., Ontological engineering: with examples from the areas of knowledge management, ecommerce and the Semantic Web, 1ra ed., London, Springer, 2004. ISBN 1852335513. Puerto, E., Aguilar, J. and. Rodríguez, T., Automatic learning of ontologies for the Semantic Web: Experiment lexical learning. Revista Respuestas [en línea]. 17 (2), pp. 5-12, 2012, ISSN 0122820X. Disponible en: http://www.ufps.edu.co/ufpsnuevo/revistarespuesta/index2.php Lacruz, S., Rodríguez, T. y Aguilar, J., Informe Técnico: Aprendizaje semántico para el marco ontológico dinámico semántico. Centro de Estudios en Microelectrónica y Sistemas Distribuidos (CEMISID), Universidad de Los Andes, Mérida Venezuela, 2013. Takeschi, M., Yoshihiro, S., Naoki, S. and Naoky, F., DOODLEOWL: OWL-based Semi-Automatic ontology development environment, Prepared for 3rd International Semantic Web Coference, pp. 33-36, 2004. Cimiano, P. and Volker, J., Text2Onto - A Framework for ontology learning and data-driven change discovery, Proceedings of the 10th International Conference on Applications of Natural Language to 63
Problems of code of products that affect the inventory management: Cuban companies case study Igor Lopes-Martínez a, Abel González-Carvajal-Alberto b, Dianelys M. Ruíz-Alvarez c, Yinef Pardillo- Baez d, Martha I. Gómez-Acosta e & José A. Acevedo-Suárez f a
Departamento de Ingeniería Industrial. Instituto Superior Politécnico José Antonio Echeverría, Cuba, ilopes@ind.cujae.edu.cu . Departamento de Ingeniería Industrial. Instituto Superior Politécnico José Antonio Echeverría, Cuba, abel@ind.cujae.edu.cu c Departamento de Ingeniería Industrial. Instituto Superior Politécnico José Antonio Echeverría, Cuba, dianelysra@ind.cujae.edu.cu d Departamento de Ingeniería Industrial. Instituto Superior Politécnico José Antonio Echeverría, Cuba, yinef@ind.cujae.edu.cu e Departamento de Ingeniería Industrial. Instituto Superior Politécnico José Antonio Echeverría, Cuba, marthagom@tesla.cujae.edu.cu f Departamento de Ingeniería Industrial. Instituto Superior Politécnico José Antonio Echeverría, Cuba, acevedo@economia.cujae.edu.cu b
Received: October 01th, 2013. Received in revised form: July 22th, 2014. Accepted: August 12th, 2014.
Abstract Numerous code systems and classification of products and services exist globally, being tendency the standardization of them in the supply chains to achieve higher integration. The correct use of these systems is considered essential in the effectiveness in the inventory management, given its direct relationship with the registration of the primary information and tracing of the products. However, the scientific literature and the academic programs concentrate mostly on the Auto-ID technologies more than in the code structure and the consequences of an incorrect use of the code. The present article reflects the main deficiencies possible to detect in the systems of code of products, using a sample of companies in Cuba. The consequences of these deficiencies are discussed and it is also included a proposal of organization of the code for the Cuban companies. Keywords: Inventory management; Product codification; GTIN.
Problemas de codificación de productos que afectan la gestión de inventarios: Caso de estudio en empresas cubanas Resumen Existen numerosos sistemas de codificación y clasificación de productos y servicios globalmente, siendo tendencia la estandarización de los mismos en las cadenas de suministro para lograr mayor integración. La correcta utilización de estos sistemas se considera fundamental en la efectividad en la gestión de inventarios, dada su directa relación con el registro de la información primaria y seguimiento de los productos. Sin embargo, la literatura científica y los programas académicos se concentran mayormente en las tecnologías de auto identificación y los portadores de información del código más que en la estructura de codificación y las consecuencias de un incorrecto uso de la misma. El presente artículo refleja las principales deficiencias posibles a detectar en los sistemas de codificación de productos, utilizando una muestra de empresas en Cuba. Se discuten las consecuencias de estas deficiencias y se incluye además una propuesta de organización de la codificación para las empresas cubanas. Palabras claves: Gestión de inventarios; Codificación de productos; GTIN.
1. Introducción El tema de la codificación de artículos dentro del buen desempeño de la logística muchas veces se subestima, y en múltiples ocasiones es ahí donde radica el problema de la mala gestión de los inventarios. La importancia de la correcta codificación de artículos que se tienen en inventario constituye la base de una correcta gestión del flujo logístico, la cual impacta directamente sobre la
empresa y la cadena de suministro en la cual está inmersa [1]. La no ambigüedad y estandarización de dichos códigos posibilita un mejor manejo y control de los inventarios de forma fiable, contribuye a la correcta determinación de la demanda de productos, facilita el intercambio correcto de información sobre los productos entre los distintos eslabones de la cadena de suministros y facilita además la trazabilidad de cualquier artículo con codificación única, entre otras utilidades [2].
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 64-72. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40070
Lopes-Martínez et al / DYNA 81 (187), pp. 64-72. October, 2014.
códigos de barras basados en el sistema EAN-UCC/GTIN (Global Trade Item Number: Número Global de Identificación Comercial) centralizado por GS1 Internacional [9] y el uso de la radio frecuencia (RFID) [10] para minimizar errores [11]. La complejidad radica en que no existe solo una entidad ni un solo sistema de codificación para utilizar en los productos de varias industrias, incluso dentro de la misma industria existen varias agencias fomentadoras de una identificación única global y emisoras oficiales de códigos, cuyo objetivo es crear códigos únicos a nivel global (UDI), las más importantes son GS1 Global, Health Industry Business Communications Council (HIBCC), International Council For Commonality In Blood Banking Automation (ICCBBA) y Eurodata Council (EDC). Estas, junto a las asociaciones de industrias como la AIM, CEFIC, EDIFICE (para negocios B2B), ODETTE (Industria automotriz), FIDE, SPECTARIS, DIN (Deutsches Institut for cooperation) dictan los lineamientos en el desarrollo y la utilización de los códigos y los portadores de información que apoyan a las tecnologías de identificación automática, proponiendo modelos de negocio que garantizan identificación única en toda la cadena [12, 13]. Sin embargo, el conocimiento en esta área está concentrado en los reportes, publicaciones y eventos que promueven estas organizaciones, siendo pobre su difusión en los artículos científicos en las principales publicaciones a nivel global. Esta afirmación se demuestra a partir de la revisión de los temas tratados en 1564 artículos científicos entre 2011 y 2014, donde el tratamiento al tema de la codificación está centrado en las tecnologías de identificación automática, no se analizan los diferentes tipos de sistemas ni las implicaciones de una incorrecta codificación, lo cual es un problema en Cuba y algunos países de Latinoamérica donde GS1 tiene presencia, las revistas consultadas fueron las siguientes, junto al número de artículos: International Journal of Production Economics (796), Industrial Marketing Management (91), Research in Transportation Business & Management (136), Transportation Research Part E: Logistics and Transportation Review (196), Journal of Purchasing and Supply Management (75), International Journal of Industrial Organization (174), Information and Organization (60), Journal of Economic Behavior & Organization (19) y el Journal of Co-operative Organization and Management (17). Esto, unido a que, en el caso de Cuba, en los programas curriculares de estudios universitarios el tema se trata débilmente, y en algunos casos solo centrado en las tecnologías, lo cual trae como consecuencia un desconocimiento y mal uso de los sistemas de codificación y clasificación, utilizando incluso erróneamente clasificadores como codificadores, lo cual es un error conceptual. El estado de la logística y la organización de las cadenas de suministro en Cuba constituye hoy un punto crítico para lograr el aumento de la eficiencia en la gestión empresarial. El manejo actual de los inventarios se sustenta en una gestión integral, la cual debe realizarse teniendo en cuenta las relaciones entre los procesos, actividades y todas las entidades de la cadena de valor [14]. Para esta integración una premisa es que el sistema de codificación sea fiable y estandarizado en toda la cadena.
La información que se desprende del código es básica para la toma de decisiones, con ella se puede trabajar teniendo presente conceptos tales como características del producto, a través de la utilización del código se puede organizar la ubicación dentro del almacén, obtener datos como la rotación, precio y márgenes de beneficio luego de conocer el costo a nivel de producto, para lo cual Lambán et al. [3] proponen una nueva metodología cuyo resultado es el costo de un producto en el proceso de almacenamiento, la cual puede ser afectada cuando el mismo producto presenta varios códigos en la cadena de suministro. Se puede saber exactamente en qué productos y cuánto se debe invertir a través del conocimiento correcto de la demanda de estos, pues un sistema organizado no tolera duplicaciones o problemas de identificación del producto, permitiendo que el proceso de gestión de demanda no se afecte [4-6]. Se entiende como sistema de codificación o identificación a un conjunto de normas que identifican a los productos o servicios, siendo los codificadores aquellos instrumentos que sólo asignan un código a elementos ya definidos por otras vías. Un código es un número que identifica a un artículo comercial o servicio de manera única y no ambigua para solucionar en la práctica un producto con 5 colores y 6 formatos, que representa en realidad 30 productos. Hoy se utilizan con mucha generalidad los sistemas de codificación e identificación por código de barra como portador fundamental de información, que obliga a estandarizar la estructura del código. Aunque para uso interno la empresa puede establecer el sistema de codificación que considere más adecuado, la verdadera utilidad de un sistema de este tipo es que sea reconocido de forma global, de tal modo que el producto se identifique de forma inequívoca en cualquier lugar o situación en la cadena de suministro. Además, otro concepto asociado de importancia es el de clasificadores de productos, los cuales constituyen un sistema de categorías y sub-categorías que permiten agrupar a los productos según las necesidades de la actividad y pueden estar asociados a un código que vaya conformando la clasificación con un orden lógico. Existen clasificadores estándares internacionales y las empresas también utilizan sus propios clasificadores, la tendencia es usar los estándares para facilitar la integración entre los eslabones de la cadena de suministro. Las unidades de medida por su parte, describen cómo la cantidad de un producto es medida en el sistema de inventario, en qué forma. Por otra parte, debe estar definido cómo se convierten estas unidades a través de un factor de conversión cuando se pasa de una medida a otra. Estos tres elementos: la codificación, la clasificación y el sistema de unidades de medida deben ser diseñados e implementados de manera que el sistema de información sustente las decisiones en la cadena de suministro. Una correcta codificación sustenta el proceso de trazabilidad definido por la ISO 9000:2000 [7, 8], el cual en la práctica, es implementado fundamentalmente en alimentos, medicamentos y cargas por regulaciones del comercio, para reducir falsificaciones y como seguimiento de las operaciones logísticas. La forma más efectiva de recibir la información es mediante el uso de lectores de datos que leen portadores de la información como los 65
Lopes-Martínez et al / DYNA 81 (187), pp. 64-72. October, 2014. Tabla 1. Requerimientos y características de calidad de los datos. Requerimiento Características de calidad Exactitud Los datos deben ser correctos, confiables y certificados libre de error. Objetividad Los datos deben ser imparciales Confiabilidad Los datos deben ser reconocidos como verdaderos, reales y creíbles Unicidad Los datos deben ser únicos, es decir no deben existir dobles Relevancia Los datos deben ser aplicables y brindar ayuda, cumpliendo de esta forma el objetivo para el cual fueron tomados Puntualidad Los datos deben presentar vigencia, es decir deben estar actualizados. Completitud Los datos deben ser lo suficientemente profundos y tener un buen alcance, permitiendo llegar concretamente a la información, para lo cual fueron tomados. Interpretabilidad Los datos deben estar en un apropiado lenguaje, en unidades bien definidas, además las definiciones de los datos deben estar claras. Facilidad de Los datos deben ser claros, es decir sin entendimiento ambigüedad y fácilmente comprensibles. Representación Los datos deben ser representados de forma Concisa compacta, es decir sin ser redundantes. Accesibilidad Los datos deben estar disponibles y poseer la capacidad de ser fácilmente modificables. Seguridad de El acceso a los datos debe ser restringido y deben acceso mantenerse de forma segura. Fuente: Vilalta-A, 2008. [17].
Tabla 2. Empresas objeto de estudio durante la fase de investigación. Actividad Cantidad de empresas Producción de cigarrillos y tabacos 2 Servicios automotrices 2 Cadenas comercializadoras 2 Operador logístico de la salud 2 Operador logístico de otros sectores 1 Servicios de telecomunicaciones 1 Servicios médicos 1 Universidad 1 Empresa productora de artículos médicos 1 Servicios de seguridad 1 Fuente: Los autores.
El procesamiento de las bases de datos para determinar los problemas en los sistemas de codificación en las empresas se realizó utilizando Microsoft Access y software para el análisis de calidad de los datos, programados con herramientas de software libre. La información introducida en las herramientas de análisis se extrajo de los software oficiales que utilizan las empresas, algunos sistemas ERP (Planificación de los recursos de la empresa en sus siglas en inglés) como el SAP, Assets NS y Exact ERP, en otros casos los sistemas son fundamentalmente contables. Se analizaron artículos de bases de datos referenciadas, reportes oficiales y propuestas publicadas en sitios web de entidades en Cuba e internacionalmente relacionadas a la codificación de productos y servicios.
Como principales problemas que presenta la gestión de inventarios en Cuba se encuentran la baja rotación y disponibilidad de artículos en los puntos de consumo [15], lo cual tiene un impacto negativo sobre el nivel de servicio ofrecido por la cadena al cliente final y la salud financiera de esta. Estos indicadores (rotación de inventarios y disponibilidad) pueden ser poco fiables cuando la información de la empresa no cumple con los requerimientos de calidad de los datos que se muestran en la Tabla 1, en la cual se destacan algunos requerimientos que deben ser cumplidos por cualquier sistema de codificación que la empresa emplee. Este elemento es considerado un exigencia para lograr sistemas de inventarios colaborativos según plantea en su propuesta Arango-Serna et al [16]. Por lo antes visto, el objetivo del presente artículo es analizar el estado actual de los sistemas de codificación de productos en empresas cubanas, utilizando una muestra de entidades que permitan mostrar el posible impacto de sus deficiencias en la gestión de inventarios. Se realizará además una propuesta de sistemas de clasificación y codificación a emplear en las empresas con el objetivo de garantizar una alta fiabilidad de la información empleada, así como la trazabilidad de los productos que fluyen a través de la cadena de suministros.
3. Resultados 3.1. Problemas de codificación en empresas cubanas Durante la fase investigativa práctica a lo largo de más de 10 años analizando bases de datos, software, procesos, contratos y documentos, se han identificado un conjunto de deficiencias que impactan sobre la gestión de inventarios y que son objeto de análisis en el presente artículo. En la Tabla 2 se representa una muestra de las empresas estudiadas durante el período, haciendo alusión al sector en que estas se desempeñan. En las empresas analizadas se han identificado problemas relativos al registro de información referentes a la codificación y clasificación de productos, se ha identificado que los sistemas informáticos de las entidades no garantizan la fiabilidad en el procesamiento de datos debido en parte, a la mala calidad de estos últimos. Los principales problemas detectados son los siguientes: 3.1.1. Empleo de un clasificador desactualizado como codificador El codificador en ocasiones está basado en la estructura del Clasificador Uniforme de Productos (CUP), el cual es un clasificador empleado solamente en empresas cubanas que no está armonizado y no es objeto de actualización desde el año 1992. El empleo de este sistema trae tres dificultades principales:
2. Materiales y Métodos Dentro de los métodos empleados se destacan los estadísticos, la entrevista, las observaciones directas, el análisis y la síntesis de bases de datos y el procesamiento de información. 66
Lopes-Martínez et al / DYNA 81 (187), pp. 64-72. October, 2014. Tabla 3. Partidas del CUP que no corresponden con el producto descrito. Descripción Sección Genérico Subgenérico Pipeta Gibson 100 ml Minerales Caolín Caolín crudo arcillosos Injerto vascular recto Impermeabi Impermeabi No aparece Dacron (Woven) de baja lizantes lizantes porosidad, 30 mm asfálticos diámetro Silla de rueda de 46 cm Vehículos Locomotor Locomotoras de vía as diesel férreas mecánicas Fuente: Los autores.
Tabla 4. Varios códigos para el mismo producto en una base de datos. Código Descripción 0010060050003 LEVADURA SECA 1 *20 0010060050005 LEVADURA SECA 1*20 0010060050028 LEVADURA SECA 0010060020003 LEVADURA SECA 1*20*500 GRS 0010060020005 LEVADURA SECA 1*20*500 GRS Fuente: Armenteros- L., A., 2014, [18].
UM U PAQ KG PAQ PAQ
3.1.1.1. A nivel de específico no se diferencia un producto de otro El código empleado en los casos estudiados se basa en agregar 4 dígitos a la estructura del CUP, lo cual a nivel de específico no permite la diferenciación de un producto de otro. Es decir, si el mismo producto se recibiera de dos proveedores diferentes, el código empleado no es capaz de diferenciar uno de otro ya que se introduce el producto al inventario bajo el mismo código. Esto provoca que se pierda la trazabilidad del producto a la vez que se fomentan patrones de consumo erróneos, pues se asocia a un artículo la demanda de un conjunto de productos similares introducidos al inventario bajo el mismo código.
Figura 1. Cantidad de productos iguales repetidos por dos o más códigos en el inventario. Fuente: Los autores.
Tabla 5. Diferentes códigos para el mismo producto dentro del inventario. Código Descripción 7504120086 Arco preformado superior 0.17 x 0.25 7504120084 Arco preformado superior 0.17 x 0.25 7543989634 Bisturí de gancho recto 3.5 mm ancho 7543989702 Bisturí de gancho recto 3.5 mm ancho 7518980004 Sillón de ruedas 46 cm 7518900304 Sillón de ruedas 46 cm Fuente: Los autores.
3.1.1.2. Se emplean partidas de productos no definidas dentro de la estructura del CUP En una empresa de producción se reciben materias primas y materiales de importación agrupados dentro de 40 subgenéricos diferentes. De estos el 50 % no están contemplados dentro de la estructura del CUP. Ejemplo: El código 7559910007 de acuerdo al CUP tiene la siguiente estructura Sección: Artículos ortopédicos y prótesis y sus partes, pie. Genérico: Otros artículos ortopédicos y protésicos. Subgenérico: No aparece. En otra comercializadora sucede que los productos recibidos están agrupados dentro de: 27 secciones, 3 no están definidas. 85 genéricos, 10 no están definidos. subgenéricos, 102 no están definidos.
por 3 códigos diferentes (Tabla 4), esto se debe en parte a errores humanos en la introducción manual de los códigos a los sistemas informáticos de la empresa. En esta tabla se puede observar también como varían las descripciones y se emplean unidades de medida diferentes para el mismo producto. En otra entidad, luego de realizar un muestreo de la base de datos de productos, se comprobó que un mismo producto aparece por diferentes códigos dentro del inventario. En la Fig. 1 se puede observar la cantidad de ocasiones en que un producto aparece reflejado por códigos diferentes en el inventario, siendo la cantidad de códigos diferentes la que se muestra en el eje x y la cantidad de veces que se encontró el producto repetido la que se refleja en el eje y. Siendo que 102 productos aparecen repetidos por 2 códigos de inventario diferentes, 38 que aparecen por 3 diferentes y así sucesivamente. Es importante destacar que en esta empresa 160 artículos (38.3 % del total de materias primas y materiales) aparecen por más de un código, generando un total de 473 registros repetidos. Si se lograra agrupar estos productos bajo un mismo código y descripción se reduciría la cantidad de registros de 730 a 430, lo cual repercutiría en una mejora de
3.1.1.3 Empleo de partidas de productos no afines con la actividad En la Tabla 3, se muestra un producto al cual se le asignan partidas de sección, genéricos y subgenéricos totalmente diferentes de las correspondientes a su descripción 3.2. Varios códigos para un mismo producto en la base de datos En la información de una empresa comercializadora se puede observar como el mismo producto aparece registrado 67
Lopes-Martínez et al / DYNA 81 (187), pp. 64-72. October, 2014. Tabla 6. Problemas de estandarización de la estructura del código Código Descripción 0070000798 0070000801 0349-A6 0349A6 04327101972144 04327101972178 Fuente: Los autores.
Bóveda trasera interior. Bóveda trasera interior. Junta colector de escape. Junta colector de escape. Quartz 7000 15w50. Quartz 7000 15w50.
con una etiqueta de código tenga en la base de datos otro diferente necesitando un enlace de ambos códigos, lo cual para la integración de la cadena de suministro resulta complejo y costoso. En varias entidades incluso se imprime una etiqueta que se le pega al producto con el nuevo código generado, incrementando costos de administración sin un motivo relevante para la logística y el control de inventarios.
Unidad de medida Uno Uno Uno Uno Lt Gls
3.5. Problemas en las unidades de medida Las unidades de medidas empleadas para la cuantificación de los productos en las empresas en ocasiones no son conformes con las establecidas por el Sistema Internacional de Unidades. Por ejemplo es incorrecto escribir el símbolo de kilogramos como “Kg”, “KG”, “kgs” o “kg.”. La forma correcta de escribirlo es "kg". En una de las empresas analizadas, se emplea la abreviatura “KGS” para la identificación de kg, con este uso extensivo de la simbología errónea de KGS se están introduciendo 2 de los 3 errores posibles contemplados por lo que esto atenta contra la correcta identificación y estandarización internacional de los productos que requieran esta unidad de medida. El uso de “Uno” solo se tolera para el caso de los sistemas de clasificación, pues esta unidad no se encuentra contemplada en el SI. En caso de su empleo se establece como abreviatura permitida “U” y no “UNO”. En el caso de la unidad “Litro” se emplean de igual forma abreviaturas como “Lt”, “LT”, “Lts” o “LTS”, siendo la aceptada según el SI “l” o “L” (L minúscula o mayúcula) [2]. Otro ejemplo es un producto al cual se le asignan unidades de medida distintas por los diferentes códigos con los cuales aparece representado en el inventario. En la Tabla 8 se puede apreciar la situación descrita.
Tabla 7. Significado de las cuentas para el área de almacén. Símbolo Cuenta AP Materia prima y materiales BB Útiles y herramientas en almacén EB Piezas de repuesto IB Mercancía para la venta AQ Otros (Materiales ociosos) GA Lento movimiento Fuente: Los autores.
la calidad y fiabilidad de los datos para la toma de decisiones relativas a la gestión de inventarios. En la Tabla 5 se puede observar como el mismo producto aparece reflejado por diferentes códigos en el inventario de otra entidad estudiada. 3.3. Falta de estandarización de los sistemas de codificación Cuando en la empresa no se establece una política de estandarización de los sistemas de codificación, sea de acuerdo a los estándares EAN/GTIN u otro que se decida, ocurre que se asignan códigos a los productos sin seguir regla alguna, tal como puede apreciarse en la Tabla 6 [9]. En la tabla se muestran 3 sistemas de codificación diferentes para los productos dentro de la misma empresa, lo cual dificulta el análisis de datos por los sistemas informáticos empleados para la posterior toma de decisiones.
Tabla 8. Unidades de medida diferentes para el mismo producto con diferentes códigos.
3.4. Empleo de códigos internos en las empresas
Descripción correcta
Descripción en el inventario
Código interno
Unidad de medida
Arandela de latón de 10x3x0.5 mm
Arandela 3mm cajax1000
AP8322
Agujas para máquinas de coser 90/14
Cuando los productos son recibidos en una de las empresas productoras analizadas, se les cambia el código y la descripción que envía la empresa importadora. El código que se emplea en la productora se forma a partir de un símbolo (Tabla 7) que representa la cuenta del producto, acompañado de un consecutivo dentro de este símbolo. Cuando se produce la recodificación del producto, no se establece con qué código éste se recibe de la importadora, motivo por el cual se pierde la trazabilidad del mismo. Es decir, si se deseara conocer en cuál o cuáles códigos del inventario de la empresa se encuentra el producto de código 755.6.19.0427 no se pudiera conocer, pues no existe un relacionador que vincule ambos números en la base de datos. Otra situación es que en muchas entidades se recibe el producto con un código EAN definido, y luego internamente cambian el código a uno interno propiciando que un producto
Cambrera de acero 80 mm largo
68
Arandela de 3mm
AP7131-1
UNO (Referido a la caja x 1000) UNO
Aguja 90x14 - b27
AP8025
UNO
Agujas 90/14 caja 10ux100 Cambreras de acero 80 mm Cambrera acero normal 10/80-90 Cambreras 80 mm
AP8324
CAJA
AP4622
PAR
AP697-1
MILLAR
AP7541
MILLAR
Cambrera 80 mm
AP7743
PAR
Cambrera acero normal 10/80-8m Disolvente Disolvente para para pegamento pegamento Disolvente para de calzado calzado Fuente: Los autores.
AP696-1
MILLAR
AP3947
LITRO
AP8544
KILOGRAMO
Lopes-Martínez et al / DYNA 81 (187), pp. 64-72. October, 2014. Tabla 9. Análisis de la identificación de artículos. Código
Descripción
051374 00209008r
Piñon de distrib Tomc.doble 15a, 127v c/tapa, Bacalux. Caja mec. n.a4x2 mod. boc w05181. Limpia salpicaderoscj 12x0.25.
00901247r 0432710197460 Fuente: Los autores.
Tabla 11. Código de clasificación y código EAN original de un producto. CUP EAN original – código de Descripción barra impreso 31.100.10.1 8500001542520 Guantanamera 5498 Selección DN 4F Fuente: Los autores.
Unidad de medida Uno Uno Uno
Tabla 12. Códigos distintos para un mismo producto en cadenas comercializadoras diferentes. Cadena comercializadora Código 1 (Código interno) 84653000 2 (Código interno) 0804856000364 3 (EAN) 8500001542520 4 (Código interno) 3004013703139 5 (CUP) 31.100.10.15498 Fuente: Los autores.
Uno
Tabla 10. Diferentes descripciones para el mismo producto en el inventario. Código
Descripción
AP8648 AP1801 AP2668 AP2339 AP2900 AP4333 AP2671 AP2673 AP2672 Fuente: Los autores.
STOKINETE ALG. 15CM STOKINETTE 15CM algodón STOKINETE ALGODON 15 CM STOKINETE ALGODON BLANCO 15 CM TEJIDO STOKINETTE 15 CM STOKINETTE 100% ALG. 15 CM STOKINETE ALGODON CRUDO 15 CM STOKINETE ALGODON RUDO 15 CM STOKINETE ALGODON RUDO 15 CM
3.8. Utilización de un código interno para los productos Está referido al uso de un sistema de codificación interno inutilizando códigos estándares internacionales como código GTIN, el cual garantiza un intercambio eficaz entre empresas ya que globalmente a un producto sólo corresponde un código, y viceversa. Este es un problema frecuente en las entidades cubanas, para ejemplificarlo se muestra como a un producto con su codificación GTIN original se le cambia el código. Es necesario enfatizar que el país tiene legislado desde el año 2001 en la Resolución Conjunta entre el MINCIN (Ministerio de Comercio Interior) y el MINCEX (Ministerio de Comercio Exterior) el empleo del estándar EAN supervisado por la Cámara de Comercio de la República de Cuba para empresas productoras, comercializadoras y exportadoras [19], lo cual no es respetado en la mayoría de los casos, solo en las entidades de venta minorista, las cuales no lo utilizan en su sistema logístico, solo en el punto de venta. En la Tabla 11 se muestra el código de clasificación, utilizando el sistema CUP, que le asigna la empresa productora, así como el código GTIN establecido por la oficina GS1 Cuba de la Cámara de Comercio. En la Tabla 12 se muestra la diversidad de códigos que utilizan los principales clientes de la entidad productora para este mismo producto, los cuales representan 5 cadenas comercializadoras cubanas de importancia y alcance nacional. En dicha tabla se puede observar como una sola de las empresas analizadas utiliza el código GTIN de forma correcta y lo mantiene en su sistema, mientras que otra utiliza el clasificador CUP como codificador, lo cual es una limitante importante como ya se explicó. El resto de las cadenas cambian totalmente el código, violando incluso la estructura establecida por GS1 Internacional pues utilizan prefijos de otros países, siendo el destinado para Cuba el 850.
3.6. Problemas en la descripción de los artículos Otra dificultad existente respecto a este tema es la relacionada con la descripción de los productos. En la Tabla 9 que se aprecia seguidamente se relacionan algunas descripciones que no permiten la identificación rápida del producto. Otro ejemplo es cuando al mismo producto, por diferentes códigos se le asignan descripciones diferentes. En la Tabla 10 se muestra como al “Stokinete tubular de algodón 15 cm ancho” se le asignan diferentes descripciones según el código por el cual aparece en el inventario de la empresa. 3.7. Varios códigos para un mismo producto en los diferentes establecimientos de la entidad a lo largo de la cadena Cuando se realiza el análisis de las entidades estudiadas que cuentan con distintos puntos de almacenamiento de productos, se encuentra que más del 50% de las mismas presentan como problema, las diferencias de códigos para un mismo producto a lo largo de su cadena interna de establecimientos. En varias bases de datos se identificaron productos que tenían un código en un punto de la cadena o sucursal y otro código en otro punto dentro de la misma empresa, esto afecta la trazabilidad debido a que no cumple con la identificación única e inequívoca del producto y/o servicio planteado en el acápite 7.5.3 de la norma ISO 9001 en su versión del año 2000 [7] y 2008 [8], afectando además otros análisis de consumo integrados que quieran realizarse. Este problema está dado por la no definición de que el código se genera centralmente, sin flexibilidad en este sentido.
4. Discusión El correcto uso de los clasificadores y codificadores de productos es de vital influencia para una efectiva gestión del inventario, estos constituyen uno de los registros primarios 69
Lopes-Martínez et al / DYNA 81 (187), pp. 64-72. October, 2014.
Las deficiencias analizadas deben ser solucionadas con acciones dirigidas a fomentar el correcto uso de los clasificadores y codificadores. La propuesta debe basarse en la creación de conocimiento y la estandarización de los procesos de las empresas. Como primeras acciones cada empresa deberá diseñar un plan de mejora específico al tema del sistema de codificación y clasificación.
fundamentales en esta gestión. Los procesos de decisión relacionados a los inventarios se relacionan fuertemente con los sistemas de información por lo que todo problema con los sistemas de software impacta directamente en la gestión de inventarios [20]. La incorrecta utilización de los codificadores, clasificadores de productos y unidades de medida analizada en los epígrafes anteriores puede generar las consecuencias que a continuación se muestran: - Deficiente o inexistente trazabilidad de productos en toda la cadena: un ejemplo es que se considera que anualmente por deficiencias en la trazabilidad de medicamentos mueren aproximadamente 7000 norteamericanos [21, 22], lo cual da una medida de la necesidad de mantener una trazabilidad eficiente, responsable y enfocada al cliente. - Problemas en la formación de precios: es un error cambiar el código cuando el producto cambia de precio pues sigue siendo el mismo producto, esto genera duplicación del producto en el sistema y no permite utilizar la ponderación de precios ni la formación del precio por lote de entrada. - Datos no fiables para los cálculos de demanda: el empleo del consumo histórico como estimador de la demanda está sesgado debido a la duplicidad de códigos, falsea la demanda del producto cuando este está siendo consumido por otros códigos. - Generación de compras innecesarias, incluso importaciones, teniendo el producto en el almacén con otro código, lo cual genera crecimiento y acumulación de inventarios. - Deficiente manejo de los perecederos, no utilización del principio FEFO (primero que vence, primero que sale) - Indicadores de gestión como rotación y disponibilidad a nivel de código no fiables ya que el producto puede estar en la base de datos con otro código. - Incorrecto tratamiento de ociosos debido a la falta de trazabilidad, ya que es posible que no se conozca la vejez del producto en el sistema. - Cuando cada entidad tiene un código interno diferente para sus productos, como se muestra en la tabla 12, se dificulta a nivel de país o grupo empresarial obtener información general de los inventarios en una cadena o sistema logístico. Este problema es una de las causas de la ineficiente compatibilización entre las necesidades de comercialización de ociosos de unas entidades y la demanda de quien desea un producto específico. - Dificultad en la centralización de las compras pues cada entidad tiene un código diferente para un mismo producto. - Obstáculo para realizar el comercio electrónico entre varias entidades [23]. Teniendo en cuenta las deficiencias detectadas se ha conformado una lista de chequeo para auditar si el sistema de codificación y clasificación de productos cumple con las propuestas de organización definidas por estos autores. Esta lista de chequeo se muestra en la Tabla 13 y se audita según la propuesta de Lopes [24].
Tabla 13. Lista de chequeo del Sistema de Codificación y Clasificación de productos. Aspectos a auditar ¿Se clasifican los productos según las características de uso limitado por vencimiento u obsolescencia? ¿Se utiliza el mismo sistema de codificación e identificación en todas las unidades o sucursales de la empresa? ¿Se utiliza un clasificador de productos regulado en la legislación vigente en el país? ¿Se utiliza un sistema de codificación e identificación de productos estándar internacional? ¿Se mantiene el código original del producto en la entidad? ¿Está diseñado que la estructura y contenido del código de los productos en cada punto de la entidad sea homogénea? ¿El sistema para la descripción de los productos y servicios garantiza la identificación rápida y sin ambigüedad de los mismos? ¿Está establecida en la entidad la restricción en la creación y/o modificación de los códigos sólo por las personas designadas? ¿La generación y asignación de códigos y descripciones de productos, se realiza centralizadamente en la entidad? ¿Cada entidad de la cadena domina la codificación equivalente de sus proveedores y clientes para los productos que comercializa? ¿Son estándares las unidades de medidas de los productos en la cadena? ¿Las unidades de medida de cada producto están alineadas al sistema internacional de unidades? ¿Es posible realizar la trazabilidad utilizando el sistema de codificación actual? ¿Existe un alto nivel en la calidad de los datos, fundamentalmente en el criterio de unicidad? ¿Las etiquetas en los puntos de venta y almacenes contienen información que permite orientar la gestión del inventario? ¿Se utilizan sistemas de identificación automática de códigos en los procesos logísticos de la entidad? ¿Se registran internamente en el almacén los datos de lote y fecha de vencimiento? ¿Se registran en los sistemas informáticos los datos de lote y fecha de vencimiento? ¿Se garantiza el principio FEFO donde primero se despacha o consume el que primero vence? ¿Se garantiza la trazabilidad utilizando referencias cruzadas en documentos y el sistema informático? ¿Están definidos los puntos de control para la trazabilidad de productos? ¿Se registra el lote de entrada al sistema de la entidad para el tratamiento contable y logístico? ¿Se conoce la trayectoria del producto en toda la cadena y se utiliza para la información a clientes y/o retirada del mercado? Fuente: Los autores.
A nivel de país debe estructurarse, dada la brecha entre la necesidad empresarial el sistema de formación académica, incluir dentro de los procesos de formación de pregrado y posgrado el entrenamiento dirigido a crear el conocimiento teórico y práctico en el tema, sustentado en la propuesta de las organizaciones responsables globalmente tratadas en este artículo y centrado en los aspectos generales y los específicos de cada industria. Otra definición es el uso por cada empresa de un 70
Lopes-Martínez et al / DYNA 81 (187), pp. 64-72. October, 2014.
nomenclador de productos relacionado a la utilización oficial del Clasificador de Productos de Cuba (CPCU) Oficina Nacional de Estadística e Información [20]. Con esta medida la información estadística nacional tendrá mayor fiabilidad y las entidades podrán tener sistemas informativos más integrados. Tanto en Cuba como en el entorno latinoamericano es necesario incrementar el uso de codificadores de productos de acuerdo a estándares internacionales. El estándar internacional de mayor uso por las empresas deberá ser el EAN-13 o GS1 GTIN reconocido por la ISO (Organización internacional de estandarización), dado que es un estándar que se trabaja en numerosas industrias [25] y GS1 tiene representación en la mayoría de los países de la región, en Cuba esto se sustenta por la Resolución Conjunta Ministerio de Comercio Interior/Ministerio de Comercio Exterior, La Habana, Cuba. Gaceta Oficial No. 49, 2001 [26]. Esto debe complementarse con el uso de los estándares propuestos por el resto de las organizaciones mencionadas en este artículo específicos de cada industria [27].
[7] [8] [9] [10] [11] [12]
th
[13]
th
[14] [15] [16]
5. Conclusiones 12-
3-
[17]
Una de las causas principales de los problemas de gestión de los inventarios es el incorrecto uso de los sistemas de codificación y clasificación de productos. El conocimiento relacionado a los estándares de clasificación y codificación de productos y servicios está centrado en las organizaciones emisoras y fomentadoras de un sistema de identificación único, existe una brecha entre estas y el sistema de publicaciones científicas globalmente y la academia en el caso de Cuba. Los problemas de codificación afectan la trazabilidad, estudios de demanda, formación de precios, la gestión de indicadores, gestión de ociosos, generan compras innecesarias y dificultan el comercio electrónico y deben ser solucionados con el uso de estándares que permitan una mayor integración en la cadena de suministro.
[18]
[19] [20] [21] [22] [23] [24]
Referencias [1] [2]
[3]
[4] [5] [6]
AENOR, Directrices para facilitar la aplicación de la norma UNEEN ISO 9001:2000 [Guía ISO 9000], Madrid, España, AENOR, 2002. ISO, Secretaría Central de ISO, Sistemas de gestión de la calidad — Requisitos, ISO 9001:2008, Suiza, Ginebra, Suiza, 2008. GS1_Argentina, Implementación de trazabilidad EAN.UCC. Proyecto TRACE-1. Buenos Aires, GS1 Argentina, 2003. Dolgui, A. and Proth, J.M., Supply chain engineering useful methods and techniques, Springer, 2010. Muller, M., Essentials of inventory management, AMACOM, 2003. HIBCC, Global Unique Device Identification Database (GUDID) [Online] 2013. [date of reference November 15 of 2013]. Available at: http://www.hibc.de/images/dokumente/UDI_2013_6-UDIDatabase_FDA-Guideline-GUDID.pdf HIBCC, ISO-RFID eTAG-x. The ISO powered solution for item tracking using RFID Tags in compliance with ISO/IEC standards for Barcode [Online] 2004. [date of reference January 18 of 2013]. Available at: http://www.hibc.de/images/dokumente/iso-rfid.pdf Zomerdijk, L. and De Vries, J., An organizational perspective on inventory control: Theory and a case study, International Journal of Production Economics, 81-82, pp. 173-183, 2003. Lopes-M., I, Gómez -A., M.I. y Acevedo-S., J.A., Situación de la gestión de inventarios en Cuba. Revista de Ingeniería Industrial, 33 (3), pp. 317-330, 2012. Arango-Serna, M.D., Adarme-Jaimes, W. and Zapata-Cortes, J.A., Inventarios colaborativos en la optimización de la cadena de suministros. DYNA, 80 (181), pp. 71-80, 2013. Vilalta-A., J.A., Procedimiento para el diagnóstico de la calidad de los datos en organizaciones cubanas, Tesis doctoral, Departamento de Ingeniería Industrial, Instituto Superior Politécnico José Antonio Echeverría - ISPJAE, La Habana, Cuba, 2008. Armenteros-L., A., Sistema de codificación de productos en el Grupo GAVIOTA, Tesis de Diploma, Departamento de Ingeniería Industrial, Instituto Superior Politécnico José Antonio Echeverría ISPJAE, La Habana, Cuba, 2014. Ministerio de Comercio Interior/Ministerio de Comercio Exterior. Resolución Conjunta MINCIN/MINCEX, La Habana, Cuba. Gaceta Oficial No. 49, 2001. De Vries, J., Diagnosing inventory management systems: An empirical evaluation of a conceptual approach. International Journal of Production Economics, 108 (1–2), pp. 63-73, 2007. GS1_BRASIL, O Valor e os Benefícios de Padrões GS1. São Paulo, 2009. GS1_BRASIL, GS1 Brasil e Setor da Saúde. São Paulo, 2013. Relva-Romano, R., Varejo & Tecnologia: O futuro do negócio passa por aqui., 3. ed., Sao Paulo, Posigraf, 2012. Lopes-M., I., Modelo de referencia para la evaluación de la gestión de inventarios en los sistemas logísticos, Tesis doctoral] Departamento de Ingeniería Industrial, Instituto Superior Politécnico José Antonio Echeverría - ISPJAE, La Habana, Cuba, 2013. GS1_AISBL. GS1 Healthcare Reference Book 2012/2013 Brussels, GS1, 2013 Oficina Nacional de Estadísticas e Información, Resolución 10/2010 Oficina Nacional de Estadísticas e Información (ONEI), La Habana, Cuba, 2010. Mckinsey & Company, Strenght in unity: The promise of global standars in healthcare USA, Mckinsey & Company, 2012.
[25]
Sahin, E., Buzacott, J. and Dallery, Y., Analysis of a newsvendor which has errors in inventory data records. European Journal of Operational Research, 188 (2), pp. 370-389, 2008. Comité Estatal de Normalización, Sistema de normas de aseguramiento metrológico. Sistema internacional de unidades. Tablas de equivalencias de otras unidades de medida al SI., NC 9000-06-6, La Habana, Cuba. Comité Estatal de Normalización, 1983. Lambán, M.P., Royo, J., Valencia, J., Berges, L. and Galar, D., Modelo para el cálculo del costo de almacenamiento de un producto: Caso de estudio en un entorno logístico. DYNA, 80 (179), pp. 2332, 2013. Angulo, A., Nachtmann, H. and Waller, M.A., Supply chain information sharing in a vendor managed inventory partnership, Journal of Business Logistics, 25 (1), pp. 101-120, 2004. Griffis, S.E., Goldsby, T.J., Cooper, M. and Closs, D.J., Aligning logistics performance measures to the information needs of the firm, Journal of Business Logistics, 28 (2), pp. 35-56, 2007. Nachtmann, H., Waller, M.A. and Rieske, D.W., The impact of point-of-sale data inaccuracy and inventory record data errors, Journal of Business Logistics, 31 (1), pp. 149-158, 2010.
[26] [27]
I. Lopes-Martínez, es Ing. Industrial (2004), Dr. en Ciencias Técnicas (2013). Profesor asistente del Departamento de Ingeniería Industrial en la Facultad de Ingeniería Industrial de la CUJAE. Jefe de disciplina de Gestión de Procesos y Cadenas de Suministro. A. González-Carvajal-Alberto, es Ing. Industrial (2012). Profesor Instructor del Departamento de Ingeniería Industrial en la Facultad de Ingeniería Industrial de la CUJAE. Cursando la Maestría en Logística y Gestión de la Producción. D. M. Ruíz-Alvarez, es Ing. Industrial (2012). Profesora Instructor del Departamento de Ingeniería Industrial en la Facultad de Ingeniería Industrial de la CUJAE. Cursando la Maestría en Logística y Gestión de la Producción. 71
Lopes-Martínez et al / DYNA 81 (187), pp. 64-72. October, 2014. Y. Pardillo-Baez, es Ing. Industrial (2006). Dra. en Ciencias Técnicas (2013). Es Vicedecana de Universalización. Profesora Auxiliar del Departamento de Ingeniería Industrial en la Facultad de Ingeniería Industrial de la CUJAE. M. I. Gómez-Acosta, Es Ing. Industrial (1980). Dra. en Ciencias Técnicas (1998). Profesora Titular del Instituto Superior Politécnico José Antonio Echeverría (CUJAE). Coordinadora Ejecutiva del Laboratorio de Logística y Gestión de la Producción (LOGESPRO) de la CUJAE. Coordinadora en Cuba del Centro Europeo Latinoamericano de Logística y Proyectos Ecológicos (CELALE). Premio de la Academia de Ciencias de Cuba en el 2003. J. A. Acevedo-Suárez, es Ing. Industrial (1976), de la Universidad de La Habana, Cuba; Esp. en Análisis Económico (1978), de la CUJAE; Esp. en Gestión Empresarial en Alemania (1982); Dr. en Ciencias Técnicas (1996), de la CUJAE; Dr. en Ciencias (2008) de la CUJAE. Coordinador General del Laboratorio de Logística y Gestión de la Producción (LOGESPRO) de la CUJAE. Vicepresidente en Cuba del Centro Europeo Latinoamericano de Logística y Proyectos Ecológicos (CELALE). Premio de la Academia de Ciencias de Cuba en el 2003. Vicerrector de la CUJAE.
72
Effect of the molding temperature and cooling time on the residual stresses of crystal polystyrene María Teresa Acevedo-Morantes a, María Brieva-Sarmiento b & Alvaro Realpe-Jiménez c a
Facultad de Ingeniería, Universidad de Cartagena, Colombia, macevedom@unicartagena.edu.co b Facultad de Ingeniería, Universidad de Cartagena, Colombia, maribrieva@gmail.com c Facultad de Ingeniería, Universidad de Cartagena, Colombia, arealpe@unicartagena.edu.co Received: October 14th, 2013. Received in revised form: March 14th, 2014. Accepted: July 25th, 2014.
Abstract The use of crystal polystyrene for high performance components requires knowledge of the distribution of residual stresses. The aim of this research was to analyze the influence of the molding temperature and cooling time on the residual stresses present in parts of two types of crystal polystyrene PS1 and PS2, processed by injection molding. The results obtained using photoelasticity showed that at low temperatures the residual stresses increase due to the processes of formation and destruction of intermolecular forces. Internal stresses were reduced in the polymer specimens with greater thickness because the molecular relaxation of chains of polystyrene is facilitated by the space increase between the walls of the mold. It was concluded that the photoelasticity technique can be applied effectively in the measurement of residual stresses in injection molded crystal polystyrene parts. Keywords: residual stresses; crystal polystyrene; photoelasticity; injection molding; Polariscope.
Efecto de la temperatura de moldeo y tiempo de enfriamiento sobre los esfuerzos residuales del poliestireno cristal Resumen El uso de poliestireno cristal en componentes de alto desempeño requiere el conocimiento de la distribución de tensiones residuales. El principal objetivo de esta investigación fue analizar la influencia de la temperatura de moldeo y el tiempo de enfriamiento sobre los esfuerzos residuales presentes en muestras de dos referencias de poliestireno cristal PS1 y PS2, procesadas por moldeo por inyección. Los resultados obtenidos usando la técnica de fotoelasticidad, mostraron que a bajas temperaturas los esfuerzos residuales aumentan debido a procesos de formación y destrucción de fuerzas intermoleculares. Los esfuerzos residuales se disminuyeron en las muestras de polímero con mayor espesor porque la relajación molecular de las cadenas de poliestireno es facilitada por el aumento del espacio entre las paredes del molde. Se concluyó que la técnica de fotoelasticidad puede ser aplicada efectivamente en la medición de los esfuerzos residuales en muestras de poliestireno cristal moldeado por inyección. Palabras clave: esfuerzos residuales; poliestireno cristal; fotoelasticidad; moldeo por inyección; polariscopio.
1. Introduction Injection molded crystal polystyrene (PS) is used in parts for the assembly of machinery, building material, tools and manufacturing of personal protective equipment. The quality of these products is affected by the distribution of residual stresses, which can cause dimensionless changes, breaks, fractures and deformities in the manufactured parts, making them unsuitable for use. Currently, there are several techniques for measuring residual stresses, but they are destructive techniques, such
as those based on strain gage technology or the technique of X-ray diffractometry. Moreover, the volume and complexity, of the required equipment, makes it difficult to use. Photoelasticity is an attractive alternative because it is a simple, practical and non-destructive technique, which can be used to determine the stress distributions in crystal polystyrene because this polymer is a birefringent material. The photoelasticity technique can be used in many polymers to study residual stresses and evaluate its microstructure. This technique is based on the phenomena experienced by electromagnetic waves passing through
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 73-80. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI:http://dx.doi.org/10.15446/dyna.v81n187.40142
Acevedo-Morantes et al / DYNA 81 (187), pp. 73-80. October, 2014.
transparent materials, in particular, the polarization of light occurring as a result of the stresses present on objects subjected to stress [1, 2]. Joussinea et al. [3] investigated the influence of biaxial compressive load on the stress paths around Poly (Methyl Methacrylate) (PMMA) sheeting, using photo-elastic and numerical methods. In this study, both methods showed similar results and they complement each other, allowing a more precise analysis of the stresses in the PMMA films. Residual stresses were studied on polycarbonate and compact discs (CDs), and were associated to different degrees of deformation [4, 5].These investigations have shown that the photoelasticity technique using optical microscopy is possible and provides accurate information about the state of residual stresses in the polycarbonate [4, 5]. Photoelasticity, in addition to its ability to measure the stresses at selected points of the testing parts, is a technique that also has the capacity for the immediate recognition of stress distribution. This valuable quality is an interpretation of the entire field, and it is unique for the photo-elastic method in stress analysis. Its success depends only on the recognition of a color stripe and understanding of the relationship between the stripe and the order of magnitude of the stress [6-8]. Photo-elastic fringe patterns appear as contiguous bands of different colors (isochromatic). Under white light; each band corresponds to a different degree of birefringence, a fringe order and a level of stress. Photo-elastic fringe pattern can be read like a topographical map to visualize the distribution of stress with an understanding of the sequence of colors shown. The fringe pattern is caused by alternating constructive and destructive interference of between waves, which have suffered a relative delay or lag in the photo-elastic model [9]. Birefringence, D, observed is proportional to the applied stress when a polymeric object is subjected to mechanical stress [4]:
Table 1. Properties of polystyrene PS-1 and PS-2. Properties of control
ଵ
ଶ
ଶ
2
Vicat Softening Temperature °F
206
219
TensileModulusx105 [Psi]
4.36
4.5
Tensile Creep [Psi] Source: Adapted from [7]
5200
6550
2. Experimental Method 2.1. Materials The research project was carried out with 2 references of crystal polystyrene (PS1-PS2). PS-1 is a crystal polystyrene designed for injection molding. Its high flowability and excellent thermal properties allow for rapid casting speed. PS-2 is a crystal polystyrene with high molecular weight and higher heat resistance. This excellent combination of properties makes PS-2 ideal for foam extrusion and making solid sheets of heavy caliber. The properties of the crystal polystyrene used in this study are shown in Table 1. 2.2. Equipment Samples were injected and molded using a BOY 50M Injection Molding Machine fitted with a Mipronic control system and a three cavity mold. The dimensions and patterns of the specimen used for the study of photoelasticity are shown in Table 2 and Fig. 1, respectively. The photoelasticity technique was applied using a linear polariscope Strainoptics ® PSV-100P (Fig. 2). Pictures were recorded using a Nikon 1000 digital camera.
(2)
The main relation of stress in photoelasticity is given by: ଵ
Min
10
So the images obtained from specimens of birefringent material through a polariscope can be used to determine the residual stresses. Several studies have confirmed that the image processing techniques are reliable, effective and efficient in various areas of application such as the determination of particles concentration [11] and characterization of shape and sizes of particles [12, 13]. The present study assesses the influence of molding temperature and cooling time in the injection molding process on the residual stresses present in specimens of crystal polystyrene, using the photoelasticity technique.
Brewster's law established that: “the relative change in the refractive index is proportional to the difference of principal strains”. ௬
PS-2
Min
Melt Flow gr/10 min
(1)
௫
PS-1
Range
(3)
where σ is the stress, δ is the delay, λ is the light wavelength, h is the thickness and N is the fringe order [6]. The constant K is called the optical activity coefficient or Brewster’s constant, and is a physical property of the material determined by calibration. The K value for polystyrene has a ିଵଶ ିଵ value of [10]. For simple geometry such as a flat sheet of thickness, h, with parallel sides, the stress is determined by [4]:
Table 2. Specifications of the specimen of crystal polystyrene. Specimen Dimensions
(4)
74
Value
Weight [g]
19.21
Length [mm]
114.13
Width [mm]
50.7
Max Thickness[mm]
4.73
Min Thickness[mm] Source: Adapted from [8]
1.8
Acevedo-Morantes et al / DYNA 81 (187), pp. 73-80. October, 2014. Table 3. Experimental design Type
Name
Units
Level
Molding Temperature
°C
Cooling Time Residual Stresses
s (MPa
High, Standard, Low 20, 22, 30 ------------
Molding Pressure
bar/psi
65
Closing Pressure
bar/psi
160
Independent Variables Dependent Variable Constant Variable Figure 1. Specimen of crystal polystyrene. Source: Authors
Source: Authors
photographs were taken at the maximum and minimum thickness of the specimens, with a total of 696 pictures. The pictures obtained were then subjected to the identification of colored stripes. Table 4. Experimental Design for references of crystal polystyrene PS1 at different temperatures Temperature of injection zones (°C) PS
Figure 2. Polariscope Strainoptics ® PSV-100P. Source: Authors
2.3. Experimental Outline
PS-1
The effects of molding temperature and cooling time on the residual stresses of the two crystal polystyrenes used as references were estimated using an experimental design shown in the Table 3. The temperature levels were chosen due to the polymer is a thermoplastic that flows if heated above about 100°C. The cooling time is a suitable parameter for this extrusion machine, which was determined by operators. The tests consist of 25 assays with samples of PS1 and PS-2 each, totaling 50 assays. The barrel was divided into four zones where the temperatures were increased progressively by 5 °C using feedback automatic control. The tests were conducted at a constant cooling time and pressure. Another eight experiments were developed with PS-1 samples at extreme conditions. For the assays 51 and 52 the temperature was increased by intervals of 20, 35 and 55 °C, with each area of barrel at constant pressure and with constant cooling time. For the assays 53 to 58 the temperature and cooling time were manipulated to observe the molding phenomenon. Experimental runs, at different temperatures of injection zones, are shown in the Tables 4, the PS2 samples were obtained at different temperatures between experiments 26 to 50, which aren´t shown because the procedure is very similar to the PS1 samples. For each experiment, six specimen of crystal polystyrene were collected for a total of 348 molded parts, and for each specimen, photo-elastic analysis was performed. Additionally, 75
Runs
Cooling Time(s)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 51 52 53 54 55 56 57 58 Source: Authors
22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 22 30 20 30 20 30 20
Nozzle (zone 3)
Zone 4
Zone 2
Zone 1
220 225 225 225 225 230 230 230 230 235 235 235 235 215 215 215 215 210 210 210 210 205 205 205 205 185 240 185 185 220 220 240 240
225 225 230 230 230 230 235 235 235 235 240 240 240 225 220 220 220 220 215 215 215 215 210 210 210 190 245 190 190 225 225 245 245
220 220 220 225 225 225 225 230 230 230 230 235 235 220 220 215 215 215 215 210 210 210 210 205 205 185 240 185 185 220 220 240 240
215 215 215 215 220 220 220 220 225 225 225 225 230 215 215 215 210 210 210 210 205 205 205 205 200 180 235 180 180 215 215 235 235
Acevedo-Morantes et al / DYNA 81 (187), pp. 73-80. October, 2014.
Figure 4. a) fringes of different gray scale in the specimen PS of maximum thickness; b) fringes of different gray scale in the specimen of minimum thickness. Source: Authors
Figure 3. Identification of the stripes of specimen of PS. Source: Authors
The initial step to identify the color bars was to set a reference line. In most cases, the reference direction was selected immediately, as an axis of symmetry of the test specimen, in this case, a vertical or horizontal line was sufficient [6]. The selected reference lines in the experimental tests are shown in Fig. 3. The corresponding delay was identified with the selection of the color from the color table [14]. The calculations of the stresses were performed using the Equation 4. For example, if the observed color is bright orange red at the maximum thickness of the work specimen in the Fig. 3, the stresses at this point is calculated as:
located between the center of the molded specimen and the injection point. However, in both regions, the color fringes did not interfere with or overlap each other. In addition, the color map displayed on the specimens did not change with time. In the molded specimens, closed fields indicated stress concentration while more separate stripes shown the decrease of stress concentration. If there are more colors present, further stress is concentrated in the molded specimen; moreover, if the isochromatic line width becomes smaller, when the internal stresses are greater. Otherwise, when a single uniform color covers a large area, this indicates that there is no stress change in the area. Residual stresses were calculated at the maximum and minimum thickness of the specimens of crystal polystyrene. The calculated residual stresses for experiment 1were reported in Table 5. Residual stresses obtained for the maximum thickness of the reference specimens of crystal polystyrene PS-1 were plotted in Fig. 5 for experiments 1 to 25. The maximum value for the residual stress was 0.0766 MPa and it was obtained in tests 18, 24 and 25, which were performed at low temperatures, between 200, and 210 °C for the nozzle and zone 1, while the minimum value was 0 MPa, for tests 3 to 13 at a higher temperature of 215 °C for the four zones, see Table 4. In the group of the first thirteen experiments, test 7 was highlighted, in which the maximum residual stress reached 0.0233 MPa. For tests 10 to 13, the maximum tension of 0.0247 MPa was reached at the highest temperatures as observed in the Table 4.
(5) where
[10] and
.
3. Results and discussion The pattern of the fringes changes with the thicknesses of the specimens. At maximum thickness, fringes with curved shapes were observed while straight fringes were typical at minimum thickness (see Fig. 4). The injection zone was located in the maximum thickness of the mold, wherein the fringes color curves were focused around it. In contrast, the zone of smaller thickness was far apart from this zone. The position of maximum orientation was shown generally as a nearly circular band, which was usually Table 5. Calculation of residual stresses Color Bright orange red Light yellow Yellowgreen Indigo Violet Canary yellow Bright yellow Pale strawyellow White yellow Ivory Grey Blue Grey Grey iron Source: Authors
Maximum thickness Delay δ (nm) 998 910 866 583 575 430 332 275 267 259 218 158 40
σ (MPa) 0.0422 0.0385 0.0366 0.0247 0.0243 0.0182 0.014 0.0116 0.0113 0.011 0.0092 0.0067 0.0017
76
Color Bright green (2) Incarnation Light yellow Green yellow Yellow green Green blue Indigo Deep red Yellow white
Minimum thickness δ (nm) 1811 1495 948 866 843 728 583 551 267
σ (MPa) 0.1979 0.1634 0.1036 0.0946 0.0921 0.0796 0.0637 0.0602 0.0292
Acevedo-Morantes et al / DYNA 81 (187), pp. 73-80. October, 2014.
Figure 5. Experiments 1 to 25 Maximum thickness of the specimens of PS-1. Source: Authors
pattern was also observed for samples of PS-2. The maximum residual stress occurred in the minimum thickness of the specimen, which was 2.92 times higher than those presented in the tests with maximum thickness, as shown in Figs. 5, 6. Furthermore, at the maximum thicknesses of the specimens, stresses equivalent to 0 MPa were measured (Fig. 5). These values were not observed in the minimum thicknesses (Fig. 6). The walls of the molding are thicker in the specimens with greater thickness, acting as an insulator that encloses heat longer in the central zone. This promotes relaxation of the polymer chains of the material, reducing the residual stress and the anisotropy of the specimens (when the polymer molecules are more aligned in one direction than the other) [17, 18]. However, although two different crystal polystyrene references were used in the experiments 1 to 50; the common factor was the reduction of residual stresses of the material with increasing temperatures in the zones of the injection. These results were supported by Postawa, 2006, who showed that the use of high temperatures of injection is more favorable for molding [19-21], because the orientation is reduced, as well the anisotropy of the material and residual stresses in the molded part. At higher temperatures the melt viscosity decreases, permitting a greater transmission pressure allowing packing of material so that it reduces the contraction of the material. Contraction is an undesirable phenomenon in the material because it causes distortion and anisotropy in the finished part. However, in the case of amorphous polymers such as polystyrene, contraction of the injected material is not favored due to the molecular structure of the polymer chains. In Figs. 7 and 8, the residual stresses are plotted for the maximum and minimum thickness of the tests 51 to 58 of reference crystal polystyrene PS-1 at extreme conditions.
The lowest residual stresses were observed between tests 7 to 13, at the higher temperature of 220째C for each zone; with the exception of essay 9. At high temperatures in the nozzle zone and the feed area, the viscosity decreased, allowing for a higher transmission of pressure, and thus, a better polystyrene packing in the mold. Similar results were obtained in PS2 samples. Low-temperature profiles develop high residual stresses in the polymeric specimens. This behavior can be interpreted qualitatively [12, 13]; polymer flow is enhanced at high temperature, the intermolecular forces are reduced and the mobility of polymer chains increases, the resistance to flow decreases, as well as the residual stresses in the molding specimen. On the other hand at low temperatures, there are two processes related to the increase of residual stresses, formation and destruction of intermolecular forces such as Van der Waals forces, which occur together with the stretching and aligning in the direction of stress of the points of the successive molecular segments separated by intermolecular bonding. The formation of intermolecular forces in the polymer causes an energy dissipation related to the change in internal energy, whereas, the destruction of secondary links results in an accumulation of potential energy is related to the change in entropy [15]. Residual stresses are plotted in Fig. 6 at the minimum thickness of the PS-1 crystal polystyrene reference specimens. The maximum residual stresses were found in tests 24 and 25 with a value of 0.2238 MPa, at a temperature range of 200 to 210 째C, see Table 4; furthermore, the minimum residual stresses were found from tests 11 to 13, with a temperature range of 230 to 240 째C. Specifically, high temperature favors the reduction of residual stresses by promoting the relaxation of the oriented chains and the decrease of molecular orientation. This 77
Acevedo-Morantes et al / DYNA 81 (187), pp. 73-80. October, 2014.
Figure 6. Experiments 1 to 25 Minimum thickness of the specimen PS-1. Source: Authors
Figure 7. Experiments 1, 51 to 58 Maximum thickness of the specimen PS-1. Source: Authors
78
Acevedo-Morantes et al / DYNA 81 (187), pp. 73-80. October, 2014.
Figure 8. Experiments 1, 51 to 58 Minimum thickness of the specimen PS-1. Source: Authors
The maximum values of the residual stresses obtained from test 1, 51 and 52 are shown in Table 6 (Fig. 7, 8). These results corroborate the influence of temperature on the residual stresses, since these tests were performed with the same reference of crystal polystyrene (PS-1) and equal cooling times; only the temperature was manipulated to extreme values. It was observed that internal stresses were found to be four times higher in magnitude in the tests at extreme low temperatures compared to the tests performed at extremely high temperatures, wherein the thermal contraction was higher, the cooling in the specimens molded was slower, allowing further movement of the molecular chain segments, which increased the likelihood of molecular order before solidification. Although at the extremely high temperatures, such as those used in the tests 52, 57 and 58 (with an average temperature of 240째C), the residual stresses obtained were the lowest of all experiments performed, the molded specimens showed imperfections such as burrs, contours with material surplus, this was due to overheating of the material by an increase of injection temperature [1]. Also, the internal tensions increased with low temperatures, as shown by the test 51 in which the specimen was incomplete. This defect was due to the fact that the material did not reach the processing temperature at this low melting temperature. The behaviors of residual stresses was very similar with equal processing temperatures and with different cooling times, for example, the temperature conditions, in the tests 51, 53 and 54, were low and similar, with cooling times of 22, 30 and 20 seconds, respectively, also, the observed residual stresses were similar (See Fig. 8).
Table 6. Maximum Residual Stresses of tests 1, 51 and 52 Set No. of Maximum value of residual stresses experiments (MPa) Maximum Minimum thickness thickness
1 51 52 Source: Authors
0.0422 0.0866 0.0247
0.1634 0.2106 0.1203
Average temperatu re condition s in the injection 째C 220 185 240
The cooling time is a factor affecting the residual stresses of the specimens, due to the relaxation of molecules of polymer. This relaxation is greater at longer cooling times, thereby decreasing the orientation and internal tensions. However, in this study the gap between the cooling times is small, and its influence was not observed. Besides, previous studies [19] found that in the processing of polymers, the temperature is the most influential factor on the residual stress rather than the cooling time. 4. Conclusions Photoelasticity is a practical, low cost technique and can be applied effectively in the measurement of residual stresses for injection molding crystal polystyrene helping to control the quality of products. The residual stresses decreased considerably with high temperature profiles in the 79
Acevedo-Morantes et al / DYNA 81 (187), pp. 73-80. October, 2014.
injection molding process. However, extremely high temperatures cause other problems, such as sink marks, burrs and contraction that reduce the quality of the final product. The residual stresses are higher at lower thicknesses of the molded specimens because the cooling of thin walls in the molded part is faster than in areas of greater thickness. During the investigation it was found that of the manipulated variables, temperature and cooling time, the most important variable to control the injection molding process of crystal polystyrene is the temperature, since, it is causing a greater impact on internal tensions of the molded specimen. The results obtained from the images are consistent with previous studies, showing that the image processing and analysis could be performed by an algorithm and software to optimize the injection molding process.
[12] Realpe, A. and Velazquez, C., Pattern recognition for characterization of pharmaceutical powders, Powder Technology, 169 (2), pp. 108-113, 2006. [13] Kuske, A. and Roberston, G.S., Photoelastic stress analysis. A Wiley-Interscience Publication, 1974. [14] Al-Batah, M.S., Mat-Isa, N.A., Zamli, K.Z., Azizli, K.A. and Sani, Z.M., A novel aggregate classification technique using moment invariants and cascaded multilayered perceptron network. International Journal of Mineral Processing, 92 (1), pp. 92-102, 2009. [15] De Francesco, A. and Duckett R.A., Development of orientation with drawing in polystyrene films: Effects of time and temperature. Polymer, 45, pp. 4297-4306, 2004. [16] Healy J., Graham H.E. and Knott R.B., Residual orientation in injection micro-molded samples, Physica B, 385-386, pp.620-622, 2006. [17] Sánchez S, Yáñez I y Rodríguez O., Moldeo por inyección de termoplásticos. Spain: Limusa Noriega, 1st Ed., 2008 [18] Tsai, S. y Miravete, A., Diseño y análisis de materiales compuestos. Spain: Ed. Reverté, 1988. [19] Postawa, P. and Kwiatkowski, P., Residual stress distribution in injection molded parts. Journal of Achievements in Materials and Manufacturing Engineering, Journal Amme, 18 (1), pp. 117-174, 2006. [20] Tang, S.H., Kong, Y.M., Sapuan, S.M., Samin, R. and Sulaiman, S., Design and thermal analysis of plastic injection mould. Journal of Materials Processing Technology, 171, pp. 259–267, 2006. [21] Raptis, K.G., Costopoulos, T.N., Papadopoulos, G.A. and Tsolakis, A.D., Rating of spur gear strength using photoelasticity and the finite element method, American Journal of Engineering and Applied Sciences, 3 (1), pp. 222-231, 2010.
Acknowledgements The authors acknowledge the support provided by the Chemical Engineer Alberto Gomes-Casseres Barboza from Dexton Company and the Cartagena University. References [1]
Frocht, M., Photoelasticity, Vol. 1, Jhon Wiley & Sons, pp. 100-108, 1941. [2] López-Alba, E., Sese, F., Vasco-Olmo, J.M. y Díaz-Garrido, F.A., Aplicaciones industriales de técnicas ópticas de campo completo para la medida de tensiones y deformaciones en elementos de máquinas, DYNA, 80 (181), pp. 98-108, 2013. [3] De Joussineau, G., Petit J.P. and Gauthier B.D.M., Photoelastic and numerical investigation of stress distributions around fault models under biaxial compressive loading conditions, Tectonophysics, 363, pp. 19-43, 2003. [4] Hermida E.B. y Brandaleze E., Estudio de tensiones residuales en policarbonato sometido a tracción mediante fotoelasticidad, Jornadas SAM, Congreso CONAMET, Simposio Materia, Bariloche – Argentina, pp. 858-861, 2003. [5] Llosa M., Gómez J., Zapata M., Aparicio C., Guillen D. y Zapata L. Evaluación de tensiones residuales en discos compactos mediante el método fotoelástico, Revista de Investigación de Física, 8 (1), pp. 42-45, 2005 [6] Vishay Measurements Group., Introduction to Stress. Analysis by the PhotoStress® Method, Tech Note TN-702-2, pp. 1-14, [Online]. [date of reference August 2 of 2005]. Available at: http://www.vishaymg.com [7] Chang, C.W., Lien, H.S., and Lin, J.H., Determination of reflection photoelasticity fringes analysis with digital image-discrete processing, Measurement, 41, pp. 861-869, 2008. [8] Doyle, J. and Phillips, J., Manual on experimental stress analysis: photoelasticity, Daniel Post, 5th Edition, USA, Society of Experimental Mechanics, 1989, pp. 80-110. [9] Amores, R. y Osorio. B., Análisis fotomecánico por transmisión de luz mediante la técnica de procesamiento digital de imágenes en Matlab, MSc. Tesis, Escuela Politécnica Nacional, Quito, Ecuador, 2010. [10] Des Cloizeaux, J. and Jannink, G., Polymers in solution: Their modelling and structure. New York: Ed. Oxford University Press, Vol 1, 2010. [11] Realpe, A. and Velazquez, C., Growth kinetics and mechanism of wet granulation in a laboratory-scale high shear mixer: Effect of initial polydispersity of particle size. Chemical Engineering Science, 63, pp. 1602-1611, 2008.
M. T. Acevedo-Morantes, received the Bs. Degree in Chemical Engineering in 1999 and a MSc. degree in Chemical Engineering in 2005, all of them from University of Puerto Rico, Puerto Rico, USA. Currently is an Assistant Professor of Chemical Engineering Department of University of Cartagena. Her research focuses on polymeric membrane for electrolytic process, carbon dioxide separation and fuel cell. Moreover, she has developed other researches in medical applications as encapsulating of medical drugs and synthesis of polyanhydrides for cancer treatment. Her publications have been reported in the Desalination Journal and Drug Delivery. M. Brieva-Sarmiento, achieved a Bs. degree in Chemical Engineering in 2012. She is a Research scholar in the Chemical Engineering Program, University of Cartagena, Cartagena de Indias, Colombia. Her areas of research interests are image processing and polymers. She works in quality control of gas and oils. A. Realpe-Jiménez, received his Bs. in chemical engineering from University of Atlantico, Barranquilla, Colombia, 1998. He received his MSc. in Chemical Engineering, 2002 and a PhD. degree in Chemical Engineering, all of them from University of Puerto Rico, Puerto Rico, USA, 2007. Currently is an Assistant Professor of Chemical Engineering Department of University of Cartagena, Colombia. His research areas include polymer, image processing, renewable energy and powder mixing.
80
Automatic detection of bumblebees using video analysis Willy Azarcoya-Cabiedes a, Pablo Vera-Alfaro a, Alfonso Torres-Ruiz b & Joaquín Salas-Rodríguez a a
Instituto Politécnico Nacional, México, wazarcoyac1300@alumno.ipn.mx b Koppert de México S. A. De C. V., México
Received: October 14th, de 2013. Received in revised form: May 21th, 2014. Accepted: June 3th, 2014
Abstract In this document, we explore and develop techniques to automatically detect bumblebees flying freely inside a greenhouse, where illumination conditions are left unconstrained, and no artifact is used on their bodies. Specifically, we compare a Viola-Jones classifier and a Support Vector Machine (SVM) classifier to detect the presence of bumblebees. Our results show that the latter has a better classification performance. Keywords: Support Vector Machine classifier; Viola-Jones classifier; bumblebee detection.
Detección automática de abejorros usando análisis de video Resumen En este documento exploramos y desarrollamos técnicas para la detección de abejorros que vuelan libremente dentro de un invernadero, en donde las condiciones de iluminación no son controladas y ningún artefacto es colocado en sus cuerpos. En particular, comparamos clasificadores Viola-Jones y Máquinas de Soporte Vectorial (SVM) en su uso para la detección de abejorros. Nuestros datos muestran que el SVM ofrece mejores resultados de clasificación. Palabras clave: Clasificador tipo Support Vector Machine; Clasificador tipo Viola-Jones; detección de abejorros.
1. Introduction Pollination is a critical ecosystem service in agriculture [10]. It has been estimated that 75% of human food crops require pollination by insects for adequate production [6,11], bees (Hymenoptera: Apoidea) and bumblebees being the most used in managed pollination programs. To date, bumblebees are used as managed pollinators on more than 40,000 hectares of greenhouses tomato crop in the world [15]. Therefore, monitoring their activity is important from the perspective of ecological research, and when there is the need to know their patterns of activity and how they are affected by greenhouses management practices [5]. Currently, the study of pollination is based fundamentally on direct observations of plantpollination relationships [8], on offline video monitoring [9,13], and also with the aid of special tags attached to the bumblebees’ bodies [3]. Overall, the trend is toward the use of automatic techniques that facilitate biology studies. The objective of the present document is to report the use of computer vision algorithms to automatically detect the presence of bumblebees, for extended periods of time, and without the need to engineer the environment. To that end, the
rest of the document is developed as follow. In Section 2, we survey the related literature. Then in Section 3, we describe the materials and methods used to perform the evaluation. Next, in Section 4, we describe our experimental results. Finally, in Section 5, we conclude the document summarizing our findings and describing potential lines for future research. 2. Related Works Automatic visual recognition of insects has been used when it has been possible to study static insects, with enough resolution, and in controlled lighting conditions. For instance, Larios et al. [7] represent insects by features based on the curvature of their profiles, analyzed on both local and global scales. On the other hand static and adaptive appearance templates for handling appearance change, and geometryconstrained resampling of particles for handling unreliable features has been used in the past [19]. At their end, Yuefang et al.[4] identify insects by describing their wings with a combination of moment invariants. In addition, the interaction between insects and the environment can facilitate the use of clustering techniques based on color or intensity, as reported
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 81-84. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40475
Azarcoya-Cabiedes et al / DYNA 81 (187), pp. 81-84. October, 2014.
by Jinhui et al. [17]. Furthermore, insects can be identified by their traces [12]. Nonetheless, there is a pressing need to increase our understanding for situations where the bumblebees interact freely with their environment. Detecting and tracking at the beehive entrance has been done in the past making use of computer vision technics in 3D.[20] In our investigation we focus only on the detection of insects either at the entrance of the beehive or at the time of pollination in the flower. Toward that objective, we compare the performance of a Viola-Jones classifier [16] and a Support Vector Machine classifier (SVM) [2]. This work further enhance a previous work [23], where we explored the use of tracking by detection to analyze the arrival of bumblebees to flowers and their motion around beehives.
4. Experimental Results For the Viola-Jones classifier, as the number of stages was varied in the classifier, the performance improved. Fig. 2 illustrates the results as a ROC curve [14]. The reduction of the False Positive Rate (FPR) after the addition of just a few stages in the classifier is remarkable. For instance, the FPR is reduced from ~1.0 to ~0.4 upon changing from a 10-stages classifier to a 15-stages classifier. In fact, the FPR for the 18-stages classifier is 0.04, while the True Positive Rate (TPR) is 0.85. Of course, the TPR decreases accordingly but it does so at a smaller rate. Note that while the TPR is 0.99 with the 10-stages classifier, it is 0.87 and 0.85 with the 15 and 18-stages classifiers, respectively. Similarly, the FPR is below 0.01 for the 20- and 22-stages classifiers, while the TPR is ~0.75. With the SVM classifier, the TPR is 0.98 and the FPR 0.003. These results show a superior performance of the SVM classifier.
3. Materials and Methods A flying cage ( ) was covered with an antiaphid net. Inside we placed five tomato (Solanum lycopersicum) and Serrano chili (Capsicum annuun) flowering plants. A MINIPOL™ (Koppert) hive, containing 30 Bombus impatiens (Hymenoptera: Apidae) workers was introduced into the cage two hours before the experiment began. The bumblebees were free to fly inside the cage and a JAI camera model CV-S3200 with an analog interface connected to a National Instrument NI PCI 1411 acquisition board was used to obtain images at a 640 x 480 resolution and a frame rate of 30 fps. Acquisition was done during the day making use of direct sunlight as illumination. The camera was mounted on a metallic support focused at times on a tomato flower as well as to the hive (see Fig. 1). In order to analyze the performance of each classifier, 2,082 images with bumblebees were selected as positive samples and 3,483 without bumblebees as negative samples employing cross-validation. The images included the natural changes of illumination caused by the apparent Sun movement and the occasional Sun occlusion due to clouds. To train the classifiers, we selected 80% of the samples at random using the rest for testing. To construct the Viola-Jones classifier, we used the Open CV library [1], which uses Haarlike features. To construct the SVM classifier, we used the implementation provided by Matlab with a linear kernel, with Histogram of Oriented Gradients (HOG) as features [18]. We constructed Viola-Jones classifiers for 24 24 pixel subimages, with 10, 15, 18, 20, and 22 stages. Their corresponding training time was around 4, 8, 12, 18, and 24 hours, respectively. For the HOG features, we used 64 64 pixel images, with 8 8 pixel cells, and 2 2 cell blocks, as seen in Fig. 3. The SVM works by constructing a feature space where the classes to be distinguished are separated using a certain type of kernel. The search for a bumblebee in a particular image takes place using a hierarchical search of a pyramid structure, where each level has twice the resolution [24]. We accepted bumblebee detection when the Viola-Jones classifier gave a positive response and when the margin of the SVM classifier was positive. We use the Receiver Operating Characteristic (ROC) curve [14] to verify the performance of the classifiers. The computer used for these experiments has an Intel 5 microprocessor with four cores, operating at 3.33GHz, with 8 GB of RAM and running on the Windows 7, 64 bit, operating system.
5. Conclusion In this document, we applied Viola-Jones and SVM classifiers to the problem of detecting bumblebees in an unconstrained,green-house-like environment. Furthermore, our results show that the Support Vector Machine classifier, with HOG features, outperforms the Viola-Jones classifier. Managed pollinators like bumblebees are frequently monitored at the hive entrance to determine the foraging activity rate by counting the number of bees coming in or out the hive [21]. This activity rate is an important element of practical pollination studies in greenhouses [22]. A system counting automatically the number of bees flying in and out of the hive or the number of bumblebees arriving to a flower with high accuracy would be very informative. However, in some computer vision systems the illumination changes could affect the outcome of the detection. HOG features are less affected by possible illumination changes, because they are based on the orientation of gradients and the normalization of image blocks. Keeping the natural illumination conditions is important in order not to disturb the behavior of bumblebees. More research should increase the performance of the detectors, highlight other aspects of the insect-pollinators activity, and lead the development of more flexible monitoring tools. For instance, a possible way to increase the performance of either one of the classifiers could involve the use of a detection-and-tracking strategy. Such strategy could be used in combination to fill the gaps whenever a bumblebee is not detected. 6. Figures
(a)
(b)
Figure 1. Bumblebee detection scenarios. (a) When the bumblebees visit flowers, and (b) flying in and out their beehive. Source: The authors 82
Azarcoya-Cabiedes et al / DYNA 81 (187), pp. 81-84. October, 2014.
Acknowledgements This research was partially funded through research grant number SIP-IPN/201325. We thank Paul Riley for his comments to improve this document. References [1] [2] [3] [4]
Figure 2. Viola-Jones classifier performance. The solid red line indicates the performance of the Viola-Jones classifiers for a different number of stages. The numbers around the circles in the solid line inform the number of stages. Source: The authors
[5] [6]
[7]
[8] [9] [10] [11]
[12]
[13] [14] [15]
[16] Figure 3. Bumblebee detection using the SVM classifier. (a) Blue squares correspond to the 64 x 64 pixel subimages classified as positive samples in the whole image, and (b) in each group of adjacent squares, only the one with the features mapped farther to the hyperplane used for classification is kept and the others are filtered out. Source: The authors
[17]
83
Gary, B. and Adrian, K., Learning OpenCV: Computer vision with the OpenCV library. 1ra. Ed. California, U. S.: Editor O'Reilly Media, 2008. Nello, C. and Shawe-Taylor, J., An introduction to support vector machines and other kernel-based learning methods. 1ra. Ed. United Kingdom, Cambridge University Press, 2000. Chiu, C., En-Cheng, Y., Joe-Air, J. and Ta-Te, L., An imaging system for monitoring the In-and-out activity of honey bees. Computers and Electronics in Agriculture, pp. 100-109, 2012. Yuefang, G., Hongzhi, S., Xuhong, T. and Yan, C., Identification algorithm of winged insects based on hybrid moment invariants, Proceedings of International Conference on Bioinformatics and Biomedical Engineering, pp. 531-534, 2007. Cama-Pinto, A., Gil-Montoya, F., G贸mez-L贸pez, J., Garc铆a-Cruz, A. and surveillance system for greenhouse crops Manzano-Agugliaro, F., Wireless, DYNA (Colombia), 81 (184), pp. 164-170, 2014. Klein, A.-M., Vaissi猫re, B.-E., Cane, J.-H., Steffan-Dewenter, I., Cunningham, S., Kremen, C. and Tscharntke, T., Importance of pollinators in changing landscapes for world crops. Proc. R. Soc. B., pp. 303-313, 2007. Larios, N., Deng, H., Zhang, W., Sarpola, N., Yuen, J., Paasch, R., Moldenke, A., Lytle, D., Correa, S., Mortensen, E., Shapiro, L. and Dietterich, T., Automated insect identification through concatenated histograms of local appearance features: Feature vector generation and region detection for deformable objects, Machine Vision and Applications, 19, pp. 105-123, 2007. Lingren, B. and Lenker, D.-H., Insect trap and assembly for capturing and monitoring insects, US Patent, 6,516,558, February, 2003. Lortie, C.-J., Budden, A.-E. and Reid, A.-M., From birds to bees: Applying video observation techniques to invertebrate pollinators, Journal of Pollination Ecology, 6, pp. 125, 2012. Nabhan, G.-P. and Buchmann, S.-L., Services supplied by pollinators, In Nature's Services, Societal Dependence on Natural Ecosystems, Island Press, pp. 133-150, 1997 Potts, S.-G., Biesmeijer, J.-C., Kremen, C., Neumann, P., Schweiger, O. and Kunin, W., Global pollinator declines: Trends, impacts and drivers, Trends in Ecology and Evolution Cell Press, 25, pp. 345353, 2010. Bok-Suk, S., Eui-Young, C., Kwang-Baek, K., Kyoung-Won, C., Reinhard, K. and Woon, W., Effective feature extraction by trace transform for insect footprint recognition, in 3rd International Conference on Bio-Inspired Computing: Theories and Applications, pp. 97-102, 2008. Steen, R., Aase, O. and Thorsdatter, A., Portable digital video surveillance system for monitoring flower-visiting bumblebees, Journal of Pollination Ecology, 5, pp. 90-94, 2011. Swets, J.-A., Dawes, R.-M. and Monahan, J., Better decisions through science, Scientific American, 283, pp. 82-87, 2000. Velthuis, H.-W. and Van Doorn, A., A century of advances on bumblebee domestication and the economic and environmental aspect of its commercialization for pollination, Apidologie, 37, pp. 421-451, 2006. Viola, P. and Jones, M., Rapid Object detection using a boosted cascade of simple features, in Proceedings of the Conference on Computer Vision and Pattern Recgnition (CVPR), Kauai, Hawaii, Vol. 1, pp. 511-518, 2001. Jinhui, Z., Muhua, L. and Mingyin, Y., Study on image recognition of insect pest of sugarcane cotton aphis based on rough set and fuzzy C-means clustering, in: Intelligent Information Technology Application, IITA 2009, Third International Symposium on Vol. 2, pp. 553-555. 2009.
Azarcoya-Cabiedes et al / DYNA 81 (187), pp. 81-84. October, 2014. [18] Dalal, N. and Triggs, B., Histograms of oriented gradients for human detection, In Proceedings of the Conference on Computer Vision and Pattern Recognition, San Diego, California, USA, pp. 886-893, 2005. [19] Maitra, P., Schneider, S. and Shin, M., Robust bee tracking with adaptive appearance template and geometry-constrained resampling, in Applications of Computer Vision (WACV), 2009 Workshop IEEE 2009. [20] Chiron, G., Gomez-Krämer, P., Ménard, M, and Requier, F., 3D tracking of honeybees enhanced by environmental context, International Conference on Image Analysis and Processing, Springer, pp. 702-711, 2013. [21] Kevan, G.-P., Cooper, E., Morse, A., Kapongo, P.J., Shipp, L. and Khosla, S., Measuring foraging activity in bumblebee nests: A simple pest-entrance trip recorder, Journal of Applied Entomology, 133, pp. 222-228, 2009. [22] Torres-Ruiz, A. and Jones, R.W., Bombus impatiens and bombus ephippiatus (Hymenoptera: Apidea) as pollinators of tomato in greenhouses, Journal of Economic Entomology, 105 (6), pp. 18711877, 2012. [23] Miranda, B., Salas, J. and Vera, P., Bumblebees detection and tracking, workshop vis. Observational Anal. Anim. Insect Behav. ICPR. 2012. [24] Crowley, J.-L., A representation for visual information, Report CMU-RI-TR-82-07, Robotics Institute, Carnegie-Mellon University, 1981. W. Azarcoya-Cabiedes, received a Bs. on Communications and Electronics in 2006, from the Instituto Politécnico Nacional - IPN, México; an MSc. in Distributed Software Engineering in 2012, from Querétaro State University - UAQ, México; he is currently a PhD student in Computer Vision at IPN, México. A. Torres-Ruiz received a Bs. in Biology in 1999 from the Queretaro State University - UAQ, México; an MSc. degree in Biological Science in 2002 from the Institute of Ecology at the National University of Mexico – UNAM, México; and his PhD. degree in Management of Natural Resources in 2013, from the UAQ, México. His areas of research interest include: pollination ecology, biological control and mass rearing of insects. He is currently Production and Research and Develop manager at Koppert México. . P. Vera-Alfaro, received a Bs. in Communications and Electronics and an MSc. degree on Advanced Technology in 2007, all of them from Instituto Politécnico Nacional - IPN, México. Currently he is working in IPN, as an associate professor in the area of computer vision. J. Salas, received a Bs. degree in Computer Science in 1989 from the ITESM, México; an MSc. degree in Electrical Engineering in 1991 from CINVESTAV, México and a PhD. degree in Informatics in 1996, also from ITESM, México. He is a full-time professor at IPN. His areas of research include, computer vision, pattern recognition, and artificial intelligence.
84
A modified firefly-inspired algorithm for global computational optimization Iván Amaya a, Jorge Cruz b & Rodrigo Correa c a
School of Electrical, Electronic and Telecommunication Engineering, Universidad Industrial de Santander, Colombia. ivan.amaya2@correo.uis.edu.co School of Electrical, Electronic and Telecommunication Engineering, Universidad Industrial de Santander, Colombia. jorge.cruz1@correo.uis.edu.co c Professor, School of Electrical, Electronic and Telecommunication Engineering, Universidad Industrial de Santander, Colombia. crcorrea@uis.edu.co b
Received: October 27th, 2013. Received in revised form: April 13th, 2014. Accepted: July 25th, 2014.
Abstract This article compares the original firefly-Inspired algorithm (FA) against two versions suggested by the authors. It was found that by using some modifications proposed in this document, the convergence time of the algorithm is reduced, while increasing its precision (i.e. it is able to converge with less error). Thus, it is strongly recommended that these variants are further analyzed, especially for the solution of systems of nonlinear equations, since the exploratory test that has been performed yielded good results (i.e. the roots found by the algorithm were quite close to the theoretical one). Moreover, it was also found that the algorithm is dependent on the swarm size, especially when dealing with planar regions. Keywords: Firefly algorithm; global optimization; standard test functions.
Un algoritmo modificado inspirado en luciérnagas para optimización global computacional Resumen Este artículo compara el algoritmo original basado en luciérnagas contra dos versiones sugeridas por los autores. Se encontró que al utilizar algunas modificaciones propuestas en el documento, el tiempo de convergencia del algoritmo se reduce, mientras aumenta su precisión (es decir, converge con menos error). Por tanto, se recomienda fuertemente que estas variantes sean analizadas con más detalle, especialmente para la solución de sistemas de ecuaciones no-lineales, dado que la prueba exploratoria consignada aquí entregó buenos resultados (es decir, las raíces encontradas por el algoritmo se encuentran muy cercanas a los valores teóricos). Además, se encontró que el algoritmo es dependiente del tamaño del enjambre, en especial cuando se trabaja con regiones planas. Palabras clave: Algoritmo de luciérnagas, optimización global, funciones de prueba estándar.
1. Introduction The area of global optimization requires theoretical, algorithmic and computational advances in order to address the computation and characterization of global extremes i.e. global minima and maxima, as well as, determine the valid lower and upper bounds on the global extremes. Similarly, global optimization addresses the enclosure of all solutions of nonlinear constrained systems of equations. Until recent years there was only one approach to finding global optima, called deterministic global optimization. This strategy has reasonably well structured mathematical foundations, but requires knowing properties such as differentiability and continuity of the objective function. In recent years a new
alternative was proposed, which is known as metaheuristic optimization. In contrast, these strategies make few or no assumptions about the problem being optimized and can efficiently explore the search space in order to find optimal (or near optimal) solutions. A metaheuristic is formally defined as an iterative generation process which guides a subordinate heuristic by combining diverse concepts for exploring and exploiting the search space, without the need of any a priori complicated analytical preparation. Metaheuristic algorithms such as, particle swarm optimization (PSO, [1]), firefly algorithm (FA), simulated annealing [2], spiral algorithm, bat algorithm, for example, are now becoming powerful methods for solving many tough global optimization problems [3]. This article deals
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 85-90. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.46761
Amaya et al / DYNA 81 (187), pp. 85-90. October, 2014.
with the optimization of an objective function without restrictions, through the original FA algorithm and a couple of variants that are proposed in the following section. Afterwards, some results are shown with standard test functions, analyzing the way in which the swarm size, and one of the proposed factors, can modify the convergence of the strategy. Finally, an example of the use of the algorithm for solving a system of nonlinear equations is shown, and conclusions are drawn.
0.5
1
(1)
2.2. Proposed modifications Considering that FA is able to provide good results for test functions [4], but only when and are chosen properly, it was decided to explore the behavior of the algorithm after implementing some modifications, which are now described.
2. Methodology
2.2.1. Variable factors
During this research, the performance of the original FA, and some modifications proposed in the current paper, will be compared. These variants of the algorithm will be explained below, and the comparison is focused on quality of the answer (i.e. how close is the answer provided by the algorithm to the real one), as well as on the time it took to find it. At first, some results with standard test functions are shown, and then the scope is changed to analyze a nonlinear system of equations.
The first and most obvious modification is to allow the constants to vary as the search progresses. However, this variation could be implemented in any number of ways. Since most processes in nature are stochastic, it was decided that the process should behave in the same way (i.e. it should vary stochastically). However, we also require that it decreases through time, since a smaller allows random movement in a smaller area, and because a smaller avoids trapping of artificial fireflies in local optima. Thus, the behavior given by eq. (2) was established, where is replaced by each factor ( , ), is a proportionality constant that defines how much can a factor (i.e. or ) be reduced in one iteration, and is a random number (uniformly distributed between zero and one).
2.1. An overview on the original algorithm FA was proposed by Yang in 2010 [4], [5]. According to its author, it is based on the attraction of artificial fireflies via the light they emit. Yang considers that any artificial firefly can attract, or be attracted, by any other one (i.e. they are unisex), as well that their attractiveness is proportional to their brightness, and that the latter one is affected by the landscape of the objective function [6]. This implies, however, that the only function of the light-emission of fireflies is mating, while it could also be used for attracting preys or for intimidating foes, as appears to be the case of real fireflies. Regarding the algorithm itself, Yang proposes the use of a fixed pair of constants, and , which relate to the randomness of an artificial firefly's movement and to the dimming of the light emitted by it, as light travels through the search domain, respectively. Striving to not expand too much in the explanation of the algorithm, it will only be said that it can be implemented with the following iterative process: i. Initialize fireflies ii. Calculate each firefly's light (i.e. evaluate the objective function for each firefly) iii. Sort fireflies by intensity of light (in ascending order) iv. Update fireflies position (i.e. adjust each firefly according to eq. (1) and to the light intensity) v. Check for convergence. If it complies, then exit. If not, then restart the process (skipping the initialization of the elements and using their current position instead).
1
1
(2)
Moreover, if any factor goes below a given limit, it is restarted to a random number (also uniformly distributed) between zero and a maximum value, so the procedure can begin at different points, thus making it a more stochasticoriented process. During this research, an inferior limit of 10 and 10 was used for and , respectively. 2.2.2. Change of movement equation Another modification that is proposed in this work, is to change the way in which artificial fireflies travel through the search domain. Here we propose that a firefly ( ) is automatically attracted to the vicinity of another one ( ), by means of eq. (3), striving to speed up the optimization process. 0.5
(3)
2.2.3. Dividing over the firefly index Finally, the last change consists of dividing by the index of the attracting firefly, as shown by eq. (4). Since the is sorted in an ascending order of , information of then the best fireflies (i.e. the ones with higher light emission) have a higher index . This means that the fireflies attracted to the best solution found so far, would be located in a smaller vicinity region, thus favoring the intensity of the search.
It is important to remark that in eq. (1), the subscripts , relate to the firefly that is being analyzed, and to the other fireflies, respectively. Also, the superscript relate to the time step, to the attractiveness at distance zero, is a ∈ 0,1 , and are the random number such that is the Cartesian previously mentioned constants and distance between fireflies. 86
Amaya et al / DYNA 81 (187), pp. 85-90. October, 2014. Table 1. Computer specifications for testing Category Specification Manufacturer Alienware® Model M14x Processor Intel Core i7-2720QM @ 2.20 GHz RAM 8 GB OS Windows 7 Professional - 64 bits Power Plan High Performance Source: Authors
Table 2. Average precision and convergence rate for Jong's function Original FA Without division With division Dim Avg F(Xi) CR Avg F(Xi) CR Avg F(Xi) CR -3.68339E-16 100% -5.82931E-16 100% 2 -9.37920E-08 0% 3 -5.87039E-06 0% -7.17097E-16 100% -5.52130E-16 100% -7.30156E-16 100% -7.74243E-16 100% 4 -3.83750E-05 0% -7.56873E-16 100% -7.12535E-16 100% 5 -1.34667E-04 0% -7.95955E-16 100% -7.45660E-16 100% 6 -5.02987E-04 0% -8.06670E-16 100% -6.70145E-16 100% 7 -1.20164E-03 0% Source: Authors
0.5
Figure 1. Time variation for the three algorithms and Jong's function. Source: Authors
Table 3. Average precision and convergence rate for the test function one Original FA Without division With division Dim Avg F(Xi) CR Avg F(Xi) CR Avg F(Xi) CR 2 0.99997711 10% 0.99999395 100% 0.99999345 100% 3 0.99976395 0% 0.99999223 100% 0.99999290 100% 4 0.99936907 0% 0.99999268 100% 0.99999242 100% 5 0.99833500 0% 0.99999187 100% 0.99999164 100% 6 0.83002046 0% 0.99999147 100% 0.99999208 100% 7 0.55878866 0% 0.99999172 100% 0.99999135 100% Source: Authors
(4)
3. Experiments and Results Most of the tests shown here were run using 0.2 (see eq. (2)), and using the computer described in Table 1. Moreover, some standard test functions were carefully chosen, determined to cover from the most basic one, and up to some of the more difficult ones. Finally, a system of nonlinear equations is solved, via the theorem of real roots [7], [8]. It is important to remark, that results are shown for the original algorithm, as well as for two new versions: one including modifications 2.2.1 and 2.2.2, and other one using all three of them. They will be regarded as "without division" and "with division". Regarding the tables that will be shown below, it is convenient to stress that they were generated with 10 runs by dimension (unless otherwise stated), that "Avg F(Xi)" relates to the average value of the objective function, and that "CR" is the convergence rate, calculated as the ratio between the number of runs that exited due to convergence (i.e. the answers they found were inside the tolerance margin), and the number of runs per dimension.
(5) ,
,…,
3.2. Test Function one Its behavior is similar to the one of a parabolic system, and the general equation is shown in eq. (6), which has a global optimum of one, at 0. Results are generated for a desired precision of 10 , and summarizes them for the three versions. It can be seen that the original algorithm is unable to converge on almost every case, whilst both of the versions proposed here converge in all cases. However, the one that does not scale the neighborhood is faster than the one that does it, as can be seen in Figure 2. It is important to stress here that the data of the original FA is omitted because the time values are located around 100 seconds, and they would occlude the visualization of the other ones.
3.1. Jong's function
. ∗
The first test function is a simple one, since it is the summation of quadratic functions, as can be seen from eq. (5). In this case, and due to its simplicity, a precision of 10 was requested, and 20 artificial fireflies were used, delivering the results from Table 2. It can be seen that the original algorithm is not able to achieve the required level of precision, even though the ones proposed here do it. Moreover, the first proposal is faster than the other two variants, as backed up by Figure 1.
(6)
3.3. Rosenbrock's function As a third approach, and motivated to increase the complexity of the tests, Rosenbrock's function was evaluated, using 30 particles and a precision of 10 for each run. The general form is given by eq. (7), and the standard search domain is 2.048 2.048. 87
Amaya et al / DYNA 81 (187), pp. 85-90. October, 2014. Table 4. Average precision and convergence rate for Rosenbrock's function Original FA Without division With division Dim CR Avg F(Xi) CR Avg F(Xi) CR Avg F(Xi) 2 -6.57351E-03 100% -4.02626E-03 100% -8.36418E-03 100% 3 -7.84255E-03 100% -8.61858E-03 100% -9.33647E-03 100% 4 -3.75771E-01 90% -3.78864E-01 90% -7.48101E-01 80% -8.22788E-01 0% -9.94884E-03 100% -4.14479E-01 70% 5 -5.47862E-01 0% -1.68252E-02 0% -1.21939E+00 10% 6 -7.44613E-01 0% -1.24205E+00 0% -1.70210E+00 0% 7 Source: Authors
Figure 2. Time variation for the three algorithms and the test function one. The data for the original FA is omitted because it is located around 100 seconds for all cases. Source: Authors
Figure 4. Time variation for the three algorithms and Rosenbrock's function. Source: Authors
Figure 3. Sample variation of Source: Authors
and
100
for Rosenbrock's function.
1
(7) Figure 5. Convergence rate variation for Rosenbrock's function, when dividing by the firefly index and using different swarm sizes. Source: Authors
Figure 3 shows a sample variation for and , where it can be seen that the latter restarts several more times than the former, thus allowing a broader combination of the parameters, and increasing the chance of finding a combination that properly optimizes the objective function. In this case, 0.05 and 0.2 were used. Once again, the tests are summarized in Table 4. In this case, a good convergence rate was achieved for up to five dimensions (restricted, however, to both modifications of the FA, since the original was only able to converge for up to four dimensions), even though for higher dimensions the results were not too far from the results. Besides, and keeping with the behavior of the previous examples, the first proposal is faster than the second one, as can be seen in Figure 4.
Since the convergence rate was not satisfactory, it was decided to see the effect of the swarm size, as well as how can the value of influence the solution. As a first approach, Figure 5 shows the behavior of the convergence rate when varying the population and using 0.05. It can be seen that a higher population can yield a higher value, even though in this case it did not increase too much. Thus, and considering that the first proposal is the one which has provided the best results, a deeper analysis was performed using this variant. Due to space restrictions, and considering that good data was achieved for lower dimensions, only results between four and seven dimensions will be shown. Figure 6 shows the results for different swarm
88
Amaya et al / DYNA 81 (187), pp. 85-90. October, 2014. Table 5. Parameters for the 2x2 system of equations Parameter Value Parameter 0.1 100 0.025875 Source: Authors
Table 6. Average precision and convergence rate for the 2x2 system of equations Original FA Without division With division Precision Avg F(Xi) CR Avg F(Xi) CR Avg F(Xi) CR 1.00E-10 -6.552E-11 100% -5.736E-11 100% -6.503E-11 100% 1.00E-15 -2.059E-11 0% -5.494E-16 100% -4.405E-16 100% Source: Authors
Figure 6. Effect of varying the swarm size for Rosenbrock's function in several dimensions. Source: Authors
sizes. It is important to remark that for these runs, 0.2 was used, and that in the case of four dimensions, tests were only run for up to 100 particles, since a convergence rate of 100% was always achieved. It can be seen that only when a swarm of 250 artificial fireflies is used, the algorithm is able to deliver a satisfactory answer (i.e. one which complies with the convergence criteria) in 25% of the cases. It is convenient to say that it was also necessary to allow for a generation of a higher , increasing the limit for up to 100. Since these tests are somewhat more delicate (i.e. they may or may not converge), it was decided to run the algorithm 20 times for each configuration (hence, the possibility of reporting variations of 5% in the convergence rate). From the previously reported data, it is evident that the convergence of the algorithm is heavily dependent on the initially defined swarm size, especially when dealing with planar regions (such as the one present at Rosenbrock's valley), so special care need to be taken into account when defining this parameter.
Figure 7. Convergence time for the 2x2 system at different precisions. Source: Authors
Table 6 summarizes the main results found for the system. It can be seen that for a desired precision of 10 , all three algorithms always converge. However, when asked for somewhat better results (i.e. a precision of 10 ), the methodology proposed by Jang is unable to converge, as opposed to both of our proposals, which achieve total convergence. It is important to remark that, once again, the algorithm that does not take into account the reduction of the relocation vicinity (i.e. the one called "Without division") is faster than the other proposal, even though the latter one has a more stable behavior, as can be appreciated in Figure 7.
3.4. Systems of nonlinear equations 3.4.1. 2x2 System The system that was used is comprised of two equations. After using the theorem of real roots described in [7], the objective function given in eq. (8) is obtained, where the parameters of the system are defined in, following the principles described in the aforementioned theorem, the solution of the system is at the same coordinates that those of the optimum of the objective function. ,
1
1
4. Conclusions
1
∙
After a careful review of the tests, it can be concluded that it could be good to develop an intermediate stage that optimizes the behavior of and . This needs to be focused on the way of increasing or decreasing them, since higher factors tend to favor exploration and lower ones tend to do so for exploitation. Thus, in order to avoid trapping in local minima, a proper sweep of the search domain should be carried out, e.g. by allowing the generation of an high enough to cover it. On the other hand, it was found that the algorithm's convergence is highly dependent on the swarm size, especially when planar regions are present (such as
1 1
(8)
∙
;
Value 10 10 1 10
1
89
Amaya et al / DYNA 81 (187), pp. 85-90. October, 2014.
Rosenbrock's valley), and even more when this phenomena is repeated in several dimensions (e.g. up to seven dimensions as in the current research). Finally, it was found that the proposed modifications are, in general, good for improving the convergence rate of the original FA. However, the fact of dividing by the index of the artificial firefly, increases the time required for achieving convergence, so unless a proper use for this variant can be found, it would be advisable to only implement the first two novel adjustments. Also, it is strongly recommended to keep using the theorem of real roots to be able to solve a system of equations through an optimization algorithm. Furthermore, it is advisable to perform a deeper analysis with more complex systems, i.e. ones with more unknowns, which can be easily found in nonlinear circuits operating in DC. References [1] Parsopoulos, K. E. and Vrahatis, M.N., Particle Swarm optimization and intelligence: Advances and applications. Information Science Reference, Hershey, 2010. [2] Rao, S.S., Engineering optimization: Theory and practice. John Wiley & Sons, Inc., New Jersey, 2009. [3] Pirkwieser, S. Hybrid metaheuristics and matheuristics for problems in bioinformatics and transportation, PhD. Dissertation Thesis, Vienna University of Technology, Vienna, Austria, 2012. [4] Yang, X., Firefly algorithm, Stochastic test functions and design optimisation, International Journal of Bio-Inspired Computation, 2 (2), pp.78-84, 2010. [5] Yang, X.S., Engineering optimization: An introduction. John Wiley & Sons, New Jersey, 2010. [6] Yang, X., Firefly algorithms for multimodal optimization, Stochastic algorithms: Foundations and applications, 5792, pp.169-178, 2010. [7] Amaya, I., Cruz, J. and Correa, R., Real Roots of nonlinear systems of equations through a metaheuristic algorithm, Revista DYNA, 78 (170), pp.15-23, 2011. [8] Amaya, I., Cruz, J. and Correa, R., solution of the mathematical model of a nonlinear direct current circuit using particle swarm optimization, Revista DYNA, 79 (172), pp.77-84, 2012. I. Amaya, received his Bs. degree on Mechatronics Engineering from Universidad Aut贸noma de Bucaramanga, Colombia. Currently, he belongs to the School of Electrical, Electronic and Telecommunication Engineering, and is pursuing his PhD. on Engineering at Universidad Industrial de Santander, Colombia. His research interests include global optimization and microwaves. ORCID: 0000-0002-8821-7137 J. Cruz, received his Bs. degree on Electronic Engineering from Universidad Industrial de Santander, Colombia. Currently, he is with the School of Electrical, Electronic and Telecommunication Engineering, and is pursuing his MSc. on Electronic Engineering at Universidad Industrial de Santander, Colombia. His research interests include global optimization and thermodynamics. ORCID: 0000-0003-4494-7864 R. Correa, received his Bs, degree on Chemical Engineering from Universidad Nacional de Colombia, sede Bogot谩, Colombia, and his MSc. degree on Chemical Engineering from Lehigh University, Pensilvania, USA and from Universidad Industrial de Santander, Colombia. He received his PhD. on Polymer Science and Engineering from Lehigh University, Pensilvania, USA and is currently a professor at Universidad Industrial de Santander. His research interests include microwave heating, global optimization, heat transfer and polymers.
90
Detection of explosive atmospheres using the software AtmosXp V2.0 Carlos Mauricio Álvarez-Álvarez a, Angélica María Zapata-Montoya b, Sandra Marcela Montoya-Cañola c, Oswaldo Ordoñez-Carmona d & German Darío Zapata-Madrigal e a
Facultad de Minas, Universidad Nacional de Colombia, Colombia. camalvarezal@unal.edu.co Facultad de Minas, Universidad Nacional de Colombia, Colombia. amzapatamo@unal.edu.co c Facultad de Minas, Universidad Nacional de Colombia, Colombia. smmontoyac@unal.edu.co d Facultad de Minas, Universidad Nacional de Colombia, Colombia. oswaldo.geologo@gmail.com e Facultad de Minas, Universidad Nacional de Colombia, Colombia. gdzapata@unal.edu.co b
Received: October 28th, 2013. Received in revised form: March 10th, 2014. Accepted: July 22th, 2014.
Abstract The conditions of explosive atmospheres and accumulation of gases within underground coal mines require a detailed analysis and the development of models and mechanisms that allow their detection. For this purpose we have developed the software AtmosXp V2.0 which includes the diagram of Coward for the analysis of these explosive mixtures. Keywords: Atmospheres, Underground Mining, Coward’s diagram, Coal, Explosive
Detección de atmosferas explosivas usando el software AtmosXp V2.0 Resumen Las condiciones de atmósferas explosivas y acumulación de gases dentro de las minas subterráneas de carbón requieren un análisis detallado y el desarrollo de modelos y mecanismos que permitan su detección. Para tal fin se ha desarrollado el software AtmosXp V2.0 que incluye el diagrama de Coward para el análisis de estas mezclas explosivas. Palabras clave: Atmósferas, Minería Subterránea, diagrama de Coward, Carbón, Explosividad.
1. Introduction Within the most important hazards to which persons dedicated to the work of underground mining of coal are exposed, it highlights the exposure to high concentrations of gases, oxygen deficiency, explosive atmospheres and landslides that occurred inside the mines. In spite of the efforts made by companies, government and individuals responsible for the safety and hygiene in mining, there are not practical mechanisms that can effectively minimize these dangers. Colombia has a record of 51 accidents submitted between 2005 and July 31 of 2011 which were caused by explosions and toxic and explosive gases accumulation such as methane (CH4) like the one that occurred on February 1, 2011 at the Escondida mine, located on the sidewalk Penalties of Boquerón, municipality of Sutatausa (Cundinamarca), where there was an explosion of methane accumulation and that left a balance of five deceased persons[1], also on 16 June 2010 in the San Joaquin mine, located in the municipality of fakes (Antioquia), where 73 miners were killed by an explosion
caused by the accumulation of methane gas [2]. The country also has a record of 61 accidents caused by oxygen’s deficiency (O2) within underground coal mines [3]. The active regulations in Colombia for the hygiene and safety in mining, set out in the decree 1335 of 1987 [4] the minimum conditions of concentrations to toxic gases and explosives, (Table 1), but many of underground coal mines do not count with devices or methods for determining these conditions. Table 1. Regulatory conditions for gases inside the mines Name of the Chemical Percentage pollutant gas Formula Volume ( %) Carbon Dioxide CO2 0.5 Carbon Monoxide CO 0.005 Acid Hydrogen 0.002 H 2S Sulphide Sulfur dioxide SO2 0.0005 Nitrous vapors NO+NO2 0.0005 Source: Taken from [4]
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 91-95. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40520
parts per million (ppm) 5000 50 20 5 5
Álvarez-Álvarez et al / DYNA 81 (187), pp. 91-95. October, 2014. Table2. Explosivity limits Gas
Explosivity Limits
Stoichiometric Values
Lower [%]
Upper [%]
Gas [%]
Methane
5.0
14.0
5.9
Carbon Monoxide
12.5
74.2
13.8
Hydrogen
4.0
74.2
4.3
Source: Taken from [5]
Within underground coal mines are conditions of temperature, concentrations of gases and use of machinery that facilitates the generation and production of fires and explosions. To minimize and prevent this tragic events inside the mines have been implemented mechanisms, which in a nutshell, minimize the factors of explosion, as the case of the use of inerting gases and efficient ventilation systems designs. In many cases, these mechanisms are not sufficient, since in practice the conditions, concentrations of gases and explosive mixtures are very changeable.
Figure 1. Explosivity diagram for each type of gas. Source: [5]
explosiveness of a mixture of gas [6]. The method involves those gases that can cause a deflagration or an explosion, as the toxic and flammable gases. The diagram of explosiveness only involves three combustible gases, which are the methane (CH4), hydrogen (H2) and carbon monoxide (CO) and two inert gases covered by the excess of nitrogen (N2) and carbon dioxide (CO2). In accordance with the proportions of all these, an atmosphere can be explosive or not [5, 6]. For each fuel gas, individually, it is possible to construct a triangle defined by three explosive points as shown in Fig.1. There are studies and modifications concerning the use of Coward’s Triangles like the ones presented in [8]. Such modifications consider the mixture interaction with some other gases in order to enhace the explosivity risk calculation of the mixture. This interaction requires a recalibration of the Coward’s method presented in this work, wich is why it would be complex to integrate the algorithm with some other platforms. To determine the condition and state of the mixture of gases, and be able to determine the explosiveness or not of the same, it is necessary to carry out the following calculations:
2. Explosive mixtures The interior of the coal mines generates large quantities of gases with different chemical properties and behaviors, so it is necessary to make a classification of them as asphyxiating gases, toxic gases and flammable gases. For the generation of explosions and fires, the toxic and flammable gases There have the utmost importance. Flammable gases: Methane and Hydrogen. Toxic gases: Carbon monoxide and hydrogen sulphide. The combination of these gases at the underground environment of the coal mines can generate explosive atmospheres, rather than relying on the percentages of participation and concentration of each gas, they can be explosive when mixed with air or non-explosive [5]. The conditions and explosive concentration’s limits for the gases that can be found in the environment of the coal mines are shown in Table 2 Within the requirements of the Colombian legislation in force, in particular the Decree 1335 of 1987, the conditions for concentrations of toxic gases and explosives are dealt with separately and individually. But in practice due to the behavior and gassing-dynamic, mixtures are impossible to avoid and control, so the strategy is to design and implement a model or mechanism that allows the detection of these explosive mixtures to the interior of the coal mines.
3.1. Determine the percentage of total fuel gases If the CH4, CO and H2 have a concentration (in percentage) of P1, P2 and P3, respectively, and they do not react chemically between each other. The total concentration of combustible gases (PT) is calculated as the sum of the concentration of each: ଷ
3. Coward’s triangle
்
(1)
ୀଵ
Within the methods that exists for the detection and characterization of explosive atmospheres the method of the diagrams or triangles of Coward stands out as one effective and simply way of illustrate the gases mixture behaviour. It was published by Coward and Jones in 1952 and is considered as a fast and easy way to determine the
3.2. Calculate the limit of explosiveness to the mixture of gases By means of the Chatelier’s principle, the boundary of explosiveness of the mixture of combustible gases CH4, CO
92
Álvarez-Álvarez et al / DYNA 81 (187), pp. 91-95. October, 2014. Table3. Volume of nitrogen that should be added to decrease the explosiveness of the gas.
ଶ
Methane (CH4) Carbon Monoxide (CO) Hydrogen (H2) Source: [6,7]
6.04 4.13 16.59
and H2 is obtained using the equation 2. Where L1, L2, L3 correspond to the limits of stoichiometric value determined in Table 2 for each of the gases, methane, carbon monoxide and hydrogen. ଷ ் ெ௫
ୀଵ
(2)
The same equation 2 is used to determine the value of the upper and lower limits, only by changing for the upper or lower limit for each particular gas given in Table 3, the values of L1, L2, L3. ଷ ் ௌ௨
ୀଵ
(3)
ଷ ் ூ
ୀଵ
ଷ ்
ା
(7)
Knowing the great need to perform an analysis of the conditions and state of the atmospheres within underground coal mines, in this work, it has been designed the software AtmosXp V2.0 as a rapid and comprehensive solution that involves the method of Coward as a basis for its operation. The design of the software AtmosXp V2.0 is done in compliance with the requirements of speed and efficiency which are required to have a system for real-time monitoring, and that can be integrated to obtain faster decision-making and control actions determination, when an alarm or status of an explosive atmosphere. AtmosXp V2.0 was designed with Visual Studio and Microsoft Expression Blend 3, allowing them to develop a user-friendly interface and easy to understand for the user. In the Fig.3 shows a view of the main panel of AtmosXp V2.0. The presented software , accounts with several details that improve their performance in comparison with other software, this is the case of the use of a detailed scale for the oxygen concentrations and highlights the value of 19% oxygen concentration that must be met by legislation [4]. It is important in practice, to know all the values mentioned above as are the IAT, the maximum oxygen from which the mixture becomes explosive, and the nitrogen needed to decrease its explosion by enabling you to take decisions and actions of control to prevent tragedies.
This value lets you know the amount of nitrogen that should be added to the mixture of gases for which these become not explosive. It is also used to determine the minimum content of oxygen from which a mixture begins to be explosive and that is calculated using equation 6.
௫
(6)
4. Design and implementation of AtmosXp V2.0
3.3. Determine the concentration of nitrogen required by mixing to decrease its explosiveness
ெ௫
(4)
௫
The Coward’s diagram is useful in the follow-up to the gas mixtures, although this requires plotting the analysis of each of the samples, because every time the corresponding triangle changes shape and position, the same as the point that represents the mixture [5] The location of the point of mixing within the Coward’s diagram is done by mapping the position with the coordinates obtained using the values of total concentration of combustible gases and the total concentration of oxygen in the mixture. Due to the method of Coward only indicates whether a given mixture of gases is explosive or not, it is necessary to implement an early-warning Index (IAT), to monitor the movement of the point of mixing and provide an early warning in case of possible explosiveness. Fig.2 shows a point for mixing implicated P, this point will move through the line AB dilution as fresh air is mixed in the atmosphere underground, on the other hand, if what is mixture is more content of combustible gases the point P will move through the line OE, for both cases, zooms in or out of the area of explosiveness; With this basis the IAT will be determined by the ratio of distances between the yaxis to the point of mixing (PB), measured in the AB line and the distance of the X-axis until the lower explosive limit (LIE).
Inert Ratio (m3 of nitrogen/m3 of fuel gas)
Fuel Gas
௫
(5)
ୀଵ
Where Lmix is the percentage of fuel mix (calculated from the equation 2), PT is the total concentration of fuel ( %) and N+ is the volume of excess nitrogen must be added to argon the explosive gases (also called the Radio Inert). The values of nitrogen required for stabilizing the gases presented above can be seen in Table 3. 3.4. Determine the minimum oxygen content from which the mixture becomes explosive The minimum content of oxygen (in percentage) is regularly the amount of oxygen content in the atmosphere, which, in surface depends on the height. In an underground mine this value depends on the ventilation [5, 7] and it is estimated as follows: 93
Ă lvarez-Ă lvarez et al / DYNA 81 (187), pp. 91-95. October, 2014.
Figure 4. Calculation of explosiveness with AtmosXp V2.0. Source: The authors Figure 2a. Location of the points on the triangle of Coward. Source: [6]
5. Case study with AtmosXp V2.0 5.1. Atmosphere Explosive when mixed with air Knowing the values of concentrations of gases, you get a mixture of gases with a content of 8% of CH4, 3% of H2, 5% CO, 6% O2, item is to enter them into the appropriate box for each one in the AtmosXP V2.0 software and select the option Calculate Explosiveness, are shown in Fig.4 in AtmosXP V2.0 data obtained. The point of mixing is determined by the pointer which has the shape of two circles of color black and that contains two lines in the form of red cross. In more detail we can then observe the minimum level of oxygen content from which the mixture becomes explosive 4.93 %, the IAT is 0.55 and the value for the concentration of nitrogen required to decrease the explosiveness is 69.84 %. Within the analysis of explosive atmospheres when mixed with air the value of the IAT throws an important value that helps to determine the proximity and possibility that the atmosphere becomes highly explosive. The red area represents the triangle formed by the limits of mixture, upper limit and lower limit which is calculated using equation 2 and which, in the case of the lower limit and upper limit is determined by placing on the shaft of Fuel Gas [%] the value obtained with equation 2 and intercepting with the dotted line as shown in Fig.2.
Figure 2b. Explosivity Diagram to determine the IAT. Source: [6]
5.2. Highly explosive atmosphere Due to the use that is expected to be the software AtmosXp V2.0 it account with warning signs and pop-up windows when conditions can arise from a highly explosive atmosphere, the values of concentrations that could generate this condition are [8] 5.68 % of CH4, 0.3% of H2, 3.25% of CO, 13.9% O2, as shown in Fig.5. When you have the condition of a highly explosive atmosphere, AtmosXp V2.0 issues an alert and delivery the values of nitrogen needed to decrease the explosiveness and the minimum oxygen. For this case the value of minimum oxygen allowed in order to make the mixture explosive has a value of -10.67% as can be seen in Fig.5, in the section of Maximum Oxygen, indicating that it is required to remove oxygen from the atmosphere or add nitrogen.
Figure 3. AtmosXp Interface V2.0. Source: The authors
For the efficient use of the software must have data for the concentrations of the gases involved in the method of Coward. To make a brief introduction fees an illustrative example to show the operation of the software and the manner of operation of the same. 94
Álvarez-Álvarez et al / DYNA 81 (187), pp. 91-95. October, 2014.
References [1]
[2]
[3] [4] Figure 5. Highly explosive atmosphere. Source: The authors
[5]
6. Conclusions
[6]
The preventive measures taken in accordance with the current Colombian legislation does not include the analysis of mixtures and conditions of explosive atmospheres. It is important to have detection systems within the coal mines because they facilitate the decision-making and helps to prevent tragedies. With the help of AtmosXp V2.0 you can get immediate results of the explosiveness of the underground mining environment. AtmosXp V2.0 can be coupled to data acquisition systems in real time to ensure the safety and conditions within the coal mines. The development and application of methods, such as the diagram of Coward via computer tools allows the advancement of technologies in the field of underground mining of coal. AtmosXp software V2.0 is a quick and easy mechanism to determine the potential for formation of explosive atmospheres by gas, and allows its use in devices with Windows platform. The software does not have large requirements of memory or hard disk space on the device to be installed. The answer of the alarms is fast, which allows you to perform actions and make decisions early in order to prevent accidents. The good software design AtmosXp V2.0 allows you to observe the methods in detail and without errors in formation of the graphics triangles and the method of Coward.
[7] [8]
Instituto Colombiano de Geología y Minería. Comunicado de prensa 003 de 2011. Servicio Geológico Colombiano [Online]. 2011. [date of 2014]. Available at: of reference May 17th https://www.sgc.gov.co/Noticias/Comunicados/Comunicado-003-de2011---Emergencia-minera-en-Suta.aspx. Instituto Colombiano de Geología y Minería. Comunicado de prensa 038 de 2011. Servicio Geológico Colombiano [Online]. 2011. [date of reference May 17th of 2014]. Available at: http://www.sgc.gov.co/Noticias/Comunicados/Comunicado-deprensa-038-de-2011.aspx. Ministerio de Minas y Energía. Política Nacional de Seguridad Minera, Bogotá D.C., Colombia, Dirección de Minas, 2011, 54P. Ministerio de Minas y Energía, Decreto 1335 de Julio 15 de 1987 Mediante el cual se expide el reglamento de seguridad en las labores subterráneas, Bogotá D.C., Colombia, 1987, 49p. Castro-Marín, P. y Martínez ,G., Explosividad de gases desprendidos en los incendios subterráneos en minas de carbón. DYNA 67 (129), pp. 51-58, 2000. Cheng, J. and Yang, S., Improved coward explosive triangle for determining explosibility of mixture gas, Process Safety and Environmental Protection, 89 (2), pp. 89-94, 2010. McPherson, M.J. and Hinsley, F.B.n Subsurface Ventilation and Environmental Engineering. Chapman & Hall, cop, 1993. Cheng, J. and Luo, Y., Modified explosive diagram for determining gas-mixture explosivity, Journal of Loss Prevention in the Process Industries, 26 (4), pp 714-722, 2013.
C.M. Alvarez-Alvarez, He finished his school in Pedro Justo Berrio school, Colombia, and Bs. in Control Engineer in 2014, from the Universidad Nacional de Colombia, sede Medellín, Colombia. He is working on the company Zitron. A.M. Zapata-Montoya, received the Bs. Eng in Geological Engineering in 2013 from the Universidad Nacional de Colombia, sede Medellín, Colombia. While she was a student, she worked at the laboratories of Physical Geology and Mineralogy of reflected light optics. She also participated as a research student in the GTI-Monitoring Explosive Atmospheres project in the Mining District of Northern Boyacá-Colombia. At the moment, she works as a geological engineer for the private sector. S.M. Montoya-Cañola, received the Bs. Eng in Geological Engineering in 2014, from the Universidad Nacional de Colombia, sede Medellín, Colombia. She is currently working as a researcher at the Universidad Nacional de Colombia in agreement with the Geological Service of Colombia (SGC) in a geomorphological mapping project applied to the zoning of landslide threat. O. Ordóñez-Carmona, received the Bs. in Geology in 1993 from the Universidad Nacional de Colombia, sede Medellín, Colombia, the MSc. degree in Geosciences in 1997, and the PhD degree in Geosciences in 2001, both from the Brasilia University, Brazil. From 1999 until now, he is a Full time Professor in the School of Mines of the Universidad Nacional de Colombia. His research interests include: regional geology, geochronology, exploration, minning and economic geology. G.D. Zapata-Madrigal, received the Bs in Electrical Engineering in 1991, from the Universidad Nacional de Colombia, sede Medellín, Colombia, the Sp. degree in Management with emphasis in Quality in 1999, from the Universidad de Antioquia, Colombia; the MSc. in Automatic in 2003, from the Universidad del Valle, Colombia, and a PhD. in Applied Sciences in 2012, from the Universidad de los Andes, Mérida , Venezuela. Since 1992 work as a Professor Associated in the School of Mines in the Universidad Nacional de Colombia in Medellín, currently is a Director of the Research group of Teleinformatica and Teleutomatica, Director of Cisco Academy Training Center and. His research has revolve around the lines of integrated Intelligent Autonomation, Industrial Communications, Modeling and simulation of systems and teleinformatics.
Agradecimientos Los autores Expresan el agradecimiento a la Universidad Nacional de Colombia – Sede Medellín y su Sistema de Información de la Investigación HERMES, al Grupo de Estudio en Georrecursos, Minería y Medio AmbienteGEMMA, al Grupo de Investigación en Teleinformática y Teleautomática T&T, al Grupo de Automática GAUNAL. Este trabajo también se hace con el apoyo de COLCIENCIAS, en el marco del proyecto “Sistema Inteligente y Automatizado para el Monitoreo de Atmósferas Explosivas en Minería Subterránea de Carbón” 95
Kinetic of biogas production from oil palm empty fruit bunches Danay Carillo-Nieves a, Lourdes Zumalacárregui-de Cárdenas a, Rafael Franco-Rico a & Ilona Sarvari-Horvath b a
Facultad de Ingeniería Químicas, Instituto Superior Politécnico José Antonio Echeverría, Cuba. dcarrillo@quimica.cujae.edu.cu, Facultad de Ingeniería Químicas, Instituto Superior Politécnico José Antonio Echeverría, Cuba. lourdes@quimica.cujae.edu.cu b School of Engineering, University of Boras, Sweden. ilona.harvath@hb.se
a
Received: October 30th, de 2013. Received in revised form: March 7th, 2014. Accepted: March 25th, 2014
Abstract The production process of oil from Elaeis guineensis palm produces an organic residual. Oil palm empty fruit bunches (OPEFB) are one of the main waste products, representing 7%. Up to now, OPEFB aren't totally used, being an environmental problem. In this paper, the employment of OPEFB pretreated with NaOH is studied as a raw material for biogas production. The pretreatment time (PT) of the OPEFB influences directly on biogas production achieving conversions of volatile solids to biogas of 96% for PT=60 min and 29 days of reaction. Biogas production is adjusted to a first order kinetic law, with kinetic constants for the generation of CH4 (0,108 d-1) and CO2 (0,107 d-1) at the reactor operating temperature (55°C). Finally, a general model is obtained to estimate volatile solids conversion to biogas as a function of pretreatment time and of the residence time inside the reactor. Keywords: Oil palm empty fruit bunches, Biogas, Methane production, Process kinetic.
Determinación de la cinética de producción de biogás a partir de racimos sin frutos de palma aceitera Resumen La producción de aceite de la palma Elaeis guineensis aporta residuales orgánicos como los racimos sin frutos (RSF) que representan un 7%. Actualmente los RSF no se aprovechan en su totalidad constituyendo un problema medioambiental. Se estudia el empleo de RSF pretratados con NaOH para la producción de biogás. El tiempo de pretratamiento (TP) de los RSF influye directamente sobre la cantidad de biogás producida logrando conversiones de sólidos volátiles a biogás de 96%, para TP = 60 min y 29 días de reacción. La producción de biogás se ajusta a una ley cinética de orden 1 obteniéndose las constantes cinéticas de la generación de CH4 (0,108 d-1) y CO2 (0,107 d1 ) a la temperatura de operación del reactor (55°C). Se presenta un modelo generalizador que permite estimar la conversión de sólidos volátiles a biogás en función del tiempo de pretratamiento y del tiempo de permanencia en el reactor. Palabras clave: Racimos sin frutos, Biogás, Producción de metano, Cinética de procesos.
1. Introducción La producción mundial de aceite de la palma Elaeis guineensis es de aproximadamente 37x106 t/año y se considera la mayor industria agrícola en Tailandia, India, Indonesia, Filipinas, China y Malasia [1]. Para producir el aceite se utilizan en promedio 146x106 t/año de racimos de frutos frescos, siendo el 7% de los mismos residuales sólidos del proceso, denominados racimos sin frutos (RSF) [2, 3]. Hasta el momento los RSF han sido empleados en procesos de compostaje [2], para suministrar nutrientes orgánicos y conservar la humedad en los árboles de palma aceitera y huertos frutales [4], [5], como sustrato para el cultivo del hongo Vovariella vohacea [3] y como combustible [1, 6, 7] entre otros
usos. A pesar de las variadas aplicaciones de los RSF aún son insuficientes para los altos volúmenes generados, siendo estos una fuente de contaminación ambiental. Los RSF, por su contenido de materiales lignocelulósicos, pueden ser una materia prima importante para la producción de biogás. El alto contenido de lignina y de celulosa presentes en los RSF hacen que su biodegradabilidad sea baja siendo necesaria la realización de pretratamientos que permitan la destrucción de la estructura compacta del material así como la hidrólisis de los polisacáridos presentes (fundamentalmente la celulosa) [8]. Existen varios métodos para el pretratamiento de materiales lignocelulósicos [9-23] que van desde mecánicos hasta biológicos. Para el caso de RSF se han probado con
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 96-101. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40570
Carillo-Nieves et al / DYNA 81 (187), pp. 96-101. October, 2014.
incubaron a 55ºC durante 30 días. Se tomaron muestras de gas regularmente y se analizaron los contenidos de metano y dióxido de carbono usando un cromatógrafo de gases Shimadzu GC 14 A, equipado con una columna empacada (Perkin Elmer, 6×1,8 diámetro exterior, 80/100 mesh, EEUU) y un detector térmico FID (0, 5–100% ± 5% rel.) El gas transportador usado fue nitrógeno a 23 mL/min y 60ºC. Se usó una jeringuilla hermética (VICI, Precision Sampling Inc., EEUU) con lo que las muestras de gas se tomaban a la presión real. El volumen de muestra fue 250 μL y la temperatura del inyector 150ºC. Se usó metano como gas patrón.
éxito los pretratamientos: ácido, con H3PO4 y acetona como solvente y básico, con NaOH [24]; este último es el que mejores resultados reporta en términos de producción de CH4 y conversión de la biomasa [20]. En el presente trabajo se estudió la cinética de producción de biogás a partir de RSF pretratados con NaOH por ser esta información básica para el futuro diseño de un reactor heterogéneo a escala industrial. Paralelamente, se analizó la influencia del tiempo de pretratamiento en los mecanismos de producción de biogás y se presentan modelos matemáticos para estimar los volúmenes de biogás que se producen.
2.4. Determinación de la ley cinética
2. Desarrollo experimental
En un sistema de volumen constante la expresión cinética para el consumo del reaccionante A puede expresarse como:
2.1. Materia prima Los racimos sin frutos se obtuvieron de un molino de aceite de palma en Sumatra (Indonesia) y se secaron a 44°C durante 48 horas. La alimentación se trituró para que pasara una malla de 40 mesh, resultando un tamaño de partícula menor de 0,420 mm. El material se almacenó a temperatura ambiente en envases plásticos sellados, hasta su uso.
rA
dC A kC n A dt
(1)
Donde: – rA: Velocidad de reacción del proceso CA: Concentración del reactivo A k: Constante cinética n: Orden de la reacción t: Tiempo Para obtener la ecuación cinética del proceso se debe suponer primeramente su orden (n), debido a que para cada uno de ellos existe una expresión integrada diferente. Para procesos biológicos es usual que se obtenga una cinética de pseudo primer orden (n=1) [26]. Para el caso de un sistema de orden 1 en el que no varíe su volumen, puede plantearse la ley cinética en función de la cantidad de sustancia (ni):
2.2. Procedimiento de pretratamiento con hidróxido de sodio Se siguió el procedimiento desarrollado por Carrillo y colaboradores [20]. Según este, 5 g de RSF y 95 g de solución de NaOH (8% p/v) se mezclaron durante 10 min a temperatura ambiente. La mezcla se mantuvo a 100ºC por períodos de tiempo de 10, 20, 40, o 60 min y se agitó cada 10 min durante este tratamiento térmico. La mezcla se centrifugó a 10 000 rpm y temperatura ambiente por 6 min en una centrífuga Thermo Electron Corporation Jouan B4, velocidad máxima 14 000 rpm, diámetro de cámara: 355 mm y carga máxima 2 kg. El sólido se lavó con agua destilada hasta alcanzar pH 7 y se filtró al vacío. Una vez neutralizado el sólido, se mantuvo a 4ºC hasta su utilización.
dn A dt
kn A
(2)
En casos en los que se hace difícil monitorear la concentración de los reaccionantes se puede ajustar la ecuación cinética en función de la concentración de los productos. Para el caso de una reacción de orden 1 la cantidad de sustancia del reaccionante A en el tiempo (nA(t)) sería:
2.3. Producción de biogás Se realizaron digestiones anaeróbicas discontinuas de las muestras tratadas y sin tratar en condiciones termofílicas (55°C), de acuerdo al método descrito por Hansen y colaboradores [25] y utilizado por Carrillo y colaboradores [20]. El inóculo se obtuvo de una planta productora de biogás en Borås, Suecia, operando en condiciones termofílicas. Los digestores discontinuos fueron botellas de vidrio de 118 mL de capacidad, cerradas con sellos de goma y casquillos de aluminio. Cada frasco contenía 20 mL de inóculo a los que se añadían sustratos para mantener los sólidos volátiles (SV) en una relación 2:1 entre el inóculo y el sustrato añadido y posteriormente agua desionizada hasta un volumen final de 25 mL. Se preparó un blanco con 5 mL de agua desionizada y 20 mL de inóculo para determinar la producción de gas por el propio inóculo. Cada muestra se evaluó por triplicado. Las condiciones anaeróbicas se mantuvieron por inyección en el espacio superior de las botellas de una mezcla de 80% de nitrógeno y 20% de dióxido de carbono. Los recipientes se
n
A(t)
n A0 e kt
(3)
Siendo nA0 la cantidad de sustancia inicial del reaccionante A. Mientras, la de un producto B de esa misma reacción puede escribirse como: n
B(t)
n
Bf
1 e kt
(4)
Donde nBf es la cantidad de sustancia máxima de B producida en caso de reacción completa del reaccionante A. 97
Carillo-Nieves et al / DYNA 81 (187), pp. 96-101. October, 2014.
60
0
9,00 (0,28)
14,32 (0,22)
14,23 (0,24)
15,43 (0,23)
21000 19000 29 d 12,74 (0,13) 15,19 (0,23) 14,47 (0,18)
15000 13000 TP = 10 min TP = 20 min TP = 40 min TP = 60 min
11000 9000 7000
17,75 (0,25)
5000 5
Entre paréntesis se presenta la desviación estándar de los ensayos Fuente: Los autores
Tabla 2. Cantidad promedio de CO2 producida para diferentes TP TP n (CO2) (mol) (min) 0d 7d 11 d 16 d 22 d 4,74 6,93 6,95 8,72 10 0 (0,22) (0,20) (0,27) (0,19) 6,12 6,72 7,81 9,44 20 0 (0,17) (0,25) (0,20) (0,24) 6,65 8,46 9,02 10,83 40 0 (0,21) (0,22) (0,18) (0,27) 10,66 11,88 13,90 15,06 60 0 (0,30) (023) (0,21) (0,27) Entre paréntesis se presenta la desviación estándar de los ensayos Fuente: Los autores
17000
E (kJ/kg SV)
Tabla 1. Cantidad promedio de CH4 producida para diferentes TP TP n (CH4) (mol) (min) 0d 7d 11 d 16 d 22 d 7,25 7,58 9,51 10,2 10 0 (0,16) (0,26) (0,14) (0,25) 7,62 11,07 11,52 13,09 20 0 (0,23) (0,15) (0,18) (0,19) 8,34 11,13 11,71 12,85 40 0 (0,35) (0,34) (0,29) (0,21)
10
15
20
25 t (d) 30
Figure 1 Energía total disponible en la producción de biogás a diferentes valores de TP Fuente: Los autores
Tabla 3. Ajuste estadístico a la ley cinética de orden 1 CH4 TP R2 k nBf (min) (%) -1 (d ) (mol) 10 0,093 12,712 95,75 20 0,098 15,455 98,26 40 0,124 14,267 98,89 60 0,115 17,714 97,08 Fuente: Los autores
29 d 9,82 (0,23) 9,90 (0,16) 12,07 (0,25) 16,58 (0,20)
CO2 k (d-1) 0,086 0,101 0,110 0,132
nBf (mol) 10,382 10,121 12,282 16,286
R2 (%) 97,79 98,03 98,45 98,76
y en cantidades medibles, se procedió al ajuste del modelo cinético mediante el uso de la ecuación 4. Los resultados experimentales fueron ajustados mediante el empleo de STATGRAPHICS Centurion XV. Para todos los casos los resultados se adecuan a leyes cinéticas de orden 1; los parámetros cinéticos y estadísticos se muestran en la Tabla 3. Al comparar los valores obtenidos de k para el CH4 en un diagrama de cajas y bigotes a partir de los intervalos de confianza para un 95% de probabilidades se tiene que no existen diferencias significativas entre ellos (Fig. 2). Una interpretación física que puede darse a este resultado es que la ruta metabólica seguida por los microorganismos metanogénicos es la misma, es independiente de TP, y las diferencias observadas en las cantidades emitidas son debidas al nivel de destrucción de las estructuras del material lignocelulósico logrado en el pretratamiento, unido al aumento de la concentración de sustancias fácilmente asimilables por los microorganismos. Un resultado similar se obtiene al analizar las constantes cinéticas para la generación de CO2. Por lo anterior, se pueden reportar las constantes cinéticas como el promedio de las presentadas en la Tabla 3 para cada sustancia.
3. Resultados y discusión Las Tablas 1 y 2 muestran los resultados de las producciones de CH4 y CO2 respectivamente obtenidas en los reactores para diferentes tiempos de pretratamiento (TP) de la materia prima. Las cantidades de sustancia de cada uno de los productos están referidas a 1 kg de sólidos volátiles (SV) en la alimentación. Un análisis estadístico de comparación de muestras pareadas empleando STATGRAPHICS Centurion XV muestra que la variable TP tiene una influencia significativa sobre la producción de CH4 y CO2. Se observa además que no existen diferencias estadísticamente significativas entre las producciones de CH4 para TP = 20 y 40 min al igual que para las de CO2 con TP = 10 y 20 min. Este comportamiento puede estar dado por el balance de productos hidrolizados obtenidos y que pueden repercutir en los procesos que ocurren posteriormente en el reactor. Esto influye finalmente en la composición del biogás y en la energía que este puede brindar (Fig. 1) en detrimento de la calidad del biogás producido a TP = 40 min. Para la producción total de biogás existen diferencias estadísticamente significativas para todos los valores de TP, aumentado la producción a medida que aumenta el tiempo de pretratamiento. Como los RSF pretratados son una mezcla de diferentes sustancias que pueden servir como sustrato a los microorganismos para la producción de biogás, el estudio de las rutas metabólicas de cada una de ellas hasta la conversión final en CH4 o CO2 se dificulta. Por esta razón, y teniendo en cuenta que los productos del proceso son pocos
k CH k
CO
4 2
0,108 d 1 0,107 d 1
Al comparar las cantidades máximas a obtener para cada producto (nBf) se confirma que existen diferencias estadísticamente significativas entre los tiempos de pretratamiento para cada uno de los productos (Fig. 3), 98
Carillo-Nieves et al / DYNA 81 (187), pp. 96-101. October, 2014. 1,00 ,900 ,800 ,700 ,600 ,500 ,400 ,300 ,200 ,100 ,00
Υ kg de biogás/kg SV
k (d-1)
0,17 0,12 0,07 0,02 10
20
40
60
TP min
0,17
TP = 20 min TP = 40 min TP = 60 min 0
10
20
30
t (d)
Figura 4. Comportamiento de la conversión de SV a biogás en función de t y TP Fuente: Los autores
k (d-1)
0,12
Tabla 4. Dependencia de γmax con TP TP(min) 10 20 40 60 Fuente: Los autores
0,07
0,02 10
20
40
60
TP min
Figura 2. Intervalos de confianza (95% de probabilidad) para las constantes cinéticas k (d-1) Superior: CH4 Inferior: CO2 Fuente: Los autores
γM
20 18 nBf (mol)
TP = 10 min
14 12 10 20
40
60
k
t CH4 M
1 e n CO Bf CO 2 2
k
t CO2
(5)
Siendo M la masa molar y γ la conversión fraccionada En la Fig. 4 se observa el comportamiento de la conversión de SV a biogás en función del tiempo de reacción y del tiempo de pretratamiento. La conversión aumenta considerablemente hasta valores de 96% para las muestras con TP = 60 min después de 29 días de reacción. Para un tiempo infinito la conversión se hace máxima y la ecuación 5 puede modificarse como:
16
10
1 e n CH Bf CH 4 4
γmax(kg biogás/kg SV) 0,662 0,693 0,768 1,000
TP min
18
γ max M
nBf (mol)
16 14
10 8 20
40
60
4
n
Bf CH
4
M
CO
2
n
Bf CO
2
(6)
La conversión máxima es un índice de la presencia de sustancias degradables a biogás en la alimentación así como del nivel de destrucción sobre la estructura lignocelulósica que logra el pretratamiento y la acción bacteriana posterior en el reactor; también representa el límite físico para la reacción. Con el aumento del tiempo de pretratamiento se logra elevar la conversión desde 66,2% para TP = 10 min hasta 100% para TP = 60 min (Tabla 4). El grado de extensión de la reacción (GER) puede calcularse como:
12
10
CH
TP min
Figura 3. Intervalos de confianza (95% de probabilidad) para los valores obtenidos de nBf (mol) Superior: CH4 Inferior: CO2 Fuente: Los autores
corroborándose el comportamiento observado al comparar las cantidades generadas. A partir de conocer los parámetros cinéticos se puede estimar, mediante la ecuación 5, la conversión fraccionada (γ) en términos de kg de biogás producido / kg de SV ya que la base de cálculo para las cantidades de sustancia de CH4 y CO2 es 1 kg de SV alimentado al reactor.
GER
γ γ max
(7)
La Fig. 5 muestra la dependencia de GER respecto a t para diferentes valores de TP. Se observa que no existe
99
Carillo-Nieves et al / DYNA 81 (187), pp. 96-101. October, 2014.
1,0 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0,0
GER
TP = 10 min TP = 20 min
t (d) 0 5 10 15 20 25 30 Figura 5. Comportamiento del grado de avance de la reacción en función de TP Fuente: Los autores
influencia de TP y todas las curvas se superponen. Este fenómeno es debido a la similitud que muestran las constantes cinéticas obtenidas para el CH4 y el CO2. En base a esto se puede emplear GER como un modelo generalizador para estimar la conversión fraccionada a biogás en un reactor en función del tiempo de residencia y del tiempo de pretratamiento a que fueron sometidos los RSF. De acuerdo a la forma de la curva, GER puede describirse por un modelo de asociación exponencial. Para encontrar el modelo que representa a γmax se seleccionó el modelo Bleasdale de la base de modelos matemáticos del programa para ajuste de curvas Curve Expert 1.3. Este modelo de regresión no lineal se recomienda cuando la variable dependiente tiende a un valor asintótico a medida que la variable independiente aumenta. Ambos modelos, el de asociación exponencial (primer término de la ecuación 8) y el de Bleasdale (segundo término de la ecuación 8) se sustituyeron en la ecuación 7 obteniendo:
γ (1 e at ) b cTP
d
Figura 6. Superficie de respuesta para el modelo generalizador Fuente: Realizado con Statgraphic Centurión XV
4. Conclusiones La generación de biogás a partir de RSF de la palma Elaeis guineensis responde a una ley cinética de orden 1. El pretratamiento de la materia prima con NaOH permite aumentar la cantidad de sustrato degradable por la flora microbiana presente en el inóculo aumentando la producción de biogás, pero no interfiere en la cinética del proceso. Para un tiempo de pretratamiento de 60 min pueden lograrse conversiones de sólidos volátiles (SV) a biogás de 0,96 kg de biogás/kg de SV. Para este proceso el rendimiento de conversión de SV en biogás pueden estimarse con estrecho margen de error haciendo uso de la ecuación 9, válida para TP = 10 - 60 min y t = 0 – 29 d. 4. Referencias [1]
(8)
Los coeficientes a, b, c y d son las constantes empíricas a determinar por el ajuste de los datos experimentales al modelo matemático. Empleando STATGRAPHIC Centurion XV se obtuvieron los valores de los parámetros de la ecuación 8. El modelo ajustado (ecuación 9) muestra un elevado grado de correlación (R2 = 99,6%), todos sus parámetros son estadísticamente significativos y su empleo genera errores inferiores al 2%. En la Fig. 6 se muestra la superficie de respuesta del modelo.
[2] [3] [4] [5] [6]
0,273 γ (1 e 0,1141t) 6,600 0,0954TP (9)
[7]
De la ecuación 9 se deduce que el término asociado a t describe la cinética global del proceso que responde a un orden 1. El término asociado a TP se relaciona con el nivel de destrucción que experimenta la estructura lignocelulósica durante la aplicación del pretratamiento.
[8]
100
Bazmi, A., Zahedi, G. and Hashim, H., Progress and challenges in utilization of palm oil biomass as fuel for decentralized electricity generation, Renewable and Sustainable Energy Reviews, 15 (1), pp 574-583, 2011. Tanaka, R., Mori, Y. and Akihiko, Y., Utilization of oil palm empty fruit bunches as solid materials, Biomass Asia 3rd Workshop, Tokyo and Tsukuba, 2006. Prasertsan, S. and Prasertsan, P., Biomass residues from palm oil mills in Thailand: An overview on quantity and potential usage, Biomass and Bioenergy, 1 (5), pp. 387-395, 1996. Jaafar, M. and Sukaimi, J., The future of palm oil in the new millennium in Malaysia, Journal. Burotrop Bulletin 16 (1), pp. 1021, 2001. Poh, P. and Chong, M., Development of anaerobic digestion methods for palm oil mill effluent (POME) treatment, Bioresource Technology, 100 (1), pp. 1-9, 2009. Abdullah, N., Gerhauser, H. and Bridgwater, V., Bio-oil from fast pyrolysis of oil palm empty fruit bunches, Journal of Physical Science, 1 (1), pp. 57-74, 2007. Zahangir, M., Suleyman, A., Mariatul, F. and Radziah, W., Activated carbons derived from oil palm empty-fruit bunches: Application to environmental problems, Journal of Environmental Sciences, 19 (1), pp. 103-108, 2007. Taherzadeh, M. and Karimi, K., Enzyme-based hydrolysis processes for ethanol from lignocellulosic material, Bioresources, 2 (4), pp. 707-738, 2007.
Carillo-Nieves et al / DYNA 81 (187), pp. 96-101. October, 2014. [9] [10]
[11]
[12] [13]
[14] [15] [16] [17]
[18]
[19]
[20] [21]
[22] [23]
[24]
[25]
[26]
Mosier, N., Wyman, Ch. and Dale, B., Features of promising technologies for pretreatment of lignocellulosic biomass, Bioresource Technology, 96 (7), pp. 673-686, 2005. Martín, C., González, Y., Fernández T. and Thomsen, A., Investigation of cellulose convertibility and ethanolic fermentation of sugarcane bagasse pretreated by wet oxidation and steam explosion, Journal of Chemical Technology and Biotechnology, 81 (10), pp. 1669-1677, 2006. Martín, C., Galbe, M., Nilvebrant, N.O. and Jönsson, L.J., Comparison of the fermentability of enzymatic hydrolysates of sugarcane bagasse pretreated by steam explosion using different impregnating agents, Appl. Biochem. Biotechn., 98 (100), pp. 699716, 2002. Szengyel, Z., Ethanol from wood. Cellulase enzyme production, PhD Thesis, University of Lund, Lund, Sweden, 2000. Saska, M. and Martín, C., Production of ethanol from bagasse and sugarcane trash-impregnation with sulphuric acid and lime prior to steam explosion. Monografía Diversificación, Instituto Cubano de los Derivados de la Caña de Azúcar, La Habana, Cuba, 2007, 11P. Martin, C. and Marcet, M., Comparison of wet oxidation and steam explosion as pretreatment methods for bioethanol production from sugarcane bagasse, Bioresource, 1 (1), pp. 1-5, 2006. Stenberg, K. and Tengborg, Ch., Optimization of steam pretreatment of SO2- impregnated mixed softwoods for ethanol production, J. Chem. Technol. Biotechnol., 71 (3), pp. 299-308, 1998. Kaar, W., Gutierrez, C. and Kinoshita, C., Steam explosion of sugarcane bagasse as a pretreatment for conversion to ethanol, Biomass and Bioenergy, 14 (3), pp. 277-287, 1998. Martín, C., Klinke, H. and Thomsen, A., Wet oxidation as a pretreatment method for enhancing the enzymatic convertibility of sugarcane bagasse, Enzyme and Microbial Technology, 40 (5), pp. 426-432, 2007. Martín, C. and Thomsen, A., Wet oxidation pretreatment of lignocellulosic residues of sugarcane, rice, cassava and peanuts for ethanol production, Journal of Chemical Technology and Biotechnology, 82 (2), pp. 174-181, 2007. Bjerre, A., Olesen, A., Pretreatment of wheat straw used combined wet oxidation and alkaline hydrolysis resulting in convertible cellulose and hemicellulose, Biotechnology and Bioengineering, 49 (5), pp. 568-577, 1996. Carrillo, D., Karimi, K. and Sárvári-Horváth, I., Improvement of biogas production from oil palm empty fruit bunches (OPEFB), Industrial Crops and Products, 34 (1), pp. 1097-1101, 2011. Manjarrés, K., Piñeros, Y. y Rodríguez, E., Evaluación del complejo enzimático producido mediante el cocultivo de Aspergillus sp. y Trichoderma sp. en fase sólida sobre residuos de palma, Bioagro. 23 (1), pp. 19-26, 2011. Monsalve, J., Medina, V. y Ruiz, A., Producción de etanol a partir de la cáscara de banano y de almidón de yuca, DYNA, 73 (150), pp. 21-27, 2006. Goshima, T., Tsuji, M., Hinoue, H., Yano, S., Hoshino, T. and Matsuchika, A., Bioethanol production from lignocellulosic bomass by a novel Kluyveromices marxianus strain, Biosci. Biotechnol. Biochem, 77 (7), pp. 1505-1510, 2013. Umikalsom, M., Ariff, A.B. and Karim, M., Saccharification of pretreated oil palm empty fruit bunch fiber using cellulase of Chaetomium globosum, J. Agric. Food Chem., 46, pp. 3359-3364, 1998. Hansen, T.L., Schmidt, J.E., Angelidaki, I., Marca, E., Jansen, J.C., Mosbaek, H. and Christensen, T.H., Method for determination of methane potentials of solid organic waste, Waste Management, 24, pp. 393-400, 2004. Dutta, R., Fundamentals of Biochemical Engineering, Ane Books India, New Delhi, India, 2008.
L. Zumalacárregui-de Cárdenas, es graduada de Ingeniería Química en 1972. MSc. en Análisis de Procesos en 1979. Dr en Ciencias Técnicas in 1997. Es Profesora Titular en 2002, Profesora Consultante en 2006, Profesora de Mérito en 2014 de la Facultad de Ingeniería Química, Instituto Superior Politécnico José Antonio Echeverría, Cuba. Jefe Grupo de Investigaciones Análisis de Procesos desde 2007 a la fecha. Premio Nacional de Ingeniería Química de la Sociedad Cubana de Química en 2011. Premio Nacional de la Academia de Ciencias de Cuba en 2012. Vicepresidente del Tribunal Nacional de Grados Científicos en Ingeniería Química, Cuba. R. Franco-Rico, es graduado de Ingeniería Química en 2003, MSc. en Análisis de Procesos en 2006, Dr. en Ciencias Técnicas en 2009 de la Facultad de Ingeniería Química, Instituto Superior Politécnico José Antonio Echeverría, Cuba. I. Sarvari-Horvath es PhD. Profesora Asociada de la Escuela de Ingeniería de la Universidad de Boras, Suecia.
D. Carrillo-Nieves, es graduada de Ingeniería Química en 2006 y MSc. en Análisis de Procesos en 2012. Profesor Asistente en 2014 y Jefe de laboratorio 2012 en la Facultad de Ingeniería Química, Instituto Superior Politécnico José Antonio Echeverría, Cuba. Es estudiante del programa de Doctorado de Alimentos de la Universidad Autónoma de Coahuila, México.
101
Vinasse treatment by coupling of electro-dissolution, heterocoagulation and anaerobic digestion Olga Lucía Paz-Pino a, Luz Edith Barba-Ho b & Nilson Marriaga-Cabrales c b
a Departamento de Química, Universidad del Valle, Colombia. olgalu.pp@gmail.com Escuela de Ingeniería de los Recursos Naturales y del Ambiente, Universidad del Valle, Colombia. luz.barba@correounivalle.edu.co c Escuela de Ingeniería Química, Universidad del Valle, Colombia. nilson.marriaga@correounivalle.edu.co
Received: July 22th, de 2013. Received in revised form: May 12th, 2014. Accepted: July 16th, 2014
Abstract The distillery vinasse is the most important liquid effluent of the ethanol production process and it is characterized by a high chemical oxygen demand (COD) and high biochemical oxygen demand (BOD); besides its acid pH and dark brown color. Phenol content in vinasse causes inhibitory effects on anaerobic digestion processes and has an adverse environmental impact. An alternative for treating vinasse from distilleries by using the electro-dissolution of iron and a heterocoagulation stage with Ca(OH)2 as a pretreatment was evaluated. Removals of 92% in phenols and 52% in chemical oxygen demand (COD) were obtained. Then, the pretreated vinasse was undergone to an anaerobic digestion process. Global removals to around 93% in biochemical oxygen demand (BOD5), 83% in COD, and over 99% in total phenols were obtained. Finally, an eco-toxicological evaluation using Daphnia pulex was carried out, and it was found that the coupling treatment increased the medium lethal concentration (LC50) to around 190%. Keywords: Vinasse, phenols; electro-dissolution; heterocoagulation; anaerobic process; Daphnia pulex.
Tratamiento de vinazas acoplando electrodisolución, heterocoagulación y digestión anaerobia Resumen La vinaza es el principal efluente del proceso de producción de etanol y se caracteriza por su alta demanda química de oxígeno y alta demanda biológica de oxígeno; además, un pH ácido y por su color marrón oscuro. El contenido de fenoles en la vinaza ocasiona efectos inhibitorios en los procesos de digestión anaerobia y presenta un impacto ambiental adverso. Se evaluó un tratamiento alternativo de vinazas de destilería empleando como pretratamiento una etapa de electrodisolución de hierro y heterocoagulación con Ca(OH)2 logrando reducciones del 92% en el contenido de fenoles y 52% en la demanda química de oxígeno (DQO). Posteriormente, la vinaza pre-tratada se sometió a digestión anaerobia alcanzando reducciones globales cercanas al 93% en demanda bioquímica de oxigeno (DBO5), 83% en DQO y mayores al 99% en el contenido de fenoles. Finalmente, se llevó a cabo una evaluación toxicológica empleando Daphnia pulex y se encontró que con el tratamiento acoplado la concentración letal media (LC50) se incrementó cerca de 190%. Palabras clave: Vinazas; fenoles; electrodisolución; heterocoagulación; biodegradabilidad anaerobia; Daphnia pulex.
1. Introduction Vinasse is the main liquid effluent in ethanol-producing industry which generates between 9 and 14 liters of this effluent for each liter of ethanol produced. This wastewater is characterized by a high chemical oxygen demand (COD) ca 80,000–100,000 mg L-1 and high biochemical oxygen demand (BOD) ca 40,000–50,000 mg L-1; besides its low pH, strong odor, and dark brown color [1]. This effluent presents a high dissolved organic matter content, as well as a considerable quantity of inorganic salts composed by
chlorides, sulfates, phosphates, calcium, magnesium, and potassium [2]. Vinasse is potentially toxic because of its bio-recalcitrant substance contents, such as phenolic compounds, and pigments like melanoidins, which can inhibit the activity of microorganisms present in water sources [3]. Although, liquid vinasse has been used as a fertilizer to improve soils [4]; it also presents adverse environmental impacts, such as salt-enriching of soil, and nutrient runoffs in rainy seasons. The presence of phenolic compounds deserves special attention because of their high toxicity. They are known as a
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 102-107. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.38922
Paz-Pino al / DYNA 81 (187), pp. 102-107. October, 2014.
kind of pollutants to be prioritized by USEPA [5]. On the other hand, phenol-compound toxicity has been studied by using anaerobic and aquatic organisms [6, 7]. Several technological processes for treating vinasse have been researched; physicochemical treatments as adsorption, membranes, electrocoagulation, electrodialysis, electrooxidation, chemical oxidation, bio-concentration, etc., and biological treatments including some combinations [8,9]. Particularly, Dávila et al [10] studied a process of electrocoagulation– electroflotation in the treatment of vinasse and was achieved remove only 37% of the total solids by using aluminum anodes and was not studied the effect over phenols content. Anaerobic digestion represents an promissory alternative because it is possible to obtain biogas from vinasse [11]; however, it has been found that phenols content leads to inhibitory effects in microorganisms used[12]. For this reason, anaerobic treatments combined with advanced oxidation pre-treatments have been tried to mitigate this inhibitory effect [13, 14]. A combined process consisting in the electro-dissolution of iron and a posterior stage of heterocoagulation on distillery vinasse was recently evaluated [14]. Were obtained reductions in turbidity of about 99%, in color 83%, and in dissolved organic carbon (DOC) 25%, with electrical power consumption below 0.3 kWh m-3. However, the performance of this novel process by operating as a pre-treatment of a biological system had not been assessed up to now. The aim of this study was to research the performance of the coupling between the electrodissolutionheterocoagulation and the anaerobic biodegradation of vinasse by using the toxicity indicator Daphnia pulex. 2. Materials and methods 2.1. Vinasse characteristics Vinasse samples were taken from the bottom of the mash column in a local distillery located in Cerrito, Valle del Cauca, Colombia. The distillery produces about 300,000 liter/day of ethanol. The samples were collected every two months during consecutive ten months, and the collecting and preserving procedures followed the standards in APHA et al [16]. The physiochemical characteristics of the sample were determined according to standardized methods for analyzing drinking water and wastewater [16], and the total phenol content according to Folin Ciocalteu´s method [17]. 2.2. Electrodissolution and heterocoagulation (EH) An arrangement of seven carbon-steel electrodes (ASTM A36) in a monopolar configuration was used during electro-dissolution; the electrode dimensions were 9 cm long, 6 cm wide, and a gap of 5 mm. The electrode assembly had a 324 cm2 anodic area and it was immersed into the vinasse using 800 mL of the sample to 60°C; also, it was used magnetic stirring at 240 rpm. The system was galvanostatically polarized with 1.0 mA cm-2 by a power source GPS-S 3030D, and an electrical charge of 0.278 Ah L-1 was used in all tests.
Figure 1. Electro-dissolution cell. Source: The Authors
Electro-dissolution can be considered as an acceleratedcorrosion process that can be achieved by keeping an anodic potential which is higher than the metal equilibrium potential. During this process, the iron cations pass to the vinasse by dissolving sacrificial anodes (Fig. 1). Different to electrocoagulation, the electro-dissolution is carried out keeping pH acid, not only to improve the dissolution kinetic, but also to avoid electrodes passivation. Besides, it is operated to low potentials to avoid the reaction of oxygen evolution in the anode. A heterocoagulation stage, which is defined as the simultaneous coagulation of several species, was carried out to pH 11.5 using Ca(OH)2 and 150 ppm of H2O2 for oxidizing Fe2+ to Fe3+ which generates species less solubles. During this stage, a 240 rpm constant stirring was kept for 30 minutes, according to Marriaga [15]. Also, 3 ppm of anionic polyacrylamide (flopam) was added; then, the sample was strongly stirred (700 rpm) for 5 seconds. Afterwards, the stirring was stopped and a supernatant was obtained by decantation; then, a second flocculation took place by adding 500 ppm of H2O2 and 3 ppm of anionic polyacrylamide (PAM). 2.3. Anaerobic biodegradability The used anaerobic sludge was obtained from a local effluent treatment plant; these effluents came from an abattoir. Eight 1-liter amber reactors inoculated with 2 g L-1 of volatile suspended solids (VSS) were used. Each reactor was fed with each one of the samples until they reached a concentration in COD of 3.9 gO2 L-1 of raw vinasse, and 4.5 gO2 L-1 of pre-treated vinasse by EH. 1 mL of macro and micronutrient solution was provided as well as a 0.5 mL sodium sulphide solution to 10%, and 0.15 mL of yeast extract. The pH for the operation rank between 6.5 and 7.5 units was set up. A sludge pattern without substrate was developed at the same time to correct methane content caused by the sludge. The anaerobic biodegradability was evaluated for 30 days in terms of the COD daily removal. 3 mL of the solution were
103
Paz-Pino al / DYNA 81 (187), pp. 102-107. October, 2014. Table 1. Physicochemical characteristics of vinasse Parameters pH COD, mg O2 L-1 BOD5, mg O2 L-1 BOD5/COD Total phenols, mg GA L-1 Total hardness, mgCaCO3 L-1 Calcium, mg L-1 Conductivity, mS cm-1 VFA, mg HAc L-1 TS, mg L-1 TSS, mg L-1 TDS, mg L-1
I 4.29 82,758 18,408 0.22 257 18,750 6,007 14.31 6,846 51,140 1,731 49,409
II 4.70 89,000 19,442 0.22 332 14,000 4,805 21.20 5,344 68,595 1,438 67,157
Samples III 4.14 92,800 31,416 0.34 230 34,000 6,888 17.91 9,368 69,954 1,576 68,378
IV 4.35 84,375 36,847 0.33 320 25,000 4,800 20.90 10,449 69,200 1,417 67,783
V 4.10 76,250 13,514 0.18 390 33,000 6,408 18.65 7,566 65,113 1,588 63,525
Source: The Authors
daily removed from the anaerobic reactor. The pH, the soluble COD, and methane production were measured with the volumetric method by liquid-displacement (NaOH 3%), using an experimental gasometer designed at the laboratory. The effectiveness determination of the applied treatment systems was evaluated by determining effluent toxicity using Daphnia pulex. 2.4. Toxicity evaluation with Daphnia pulex Firstly, the rank of sensibility of the indicator organism was established before performing the bio-trial, using K2Cr2O7 as a toxic of reference. The bio-trials set-up was achieved taking a rank of 5 concentrations of each sample three times, in which less than 24-hour-old newborn/neonate were exposed. The pH was kept in a rank from 7.0 to 7.5, and the oxygen dissolved between 6.93 and 8.86 mgO2 L-1. After 48-hours exposure time, the mean lethal concentration LC50 was calculated, using the statistical software from EPA probit v1.5. 3. Results and discussion The physiochemical characteristics of the vinasse used in the tests are summarized in Table 1. The COD and BOD5 values found indicate that vinasse is an effluent with a high organic-matter content, and susceptible to be degraded only between 18% and 34%. The high total solid content is also relevant, in which more than 97% are found as dissolved solids represented mainly as inorganic salts; besides, it presents high hardness (14,00034,000 mg L-1) and high electrical conductivity, which diminishes power consumption during the electrodissolution. The phenol total content (measured in milligrams of galic acid per liter) fluctuated between 230 and 390 mg GA L-1; this variation could be related to the different varieties and the ripeness degree of the sugar cane used to obtain the cane juice. In this sense, Larrahondo [18] points out that sugar cane juices are made of phenolic compounds, which can be simple or complex as flavonoids that are highly soluble in water. Vinasse composition also depends on the raw material used in the fermentation process, i.e. juice,
molasses, syrup or a mixture of them; it also depends on the type and efficiency of fermentation and distillation stage as well as the varieties and the ripeness time of cane [19]. In general, it was found that the parameter values exceeded the legal discharging limits (Table 1), according to act 1594, 1984 (Ministerio de Agricultura Colombiano) e.g the discharge limit for total phenols is 0.2 mg L-1. 3.1. Electro-dissolution and hetero-coagulation (EH)
In this stage, the flocculant polymer (PAM) accomplished the function of increasing the size of the generated flocs during the hetero-coagulation. Due to that the insoluble aggregates of ferric species formed have negatives superficial charges, the calcium cations are attracted to the surface of these species and modifies the superficial charge of them to positive values. For this reason, the branched anionic polymer used can act as flocculant of this system. Using the EH pretreatment (Table 2), the oxidizable compounds content, which was measured as COD, was decreased between 29-52%. BOD5 behavior was variable, increasing and decreasing depending on sample. However, the general trend was the increasing in the proportion of biodegradable organic matter (BOD5/COD) from 0.18-0.24 to 0.46-0.63. Total solids (TS), total suspended solid (TSS) and total dissolved solids (TDS) were also reduced to 2765%, 13-76% and 27-64% respectively. Likewise, the total hardness was diminished between 20% and 55%; nevertheless, the dissolved calcium content was maintained or tended to increase due to Ca(OH)2 addition during hetero-coagulation. Finally, a slight increasing of content of volatile fatty acids (VFA) was observed, nearly to 18%; this indicates that part of the long-chain organic acids were transformed to shorter-chain ones during the EH pretreatment [20]. The VFA in vinasse is attributable to reactions due to bacterial contamination and are performed during the fermentation. In these reactions are produced organic acids mainly acetic, propionic and butyric acids. Table 2. Physicochemical characteristics of pre-treated vinasse Parameters pH COD, mgO2 L-1 BOD5, mgO2 L-1 BOD5/COD Total Phenols, mg GA L-1 Total hardness, mgCaCO3 L1
Calcium, mg L-1 Conductivity, mS cm-1 VFA, mg HAc L-1 TS, mg L-1 TSS, mg L-1 TDS, mg L-1 Source: The Authors
104
Samples I II III IV V 8.24 7.65 8.41 8.54 7.81 40,569 43,000 53,165 45,652 54,375 ------ 23,220 25,950 30,704 28,838 -----0.54 0.46 0.63 0.52 50 60 36 24 30 8,500 10,000 26,400 29,000 26,400 2,403 7,208 5,720 6,800 5,720 19.98 19.42 22.50 20.90 21.50 9,248 6,846 9,968 10,449 9,487 18,120 47,185 45,688 50,728 41,825 410 838 1,367 1,088 825 17,710 46,347 44,321 49,640 41,000
Paz-Pino al / DYNA 81 (187), pp. 102-107. October, 2014.
The most remarkable result during the pretreatment was the decreasing of total-phenol content, which was between 80% and 92%. These removals are higher than those obtained by Siles et al (40%-65%) [13], and those reported by Martin et al (65%-83%) [14]. Both studies used ozone as oxidizing agent in the pretreatment and, in these cases, the initial phenol concentrations were 450-660 ppm, respectively. Although the mechanism governing the heterocoagulation can be very complex, it is possible to realize that to pH alkaline, insoluble salts precipitation like phosphates, and calcium and iron carbonates are caused [21, 22]. It is also valid to foresee the simultaneous coagulation of ferric species [23], iron hydroxysalts [24], besides organic matter adsorption caused by the presence of Ca(OH)2 y Mg(OH)2 in suspension [25]. Therefore, the phenol-content reduction and COD could be attributed to the adsorption influence on generated insoluble species. Also, applying hydrogen peroxide during treatment at alkaline pH generates the hydroperoxyl ion (HOOÂŻ). The hydroperoxyl ion converts chromophore groups rich in electrons e.g carbonyl groups with conjugated phenolic, to its counterpart non-chromophore due to that is a strong nucleophile. This can explain the significant reduction of color in the pretreated vinasse.
Table 3. Parameters evaluated during the treatments Parameter RV EHV
3.2. EH and anaerobic biodegradability
the raw vinasse. At the end of treatment, COD removal rates near to 47% for raw vinasse and 70% for pretreated vinasse were obtained. This shows that the raw vinasse is more resistance to degradation than pretreated vinasse, which can be attributed to higher phenol-compound content and to a low BOD5/COD relationship [28]. Table 3 shows the results of raw-vinasse (RV) physiochemical characterization, the pretreatment vinasse using electro-dissolution and hetero-coagulation processes (EHV), and the vinasse treated through coupling treatments (EHBV). The most remarkable result was the 99% reduction in total phenols content, whose final concentration was below the detection limit of the used technique. On the other hand, the biodegradable organic matter content, measured as BOD5, was reduced nearly 93%, and the oxygen chemical demand was reduce to nearly 83%.
Based on literature values and references [26, 27], the inoculum characterization showed that the sludge employed as a inoculum complies all requisites and minimum characteristics for the anaerobic treatment with respect to TS, VTS, stability and EMA. The treatment was evaluated in terms of filtered-COD content reduction. Fig. 2 shows the biodegradability behavior related to COD daily reduction. The degradation process began rapidly, which suggests that the inoculum appropriately adapted with raw and pretreated vinasse. At the beginning, the COD removal rate was higher in raw vinasse; however, from the tenth day of digesting, the COD removing rate in pretreated vinasse was much higher than
COD Removal (%)
80
pH
EHBV Removal (%)
4.35
8.54
7.45
NA
COD, mgO2 L-1
84,375
45,652
14,159
83.2
BOD5,mgO2L-1
36,847
30,704
2,649
92.8
0.63 0.19 24 <0.89*
NA >99
BOD5/COD Total phenols, mgGA L-1 *Detection limit. Source: The Authors
0.33 320
Table 4. Toxicity with Daphnia pulex Sample RV 1 2 3 4 Average RV, % Source: The Authors
4.08 3.73 4.13 3.90 3.96 4.0
LC50 (%v/v) EHV 5.36 5.14 5.05 5.07 5.15 2.3
EHBV 11.63 11.53 11.52 11.42 11.53 0.74
3.3. Toxicity evaluation using Daphnia pulex 60
40
20 Raw-vinasse Pre-treatment vinasse 0 0
10
20
Time (days) Figure 2. COD daily removal during anaerobic process. Source: The Authors
30
The sensitivity range of Daphnis colony compared to K2Cr2O7 was between 0.405 and 0.557 ppm on 20 analyzed samples and a standard deviation of 0.036. The variation coefficient reached an average of 7.49%, lower than the maximum variability value (RV 30%) established by the USEPA. In the tests, the pressure generated was 75% higher than expected. The results of the toxicity tests using Daphnia pulex are summarized in Table 4. The obtained results show that raw vinasse presented the highest toxicity with median lethal concentration (LC50) of 3.96 v/v. By applying the electro-dissolution-heterocoagulation (EHV), LC50 magnitude increased in about 30% in comparison to the results obtained in raw vinasse. This toxicity decrease would be mainly associated to phenolcontent reduction. 105
Paz-Pino al / DYNA 81 (187), pp. 102-107. October, 2014.
Coupling electro-dissolution, heterocoagulation and anaerobia digestion (EHBV) LC50 magnitude increased in about 190% in comparison to the results obtained in raw vinasse. This indicates that the coupling treatment effluent presented lower toxicity than raw vinasse. 4. Conclusions A novel treatment for vinasse was evaluated using as pretreatment a stage of electro-dissolution of iron and hetero-coagulation with Ca(OH)2 and a posterior biological treatment. During the pretreatment was obtained decreasing of phenol content of 92%, the chemical oxygen demand decreased 52%, and the volatile fatty acids content increased 18%. Afterwards, the pretreated vinasse was subjected to anaerobic digestion and was reached a global diminution close to 93% in BOD5; 83% in COD and up to 99% in phenol content. In addition, a toxicological evaluation with Daphnia pulex was carried out and it was found an increasing of 190% in the median lethal concentration (LC50) after the proposed coupling. It were found promissory results by using iron electrodissolution and hetero-coagulation as a pretreatment of anaerobic digestion to remove phenolic compounds and to enhance the degradation of distillery vinasse. References [1]
Jiménez, A.M. and Borja, A., Aerobic-anaerobic biodegradatiom of beet molasses alcoholic fermentation wastewater., Process Biochem., 38, pp. 1275-1284, 2003. [2] Larrahondo, J.E., Morales, A.M. y Victoria, H., Compuestos orgánicos en vinaza. Carta trimestral Cenicaña, 22 (3), pp. 5-7, 2000. [3] Figaro, S., Louisy-Louis, S. and Lambert, J., Adsorption studies of recalcitrans compounds of molasses spentwash on activated carbons., Water Resources, 40, pp. 3459-3466. 2006. [4] Parnaudeau, V., Condom, N., Oliver, R. and Cazevieille, P., Vinasse organic matter quality and mineralization potential, as influenced by raw material, fermentation and concentration processes., Bioresource Technology, 99, pp. 1553-1562, 2008. [5] Subramanyam, R. and Mishra, I., Biodegradation of catechol (2hidroxy phenol) bearing wastewater in an UASB reactor., Chemosphere, 69, pp. 816-824, 2007. [6] Hernández, J. and Edyvean, R., Inhibition of biogas production and biodegradability by substituted phenol compounds in anaerobic sludge., J. Hazard. Mater., 16, pp. 20-28, 2008. [7] Aruoja, M., Sihtmae, M. and Dubourguier, H., Toxicity of 58 substituted anilines and phenols to algae Pseudokirchneriella subcapitata and bacteria Vibrio fisheri. Comparison with published data an QSARs., Chemosphere, 84, pp. 1310-1320, 2011. [8] Mohana, S., Bhavik, K., Acharya, B. and Madamwar, D., Distillery spent wash: Treatment technologies and potential applications., J. Hazard Mater., pp. 12-25, 2009. [9] Satyawali, Y. and Balakrishnan, M., Wastewater treatment in molasses-based alcohol distilleries for COD and color removal: A review., J. Environ. Manage., 86, pp. 481-497, 2008. [10] Dávila, J., Marriaga, N. and Machuca, F., Remoción de sólidos totales de vinazas por electrocoagulación – electroflotación, DYNA, 76 (158), pp. 41-47, 2009. [11] Pant, D. and Adholeya, A., Biological approaches for treatment of distillery wastewater: A review., Bioresource Technol., 98, pp. 2321-2334, 2007. [12] Chen, Y., Cheng, J. and Creamer, K., Inhibition of anaerobic digestion process: A review., Bioresource Technol., pp. 4044-4064, 2008.
[13] Siles, J., García-García, I., Martín, A. and Martín, M., Integrated ozonation and biomethanization treatments of vinasse derived from ethanol manufacturing., J. Hazard. Mater., 188, pp. 247-253, 2011. [14] Martín, M., Raposo, F., Borja, R. and Martín, A., Kinetic study of the anaerobic digestion of vinasse pretreated with ozone, ozone plus ultraviolet light, and ozone plus ultraviolet light in the presence of titanium dioxide., Process Biochem., 37, pp. 699-706, 2002. [15] Marriaga-Cabrales, N., Uso combinado de electrodisolución, heterocoagulación y decoloración alcalina para el tratamiento de vinazas, PhD. dissertation, Escuela de ingeniería química, Universidad del Valle, Cali, Colombia, 2013. [16] American Public Health Association (APHA), Standard methods for the examination of water and wastewater, Washington, D.C. 2005. [17] García, I., Bonilla, J. and Jiménez, P., Biodegradation of phenol compounds in vinasse using Aspergillus terreus and Geotrichum candidum., Water Res., pp. 2005-2011, 1997. [18] Larrahondo, J.E., El cultivo de la caña de azúcar en la zona azucarera de Colombia. En: Cassalett, C.. Torres, J. y Isaacs, C., Eds., Calidad de caña. Cenicaña, Cali, 1995, pp. 337-354. [19] García, A. y Rojas, C., Posibilidades de uso de la vinaza en la agricultura de acuerdo con su modo de acción en los suelos., Tecnicaña, 10, pp. 3-13. 2006. [20] Dinsdale, R., Hawkes, F. and Hawles, D., Anaerobic digestion of short oganics acids in an expanded granular sludge bed reactor., Water Res., 34, pp. 2433-2438, 2000. [21] Voegelin, A. et al., Effect of phosphate, silicate, and Ca on Fe(III)precipitates formed in aerated Fe(II)- and As(III)-containing water studied by X-ray absorption spectroscopy., Geochim. Cosmochim. Ac., 74, pp. 164-186, 2010. [22] Scaccia, S., Carewska, M., Bartolomeo, A. and Prosini, P., Thermoanalytical investigation of iron phosphate obtained by spontaneous precipitation from aqueous solutions. Thermochimica Acta, 383, pp. 145-152, 2002. [23] Hove, M., van Hille, R. and Lewis, A., Mechanisms of formation of iron precipitates from ferrous solutions at high and low pH., Chem. Eng. Sci., 63, pp. 1626-1635, 2008. [24] Kok-Hui, G., Teik-Thye, L. and Zhili, D., Application of layered double hydroxides for removal of oxyanions: A review., Water Res., 42, pp. 1343-1368, 2008. [25] Semerjian, L. and Ayoub, G., High-pH–magnesium coagulation– flocculation in wastewater Treatment., Adv. Environ. Res., 7, pp. 389-403, 2003. [26] Field, J., Medición de parámetros. En: Manual de arranque y operación de sistemas de flujo ascendente con manto de lodo UASB., Cali: Universidad del Valle, CVC, Universidad agrícola de Wageningen, 1995. [27] Espitia, S., Vargas, C. y Díaz-Báez, M., Caracterización fisicoquímica y microbiológica de lodos utilizados en plantas de tratamiento anaerobio., s.l.: Universidad Católica de Valparaíso, 1998. [28] Fitzgibbon, F., Sligh, D. and McMullan, G., The effect of phenolic acids and molasses spent wash concentration on distillery wasterwater remediation by fungi., Process Biochem., 27, pp. 15271534, 1998. O. L. Paz-Pino, received the Bs. Chemistry in 2013 from the Universidad del Valle. Cali, Colombia. Since 2013 until now he works as Full Teacher in a local school. L. E. Barba-Ho, received the Bs.in Chemistry in 1976, the MSc. in Chemical Sciences-Chemistry in 1983, all them from Universidad del Valle, Cali-Colombia. From 1983 to 1988, she worked at the Corporacion Autonoma Regional del Valle del Cauca – CVC, as director of the Environmental Laboratory and as superviser of different Environmental projects. From 1988 until now, she has been a full time proffesor in the subjects of Environmental Chemistry and Environmental Physical Chemistry at the Universidad del Valle, Cali, Colombia. Her research´s field is the toxic compounds as pesticides and heavy metals, toxicity assays in the wastewater treatment and solid residue and the couple physicalbiologycal system. She is too the director of the environmental Laboratory acredited with NTC-ISO/IEC 17025 de 2005.
106
Paz-Pino al / DYNA 81 (187), pp. 102-107. October, 2014. N. Marriaga-Cabrales, received the Bs. Eng in Chemical Engineering in 1997, the MSc. degree in Chemical Engineering in 2001, both from the Universidad Industrial de Santander. Bucaramanga, Colombia. He got the PhD. degree in Engineering in 2013, from the Universidad del Valle. Cali, Colombia. Since 2002 until now he works for the Universidad del Valle Colombia. Currently, he is a Full Professor in the Chemical Engineering School, Engineering Faculty, Universidad del Valle, Colombia. His research interests include: Electrochemical techniques to treat wastewater as electrocoagulation, and electro-oxidation, advanced oxidation processes, and chemical process design.
107
Lattice-Boltzmann method applied to the pattern formation on periodic surface structures generated by multiline nanosecond laser Frank Rodolfo Fonseca-Fonseca a, José Edgar Alfonso-Orjuela b & Darío Fernando Andrade c
a
Departamento de Física, Universidad Nacional de Colombia, Colombia. frfonsecaf@unal.edu.co Departamento de Física, Universidad Nacional de Colombia. Colombia. jealfonsoo@unal.edu.co Grupo de Ciencia de Materiales y Superficies, Universidad Nacional de Colombia, Colombia. dfandradez@hotmail.com b
c
Received: August 9th, 2013. Received in revised form: June 3th, 2014. Accepted: July 9th, 2014.
Abstract We simulated the pattern formation on silicon surfaces. For this purpose, we used Lattice-Boltzmann method assuming two non-ideal interacting fluids using a lattice velocity D2Q9. The experiment was carried out with a multiline (1064, 532 and 355 nm) Nd: YAG pulsed laser that employs an energy range from 310 to 3100 J on a surface p-type monocrystalline silicon oriented in the direction [111]. The whole system was subjected to argon gas blowing which is key in pattern formation. Computer simulation reproduces the overall behavior of the experimental geometric patterns expressed in oblique parallel ripples quite well. Keywords: Laser Ablation, monocrystalline, non-ideal fluids, Lattice-Boltzmann method.
Método de Lattice-Boltzmann aplicado a la formación de patrones sobre estructuras superficiales periódicas generadas por láser de nanosegundos multilineas Resumen Hemos simulado la formación de patrones en superficies de silicio. Para este propósito, se utilizó el método de Lattice-Boltzmann suponiendo dos fluidos no ideales, que interactúan, utilizando una rejilla de velocidades D2Q9. El experimento se llevó a cabo con un láser de pulsos multilínea (1064, 532 y 355 nm) de Nd: YAG, que emplea un rango de energía 310 a 3.100 J, en una superficie de silicio monocristalino, tipo p, orientado en la dirección [111]. Todo el sistema se sometió a soplado de gas de argón que es clave en la formación de los patrones. La simulación computacional reproduce bastante bien, el comportamiento global de los patrones geométricos experimentales, expresados en ondulaciones paralelas oblicuas. Palabras clave: Ablación Láser, monocristalino, Fluidos no ideales, método de Lattice-Boltzmann.
1. Introduction The Lattice-Boltzmann method (LBM) has become one of the most popular techniques for studying the phenomenology of complex fluid dynamics in recent decades. This technique [1-3], is based on the discretization of the Boltzmann equation with Bathnagar, Groos y Krook (BGK) approximation [4] for the collision operator. In LBM, the statistical distribution of particles is located on a spatial grid, where each spatial point is assigned to a discrete and finite set of velocity vectors , which point to the nearest sites. LBM solves a discrete kinetic equation for one particle distribution
function along the above discrete set of velocities. For carrying out a LBM, a discrete velocity is chosen, in one-dimension D1Q3 and (D1Q5 are common. In two dimensions D2Q9 is well-known for 2D simulations and in 3D we have the D3Q15, D3Q27 and D3Q19 lattices. A wide range of simulations has used these lattices up to now. Among them we can find simulation of ferrofluids [5], a competition between surface tension and dipolar interactions to model magnetic fluids [6], and the simulation of electroosmotic fluids in charged anisotropic porous material [7]. Using a higher moment method, it is also possible to give rise to the Kortweg-De Vries equation [8], and furthermore LBM has been used to simulate incompressible magnetohydrodynamics
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 108-114. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online http://dx.doi.org/10.15446/dyna.v81n187.39478
Fonseca-Fonseca et al / DYNA 81 (187), pp. 108-114. October, 2014.
in two or three dimensions [9]. Likewise, the application of LBM to the calculation of the ground state of Gross-Pitaevskii equation corresponding to the derivation of a quantum mechanical analysis is current [10]. Furthermore, using suitable boundary conditions, the effect of wettability on solid-fluid interfaces has been investigated, and also there have been studies of the effect of the influence of viscous coupling on two-phase flow applied to porous media [11]. Shan & Chen [12] presented an LBM model that is able to simulate flows of multiple phases, and Luo [13] developed a model based on the discretized Boltzmann equation for the two fluid phases. On the other hand, laser-matter interaction and the generation of surface periodic structures is a very important research area with enormous technological applications. In general, the surface periodicity can be understood as interference between the incident laser beam and the scattered beam parallel to the substrate [14]. Indeed, it is possible to add other physical effects such as surface waves attributed to roughness and inhomogeneities, etc. [15]. Further, dielectric materials such as semiconductor surfaces have been used to produce periodic structures using femtosecond and picosecond lasers [16]. For silicon, which is an indirect band gap semiconductor material, low electro-optic efficiency limits its use. Some responses can be enhanced by modifying its surface by using different techniques, which involve the manipulation of the surface by changing the process parameters such as the treatment atmosphere, the energy density and the initial state of the material's surface, [17,18]. In general, morphological and structural changes on the surface of a material can produce changes in its optical, electrical and mechanical properties, which can potentially improve the performance of components made of such material [19,20]. This paper deals with periodic surface structures over ptype silicon surfaces using laser irradiation with a multiline (1064, 532, 355 nm) Nd:YAG pulsed laser were obtained. In section 2, we present a short review of the Lattice-Boltzmann method and the equilibrium function based on the D2Q9 lattice scheme velocity is shown. In section 3, we present the potential interaction between particles. Section 4 outlines the experimental setup. Results are given in Section 5 and conclusions in Section 6.
A summary of the Lattice-Boltzmann method is as follows, [3]. This technique will be applied to the system to reproduce the surface pattern. The Lattice-Boltzmann equation is: ,
.
(1)
,
In the above expression, , represents the one-particle distribution function, , is the collision operator, which measures the rate of change of , during collision. Both and represent the spatial and temporal discretization in the system. The density and the momentum density are defined as the moments of the distribution function , : (2)
,
(3)
,
The collision operator , must satisfy the , conservation of momentum equation and the total mass on the grid point, so: (4) (5) Doing a Taylor series expansion in space and time, Eq. (1), we obtain: ,
,
,
(6)
and
Where we have used
. Also a perturbative expansion known as Chapman-Enskog expansion is employed, and the expansion parameter is defined as which is the same for the spatial and time derivatives. Therefore:
2. The Lattice-Boltzmann Method (7) (8) (9) Expanding the distribution function series: ,
Figure 1. D2Q9 scheme for the velocity lattice. (Figure elaborated in gnuplot [32]).
,
,
,
,
in a perturbative (10)
Equation (7) assumes that time is much greater than . Similarly, the distribution function can formally be expanded around the distribution function of statistical equilibrium, as:
109
Fonseca-Fonseca et al / DYNA 81 (187), pp. 108-114. October, 2014. ,
,
(11)
,
in the directions of each cell velocity point are:
weights
. Moreover, using probability Where , , conservation the following conditions are imposed on : ,
(23)
(12)
,
(13)
,
Addresses , and weights tensorial relationships:
In eq. (11), is the distribution function of the , statistical non-equilibrium, and can be expanded as: ,
,
,
And it is subject to the following restrictions. For we have:
(16)
,
We assume the BGK expansion, [4], for the collision operator : ,
,
,
,
(15)
,
(24)
,
(14)
,
satisfy the following
(25)
,
(26)
,
,
The general form of the equilibrium distribution function is given by, [3]: (27)
,
Where a, b, c and d are lattice constants. Using equations (20), (21) and (eq22) we can show that eq. (27) is:
(17)
,
(28)
,
Where measures the rate of change of the particle local distribution relaxing to equilibrium state. We replaced eqs. (6-10) in eq. (1), and it is obtained at order : ,
,
,
(18)
,
At order
Replacing eq. (28) in eq. (22), we obtain: ,
(29)
,
,
And
:
,
, ,
,
,
,
(19)
, ,
Replacing eq. (18) in eq. (19) and using definitions eqs. (12-13), we obtain: With
Where is defined as the viscosity and we have assumed the state equation to be . Therefore, the momentum equation is, [3]: (31)
(20) (21) With ,
,
,
,
(30)
,
(22)
And , is the vector velocity component in direction. We use the D2Q9 velocity scheme shown in Fig. 1, [3]. The
3. Model of several fluids and potential interaction between particles For a system consisting of several fluids [2], we suppose that each one of them obeys a distribution function given by eq. (28), with a temporal evolution on a D2Q9 lattice velocity. Furthermore, the total density of the system is taken as an average over the individual densities, weighted by the rates of change and for the two fluids, which measure the approach to equilibrium. Therefore:
110
Fonseca-Fonseca et al / DYNA 81 (187), pp. 108-114. October, 2014.
(32) Similarly, the components of the overall speed of the system are taken as a weighted average given by and , in the same manner as was done with , so: ,
,
,
,
(33)
,
,
(34)
On the other hand, for each of the fluids, it is assumed on the grid point that a change of momentum is given by a repulsive potential, which interacts with its nearest neighbors, and it is defined by, [2], [21] and [22]: (A)
(35)
,
Where is a Green function and , are , effective density distribution functions. Now, in view of the fact that we only consider interactions with nearest neighbors, we define the Green function as: ,
(36) ,
Where defines the weight of the interaction , between the two systems and the sign determines whether the potential is attractive or repulsive. Therefore, the induced moment on the grid point is:
,
â&#x20AC;˛
(37) (B)
Therefore, the momentum after the collision is:
Figure 2. Samples irradiated with 620 J. (A)- without gas and (B)- with Ar gas, [31]. Figures obtained using a confocal laser microscope.
(38) Given this model, we have made simulations and their results will be present in section 5. 4. Experimental setup The periodic consists of p-type silicon (boron doped, single crystalline orientation [111]) polished wafers with 525 micron thickness and 0.01 to 0.02 Ίm resistance. Samples were prepared according to published experimental details in reference [23]. The manufactured surfaces were determined using a ZEISS M700 laser confocal microscope and a Cary 5000 UV-VIS-NIR spectrophotometer. With the help of its analytical software the 3D areal surface texture is identified.
In the current literature, the formation of the periodic structures has been explained as being due to the polarization of the laser and the scanning of the sample by the laser [24], which impedes the interaction between the laser and the plasma (produced by evaporated material). Under our experimental conditions, we obtained incipient periodic structures without blowing gas, (Fig. 2 A), and with the gas, the formation of periodic structures is improved, due to the evacuation of the evaporated material, which has the same effect as the scanning of the sample with the laser figure (Fig. 2 B). In Figs. 3 A-F, we show the experimental results. figures A-B were produced at the threshold energy range 465 J for a periodic well-defined structure formation. Surfaces Figs. 3 C-D show sharp structures, but with some non-removed areas, perhaps, due to the gas low efficiency of removal of ablated material during laser irradiation. Figs. 3 E-F show a sample handled with 3100 J that almost shows the spatial periodicity structure, suggesting an optimal energy level (i.e. 620 J) for generating clear periodic structures. The formation of a periodic structure through the
111
Fonseca-Fonseca et al / DYNA 81 (187), pp. 108-114. October, 2014.
simultaneous incidence of the three laser lines on the surface of silicon is due to the energy supplied by the three wavelengths, which increases the surface temperature of silicon to 1613 K. At this temperature, the melting point of silicon is reached. This allows the formation of a non-ideal fluid, which generates the periodic structure once the surface sample is solidified. Based on this hypothesis, we constructed a computer simulation that reproduces the experimental pattern, which is discussed later. Moreover, experimental results show that there is an energy threshold for the formation of the periodic structure. This energy threshold can be defined as the energy required for melting the silicon surface enough to obtain a periodic structure. In our study, this energy is found to be 620J. The importance of using the laser lines to produce periodic structure lies in the fact that electro-mechanical systems are not necessary in order to scan the sample with the laser, nor are optical devices (beam splitters, focal lenses, mirrors and beam expanders) [25-26]. Furthermore, the mean square depth (500-700nm) of the periodic structure fabricated with the laser lines is higher than those reported for periodic structures formed with one only laser line (10-30nm) [27]. This difference is important for the development of optical devices such as optic filters and pass-bands.
(A)
(C)
5. Simulation Results In order to explain the patterns seen in Figs. 2 and. 3, which show experimental results, we proposed a two nonmiscible non-ideal fluid system. We assume that the line component of the incident laser 355 nm, the most energetic one, and the 532 nm close to the experimental average distance between peaks 547 Âą 13 nm, [23] on the surface, cause a melting of material, becoming two non-ideal interacting fluids. The third, the lowest energy, is transparent for the system. Basically, the action of the laser on the silicon surface creates a two fluid phase, resulting in a final state given by the patterns. We did simulations with a system size of 186x186, for a simulation time of 200, and assuming an initial random distribution for the distribution function. The left panel in Fig. 4 shows the simulation result based on the Lattice-Boltzmann simulation result for the density, Ď , of the system, and the right one exhibits the confocal microscope images result. Clearly, the simulation results show the formation of parallel oblique long stripes, or ripples, which are the fundamental geometric structure of the experimental patterns, and they are shown in the right panel of Fig. 4. It is possible to explain the pattern formation as being produced by the excited electrons in the band structure generating the crystalline disorder at the surface. However, as long as the energy flux on surface persists, the long range order holds, avoiding reaching the statistical equilibrium. Therefore, this instability, out of equilibrium, can be considered as the interplay between surface roughening and surface smoothing [28].
(E)
(B)
(D)
(F)
Figure 3. Confocal microscope images of samples irradiated with different amounts of energy and argon gas blowing, [23], [31]. Figures obtained using a confocal laser microscope.
Figure 4. Comparison between simulation for a 186x186 lattice size using a Lattice-Boltzmann simulation, left panel, and experimental result, right panel. Simulation result elaborated in gnuplot [32], and right figure obtained using a confocal laser microscope.
112
Fonseca-Fonseca et al / DYNA 81 (187), pp. 108-114. October, 2014.
These two physical effects can be modeled using some type of Cahn-Hilliard/Kuramoto-Sivashinsky differential equation (CHKS) [29-31], which constitutes a mean field approach to problems at the mesoscopic level, and offers pattern structures such as stripes, squares etc. This theoretical approach is also shared by Lattice-Boltzmann [3], and for this reason the simulation is able to reach a possible result offered by a CHKS procedure. 6. Conclusions
[15] [16] [17]
[18]
Using the hypothesis of a two non-ideal fluids interaction governed by lattice Boltzmann method, we can reproduce quite well the periodic parallel diagonal stripes structures found experimentally with the use of a nanosecond multiline Nd:YAG laser on a single-crystalline silicon. Acknowledgments
[19] [20] [21] [22]
We gratefully acknowledge the support of the Bogotá Research Division of the National University of Colombia under the grants DIB-7178, DIB-90201022 and DIB8003355.
[23]
[24]
References [1] [2] [3] [4] [5] [6] [7]
[8] [9] [10] [11]
[12] [13] [14]
Qian, Y. H., d’Humières, D. and Lallemand, P., Lattice BGK models for Navier-Stokes equations., Europhysics Letters, 17 (6), pp. 479484. 1992. Shan, X. and Chen, H., Lattice Boltzmann model for simulating flows with multiple phases and components., Physical Review E, 47 (3), pp. 1815-1820, 1993. Wolf-Gladrow, D.A., Lattice-Gas cellular automata and Lattice Boltzmann Models, an Introduction, Springer-Verlag, Berlin Heidelberg, 2000. Bathnagar, P.L., Gross, E.P. and Krook, M., A model for collision processes in gases. I. Small amplitude processes in charged and neutral one-component systems., Phys. Rev. 94, pp. 511-525, 1954. Dellar, P.J., Lattice kinetic formulation for ferrofluids, J. Statist. Phys., 121, pp. 105-118, 2005. Sofonea, V. and Früh, W.G., Lattice Boltzmann model for magnetic fluid interfaces, Eur. Phys. J., B 20, pp. 141-149, 2001. Wang, M., Pan, N., Wang, J. and Chen, S., Lattice PoissonBoltzmann simulations of electroosmotic flows in charged anisotropic porous media, Communications in Computational Physics, 2 (6), pp. 1055-1070, 2007. Zhang, J. and Yan G., A lattice Boltzmann model for the Kortewegde Vries equation with two conservation laws. Computer Physics Communications, 180 (7), pp. 1054-1062, 2009. Dellar, P.J., Lattice kinetic schemes for magnetohydrodynamics, Journal of Computational Physics, 179, pp. 95-126, 2002. Palpacelli, S. and Succi, S., The quantum Lattice Boltzmann equation: recent developments, Communications in Computational Physics, 4 (5), pp. 980-1007, 2008. Yiotis. A.G., Psihogios, J., Kainourgiakis, M.E., Papaioannou, A. and Stubos, A.K., A lattice-Boltzmann study of viscous coupling effects in immiscible two-phase flow in porous media. Colloids and Surfaces A: Physicochem. Eng. Aspects, 300, pp. 35-49, 2007. Luo, L.S. and Girimaji, S.S., Theory of the lattice Boltzmann method: Two-fluid model for binary mixtures, Physical Review E, 67, 036302 2003. Vorobyev, A.Y. and Guo, C., Spectral and polarization responses of femtosecond laser-induced periodic surface structures on metals, C. Journal of Applied Physics, 103 (4), p 043513-1. 2008. Trtica, M., Gakovic, B., Radak, B., Batani, D., Desai, T. and Bussoli, M., Periodic surface structures on crystalline silicon created
[25] [26]
[27] [28] [29] [30]
by 532 nm picosecond Nd:YAG laser pulses, Applied Surface Science, 254, pp. 1377-1381, 2007. Feng, Z.C. and Tsu, R., Eds., Porous Silicon, World Scientific, Singapore, 41 P., 1994. Bisi, O., Ossicini, S. and Pavesi, L., Porous silicon: A quantum sponge structure for silicon based optoelectronics, Surface Science Reports, 38 (1), pp. 1-126, 2000. Zhao, X., Schoenfeld, O., Nomura, S., Komuro, S., Aoyagi, Y. and Sugano, T., Nanocrystalline Si: A material constructed by Si quantum dots, Materials Science and Engineering B, 35 (1), pp. 467471, 1995. Ramírez, A., Fonseca, L.F. and Resto, O., Estimation of Silicon Nanocrystalline Sizes from Photoluminescence Measurements of RF Co-Sputtered Si/SiO2 Films, Materials Research Society Symposium Proceedings. 737, F3.30.1, 2003. Dickey, M., Holswade, C. and Shealy, L., Laser beam shaping applications, Taylor & Francis-CRC Press, 2006. Misawa, H. and Juodkazis, S., 3D laser microfabrication principles and applications, Wiley-Verlag, Weinheim, 2006. Shan, X. and Chen, H., Lattice Boltzmann model for simulating flows with multiple phases and components, Phys. Rev. E, 47 (3), pp. 1815-1819, 1993. Yuang, P. y Schaefer, L., Equations of state in a lattice Boltzmann model, Phys. of Fluids 18, pp. 042101-1 - 042101-11, 2006. Alfonso-Orjuela, J.E., Andrade-Zambrano, D.F. and Arroyo-Osorio, J. M., Refractive index of multiline nanosecond laser-induced periodic surface structures and porous silicon, Revista Mexicana de Física, 57, pp 475 - 480. 2011. Sano, T., Yanai, M., Ohmura, E., Nomura, Y., Miyamoto, I., Hirose, A., and Kobayashi, K., Femtosecond laser fabrication of microspikearrays on tungsten surface, Applied Surface Science, 247, pp. 340 – 346, 2005. Al-Naimee, K.A., Nanostructure formation in Silicon photovoltaic cell surface by femtosecond laser pulses, Indian Journal of Science and Technology, 3 (3), pp. 308 -310, 2010. Horita, S., Kaki, H. and Nishioka, K., Surface modification of an amorphous Si thin film crystallized by a linearly polarized Nd:YAG pulse laser beam, Journal of Applied Physics, 102 (1), pp. 013501-1 - 013501-10, 2007. Boghosian, B.M., Chow, C.C. and Hwa, T., Hydrodynamics of the Kuramoto–Sivashinsky equation in two dimensions, Phys. Rev. Lett. 83, pp. 52-62. 1999. Kuramoto, Y., Chemical oscillations, waves, and turbulence, Springer-Verlag, Berlin, Heidelberg, 1984. Cahn, J.W. and Hilliard, J.E., Free energy of a nonuniform system. I. Interfacial free energy, J. Chem. Phys. 28, pp. 258-267, 1958. Garzón-Alvarado, D., Galeano, C. and Mantilla, J., Pruebas numéricas sobre la formación de patrones en medios heterogéneos 2d: Una aproximación a través del modelo Schnakenberg, DYNA,
79. (172), pp. 56-66. 2012. [31] Andrade, D., Fabricación de redes de difracción sobre silicio monocristalino con láser pulsado multilinea de Nd YAG, MSc. Tesis, Universidad Nacional Colombia, Bogotá Colombia, 2012. [32] Gnuplot 4.6.0: An interactive plotting program, august 2012. http://www.gnuplot.info F. R. Fonseca-Fonseca, received the Physics degree in 1993, the MSc. in Physics Science in 1998, both from the Universidad Nacional de Colombia and the PhD degree in Physics in 2004. From 1994 to 1999, he worked in basics aspects of quantum field theory applied to gravity theory and quantum field theory at finite temperature. Also, he has worked in statistical systems outside of the equilibrium. Currently, he is associated Professor in the Physics Department, Facultad de Ciencias, Universidad Nacional de Colombia and belongs to the group of Surfaces and Materials Science at the same university. His research interests include: simulation, modeling and in particular the use of Lattice-Boltzmann technique applied to solve complex systems. J. E. Alfonso-Orjuela, received the Bs. degree in Physics in 1987 and his MSc. degree in Science - Physics in 1991, both of them being obtained from the Universidad Nacional de Colombia. In 1997 he completed his PhD. in Science -Physics at the Universidad Autonoma de Madrid, Spain.
113
Fonseca-Fonseca et al / DYNA 81 (187), pp. 108-114. October, 2014. He has been linked to the Universidad Nacional de Colombia as a full professor since 2000, he belongs to the Group of Materials Science and Surface and he is an associate researcher at the International Centre of Physics (CIF) at the same university. His research has been focused on material science, particularly on thin film processing as well as performance characterization, studying thin film optical, electrical and mechanical properties. D. F. Andrade, completed his Bs. degree in Physics-Engineering in 2008, from Universidad del Cauca, Colombia and his MSc. degree in Science Materials Engineering in 2012 from the Universidad Nacional de Colombia. He has been linked to the Universidad Gran Colombia as a full professor since 2013, he also belongs to Group Surfaces and Materials Science to the Universidad Nacional de Colombia, where his research has been focused on material science.
114
Quantification of the effect of precipitation as a triggering factor for landslides on the surroundings of Medellín – Colombia Estefanía Muñoz a, Hernán Martínez-Carvajal b, Jorge Arévalo c & Daniel Alvira d b
a Universidade de Brasília, estefaniamunozh@gmail.com Departamento de Ing. Civil y Ambiental, Universidade de Brasília, Brasil. Facultad de Minas, Universidad Nacional de Colombia,, carvajal@unb.br c Geo 2 S.A.S., jorge.geo2@gmail.com d Universidad Nacional de Colombia, alvira1089@gmail.com
Received: November 1th, de 2013. Received in revised form: July 3th, 2014. Accepted: July 17th, 2014
Abstract Malamud et al. [7] presented a theoretical function that explains the relationship between the area of landslides associated to a certain triggering event (heavy rainfall, snow melting, earthquake) and its frequency. This probability density function was applied to a landslides inventory mapped outside the city of Medellín, distinguishing between landslides (in natural slopes) and slope failures (so called man-made slopes). As a result, the statistic behavior of large landslides is very similar to the theoretical curve presented by the authors referred above, while the probability of occurrence of small landslides, those with areas smaller than 5x10-4 km2, is much higher, especially on man-made slope failures. Considering that this behavior is clearly manifested on man-made slope failures, it can be inferred that there is an effect of the road on the increase of the periodicity of the slides and there for, the popular hypothesis of associating road slope failure only to precipitation is questionable. Keywords: landslides triggered by rainfall, frequency-size statistics, tropical regions, natural hazards.
Cuantificación del efecto de la precipitación como factor detonante de deslizamientos en los alrededores de Medellín – Colombia Resumen Malamud et al. [7] presentaron una función teórica que relaciona la densidad de probabilidad de los deslizamientos con su área. Para verificar la validez de esta función en el ambiente montañoso andino de los alrededores de Medellín - Colombia, se recolectó un inventario de deslizamientos en las afueras de la ciudad, diferenciando entre los ocurridos en laderas rurales y taludes viales. Se obtuvo como resultado, que el comportamiento estadístico de los deslizamientos de áreas grandes es muy similar a la curva teórica presentada por los referidos autores, mientras que la probabilidad de ocurrencia de deslizamientos con áreas menores a 5x10-4 km2 es mucho mayor, especialmente en los de los taludes viales. Teniendo en consideración que este comportamiento se manifestó de manera clara en taludes viales, puede inferirse que existe un efecto de la vía en el aumento de la frecuencia de deslizamientos y de esta forma, la hipótesis popular de asociar las fallas de taludes de carreteras apenas al efecto de las lluvias es cuestionable. Palabras clave: deslizamientos detonados por lluvias, relación estadística frecuencia-tamaño, regiones tropicales, amenazas naturales.
1. Introduction The mass movements are part of the most common natural disasters around the world, bringing along great economic and human losses. This phenomenon happens for many reasons, some of them are geological, geomorphological and the anthropic intervention [12]. They are generally associated with external inducement that rapidly increases the strains or reduces the resistance. The most common triggering factors are tectonic movements, rapid thawing or intense and long precipitations [7].
Although the landslides often affect the Colombian territory, specially the Andina region, there is not yet a complete database that allows making any kind of technical impact, environmental or social analysis [2]. The few and incomplete databases that exist are regional and don´t have enough information. Therefore, it is necessary to develop methods that allow obtaining the probability of landslides, considering variables that are easy to know, such as geomorphology, geology and geometry of the slope. This work pretends to assess the universality of the probability distribution of landslides according to their area,
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 115-121. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40640
Muñoz et al / DYNA 81 (187), pp. 115-121. October, 2014.
Figure 2. Measurements taken on each landslide. Source: The authors. Figure 1. Localization of the area where the inventory was collected. Ilustration out of scale. Source: The authors.
proposed by Malamud et al. [7], through the adjustment of an incomplete historic database, taken in different roads and rural hillsides located outside Medellín, Colombia. Moreover, analyze the behavior of the events that affect the referred region. 2. Study Area The study area is located south of the department of Antioquia, northwest of Colombia. The data was collected in four roads located outside Medellín and nearby hillsides, as shown in. The roads where: (i) The Medellín – Bogotá Highway, northeast of Medellín, connect this city with the capital of the country. The section in which the data was taken goes through the townships of Bello, Copacabana and Guarne. (ii) Road to the West, known as West Tunnel road link, connects Medellín with the Urabá region, where an important maritime terminal is located. The considered sector goes through Medellín and San Jerónimo. (iii) The Amagá road connects Medellín with the municipality of Amagá and the considered sector goes through Itagüí, La Estrella, Sabaneta and Caldas, municipalities located southeast from Medellín. Last, (iv) Las Palmas road, is one of the routes to access the east of Antioquia, where the José María Córdoba airport is located. This section goes through the municipalities of Envigado and part of El Retiro. The municipalities where the information was taken have an average annual precipitation that ranges between 1500 mm and 3000 mm, and an average height between 780 m.a.s.l (meters above sea level) and 2175 m.a.s.l [1].
3. Methods A field campaign was made to collect area measurements from the landslides occurred on the roads mentioned above as well as from the nearby hillsides. The measurements taken were: Height of the landslide (z), width (y) and depth (x), as shown on Figure 2. The areas estimated correspond to the inclined surface of the landslides, obtained from the measurements mentioned above. Only the areas corresponding to the tear portion of the slide where taken in consideration, and not the accumulation areas. The inventory obtained was divided in order to differentiate the landslides occurred on hillsides and the ones occurred on man-made slope failures. Fig. 3 shows the pictures of some of the landslides taken on the slope failures, showing their different magnitudes. The intervals to classify the areas within categories where defined deciding the range of probable areas (10-5 km2 - 10-1 km2) according to the Sturges´ Rule, which says that the number of classes to be considered to elaborate a histogram depends on the size of information held (data base), following the eq. (1). (1) Where c is the number of classes and n is the amount of data. Then, each of the areas was assigned to its correspondent interval, obtaining the probability density function of occurrence of each of them (Table 1), according to eq. (2).
116
்
δ δ
(2)
Muñoz et al / DYNA 81 (187), pp. 115-121. October, 2014. Table 1. Number of landslides and probability densities. Slope Failures in Roads AL (km2) 2.80E-05 7.70E-05 2.15E-04 5.99E-04 1.67E-03 4.64E-03 1.29E-02 3.59E-02 1.00E-01 NLT
(a)
14 2645.500 35 3779.290 49 1878.690 36 496.032 40 197.980 12 21.349 2 1.279 1 0.230 0 0.000 189 Landslides in rural hillsides
AL (km2)
(b)
P(AL) (km-2)
δ NL
P(AL) (km-2)
δ NL
3.20E-05 1.00E-04 3.16E-04 1.00E-03 3.16E-03 1.00E-02 3.16E-02 1.00E-01 NLT
1 250.000 5 588.235 43 1592.590 52 608.187 19 70.305 4 4.680 1 0.370 0 0.000 125 Slope Failures in Roads and Landslides in rural hillsides
AL (km2)
δ NL
P(AL) (km-2)
2.80E-05 7.70E-05 2.15E-04 5.99E-04 1.67E-03 4.64E-03 1.29E-02 3.59E-02 1.00E-01 NLT Source: The authors.
15 37 70 94 70 23 3 2 0 314
1706.100 2404.780 1615.430 779.591 208.541 24.630 1.155 0.277 0.000
The probability density functions of the areas of landslides occurred on different places in the world and triggered by different factors, present a very similar tendency, adjusting to an inverse gamma probability distribution of three parameters, given by eq. (3), [7].
(c) Figure 3. Landslides taken on slope failure. (a) Small landslide (5 x 10-5 km2). (b) Medium landslide (1.5 x 10-3 km2). (c) Big landslide (6 x 10-2 km2). Source: The authors.
Where, is the probability function, ் is the total amount of landslides, the number of data on the interval and the interval width.
(3)
ఘାଵ
Where is the gamma function and the three parameters a, s and are coefficients that influence the distribution´s form. The parameter controls the decline of the power law for the areas of big and medium mass movements, the parameter a controls the location of the maximum value of the probability distribution, and the parameter s controls the exponential fall of the small landslides zones. Furthermore, the parameters shown in Table 2 were defined as the values that best fit the outcomes obtained.
117
Muñoz et al / DYNA 81 (187), pp. 115-121. October, 2014. Table 2. Gamma parameters defined by Malamud et al. [7]. Gamma parameters a (km3) 1.28 x 10-3 ρ 1.4 s (km2) -1.32 x 10-4 Γ (ρ) 0.88726382 Source: The authors.
Figure 5. Theoretical and real magnitudes of the different groups of landslides of the field survey taken for this work. Source: The authors.
4. Analysis
Figure 4. Comparison of the probability density of landslides according to the area of the data taken on the field and a theoretical function of the Inverse Gamma type. Source: The authors.
In order to verify the distribution adjustment described above to the statistic behavior of the areas of the mass movements collected, in a logarithmic graph the theoretical distribution was made and the probability density data were overlapped, as shown in Fig. 2. In order to verify the distribution adjustment described above to the statistic behavior of the areas of the mass movements collected, in a logarithmic graph the theoretical distribution was made and the probability density data were overlapped, as shown in Fig. 2. With all the information gathered, it was possible to pose a magnitude scale for a specific event of rainfall that deflagrates landslides. This scale must be able to describe any characteristic of the event related to its capacity to trigger mass movements; for example the number of probable landslides as proposed by Malamud et al, [7] having as a base the idea used since the 1980´s for inventory surveys of landslides deflagrated by earthquakes. The magnitude was then defined and in a simple way, as the base-10 logarithm of the total number of landslides ( ் ). In this way, the relation between the magnitude and the probability density function of the areas of the landslides shown in eq. (2) is direct. Fig. 3 shows the theoretical curves of frequency density against de landslide area for different magnitudes, as well as the points correspondent to the field data survey, ergo, the inventory of landslides of this work.
Fig. 2 shows the result obtained when comparing the probability density of the data survey and the theoretical distribution. It is possible then, to appreciate that the data correspondent to all of the landslides, adjust well on the right end of the theoretical curve correspondent to big areas, ergo, for landslides bigger than 5x10-4 km2. In contrast, for landslides with areas smaller than those indicated before, the probability densities are bigger than the theoretical. Given that the theoretical distribution has been verified for a wide variety of inventory of landslides deflagrated by different types of events, intense precipitation [3], earthquakes [6], rapid thawing [4], it is hard to explain the great difference between the theoretical values and the data collected on the field for small areas (AL<5x10-4km2) merely with the argument of the non-universality of the theoretical distribution. The techniques used for the collection of the landslides inventory of the references found on the literature [8-11] are based exclusively on remote sensing whose resolution hinders the collection of smaller landslides. Thus, the inventories are usually complete for landslides with big areas and incomplete for those of small areas. Consequently, it is expected that when the theoretical distribution is compared to the data of an inventory made on the field, the first presents a smaller frequency for the small landslides that are, precisely, identified with great accuracy in the process of direct cartography presented here. However, the difference between the theoretical and the real values is so big for the smaller areas, that it is fit to achieve a more forceful explanation to the phenomenon. Considering that, as mentioned before, the inventory for this paper was taken along of four different roads in the vicinity of Medellín, all of them with a significant history of slope instability and in many cases crossing slopes with geological/geotechnical predisposition to show stability problems, it is reasonable to indicate that precisely the anthropic action is responsible for the increase on the
118
Muñoz et al / DYNA 81 (187), pp. 115-121. October, 2014.
frequency of occurrence of small area landslides. The cutting on the roads, made without the appropriate geotechnical attention on lands with predisposition to instability, would be increasing the frequency of landslides opposite to the number expected only by the effect of precipitations. Looking to verify this hypothesis, also on Fig. 2, the data taken on slope failure and rural hillsides was plotted. Thus, is possible to observe that the data taken on the field for hillsides are very close to the theoretical distribution. In contrast, the data taken for slope failure remains well above the theoretical values indicated by de Gamma distribution. The distribution correspondent to mass movements on rural hillsides shows a tendency very similar to the theoretical, but remains a small difference on the small areas zone, perhaps explained, and as mentioned above, by the greater grade of detail of the field survey made for this paper, that allows the identification of almost all of the small landslides. The divergence between the theoretical values and the values taken on the field for the road landslides then seems to be explained by the anthropic negative effect that exert the road cuts on the slope stability. This observation contradicts conclusively the intuitive argument of attribute to the rainfalls the great amount of landslides on the local roads of Medellín, and maybe, of other regions on the country. Fig. 3 shows the magnitudes correspondent to the rainfall events that triggered the landslides of the inventory taken for the purpose of this work. There are also shown, as indicated before, the theoretical magnitudes of other probable rainfall events on the region of study. The complete inventory follows an approximate magnitude of mL=2.5 for big areas, while for small areas reaches mL=4, this is, two orders of magnitude bigger, on a logarithmic scale. Therefore, when analyzing exclusively the behavior of the inventory for rural hillsides, shows that in terms of magnitude, it always remains between mL=2 and mL=3 magnitude interval. Needless to mention that even though the inventory taken is not related to a single rainfall event, as the landslides evaluated correspond to different places and times, the magnitude indicated may be associated to the average rainfall event. In conclusion, the average rainfall events that deflagrate landslides on Medellín have variable magnitudes between mL=2 y mL=3 on the scale indicated for this work. The anthropic effect, that is to say, the geotechnical negligence, increases drastically the frequency of landslides, as shown on previous figures. Such increase would correspond, if it were one rainfall event, to the effect produced by rainfalls with magnitude mL=4, it is, two orders of magnitude greater than the real average rainfalls. With the purpose of quantifying in terms of the number of landslides for each class of area size, theoretical quantities of road landslides and hillsides were calculated and compared to the real quantities. These results are presented on Tables 3, 4 and 5. The more noticeable differences are given on the data taken on slope failures on roads (Table 3). The class with average value of 2.8 x 10-5 km2, it is, 28 m2, presented a
Table 3. Difference between the amount of real and theoretical landslides on slope failures on roads. AL (km2) 2.80E-05 7.70E-05 2.15E-04 5.99E-04 1.67E-03 4.64E-03 1.29E-02 3.59E-02 Source: The authors.
# Theoretical
# Real
# Difference
0.4 2.3 21.9 70.7 64.0 26.7 7.9 2.0
14 35 49 36 40 12 2 1
-13.6 -32.7 -27.1 -34.7 24.0 14.7 5.9 1.0
frequency of 14 landslides, value that differs greatly from the theoretical that is 0,4. This difference, that in absolute terms corresponds to 13,6 landslides, indicates that the theoretical curve is two orders of magnitude bellow the real value for the class indicated. Note that for the classes with sizes greater than 6 x 10-4 km2 (600 m2) the difference between the theoretical and the real frequency is positive, it is, the theoretical curve is slightly above of the inventory points. Nevertheless, the absolute value is small in a way that is reasonable to assume that for big landslides (areas greater than approximately 600 m2) the theoretical distribution answers well to the statistic behavior of the inventory. The explanation lies on the geological nature of the materials affected by these landslides. Lands with susceptibility to mass movements, submitted to rainfall regimes like those that characterize the city of Medellín, certainly will externalize such susceptibility with a certain number of big landslides that is independent from having or not anthropic affectations. The roads then do not increase the occurrence of big landslides but, in contrast, increase, and a lot, the frequency of occurrence of medium and small landslides. The first is a problem that can be resolved, or at least can be prevented with an accurate geological characterization of the terrain for engineering purposes, practice that is scarcer, perhaps for the lack of geological engineers or for the intense diversion of the current towards more geological topics, scientifically speaking, and less applied. The second problem can be resolved with an adequate geotechnical practice, on which, cannot be stated, in this modest work, any philosophical argument. Table 4 presents the numbers correspondent to the inventory of rural hillsides. Although there are clear differences between the theoretical and the real values for small landslides, these are less than those observed and discussed on Table 3. The reasons have been already exposed. The field survey for this work can be considered complete for small landslides, while the theoretical function was deduced from incomplete inventory for the same type of landslides. Table 5 presents the frequencies for the complete inventory. As discussed before, small landslides (area smaller than 600 m2) are much more frequent that indicated by the theoretical distribution, that in function of the anthropic effect represented by the road cuts.
119
Muñoz et al / DYNA 81 (187), pp. 115-121. October, 2014. Table 4. Difference between the amount of real and theoretical landslides on rural hillsides. AL (km2) 3.20E-05 1.00E-04 3.16E-04 1.00E-03 3.16E-03 1.00E-02 3.16E-02 1.00E-01 Source: The authors.
# Theoretical
# Real
# Difference
0.2 1.8 17.0 32.6 16.7 4.6 1.0 0.2
1 5 43 52 19 4 1 0
-0.8 -3.2 -26.0 -19.4 -2.3 0.6 0.0 0.2
5. Conclusions
Table 5. Difference between the amount of real and theoretical landslides of the inventory. AL (km2) 2.80E-05 7.70E-05 2.15E-04 5.99E-04 1.67E-03 4.64E-03 1.29E-02 3.59E-02 Source: The authors.
# Theoretical
# Real
# Difference
0.4 2.3 21.9 70.7 64.0 26.7 7.9 2.0
15 37 70 94 70 23 3 2
-14.6 -34.7 -48.1 -23.3 -6.0 3.7 4.9 0.0
Table 6. Density of landslides according to the density on the roads. Density (NL/km) AL (km2) Theoretical Real 2.80E-05 7.70E-05 2.15E-04 5.99E-04 1.67E-03 4.64E-03 1.29E-02 3.59E-02 Source: The authors.
0.007 0.044 0.421 1.360 1.232 0.514 0.152 0.039
0.269 0.673 0.942 0.692 0.769 0.231 0.038 0.019
km2 (77 m2) the factor is 15 and for the class defined by the value of 2.15 x 10-4 km2 (215 m2) the factor is approximately 2. For landslides with areas bigger or equal to approximately 600 m2 the factor is on average 0,5.
Real / Theoretical 38.43 15.29 2.24 0.51 0.62 0.45 0.25 0.48
Due to the regional nature of the rainfall events and, in contrast, the local nature of the induced landslides on roads by anthropic effects, is important to study the frequency of occurrence of this processes by a procedure that considers their concentration by unit length of road or by unit area of hillside. Initially it would be difficult to reconcile on a rigorous analysis a 2D natured event (area affected by a rainfall event that deflagrates landslides) and a 1D natured event (road as a linear work). Nevertheless, it is possible to approach to the understanding of both phenomenon considering the total length of the segments of roads studied, which is 52 km. Table 6 shows the values of the frequency of occurrence of landslides normalized by the total length of the studied roads (NL/km). For the class correspondent to the value 2.8x10-5 km2 (28 m2) a normalized frequency of 0,007 landslides by lineal km of road (theoretical value) was calculated, while the value observed was 0,269, it is, approximately 38 times bigger. For the class correspondent to the average value of 7.7x10-5
Even though the inventory used is incomplete, it was possible to make a statistical management of the data using the method proposed by Malamud et al. [7], and from it, infer the statistic behavior of the landslides on the region where the data was taken using as a variable of analysis the exposed area of the landslides. The distribution obtained with real data, was adjusted to the theoretical for areas bigger or equal to 6x10-4 km2 (600 m2), while for the smaller frequencies of real landslides is much bigger than the indicated on the theoretical distribution. Dividing the inventory between landslides occurred on slope failures and landslides occurred on rural hillsides, allowed to notice that the second adjust much better to the theoretical distribution than the first, which can be explained by the anthropic effect. Besides, the above indicates that the big landslides, it is those that have an area bigger than 6x10-4 km2, are hardly affected by human activities. When normalizing the frequency of occurrence of landslides by the total length of the roads studied it is concluded that: For landslides with average areas around 2.8x10-5 km2 (28 m2), only one of 38 landslides occurred on slope failures is caused exclusively by the natural combination of unfavorable geotechnical conditions and rainfall events. For landslides with average areas of 7.7x10-5 km2 (77 m2), only one of 15 landslides occurred on slope failures is caused exclusively by the natural combination of unfavorable geotechnical conditions and rainfall events. For landslides with average areas of 2.15x10-4 km2 (215 m2), only one of 2 landslides occurred on slope failures is caused exclusively by the natural combination of unfavorable geotechnical conditions and rainfall events. For landslides with average areas bigger than approximately 6x10-4 km2 to 7x10-4 km2 (600-700 m2), is not possible to impute its occurrence to anthropic action. At the most, and this has to be proven, the effect of cuts made without the proper geotechnical cares could accelerate natural processes that are already present. In this case is emphasized the importance of making detailed engineering geology studies focused on characterization (Geological/geotechnical zoning) of the terrain on stages previous to the implementation of a construction. Considering valid the universality hypothesis of the theoretical distribution proposed by Malamud et al. [7] to explain the statistic behavior of the landslides areas on complete inventories, it can be concluded that even though there is a certain natural propensity of the hillsides of Medellín to present mass movements, is not the rainfall events that are responsible for the high number of this
120
Muñoz et al / DYNA 81 (187), pp. 115-121. October, 2014.
processes, as it is the local geotechnical practice. Small landslides are clearly deflagrated by the anthropic action, with factors of 1:38 in relation to the natural trigger (Rainfall). References [1]
AMVA, Municipios Valle de Aburrá. Revisión sistemática, Medellín, Colombia, Área Metropolitana del Valle de Aburrá, [en línea], 2012. [date of reference July 20th of 2012]. Available at: http://www.areadigitalgov.co/institucional/Paginas/municipios.aspx. [2] Aristizábal, E., Martínez, H. & Vélez, J.I., Una revisión sobre el estudio de movimientos en masa detonados por lluvias, Revista de la Academia Colombiana de Ciencias Exactas, físicas y Naturales, 34 (131), pp. 209-227, 2010. [3] Bucknam, R.C., Coe, J.A., Chavarria, M.M., Godt, J.W., Tarr, A.C., Bradley, L.A. and Johnson, M.L., Landslides triggered by hurricane Mitch in Guatemala – Inventory and discussion, United States, U.S. Geological Survey, 01-0443, 2001, [4] Cardinali, M., Ardizzone, F., Galli, M., Guzzetti, F. and Reichenbach, P., Landslides triggered by rapid snow melting: The December 1996-January 1997 event in Central Italy, plinius conference [1st, 1999, Maratea], Proceedings Plinius Conference ´99, Maratea, Claps and F. Siccardi, 2012, pp. 439-448. [5] Gobernación de Antioquia., Datos de Antioquia. Revisión sistemática, Medellín, Colombia, Gobernación de Antioquia, [en línea], 2012 [date of reference July 25th of 2012]. Available at: http://www.antioquia.gov.co/index.php/sobre-antioquia/antioquia. [6] Harp, E.L. and Jibson, R.L., Inventory of landslides triggered by the 1994 Northridge, California earthquake, United States, U.S. Geological Survey, 1995, pp. 95-213. [7] Malamud, B.D., Turcotte, D.L., Guzzetti, F. and Reichenbach, P., Landslide inventories and their statistical properties. Earth Surface Processes and Landforms, 29 (6), pp. 687–711, 2004. [8] Mantovani, F., Soeters, R. and Van Westen, C.J., Remote sensing techniques for landslide studies and hazard zonation in Europe. Geomorphology, 15 (3), pp. 213–225, 1996. [9] Nichol, J. and Wong, M.S., Satellite remote sensing for detailed landslide inventories using change detection and image fusion, International Journal of Remote Sensing, 26 (9), pp.1913–1926, 2005. [10] Singhroy, V., Mattar, K.E. and Gray, A.L., Landslide characterisation in Canada using interferometric SAR and combined SAR and TM images, Advances in Space Research, 21 (3), pp.465– 476, 1998. [11] Van Den Eeckhaut, M., Reichenbach, P., Guzzetti, F., Rossi, M. and Poesen, J., Combined landslide inventory and susceptibility assessment based on different mapping units: an example from the Flemish Ardennes, Belgium. Natural Hazards and Earth System Science, 9 (2), pp. 507–521, 2009. [12] Aristizábal, É. and Yokota, S., Geomorfología aplicada a la ocurrencia de deslizamientos en el Valle de Aburra. DYNA, 73 (149), pp. 5-16, 2006.
Nacional de Colombia, Medellín, Colombia. Link for complete information about the author: http://lattes.cnpq.br/2409917419986324 J. A. Arévalo-Cardona, received the Bs. Eng. in Civil Engineering in 2013 from the Universidad Nacional de Colombia, Medellín. Colombia. From 2011 to 2013 he worked for the geotechnical area of INTEGRAL S.A, a civil engineering consulting company. Currently he works for GEO2 S.A.S, another geotechnical consulting company. D. Alvira, received the Bs. Eng. in Geology Engineering from the Universidad Nacional de Colombia, Medellín. Colombia.
E. Muñoz-Hoyos, received the Bs. Eng. in Civil Engineering in 2012 from the Universidad Nacional de Colombia, Medellín, Colombia and the MSc. degree in Geotechnical Engineering in 2014, from the Universidade de Brasília, Brazil. From 2009 to 2012 worked for the Universidad Nacional de Colombia as a student assistant in research and extension projects. Her research interests include: rainfall-triggered landslides, numerical and probabilistic methods. H. E. Martinez-Carvajal, received the Bs. Eng. in Geology Engineering in 1995 from the Universidad Nacional de Colombia, Medellín, Colombia; the MSc. degree in Soil Mechanics in 1999, from the Universidad Nacional Autonoma de Mexico – UNAM, Mexico and the DSc. degree in Geotechnique in 2006. from the University of Brasilia, Brazil. From 1993 to 1999 worked for civil engineering consulting companies as field geology and soil exploration. Currently is Associated professor of the Civil and Environmental Engioneering Department at the University of Brasilia, Brazil and lecturer professor at the Facultad de Minas of the Universidad 121
Electrodes friendly with the environment for detect heavy metal Jairo Alberto Barón-Jaimez a, José Luddey Marulanda-Arévalo b & José José Barba-Ortega c. a Universidad Nacional Autónoma de México, México. Grupo GIMAV, Universidad Tecnológica de Pereira, Colombia. jlmarulanda@utp.edu.co c Departamento de Física, Universidad Nacional de Colombia, Bogotá, Colombia. jjbarbao@unal.edu.co b
Received: November 9th, 2013. Received in revised form: June 3th, 2014. Accepted: June 9th, 2014.
Abstract In the last centuries, heavy metals have been extracted and processed industrially; today, they are part of our food chain and their detection has generated great international interest due to adverse effects, beyond allowed amounts for humans. For many years, mercury electrodes have been used to detect heavy metals; however, due to the new regulations and its high toxicity, new alternatives for its replacement as electrode in electroanalytical techniques have been investigated. Bismuth electrodes have been positioned as an alternative to this type of activity because of its many features similar to mercury and low toxicity. This paper provides an overview of this new type of electrode, along with different parameters to consider in order to obtain better results Keywords: Bismuth, Electrodes, Voltammetry, Heavy Metals.
Electrodos amistosos con el medio ambiente para detectar metales pesados Resumen Los últimos siglos, los metales pesados han sido extraídos y procesados industrialmente; hoy en día, hacen parte de nuestra cadena alimenticia y su detección ha generado gran interés a nivel internacional debido a los efectos adversos, en cantidades más allá de las permitidas para el ser humano. Por muchos años, los electrodos de mercurio han sido utilizados para detectar metales pesados; sin embargo, debido a las nuevas regulaciones y su alta toxicidad, nuevas alternativas para su reemplazo como electrodo en las técnicas electroanalíticas han sido investigadas. Los electrodos de Bismuto se han situado como una alternativa para este tipo de actividad debido a sus múltiples características semejantes a las del mercurio y su baja toxicidad, en este documento se presenta un panorama de este nuevo tipo de electrodo, junto con diferentes parámetros a tener en cuenta para obtener mejores resultados. Palabras clave: Bismuto, Electrodos, Voltamperometría, Metales Pesados
1. Introduction Heavy metals are natural components of the Earth’s crust. They cannot be degraded or destroyed. Their trace elements are considered to be one of the main sources of pollution in the environment. To a small extent they enter our bodies via food, drinking water and air. As trace elements, some heavy metals (e.g. copper, zinc) are essential to maintain the metabolism of the human body; However, even at low concentrations some of them can be toxic, for this reason they are recognized as highly toxic and dangerous contaminants, only pesticides outweigh their danger and toxicity [1,2,3,4]. Increasing industrialization has been accompanied throughout the world by the extraction and distribution of
mineral substances from their natural deposits. Many of these have undergone chemical changes through technical processes and finally, they stay finely dispersed through effluent into water, earth, air and thus into the food chain, It is unlikely that they can be removed, by washing (e.g. lead and cadmium contamination). Besides, the contamination by fertilizers and insecticides is becoming an increasing problem, their widespread use results in their frequent appearance in the environment and foods [2,4,5]. The importance of controlling the levels of these pollutants in natural waters, drinking water, sediments and industrial waste has become an international political topic, so it has generated great interest in the development of new analytical methodologies for pollution level determination [2,6]. Different techniques and methods have been developed for
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 122-128. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40758
Barón-Jaimez al / DYNA 81 (187), pp. 122-128. October, 2014.
trace metals determination, atomic absorption spectrometry (AAS), electrothermal atomic absorption spectrometry (ETAAS), Neutron activation techniques, flame atomic absorption spectrometry (FAAS), inductively coupled plasma atomic emission spectrometry (ICP-AES), inductively coupled plasma mass spectrometry (ICP-MS), and inductively coupled plasma optical emission spectrometry (ICP-OES), but they are not used frequently because of the specialized techniques, long time, high cost, and are unsuitable for applications in the field. In addition, the analysis must be performed in a specialized laboratory by skilled personnel [1,4,6,7]. Electrochemical stripping analysis has long been recognized as a powerful technique for trace metals owing to its remarkable sensitivity, relatively inexpensive instrumentation, ability for multielement determination and capacity to determine elements accurately at trace and ultra-trace levels [4], and is beginning to be considered the most sensitive electro-analytical technique for the determination of trace metals in samples of environmental, clinical and industrial origin [8,9,10]. Its extraordinary sensitivity is attributed to its effective step of pre-concentration "this step generates a best sensitivity, with an increase of 2 or 3 orders of magnitude" together with advances in electrochemical measurements of accumulated analyte [3,11,12]. In this review, we provide an overview of different works related to Bi electrodes and their applications for the detection of heavy metals and other substances in environmental, food and clinical samples. 2. Stripping voltammetry Among of different voltammetric techniques, stripping voltammetry (SV) has been receiving considerable attention since it is the most sensitive electroanalytical technique, μgL-1 (ppb) and even ngL-1 (ppt) detection limits have been reported, and over the last decade it has evolved into a very versatile and powerful analytical technique. This electrochemical method encompasses a variety of electroanalytical procedures having a common characteristic initial step. In all these procedures; the analyte of interest is accumulated on a working electrode by controlled potential electrolysis, while the solution is stirred. After a short rest period (a few seconds), this preconcentration step is followed by the stripping step, which involves the dissolution of the deposit when a potential sweep is applied to the electrode. Thus, a detectable current is produced at the electrode surface following the oxidation or reduction of the analyte at a characteristic potential [13-16]. By careful interpretation of the resulted peak shape from current–potential voltammogram recorded during the stripping step, important and desired analytical information is readily obtained. The peak potential (position of Ep) is characteristic of the given substance and thus it can be used for qualitative identification, whereas the peak current Ip is proportional to the concentration of the corresponding analyte in the test solution. This analytical quantitative information can be obtained from the height or area of the stripping voltammetric peak. Since stripping curves/peaks for various analytes occur at characteristic potentials, hence several species can often be determined simultaneously. [3,14-16].
Figure 1, Voltammetry and the principal response curve. Source: [15].
3. Potential window All voltammograms of Bismuth displayed a wide flat middle potential region called “potential window”, which is ubicated between -1.2 to -0.2 V vs. SCE (Saturated Calomel Electrodes) approximately [11]. This potential window can be moved to more negative or positive potentials in accordance with the pH; for high pH, the potential window is displaced to more negative potentials and for low pH the contrary. However, it should be contemplated that for more negative potentials (cathodic side) the reduction of hydrogen ions caused an increase in the background current. This also happened at more positive potentials (anodic side) caused by the oxidation of bismuth [9]. In some studies, it has been described that the peak current is affected by the pH, for example, the peak current of cadmium was at maximum value, the reduction of peak current were decreasing both at lower and higher pH values due to the protonation of coordination sites of the ligand and the hydrolysis of the Cd(II), respectively [17].
Figure 2, DC voltammograms taken on the photolithographically fabricated Bi-sputerred electrode in different media: (i) 0.1 mol L-1 ammonia buffer (pH 9.5); (ii) 0.1 mol L-1 acetate buffer (pH 4.5); 0.1 mol L-1 HNO3 (pH 1) Scan rate 50 mVs-1. Source:[9].
123
Barón-Jaimez al / DYNA 81 (187), pp. 122-128. October, 2014.
Generally, for the determination of Cd(II) and Pb(II), strongly acidic media are avoided to prevent excessive hydrogen evolution that could interfere with the deposition process and alkaline media are avoided because of the limited anodic range that would cause difficulties in the determination of Pb (since in alkaline media bismuth oxidizes at a more negative potential) [9].
4. Bismuth electrodes Since the invention of polarography by Heyrovsky [3,18]; Mercury in the form of the hanging mercury drop electrode (HMDE) or the mercury-film electrode (MFE) has been the most common electrode material in electroanalysis [8-11,18-21]. The advantages of mercury based electrodes are numerous, such as the high hydrogen overpotential allowing its use at useful negative potentials, the sensitivity and reproducibility; however, because of the toxicity of mercury, and recent and future regulations, occupational health considerations may severely restrict the use of mercury. It is important to develop environmental friendly electrodes for stripping voltammetric determination of heavy metals [9-12, 16-23]. Metals such as Au, Ag, Sb, Ir, W as well as bare and coated carbon electrodes have all been investigated for stripping analysis of metals but none of these materials was found to be an acceptable replacement for common mercury electrodes [10,11,18]. In 2000, a new type of electrode, the BiFEs (Bismuth Film Electrodes), was proposed as an alternative to MFEs (Mercury Film Electrodes) [8,9,18,19,23]. In particular, its inherent low toxicity, the property of bismuth to form “fused alloys” with heavy metals at low temperature, facilitating the nucleation process during accumulation of heavy metal ions, insensitivity to dissolved oxygen (essential characteristic for onsite Monitoring), relatively large applicable negative potential window, well-defined and undistorted stripping signal, excellent resolution of neighboring peaks together with high sensitivity and simple preparation suggest wider practical application of bismuthbased electrodes [10-12,19-21,23,24]. Bismuth film electrodes (BiFEs) consisting of a “film” of bismuth on a suitable substrate, among the various substrate materials for BiFEs, are gold, platinum, silicon, glassy carbon, carbon fiber, bored doped diamond, screen printed carbon ink, wax impregnated graphite, pencil-lead, carbon paste electrode (CPE), the choice is determined by costs, commercial availability, easy preparation, renewable surface and stability in various solvents [3,8,12,13,17,22,26]. These electrodes are applicable for measurements of electroplated elements with standard potentials more negative than bismuth. In some instances, it may be possible to apply the bismuth electrode for measuring metals with more positive potentials. One example involves trace measurements of copper [10]. Research has been focused on the measurement of trace lead, cadmium, and zinc, copper, indium, tin, thallium, nickel, uranium, aluminum and cobalt, in some cases assessment of the formation and prevention of intermetallic compounds, showing new insights into the performance of bismuth-coated electrodes [10,11]. Different parameters should be considered in ASV with this kind of electrodes, among others:
Figure 3, Effect of the accumulation time on the stripping peak height for a solution containing 20 µgL-1. Source: [8].
The deposition time and its effect, is an important factor on the stripping peak heights of different elements to be detected, the responses of the metals increases “lineally” with increasing the deposition time in a first zone. When the deposition time exceed the optimum time, the peak currents became almost constant “second zone”, indicating that the amount of element to detect on the electrode surface achieves saturation [20,21,23]. Accumulation potential is another important parameter that influences the sensitivity of the determination of element in stripping techniques, when accumulation potentials shift to more negative potential than the optimum; the peak currents became poor, because hydrogen reduction is beginning to be significant at such negative potentials. The hydrogen bubbles might damage the metal alloys deposited on the electrode surface and lead to decrease in current signals at very negative potentials. In addition, some other chemicals may be reduced, which can affect the selectivity of the electrode and interfere in the determination. For potentials more positive than the optimum potential, the background current became higher [12,17,21,23].
Figure 4. Effect of accumulation potential on the peak current of 50 µgL-1 Cd (II). Conditions: 0.1 M acetate buffer (pH 4.0); 0.4 mgL-1 Bi (III); 0.04 mM cupferron; tacc 60s; Epulse 80 mV; Estep 5 mV; frequency 25 Hz. Source: [17].
124
Barón-Jaimez al / DYNA 81 (187), pp. 122-128. October, 2014.
When stripping voltammetry is carried out in situ, it is important to know the effect of the bismuth concentration, although the thickness of the film not affected by the peak position of any metals, at lower concentrations that the optimum concentration of Bi, there is not sufficient to form a multicomponent of Bi with the metals; in contrast, when the Bi concentration is higher, bismuth will hold back the target metals, and affect the peak currents of metals [21,23,27,28].
Figure 7, the effect of the acetate buffer concentrations on the stripping currents of Cd and Pb at a BiF-ZDCPE. The concentration of the acetate buffer varies from 1.0 mM to 1.0M range. Source: [12].
Figure 5, Effects of bismuth content on the peak height for 100 ppb lead and cadmium. Supporting electrolyte: 0.1M acetate buffer (pH 4.5); preconcentration potential: −1.2V; preconcentration time: 300 s; frequency: 50 Hz; pulse height: 50mV; step increment: 5 mV. Source: [28].
Figure 8, DPASV measurements of Zn(II) in a BiFE, signal splitting effect observed during the measurements of a 2.3×10−6 mol L−1 Zn(II) solution in 0.01 mol L−1 KNO3 applying a deposition potential of −1.60V and a deposition time between 5 and 300 s. Source: [18].
Fig. 6, Effect of pH on the peak current of 50 µg L-1 Cd(II). Conditions: 0.5 mg L-1 Bi(III); 0.02 mM cupferron; Eacc -0.4 V; tacc 60 s; Epulse 80 mV; Estep 5 mV s-1; frequency 25 Hz. Source: [17].
The pH affects the peak current [17,20,21], the peak current decreases both at lower and higher than optimum pH values due to the protonation of coordination sites of the ligand and the hydrolysis to the Cd(II) [17]. The effect of the concentrations of the acetate buffer was studied too, “BiF-ZDCPE electrodes”. The results show that the stripping currents for Cd and Pb increased rapidly with the increase of the buffer concentrations from 1.0mM to 0.10 M. At high concentration of acetate buffer (>0.10 M), the stripping signals of both Cd and Pb decreased slightly. This indicates that the metal-Bi alloy formation under the
applied conditions strongly depends on the ionic strength of the solution, clearly [12]. In most of the work, the form of current peak is isometric, evidencing a unique peak; however, in some case, the voltammgrams can produce two overlapping peaks, the reasons for such peak splitting are unclear and to know which peak will predominant, too (first or second signal); however, it should be related with the deposition step, one possible explanation is that two layers (or two different association mechanisms) are present in the electrode [3,19]. The formation of intermetallic compounds is considered a serious interference in the determination of some heavy metals by ASV on BiFEs. The well-known interference of Cu (II) in the determination of Pb and Cd has been reported previously on electroplated BiFEs, both cadmium and lead do not compete with the bismuth for the surface site; the stripping behavior of copper at the bismuth coated electrode is different and this affects the current peak of Bi. The
125
Barón-Jaimez al / DYNA 81 (187), pp. 122-128. October, 2014.
Figure 9, Square-wave anodic stripping voltammograms (SWASV) AT (a) Bi-CPE, (B) CPE and (C) BiPE for 150µg/L Cd (II) + Pb (II) in a nondeareated 0.2M acetate buffer solution. Deposition potential and time: 1.0V and 60 s. SWV settings: frequency 25 Hz, step potential 4mV, and amplitude 50 mV. Source: [13].
interference of Cu (II) has been attributed both to the formation of mixed compounds “Example Cu-Zn” and to the undesired deposition of Cu instead of Bi. Some works show how this interference can be alleviated by the addition of element different (Ga, ferrocyanide) in the sample solution [9,10,27]. 5. Modified Bi electrodes Several methods for the generation of the bismuth film have been reported including modified electrode of bismuth powder, bismuth precursor compounds (such as Bi2O3 or BiPO4), disposable bismuth-coated porous screen-printed carbon electrode (Bi-P-SPCE), bismuth-enriched alloys and ultrasound-facilitated bismuth film formation. Bismuthpowder modified with carbon paste results in a convenient and reliable electrochemical sensor for trace heavy metal detection in conjunction with stripping electroanalysis, which has favorable properties with respect to other bismuth-based electrodes. The most common methods for the generation involves in situ or ex situ electrochemical plating by reduction of Bi (III) ions to metallic bismuth on a suitable supporting material [13,22, 28-30]. Different kinds of modified Bi electrodes have been studied to improve the electroanalytical characteristics in accordance with the mechanical and electrochemical properties of the new component. Polymeric membranes can protect the bismuth surface against abrasion, adsorption of surface-active compounds and formation of intermetallic compounds; offering a well-defined stripping peak with favorable signal-to-background characteristics, not prone to oxygen interference and enhance the sensitivity of the bismuth film for determining heavy metals. Modified Bismuth electrodes with membranes such as overoxidized poly-1-naphtylamine, poly (sodium 4-styrenesulfonate), bismuth/poly (aniline) and poly (paminobenzene sulfonic acid) (poly(p-ABSA)) can avoid the interference and stabilize the thin film at the substrate surface by creating a
Figure 10, Square wave anodic stripping voltammetry responses of Cd(II) at the bare glassy carbon electrode (GC) (a), stannum-film electrode (SnFE) (b), bismuth-film electrode (BiFE) (c), stannum/bismuth-film electrode (d), Sn/poly(p-ABSA) film electrode (e), Bi/poly(p-ABSA) film electrode (f), and Sn/Bi/poly(p-ABSA) film electrode (g) in 0.10 M acetate buffer solution (pH 4.0). (a) 20 µg L-1 Cd(II); (b and e) 20 µg L-1 Cd(II) and 5.0 mg L-1 Sn(II); (c and f) 20 lg L_1 Cd(II) and 5.0 mg L-1 Bi(III); (d and g) 20 lg L-1 Cd(II), 3.0 mg L-1 Bi(III), and 2.0 mg L-1 Sn(II). Deposition potential: -1.1 V; deposition time: 150 s; quiet time: 10 s; frequency: 35 Hz; pulse amplitude: 75 mV; scan increment: 2 mV. Source: [23].
framework for mechanical support and strong adherence to the electrode surface, this is very attractive for practical stripping applications, but by far the most widespread studied coating films are composed of Nafion. Nafion is chemically and thermally inert, non-electroactive, conductive and insoluble in water and is, therefore, particularly suitable for the modification of electrodes. In addition to its protective properties, Nafion acts as an ionexchanger facilitating the preconcentration of cationic target analytes, helps to mechanically stabilize the underlying bismuth layer and, under certain circumstances, can improve the detection sensitivity [21,23,27,31]. The sensitivity of the modified electrodes can improve significantly with the incorporation of metallic stannum [23]. In recent years, the antimony-film electrode (SbFE) has been reported to perform similar to the BiFE in ASV; this newly proposed electrode offers a remarkable performance in more acidic solutions (pH≤2), which can be advantageous in electrochemical analysis of trace heavy metals [20]. Some works show how the addition of an analytical reagent in a small amount, can enhance the current peak in the determination of some heavy metals. Cupferron in the range 0.0 to 0.1 Mm improve electrochemical signal of Cd (II) about two times. This enhancement of the electrochemical signal for Cd (II) can be improved when the concentration of Nafion increases in small percentage [17]. Other material have been added to the Bismuth electrodes such as Zeolite, the increase of zeolite content up to 5% in the carbon paste improves the stripping currents of Cd, Pb, and Bi. This can be attributed to the good ion exchange properties of zeolite. However, when the content of zeolite in the carbon paste was higher than 5%, all the peak currents of the metals decreased. The reasons may be attributed to zeolite being an insulator [12].
126
Barón-Jaimez al / DYNA 81 (187), pp. 122-128. October, 2014.
References [1]
[2] [3] [4]
Figure 11, Effect of cupferron concentration on the peak current of 50 µg L-1 Cd(II) in 0.1 M acetate buffer pH 4.0, 0-0.3 mM cupferron. Conditions: Eacc -0.4 V; tacc 60 s. Source: [17].
[5]
6. Important of the research
[6]
Heavy metals have become a focus of public interest since analytical techniques have made it possible to detect them even in very small traces. Lead has been mined since ancient times and has been processed in many ways. Cadmium exists in low concentrations in all soils and today is regarded as the most serious contaminant of the modern age, because is absorbed by many plants, sea creatures and, because of its toxicity, it presents a major problem for foodstuffs. Similarly the contamination by fertilizers and insecticides become an increasing problem, the widespread use result in their frequent appearance in the environment and foods, such as nitroguianidine neonicotinoid [2,5]. Bismuth electrodes have been applied to detect heavy metals in different samples such as biological sample (hair, urine, sweat, saliva [20] and blood [3], environment samples (air [3], tap water [3,12,13, 19-21, 23] sewage water [3,12, 13] river water [3,9,21] lake water [31], soils [3,20], foods (Cabbage, Lettuce, Celery, spinach [27], tea, wine and tomato sauce[3]), marine algae [17], plant extracts [20] and gasoline[3]. Other interesting applications of Bismuth Electrodes have begun to draw attention such as the determination of daunomycin, an effective drug used for cancer chemotherapy [11]. For the last thirteen years, studies of different Bi and modified Bi electrodes have shown that they can be considered an important environmental opportunity to voltammetry. Lead and cadmium are some of the metals most referenced in these works with Bismuth electrodes, maximum safe limits defined by the World Health Organization (WHO) for Lead are 10 μg/L for drinking water, 0.3 μg/g for vegetables and 0.2 μg/g for maize and bean. Similarly, for Cadmium, the maximum content recommended in tap water is 3.0 μg/L [20,32,33], these values can be detected according to the detection limits presented in the different investigations. Bi electrodes are emerging as one of the best potential replacements for mercury electrodes in order to implement the new stringent regulations for heavy metals (Hg, Cadmium, Lead, etc.) due to their multiple electroanalytical characteristics.
[7]
127
[8]
[9]
[10] [11]
[12]
[13]
[14] [15] [16] [17]
[18]
[19] [20]
Suwannasom, P. and Ruangviriyachai, C., Simultaneous quantification of Cd, Cu, Pb and Zn in Thai fermented food by DPASV with a microwave digestion, International Food Research Journal, 18, pp. 803-808, 2011. Auroville, Innovative Urban Management IND-015, Heavy metals and pesticides residue in the foodstuff, Final Report, Annexes, 2003, pp. 1-9. Barón-Jaimez J.A., Electrodos de Bismuto para Detectar Metales Pesados, MSc. Tesis, Universidad Nacional Autónoma de México UNAM, México, 2012. He, X., Liping, Z., Dekun, H., Yuezhong, X. and Litong, J., A Nafion-coated bismuth film electrode for the determination of heavy metals in vegetable using differential pulse anodic stripping voltammetry: An alternative to mercury-based electrodes, Food Chemistry, 109, pp. 834–839, 2008. Guzsvány, V., Papp, Z., Zbiljić, J., Vajdle, O. and Rodić, M., Bismuth modified Carbon-Based electrodes for the determination of selected neonicotinoid insecticides, Molecules, 16, pp. 4451-4466, 2011. IFCS, Metales pesados: ¿Necesidad de más acciones globales?, 5ta Reunión del Foro Interguvernamental de Seguridad Química, Budapest, Hungría, pp. 1-16, 2006. Estévez-Hernández, O.L., Furoiltioureas: Naturaleza de sus complejos con CdCl2 y HgCl2 y su utilización en sensores electroquímicos, Tesis, Universidad de Cádiz, España, 2006. Kokkinos, C., Raptis, L. and Economou, A., Disposable microfabricated electrochemical bismuth sensors for the determination of Tl(I) by stripping voltammetry Speliotis T., Procedia Chemistry, I, pp. 1039 -1042, 2009. Kokkinos, C., Economou, A., Raptis, I. and Efstathioua, C., Lithographically fabricated disposable bismuth-film electrodes for the trace determination of Pb(II) and Cd(II) by anodic stripping voltammetry, Electrochimica Acta, pp. 5294-5299, 2008. Wang, J., Lu, J., Kirgöz, U., Hocevar, S. and Ogorevc, B., Insights into the anodic stripping voltammetric behavior of bismuth film electrodes, Analytical chimical Acta, 434 pp. 29-34, 2001. Duwensee, H., Adamovski, M. and Flechsig, G.U., Adsorptive stripping voltammetric detection of daunomycin at mercury and bismuth alloy electrodes, International Journal of Electrochemical Science, 2, pp. 498-507, 2007. Caoa, L., Jia, J. and Wang, Z., Sensitive determination of Cd and Pb by differential pulse stripping voltammetry with in situ bismuthmodified zeolite doped carbon paste electrodes, Electrochimica Acta, 53, pp. 2177-2182, 2008. Hocevar, S., Svancara, I., Vytras, K. and Ogorevc, B., Novel electrode for electrochemical stripping analysis based on carbon paste modified with bismuth powder, Electrochimica Acta, 51, pp. 706-710, 2005. Alghamdi, A.H., Applications of stripping voltammetric techniques in food analysis, Arabian Journal of Chemistry, 3, pp. 1-7, 2010. Cornelis, R., Crews, H., Caruso, J. and Heumann, K., Handbook of elemental speciation: Techniques and methodology, Chapter 5.9 Speciation Analysis by Electrochemical Methods, 2003. Baron, J., Silva-Bermudez, P. and Rodil, S.E., Sputtered Bismuth thin films as trace metal electrochemical sensors. Materials Research Society. Symp. Proc., Vol. 1477, 2012. Meepun, N., Siriket, S. and, Dejmanee, S., Adsorptive stripping voltammetry for determination of Cadmium in the presence of Cupferron on a Nafion-coated Bismuth film electrode, International Journal of electrochemical Science, 7, pp. 10582-10591, 2012. Serrano, N., Alberich, A., Díaz-Cruz, J.M., Ariño, C. and Esteban, M., Signal splitting in the stripping analysis of heavy metals using bismuth film electrodes: Influence of concentration range and deposition parameters, Electrochimica Acta, 53, pp. 6616-6622, 2008. Prior, C., Lenehan, C. and Stewart-Walker, G., Utilising gallium for enhanced electrochemical copper analysis at the bismuth film electrode, Analytical Chimica Acta, 598, pp. 65-73, 2007. Jiao, Y.W., Li, Y., Ran, G., Qun, L.H. and Bing, L.N., Determination of cadmium (II) by square wave anodic stripping
Barón-Jaimez al / DYNA 81 (187), pp. 122-128. October, 2014.
[21]
[22]
[23]
[24]
[25]
[26] [27]
[28]
[29]
[30]
[31]
[32] [33]
voltammetry using bismuth–antimony film electrode, Sensor and Actuators B, 166-167, pp. 544-548, 2012. Wu, Y., Bing, L.N. and Qun, L.H., Simultaneous measurement of Pb, Cd and Zn using differential pulse anodic stripping voltammetry at a bismuth / poly (p-aminobenzene sulfonic acid) film electrode, Sensor and Actuators B, 133, pp. 677-681, 2008. Kokkinos, C., Economou, A, Raptis, I., Efstathiou, C. and Speliotis, T., Novel disposable bismuth-sputtered electrodes for the determination of trace metals by stripping voltammetry, Electrochemistry communications, 9 (12), pp. 2795-2800, 2007. Xiong, Ch.H., Luo, H.Q. and, Li, B.N., A stannum/bismuth/poly(paminobenzene sulfonic acid) film electrode for measurement of Cd (II) using square wave anodic stripping voltammetry, Journal of Electroanalytical Chemistry, 651 (1), pp. 19-23, 2011. Bedoya, C.M., Pinzón, M.J., Alfonso, J.E., Restrepo, E. and Olaya, J.J., Physical-Chemical Properties of Bismuth and Bismuth Oxides: Synthesis, Characterization and Applications, DYNA, 79 (176), pp. 139-148, 2012. Kokkinos, C., Raptis, I., Economou, A. and Speliotis, T., Disposable micro-fabricated electrochemical bismuth sensor for the determination of Tlv(I) by stripping voltammetr, Procedia Chemistry I, pp. 1039-1042, 2009. Economou, A., Bismuth-film electrodes: Recent developments and potentialities for electroanalysis, TrAC Trends in Analytical Chemistry, 24 (4), pp. 334-340, 2005. Xu, H., Zeng, L., Huang, D., Xian, Y. and Jin, L. A Nafion-coated bismuth film electrode for the determination of heavy metals in vegetable using differential pulse anodic stripping voltammetry: An alternative to mercury-based electrodes, Food Chemistry, 109, pp. 834-839, 2008. Hwang, G.H., Han, W.K., Hong, S.J., Park, J.S. and Kang, S.G., Determination of trace amounts of lead and cadmium using a bismuth/glassy carbon composite electrode, Talanta, 77, pp. 1432– 1436, 2009. Kadara, R. and Tothill, I., Development of disposable bulk-modified screen-printed electrode based on bismuth oxide for stripping chronopotentiometric analysis of lead (II) and cadmium (II) in soil and water samples, Analytica Chimica Acta, 623, pp. 76–81, 2008. Chen, C., Niu, X., Chai, Y., Zhao, H. and Lan, M., Bismuth-based porous screen-printed carbon electrode with enhanced sensitivity for trace heavy metal detection by stripping voltammetry, Sensors and Actuators B, 178, pp. 339– 342, 2013. Kokkinos, C., Economou, A., Disposable Nafion-modified microfabricated bismuth-film sensors for voltammetric stripping analysis of trace metals in the presence of surfactants, Talanta 84 (3), pp. 696-701, 2011. European Commission, Lead Standard in Drinking Water. 11th plenary, of 11 January 2011. Makokha, A., Mghweno, L., Magoha, H., Nakajugo, A. and Wekesa, J., Environmental lead pollution and contamination in food around Lake Victoria, Kisumu, Kenya, African Journal of Environmental Science and Technology, 2 (10), pp. 349-353,2008.
He received his PhD degree in Physics in 2007, and from 2007 to 2009, he obtained Post-doctoral experience from the Universidade Federal de Pernambuco, Recife, Brasil. Currently, he is a Full Professor in the Physics Department in the Universidad Nacional de Colombia, Bogotá. His research interests include computational simulations in superconducting mesoscopics and low dimension semiconducting systems including numerical methods.
J. A. Barón-Jaimez, received the Bs. Eng. in Metallurgical Engineering in 2000 from the Universidad Industrial de Santander, Colomba. In 2012, he obtained a MSc. in Science and Materials Engineering from the Universidad Nacional Autonoma de Mexico, Mexico. Currently, he is a failure analysis Engineer in the oil and gas area. His research interests include detection of heavy metals in solutions and foods using electrochemical techniques. J. L. Marulanda-Arévalo, received the Bs. Eng. in Metallurgical Engineering in 1999 and an MSc. in Metallurgical Engineering in 2002 from the Universidad Industrial de Santander, Colombia. In 2012 obtained his PhD. degree in Advanced Chemistry from the Complutense University of Madrid, Spain. Since 2006, he works as a professor at the Universidad Tecnológica de Pereira in the Faculty of Mechanical Engineering. His research interests include corrosion, welding, coatings, tribology and electrochemistry. J. J. Barba-Ortega, received a BSc. In Physics in 2000 and an MSc. in Physics in 2003, from the Universidad Industrial de Santander, Colombia. 128
Electrodissolution aluminum electrode during an electrocoagulation acid whey Francisco Prieto-García a, Judith Callejas-Hernández b, Víctor Esteban Reyes-Cruz c, Yolanda Marmolejo-Santillán d & Judith Prieto-Méndez e a Área Académica de Química, Universidad Autónoma del Estado de Hidalgo, México. prietog@uaeh.edu.mx Área Académica de Química, Universidad Autónoma del Estado de Hidalgo, México. judith_callejas@yahoo.com.mx c Área Académica de Ciencias de la Tierra y Materiales, Universidad Autónoma del Estado de Hidalgo, México. reyescruz16@yahoo.com d Área Académica de Química, Universidad Autónoma del Estado de Hidalgo, México. llola56@yahoo.com.mx; e Área Académica Agroindustrial Universidad Autónoma del Estado de Hidalgo, México. jud_292003@yahoo.com.mx b
Received: November 11th, de 2013. Received in revised form: June 9th, 2014. Accepted: June 10th, 2014
Abstract Electrodissolution of aluminum in solutions containing chloride or sulfate ions during electrocoagulation acid whey, has been the objective of this work. The alkaline pH increases the rate of dissolution by several orders of magnitude. The electrolytic medium (Cl- or SO42-) does not seem to significantly influence the dissolution of aluminum, but increase the charge density, which helps in the electrochemical process. The results are related to the nature of aluminum hydroxide species formed during anodic dissolution. In acidic and neutral conditions, OH-ions from the cathode do not fully participate in the formation of neutral species of aluminum hydroxide and excess OH-ions increases the pH of the medium. In contrast, the pH decreases in highly alkaline conditions attributed to the consumption of large amounts of OH- ions to form an anionic species such as Al(OH)4and Al(OH)52-, and other polymeric species of aluminun. Keywords: electrocoagulation; acid whey; chemical dissolution; electrodissolution; aluminum electodes
Electrodisolución de electrodos de aluminio durante la electrocoagulación de un lactosuero ácido Resumen La electrodisolución de aluminio en soluciones conteniendo iones cloruros o sulfatos durante el proceso de electrocoagulación del lactosuero ácido, ha sido el objetivo de este trabajo. Los pH alcalinos aumentan la velocidad de disolución en varios órdenes de magnitud. El medio electrolítico (Cl- o SO42-) no parece influir significativamente en la disolución de aluminio, pero aumentan la densidad de carga, que ayuda en el proceso electroquímico. Los resultados están relacionados con la naturaleza de las especies de hidróxidos de aluminio formados durante la disolución anódica. En condiciones ácidas y neutras, los iones OH- del cátodo no participan completamente en la formación de especies neutras de hidróxido de aluminio y el exceso de iones OH- aumenta el pH del medio. En contraste, el pH disminuye en condiciones altamente alcalinas atribuido al consumo de grandes cantidades de iones OH- para formar especies aniónicas, tales como Al(OH)4- y Al(OH)52- y otras especies oligoméricas de aluminio. Palabras clave: electrocoagulación, lactosuero, disolución química, electrodisolución, electrodos de aluminio.
1. Introducción Las tecnologías electroquímicas de tratamiento de aguas residuales han experimentado un rápido desarrollo. La coagulación electroquímica puede competir con el proceso químico convencional de coagulación en el tratamiento de los coloides de residuos contaminados o en el tratamiento de emulsiones 1-5. La electrocoagulación ha sido muy utilizada en los últimos años, donde se ha comenzado a evaluar el uso del electrón como un agente coagulante 6-8. La Fig. 1 muestra los procesos principales implicados.
En una celda electroquímica se producen iones metálicos (Men+) derivados del ánodo, que reaccionan con los iones hidroxilo (OH-) formados en el cátodo, actuando como reactivos coagulantes que se unen con los contaminantes coloidales (rompen las emulsiones), de forma similar a lo que ocurre en un proceso de coagulación convencional. La turbulencia generada por el oxígeno en el ánodo y el desprendimiento de hidrógeno en el cátodo, ayudan a flocular los coloides desestabilizados (Figs. 1 y 2). Estos procesos son llamados electroflotación, electrofloculación y electrocoagulación. Finalmente los contaminantes pueden ser removidos por sedimentación, filtración o flotación.
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 129-136. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40757
Prieto-García et al / DYNA 81 (187), pp. 129-136. October, 2014.
Figura 1. Procesos involucrados en un reactor de electrocoagulación Fuente: Cañizares. et al, 2005.
La pasividad que pueden presentar los electrodos de aluminio ha sido un problema en el tratamiento de efluentes industriales por electrocoagulación 7-8.
Películas pasivas se forman fácilmente en la superficie de aluminio y sus aleaciones, sobretodo en presencia aire libre y en medios acuosos 10-11. La resistencia a la corrosión del aluminio depende en gran medida la formación de una película de Al2O3 químicamente inerte. Esta película se forma en la superficie del ánodo e impide la disolución de aluminio y restringe la transferencia de carga entre la solución y los electrodos. La pasivación de ánodos de sacrificio conduce a un consumo excesivo de electricidad y reduce la eficiencia del tratamiento de aguas residuales mediante electrocoagulación 6. El Al es mucho más susceptible a las picaduras que otros metales y una variedad de aniones que puedan existir en la solución, pueden producir picaduras. Pocos investigadores 6, 1316 han sugerido la adición de electrolitos de soporte, tales como cloruro de sodio (NaCl), para reducir la pasivación de los electrodos de trabajo y para aumentar la conductividad del medio. Adicionalmente, la aplicación de corriente alterna para evitar la formación de un depósito en la superficie del electrodo también se ha sugerido 13-15.
Figura 2. Mecanismos de coagulación de partículas disueltas y coloidales, formación de compuestos insolubles a partir de materia orgánica soluble. Fuente: Martínez, 2007.
Sin embargo, poco se informa sobre el efecto de otros parámetros como la naturaleza y concentración del electrolito (Cl- o SO42-), el pH inicial del medio y la densidad de corriente, sobre la velocidad de destrucción de la película protectora de aluminio que se forma, que a su vez influye en la tasa global de reacciones electroquímicas y mecanismos implicados en la electrocoagulación. Tampoco se reporta acerca de los mecanismos de disolución del ánodo de Al en los procesos de electrocoagulación en un lactosuero ácido. El objetivo de este trabajo ha sido obtener información acerca de los procesos de disolución anódica con el uso de ánodos de Al y evaluar los efectos de la naturaleza y concentración de electrolitos, el pH inicial del medio y la densidad de corriente sobre la disolución electroquímica del Al y sus diferencias potenciales con la disolución.
2. Materiales y métodos Las disoluciones acuosas fueron preparadas disolviendo NaCl o Na2SO4 en agua desionizada, con resistividad de 18 mΩ a 25 °C. Se utilizó un lactosuero ácido obtenido de la planta productora de lácteos San Francisco, en el municipio de Santiago de Anaya, Hidalgo, México, caracterizado en estudios previos 17. Como electrodos de trabajo (ánodo) se utilizaron placas cortadas de Al puro (99.9 %) de 2 mm de espesor. Como contraelectrodo (cátodo) fue utilizado el electrodo de Ti/RuO2. El electrodo de trabajo se enjuagó y activó con solución 1,5 M de HCl, seguido de un enjuague con agua desionizada, y se secó antes de la inmersión en el lactosuero 6. Se tomaron muestras de la solución en tratamiento de forma periódica y se analizó la concentración de Al3+ disuelto y el valor del pH inicial se ajustó 130
Prieto-García et al / DYNA 81 (187), pp. 129-136. October, 2014.
4 5
2
3
1
6
Figura 3. Fotografía de la celda electroquímica con flujo de recirculación de lactosuero ácido que se utilizó. (1. Potenciostato, 2. Cátodo de Ti/RuO2. 3. Ánodo de Aluminio, 4. Electrodo Calomel (referencia), 5. Bomba para recirculación, 6. Efluente de la industria lactea (lactosuero)). Fuente: Los autores
con disolución de NaOH 0.15 M. Para determinar la concentración total de Al, las muestras se diluyeron 10:10 v/v con disolución 4 M de HNO3, y posteriormente, se midieron mediante espectroscopía de emisión con plasma acoplado inductivamente; se utilizó un equipo Varian Liberty, y se procedió de acuerdo con el método estándar 18. El pH se midió utilizando un medidor equipado con un electrodo de vidrio combinado (Orion). La conductividad se midió utilizando un equipo MeterLab, tipo CDM230, equipado con celda de conductividad de dos electrodos de platino. La corriente eléctrica se aplicó mediante una fuente de alimentación de CC, PAR 263A. La corriente, a través de la celda, se midió con un multímetro digital Steren Mul040. Para determinar la influencia del pH inicial, se ajustaron a 4.7, valor del pH inicial del lactosuero ácido y a valores de 6.8 y 8.8 por adiciones controladas de NaOH 19. Para determinar la influencia de la densidad de corriente y flujo en la solución del lactosuero, se cambiaron simultáneamente, en el orden de obtener la misma cantidad de corriente circulando. Para evaluar la influencia de los iones del medio electrolítico, se añadieron disoluciones de NaCl o Na2SO4 de manera que se alcanzaran concentraciones de 1850 mg/L de iones Cl- o SO42-. Los experimentos se corrieron en una celda según el montaje que se muestra en la Fig. 3. La velocidad de disolución del Al fue calculada por balance de masas. Los pesos iniciales y finales del electrodo de Al, fueron utilizados para confirmar los resultados obtenidos mediante el método gravimétrico.
tiempo (24 horas). En todos los casos, la presencia de iones Clmostró una ligera tendencia al incremento de la disolución del Al con relación a la presencia de iones SO42-. Esto puede notarse a partir de los valores de las pendientes de las ecuaciones lineales que muestran la velocidad de incremento de la concentración de Al3+ desde 0.15 hasta 0.25 mg/L.h, para diferentes pH con NaCl, con relación a la variación desde 0.15 hasta 0.22 mg/L.h a los diferentes pH con Na2SO4. Sin embargo, si se hace notar el incremento de la disolución del Al con el incremento del pH, al menos para el intervalo probado (desde 4.7 a 8.8); este incremento es de aproximadamente 1.6 veces mayor. En la Fig. 5 se observa la variación del voltaje y la influencia del pH en el tiempo, durante un proceso exclusivamente electroquímico. En la Fig. 6 se observa la influencia del pH en el estado estacionario (24 horas) sobre la concentración del Al disuelto. También se aprecia el valor teórico de concentración de Al cuando el proceso es solamente electroquímico. Se corrobora nuevamente la ligera incidencia del medio electrolítico, mayor para el caso del NaCl en aproximadamente 1.4 veces. La oxidación electroquímica en el ánodo y la reducción del agua en el cátodo, provocan un cambio significativo en el pH del medio y sobre todo sobre las superficies de los electrodos. Esto se hace especialmente importante en el cátodo donde el pH puede resultar fuertemente alcalino (> 9.5). Para confirmar el papel que juega la disolución química, se ha propuesto un modelo que considera los procesos de disolución anódica, tanto química como electroquímicamente. De acuerdo con la literatura 20 los procesos de disolución química corresponden a la oxidación del Al, según 1: 2Al + 6H2O 2Al3+ + 3H2 + 6OH-
(1)
Por otro lado, el proceso electroquímico que ocurre sobre las superficies del ánodo y del cátodo estarán representadas por las ecuaciones 2-4: Al0 Al3+ + 3e 2H2O O2 + 4H+ + 4eH2O + e- 1/2H2 + OH-
(2) (3) (4)
En el ánodo las reacciones de disolución del Al (1) y la evolución de la formación de oxígeno (3), compiten con las reacciones de formación y evolución de hidrógeno (4). Es de notar que la formación de H2 ocurre tanto química como electroquímicamente. También para el Al disuelto (química o electroquímicamente) es posible describir la formación de algunas especies monoméricas en dependencia del pH que alcance la disolución; algunas de estas especies se indican en las ecuaciones 5-9 21-22. Al(OH)4- + H+ Al(OH)3 + H2O
(5)
3. Resultados y discusión
Al(OH)3 + H+ Al(OH)2+ + H2O
(6)
La Fig. 4 muestra, para los diferentes valores de pH, el comportamiento de la concentración del Al3+ en el tiempo, en lotes y con presencia de NaCl o Na2SO4, respectivamente y con un área sumergida del electrodo de 40 cm2 y 2 mm de espesor. Como puede observarse en todos los casos, la disolución del Al presentó un comportamiento lineal en el
Al(OH)2+ + H+ Al(OH)+2 + H2O
(7)
Al(OH)+2 + H+ Al3+ + H2
(8)
Al(OH)3(s) Al3+ + 3OH-
(9)
131
Prieto-García et al / DYNA 81 (187), pp. 129-136. October, 2014.
7
y = 0.1539x - 0.2522 R2 = 0.9997
NaCl 1850 mg/L (pH 4.7) Na2SO4 1850 mg/L (pH 4.7)
6
y = 0.2526x - 0.2848 R2 = 0.9983
NaCl 1850 mg/L (pH 6.8)
5
m g Al/L
Na2SO4 1850 mg/L (pH 6.8)
4
NaCl 1850 mg/L (pH 8.8)
3
Na2SO4 mg/L (pH 8.8)
y = 0.1489x - 0.2922 R2 = 0.9989
y = 0.2088x - 0.4609 R2 = 0.9973 y = 0.231x - 0.4595 R2 = 0.9935
y = 0.2198x - 0.4258 R2 = 0.9961
2
1
0 0
5
10
15
20
horas
25
Figura 4. Disolución del ánodo de aluminio a diferentes pH del lactosuero en función del tiempo, acondicionado con medios salinos: NaCl 1850 mg/L (pH 4.7); ■ Na2SO4 1850 mg/L (pH 4.7); ▲ NaCl 1850 mg/L (pH 6.8); X Na2SO4 1850 mg/L (pH 4.7); NaCl 1850 mg/L (pH 8.8); ◊ Na2SO4 1850 mg/L (pH 8.8). Fuente: Los autores.
Otro aspecto importante a considerar en el modelo es la condición de trabajar bajo un fluido (condiciones dinámicas). Como se ha indicado, el pH, muestra una fuerte influencia en el proceso de disolución química y este parámetro puede incrementarse en varios órdenes hasta un pH alcalino. En cada celda electroquímica, hay una gran diferencia en el pH entre el ánodo y el cátodo. En el ánodo, el proceso de oxidación del agua (evolución de oxígeno) genera una alta concentración de protones y, por tanto, un pH más bajo. En el cátodo, los resultados del proceso de reducción del agua, conducen a la formación de iones hidroxilo y por tanto un pH superior se tendrá en esta zona. Existe una marcada diferencia en el pH y en general no es un buen indicador para determinar la tasa de disolución química del Al, debido a que difieren considerablemente los valores reales con los de las superficies de los respectivos electrodos. El modelo dinámico de fluidos debe tener en cuenta esta variación en el pH. Una descripción exhaustiva de la disolución electroquímica del electrodo de Al es extremadamente difícil, ya que daría lugar a un sistema matemático que implicaría varias ecuaciones diferenciales parciales. Por esto se han considerado las hipótesis que han tenido en cuenta y han sido propuestas por algunos autores 23-24 y que han ayudado a representar los procesos de oxidación electroquímica en aguas residuales 25. El modelo se puede simplificar dividiendo el reactor electroquímico en tres zonas: dos zonas (electroquímicas) cerca de los electrodos (ánodo y cátodo) y una tercera zona correspondiente a la solución (zona química). En estas tres zonas, la concentración de cada compuesto se considera que está en correspondencia directa con la posición y la cantidad depende solamente del tiempo. Este supuesto es válido si el tiempo de residencia en la celda electroquímica
Figura 5. Perfiles de variación del voltaje a diferentes pH, con relación al tiempo (respuesta dinámica) durante la electrodisolución del aluminio. Densidad de corriente 5.5 A/m2, temperatura 25 °C, pH 4.7, 6.8 and 8.8. NaCl 1850 mg/L (pH 4.7); ■ Na2SO4 1850 mg/L (pH 4.7); ▲ NaCl 1850 mg/L (pH 6.8); X Na2SO4 1850 mg/L (pH 6.8); NaCl 1850 mg/L (pH 8.8); ◊ Na2SO4 1850 mg/L (pH 8.8). Fuente: Los autores.
es pequeño. La concentración de cada compuesto en la zona química se toma como el valor medido experimentalmente. La concentración en la zona electroquímica se supone que debe tener un valor intermedio entre la concentración en la superficie del electrodo y la concentración en la zona química. El volumen de cada zona se puede calcular fácilmente según proponen algunos autores 26-27, si se supone que el espesor de la zona electroquímica es equivalente a la capa de difusión de Nernst (). Esta suposición es aceptable debido a que la oxidación directa y los procesos de oxidación medidos (aquellos con altas velocidades de reacción) se producen en esta zona. El espesor de esta zona se puede evaluar como una función del coeficiente de transferencia de masa (k) y difusividad (D) usando la ecuación 10: 132
Prieto-García et al / DYNA 81 (187), pp. 129-136. October, 2014.
El aumento de la concentración de iones Cl- propicia que disminuya la diferencia de potencial. Esto implica una mayor remoción de la película pasiva hidratada de Al y por tanto su degradación, como se describe en las siguientes reacciones:
Figura 6. Influencia del pH sobre la concentración de aluminio en el estado estacionarios (24 horas) producido durante un proceso electroquímico: -----Valor teórico dado a partir de la Ley de Faraday; concentración de aluminio químicamente disuelto al los diferentes pH del medio en la celda electroquímica. Temperatura, 25°C, densidad de corriente 5.5 A/m2, medios adicionados 1850 mg/L NaCl o 1850 mg/L Na2SO4. Fuente: Los autores.
= D/k
(10)
El área superficial del electrodo es conocida, y así el volumen de cada zona electroquímica (Vanódico y Vcatódico) se puede calcular fácilmente multiplicándola por el espesor (). El volumen restante del sistema corresponde al volumen de la zona química (Vzona química). Los procesos de comunicación y transporte de cargas entre las zonas electroquímicas y química se cuantificaron por el supuesto de que la tasa de cambio local es proporcional a la diferencia de concentración entre las dos zonas. La tasa de transferencia de masa se puede calcular por la ecuación 11, donde [MI]* y [MI] son las concentraciones (mol/m3) del componente i en las zonas electroquímica y química, respectivamente, k (en m/s) es el coeficiente de transferencia de masa, y A (en m2) es el área específica interfacial entre ambas zonas. ri = kA([MI]* - [MI])
(11)
Así, el sistema de ecuaciones se reduce a un sistema más sencillo de ecuaciones diferenciales ordinarias: Vanódico d[MI]*anódico/dt = kA([MI]zona química - [MI]*anódico) + (12) ri,a(electroquím) + ri,a(quím)Vanódico Vcatódico d[Mi]zona quím/dt = kA([MI]zona quím - [MI]*catódico) + ri,c (13) (electroquím) + ri,c (quím)Vcatódico Vzona quím d[MI]zona quím/dt = q([MI]o - [Mi]zona quím) + kA([MI]*anódoco - [MI]zona quím) + kA([MI]*catódico - [MI]zona (14) quím) + ri,b(quím)Vcatódico La concentración de cualquiera de estas especies es dependiente de la concentración total del Al disuelto y del pH, y esto hace al sistema complejo, desde un punto de vista matemático y por lo tanto difícil de resolver. Estos iones H+ se caracterizan por su capacidad para penetrar a través de la película de Al(OH)3 28-30.
Al(OH)3 + Cl- Al(OH)2Cl + OH-
(15)
Al(OH)2Cl + Cl- Al(OH)Cl2 + OH-
(16)
Al(OH)Cl2 + Cl- AlCl3 + OH-
(17)
AlCl3 + Cl-
(18)
AlCl4-
En presencia de iones SO42-, el nivel de picaduras observados fue mucho más bajo que los observados en la presencia de iones Cl-. Para soluciones que contienen SO42., la capa pasiva de Al(OH)3 se disuelve parcialmente y, en consecuencia, la tasa de corrosión electroquímica de Al es menor. Estos resultados indican la importancia de electrólito soporte en la corrosión del Al. Se ha observado que la corrosión del Al es más favorable en la presencia de iones Cl- que en presencia de SO42-. Al(OH)3 + SO42- Al(OH)SO4 +2OH-
(19)
2Al(OH)SO4 + SO42- Al(SO4)2- + OH- (20) De acuerdo con la literatura 31-33, la eficiencia del proceso de electrocoagulación en el tratamiento de aguas residuales depende en gran medida de la cantidad y la especiación de Al disuelto durante el proceso de tratamiento electroquímico. Adicionalmente, la Fig. 7 confirmó la formación de Al(OH)3 precipitado durante la disolución anódica del Al. Los iones Al3+ reaccionan con los iones OH- para producir Al(OH)3 sólido, que se observó visualmente en los reactores. La cantidad de precipitado blanco aumentó con el tiempo, está de acuerdo con la cantidad medida de Al disuelto durante la electrólisis. Varios investigadores han informado también de la misma conducta 12, 18, 34-36. Un grupo de experimentos se llevó a cabo en el que las placas de Al, de pesos conocidos, se sumergieron en disoluciones ligeramente alcalinizadas de 1850 mg/L de NaCl (llevadas a pH = 8.8 con NaOH). Estas condiciones fueron seleccionadas para imitar las condiciones de pH cerca del cátodo, donde la disolución química de Al es más probable que ocurra. La Fig. 8 muestra los cambios de concentración de Al con el tiempo, según lo determinado por el método gravimétrico (40 cm2 de área de electrodo sumergida) en disoluciones acuosas de NaCl 1850 mg/L a pH 8.8. Como puede observarse, la concentración de Al aumentó linealmente con el tiempo hasta las primeras 8 horas, después de lo cual se alcanzó una meseta a aproximadamente 3 mg de Al/L para el resto del tiempo de funcionamiento. Este comportamiento puede ser explicado por la formación de una capa protectora de hidróxido de aluminio/óxido Al(OH)3/Al2O3) sobre la superficie del electrodo de Al, que inhibe la disolución química adicional de Al, lo que no sucede tan notablemente en el proceso de disolución electroquímica 7-8. La disolución electroquímica del Al se produce más lentamente en las primeras 8 horas (comparar Figs. 4 y 8), esto es unas 0,58 veces menor. La formación de esta capa protectora en soluciones aireadas puede ser dada por las siguientes reacciones: 133
Prieto-García et al / DYNA 81 (187), pp. 129-136. October, 2014.
Figura 7. Foto tomada a las muestras obtenidas durante la disolución anódica de aluminio en el tiempo. Fuente: Los autores.
durante la electrólisis de soluciones acuosas que utilizan electrodos de aluminio. En la literatura 37-41 se confirma que el pH inicial, la densidad de corriente y la naturaleza de electrólito de soporte son los principales parámetros que pueden causar cambios en el pH durante la electrólisis. Para condiciones iniciales de pH ácido, el aumento en el pH puede ser explicado por la concentración de iones OH- que aumentó el pH del medio. En contraste, para las soluciones con un pH inicial mayor que 9, la disminución en el pH puede atribuirse al consumo de mayores cantidades de iones OH- para formar especies aniónicas de compuestos aluminio, tales como Al(OH)4- y Al(OH)52-. Al final de la electrólisis, la mayoría de las soluciones acuosas se estabilizan en un valor de pH cercano a 9. La estabilización a este valor, para todos los valores iniciales de pH, puede ser explicada por un efecto amortiguador de especies hidroxoaluminio que equilibran la variación de la concentración de iones hidroxilo a través de la formación de complejos monoméricos y poliméricos de Al como Al6(OH)153+, Al7(OH)174+, Al8(OH)204+, Al13O4(OH)247+ y Al13(OH)345+ 16, 41. 4. Conclusiones
Figura 8. Cambio de la concentración de aluminio disuelto con el tiempo durante la inmersión de la placa de aluminio (40 cm2) en una solución acuosa 1850 mg/L de NaCl a pH 8.8, medida por el método gravimétrico. Fuente: Los autores.
Al0 Al3+ + 3e2H2O + 2e- H2 + 2OH-
(21) (22)
La reacción global es: 2Al0 + 3H2O 2Al(OH)3(s) + H2
(23)
Además, en presencia de oxígeno disuelto, el Al puede ser directamente oxidado a Al2O3, como se muestra por la siguiente reacción: 4Al0 + 3O2(aq) 2Al2O3(s)
(24)
Estos resultados confirmaron que el Al puede ser químicamente disuelto, pero la cantidad disuelta por oxidación química por el oxígeno presente, a pH 8.8, es insignificante en comparación con el que se disolvió por oxidación anódica. La diferencia en el contenido total de Al disuelto que puede verse entre la disolución química y electroquímica, puede explicarse por el hecho de que las condiciones de funcionamiento durante la disolución química son diferentes de las condiciones reales y la hidrodinámica del pH en las zonas cercanas a los electrodos de Al utilizados durante la electrólisis. Especialmente, las condiciones de pH en el cátodo son fuertemente alcalinas. Los resultados anteriores muestran que el pH de la solución influye en la velocidad de disolución de Al
Disolución química del Al está fuertemente influenciada por el pH. A pH alcalinos puede aumentar la velocidad de disolución en varios órdenes de magnitud. Dentro de las condiciones experimentales la naturaleza de los medios electrolitos (NaCl o Na2SO4) no parece influir en gran medida el proceso de disolución química. El proceso de disolución electroquímica depende principalmente de la carga eléctrica específica y de la salinidad. Para modelar el proceso, se debe considerar el pH en las superficies de los electrodos, que difiere significativamente del resto de la solución, con el fin de justificar adecuadamente el proceso de disolución química. La presencia de NaCl y Na2SO4 puede potenciar la disolución de Al pero los resultados indican que esta reacción está catalizada por la presencia de dichas sales, debido a un aumento de la conductividad del medio. Se ha demostrado que las concentraciones de Al medidas fueron ligeramente superiores a los valores teóricos calculados utilizando la ley de Faraday; la diferencia se debe al incremento de la densidad de carga. Los cambios de pH, durante la electrólisis, dependen principalmente de pH inicial y la naturaleza de electrólito de soporte. Para condiciones iniciales de pH ácido, éste se incrementó durante la electrólisis, sin embargo, disminuyó en soluciones con un pH inicial cerca de 9. Estos resultados pueden ser debido a la naturaleza de las especies de hidróxido de Al formados durante la disolución anódica del Al. En condiciones ácidas y neutras, parece que los iones hidroxilo formados en el cátodo no participan completamente en la formación de especies neutras de hidróxido de aluminio y el exceso de iones OHaumenta el pH del medio. En contraste, el pH disminuye en condiciones altamente alcalinas y puede ser atribuido al consumo de grandes cantidades de iones OH- para formar especies aniónicas, tales como Al(OH)4- y Al(OH)52- y otras especies oligoméricas de aluminio. La estabilización de pH, a un valor cercano a 9, puede explicarse por un efecto de amortiguación de las especies de oxihidróxidos de Al que generarían un equilibrio a la variación en la concentración de iones hidroxilo a través de la formación de especies químicas complejas: monoméricos, dímeros, trímeros y oligómeros de hidróxidos de Al. 134
Prieto-García et al / DYNA 81 (187), pp. 129-136. October, 2014.
Referencias [1] [2] [3] [4] [5] [6]
[7]
[8] [9]
[10] [11]
[12]
[13]
[14] [15] [16] [17]
[18]
[19]
[20]
Jiang, J.Q., Graham, N., Andre´, C.A., Kelsall, G.H. and Brandon, N., Laboratory study of electro-coagulation-flotation for water treatment. Water Res., 36 (16), pp. 4064-4078, 2002. Holt, P.K., Barton, G.W., Wark, M. and Mitchell, C.A., A quantitative comparison between chemical dosing and electrocoagulation. Colloids Surf., A, 211, pp. 233-248, 2002. Chen, X.M., Chen, G.H. and Yue, P.L. Investigation on the electrolysis voltage of electrocoagulation, Chem. Eng. Sci., 57 (13), pp. 2449-2455, 2002. Dávila-Rincón J., Marriaga-Cabrales N. and Machuca-Martinez F., Total solid removal of vinasse by Electrocoagulation – electroflotation. DYNA, 76 (158), pp. 41-47, 2009. Bayramoglu, M., Kobya, M., Can, O.T. and Sozbir, M., Operating cost analysis of electrocoagulation of textile dye wastewater, Sep. Purif. Technol., 37 (2), pp. 117-125, 2004. Mansouri, K., Ibrik, K. and Abdel, A., Anodic dissolution of pure Aluminum during electrocoagulation process: Influence of supporting electrolyte, initial pH, and current density, Ind. Eng. Chem. Res., 50, pp. 13362–13372, 2011. Giovanardia, R., Fontanesib, C. and Dallabarbac, W., Adsorption of organic compounds at the aluminium oxide/aqueous solution interface during the aluminium anodizing process. Electrochim. Acta, 56, pp. 3128–3138, 2011. Xiong, W., Qi, G.T., Guo, X.P. and Lu, Z.L., Anodic dissolution of Al sacrificial anodes in NaCl solution containing Ce, Corros. Sci., 53, pp. 1298–1303, 2011. Martínez, F. Tratamiento de aguas residuales industriales mediante electrocoagulación y coagulación convencional. Dr. Tesis, Facultad de Ciencias Químicas, Universidad Castilla-La Mancha, Ciudad Real, España, 2007. Koroleva, E.V., Hashimoto, T., Thompson, G.E. and Skeldon, P. Anodic film formation on aluminum in nitric acid., J. Electrochem. Soc., 155, pp. C557–C564, 2008. Yakovleva, N.M., Anicai, L., Yakovlev, A.N., Dima, L., Ya, E., Khanina, M., Buda, E. and Chupakhina, A., Structural study of anodic films formed on aluminum in nitric acid electrolyte, Thin Solid Films, 416, pp. 16–23, 2002. Cañizares, P., Carmona, M., Lobato, J., Martıínez, F. and Rodrigo, M.A., Electrodissolution of aluminum electrodes in electrocoagulation processes, Ind. Eng. Chem. Res., 44, pp. 41784185, 2005. Mao, X., Hong, S., Zhu, H., Lin, H., Wei, L. and Gan, F., Alternating pulse current in electrocoagulation for wastewater treatment to prevent the passivation of al electrode, Chem. Mater. Sci., 23, pp. 239–241, 2008. Vasudevan, S., Lakshmi, J. and Sozhan, G., Effects of alternating and direct current in electrocoagulation, J. Hazard. Mater, 192, pp. 26–34, 2011. Eyvaz, M., Kirlaroglu, M., Aktas, T. S. and Yuksel, E., The effects of alternating current electrocoagulation on dye removal from aqueous solutions, Chem. Eng. J., 153, pp. 16–22, 2009. Barrera-Diaz, C., Bilyeu, B., Roa, G., Bernal-Martinez, L. Physicochemical aspects of electrocoagulation. Sep. Purif. Rev., 40, pp. 1–24, 2011. Callejas, J., Prieto, F., Reyes, V.E., Marmolejo, Y. y Méndez, M.A., Caracterización fisicoquímica de un lactosuero: potencialidad de recuperación de fósforo, Acta Universitaria, 22 (1), pp. 11-18, 2012. APHA, AWWA, WPCF, Standard methods for the examination of water and wastewater, 17th ed., Clesceri, L. S., Greenberg, A. E., Eaton, A. D., Franson, M. A. H., Eds., American Public Health Association: Washington, DC, 1989. Prieto-Méndez, J., Prieto-García, F., Acevedo-Sandoval, O.A. and Méndez-Marzo, M.A.. Correlation of moisture, pH and zeta potential (ζ) in sandy-clay-loam soils of the southern state of Hidalgo, Asian Journal of Chemistry, 26 (10), pp. 3001-3005, 2014. Picard, T., Cathalifaud-Feuillade, G., Mazet, M. and Vandensteendam, C., Cathodic dissolution in the electrocoagulation process using aluminium electrodes, J. Environ. Monit., 2 (1), pp. 77-80, 2000.
[21] Lide, D.R., Handbook of Chemistry and Physics, 71st ed., CRC Press: Boca Raton, FL., USA, 1990. [22] Harris, D.C., Quantitative chemical analysis, 5th ed., Freeman: New York, USA, 1998. [23] Cañizares, P., García-Gómez, J., Lobato, J. and Rodrigo, M.A., Modelization of wastewater electro-oxidation processes. Part I. General description and application to nonactive electrodes, Ind. Eng. Chem. Res., 43, pp. 1915-1922, 2004a. [24] Cañizares, P., García-Gómez, J., Lobato, J. and Rodrigo, M.A., Modelization of wastewater electro-oxidation processes. Part II. Application to active electrodes, Ind. Eng. Chem. Res., 43, pp. 1923-1931, 2004b. [25] Cañizares, P., Sáez, C., Lobato, J. and Rodrigo, M.A., Electrochemical treatment of 4-Nitrophenol aqueous wastes using boron doped diamond anodes, Ind. Eng. Chem. Res. 43, pp. 1944-1951, 2004c. [26] Cañizares, P., Díaz, M., Domínguez, J.A., García-Gómez, J. and Rodrigo, M.A., Electrochemical oxidation of aqueous phenol wastes on synthetic diamond thin-film electrodes. Ind. Eng. Chem. Res., 41 (17), pp. 41874194, 2002. [27] Cañizares, P., García-Gómez, J., Lobato, J. and Rodrigo, M.A., Electrochemical oxidation of aqueous carboxyli acid wastes using diamond thin-film electrodes, Ind. Eng. Chem. Res., 42, pp.956-962, 2003a. [28] Trompette, J.L. and Vergnes, H., On the crucial influence of some supporting electrolytes during electrocoagulation in the presence of aluminum electrodes, J. Hazard. Mater., 163, pp. 1282–1288, 2009. [29] Zaid, B., Saidi, D., Benzaid, A. and Hadji, S., Effects of pH and chloride concentration on pitting corrosion of AA6061 aluminum alloy, Corros. Sci., 50, pp. 1841–1847, 2008. [30] El-Maghraby, A.A., Corrosion inhibition of aluminum in hydrochloric acid solution using potassium iodate inhibitor, Open Corros. J., 2, pp. 189–196, 2009. [31] Cañizares, P., Martínez, F., Jiménez, C., Lobato, J. and Rodrigo, M.A. Comparison of the aluminum speciation in chemical and electrochemical dosing processes, Ind. Eng. Chem. Res., 45, pp. 8749–8756, 2006. [32] Cañizares, P., Martínez, F., Rodrigo, M.A., Jiménez, C., Sáez, C. and Lobato, J., Modelling of wastewater electrocoagulation processes Part II: Application to dye-polluted wastewaters and oil-in-water emulsions, Sep. Purif. Technol., 60, pp. 147–154, 2008. [33] Cañizares, P., Jiménez, C., Martínez, F., Sáez, C. and Rodrigo, M.A., Study of the electrocoagulation process using aluminium and iron electrodes, Ind. Eng. Chem. Res., 46, pp. 6189–6195, 2007. [34] Soltis, J., Laycock, N.J. and Krouse, D., Temperature dependence of the pitting potential of high purity aluminium in chloride containing solutions, Corros. Sci., 53, pp. 7–10, 2011. [35] Vasudevan, S., Lakshmi, J. and Sozhan, G., Effects of alternating and direct current in electrocoagulation, J. Hazard. Mater., 192, pp. 26–34, 2011. [36] Eyvaz, M., Kirlaroglu, M., Aktas, T. S. and Yuksel, E., The effects of alternating current electrocoagulation on dye removal from aqueous solutions, Chem. Eng. J., 153, pp. 16–22, 2009. [37] Emamjomeh, M.M., and Sivakumar, M., Review of pollutants removed by electrocoagulation and electrocoagulation/flotation processes, J. Environ. Manage, 90, pp. 1663–1679, 2009. [38] Can, O.T. and Bayramoglu, M., The effect of process conditions on the treatment of benzoquinone solution by electrocoagulation, J. Hazar. Mater., 173, pp. 731–736, 2010. [39] Chou, W.L., Wang, C.T. and Huang, K.Y., Effect of operating parameters on indium (III) ion removal by iron electrocoagulation and evaluation of specific energy consumption, J. Hazard. Mater., 167, pp. 467–474, 2009. [40] Chou, W.L., Wang, C.T., Liu, T.C. and Chou, L.C., Effect of process parameters on removal of salicylic acid from aqueous solutions via electrocoagulation, Environ. Eng. Sci., 28, pp. 365–372, 2011. [41] Chou, W.L., Removal and adsorption characteristics of polyvinyl alcohol from aqueous solutions using electrocoagulation, J. Hazard. Mater., 177, pp. 842–850, 2010. F. Prieto-García, es graduado en Lic. en Química en 1978 de la Universidad Central de Las Villas, Cuba, Dr. en Química en 1997 de la Universidad de Valladolid, España. Es investigador del Sistema Nacional de México, Nivel I. Trabaja como Profesor Investigador titular nivel C, en la Universidad Autónoma del Estado de Hidalgo, México desde hace 15 años.
135
Prieto-García et al / DYNA 81 (187), pp. 129-136. October, 2014. J. Callejas-Hernández, es graduada en Lic. en Química en Alimentos en 2005 y Dra. en Ciencias Ambientales en 2012, ambos de la Universidad Autónoma del Estado de Hidalgo, México. Trabaja como Profesora Investigadora titular Nivel A, en la Universidad Politécnica de Francisco I. Madero, en México. V. E. Reyes-Cruz, es graduado en Lic. en Ingeniería Química en 1991, del el ITP de México, MSc- en Química con especialidad Electroquímica en 1998 de la UAM-Iztapalapa, México, Dr. en Química con opción Ingeniería Electroquímica en 2002, de la UAM-Iztapalapa, México. Y. Marmolejo-Santillán, es graduada en Lic. en Biología en 1998 y Dra. en Ciencias Ambientales en 2012, de la Universidad Autónoma del Estado de Hidalgo, México. Trabaja como Profesora en el Instituto de Ciencias Básicas e Ingeniería de la misma Universidad. J. Prieto-Méndez, es graduada en Lic. en Química en Alimentos en 2005 y Dra en Ciencias Ambientales en 2011, de la Universidad Autónoma del Estado de Hidalgo, México. Trabaja desde 2011 como Profesora Investigadora titular Nivel B, en el Instituto de Ciencias Agropecuarias de la Universidad Autónoma del Estado de Hidalgo, México.
136
Adaptation and validation of a methdology for determing ammonia flux generated by litter in naturally ventilated poultry houses Jairo Alexander Osorio-Saraz a, Ilda de Fatima Ferreira-Tinoco b, Richard S. Gates c, Keller Sullivan Oliveira-Rocha d, Enrique Miguel Combatt-Caballero e & Fernanda Campos-de Sousa f Facultad de Ciencias Agrarias, Universidad Nacional de Colombia, Colombia. aosorio@unal.edu.co b Facultad de Ciencias Agrarias, Universidad Federal Vicosa, Brasil. iftinoco@ufv.br c Departamento de Ingeniería Agrícola y Biosistemas Universidad de Illinois, USA. rsgates@illinois.edu d Facultad de Ingeniería Agrícola, Universidad Federal Vicosa, Brasil. kellersullivan@yahoo.com.br e Departamento de Suelos, Universidad de Córdoba, Colombia. ecombatt@hotmail.com f Facultad de Ciencias Agrarias, Universidad Federal Vicosa, Brasil. Fernanda.sousa@ufv.br a
Received: November 11th, de 2013. Received in revised form: June 9th, 2014. Accepted: July 22th, 2014 Abstract The present work aimed to adapt and validate a precise and simple application method defined as the “Saraz method for the determination of ammonia emissions” (SMDAE), based on the method of mass diffusion, to determine ammonia flux due to mass convection from broiler litter. It was found that ammonia flux (N"A) can be obtained by the SMDAE diffusion method. The SMDAE method presents a recovery efficiency for volatilized ammonia of 77 ± 4% and can be used for ammonia concentrations as high as 0.5 ppm. Keywords: Ammonia flux; poultry houses; broiler litter, air quality.
Adaptación y validación de una metodología para determinar emisiones de amoniaco generado en camas de galpones avícolas con ventilación natural Resumen El objetivo del presente trabajo fue avalar y validar un simple y preciso método definido “método Saraz para determinar emisiones de amoniaco” (SMDAE), basado en un método de difusión de masa, para determinar el flujo de amoniaco debido a la convección de la masa (NA”) generada en la cama aviaria. Se encontró que el flujo de amoniaco puede ser obtenido por el método difusivo SMDAE. El método SMDAE presentó una eficiencia en la recuperación del amoniaco volatilizado de 77 ± 4% y puede ser usado con concentraciones de amoniaco mayores 0.5 ppm. Palabras Clave: Flujo de amoniaco; instalaciones aviarias; calidad del aire.
1. Introduction Knowledge on ammonia emission rates generated from manure in animal confinements is very important, due to its direct relation to negative health effects and productivity of animals and people [1]. Many studies were performed based on the reduction of ammonia emissions from manure by the minimization of nitrogen excretions in the feces due to dietary changes. This procedure is the first step for reducing NH3 emissions from agricultural installations [2, 3]. However, despite the efficiencies obtained by the technique
for reducing ammonia by diet manipulation, ammonia emissions cannot be reduced until 100%. Some methodologies have been developed and validated to determine ammonia gas emissions generated by animal manure, and have been applied in both open and closed animal production installations. However, these obtain different efficiencies in the recovery of the total ammonia nitrogen (TAN), volatilized. The methodologies most commonly used are those, which involve mass balances, external, and internal tracer gas and the passive methods [4-9].
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 137-143. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40806
Osorio-Saraz et al / DYNA 81 (187), pp. 137-143. October, 2014.
Most methodologies for ammonia quantification present good performance in closed installations. However, these methods require adaptations for open installations. When using tracer gases, external tracer gases are less efficient compared with internal tracer gases [10,11]. The passive flux method requires predominant air flow in the direction of the flux collector, while the greatest difficulty of the mass balance method is to find the convective mass coefficient [12,13]. Thus, each of the mentioned methodologies has advantages and disadvantages, and a common disadvantage to all is the high cost of operation. Other volatilization models have also been used to predict ammonia emissions based on different circumstances and types of poultry installation [14,15]. The acquisition of mass transfer coefficient (hm), which is an important parameter in the volatilization model of ammonia present in manure, is found in literature with wide variation, and it is a disadvantage of the model. A methodology used in the study of soils for determining nitrogen (N) loss from the soil by volatilization of TAN makes use of a collector chamber for ammonia fixation by diffusion, where quantification is performed by acid – base titration, using the Kjeldhal method [16]. In this methodology, nitrogen recovery efficiencies of roughly 70% are encountered [17-20]. Based on these facts, the present study aimed to obtain the ammonia flux value due to mass convection (N"A) of broiler litter, using the ammonia mass flux (SMDAE) which is based on the mass diffusion method (J"A). 2. Material and methods The present study was developed in the Laboratories of the Department of Agricultural Engineering, at the Federal University of Viçosa, Brazil, and in a conventional commercial broiler house working jointly with the Pif-Paf Alimentos S/A company, located in the municipality of Viçosa, MG, Brazil. According to the Köppen classification, the climate of the region is type Cwb – high altitude tropical with wet summers and pleasant temperatures. This study was performed during the summer, with an average temperature of 22°C and relative humidity ranging between 50 and 70%. 2.1. Characteristics of the facilities The commercial poultry house utilized in this investigation housed 14000 Cobb chickens, with housing density of 12 birds m-2 and the following dimensions: 100 m x 13 m (Length x Width), 3 m high ceilings, 0.50 m overhang and 20° roof inclination angle. The poultry house, with little thermal insulation, which is commonly observed in Brazil and South America, was open with natural ventilation during the experimental phase and the litter was composed of fresh coffee hulls. 2.2. Mass diffusion method proposed for determining ammonia mass flux called SMDAE A passive flux method used by [19] and [21] was adapted and validated for determining ammonia flux from the litter of poultry buildings. This adapted method, called “Saraz method for determination of ammonia emissions”
Figure 1. Collector device used to capture volatilized ammonia Source: The authors
(SMDAE), is based on the mass diffusion method for the determination of ammonia flux from broiler bedding, based on the total volatilized ammonia content that is volatilized and captured. 2.2.1. Measuring equipment A common PVC pipe measuring 20 cm in diameter and 30 cm in height was used to construct the NH3 capturing device. Two polyurethane sponges measuring 20 cm in diameter each and thickness of 2 cm were placed in the tube so that they were 10 cm (Sponge 1) and 30 cm (Sponge 2) from the base of the PVC collector. The function of sponge 1 was to directly capture the ammonia flux produced by the poultry litter bedding, while sponge 2 was used to prevent contamination by exterior gases that might affect the values of the ammonia captured by sponge 1 (Fig. 1).
2.2.2. Appropriate time for ammonia capture The objective of this experiment was to encounter the ammonia flux from the bed and simulate the natural conditions of this emission in real time, in order to determine the appropriate ammonia adsorption period for the collector device. Thus, the tests performed lasted 1, 2, 3, 4, 12, 16, 22 and 24 hours, with three repetitions for each time. 2.2.3. Location of the collector devices and collection of experimental data Data collection was performed on three consecutive days in each week of the birds lives, between 22-28, 29-35, and 36-48 days of the productive cycle. In compliance with the studies performed by [6] it was considered that, on the first 14 days, ammonia emissions are minimal and, after this time, emissions increase linearly. Seeking to observe the influence of waterers and feeders on ammonia flux, compared to other regions of the poultry house, four collector devices were installed in the vicinity of the feeders and four, in the vicinity of the waterers. Ammonia flux measurements were taken during 9 days between 8:00 to 10:00 AM and 3:00 to 5:00 PM. 2.2.4. Determination of the quantity of ammonia captured To capture volatilized ammonia, each sponge was impregnated with 80 ml of a solution composed of sulfuric acid (1 mol L-1) and glycerine (3 %), corresponding to an
138
Osorio-Saraz et al / DYNA 81 (187), pp. 137-143. October, 2014.
the sponge (g m-2 s-1); and DAB is the diffusion coefficient of ammonia in the air (0.28 x 10-4 m2 s-1) according to [22]. J "A SMDAE DAB
SMDAE
Figure 2. Mass diffusion model of the prototype Source: The authors
adaptation of the ammonia fixation method by diffusion, whose quantification is performed by acid-base titration by the Kjeldhal method [16]. Eighty mL of a potassium chloride (KCl) solution at a concentration of 0.5 mol L-1 added to 40 mL of water were used to extract the ammonia captured in the sponge. This solution mixed with the sponge was prepared in a Tecnal model TE-0363 nitrogen distillation column. After distillation, the condensed sample was titrated with hydrochloric acid (HCl) at a concentration of 0.5 mol L-1. The NH3 concentration (g NH3) captured by the sponge was obtained by the volume of the tilter solution (mL), the solution concentration (mol L-1), and number of moles of NH3 The SMDAE mass flux was obtained by using the eq. (1).
SMDAE ( g NH 3 m2 s 1 )
NH 3 At
C A DAB (C A,O C A, Z ) Z Z
(2)
DAB C A, S
(3)
Z
For the mass convection model, a boundary limit model was used for concentration of a chemical species on a flat surface, where N”A is the ammonia flux (g m-2 s1 ) and hm the mass diffusion coefficient. This coefficient is a function of the Reynold’s number (Re) and the Schmidt number (Sc); V is the average wind speed at the height of the birds; L is the length of the installation; and is the viscosity of the air. Mass flux by convection is determined as [22]: (4)
N " A hm (C A, S C A, )
For the case in which it is considered outside the boundary limit, mass flux is determined as:
N "A hm C A, S
(5)
Because flow in the building is turbulent, the mass convection coefficient is calculated as: 4
hm
(1)
Where:
1
D AB 0, 0 2 9 6 R e 5 S c 3 L
(6)
0, 6 Sc 3000
SMDAE = NH3 mass flux (g NH3 m-2 s-1). NH3 = NH3 mass (g NH3). A= sponge area (m2). t = Exposure time of sponge (s).
where:
Re
2.2.5. Determination of the SMDAE efficiency
Sc
To determine the efficiency of the proposed SMDAE method for ammonia recovery, it was determined the difference between the quantity of NH3 volatilized from the litter and the quantity of NH3 recovered by the sponge. Ten replications were performed to achieve this value.
(7)
(8)
DAB
Table 1. Recovery of volatilized ammonia by the collector device
2.3. The theoretical proposed SMDAE diffusion method and the mass convection method The proposed SMDAE diffusion method is derived from Fick’s Second Law. A schematic of the prototype is presented in Fig. 2, where CA,s (g m-3) corresponds to concentration of specie A at the litter bedding surface, CA, Z (g m-3) concentration at height Z of the sponge; J”A that is equal to the ammonia emission flux SMDAE captured by
VL
Ammonia recovered by the sponge (g NH3 m-2)
Volatilized ammonia from the litter (g NH3 m-2)
Efficiency (%)
Minimum (g NH3 m2 )
Maximum (g NH3 m-2)
16.76
19.99
77.55 4.32
68.85
82.47
Source: The authors
139
Osorio-Saraz et al / DYNA 81 (187), pp. 137-143. October, 2014.
Figure 3. Ammonia mass according to time Source: The authors
2.4. Statistical analyses
the dry and moist mass using an oven at 105°C.
After the experiments, the data obtained from both measurement methods (SMDAE diffusion and convection models (N”A) were treated and analyzed statistically, and a non parametric one-way analysis of variance (KruskalWallis test), with method as treatment, was conducted. To determine the incidence of variables such as location (waterer and feeder) and the time of the day a non parametric one-way analysis of variance (Kruskal-Wallis test), with period as treatment was conducted.
3. Results and discussion
2.5. Acquisition of experimental data Background ammonia concentration data in the environment were obtained from an electrochemical detector “Gas alert Extreme Ammonia (NH3) Detector” from BW Technologies with a measuring range from 0-100 ppm, temperature between -4 to +40°C, relative humidity from 15% to 90% and presenting an accuracy of 2%. Data collection was performed in twenty minutes interval. Air temperature at sample height was measured (DS1820, Dallas Semiconductor, address). Energy was provided to the 1-wireTM system by a parasitic feed derived from the data transmission conductor, where only two conductors are necessary. Temperature measurements were made every five minutes. Air speed (m s-1) was measured with a digital wind gage (Testo 425), with a range between 0-20 m s-1, precision of ± 0.5 (°C), accuracy of 1% (pressure) and 2.5% (m s-1) and 0.1°C, positioned five centimeters in front of each sponge on the upwind side. Air velocity data collection was performed in five minutes interval. Relative humidity of the air inside and outside of the poultry house was obtained at diverse points representing the entire poultry house, using independent systems (Hobo H8-032) with accuracy of ±0.7 at 21°C. Data collection was performed at one second intervals. The pH of the poultry litter was determined in the laboratory using a digital pH meter, for which each sample of the bed collected in the installation was diluted in water at a 1:4 ratio (bed sample:water). Moisture content of the litter was determined in the laboratory as the mass difference between
Fig. 3 presents the behavior of the ammonia mass captured by the collector device encountered by the mass diffusion method in function of the time,. It was observed that the behavior of the curve of ammonia for all replicates was linear in function of time, with a greater increase in emissions after the prototype was exposed for four hours. Hence, the prototypes were exposed for no more than two hours to facilitate sampling in the field and allows for a larger numbers of experimental replicates.Table 1 shows the ammonia mass recovery data and the ammonia recovery curve, according to its volatilization. The collector device used had a recovery efficiency of 77.55 4.32 g NH3 m-2 and was efficient, compared to the experiments performed by [19, 23] and [21], who found 70% efficiency when using the chamber collector method. Moreover, the proposed method can capture ammonia concentrations exceeding 0.5 ppm. After determining the efficiency of the collector device, the mass diffusion flux SMDAE was calculated by equation 3. The value of CA,s was obtained from the SMDAE. The ammonia fluxes were achieved by equation 4, by the mass convection model (N”A). The mass convection coefficient (hm) was calculated from equation 6 for turbulent flow, temperatures between 25 and 30°C, and velocities at the concentration boundary limit ranging from 0.10 to 0.35 m s-1, where the values found in this experiment are in agreement with other experiments, including [24] and [25]. The values of hm achieved ranged from 5.15 x 10-4 to 1.34 x 10-3 m s-1. These hm values did not differ from those reported by [26] and [27], who worked with velocities at the same range. The analysis of variance between the N”A and SMDAE method achieved is shown in Fig. 4. The test reveals There was a significant difference between NH3 flux values determined by the SMDAE method with the emissions for mass convection obtained by the N”A (p<0.001), as expected, due to the incidence of wind in the N”A method.
140
Osorio-Saraz et al / DYNA 81 (187), pp. 137-143. October, 2014.
Figure 4. Ammonia flux by the N"A and SMDAE methods Source: The authors
Figure 5. Regression between mass diffusion prototype (SMDAE) and mass convection (Nâ&#x20AC;?A) Source: The authors
141
Osorio-Saraz et al / DYNA 81 (187), pp. 137-143. October, 2014.
Figure 6. Ammonia flux according to localization Source: The authors
Fig. 5 shows the regression of the SMDAE model of mass diffusion and mass convection N"A, at the significance level of p< 0.05. The values of N”A underestimate the SMDAE in all cases, as demonstrated in Fig. 4. However, it was observed that the R2 coefficient was 0.91, which reveals a high correlation between the models and that the SMDAE method can be used to determine N"A from poultry manure in terms of natural ventilation. The values of N"A within the range 10-5 and 10-3 gNH3 m-2s-1 did not differ from those reported by [13, 27, 28, 29], who worked with mass transfer methods. The boxplot of the Fig. 6 show the statistical analysis for the correlation between the convective mass flux (N”A) in function of the location of the samples (waterer and feeder). Results of the analysis of variance at the confidence level showed that There were significant differences (p<0.001). The difference in ammonia flux (N”A) from the litter in the areas of the feeders and waterers may be due to the lower moisture content near the feeders in comparison with the waterers. This was expected, since, according to [28, 30], the total volatilized ammonia (TAN) increases when the moisture of the litter bedding increases. 4. Conclusions The SMDAE method has a good relationship with the N”A mass convection method, which is the method most commonly used for works with mass balances from ammonia sources, and presented a recovery efficiency of approximately 78% of total volatilized ammonia, and can capture ammonia at concentrations as high as 0.5 ppm. Therefore, this method could be considered efficient and used as an alternative to determine ammonia flux (N”A) from the poultry litter in installations with natural ventilation. Acknowledgements The authors are thankful to the National University of Colombia for this great opportunity; Colciencias-Colombia; the Brazilian Government Agency FAPEMIG; the National Counsel of Technological and Scientific Development (CNPq
- Brazil) and Federal agency CAPES, for their financial support; and the Federal University of Viçosa (UFV-Brazil). References [1]
Tinôco, I.F.F., A Granja de Frangos de Corte. In: Mendes, A.A.; de Alencar-Naas, I.; Macari, M., (Eds.), Produção de Frangos de Corte. 1 ed. Campinas – SP, 2004. pp. 1-345. [2] Panetta, D.M., Powers, W.J., Xin, H., Kerr, B.J. and Stalder, K.J., Nitrogen excretion and ammonia emissions from pigs fed modified diets. Journal of Environmental Quality, 35 (4), pp. 1297–1308, 2006. [3] Ndegwa, P.M., Hristov, J., Arogo E.R. and Sheffield, E., A review of ammonia emission mitigation techniques for concentrated animal feeding operations, Biosystems Engineering, 100 (4), pp. 453-469, 2008. [4] Welford, E.L., Stéphane, B.E., Lemay, P., Barber, M. and Godbout, S., Simulation of ammonia emissions from swine manure for various diet formulations. In: CSAE/SCGR Meeting Montréal, pp. 6 – 9, 2006. [5] Nicholson, F.A., Chambers B.J. and Walker, E.A.W., Ammonia Emissions from broiler litter and laying hen manure management systems, Biosystems Engineering, 89 (2), pp. 175-185, 2004. [6] Gates, R.S., Xin, H., Casey, K.D., Liang, Y. and Wheeler, E.F., Method for measuring ammonia emissions from poultry houses, J. Applied Poultry, 14 (1), pp. 622-634, 2005. [7] Reidy, B., Mmgen, D.A., Hler, D.H., Eurichmenden, B., Van Evert, F.K., Hutchings, N.J., Luesink, H.H., Menzi, H., Misselbrook, T.H., Monteny, G.J. and Webb, J., Comparison of models used for national agricultural ammonia emission inventories in Europe: Liquid manure syst., Atmospheric Environment, 42 (14), pp. 3452–3464, 2008. [8] Osorio J.A., Tinoco, F.F. and Ciro H.J., Ammonia: a review about concentration and emission models in livestock structures, DYNA, 76 (158), pp. 89-99, 2009. [9] Osorio, J.A., Tinoco, I.F.F., Gates, R.S., Oliveira, M.P. and Mendes, L.B., Evaluation of different methods for determining ammonia emissions in poultry buildings and their applicability to open facilities, DYNA, 80 (178), pp. 51-60, 2013. [10] Dore, C.J., Jones, B.M.R., Scholtens, R., Veld, J.W.H.H.I.T., Burgess, L.R. and Phillips, V.R., Measuring ammonia emission rates from livestock buildings and manure stores, Part 2: Comparative demonstrations of three methods on the farm, Atmospheric Environment, 38 (19), pp. 3017-3024, 2004. [11] Phillips, V.R.; Scholtens, R., Lee, D.S., Garland, J.A. and Sneath, R.W., SE-Structures and Environment: A review of methods for measuring emission rates of ammonia from livestock buildings and slurry or manure stores, Part 1: Assessment of basic approaches. Journal of Agricultural Engineering Research, 7 (4), pp. 355-364, 2000.
142
Osorio-Saraz et al / DYNA 81 (187), pp. 137-143. October, 2014. [12] Keener, H.M. and Zhao, L., A modified mass balance method for predicting NH3 emissions from manure N for livestock and storage facilities, Biosystems Engineering, 99 (1), pp. 81-87, 2008. [13] Teye, F.K and Hautala, M., Adaptation of an ammonia volatilization model for a naturally ventilated dairy building, Atmospheric Environment, 42 (18), pp. 4345-4354, 2008. [14] Arogo, J., Westerman, P.W. and Liang, Z.S., Comparing ammonium ion dissociation constant in swine anaerobic lagoon liquid and deionized water, Transactions of the ASAE, 46 (5), pp. 1415–1419, 2003. [15] Pinder, R.W., Pekney, N.J., Davidson, C.I. and Adams, P.J., A process-based model of ammonia emissions from dairy cows: Improved temporal and spatial resolution, Atmospheric Environment, 38 (9), pp. 1357-1365, 2004. [16] Association of Official Analitical Chemists – AOAC, Official methods of analysis. 11. Ed., Washington D.C, 1015 P, 1970. [17] Yang, P., Lorimor, J.C. and Xin, H., Nitrogen losses from laying hen manure in commercial high-rise layer facilities, Transactions of the ASAE, 43 (6), pp. 1771–1780, 2000. [18] Sangoi, L., Ernani, P., Lech, V. and Rampazzo, C. ,Volatilization of NNH3 influenced by urea application forms, residue management and soil type in lab conditions, Ciência Rural, 33 (4), pp. 687-692, 2003. [19] Renata, H., Cazetta J. and Moraes V.M., Frações nitrogenadas, glicidas e amonia liberada pela cama de frangos de corte em diferentes densidades e tempos de confinamento, Rev.bras. zootec, 3 (4), pp. 1795-1802, 2002. [20] Leal, V.L.A., Salamanca, J.A. and Sadeghian, S., Pérdidas de nitrógeno por volatilización en cafetales en etapa productiva, Cenicafé, 58 (3), pp. 216-226, 2007. [21] Araujo, E.S., Marsola, T., Miyazawa, M., Boddey, R.M., Urquiaga, S. and Rodrigues, B.J., Câmara coletora para quantificação do NNH3 volatilizado do solo. In: XXXI Congresso Brasileiro de Ciência do Solo., Gramado RS – Brasil, pp. 1-6, 2007. [22] Incropera, F.P. and Dewitt, D.P., Fundamentals of heat and mass transfer. Wiley, New York. pp. 344–369, 1999. [23] Renata, H. and Cazetta, J., Método simples para determinar amônia liberada pela cama aviaria, Rev.bras. zootec, 30 (3) pp. 824-829, 2001. [24] Brewer, S.K. and. Costello, T.A., In situ measurement of ammonia volatilization from broiler litter using an enclosed air chamber, Transaction of ASAE, 42 (5), pp 1415-1422, 1999. [25] Menegali, I., Tinôco, I.F.F., Baêta, F.C., Cecon, P.R, Guimarães, M.C.C. and Cordeiro, M.B., Ambiente térmico e concentração de gases em instalações para frangos de corte no período de aquecimento, Revista Brasileira de Engenharia Agrícola e Ambiental, 13 (10), pp. 984–990, 2009. [26] Ni, J., Mechanistic models of ammonia release from liquid manure: a review, J. Agric. Eng Res, 72 (1), pp. 1-17, 1999. [27] Liu Z.L., Wang, D.B. and Beasley, S.S.B., Modelling ammonia emissions from broiler litter at laboratory scale, Transactions of the ASABE, 52 (5), pp. 1683-1694, 2009. [28] Miragliotta, M.Y., Avaliação dos níveis de amônia em dois sistemas de produção de frangos de corte com ventilação e densidade diferenciados. Teses. Faculdade de Engenharia Agrícola, Universidade Estadual de Campinas, Campinas, Brasil, 2001. [29] Redwine, J.S., Lacey, R.E., Mukhtar, S. and Carey, J.B., Concentration and emissions of ammonia and particulate matter in tunnel-ventilated broiler houses under summer conditions in Texas, Transactions of ASAE, 45 (4), pp. 1101-1109, 2002. [30] Jones, T.A., Donnelly, C.A. and Dawkins, M.S., Environmental and management factors affecting the welfare of chickens on commercial farms in the United Kingdom and Denmark stocked at five densities, Poultry Science, 84 (8), pp. 1155-1165, 2005. J. A. Osorio-Saraz, received the Bs. Eng. in Agricultural Engineering (1998), the Sp in Environmental Legislation (2001) and the MSc. degree in Materials Engineering (2006), all of them from the Universidad Nacional de Colombia, Medellín, Colombia. In 2011 he received a DSc. degree in Rural Constructions from the Federal University of Viçosa, Minas Gerais, Brazil. Since 2003 is Professor at the Universidad Nacional de Colombia, teaching and advising in the areas of Design of Livestock Housing, Materials Technology for Livestock Housing, air quality and animal
welfare, thermal confort for animals, use of the CFD tool to predict air motion patterns in agro industry facilities. He is member of AMBIAGRO (Center for Research in Agro-Industrial Ambience and Engineering Systems) at the Department of Agricultural Engineering, Federal University of Viçosa and of the research group in agricultural engineering at the Universidad Nacional de Colombia. He is currently the Dean of the Faculty of Agricultural Sciences at Universidad Nacional de Colombia Medellin since 2012. I. de F. Ferreira-Tinôco, received the Bs. Eng. in Agricultural Engineer (1980), the MSc. degree in Animal Structures (1988), the DSc. degree in Animal Sciencesm (1996), all of them from the Federal University of Lavras, Minas Gerais state, Brazil. She is currently associate professor at the Department of Agricultural Engineering of Federal University of Viçosa, Brasil, and coordinates the UFV branch of the following scientific exchange programs: (1) CAPES/FIPSE Agreement involving the University of Illinois and University of Purdue, in the U.S.A.; (2) Umbrella Agreement amongst UFV and Iowa State University, University of Kentucky (both in the U.S.A.); (3) Scientific and Technical Agreement amongst UFV and University of Évora (Portugal), Universidad Nacional de Colombia (Colombia), Iowa State University and University of Kentucky (U.S.A.). Also coordinates the Center for Research in Animal Microenvironment and Agri-Industrial Systems Engineering (AMBIAGRO) and is the President of the DEA-UFV Internation Relations Committee. Her research areas are design of rural structures and evaporative cooling systems, thermal confort for animals, air quality and animal welfare. R.S Gates, received the Bs. Eng. in Agricultural Engineering at the University of Minnesota (1978), the MSc. degree in Agricultural Engineering (1980) and PhD. in Biological Engineering (1984), all of them from the Cornell University, USA. He is currently Professor at the Agricultural and Biological Engineering Department, University of Illinois. Among his honors and awards has several honorable mentions and awards ASABE since 1987 in the areas of livestock, environment, and biology; He is a member of the American Society of Agricultural and Biological Engineering (ASABE, 2010) His research interest onclude: Controlled environment systems analysis, control and simulation, Dietary manipulation in poultry and livestock for reduced aerial gases and building emissions; poinsettia propagation and hydroponic lettuce, Control systems development including fuzzy logic, heuristics and vapor pressure deficit, Livestock production models for real-time economic optimization. E. M. Combatt-Caballero, received the Bs. Eng. in Agronomic Engineer in 1992, from the Universidad de Córdoba, Colombia, MSc. in Soils in 2004, from the Universidad Nacional de Colombia, Colombia, and Dr in 2010 from the Federal University of Viçosa, Brazil. He is currently a professor at the Universidad de Cordoba, Colombia and he is a head director of the soils Lab. His research interests include: crop physiology, chemistry and physics soil, soil analytical methods. K. S. Oliveira-Rocha, received the Bs. in Information Systems with experience in Computer Science, in 2005 from University Center UNA, the MSc. degree in Agricultural Engineering in 2008, and Dr. degree in with emphasis in Energy in Agriculture in 2012, all of them from at the Department of Agricultural Engineering at the Federal University of Viçosa, Brazil. He has experience in the areas of instrumentation, process control, data acquisition using electronic devices addressable systems, numerical methods applied to engineering, simulation, grain drying and aeration, ventilation systems, machine vision, image processing. He is a member of AMBIAGRO (Center for Research in Agro-Industrial Ambience and Engineering Systems), Department of Agricultural Engineering, Federal University of Viçosa, Brazil. F. Campos-de Sousa, received the Bs. Eng. in Agricultural and Environmental Engineering in 2012, the MSc. degree in Agricultural Engineering in the area of Rural Ambience Constructions in 2014, all of them from the Federal University of Viçosa, Brasil. She is currently a doctoral student in the field of Agricultural Engineering and Rural Constructions. She is currently member of AMBIAGRO (Center for Research in Agro-Industrial Ambience and Engineering Systems), Department of Agricultural Engineering, Federal University of Viçosa Brazil.
143
Airport terminal choice model Claudia Helena Muñoz-Hoyos a, Ivan Sarmiento-Ordosgoitía b & Jorge Eliécer Córdoba-Maquilón c a
Facultad de Minas, Universidad Nacional de Colombia, Colombia. chmunozh@unal.edu.co Facultad de Minas, Universidad Nacional de Colombia, Colombia. irsarmie@unal.edu.co c Facultad de Minas, Universidad Nacional de Colombia, Colombia. jecordob@unal.edu.co b
Received: November 12th, de 2013. Received in revised form: May 12th, 2014. Accepted: May 28th, 2014
Abstract Most studies about air travel have dealt with individual issues such as fares, delays and other variables inherent in this mode of transportation, as well as why travelers chose the air mode against other modes, but little has been done to model how a traveler chooses an airport between two available options in a big city. Currently a passenger from the city of Medellin - Colombia to some domestic destinations, has the option of traveling by either of the two airports, Jose Maria Cordova (JMC) or Enrique Olaya Herrera (EOH). This research presents the results of a stated preference survey in a discrete choice experiment, and based on this, a model by destination is obtained; for each one of these models multinomial logit and mixed logit were applied, and evaluated, for each model multinomial logit was chosen as the best. Keywords: Discrete choice model, airports, air transport.
Modelo de elección de una terminal aeroportuaria Resumen La mayoría de los estudios del modo aéreo han tratado individualmente los aspectos de tarifas, demoras y demás variables inherentes a este medio de transporte, así como la elección del modo aéreo frente a otros modos, pero poco se ha hecho por modelar cómo un viajero elige un aeropuerto entre dos opciones disponibles en una gran ciudad. En la actualidad un pasajero que parte de la ciudad de Medellín - Colombia a algunos destinos nacionales, tiene la opción de viajar por alguno de los dos aeropuertos, el José María Córdova (JMC) o el Enrique Olaya Herrera (EOH); esta investigación presenta los resultados de una encuesta de preferencias declaradas en un experimento de elección discreta, y partiendo de esto se obtiene un modelo por destino; para cada uno de estos se hallaron modelos logit multinomial y logit mixto; en cada trayecto evaluado se eligió el logit multinomial como el mejor. Palabras clave: Modelo de elección discreta, aeropuertos, transporte aéreo.
1. Introduction During the past few years air passenger transport has experienced a noticeable growth, which indicates the importance of studying the demand for this means of transport. Many cities in the world have or are serviced by more than one airport (London, Paris, New York, Washington, Medellin, etc.). Even though choice models have been studied between planes and trains, planes and cars, planes and busses, Very few variables are found in the literature which influence the choice of an airport terminal, in the cities which have two airports, given that a user has already decided to use the air mode. In this article the econometric considerations are addressed to estimate the demand that each of the airports would have for different journeys on domestic flights.
This research is illustrated with the particular case of Medellin and its metropolitan area, Since this area has two airports, the Enrique Olaya Herrera located in the city of Medellin and the José Maria Córdoba located 40 kilometers from the metropolitan area, both airports have direct competition since airplanes can depart from both airports to common destinations. This article shows the different applications of economic principles in choosing an airport. Microeconomic theory applies due to the consumer decision-making to maximize utility, given a series of restrictions. This is how an air travel passenger has the option of travelling to Bogota by any of the two available airports in the city of Medellin, keeping in mind that both terminals offer a variety of rates, besides the time and cost that the user experiences to travel to each one of them. The article contains 6 sections. In section 2 is a state of
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 144-151. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40825
Muñoz-Hoyos et al / DYNA 81 (187), pp. 144-151. October, 2014.
art review, in which the theory of the discreet choice models is presented and will be used to study the choice between the two closest airports. Among the possible models the Multinomial Logit model and mixed Logit are analyzed; through these models the behavior of individuals faced with the two alternatives can be analyzed. At the same time, the subjective value of the time given by each selected model can be determined. The Biogeme program is used for the survey process and for obtaining the model. Section 3 presents the applied methodology for the study and the application case to the city of Medellin. Section 4 presents the different models developed for several common journeys, which are also discussed. In section 5 the most relevant conclusions are extracted and the recommendations for future research. Finally in the last section, the bibliographic references are presented. 2. State of Art review According to civil aeronautics, passenger transportation in Colombia over the past decade has duplicated the number of travelers, national passenger mobilization figures went from 7,854,000 to 14,627,000 between 2001 and 2011. For international flights [1], the numbers also duplicated in the same period of time and went from 3,060,000 to 6,960,000. 2010 is considered to be the year of highest growth in aviation market history, over the previous year, the domestic level increased 30.3%, mobilizing a historic peak of 13.2 million passengers annually; the international market has mobilized about 6.2 million passengers, growing 11.5% compared to 2009 [1]. Of the 21 million passengers that Colombia mobilized in 2011, 6 million did so, through the two airports that are in the metropolitan area. [1] 2.1. Modeling demand at airports Within the framework of an air transport company, marketing must perform certain functions designed to analyze and understand the market where the company is moving, identify customer needs and promote and develop a demand for the company's products. The knowledge of the markets, which is consistent with strategic marketing, will allow firms to tailor their offerings to the market. [2] The aviation industry’s strategic planning is based on the demand of the routes. The prediction of passengers expected to travel is important and it make necessary the use of models. The discret choice model development applied in airports, gives airlines and airport operators an important understanding in the different factors concerning service. Improving the service is possible to increase the participation in the air transportation market [3]. The model for choosing airport terminal represent a support in making decisions, for example, they can help to analyze new routes, in reducing connection times, in price analyzing, in flight programming and profitability efficiency. An airport terminal choice model is an effective tool for planning and decision making for both tactical and strategic levels. Previews studies have helped greatly in understanding the connection between the attributes of the flight and air
mode choice. A multinomial logit model was developed by Algers and Beser [4] for flights and class reservations, while Proussaloglou and Koppelman [5] modeled the simultaneous choice of airline, flight, type of ticket taking out the balance between market presence, quality service, frequent flight membership programs, rate categories, flight restrictions and flight programming. Logit models were obtained in previous works; the costs for passengers who were willing to pay for a higher class ticket or to travel on a membership airline in the frequent flyer program were estimated. Coldren and Koppeman estimated that route choice models were measured by the exceptional service impact provided by airlines of each route using an added logit model (MNL); these MNL are suitable to describe the attribute service impact in the chosen airport terminal. However, the implied competition between airport terminals is assumed to be consistent when its function is with MNL, this is shown by a well-known property of the MNL model, the independence of irrelevant alternatives, establishes that the probability of choosing any airport is an independent indication. Proussaglou and Koppelman [5], and Parker and Walker [6], formed and evaluated schedule delay impact, which indicates the difference between the passengers preferred flight time and the flight hours offered. These schedule delay studies indicate a negative impact probability in choosing a particular flight. Proussaglou and Koppelman [5] also showed that delays affect business travelers more than pleasure travelers, just like affect passengers who take flights that take off before and after their preferred flight time. Parker and Walker [6] use a nonlinear function to evaluate the increasing delay effect between take off time and route usage. The studies mentioned above are due to two general categories: studies based on official information with a high geographic gathering level or limited to few Origin— Destination pairs, or survey studies implementing both with revealed preferences and stated preferences and information covering a very limited Origin—Destination pair number. In both cases, studies consider that for on Origin—Destination pair, is from one airport and the Origin choice problem is not studied. The only work found, is from Mendieta and Cantillo [7] who determine an airport terminal choice model, but using shown preferences. 2.2. Discreet choice models Discrete election models are based on the random utility theory, which is based on the principle that the probability of a given option being chosen by an individual is dependent on socio-economic characteristics and the relative attraction of the option [8]. The utility is formed considering the deterministic component observed by the analyst, and an unknown random component. In each alternative, the utility function of the deterministic component is represented according to its attributes, such as flight time and cost of the trip, and also the characteristics of the passengers (age, gender, income, occupation, etc.). The transportation models were initially developed based on added approaches, but the use of disaggregated
145
Muñoz-Hoyos et al / DYNA 81 (187), pp. 144-151. October, 2014.
discreet choice models was to calibrate them. The test shows that the indirect use of alternative j for an individual q, Ujq, is represented by the sum of a known term known by the modeler and a random term [9], as shown in equation 1:
U iq Viq iq
(1)
Viq belongs to a measurable utility part, which is the alternative attribute function and the individual characteristics and εiq a random error which includes all unknown factors or were not taken into account by the modeler.
Vin, a random component εin independently and identically distributed, and one or more additional random terms ηin.Therefore, the utility function is defined in equation 4
U in Vin in in
(4)
The most interesting characteristic of this model is that, under certain conditions, any random utility model is likely to chosen to be approximately as close as wanted by a mixed logit [10]. 3. Case study
2.2.1. Multinomial logit model
3.1. Methodology
The random utility theory considers that the individual chooses the maximum utility alternative, which is choosing option i (see equation 2):
The methodology consist in five steps. In the first step it was necessary to define a region with two airports in a metropolitan area of a city, with some common destination journeys. In the second step, a survey was designed with basic information revealed (RP) about the socioeconomic characteristics of the traveler, and another Stated Preferences (SP) survey that permits to capture the sensibility and different variables in a customer’s hypothetical case was also design. In the third step, the pilot test was performed and the survey is corrected with changes to be considered. In a fourth step, a revealed preference (RP) and stated preference surveys were carried out. The (SP) consists of questions about decisions (airport chosen) that the individuals eventually make under a series of fictitious aspects, proposed by the investigator according to his objectives. In this case, different situations were investigated to make a trip through any of the two airports considered; such situations are caused from the different values of attributes that are investigated; such as the ticket cost (CT); the trip to the airport cost (CD), and the traveling time to the airport (TV), which is a new variable in this type of studies, as shown in previous studies above, studies focus on comparing routes that are related to different airlines that serve an airport, discreet choice models are obtained through the development of this investigation, which permits customers to know the differences between costs and travel times to two airports competing from the origin of the trip.[11] Each of the three variables mentioned (CT, CD and TV) is divided in three levels; high, medium and low. The SP survey design details are in Muñoz [11]. See Table 1 and Table 2
U iq U jq
(2)
The probability of the alternative is Piq, of mode i; being chosen by individual q; among all j alternatives, is given by equation 3: [10]
Piq
e
k X ikq
e
k
k Xjkq
(3)
k
j
The model estimation is to find the coefficients θk that more often generate the watched sample; which are most likely to maximize the possibility of an observed event. The parameter β is invaluable and that is why it is incorporated with the coefficient θk in one parameter. Xikq is the vector of k socioeconomic characteristics of the q individual (gender, age, income, etc.) and the alternative attributes i (time, fare, etc.).[10] 2.2.2. Mixed logit model The mixed logit is presumably a Uin utility function, formed from different components such as; deterministic
Table 1. Levels of the attributes in Medellin – Bogota Journey Ticket cost (CT) USD Level Aiport 0 1 2 JMC 67 83 100 EOH 40 106 122 Source: Adapted from [11] Table 2. Levels of the attributes in Medellin – Cali Journey Ticket cost (CT) USD Level Airport 0 1 2 JMC 62 78 94 EOH 72 103 133 Source: Adapted from [11]
The trip to the airport cost (CD) USD 0 1 2 6 14 33 6 8 12
The trip to the airport cost (CD) USD 0 1 2 6 14 33 6 8 12
146
Traveling time to the airport (TV) 0 1 2 00:40 00:50 01:00 00:15 00:20 00:30
Traveling time to the airport (TV) 0 1 2 00:40 00:50 01:00 00:15 00:20 00:30
Muñoz-Hoyos et al / DYNA 81 (187), pp. 144-151. October, 2014.
The variables contained in the survey are explained in Table 3 with their classification parameters Finally all information is gathered and the model is generated, and different structures are tested, then results are compared between them to get the best model for each Origin—Destination.
Table 3 Variables contained in the survey Variable
Description
CT CD TV SEX ED
Ticket cost Trip cost to each airport Travel time to get to the airport Gender: 0 (man), 1 (woman) Age: 0 (<= 50), 1 (> 50) One way trips made per year : 1 (0-5 trips), 2 (6-10 trips) and 3(>11 trips) Reservation time: 1 (0-5 days), 2 (6-10 days), 3 (> 11 days) Reason for the trip: 1 (Employment or Business), 0 (otherwise) Type of airplane preferred for the travel: 1 (<= 100 pax), 0 (> 100 pax) Who pays the ticket: 1 (respondent), 0 (Company or other person) Who chooses the airport: 1 (respondent), 0 (Company or other person) Type of transportation used to get to the airport: 1 (Private), 0 (Public) Number of companions: 1 (alone), 0 (Accompanied) Luggage: 1 (without luggage), 0 (with Luggage)
VI TR MOTAG NAVAG VPAG DVAG MTAG ACAG EQAG ESAG
3.2. Application case
Socioeconomic level: 1 (low level (1-2-3)), 0 (high level (4-5-6))
Source: Adapted from [11]
Nine (9) different situations were put in the survey and each airport was represented in terms of ticket cost (CT), the trip cost to each airport (CD) and the travel time to get to the airport (TV). In the survey development several variables were taken into account; such as gender (SEX), age (ED), one way trips made per year (VI), reason for the trip (MOTAG), socioeconomic level (ESAG), type of transportation used to get to the airport (MTAG), Luggage (EQAG), reservation time (TR), type of airplane preferred for to travel (NAVAG), who pays the ticket (VPAG), who chooses the airport (DVAG) and number of companions (ACAG).[11]
The airport passenger transportation market research was developed for passengers on routes from the Medellin metropolitan area to the main populated Colombian cities: Bogotá (IATA: BOG) and Cali (IATA: CLO), for the choices of the passengers in the Medellin metropolitan area, leaving from the airport terminals: Airport Jose Maria Cordoba (IATA: MDE) and the Enrique Olaya Herrera (IATA: EOH) from Medellin, which is the only Colombian state capital that has two airports. In 2012 the Medellin metropolitan area had 3.5 million inhabitants, Bogota more than 7 million inhabitants and Cali more than 2 million inhabitants, these being the three biggest urban areas in Colombia. These three urban areas combined cover over a third part of the county’s population. [1] Surveys were conducted in the waiting rooms of each airport (JMC and EOH). From 9 presented cases to 120 people with a destination to Bogota, 1,080 observations were obtained for the Bogota destination and 80 people with a destination to Cali, 720 observations were obtained for Cali, with this information two databases were built for each destination, in order to feed the BIOGEME program [12], and to begin modeling. 4. Results and discussion 4.1. Model estimation for each journey. Several models with different specifications were tested; these models vary in the number of estimated variables; the model is initially adjusted from the information obtained in the SP surveys for both journeys Medellin—Bogota and
Table 4. Value of the parameters in each Journey Variable
Parameter β1 β2 Θct θcd θtv θsex θed θmotag θnavag θmtag θtr θesag
CT CD TV SEX ED MOTAG NAVAG MTAG TR ESAG Sigma Likelihood ratio Lθ Rho square ρ2 Source: Adapted from [11]
Medellin-Bogota Journey MNL ML Value Test-T Value -0.369/ 0.97 -0.153 Fixed Fixed -0.0000141 (-8.03) -0.000013 -0.0000157 (-4.68) -0.0000164 -0.0167 (-2.32) -0.021 0.514 3.31 0.507 0.871 4.62 0.365 0.458 2.72 0.582 0.485 2.37 1.05 6.5 0.681 0.256 2.7
-597.962 0.201
0.00000263 -608.903 0.187
147
Test-T (-0.50) (-7.60) (-4.72) (-2.97) 3.34 2.1 3.6
Medellin-Cali Journey MNL ML Value Test-T Value Test-T 0.994 (-2.04) 1.09 (-2.1) Fixed Fixed -0.000012 (-6.85) -0.0000127 (-6.32) -0.0000186 (-3.98) -0.000025 (-2.88) -0.0205 (-2.03) -0.0227 (-2.11)
0.888 1.26
(-4.08) (-5.13)
0.437 0.709
(-2.73) (-3.25)
0.939 1.33
(-4.02) (-4.98)
4.42
0.12 -327.42 0.344
0.446 (-2.64) 0.727 (-3.15) -0.0000247 (-1.67) -326.843 0.345
Muñoz-Hoyos et al / DYNA 81 (187), pp. 144-151. October, 2014.
Medellin—Cali, different aspects were tested for the utility function, where many of the variables were statistically important at 95% confidence. The Multinomial Logit (MNL) and the Mixed Logit (ML) models were used for both journeys, of which the best two can be seen in Table 4. For the Medellin—Bogota trip, in all cases is that the signs are as expected; applying the t-student test, T>|1.96|, it can be noted that all the parameters are important, except for the mixed-logit model sigma, besides, the MNL has a better value for the statistics test ρ2, that is why the MNL model was chosen as it has the highest significant variable level within 95% of confidence and for the likelihood ratio test. The MNL production model, which is better for the Bogota destination is shown in equations 5 to 8. The specific constant of EOH airport in the model becomes zero to initialize the model.
ratio test. The MNL model production, according to the above is the best for the Cali destination, as it is described in equations 10 to 13.
The estimated time value for the Medellin—Cali journey is indicated in equation 14. This cost is close to 0.55 USD per minute or 33 USD/ hour.
4.2. Predictive Analysis.
The subjective time value is the effort that each person has to expend to reduce their travel time or the compensation that they are prepared to receive for loosing time. The subjective time value is estimated (STV) using the θTV/θCD equation. The subjective time value for the Medellin—Bogota journey is calculated in Equation 9. Taking the representative market rate 1USD=2,000COP á
This cost is close to 0.53 USD/min or 32 USD/hours. For the Medellin—Cali journey the MNL and ML [8] models were calculated. The MNL model is the only one that satisfies the condition that its variables are statistically important at a 95% confidence level; all models have consistency with the principal variable signs, as shown in Table 4. The best model is the MNL model, which shows the best rho-square (ρ2) and the L (θ) value test and for a likelihood
Airport terminal market fees can be calculated with the best chosen and estimated model, which means, the probability that each analyzed airport is chosen to perform each selected route. Yearly average information has been taken from the accomplished flights in order to improve the model. In all the survey aspects, costs and time were generally taken into account; In addition the statistical analyzes were taken into account as described in Muñoz, [11], which were basis for analyzing the respondents behavior and were used to assign the variable values in the utility function. Table 5 indicates the market share in the Medellin— Bogotá journey and, for the values of the variable presented, the probability of JMC could be chosen is 40% and for EOH is 60%. Even though even though the probabilities presented are the result of predictive analysis based on user choices actually JMC daily frequencies are 6 times more than EOH, and current demands hold the relation 80/20 between both (JMC/EOH) airports. This fact shows that many users look for or request a flight initially in EOH, but because of the flight necessity they are forced to travel from JMC. This is due to the fact that EOH, being within the city, has schedule limitations from 6pm to 6am, and restrictions on types of planes; additionally the fares to Bogota and Cali are limited and their availability decrease rapidly on the time
148
Muñoz-Hoyos et al / DYNA 81 (187), pp. 144-151. October, 2014.
Table 5. Market fees for the Medellin—Bogotá trips AIRPORT VARIABLE Ticket Cost (CT) USD Travel Cost (CD) USD Travel time to the Airport. Min (TV) JMC Sex (SEX) Age (ED) Types of planes (NAVAG) Ticket Cost (CT) USD Travel Cost (CD) USD Travel time to the Airport. Min (TV) EOH Transport means to get to the Airport (MTAG) Reservation time (TR) Purpose of the trip (MOTAG) Source: Adapted from [11]
Table 6 Market fees for the Medellin—Cali trips AIRPORT VARIABLE Ticket cost COP (CT) USD Travel cost COP (CD) USD JMC Travel time to the Airport. Min (TV) Level (ESAG) Ticket cost COP (CT) USD Travel cost COP (CD) USD Travel time to the Airport. Min (TV) EOH Reservation time (TR) Purpose of the trip (MOTAG) Types of planes (NAVAG) Source: Adapted from [11]
COST 75 25 60 1 0 1 110 5 20 0 1 1
VALUE 80 25 60 0 115 5 20 1 1 1
The airport terminal market fees in the Medellin—Cali journey, present a notable change between one and other, the probability to choose JMC is of 7% and for EOH is 93% as shown in Table 6, this situation is due to the fact that users indirectly know that both airports offer almost the same services, that´s why EOH is preferred, but in reality both demands are similar, showing again a transfer to JMC for the travel necessity and the insufficient flights in EOH to meet the demand 4.3. Result Analysis Given the differences in frequency for different services and different rates a destination model was achieved that shows why it was necessary to separate each model by destinations. This is how two new models appeared which will be presented next. 4.3.1. Utility function for the Medellin—Bogotá journey Based on the described models in equations 7 and 8, in which the gender (SEX) variable is included, for women this represents a utility increase value travelling by JMC, this may be because for them the terminal represents comfort, better schedule options, having the possibility of taking another flight in case they lose the reserved one, fewer airport closures due to bad weather factors, etc., elements which were not evaluated in the investigation. The age (ED) variable shows a utility increase in the JMC for
β
UTILITY
PROB.
No. PAX/Year potencial
-0.369
-3.27
40%
374,878
0
-2.88
60%
555,350
β
UTILITY
PROB.
No. PAX/Year potencial
0.994
-3.65
7%
7,657
0
-1.04
93%
104,135
older users in the age of 50, this situation shows that travelling by this airport represents better convenience for users, also more comfort in the waiting areas, a favorable situation for people of that age. Making a trip from JMC airport represents a bigger utility factor for people who don´t mind in what type of plane they travel in. Since JMC has all types of aircrafts, while the EOH is restricted for having aircrafts for certain passengers, this due to NAVAG (type of aircraft) variable, indicating when users are indifferent as to which type of plane they prefer to travel in. There may be some relation between this and the previous sex and age aspects, but this interaction was not investigated, there is generally a perception that big aircraft at JMC are safer and more comfortable than the small and medium aircraft that operate in the EOH airport. The MTAG variable (transportation means for arriving to the airport) represents better utility for people who travel in their own car to arrive at the EOH airport. This situation is because that airport terminal is within the city, so travelling there is easier by car, while getting to the JMC airport by car is more expensive, since this airport is more distant from the city (50 minutes) and represents a bigger fuel, toll and parking expenses (only the toll is 16,000 COP or 8 USD round-trip). For the TR (reservation time) variable, the utility is better for the EOH airport if reservation time is done with enough time in a ticket towards Bogotá, in this way is possible to get better air fares, which generally are higher
149
Muñoz-Hoyos et al / DYNA 81 (187), pp. 144-151. October, 2014.
than the JMC fares. According to air fare terms it is clear that travelling by the EOH airport is more expensive as shown in the MOTAG (reason for the trip) evaluation, because a great percentage of work or business trips are done by employees whose companies pay for their air tickets. 4.3.2. Utility function for the Medellin—Cali journey Analyzing Equations 12 and 13 for Medellin-Cali journey, the ESAG (level of earn) variable, people with lower income have better utility travelling by the JMC airport because they can find several airlines traveling to Cali, which indicates a possible price war that is reflected in the users benefit, since lower rates can be found at the EOH airport. For the NAVAG (aircraft type), travelling by the EOH airport represents better utility for people who prefer to travel in planes with less than 100 passengers, a related situation is that only small aircrafts land in this airport. According to the TR (reservation time) variable behavior within the utility function, indicates that if the ticket is booked with enough advanced time, this represents a better utility if it´s done by the EOH airport, since with this measure it is possible to get better air fares. The same as for the Bogotá destination with the MOTAG (reason for the trip) variable, in air fare terms is more expensive travelling by the EOH airport, but if it´s a work trip, the EOH airport represents better utility for the user, this is due to the fact that most work or business trips are reserved though companies who also pay the air ticket. 4.4. Subjective time value The subjective time value for the evaluated journeys presents a high value, this shows that, in general, people who use air transportation have high incomes, and can afford this means of transportation, which is expensive compared to other means. In addition to this analysis, when companies pay for the employee´s ticket, they also pay for transportation to arrive to the airport, this also adds a high time value, since the user does not matter the high ticket cost or the transportation means to the airport, this way behaving as a high income level user. It can be observed that for the Medellin—Cali journey and for the Medellin—Bogotá journey the subjective time value is similar, which is very consistent with the type of users who use the air mode, this means high value time travelers, with 1,100 COP per minute value, or 66,000 COP per hour (33USD per hour), when medium urban class travelers range between 30 COP and 300 COP per minute (0.9 to 9 USD per hour). 5. Conclusions
The approach in this article has been to use discreet choice models for the air transportation topic of passengers that contribute to this field of research; which also opens doors to future applications, not only in air transportation area, but for other fields of interest. When deciding which alternative airport to select, users evaluate ticket cost, airport travel cost and time. The multinomial logit and the mixed logit models were made from all the information collected from the chosen survey, after evaluating and comparing all models, it was noticed that the best model for both destinations was the multinomial logit model; these models show the main factors that impact the user when deciding by which airport they should travel from. Choice models were found for the Medellin-Bogota and Medellin-Cali journeys, which both have relevant common variables; such as ticket cost, the arrival cost to each terminal, travel time to each airport, type of aircraft, backup time and the purpose of trip. In addition, there were also some particular variables which were significant in each model, like for the Medellin—Bogotá journey the gender and age of the traveler is important, as is the means of transportation used to get to the airport. The socioeconomic level also influences in the Medellin—Cali journey. As a result in the subjective time value calculations which were performed for both destinations, finding costs over 1,100COP/min (0.55 USD/ min), which shows that most air travelers have high incomes and can access this means of transportation, which is expensive comparing to other transportation systems. It is recommended in future studies, to use the revealed preference results, and the stated preference models in order to obtain stronger models which take advantage of each type of models strengths. Models could also be estimated with users resident in destination cities, to determine how they choose from their cities to which terminal they should travel to or from and which terminal they should return to if the city that has two terminals, even though many non-local travelers don´t have the complete information about the location of both terminals. In future projects should include latent variables perceived as customer satisfaction and personality variables in order to obtain more powerful models. References [1] [2]
[3]
[4]
Air travel choice generally depends on time and cost, as well as the transportation means characteristics, such as land transportation, the poor roads condition, road safety, inconvenience and travel time, makes air travelling consuming increase.
[5]
150
ATAC, Boletín Económico Mensual No. 83., 2011. Arango-Serna, M.D, Branch-Bedoya, J.W. and Perez-Ortega, G., Factors innovation strategic marketing - A case applied to the household furniture industry in Itagüi (Antioquia), DYNA, 75 (155), pp. 29-36, 2008. Coldren, G., Koppelman, F. and Kasturirangana, K., Modeling aggregate air-travel itinerary shares: Logit model development at a major. US airline. Journal of Air Transport Management, 9 (6), pp. 361-369. 2003. Algers, S., Beser, M., A model for air passengers choice of flight and booking class a combined stated preference and reveled preference approach, ATRG Conference Proceedings, Vancouver. 1997. Proussaloglou, K. and Koppelman, F.S., The choice of carrier, flight and fare class. Journal of Air Transport Management, 5 (4), pp. 193201. 1999
Muñoz-Hoyos et al / DYNA 81 (187), pp. 144-151. October, 2014. [6]
Parker, R.A. and Walker, J., Estimating the utility of time-of-day demand for airline schedules, Presented Annual Meeting of the Transportation Research Board, Washington, DC, 2005. [7] Mendieta O. and Cantillo V., Modelación conjunta de la elección de itinerario, aerolínea y aeropuerto con información desagregada, Presented Congress PANAM 2012, 2012. [8] Ortúzar, J. de D. and Willumsen, L.G. Modelling Transport. 5th Ed. John Wiley and Sons, Chichester, 2011. [9] Domencich, T. and McFadden D., Urban travel demand: A behavioural analysis, Amsterdam: North Holland, 1975 [10] McFadden, D. and Train, K., Mixed MNL models of discrete response, Journal of Applied Econometrics, 15, pp. 447-470, 2000. [11] Muñoz-Hoyos, C., Modeling of the airport terminal choice of two nearby airports. MSc. Thesis, Universidad Nacional de Colombia, Colombia, 2012. [12] Bierlaire, M., Biogeme: A free package for the estimation of discrete choice models. Proceedings of the 3rd Swiss Transportation Research, Ascona, Switzerland, 2003. C. H. Muñoz-Hoyos, received the Bs. Eng in Civil Engineering in 2000, and MSc. degree in Infrastructure and Transport Systems in 2012, and she began the PhD in Civil Engineering in 2014, all of them from the Universidad Nacional de Colombia, Medellin, Colombia. From 2000 to 2012, she worked for road construction companies, and from 2012 to 2014 for the Poltiecnico Colombiano Jaime Isaza Cadavid and the Universidad Cooperativa de Colombia. Her research interests include: transport models, road construction,t raffic engineering and roads design. I. Sarmiento-Ordosgoitía, Has a PhD. in Transport Engineering and is Director of the Department of Civil Engineering of the Universidad Nacional de Colombia, Medellin, Colombia, since 2014. He was an Associate Professor (1996-2014) at the Universidad Nacional de Colombia at Medellin, Colombia. `He is director of the research group VITRA (A1 Colciencias). His research interests include: transportation: discrete choice analysis, transportation planning, transportation systems, public transportation, and sustainable and transportation systems. J. E. Córdoba-Maquilón, received the Bs. Eng. In Civil Engineering, in 1990, Post-graduate degree in Roads and Transportation, in 1997, the MSc. in Infrastructure and Transportation Systems, in 2007, PhD. in Engineering in 2011, all of them from the Universidad Nacional de Colombia, Medellin, Colombia, with the Dissertation: Discrete choice model integrating latent variables and bounded rationality. His studies include PhD. internships in: Italy, Unites States and Chile, advanced course: Discrete choice analysis at EPFL, Lausanne, Switzerland. Also received the Post-graduate degree in Organizational Psychology, in 2004 from the San Buenaventura University, Medellin, Colombia. He is Associate Professor of the Universidad Nacional de Colombia Medellin, Colombia since 2008, General Secretary of the Universidad Nacional de Colombia, Medellin, Colombia, in 2012-2014, is Director of the Department of Civil Engineering of the same University in 2012. He has strong theoretical foundation and practical experience in transportation and pavement engineering: discrete choice analysis, psychological latent variables, transportation planning, transportation systems, public transportation, sustainable transportation systems, and pavements.
151
Effect of an electrolyte flow on electrochemical hydrogen permeation Ana María Pérez-Ceballos a, Jorge Andrés Calderón-Gutierrez b & Oscar Rosa-Mattos c a
Grupo CIDEMAT, Grupo GIPIMME, Facultad de Ingeniería, Universidad de Antioquia, Colombia. ampc@udea.edu.co b Grupo CIDEMAT, Facultad de Ingeniería, Universidad de Antioquia, Colombia, jacalder@udea.edu.co c Laboratorio de Ensaios Não Destrutivos, Corrosão e Soldagem –LNDC-, Universidade Federal de Rio de Janeiro, Brazil, omattos@metalmat.ufrj.br Received: November 22th, de 2013. Received in revised form: June 10th, 2014. Accepted: July 10th, 2014
Abstract The influence of an electrolyte flux injection over the detection side on pure iron membranes on electrochemical hydrogen permeation test was studied. A modified Devanathan´s cell was used in the experiments. This cell allows the injection of an electrolyte flux over the hydrogen exit side during the permeation tests. In the hydrogen generation compartment a NaOH 0.1M + 2mgL-1 As2O3 solution was used applying a constant current of 2.85 mA. The detection side was maintained under potentiostatic control at potential values in the passivity range for iron. The solution used in the exit compartment was a borate buffer (pH=8.4). It was not observed a significant variation of the permeation current when an electrolyte flow was injected on iron samples, however, a slightly raise both of the steady state of permeation current density and the calculated permeation parameters was observed in the tests in which an electrolyte flux was applied. Keywords: Electrochemical hydrogen permeation; pure iron.
Efecto de un flujo de electrolito en la permeación electroquímica de hidrógeno Resumen Se ha estudiado el efecto de la aplicación de un flujo de electrolito sobre la superficie de detección de una membrana de hierro puro en ensayos de permeación electroquímica de hidrógeno. Para la realización de los ensayos se usó una celda del tipo Devanathan modificada, de tal manera que un flujo de electrolito fue inyectado directamente sobre la superficie de salida de hidrógeno. La generación de hidrógeno se realizó aplicando una corriente catódica de 2,85mA y se usó una solución de NaOH 0,1M + 2mgL-1 As2O3. La celda de detección fue mantenida bajo control potenciostático y se usó una solución buffer de borato de sodio (pH=8,4). No se observó una variación significativa de la corriente de permeación en los ensayos realizados aplicando flujo de electrolito. Palabras clave: Permeación electroquímica de hidrógeno; hierro puro.
1. Introduction The interaction of hydrogen with metals has been widely studied by electrochemical permeation tests due to their simplicity and flexibility [1-8]. These measurements, generally, involve the use of the electrochemical cell developed by Devanathan and Stachurski [9]. The technique is based on a hydrogen concentration gradient created in a metallic sample to achieve hydrogen diffusion through the metal thickness. The cell is a double compartment type, the sample is a flat sheet and it is located between the two compartments, on one side of the sample hydrogen is generated, adsorbed, absorbed and diffused through the
metal membrane by cathodic polarization (generation compartment). The opposite side is maintained over potentiostatic control in order to oxide the emergent hydrogen (detection compartment). The measured permeation current is expected to be proportional to the hydrogen flux. However, the relatively poor reproducibility of the technique may conducted to misinterpretation of the results obtained [3]. Additionally, electrochemical hydrogen permeation on iron and its alloys depends on the surface cleaning, sample preparation, defects and the surface oxidation state [10-13]. The exit side surface state has a higher influence on the hydrogen permeation [14]. Furthermore, the models used to calculate permeation
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 152-157. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40960
Pérez-Ceballos et al / DYNA 81 (187), pp. 152-157. October, 2014.
parameters like apparent diffusion coefficient and quantity of emergent hydrogen are proposed assuming well-defined boundary conditions. It is assumed that the hydrogen concentration at the entrance side is imposed instantaneously by both potentiostatic and galvanostatic charging. Furthermore, in all models it is assumed that the hydrogen concentration at the exit side is zero [3, 15-19]. However, some works has been demonstrated that the boundary conditions assumed are not respected during the entire permeation time [14, 20-23]. It is not a linear relationship between hydrogen steady state flow and the inverse of the membrane thickness when the hydrogen charge was made by cathodic way [24-26]. The calculation of the permeation parameters is made considering the stability of the iron surface, any interaction between hydrogen and both surfaces (in and out) is not considered [14,22,23]. Hydrogen diffusion in the metal/oxide system has been treated in similar way to the diffusion in laminated layers [27]. Due to the ionic character of oxides, hydrogen in an oxide layer must be considered as to be present in a charged species and very low hydrogen diffusion coefficients are expected in them. It is well know that the oxide coatings can act as barriers against the hydrogen entry into the metals, depending on time and on the electrochemical conditions of the surface [14, 24, 25]. The hydrogen transport through the passivated specimen could be retarded by the oxide films, mainly in the case of iron. The evolution of the passive layer avoids the stabilization of the hydrogen concentration on the detection side and induces a diminution of the hydrogen flux. Considering that the passive layer is impervious to hydrogen, the hydrogen concentration on the exit side increases, inducing lower permeation rates. That is to say, the transport of hydrogen through passivated iron is controlled mainly by the oxide [14,20,21]. Furthermore, the interaction between the hydrogen permeated at the outside of the metallic membrane and the iron oxide is not completely understood. The present study aims to investigate the interaction between the hydrogen permeated and the iron oxide presented at the detection side of the iron membrane by the application of an impinging jet of electrolyte over the detection side. The perturbation generated by a controlled impinging jet of electrolyte on the iron oxide layer could cause significant changes in the iron oxide layer and to induce changes in the hydrogen permeation rates. 2. Experimental The permeation of hydrogen was made in a modified Devanathan-Stachurski´s electrochemical cell developed in our laboratory. This cell allows the injection of an electrolyte jet directly on hydrogen detection side of the permeation membrane. The configuration of the modified cell is showed in Fig. 1. The cell was maintained at a temperature of 25°C during all measurements. All experiments were conducted using both, with the injection of electrolyte flux and, without application of any flux over detection side of the membrane. Platinum wire and saturated mercurous sulphate (SSE) were used as counter and reference electrodes, respectively. All potentials are hereafter referred to as SSE. The material studied was iron (99,95%) plates of 20mm
Figure 1. Configuration of the Devanathan and Stachursky´s modified cell. a) Impinging jet tube, which allows the injection of electrolyte flux on detection side of the membrane, b) Hydrogen detection chamber, c) Hydrogen generation chamber. Source: Authors
x 20mm x 0,25mm. In order to homogenize the iron microstructure, the samples were annealed in vacuum during 1 h at 900 ºC. The both sides of the iron samples were polished with SiC emery papers until 1500 grain size. The samples were cleaned using ultrasonic cleaning during 5 minutes with toluene, distilled water and finally in alcohol. Hydrogen was cathodically produced in the input cell and was anodically measured in the output cell with two potentiostats. Cathodic polarization of the entrance side was achieved in a galvanostatic way. The electrolytic solution used in the entrance chamber was NaOH 0,1M + 2mgL-1 As2O3, the cathodic current density used was 7 mAcm-2. A borate buffer solution (pH 8.4) was used in the hydrogen detection side, this solution was chosen based on its capacity to form and reduce an oxide film with some reversibility [19]. The detection side was maintained under potenciostatic control. At the initial time a reduction constant potential (-900 mV) was applied at the exit side during 300 s in order to remove the spontaneously formed oxide on air. After that, a oxidant constant potential (-160 mV) was applied, not only before the beginning of the permeation (in order to allow the passivation current to decrease to a quasi-stationary value) but also during the hydrogen permeation (in order to oxide the emergent hydrogen). The area under evaluation was settled at 0.414 cm2. 3. Results and Discussion Figs. 2 and 3 shows the hydrogen permeation transients of the samples tested without and with injection of electrolyte flux, respectively. Slightly modifications on hydrogen permeation transients were observed when an electrolyte flow was injected over detection side of pure iron membrane. For instance, higher slope of the current
153
Pérez-Ceballos et al / DYNA 81 (187), pp. 152-157. October, 2014. Table 1. Steady state permeation current density obtained from hydrogen permeation curves. Jsteady state [A cm-2] Without flux
With flux
Sample 1 7.40E-6 Sample 2 9.25E-6 Sample 3 9.01E-6 Sample 4 1.02E-5 Sample 5 1.13E-5 Sample 6 1.10E-5 Average 9.69E-6 ± 1.45E-6 Source: Authors Figure 2. Permeation transients for pure iron without injection of electrolyte flux. Source: Authors
Figure 3. Permeation transients for pure iron applying an electrolyte flux over detection side. Source: Authors
Sample 1 Sample 2 Sample 3 Sample 4 Sample 5 Sample 6 Average
1.04E-5 9.78E-6 9.86E-6 1.22E-5 1.54E-5 1.24E-5 1.17E-5 ± 2.15E-6
Table 1 and Table 2 present the steady state of permeation current density and the characteristic time lag obtained from hydrogen permeation curves performed in both kinds of experiments. Both, the hydrogen permeation current and the time elapsed to achieve the steady state are in same order of magnitude in the experiments conducted with and without electrolyte flux; however, the average value of the steady state current density is slightly higher and the time lag value is slightly lower when the electrolyte flux was applied over the detection surface. Taking into account that the passive layer is responsible for the decrease of steady permeation state [14, 20, 25] and that part of the hydrogen which arrives at the detection side can react chemically with the iron oxide [22, 28] reducing the hydrogen flux measured, it is reasonable suppose, that the flux of electrolyte applied over the exit side of the membrane could modify the oxide behavior and consequently the boundary conditions at the exit side. The time lag (tL) is the time required to obtain a steadystate of the hydrogen flow through the sample after the sudden change of the boundary conditions [3]. Equation (1) shows the relationship between the time lag (tL) and the diffusion coefficient (D), where S is the thickness of the sample [3, 5]. ଶ
(1)
Slightly superior values of tL have been observed in the experiments conducted without application of an electrolyte flux over the exit side of the membranes. The most likely explanation of this result could be related with the barrier effect given by the passive layer of iron oxide formatted on the detection side of the metallic membrane.
Figure 4. Comparison of the permeation transients for pure iron obtained with and without application of an electrolyte flux over detection side. Source: Authors
transient and higher steady state current permeation is observed in the experiments performed with electrolyte flux, as can be observed in Fig. 4.
Table 2. Characteristic time lag calculated by permeation transient analysis on pure iron. Time Lag (tL) [s] Without flux With flux Sample 1 12972.88 Sample 1 11004.92 Sample 2 16372.37 Sample 2 12324.74 Sample 3 11336.76 Sample 3 13679.87 Sample 4 11567.42 Sample 4 11044.71 Sample 5 11102.31 Sample 5 14270.00 Sample 6 12456.00 Sample 6 12148.00 Average 12634.62 ± 1964.10 Average 12412.04 ± 1340.62 Source: Authors
154
PĂŠrez-Ceballos et al / DYNA 81 (187), pp. 152-157. October, 2014.
Figure 5. Electrochemical impedance of pure iron in sodium borate buffer solution, pH 8.4 with electrolyte flow, before hydrogen permeation step. Source: Authors
Previous research has found that the passive iron oxide film could interact with the emerging hydrogen [22]. The emerging hydrogen finds adequate conditions to autooxidize and reduce iron oxide at the surface. XANES measurements showed that the oxide film may change due to their interaction with the emerging hydrogen. This means that the oxide film formed is not completely inert and could be changed due to oxidation / reduction reactions with emerging hydrogen from the metal. To verify the local electrochemical activity between the passive oxide film and the emerging hydrogen in this research electrochemical impedance spectroscopy (EIS) measurements are performed before, during and after the hydrogen permeation in presence of the electrolyte flow on the detection surface. The Electrochemical Impedance Spectroscopy (EIS) is a non-destructive technique usually used to characterize the behavior an electrochemical interface. Therefore it has important applications in evaluating the performance of bare or coated metals in different environments [29]. EIS diagram of pure iron in solution using borate buffer electrolyte flow before the step of hydrogen permeation in the open circuit potential (EOCP) is presented in Figure 5. It is observed that the impedance diagram is constituted by an open capacitive loop, with real and imaginary impedances rather large in the order of MOhms.cm2. This indicates a high stability of the passive oxide layer formed on the metal previous to hydrogen permeation and shows little reactivity of the oxide layer before the hydrogen emerges from the metal. EIS diagram of the metal made during hydrogen permeation at an anodic polarization potential (E = -0.160 V) is presented in Fig. 6. Unlike the EIS pattern obtained before hydrogen permeation, this diagram includes a capacitive loop at a characteristic frequency of 11 mHz, an inductive loop at a characteristic frequency of 1.0 mHz and a capacitive extremely low frequency loop at 0.1 mHz. The impedance of the system at this condition drops by about 100 times compared to the system before permeation. The drop of the resistance in the system is related to an increased reactivity of the passive oxide layer to interact with the emerging hydrogen. In fact new electrochemical extremely slow processes are evidenced by the impedance, according to the low frequency inductive loop (1.0 mHz) and a capacitive loop to extreme low frequency (0.1 mHz)
Figure 6. Electrochemical impedance of pure iron in sodium borate buffer solution, pH 8.4 with electrolyte flow, during hydrogen permeation step. Source: Authors
Figure 7. Electrochemical impedance of pure iron in sodium borate buffer solution, pH 8.4 with electrolyte flow, after hydrogen permeation step. Source: Authors
observed in EIS diagram of the Fig. 6. The inductive loop may be related to dissolution of iron or reduction of the passive oxide layer. Reducing Fe3+ to Fe2+ in the passive iron oxide layer has been demonstrated using in situ XANES measurements [22]. The extreme low frequency capacitive loop is related to the adsorption/desorption of emerging hydrogen and its subsequent oxidation H0/H+ at the surface during detection process. Electrochemical impedance measurement performed after the hydrogen permeation is presented in Fig. 7. It is observed that the impedance returns to its original state, showing a single open capacitive loop. This indicates that the reactivity of the surface becomes low again when the hydrogen permeation process is suspended and there is not emerging hydrogen from the metal surface. The passive film formed in the iron surface in contact with the electrolyte acts like as barrier to the hydrogen [4, 5], this barrier layer has low permeability and retards the diffusion of hydrogen trough the sample thickness and consequently, the time necessary to achieve the stationary concentration may increase substantially [1-6]. The observed differences, both of the steady state current and the tL values, indicates that the passive film could be modified during the permeation test when a flux of electrolyte was injected over the detection side. It is probably that the thickness of the passive layer is decreased when an electrolyte flow is applied. Consequently, higher steady state current density and lower time lag values could
155
Pérez-Ceballos et al / DYNA 81 (187), pp. 152-157. October, 2014.
be observed. The consequences of these phenomena could be tremendous when mass transport and material properties wish to be calculated from permeation curves. This has not been taken in account in many papers published in this topic [4-6]. The permeation curves analysis allows calculating the hydrogen permeation parameters: apparent diffusion coefficient and the emerging quantity of hydrogen at the exit side. A concentration change in the metal near the surface is monitored by changes in the electrochemical current of the surface, and a constant penetration of hydrogen, j (mole H cm-2 s-l), into the metal due to the electrochemical deposition can be measured according to equation (2):
The differences found in the permeation parameters are in concordance with the behavior observed on the permeation curves. The results obtained show that the iron oxide formed on the metal surface could be modified by applying an electrolyte flux during hydrogen permeation tests. However, the differences found in the permeation parameters are not significant in order to establish the role of the iron oxide passive layer on the hydrogen permeation rates. According to that, the results are not conclusive and other electrochemical techniques may be used in order to evaluate and clear up the changes that occurred at the iron surface and the role of the passive layer during hydrogen permeation. 4. Conclusions
(2) Where i is the current (A), F the Faraday constant and q the sample surface area. The time integral of the current yields the total amount of hydrogen absorbed by the metal. The parameters calculated are compiled in the tables 3 and 4. The apparent diffusion coefficient, when the value was calculated by the time lag method (equation1) [3], is slightly higher in the experiments carried out applying an electrolyte flux, this result is in concordance with the raise observed in the steady-state permeation current in this experimental condition. Similarly, the quantity of hydrogen that diffuses and reaches the exit side calculated from the area under the permeation curve is slightly higher when an electrolyte flux was injected. Table 3. Apparent diffusion coefficient calculated by permeation transient analysis on pure iron. Apparent Diffusion Coefficient (Dap,tL) [cm2 s-1] Without flux With flux Sample 1 Sample 2 Sample 3 Sample 4 Sample 5 Sample 6 Average
2.41E-08 1.91E-08 2.76E-08 2.70E-08 2.81E-08 2.51E-08 2.52E-08 ± 3.35E-09
Sample 1 Sample 2 Sample 3 Sample 4 Sample 5 Sample 6 Average
2.84E-08 2.54E-08 2.28E-08 2.83E-08 2.19E-08 2.57E-08 2.54E-08±2.69E09
Some differences were observed at the hydrogen permeation transients because applications of an electrolyte flux over the detection side of the pure iron membranes. A slightly increase of the steady state permeation current is obtained when an electrolyte is injected over the exit side. A delay of the time lag, which characterizes hydrogen permeation, was observed without electrolyte flux injection; the value of the time lag, tL is slightly higher in the experiments conducted without electrolyte flux. The calculated permeation parameters (Dap, tL and emergent hydrogen moles) are slightly higher in the tests in which an electrolyte flux was applied. The results obtained show that the oxide surface of iron could be modified by the flux of electrolyte applied during hydrogen permeation tests. However, these preliminary results are not conclusive and did not allow understanding the mechanisms involved in this changes. Acknowledgements Authors are pleased to acknowledge the financial assistance of the CODI – Universidad de Antioquia through the project N° MDC10-1-03 and “Estrategia de Sostenibilidad 2013-2014. One of the authors (PérezCeballos) is grateful with the Enlanza Mundos program of the Medellin Municipality and LNDC laboratory by the financial support during her stay in Rio de Janeiro-Brasil. References
Source: Authors [1] Table 4. Emergent hydrogen moles calculated by permeation transient analysis on pure iron. Emergent Hydrogen Moles [mol cm-2] Without flux With flux Sample 1 Sample 2 Sample 3 Sample 4 Sample 5 Sample 6 Average
1.82E-06 2.10 E-06 2.34E-06 2.62E-06 2.95E-06 2.06E-06 2.42E-06 ± 4.62E-07
Source: Authors
Sample 1 Sample 2 Sample 3 Sample 4 Sample 5 Sample 6 Average
2.80E-06 2.63E-06 2.31E-06 3.14E-06 3.52E-06 3.09E-06 2.91E-06 ± 5.34E07
[2] [3] [4] [5] [6]
156
Addach, H. Bercot, P. Rezrazi, M. and Takadoum, J., Study of the electrochemical permeation of hydrogen in iron, Corrosion Science, 51, pp. 263-267, 2009. Addach, H. Bercot, P. Rezrazi, M. and Wery, M., Hydrogen permeation in iron at different temperatures, Materials Letters, 59, pp. 1347-1351, 2005. Boes, N. and Züchner, H., Electrochemical methods for studying diffusion, permeation and solubility of hydrogen in metals, Journal of Less Common Metals, 49, pp. 223-240, 1976. Brass, A.M. and Collet-Lacoste, J.R., On the mechanism of hydrogen permeation in iron in alkaline medium, Acta Materialia, 46, pp. 869-879, 1998. Pyun, S.-I. and Oriani, R.A., The permeation of hydrogen through the passivating films on iron and nickel, Corrosion Science, 29, pp. 485-496, 1989. Schomberg, K., Riecke, E. and Grabke, H.J., Hydrogen permeation through passive films on iron, Paris, France, 1993.
Pérez-Ceballos et al / DYNA 81 (187), pp. 152-157. October, 2014. [7] [8] [9] [10] [11] [12] [13] [14]
[15] [16]
[17]
[18]
[19] [20]
[21]
[22]
[23]
[24] [25] [26] [27]
Zakroczymski, T., Electrochemical determination of hydrogen in metals, Journal of Electroanalytical Chemistry, 475, pp. 82-88, 1999. Zakroczymski, T., Adaptation of the electrochemical permeation technique for studying entry, transport and trapping of hydrogen in metals, Electrochimica Acta, 51, pp. 2261-2266, 2006. Devanathan, M.A. and Stachurski, Z., The adsorption and diffusion of electrolytic hydrogen in palladium, Proc. R. Soc. London Ser. A 270 1962, P.90. Wang, M.Q., Akiyama, E. and Tsuzaki, K., Hydrogen degradation of a boron-bearing steel with 1050 and 1300MPa strength levels, Scripta Materialia, 52 (5), pp. 403-408, 2005. Hardie, D. and Liu, S., The effect of stress concentration on hydrogen embrittlement of a low alloy steel, Corrosion Science, 38 (5), pp. 673-802, 1996. Heubaum, F.H. and Berkowitz, B.J., The effect of surface oxides On the hydrogen permeation through steels, Scripta Metallurgica, 16, pp. 659-662, 1982. Lee, J.L., Waber, J.T. and Park,Y.K., The effect of mechanical polishing on hydrogen permeation in iron single crystal, Scripta Metallurgica, 20, pp. 823-828, 1986. Manolatos, P., Jerome, M., Duret-Thual, C. and Le Coze, J., The electrochemical permeation of hydrogen in steels without palladium coating, Part 1: Interpretation difficulties, Corrosion Science, 37 (1), p. 1773-1783, 1995. Oriani, R.A., The diffusion and trapping of hydrogen in steel, Acta Metallurgica, 18, pp. 147-157, 1970. Leblond, J.B., and Dubois, D., A general mathematical description of hydrogen diffusion in steels Part I. Derivation of diffusion equations from boltzmann-type transport equations, Acta Metallurgica, 31, pp. 1459-1469, 1983. Leblond, J.B. and Dubois, D., A general mathematical description of hydrogen diffusion in steels, Part II. Numerical study of permeation and determination of trapping parameters, Acta Metallurgica, 31, pp. 1471-1478, 1983. Wu, E., A mathematical treatment of the electrochemical method of hydrogen permeation and its application in hydrogen traps and embrittlement, Journal of the Electrochemical Society, 134 (9), pp. 2126-2132, 1987. Zhang,T.Y., Zheng, Y.P. and Wu, Q.Y., On the boundary conditions of electrochemical hydrogen permeation through iron, Journal of the Electrochemical Society, 146, pp. 1741-1750, 1999. Manolatos,P., Le Coze, J., and Duret-Thual, C., Electrochemical permeation of hydrogen in iron - Influence of the passive layer formed on the detection side, Comptes Rendus De L Academie Des Sciences Serie Ii, 306, 1988. [21] Manolatos, P., Jerome, M. and Galland, J., Necessity of a palladium coating to ensure hydrogen oxidation during electrochemical permeation measurements on iron, Electrochimica Acta, 40 (7), pp. 803-937, 1995. [22] Modiano, S., Carreno, J., Fugivara, C.S., Torresi, R.M., Vivier, V., Benedetti, A., et al., Changes on iron electrode surface during hydrogen permeation in borate buffer solution, Electrochimica Acta, 53, pp. 3670-3679, 2008. Modiano, S., Carreño, J.A., Fugivara, C.S., Benedetti, A.V. and Mattos, O.R., Effect of hydrogen charging on the stability of SAE 10B22 steel surface in alkaline solutions, Electrochimica Acta, 51, pp. 641-648, 2005. Bruzzoni, P. and Garavaglia, R., Anodic iron-oxide films and their effect on the hydrogen permeation through steel, Corrosion Science, 33, pp. 1797-1807, 1992. Bruzzoni, P. and Riecke, E. On the mechanism of hydrogen transport through the passive oxide film on iron, Corrosion Science, 36, pp. 1597-1614, 1994. Bruzzoni, P., Efectos de superficie en la difusión de hidrógeno en hierro y aleaciones ferrosas, Dr. Thesis, Universidad de Buenos Aires, Buenos Aires, Argentina, 2003. Ash, R., Barrer, R.M., and Palmer, D.G., Diffusion in multiple laminates, British Journal of Applied Physics, 16 (6), pp. 873-875, 1965.
[28] [28] Oblonsky, L.J., Ryan, M.P. and Isaacs, H.S., In situ XANES study of the formation and reduction of the passive film formed on Fe in acetate solution, Corrosion Science, 42, pp. 229-241, 2000. [29] [29] Piratoba-Morales, U., Vera-López, E. y Ortiz-Otálora, C., Aspectos básicos en la interpretación de diagramas de impedancia electroquímica, DYNA, 77 (162), pp. 13-19, 2010. A.M. Pérez-Ceballos, received the Bs. Eng in Metallurgical Engineering in 2001 from the Universidad de Antioquia. Medellín, Colombia, the MSc. degree in Science and Technology of Materials in 2006 from Instituto Sabato, Universidad de General San Martin, Comisión Nacional de Energia Atómica, Buenos Aires, Argentina; nowadays is DSc. candidate in Engineering from the Universidad de Antioquia, (Medellin, Colombia. From 2006 to 2012, she worked as Full Professor in the Materials Engineering Department, Facultad de Ingeniería, Universidad de Antioquia, Colombia. Currently, she is Metallurgical Engineering for Friatec do Brasil, manufacturing industry of high corrosion resistant pumps. J.A. Calderón-Gutiérrez, received the Bs. Eng. in Metallurgical Engineering in 1992, the MSc. degree in Chemical Science in 1998, both of them from Universidad de Antioquia, Medellín, Colombia, the Dr. degree in Metallurgical and Materials Engineering, in 2003, from Universidade Federal de Rio do Janeiro, Brazil. He works as Full Professor in the Materials Engineering Department, Facultad de Ingeniería, Universidad de Antioquia, Colombia. O. Rosa-Mattos, received the Bs. Eng. in Metallurgical Engineering in 1975, the MSc. degree in Chemical Science in 1977, both from Universidade Federal do Rio de Janeiro, Rio de Janeiro, Brazil, the PhD. in Physique Des Liquides in 1981, from Universite de Paris VI (Pierre et Marie Curie), Paris, France. He works as Full Professor in the Metallurgical and Materials Engineering Department, COPPE, Universidade Federal do Rio de Janeiro, Brasil.
157
Classic and bayesian estimation of Subjective Value of Time Margareth Gutiérrez-Torres a & Víctor Cantillo-Maza b b
a Programa de Ingeniería Civil, Universidad de la Costa, Colombia. mgutierr18@cuc.edu.co Programa de Ingeniería Civil y Ambiental, Universidad del Norte, Colombia. vcantill@uninorte.edu.co
Received: November 23th, de 2013. Received in revised form: March 10th, 2014. Accepted: April 28th, 2014
Abstract In this paper, we estimate different travel time components in an urban transport context in Bogotá, by using discrete choice models. For the analysis, we evaluate two different approaches for model estimation: the maximum likelihood estimation (classical) and the Bayesian estimation, allowing a comparison between both approaches when are used to estimate the subjective value of time (SVT) as the marginal rate of substitution between time and cost. We found that the average SVT when we used the classical estimation is US$0.14/min; meanwhile, the access time was US$0.21/min and the penalty for a transfer is US$0.74. On the other hand, the average values estimated when using Bayesian approach were US$0.15/min for the SVT in vehicle, US$0.21/min for the access time and US$0.83 for the transfer penalty. Keywords: Mixed logit models, Bayesian models, subjective value of time.
Estimación clásica y bayesiana del Valor Subjetivo del Tiempo Resumen En este artículo, se realizan estimaciones del valor de las distintas componentes del tiempo de viaje en el contexto del transporte urbano en Bogotá utilizando modelos de elección discreta. En el análisis, se evalúan dos enfoques: estimación por máxima verosimilitud y técnicas bayesianas, permitiendo una comparación en la estimación del valor subjetivo del tiempo (VST) como la tasa marginal de sustitución entre el tiempo y el costo. Se encontró que el VST del tiempo de viaje para la estimación clásica fue en promedio de US$0,14/min, del tiempo de acceso de US$0,21/min y por último la penalidad por transbordo del orden de US$0,74. Por otro lado, los valores promedio estimados con la modelación Bayesiana son de US$0,15/min para el tiempo de viaje, el tiempo de acceso US$0,21/min y de US$0,83 la penalidad por el transbordo. Palabras clave: Modelos logit mixto, Estimación bayesiana, Valor subjetivo del tiempo.
1. Introducción La estimación económica de los ahorros en tiempos de viaje es un concepto que se ha desarrollado extensamente en el campo de la modelación de transporte, relevante para la evaluación de proyectos de este mismo tipo. Se han propuesto diferentes métodos para su estimación, siendo los más usados las obtenidas de modelos de elección discreta utilizando información de encuestas de preferencias declaradas (PD) y de preferencias reveladas (PR). Desde los inicios de estos modelos a mediados de los años 60s hasta hoy se ha recorrido un largo camino que ha permitido tener metodologías cada vez más eficaces para su estimación. Ese es el caso de los modelos logit mixto (ML) [1] que permiten mayor flexibilidad en comparación con el tradicional logit multinomial. La estimación de los ML por medio de máxima verosimilitud ha sido tema de estudio y
discusión por la necesidad de contar con técnicas computacionales robustas capaces de hacer un gran número de cálculos. Diferentes autores [2-6] han desarrollado nuevas técnicas para estimar modelos ML destacando la estimación de parámetros individuales por medio de técnicas bayesianas. En este artículo, mediante el uso de modelos de elección discreta, se realizan estimaciones del valor de las distintas componentes del tiempo de viaje; como son, tiempo de viaje en vehículo, tiempo de espera y tiempo de caminata, en el contexto del transporte urbano de la ciudad de Bogotá, involucrando además variables socioeconómicas. En éste análisis se utilizan dos enfoques: la estimación clásica por máxima verosimilitud simulada y la estimación bayesiana, teniendo esta última la ventaja de permitir estimar parámetros individuales. Fueron empleados datos derivados de un experimento de preferencia declaradas aplicando a poseedores de vehículo privado con el fin de estudiar la transferencia modal [7] ante
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 158-166. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40863
Gutiérrez-Torres & Cantillo-Maza / DYNA 81 (187), pp. 158-166. October, 2014.
una nueva alternativa aún no implementada como es el metro y el Sistema Integrado de Transporte Público SITP. El resto del artículo está organizado de la siguiente manera. El capítulo 2 presenta la base microeconómica y la formulación econométrica de los modelos de elección discreta. El capítulo 3 muestra el diseño del experimento y el análisis de los datos obtenidos del mismo, y el capítulo 4 resume la formulación y evaluación de modelos. Finalmente, el capítulo 5 concluye la investigación con las nuevas evidencias encontradas del tema estudiado. 2. Marco Conceptual Econométrico 2.1. Modelos de elección discreta Los modelos de elección discreta tienen su soporte en la Teoría de la Utilidad Aleatoria (TUA) [8,9] donde se postula que el individuo n enfrenta un conjunto de alternativas J y asocia a cada alternativa i una utilidad de tipo probabilística Uin, eligiendo aquella alternativa que maximiza su utilidad. Cada alternativa i tiene asociada una utilidad Uin para el individuo n, y se supone que se puede representar por dos componentes:
Para estimar los modelos ML, el procedimiento clásico emplea el método de máxima verosimilitud simulada [1]. La utilidad de la alternativa i en la observación t del individuo n está definida por la expresión U int βn Xint in , donde los coeficientes βn siguen una distribución en la población, con media b y matriz de covarianza W. Los coeficientes pueden tener diferentes tipos de distribución, siendo las más utilizadas la normal, lognormal, triangular y uniforme. Sin embargo, el uso de distribuciones diferentes de la normal para modelos mixtos, pueden tener dificultades al momento de localizar el máximo en la función de verosimilitud, prefiriéndose la función normal, donde no sucede lo antes descrito [10]. En la estimación clásica los parámetros b y W se consideran fijos, y representan los valores verdaderos de la media y la covarianza de los coeficientes βn. El modelador especifica una distribución para los coeficientes y estima los parámetros de la distribución [1]. Las probabilidades de elección serán no condicional:
(1)
La componente sistemática o representativa Vin, frecuentemente especificada lineal en los parámetros Vin= βiXin, es función de los atributos medidos u observados Xin y de un vector de parámetros a estimar βi,. La componente aleatoria εin, refleja la idiosincrasia y los gustos particulares de cada individuo, además de errores de medición y observación u omisiones por parte del modelador. Los residuos εin son variables aleatorias con media cero. Se tienen distintos modelos probabilísticos dependiendo de la distribución estadística que se considere. En la mayoría de las aplicaciones, las distribuciones usadas han sido las de Valor Extremo Generalizados que dan lugar a los modelos de tipo logit, y la distribución Normal, que da lugar a los modelos de tipo Probit [1]. Es posible considerar la heterogeneidad aleatoria especificando modelos ML de parámetros aleatorios [1], lo cual implica estimar la media y varianza del parámetro, donde ésta última indica la presencia de preferencias heterogéneas en la población muestreada, conocida como heterogeneidad no demostrada [2]. La utilidad de la alternativa i para el individuo n es:
2.1.1. Estimación Clásica
(3)
Donde la probabilidad condicional viene dada por: ఓ ࢄ
ఓ ࢄ ୀଵ
(4)
Para fines de normalización el factor de escala μ se asume igual a uno. Resolver la integral multidimensional (3) es complejo, por lo cual su cálculo se aproxima por medio de simulación [1]. De ésta manera, para cualquier valor de b y W dado, el proceso es como sigue: 1. Extraer un valor a β de la función f(β) y denotarlo como βr con el superíndice r=1 refiriéndose a la primera iteración. 2. Calcular la probabilidad Logit Lin(βr) con esta primera extracción. 3. Repetir los pasos 1 y 2 R veces y promediar los resultados. Este promedio es la probabilidad simulada: ୖ
ܚ
(5)
୰ୀଵ
(2)
Donde βn es un vector de coeficientes no observados para cada individuo n que varía aleatoriamente de acuerdo a sus gustos y puede expresarse como la suma de la media poblacional β y las desviaciones individuales con respecto a los gustos promedio de la población μn. Para la estimación de modelos tipo logit mixto se han desarrollado varios procedimientos, siendo el más conocido el método de máxima verosimilitud simulada o “estimación clásica”, y la estimación utilizando técnicas bayesianas.
Puede demostrarse que es un estimador insesgado de Pin por construcción, estrictamente positivo. Por lo tanto es posible definir el logaritmo natural de este estimador con el cual se aproxima la función de verosimilitud. La probabilidad simulada se inserta en la función de verosimilitud para obtener la verosimilitud simulada:
159
୧୬
୬ୀଵ ୧ୀଵ
(6)
Gutiérrez-Torres & Cantillo-Maza / DYNA 81 (187), pp. 158-166. October, 2014.
Donde din es igual a uno si el individuo n escoge i y cero en otro caso. El estimador de máxima verosimilitud simulada es el valor de b que maximiza SLL. Esta especificación simple trata los coeficientes que entran a la utilidad como variantes en la población pero constante en alguna situación de elección para cada individuo. Por lo tanto, en el caso de datos de panel (observaciones repetidas de un individuo) la simulación varía como se describe a continuación. La utilidad de la alternativa i en un caso de elección t por una persona n viene dada por ௧ ௧ ௧ y int siendo un término aleatorio que es iid valor extremo en el tiempo, en los individuos y en las alternativas. Al considerar una secuencia de elecciones, i={i1,…,iT}. La probabilidad condicional de observar que el individuo n la secuencia de elección, dado valores fijos de los parámetros del modelo ܖ, está dado por la ecuación 7.
௧ୀଵ
ࢄ
ఓ ࢄ ఓ ࢄ ୀଵ
(7)
La probabilidad de elección no condicional de se simula de forma similar que la probabilidad con un solo periodo. Se extraen valores de en su distribución, luego se calcula la función logit de cada periodo, construyendo la función de verosimilitud manteniendo los mismos valores en cada extracción para las observaciones de un mismo individuo. Este proceso se repite para R extracciones, y se promedia el resultado. Para incrementar la precisión en la estimación se pueden usar secuencias de baja discrepancia, siendo las más utilizadas en este campo la secuencia de Sobol y la secuencia de Halton [11, 4]. 2.1.2. Estimación Bayesiana La utilización de técnicas Bayesianas en la estimación de modelos logit mixtos está siendo ampliamente utilizada desde la introducción de este concepto [12]. Para el caso de coeficientes que distribuyen normal, puede estimarse los parámetros de estos modelos sin necesidad de calcular sus probabilidades de elección [1]. Un aporte adicional que entregan las técnicas Bayesianas es su utilización para realizar estimaciones de parámetros individuales, que en los casos de cálculo de valores subjetivos del tiempo (VST) permiten realizar estimaciones para cada individuo observado. El procedimiento de máxima verosimilitud clásico presenta dos dificultades principales en su estimación, que con las técnicas Bayesianas pueden evitarse. En primer lugar, los procedimientos Bayesianos no requieren maximización de ninguna función, ya que en casos de modelos logit mixtos o probit, especialmente aquellos con distribuciones lognormales, pueden ser numéricamente difíciles de estimar. Además, propiedades deseadas de los estimadores como consistencia y eficiencia se obtienen más fácilmente con técnicas Bayesianas que con la estimación clásica [1].
ࢄ ୀଵ
௧
(8)
La probabilidad no condicional es la integral L(yn/β) sobre todos los valores de β:
்
Para la estimación de los modelos logit mixtos, las técnicas bayesianas han empezado a utilizarse ampliamente [1,3,13]. En este caso se mostrará la aproximación desarrollada por Allenby [12], implementado por Sawtooth Software [14], y generalizado por Train [1]. Para una muestra de N individuos, donde βn distribuye normal en la población con media b y covarianza W, parámetros que son considerados estocásticos para el modelador [10], la probabilidad de que el individuo n observe la secuencia de elecciones yn, condicionadas a β está dada por:
(9)
Por otro lado, para el caso bayesiano el modelador tiene una función k(b,W) a priori, en la cual tiene una idea de los valores de b y W, posiblemente por anteriores estudios o un análisis lógico de la situación. Dicha función está combinada con la función de verosimilitud de los datos para dar como resultado la distribución posterior K(b,W). La distribución posterior de b y W es, por definición proporcional a la función de verosimilitud y a la función a priori:
(10)
୬
Es posible iterar directamente con el algoritmo de Metropolis-Hastings (MH), el cual sería computacionalmente muy lento. Sin embargo, la probabilidad de elección L(yn/b,W) es una integral no cerrada y puede ser aproximada por simulación, cada iteración MH requerirá simular L(yn/b,W) para cada individuo. Las iteraciones pueden ser más fáciles y rápidas si cada n se considera un parámetro a través de b y W. Train [1] discute como las medias posteriores de la estimación Bayesiana pueden ser analizadas desde una perspectiva clásica. Esto gracias al teorema de Bernsteinvon Mises, según el cual, asintóticamente, la distribución posterior de un estimador bayesiano converge a una distribución Normal, que es la misma distribución asintótica del estimador de máxima verosimilitud. Esto significa que el análisis estadístico clásico (por ejemplo, la construcción de los test estadísticos t para analizar la significancia de los parámetros) puede ser desarrollado por estimadores bayesianos sin comprometer la interpretación de los resultados. El mismo autor [10] compara ambas metodologías de estimación, incorporando funciones triangulares, concluyendo que no aconseja para estimaciones bayesianas usar funciones diferentes a la normal por su lentitud al estimar la función posterior [15].
160
Gutiérrez-Torres & Cantillo-Maza / DYNA 81 (187), pp. 158-166. October, 2014.
2.2. Modelos de elección discreta Una de las aplicaciones de los modelos de elección discreta que se derivan de la teoría de la utilidad aleatoria es el permitir la valoración de atributos que no son transables en el mercado. Es el caso del valor subjetivo del tiempo de viaje (VST), y otros como el tiempo de acceso y la penalidad del transbordo, obtenidos como la tasa marginal de sustitución entre el atributo que se desea valorar y el costo. El VST se estima como la tasa marginal de sustitución entre el tiempo de viaje y el costo de viaje a partir de las funciones de utilidad calibradas. Es importante recordar que el valor del tiempo se deriva de los estudios basados en la teoría microeconómica del comportamiento del consumidor, el cual enfrenta un problema de optimización que puede resumirse como maximizar la función de utilidad sujeto restricciones de tiempo e ingreso: ୧
୶
௫
௩
௩
(11)
ఛ ఛ
donde Pk y Xk son el precio y la cantidad del bien k, Ci es el costo de usar el modo o alternativa i, I representa el ingreso y J es el conjunto de alternativas disponibles. A su vez, tv es el tiempo de viaje, tx es el tiempo se emplea en las demás actividades y t son los distintos usos que los individuos le dan al tiempo si eligen la alternativa i. Aquí se tienen dos restricciones: la primera es de presupuesto y la segunda de tiempo, en el sentido que el tiempo disponible para realizar las actividades y para viajar no puede exceder cierto valor (por ejemplo, en un día las actividades no pueden exceder 24 horas). El VST es, en términos microeconómicos, un mecanismo a través del cual se intenta captar el equivalente monetario (disposición a pagar) de la disminución, en una unidad, del tiempo necesario para realizar una actividad. Cuando esta equivalencia captura la percepción individual, se habla del valor subjetivo del tiempo. “Si se nos pidiese una explicación intuitiva acerca de por qué preferiríamos, como parte de un esquema normal de actividades, demorarnos menos en el viaje diario a o desde el trabajo, probablemente llegaríamos a una conclusión que no por trivial deja de ser relevante: un viaje más breve podría permitirnos dormir más, desayunar más relajados, leer el diario, conversar con la familia, o trabajar más, entre otras posibilidades. En todos los casos se trata de sustituir parte de una actividad como el viaje por otra más placentera o útil” [16]. Beesley [15] sugirió una metodología para medir el valor del tiempo de viaje, la cual se enfoca en las condiciones para una medida exitosa [16] donde se explica que existen tres aspectos de valoración del tiempo que pueden tener gran impacto en el VST cuando se utilizan modelos de elección discreta, a saber: la heterogeneidad y no linealidad del tiempo, la estrategia de diseño para experimentos de preferencia declarada y la exploración de estructuras de covarianza del error de las alternativas en los
modelos de elección discreta. Con respecto al tema del diseño de experimentos, afirma que el VST estimado es sensible al número de alternativas por escenario, al número de escenarios presentados y al rango y niveles de los atributos tiempo y costo. Tradicionalmente, los valores subjetivos de los ahorros de tiempo de viaje se han obtenido a partir de modelos que imponen la homogeneidad de los gustos y que permiten derivar un valor único de las disposiciones a pagar para un individuo medio ficticio. Este es el caso de los modelos en los que se especifica una función indirecta de utilidad lineal y con parámetros genéricos (MNL), la expresión del VST para un individuo n será el cociente entre el parámetro del tiempo y el del costo:
(12)
La disposición a pagar puede diferir entre personas según sus preferencias y a sus características socioeconómicas. A pesar de que modelos más flexibles como el ML de parámetros aleatorios permiten captar la existencia de variación en los gustos en la población, las implicaciones de su utilización a la hora de derivar VST no están del todo claras, siendo la evidencia empírica al respecto poco concluyente. En este sentido, los estudios realizados hasta el momento muestran que los modelos que imponen la homogeneidad de las preferencias en una población que presenta variación en los gustos pueden conducir tanto a sobrestimar como a subestimar los parámetros. Aunque el tema de calcular distribuciones de los parámetros individuales para cada atributo presenta un gran reto para el modelador, se hace más interesante cuando este análisis se centra en el cálculo de las disposiciones a pagar. Cuando se tienen parámetros fijos, este cálculo se resume al presentado en la expresión anterior. Entretanto, cuando se tratan factores aleatorios, como es el caso de los hallados en los modelos ML, esto es un reto. Existen dos enfoques básicos para abordar este tema: usar toda la información que se tiene de la distribución o simplemente emplear la media y desviación estándar de la misma. El segundo enfoque, por técnicas bayesianas, es el menos empleado por su complejidad, aunque el más rico en información desagregada, por otro lado, la estimación de ML por máxima verosimilitud es el tradicional donde únicamente se tiene disponible la información a nivel poblacional (media y varianza de la distribución. 3. Experimento de Preferencias Declaradas Un experimento de preferencias declaradas (PD) fue realizado en Bogotá con el fin de analizar la elección modal ante la introducción del metro y el Sistema Integrado de Transporte Público (SITP). La población objetivo está constituida por los potenciales usuarios del sistema metro en el marco de un Sistema Integrado de Transporte Público, enfatizando en los poseedores de vehículos incluyéndose también la alternativa taxi. En el experimento de PD los
161
Gutiérrez-Torres & Cantillo-Maza / DYNA 81 (187), pp. 158-166. October, 2014.
individuos se enfrentaban a escenarios hipotéticos de elección para viajes en hora punta de la mañana con motivo estudio o trabajo, resultantes de un diseño experimental. El instrumento aplicado incluye tres partes. La primera hace referencia a información socioeconómica del encuestado, destacando ocupación, estrato socioeconómico, vehículos en el hogar, género, edad y estructura del hogar. La segunda, es una encuesta en la cual se pregunta sobre el último viaje realizado, incluyendo información sobre el motivo, hora, frecuencia, tanto para el modo escogido como para los modos alternativos, costos, tiempos de viaje, tiempos de acceso y transbordos, esta segunda parte es usada con el fin de conocer los valores actuales de los encuestados y acercar más a la realidad el experimento PD. Finalmente, la encuesta de preferencia declarada donde se presentan al individuo situaciones hipotéticas donde debe elegir entre dos modos: su modo actual el transporte privado y el metro como nuevo modo. Las variables consideradas en el estudio fueron: la tarifa definida como el costo del pasaje en transporte público, y en caso de automóvil el costo del estacionamiento más un costo de operación representativo a la distancia recorrida. La segunda variable el tiempo de viaje en vehículo, al igual que el tiempo de acceso (como la suma del tiempo de caminata asociado y el tiempo de espera) y finalmente el número de transbordo. Para el diseño, los atributos tarifa y tiempo de viaje fueron tratados en tres niveles de variación tomando un valor nominal referencial de acuerdo con los valores actuales. Para el atributo tiempo de acceso se consideró dos niveles. En el caso de transbordo se trabajó con dos niveles (0 y 1 transbordo) para viajes cortos, definidos como aquellos que son menores de 30 minutos; y tres niveles (0, 1 y 2 transbordos) para viajes largos entendidos como aquellos mayores de 30 minutos). Para definir los conjuntos de elecciones se procuró balances de utilidades sugeridos por Huber y Zwerina [17]. Se evaluaron distintas alternativas de grupos de elección y combinación de niveles en los atributos para generar las diferentes encuestas, una para viajes cortos, otra para viajes largos y, dependiendo de si tienen o no disponible su vehículo particular en ese día, se confronta con el auto o con el taxi. La construcción de los diseños implicó utilizar intercambio de niveles (swapping) y reetiquetamiento (relabelling) [17 – 19]. Las alternativas consideradas fueron cuatro, las cuales están enumeradas dentro de los modelos de la siguiente manera: 1 auto, 2 metro, 3 taxi y 4 SITP. Luego de excluir los individuos lexicográficos, con respuestas inconsistentes o caracterizados por patrones de comportamiento no compensatorios [21], finalmente se tuvo una muestra de 432 individuos, cada uno de los cuales fue enfrentado a 9 situaciones de elección, lo que resultó en 3.888 pseudo-individuos. 4. Estimación y comparación de modelos Durante el proceso de formulación y estimación de los modelos, se propusieron diferentes especificaciones de las funciones de utilidad. Finalmente se eligieron los modelos que presentaban mayor consistencia microeconómica y estadística. Las variables consideradas son:
ASCi: Constante específica del modo i, i= 1,2,3,4 para modos auto, metro, taxi y SITP, respectivamente. Tin: Tiempo de viaje del modo i (min) Accin: Tiempo de acceso del modo i (min) Transin: Número de transbordos. Cin: Costo del modo i ($) SexoMasculinon: Variable que identifica género del individuo, toma valor 1 hombre y 0 mujer. ηiT Desviación estándar del parámetro del tiempo de viaje, que se ha supuesto distribuye normal. ηiTAcc Desviación estándar para el tiempo de acceso, que sigue distribución normal.
La forma como las variables afectan la función de utilidad dependerá de un análisis previo que define de qué forma ellas afectan la función de utilidad (signo). Las variables tiempo de viaje, tiempo de espera, costo y transbordo, causan desutilidad para el individuo [1], luego se espera tengan signo negativo. Entretanto, el número de autos en el hogar afecta positivamente la utilidad del individuo. Sobre la variable sexo no se conoce a priori su efecto marginal. En la Tabla 1 se presentan los resultados de cada uno de los parámetros para las distintas variables y, entre paréntesis el estadístico t, para los mejores modelos estimados por los métodos clásico y bayesiano. En todos los casos se aprecia que los signos son consistentes y los parámetros son significativamente distintos de cero al 95% de confianza (t>1,96), a excepción del parámetro asociado a la constante específica del modo taxi, el cual es muy poco significativo. Tabla 1. Modelos de Elección Parámetros ASC2 ASC3 ASC4 βT (Tiempo de viaje) (1,2,3,4) βC (Costo) (1,2,3,4) βTACC (Tiempo de Acceso) (1,2,3,4) βTRANS (Transbordo – TP) (2,4) βNO_A (Número de autos) (1) βSEX (Sexo – TP) (2,4) ηiT ηiTAcc No de individuos Logverosimilitud L(θ) Rho cuadrado Media VST Viaje Media VST Acceso Penalidad por Transbordo Fuente: Los autores.
162
Clásico -1,04 (-5,05) 0,0474 (0,21) -5,88 (-10,13) -0,0945 (-12,80) -0,000364 (-9,67) -0,152 (-10,38) -0,509 (-6,19) 0,495 (4,76) 0,505 (3,99) 0,00625 (5,08) 0,0314 (5,64) 432 -2062,37 0,223 COP$258/min USD$0,13/min COP$417/min USD$0,22/min COP$1.398 USD$0,74
Bayesiano -1,83 (-9,77) -0,045 (-2,35) -2,47 (-8,54) -0,1248 (-17,32) -0,00044 (-11,25) -0,1743 (-14,57) -0,684 (-8,26) 0,3156 (3,72) 0,585 (5,33) 0,06081 (9,01) 0,0739 (5,62) 432 -1999,03 0,247 COP$282/min USD$0,15/min COP$395/min USD$0,21/min COP$1.554 USD$0,83
Gutiérrez-Torres & Cantillo-Maza / DYNA 81 (187), pp. 158-166. October, 2014.
Figura 1. Distribución del VST. Estimación clásica. Fuente: Los autores.
Figura 3. Distribución del VST. Estimación bayesiana Fuente: Los autores.
La estimación de la tasa marginal de sustitución de los modelos ML mediante la estimación clásica implica obtener las distribuciones de los parámetros mediante simulación. Así se tienen diferentes valores para el tiempo de viaje y el tiempo de acceso, de acuerdo con la media y la desviación estándar de los parámetros. Puede notarse que el modelo bayesiano presenta mejor ajuste estadístico, considerando su mayor logverosimilitud. Las tasas marginales de sustitución para el modelo bayesiano se estimaron como un promedio de los valores individuales, con el fin de comparar, tal como se muestra en la Tabla 1. Se presentan los valores en pesos colombianos (COP$) y su equivalente en dólares americanos (USD$). Nótese que los parámetros estimados para los tiempos y el costo con los modelos bayesianos son un poco mayores en comparación con el modelo clásico. Sin embargo, el momento de estimar las tasas marginales de sustitución, estos valores son similares en los dos casos, presentando pequeñas diferencias entre los dos enfoques. El VST como era de esperarse es menor que el VST de acceso, teniendo en cuenta, que los usuarios penalizan más un minuto de espera que un minuto dentro del vehículo. Por otra parte, el transbordo es penalizado cerca de tres veces más que el acceso. En la Fig. 1 y la Fig. 2 se muestra la distribución del VST de viaje y de acceso (VSTA), respectivamente obtenidas del modelo estimado por máxima verosimilitud. Los datos siguen una distribución normal, en correspondencia con la especificación de la distribución del parámetro. Por otro lado, de la estimación bayesiana se dispone los VST para
Figura 2. Distribución del VSTA. Estimación clásica Fuente: Los autores.
Figura 4. Distribución del VSTA. Estimación bayesiana Fuente: Los autores.
Tabla 2. Elasticidades directas Modo Auto Metro Taxi SITP Fuente: Los autores.
Elasticidad/Tiempo -0,7573 -1,1371 -0,4025 -0,0982
Elasticidad/Costo -0,4229 -0,4008 -0,3287 -0,359
cada uno de los individuos, sin embargo, en la Fig. 3 y Fig. 4 se presenta en forma de distribución con el fin de ser comparables con la obtenida con el método clásico. La tasa marginal de sustitución para el tiempo de acceso es valorado mayor que para el tiempo de viaje, pudiendo en algunos casos llegar a duplicar el valor. Los resultados indican que en general los individuos penalizan más fuertemente el tiempo de acceso, considerado ocioso, que el tiempo gastado en el vehículo. Un resultado importante de resaltar son las elasticidades respecto al tiempo y al costo, estimadas con el modelo bayesiano por tener el mejor ajuste y contar con información desagregada a nivel individual. Según los valores de elasticidades directas mostrados en la Tabla 2, los valores de elasticidad respecto del tiempo y del costo en la mayoría de los casos son inferiores a uno. Los usuarios mas inelásticos respecto del tiempo son los del SITP lo se explica por la mayor cautividad hacia ese modo. A su vez, comparando para cada uno de los modos disponibles, el metro es el modo más elástico al tiempo de viaje, atributo hacia
163
Gutiérrez-Torres & Cantillo-Maza / DYNA 81 (187), pp. 158-166. October, 2014.
el cual se tiene mayor sensibilidad. Es relevante notar la elasticidad del auto respecto del costo (-0,42), considerando que políticas como la tarificación vial generarán un desplazamiento hacia otros modos. Estos resultados son interesantes de resaltar, debido a que la mayor elasticidad se presenta con el tiempo y no con el costo para los usuarios de auto, consecuente con el hecho de que las encuestas fueron aplicadas a personas que en su mayoría trabajan y de estratos medio a alto, que tenderían a valorar más un cambio en el tiempo que en el costo. Por tanto, inversiones en ampliación de vías, aumentando la velocidad para los autos, tendrán un significativo efecto en el incremento del uso del transporte privado.
TARIFA $ 1.500,00
1
COSTO TAXI
$ 3.000,00
10 M I N
10 M I N
0
TIEMPO ACCESO 10 M I N
5 MIN
Figura A1. Opciones de elección para viajes cortos, usuarios de automóvil. Fuente: Los autores.
TARIFA $ 1.500,00
5. Conclusiones A través de la investigación se han estimado modelos de elección discreta tipo logit mixto de parámetros aleatorios, utilizando el método clásico de máxima verosimilitud y técnicas bayesianas, de los cuales se derivaron valoraciones del tiempo de viaje y penalidad por transbordo. Los modelos fueron estimados utilizando datos reales resultados de la aplicación de encuestas PD en la ciudad de Bogotá a usuarios de transporte privado. En la encuesta se pretendía analizar los cambios en la partición modal que pudiese ocurrir ante la introducción de un nuevo modo de transporte, específicamente el metro y el sistema integrado de transporte público. Los parámetros estimados con las técnicas bayesianas son ligeramente mayores que con máxima verosimilitud, situación que se explica por su menor varianza. De hecho, estudios recientes demuestran que la técnica bayesiana al incorporar la estimación de parámetros individuales reduce la varianza del error permitiendo que estos valores medios sean más cercanos a los verdaderos. En ambos modelos la elasticidad con respecto del tiempo es mayor que respecto al costo, teniendo en cuenta la naturaleza de los encuestados, poseedores de vehículo particular. En general, la elasticidad del costo está en el rango -0,36 a -0,42, y la del tiempo de -1.13 a -0,09. Se observó, además, que hay importantes diferencia en las elasticidades entre modos, siendo más inelástica ante el precio y el tiempo de viaje la demanda del transporte público y más elástico al tiempo de viaje el metro. Los valores promedio tanto del valor subjetivo del tiempo de viaje como el del tiempo de acceso calculado de los dos modelos resultaron similares. En promedio el VST es de COP$258/min en el modelo clásico y COP$282/min en el modelo bayesiano. La penalidad del VSTA fue notoriamente mayor, resultando de $417/min en el modelo clásico y $395/min en el bayesiano. Donde sí se aprecia una importante diferencia es en la estimación de la penalidad por transbordo, que resultó de COP$1.398 para el modelo clásico, en tanto que en el bayesiano es COP$1.554. Los altos valores de la penalidad por transbordo son un factor que se debe considerar en el diseño del SITP, que incrementará significativamente el número de transferencias, lo cual afectará la demanda por el transporte público. La distribución de los valores del tiempo de viaje y del tiempo de acceso obtenidos a partir de los parámetros individuales del modelo bayesiano siguen tendencias diferentes. En tanto que para el VST hay una simetría
TIEMPO ACCESO TRANSBORDOS
1
TARIFA $ 6.000,00
TIEMPO ACCESO TRANSBORDOS 20 M I N
10 M I N
0
TIEMPO ACCESO 30 M I N
5 MIN
Figura A2. Opciones de elección para viajes cortos, usuarios de taxi. Fuente: Los autores.
hacia la izquierda de la distribución, para el VSTA la asimetría es hacia valores más altos de la distribución. Para modelos usados en predicción, los autores recomiendan el uso de VST estimados por la metodología bayesiana, teniendo en cuenta que al reconocer individuos que tengan valoraciones del tiempo significativamente diferentes al promedio de la población, es posible plantear políticas específicas para esos individuos, como es el caso de subsidiost. Futuras investigaciones sobre la estimación del VST permitirán verificar la evolución de las percepciones en el individuo, involucrando variables latentes, que también pueden ser estimados utilizando los dos procedimientos aquí analizados. Además, comparar los resultados que aquí se obtuvieron considerando otros contextos de aplicación de los modelos de elección discreta. Resulta igualmente interesante realizar estimaciones del valor del tiempo para el transporte de carga y comparar resultados utilizando el procedimiento clásico y el bayesiano. Apéndice En la Fig. A1, se muestra una situación de elección presentada a individuos que realizaban viajes cortos (de menos de 30 minutos) a usuarios de vehículo particular mientras que la Fig. A2, presenta una situación para viajes largos (más de 30 minutos) para usuarios de taxi. Por otra parte, un análisis estadístico de la muestra, se muestra en la Fig. A3. La población se encuentra distribuida de la siguiente manera los estratos socioeconómicos 1 y 2 (más bajos) representan el 20% de la muestra, mientras que el estrato 3 (medio bajo) el 21,33%, el estrato 4 (medio) el 16,27%, el estrato 5 (medio alto) el 16,53% y el estrato 6 (alto) el 5,87%. Referente a la motorización, la Fig. A4 indica que el 62% de los entrevistados posee un vehículo, el 30% dos vehículos y un 8% posee tres o más autos en su hogar. Como era de esperar, la mayor parte de estos últimos corresponde a los estratos 5 y 6; esto es, los de mayores ingresos.
164
Gutiérrez-Torres & Cantillo-Maza / DYNA 81 (187), pp. 158-166. October, 2014.
Agradecimientos: Los autores desean agradecer al Departamento Administrativo de Ciencia, Tecnología e Innovación COLCIENCIAS y al Ministerio de Transporte de Colombia por haber financiado parcialmente la investigación que originó este artículo, a través del contrato RC- No 07912013. Referencias [1] [2] [3] Figura A3. Entrevistados según estratos socioeconómico Fuente: Los autores.
[4] [5] [6] [7]
[8] [9] [10] [11] Figura A4. Motorización de la muestra Fuente: Los autores.
[12] [13] [14] [15] [16]
[17]
[18] [19] Figura A5. Motivo de Viaje de Usuarios Encuestados Fuente: Los autores.
[20]
En la Fig. A5, se puede apreciar la distribución en la muestra según el motivo de viaje el cual en su mayoría es motivo trabajo en un 75%.
[21]
165
Train, K., Discrete choice methods with simulation. Cambridge University Press, Cambridge, 2009. Hensher, D. and Greene, W., The mixed logit model: The state of practice. Transportation, 30, pp. 133-176, 2003. Sillano, M. and Ortúzar, J., Willingness-to-pay estimation with mixed logit models: some new evidence. Environment and Planning A, 37, pp. 525-550, 2005. Bliemer, M., Rose, J. and Hess, S., Approximation of bayesian efficiency in experimental choice designs. Institute of Transport and Logistics Studies, 2006. Cherchi, E. and Ortúzar, J., Empirical identification in the mixed logitmodel: Analysing the effect of data richness, Networks and Spatial Economics, 8, pp. 109-124, 2008. Ortúzar, J., Estimating individual preferences with flexible discretechoice-models. Food Quality and Preference ,21, pp. 262–269, 2010. Moreno, D., Sarmiento, I. and Gonzalez, C., Políticas para influir en la elección modal de usuarios de vehículo privado en universidades: Caso Universidad de Antioquia. DYNA, 78 (165), pp. 101-111, 2010. Domencich, T. and McFadden, D., Urban travel demand: A behavioural analysis, North-Holland Publishing Co., 1975. Ben-Akiva, M. and Lerman, S., Discrete choice analysis: Theory and application to travel demand. Cambridge. Mass.: The MIT Press, 1985. Huber, J. and Train, K., On the similarity of classical and bayesian estimates of individual mean partworths. Marketing Letter, 12 (3), pp. 259-269, 2000. Garrido, R. and Silva, M., Low discrepancy sequences for the estimation of mixed logit, Transportation Research B, 2004. Allenby, G., An introduction to hierarchical Bayesian modeling. Advanced Research Techniques Forum, American Marketing Association, 1997. Godoy, G. and Ortúzar, J., On the estimation of mixed logit models. Transportation Research Trends, Chapter 9, pp. 289-310, 2008. Sawtooth Software, The CBC/HB module for hierarchical Bayes, 1999. Train, K., A Comparison of hierarchical bayes and maximum simulated likelihood for mixed logit. Working Paper, Department of Economics, University of California, Berkeley, 2001. Jara-Diaz, S., Ortúzar, J. y Parra, R., Valor subjetivo del tiempo considerando efecto ingreso en la partición modal. Actas del V Congreso Panamericano de Ingeniería de Tránsito y Transporte. Mayaguez, 1988. Beesley, M., Conditions for successful measurement in time valuation studies. Behavioral travel demand modelling and valuation of travel time. Transportation Research Board Special Report, 149, pp. 161-172, 1974. Hensher, D., The valuation of commuter travel time savings for car drivers in New Zealand: Evaluating alternative model specifications, Transportation, pp. 112-118, 2001. Huber, J. and Zwerina, K., The Importance of utility balance in efficient choice designs. Journal of Marketing Research, 33, pp. 307317, 1996. Hensher, D., Louviere, J. and Swait, J, Combining sources of preference data, Journal of Econometrics, 89, pp. 197-221, 1999. Sándor, Zand Wedel, M., Designing conjoint choice experiments using managers’ prior beliefs, Journal of Marketing Research, 38, pp. 430-444, 2001.
Guti茅rrez-Torres & Cantillo-Maza / DYNA 81 (187), pp. 158-166. October, 2014. [22] Cantillo, V. and Ort煤zar, J., A semi-compensatory discrete choice model with explicit attribute thresholds of perception, Transportation Research, 39B, pp. 641-657, 2005. M. Gutierrez-Torres, received the Bs. Eng. in Civil Engineering, in 2006, the MSc. in Civil Engineering, in 2012, both from Universidad del Norte, Colombia. Actually she is studiyng a PhD in Engineering Sciences (Transport), from Pontificia Universidad Cat贸lica de Chile, Chile. She is professor at Universidad de la Costa, Colombia, since 2011. V. Cantillo-Maza, received the Bs. Eng in Civil Engineering in 1987, from the Universidad del Norte, Colombia, the MSc. in Traffic and Transport Engineering in 1990, from the Universidad del Cauca, Colombia and the PhD. degree in Engineering Sciences (Transport), in 2004 from the Pontificia Universidad Cat贸lica de Chile, Chile. He is Associate Professor at Universidad del Norte, Colombia where since 1990. He is the head of the Transport Research Group - TRANVIA. His research interests include: transport planning, transport economics, transport modelling and logistics. He has also been working in other topics such as education in engineering, econometrics and construction materials.
166
The conceptual modeling in the process of computer-assisted generation of data warehouse models Lindsay Alonso Gómez-Beltrán a, Rosendo Moreno-Rodríguez b & Ramiro Pérez-Vázquez c b
a Dirección de Informatización, Universidad Camagüey, Cuba . lindsay.gomez@reduc.edu.cu Departamento de Física, Matemática y Computación, Universidad Central “Marta Abreu” de las Villas, Cuba. rosendo@uclv.edu.cu c Departamento de Física, Matemática y Computación, Universidad Central “Marta Abreu” de las Villas, Cuba. rperez@uclv.edu.cu
Received: November 23th, de 2013. Received in revised form: May 5th, 2014. Accepted: May 22th, 2014
Abstract This paper introduces the methodological guidelines for the data warehouse model computer assisted generation. These guidelines are divided into four different stages: information analysis, conceptual model and logical design are the first ones and the last one occurs within them and it is known as the traceability stage. These stages describe a data warehouse design proposal can be obtained from the inherited operational systems (E/R). One of the main stages we considered to be important is the data warehouse conceptual model. This paper goes deeper into the different ways to obtain the conceptual model from the logical structure of the institutional inherited systems, taking into account that these systems generally use a relational model in its structure. In order to accomplish this, it is proposed to use the interrelation among entities to generate a graph of interrelation of attribute and then apply a set of design rules to obtain the conceptual model. Keywords: Data warehouse design, Data warehouse model, conceptual model.
El modelado conceptual en el proceso de generación asistida por computadoras de modelos de almacenes de datos Resumen En este trabajo se presentan las pautas metodológicas para la generación asistida por computadoras de modelos de almacenes de datos (AD), estas pautas metodológicas se dividen en 4 etapas, las 3 etapas primeras son: análisis de la información, modelo conceptual y diseño lógico y una última que ocurre dentro de cada una de las etapas anteriores que es denominada etapa de trazabilidad. Estas etapas describen cómo podemos obtener a partir de los sistemas operacionales heredados (E/R) una propuesta de modelado de almacenes de datos. Una de las etapas que se considera de mayor importancia es el modelo conceptual del almacén de dato, en este trabajo se profundiza en la obtención del modelo conceptual a partir de la estructura lógica de los sistemas heredados de las instituciones, teniendo en cuenta que estos generalmente utilizan un modelo relacional en su estructura; para ello se propone utilizar la interrelación entre entidades para generar un grafo de interrelación de atributo y luego aplicar un grupo de reglas de diseños para obtener el modelo conceptual. Palabras clave: Diseño de almacenes de datos; Modelo de almacenes de datos; diseño conceptual.
1. Introducción Una de las temáticas que más desarrollo demanda en los momentos actuales en cuanto a las tecnologías software es sin dudas la Ingeniería del Software, y dentro de esta, el desarrollo de métodos y algoritmos apropiados que conlleven a la creación y explotación de herramientas que asistan por medios computacionales al desarrollo de otros sistemas (herramientas CASE).
Dentro del campo de los Sistemas de Información, basados en la explotación de Sistemas de Bases de Datos, en los últimos tiempos se ha desarrollado la creación y explotación de Almacenes de Datos como uno de los típicos Sistemas de Ayuda a la Toma de Decisiones. Estos sistemas que por concepto, manipulan información histórica recopilada en sistemas de información tradicionales de gestión empresarial, tienen el objetivo de descubrir nuevas informaciones que permitan avanzar en productividad y logros de todo tipo; se caracterizan entre otras cosas -según
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 167-174. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40971
Gómez-Beltrán et al / DYNA 81 (187), pp. 167-174. October, 2014.
varios autores entre los que se pueden mencionar a [1] y [2] por tener una estructura de tablas bastante diferente a la heredada de los sistemas tradicionales (casi siempre relacionales). Desde la introducción del modelo de datos multidimensional como formalismo de modelado para Almacenes de Datos, han aparecido en la literatura sobre el tema, distintas propuestas metodológicas para capturar la estructura del almacén de datos. Las soluciones siguen diferentes aproximaciones al diseño: las soluciones que tienen en cuenta solamente las necesidades de los usuarios (dirigidos por los requisitos), los que analizan la fuente de los datos (dirigido por las fuente de los datos) y algunos proponen un híbrido de estos dos paradigmas.[3] Para obtener un buen diseño del almacén de los datos es necesario utilizar una metodología que tenga en cuenta las necesidades de los usuarios y también las fuentes de los datos. El problema básico del diseño de un AD consiste en obtener un conjunto de esquemas multidimensionales que permitan satisfacer los requisitos de análisis de los usuarios y que puedan ser mantenidos por las bases de datos operacionales existentes en la organización. Las etapas del diseño de un AD pasa por el modelo conceptual, lógico y Físico. Algunas metodologías describen como llegar al diseño conceptual de un almacén de datos, dentro de estas podemos citar a: [4] que propone un diseño del almacén de los datos en donde se pasa por cuatro fases secuenciales: Análisis y especificación de los requerimientos, diseño conceptual, lógico y físico. Proponen obtener el modelo conceptual a partir de la entrada del esquema E/R de los sistemas operacionales, dividen este proceso en tres etapas secuenciales y posteriormente analizan cómo este cumple con la forma normal multidimensional. En [5] se propone una metodología híbrida en donde primero se aplica un paradigma suministrado por los datos para determinar los esquemas candidatos y posteriormente ser validado por una fase dirigida por los requerimientos. Esta es una de las primeras metodologías que se acercan al automatizado del proceso. En este trabajo se maneja la filosofía que las tablas que contienen más campos numéricos en el modelo relacional son promisorias a constituir una tabla de hecho en el modelo multidimensional, además plantean que cualquier tabla que tenga relación de uno a mucho con estas jueguen un papel de dimensiones; sin embargo, este acercamiento genera muchos resultados y no trabaja con la posibilidad de obtener un modelo que contenga una tabla de hecho sin hecho y tampoco se describe cómo se obtendría un modelado de constelación de hechos. En [6] se presenta un acercamiento híbrido para obtener un esquema multidimensional conceptual. Ellos proponen recoger los requisitos multidimensionales y después trazarlos hacia las fuentes de los datos en un proceso de conciliación. Sin embargo, ellos sugieren que su acercamiento también pudiera ser considerado como demanda-manejado si el usuario no quiere tener en cuenta las fuentes de los datos. El autor introduce una metodología orientada a metas basándose en una estructura i*. En [7] se presenta una metodología para obtener el
esquema conceptual multidimensional realizando preguntas SQL a los modelos relacionales. Este acercamiento es totalmente automático y sigue un paradigma híbrido. Aunque no lleva a cabo dos fases bien definidas (manejado por los datos o manejado por los requisitos), este es la primera que trata de automatizar la fase de manejado por los requisitos. Como podemos observar existen un gran número de metodologías que tratan de obtener el modelo conceptual. Existen otros trabajos que obtienen el modelado directamente a nivel lógico y algunos llegan a la obtención del modelo físico. En [8] se describe una herramienta que permite diseñar esquemas de AD a través de transformaciones, permitiendo obtener un modelo lógico de AD y una traza del diseño. Ellos desarrollan el modelo lógico del AD utilizando un grupo de transformaciones de esquemas a las cuales le llaman primitivas, las mismas abstraen y materializan técnicas de diseño, pero ellos no tienen en cuenta el modelo conceptual ni tampoco realizan una propuesta de las tablas de hechos, ni trabajan con base de datos heterogéneas. En [9] el trabajo parte de que el diseñador representa universo del discurso utilizando notación UML y con esto obtiene un esquema UML, al cual luego lo enriquecen, pero al igual que el anterior no tiene en cuenta las bases de datos heterogéneas y tiene como dificultad que el diseñador tiene que analizar la base de dato fuente, y solo trabaja para la generalización y agregación. En [3] se propone una metodología del diseño de almacenes de datos a nivel conceptual utilizando un contexto de MDA. En [10] se observar un trabajo profundo sobre MDA para la generación automática de código a partir de modelos UML. En [11] se define un armazón metodológica general para el diseño de almacenes de datos. Basado en un modelo de hechos dimensional (DFM), el autor habla de una metodología de forma general, pero no realiza un trabajo profundo en el proceso de semiautomatizar el análisis del esquema de las base de datos ni cómo se trabaja con las bases de datos heterogéneas, solo las menciona, dejando todo este trabajo en manos del diseñador. En este estudio se presenta un grupo de pautas metodológicas para la generación asistida por computadoras de modelos de almacenes de datos (AD), estas pautas metodológicas se dividen en 4 etapas, las 3 etapas primeras son: análisis de la información, modelo conceptual y diseño lógico; es necesario señalar que las etapas deben de aplicarse en el orden en que se mencionan y una cuarta etapa que ocurre dentro de cada una de las anteriores que es denominada etapa de trazabilidad. Estas etapas describen cómo podemos obtener a partir de los sistemas operacionales heredados utilizando el modelo lógico (relacional) una propuesta de modelado de almacenes de datos. En [12] se propone el desarrollo de la primera etapa (Análisis de requisito de información), este es un trabajo desarrollado por los mismos autores de este trabajo, por lo que en este trabajo solo se tocara algunos puntos importantes y el trabajo se enfocara en todos los detalles para la obtención del modelo conceptual. Se desarrollara un caso de estudio en donde se detalla cada uno de los elementos fundamentales de esta etapa.
168
Gómez-Beltrán et al / DYNA 81 (187), pp. 167-174. October, 2014. Tabla 1. Pautas Metodológicas. Etapas Análisis de requisitos información Modelo conceptual.
Entradas de
Salida
Involucra
1. Requisitos de Usuario 2. Esquema OLTP Esquema refinado
Esquema refinado Modelo conceptual
Diseñador, gerente de sistema de información y usuario final. Sistema, diseñador.
Diseño lógico
Modelo conceptual
Esquema lógico del AD
Sistema, diseñador.
Trazabilidad
Todas las etapas.
Traza del modelo.
Sistema
Fuente: Beltrán, L. A. G., et al., 2013
2. El desarrollo de las etapas En este apartado se presenta mediante la Tabla 1 la relación de cada una de las etapas, cuáles son las entradas de información necesarias y cuáles son sus salidas, además de los actores involucrados en cada una de las etapas. 2.1. Análisis de la información. (Análisis de requisitos de información) En los últimos años se han consagrado muchos esfuerzos por lograr metodologías de modelado multidimensional, en este sentido, se han logrado varios acercamientos y se ha presentado en la literatura, de forma que apoyen al diseño multidimensional de los almacenes de datos. En [12] se trabajó el análisis de la información utilizando el paradigma híbrido secuencial, en donde se utilizó primero un análisis de los requisitos de los usuarios para determinar las necesidades del usuario final y posteriormente analizar los sistemas OLTP de las bases de datos fuentes, buscando que las necesidades del usuario puedan ser mantenidas por las bases de datos operacionales existentes en la organización. En esta primera etapa se distinguen dos fases a desarrollar de forma secuencial: Fase 1 - Especificación de requisitos de usuario: consiste en identificar las necesidades de análisis de los usuarios. Fase 2 – Analizar los modelos de las base de datos operacionales: con el objetivo de buscar la información que mantenga las necesidades del usuario final dando como resultado un esquema refinado. En la literatura se puede encontrar que esta primera fase cuyo objetivo es obtener los requisitos de información que tienen los usuarios para el apoyo a la toma de decisiones, i.e. medidas interesantes y el contexto para su análisis. Puede realizarse utilizando diferentes métodos, se señalan dos trabajos que utilizan diferentes métodos y que se consideran los más importantes. En [3] se adapta un método de elicitación de requisitos basado en metas y en [13] se utiliza una aproximación basada en objetivos (mediante el uso de i*). En la primera fase se considera trabajar con la propuesta utilizada en [3] adoptando un método de elicitación de requisitos basado en metas, donde los requisitos de usuario son recogidos por medio de entrevistas. El propósito de las entrevistas es obtener información acerca de las necesidades de análisis de la organización. El aporte fundamental que se realiza en esta primera etapa se encuentra en la
restructuración de la elicitación de requisito, para contribuir a una óptima documentación del proyecto de creación de almacenes de datos. 2.1.1. Fase 1 - Especificación de requisitos de usuario Teniendo en cuenta el trabajo de [3] y [14] el esquema del diseño propuesto es dividido en tres etapas: a) definición de la misión, b) identificación de las metas de análisis y c) especificación de los requisitos. En la Tabla 2 se muestra un resumen de cómo quedaría la documentación del proyecto relacionado con el caso de estudio que se utiliza perteneciente al análisis de la actividades de intervenciones quirúrgicas y de urgencia de un hospital [15], [12]. 2.1.2. Fase 2 – Analizar las base de datos operacionales Para la segunda fase de la primera etapa se propone un grupo de pasos que pueden ser automatizados y que cumpla con los requisitos necesarios para desarrollar las siguientes etapas de la metodología propuesta. 1. Análisis de los esquemas de la(s) base(s) de dato fuente(s). 2. Selección de la información de interés. 3. Validación de la información seleccionada. El objetivo general de esta segunda fase es que el diseñador y el usuario final puedan determinar la información que describa los eventos que ocurren dinámicamente en las empresas y que presentan la forma estructural de las empresas. El primer paso, análisis de los esquemas de la(s) base(s) de dato fuente(s), es utilizado para determinar que OLTP es necesario para poder soportar los requisitos de información detectados en la primera fase. Se propone una herramienta que es capaz de ayudar al diseñador en esta labor. Para ello la herramienta es capaz de conectarse a las bases de datos de los OLTP y extraer el esquema y guardarlo en un fichero XML. La herramienta logra la conexión con un gestor de base de dato relacional. El segundo paso: selección de la información de interés, es necesario para deslindar entre los datos que aportan al almacén de dato y que se corresponde con lo determinado en la primera fase. En la Fig. 1 se muestra el resultado de la implementación de la segunda fase de la primera etapa.
169
Gómez-Beltrán et al / DYNA 81 (187), pp. 167-174. October, 2014. Tabla 2. Resumen de las etapas a y b. El sistema proporcionará los medios necesarios para analizar el Hospital Clínico “San Cecilio” de Granada, España. Con el Misión objetivo de proporcionar información sobre la conducta de las actividades de Intervenciones Quirúrgicas y Urgencias. P.N. Metas Tarea Usuario Meta 1: Calidad de la planificación T1: Analizar las intervenciones suspendidas con la Gerente de intervenciones intención de determinar las causas. de las intervenciones T2: Analizar las intervenciones realizadas con el fin de ver el comportamiento de este con el tratamiento. Intervenciones T3: Analizar las intervenciones realizadas con el fin Quirúrgicas Meta 2: Efectividad de los de ver el comportamiento de las anestesias utilizadas. Equipo de cirujanos tratamientos en las intervenciones T4: Analizar las intervenciones realizadas con el fin de ver la relación de esta con el diagnostico. T5: Analizar las intervenciones realizadas con el fin de ver el comportamiento de los implantes. Meta 3: Calidad de los servicios de T6: Analizar el Tiempo que demora la atención de las urgencia urgencias con el fin de determinar las causas. T7: Analizar las urgencias con el fin de determinar el número de enfermos por las diferentes localidades. Urgencias Gerente de Urgencia Meta 4: Efectividad y eficiencia de T8: Analizar las urgencias para determinar las causas. las urgencias. T9: Analizar las urgencias para determinar las áreas más afectadas. Intervenciones Quirúrgicas
Meta 1
Árbol de Refinamiento de Metas
T1
Gerente de
Urgencias
Meta 2
T2
T3
Meta 3
T4
T5
Equipo de cirujanos
T6
Meta 4
T7
T8
T9
Gerente de Urgencia
Fuente: Los autores
Es importante señalar que se debe de tener presente el trabajo con las base de datos heterogéneas, para ello definimos la siguiente regla. Regla 2: Las base de datos heterogéneas deben de relacionarse por algún atributo que se encuentre en las base de datos a relacionar y que represente al mismo dominio. Descripción de la Regla: La relación entre base de datos está dado por la posible existencia de diferentes gestores de base de datos y la necesidad de la integración entre estas. Es importante señalar que nosotros no realizamos transformación de los tipos de datos entre los gestores, solo dejamos la propuesta para que se realice a la hora de implementar el proceso de transformación, limpieza y carga. Al terminar este proceso queda un esquema refinado relacional de las base de datos que intervienen en la construcción del almacén de dato.
Figura 1: Imagen de la herramienta en la primera etapa. Fuente: Los autores
2.2. Modelo conceptual El tercer paso se propone para validar que la selección sea correcta y tenga querencia y para ello se deben de verificar las siguientes reglas. Regla 1: Todas las tablas que se seleccionaron deben de estar relacionadas entre sí. Descripción de la Regla: Para la validación de los datos seleccionados es necesario comprobar que todas las tablas que se seleccionaron tienen relación entre sí. Esto garantiza que no existan tablas aisladas que no representa ninguna información.
Después de obtener el esquema refinado que satisface las necesidades del usuario y quedando soportado por los OLTP se propone trabajar en la obtención del modelo conceptual. Para la obtención del modelo conceptual se propone que se ejecuten una serie de pasos: 1. Seleccionar los elementos que se convertirán en hechos. 2. Obtener un grafo de interrelación de atributo. 3. Determinar el(los) hecho(s).
170
Gómez-Beltrán et al / DYNA 81 (187), pp. 167-174. October, 2014.
Figura 2: Diagrama de interrelación. Fuente: Los autores Figura 3: Grafo de interrelación de Atributo. Fuente: Los autores
4.
Determinar las dimensiones. 4.1. Seleccionar los niveles. 4.2. Seleccionar los descriptores. 5. Determinar las medidas. 5.1. Mediadas directas. 5.2. Medidas Indirectas. 6. Obtención del diagrama del modelo conceptual. 7. Refinamiento del modelo conceptual. Es importante señalar que para que estos pasos se puedan automatizar se definen un grupo de reglas. En lo adelante comenzaremos a explicar cada uno de estos pasos. El primer paso de esta segunda etapa es la selección del hecho o de los hechos, en los últimos tiempos en las empresas se ha comenzado a trabajar con diferentes hechos dentro del mismo modelo, aspecto el cual no se ha tenido presente en ninguna de las metodologías que se analizaron. En la herramienta se realiza una propuesta al diseñador de que elemento se puede convertir en hecho, pero queda de manos del diseñador elegir la propuesta o seleccionar otro elemento, esta propuesta se realiza teniendo en cuenta la interrelación de las tablas. En la Fig. 2 podemos ver un ejemplo de la selección de la propuesta. Como se puede observar en la Fig. 2 y utilizando la teoría de grafo, podemos notar que se puede obtener un grafo dirigido y con este determinar el grado de un nodo, para seleccionar la propuesta se propone tener en cuenta los siguientes criterios. 1. Los nodos que mayor grado tienen. 2. Los nodos que mayor grado de salida tienen. Se le muestra una propuesta al diseñador para que él escoja cuál de los elementos puede convertirse en su hechos o hechos, primero se analiza qué nodo tiene el grado más alto y si existen más de uno con el mismo grado, entonces se selecciona cuál de estos tiene el mayor grado de salida, esto último se tiene en cuenta ya que ellos representan a las relaciones de mucho a mucho y son muy probables a convertirse en hechos. En el ejemplo al diseñador se le muestra la propuesta del nodo TURGENCIA que es el nodo que mayor grado posee. El diseñador, en su selección, teniendo presente lo seleccionado en la primera etapa y escoge además de TURGENCIA al elemento TINTERVENCIÓN. Posteriormente de seleccionar los hechos se pasa al
siguiente paso que es la obtención de un grafo de interrelación de atributo, dando lugar al grafo que se muestra en la Fig. 3: A partir de este momento se comenzarán a ejecutar una serie de pasos y en cada uno de ellos se aplican algunas reglas para transformas este grafo de interrelación de atributo al modelo multidimensional. Es importante destacar los elementos que se tienen en cuenta para la construcción del modelo conceptual. Este modelo está compuesto por un hecho o por varios hechos y cada uno tiene o no mediadas asociadas, las medidas se pueden clasificar en directas o indirectas. Las medidas directas son aquellas que se obtienen directamente de la fuente de los datos y las indirectas las que se obtienen por la transformación o el cálculo de algún atributo. Los hechos tienen relacionado a él un grupo de dimensiones que pueden estar compartidas para diferentes hechos, las dimensiones están compuestas por lo menos de un nivel y cada nivel tiene asociado al menos un descriptor. Para la construcción de este modelo el primer paso es crear el hecho, para ello se definen la siguiente regla. Regla 3: Cada nodo seleccionado como candidato a convertirse en hecho genera una tabla de hecho. Descripción de la Regla: Cada uno de los nodos que se seleccionó como candidato a convertirse en hecho se transforma como una tabla de hecho en donde el nombre del nodo pasa a ser el nombre de la tabla de hecho. Si este nodo tiene un identificador propio este pasa a ser parte de los identificadores del hecho. El segundo paso es la determinación de las dimensiones: Regla 4: Cada nodo que tiene relación con el nodo convertido en hecho y es un nodo entidad y además tiene asociado a él al menos un nodo atributo, se convertirá en dimensión del hecho. Descripción de la Regla: Los nodos que cumplen con estas condiciones se convierten en tablas de dimensión, en donde el nombre del nodo se convierte en el nombre de la dimensión, esta dimensión será completada cuando se analicen las otras reglas. Si el nodo entidad no posee un nodo atributo este se elimina y se sigue el análisis en el nivel siguiente del grafo de interrelación de atributo. Es importante resaltar un concepto introducido, los
171
Gómez-Beltrán et al / DYNA 81 (187), pp. 167-174. October, 2014.
nodos entidad son clasificados así cuando se genera el grafo de interrelación de atributo en donde se diferencia entre los nodos que provienen de atributos y los nodos que provienen del nombre de la entidad. En muchas ocasiones es importante tener los datos en varios niveles de granularidad, es decir, es importante para los negocios poder consultar los datos a distintos niveles. En las dimensiones es importante identificar cuáles son sus niveles de detalle, para ello se identificó la siguiente regla. Regla 5: Los niveles de una dimensión son aquellos nodos que se relacionan con el nodo convertido en dimensión incluyendo él mismo. 5.1: Nivel 0: es la propia dimensión. En el nivel 0 de la dimensión consideramos que siempre debe de existir al menos un descriptor, si esto no ocurre se elimina este nivel y la dimensión tomaría el nombre del próximo nivel. Esto se tiene en cuenta para no obtener una representación de una relación de mucho a mucho entre el hecho y la dimensión que verdaderamente representa el contexto del modelo. 5.2: Nivel > 0: representa las entidades que tienen relación con el nodo convertido en dimensión y se considera la jerarquía dentro de la dimensión. En el resto de los niveles se considera que hay que eliminar aquellos niveles que no contienen descriptores y que interrelacionan dos niveles. Esto es necesario para eliminar las posibles relaciones de mucho a mucho y que no representan ninguna información para el modelo multidimensional. Otro elemento que se considera que hay que tener presente en el modelo conceptual son los descriptores. De aquí se deriva la siguiente regla. Regla 6: Los nodos interrelacionados a un nodo convertido en nivel de una dimensión y que estos nodos sean nodos atributos son convertidos en descriptores del nivel en cuestión. Descripción de la Regla: Los descriptores se encuentran asociados a los niveles que poseen una dimensión y describen cierta característica del nivel y de la dimensión. Para ver de forma clara cada uno de estos elementos se muestra el ejemplo de la Fig. 4 en donde se puede ver de forma clara estas dos situaciones. Este ejemplo muestra un caso de estudio que es muy utilizado por la comunidad científica [3] , donde se representa las ventas de una cadena de tiendas. En la Fig. 5 podemos observar el grafo de interrelación de atributo obtenido. En donde el hecho a analizar es
Figura 4: Base de dato relacional de ventas. Fuente: Los autores
Figura 5: Grafo de interrelación de atributo. Fuente: Los autores
Tabla 3. Niveles y descriptores. Dimensión
TICKET
Nivel
Nombre
Nivel 0
Ticket
Descriptores Fecha
Nivel 1
Store
Address
City
State
Nivel 2 Nivel 0 PRODUC
Sale Manager Product
Nivel 1
Type
Nivel 2
Category
Manager Size Manufacture Type Category
Fuente: Los autores
“SALE”, aplicando la regla 4 las dimensiones son “TICKET” y “PRODUC” y los niveles y descriptores se muestran en la Tabla 3. Una dimensión que tiene mucha importancia en el diseño de los almacenes de datos es la dimensión tiempo, por tal motivo se deja para analizar su obtención de forma separada a las restantes dimensiones. Nuestra propuesta tiene en cuenta la obtención de esta dimensión en tres condiciones que a nuestro entender pueden suceder. 1. Determinar atributos que su tipo de dato sea de tiempo o fecha. 2. Pueden existir atributos que sean de tipo de dato numérico o de texto que representen la fecha. 3. En los OLTP no existe diseñado ningún atributo que represente la fecha. Regla 7: Buscar algún nodo que sean de tipo de dato tiempo o fecha, crear una dimensión fecha y poblarlo con este. En el primero de los casos la dimensión tiempo se poblará a partir de la transformación de un atributo de los OLTP de tipo de dato fecha, en ocasiones en los OLTP pueden existir muchos atributos que cumplan con esta condición, en la propuesta se selecciona aquellos que se encuentran relacionados directamente con el hecho o se encuentran más cercano a éste, en el caso que no se pueda
172
Gómez-Beltrán et al / DYNA 81 (187), pp. 167-174. October, 2014.
determinar con precisión el diseñador debe de seleccionar cuál será este atributo. Regla 8: Si no existiera un atributo de tipo fecha pero existe algún atributo que se pueda extraer esta información el diseñador debe de especificarlo y tenerlo en cuenta para cuando se realice el proceso de transformación. Otra de las condiciones que en ocasiones suceden es cuando no existe ningún atributo de tipo de dato fecha, pero en el OLTP existe algún atributo que puede transformarse y poblar a esta dimensión, en este caso permitimos que el diseñador los seleccione y le recomendamos que debe de tenerlo en cuenta para el proceso de limpieza y transformación. Regla 9: Si el diseñador no pudo seleccionar un atributo para poblar la dimensión tiempo se propone poblar ésta cuando se realicen cargas de los OLTP al modelo multidimensional. El último de los casos es muy difícil que suceda pero hay que tenerlo presente por si ocurriese; este puede manifestarse cuando no existe ningún atributo que pueda ser utilizado para poblar la dimensión tiempo, en este caso se propone al diseñador que determine los niveles y que obtenga el poblado de la dimensión tiempo a través de la fecha de la PC en el momento de carga, este último caso no es recomendado. Luego de obtener el hecho y las dimensiones pasamos a definir las medidas del modelo, se considera al igual que [3, 16, 17] que se puede clasificar las medidas en dos categorías teniendo como referencia el origen de esta. Medidas Directas: Estas se obtienen directamente de la fuente sin realizar ningún tipo de transformación o cálculo. Medidas Indirectas: Son aquellas medidas que se obtienen transformando o realizando un cálculo de algunos de los datos de la fuente. Regla 10: Todos los atributos que tienen relación con el nodo raíz que no son identificadores y no son entidades se convertirán en medidas directas de la tabla de hecho en cuestión. Para la determinación de las medidas directas se analiza en la tabla de hecho todos los atributos relacionados con éste y se propone que se conviertan en medidas directas. La selección de las medidas de este tipo queda por parte del diseñador. Después de proponer cuáles atributos pueden convertirse en medidas el diseñador debe de seleccionar cuáles considera son de interés y cuáles tienen sentido semánticamente. En el ejemplo de ventas que se trabaja existen dos medidas que provienen de los sistemas operacionales directamente que son QTY y Unit Prece. Regla 11: Se pueden agregar atributos a la tabla de hecho que provengan de una operación de cálculo o de las funciones de agregación SUM, AVG, MAX, MIN y COUNT. Las medidas indirectas o también llamadas en la literatura como funciones de agregación o contadores de instancias de la tabla de hecho, pueden ser de distintos tipos como SUM, AVG, MAX, MIN y COUNT. En la propuesta se obtiene un diagrama del modelo conceptual, este tiene en cuenta todos los elementos mencionados anteriormente. En las Figs. 6 y 7 se puede ver el diagrama de los dos ejemplos que se trabajan.
Figura 6: Diagrama del modelo conceptual de ventas Fuente: Los autores
Figura 7: Diagrama del modelo conceptual de intervenciones y urgencia de Hospital. Fuente: Los autores
Como se puede observar el la Fig. 6 la dimensión Ticket fue sustituida por el próximo nivel de la jerarquía debido a que el único atributo que contenía este nivel está relacionado con el atributo convertido en la dimensión tiempo y por quedar sin sentido el nivel ticket este fue eliminado. También es importante señalar que en la
173
Gómez-Beltrán et al / DYNA 81 (187), pp. 167-174. October, 2014.
dimensión tiempo se consideró los niveles de año, mes y día, es importante señalar que esta dimensión tiene que tener al menos el nivel de año.
[7]
Romero, O. and Abelló, A., Multidimensional design by examples, en: 8th International Conference on Data Warehousing and Knowledge Discovery, Krakow, Poland, pp. 85-94, 2006.
[8]
Marotta, A., Data warehouse design and maintenance through schema transformations, MSc. Thesis, Instituto de Computación - Facultad de Ingeniería, Universidad de la República, Uruguay, 2000.
[9]
Akoka, J., Wattiau, I.C. and Prat, N., Dimension hierarchies design from UML generalizations and aggregations, en: ER 2001, Verlag Berlin Heidelberg, 2001.
[10]
[10]Arango, F., Gómez, M.C. and Jaramillo, C.M.Z., Transformación del modelo de clases UML A. Oracle9i® bajo la directiva mda: Un caso de estudio. DYNA [Online], 73 (149), 2006. Available at: http://www.bdigital.unal.edu.co/10976/1/fernandoarangoisaza.2006.pdf.
[11]
Golfarelli, M. and Rizzi, S., A methodological framework for data warehouse design, in: ACM First International Workshop on Data Warehousing and OLAP, Washington, D.C., USA.,1998.
[12]
Beltrán, L.A.G., Rodríguez, R.M. and Vázquez, R.P., Generación asistida por computadoras de modelos de almacenes de datos: Análisis de la Información. DYNA [Online], 80 (177), 2013. Available at: http://www.revistas.unal.edu.co/index.php/dyna/article/view/28017.
[13]
Mazón, J.N. and Trujillo, J., Desarrollo de modelos multidimensionales de almacenes de datos basado en MDA: Del análisis de requisitos al modelo lógico, en: Actas del IV Taller sobre Desarrollo de Software Dirigido por Modelos, MDA y Aplicaciones, 2007, pp. 41-50.
[14]
Pelozo, C.E.I., A requirements engineering approach for object-oriented conceptual modeling, Dr. Thesis, Information Systems and Computation Department, Valencia Polytechnic University, Valencia, Spain, 2003.
[15]
Ávila, E.T., Data warehousing con procesamiento de datos textuales, Dr. Tesis, Departamento de Ciencias de la Computación e Inteligencia Artificial, Universidad de Granada, Granada, España, 2010.
[16]
Kamble, A.S., A conceptual model for multidimensional data, en: Proceedings of the fifth Asia-Pacific conference on Conceptual Modelling (APCCM '08), Australia, 2008.
[17]
Gerardo, C.G., Un sistema para el mantenimiento de almacenes de datos, Dr. Tesis, Departamento de Sistemas Informáticos y Computación, Universidad Politécnica de Valencia, Valencia, España, 2008.
2.3. Refinamiento del modelo conceptual. En la etapa de refinamiento del modelo conceptual es importante tener presente los siguientes aspectos: 1. Medidas directas que no son numéricas que pueden convertirse en dimensiones. 2. Niveles dentro de una jerarquía que se pueden convertir en dimensiones. 3. Agregar niveles de detalle en la dimensión tiempo. 4. Eliminar medidas directas que no tienen sentido. 5. Cambiar nombre de atributos y de tablas que provienen de los OLTP. 6. Eliminar atributos, jerarquías y tablas que no tienen sentido. Todos estos elementos son importantes para poder tener un modelo conceptual refinado que no contenga elementos indeseados en la modelación del almacén de dato. 3. Conclusiones Este trabajo es una continuidad a un anterior estudio realizado [12] en donde se presentó la etapa de análisis de la información. En el presente trabajo se profundiza en la etapa de obtención del modelo conceptual, en donde se exponen cómo obtener el modelo conceptual de forma semiautomática mediante la aplicación de 11 reglas de diseño. Se presenta cuáles son los pasos que sigue la metodología para la obtención de este modelo, los cuales son: seleccionar los elementos que se convertirán en hechos, obtener un grafo de interrelación de atributo, determinar el(los) hecho(s), determinar las dimensiones donde se tiene que seleccionar los niveles y los descriptores, determinación de las medidas directas o indirectas, obtención del diagrama del modelo conceptual y por último el refinamiento del modelo conceptual. En trabajos futuros se abordara la transformación de este modelo conceptual al modelo lógico. Bibliografía [1]
Inmon, W.H., Building the Data Warehouse - Fourth Edition, Wiley Publishing, 2005.
[2]
Kimball, R., Ross, M., Thornthwaite, W. et al., The data warehouse lifecycle toolkit: Expert methods for designing, developing and deploying data warehouses, John Wiley & Sons, 1998.
[3]
Sánchez, L.Z., Metodología para el diseño conceptual de almacenes de datos, Dr. Tesis, Departamento de Sistemas Informáticos y Computación, Universidad Politécnica de Valencia, Valencia, España, 2008.
[4]
Hüsemann, B., Lechtenbörger, J., and Vossen, G., Conceptual datawarehouse design, en: The International Workshop on Design and Management of Data Warehouses (DMDW 2000), 2000.
[5]
Phipps, C. and Davis, K.C., Automating data warehouse conceptual schema design and evaluation, en: 4th International Workshop on Design and Management of Data Warehouses, Toronto, Canada, pp. 23-32, 2002.
[6]
Giorgini, P., Rizzi, S. and Garzetti, M., Goal-oriented requirement analysis for data warehouse design, en: DOLAP’05, Bremen, Germany, 2005.
L.A. Gómez-Beltrán, recibió su título de Ingeniero en Informática en 2005 del Instituto Superior Politécnico José Antonio Echeverría (CUJAE), la Habana Cuba, el MSc. en Informática Aplicada en 2010, de la Universidad de Camagüey, Cuba. Desde el 2005 trabaja para la Universidad de Camagüey, Cuba. Actualmente es Profesor Auxiliar del Departamento de Computación de la Facultad de Informática y ocupa el cargo de Director de Informatización de la Universidad de Camagüey Cuba. Sus intereses de investigación incluyen: bases de datos, almacenes de datos, diseño conceptual de almacenes de datos. R. Moreno Rodríguez, recibió su título de Ingeniería en Sistemas Automatizados de Dirección en 1980, el MSc en Ingeniería en 1981, ambos del Instituto Superior Electrotécnico de Leningrado "V.I. Ulianov (Lenin)", Rusia. Es MSc. en Computación Aplicada en 1998 y Dr en Ciencias Técnicas en 2006 de la Universidad Central de Las Villas – UCLV, Cuba. Actualmente es profesor Titular de Facultad de Matemática, Física y Computación de la Universidad Central de Las Villas, Cuba, labora en Centro de Estudios de Informática (CEI) y ocupa el cargo de Asesor metodológico de Postgrado en el Departamento de Postgrado de la misma universidad. Sus intereses de investigación incluyen: bases de datos. R. Pérez-Vázquez, recibió su título de Licenciatura en Computación en 1980 de Universidad Central de Las Villas. Es Dr en Ciencias Técnicas en 1991, de la Universidad Politécnica de Kiev, Rusia. Es profesor Titular, de la Facultad de Matemática, Física y Computación, Centro de Estudios de Informática (CEI) de la Universidad Central de Las Villas – UCLV, Cuba. Actualmente ocupa el cargo de secretario general de la UCLV. Sus intereses de investigación incluyen: bases de datos, Sistemas de Información Geográfico, Almacenes de Datos.
174
Multiobjective optimization of the reactive power compensation in electric distribution systems Manoel Socorro Santos-Azevedo a, Ignacio Pérez-Abril b, Carlos de León-Benítez c, Jandecy Cabral-Leite d & Ubiratan Holanda-Bezerra e a Universidad del Estados de Amazonas, Brasil. manoelazevedo@yahoo.com.br Centro de Estudios Electroenergéticos, Universidad Central de Las Villas, Cuba. iperez@uclv.edu.cu c Centro de Estudios Electroenergéticos, Universidad Central de Las Villas, Cuba. charle@uclv.edu.cu d Instituto de Tecnología y Educación Galileo de la Amazonía, Brasil. jandecycabral@hotmail.com e Departamento de Ingeniería Eléctrica y Computación, Universidad Federal de Pará, Brasil. bira@ufpa.br b
Received: November 25th, de 2013. Received in revised form: March 7th, 2014. Accepted: March 17th, 2014
Abstract Different methods of optimization have been used for the selection and localization of capacitor banks in distribution circuits. However, it is necessary to consider the distortion taken place by the harmonics of the no-linear loads and the possible appearance of resonances between the inductive elements of the system and the existent capacitor banks. On the other hand, it has not been integrated in a single methodology the use of capacitor banks and of passive harmonic filters to compensate the reactive power in harmonic polluted distribution systems. The present work intends as objective to develop this methodology. The developed program is based on the multiobjective optimization algorithm NSGA-II that it is proven with success in several examples. Keywords: harmonics; capacitors; passive filters; optimization.
Optimización multiobjetivo de la compensación de potencia reactiva en sistemas eléctricos de distribución Resumen Se han empleado diferentes métodos de optimización para la selección y localización de bancos de capacitores en circuitos de distribución. Sin embargo, hay que considerar la distorsión producida por los armónicos de las cargas no-lineales y la posible aparición de resonancias entre los elementos inductivos del sistema y los bancos de capacitores existentes. Por otra parte, no se ha integrado en una sola metodología la utilización de bancos de capacitores y de filtros pasivos de harmónicos para compensar la potencia reactiva en sistemas de distribución contaminados por armónicos. El presente trabajo se propone como objetivo desarrollar dicha metodología. El programa desarrollado se basa en el algoritmo de optimización multiobjetivo NSGA-II que se prueba con éxito en varios ejemplos prácticos. Palabras clave: armónicos, capacitores, filtros pasivos, optimización.
1. Introducción La compensación de la potencia reactiva en los sistemas eléctricos de distribución consiste en la selección e instalación de bancos de capacitores en determinados puntos del circuito con el objetivo de reducir sus costos de operación anuales. Se han empleado diferentes métodos de optimización para la selección y localización de bancos de capacitores en circuitos de distribución que alimentan cargas lineales [112]. Algoritmos genéticos [1,2,4], algoritmos de inteligencia
colectiva [6,9,10] y aún técnicas heurísticas [5,8,11] se han utilizado para resolver variadas formulaciones de este problema. Sin embargo, en las condiciones actuales de los circuitos, donde se utilizan cada vez más cargas con comportamiento no-lineal, hay que considerar la distorsión producida por los armónicos de estas cargas y la posible aparición de resonancias entre los elementos inductivos del sistema y los bancos de capacitores existentes. De esta manera, en un circuito contaminado por armónicos, la variante más económica de localización y
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 175-183. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40979
Santos-Azevedo et al / DYNA 81 (187), pp. 175-183. October, 2014.
selección de capacitores considerando solo los resultados a frecuencia fundamental, puede incrementar los índices de distorsión y por lo tanto ser inviable desde el punto de vista de calidad de la energía [13-16]. Otros medios compensadores de la potencia reactiva más adecuados para circuitos contaminados por armónicos son los filtros pasivos de armónicos, los cuales unen a su acción de filtrado la función de inyección de potencia reactiva a las redes. Varios trabajos [17-25] se han dedicado a la selección y localización de los filtros pasivos para compensar la distorsión armónica en estos sistemas. No obstante, en la mayoría de estas contribuciones no se consideran los efectos de reducción de pérdidas en la red por la compensación de potencia reactiva lograda por los filtros. El presente trabajo se propone como objetivo desarrollar una metodología computacional para optimizar la compensación de la potencia reactiva en circuitos de distribución contaminados por armónicos que contemple el uso de bancos de capacitores y de filtros pasivos de armónicos con este fin. El programa desarrollado se basa en el algoritmo de optimización multiobjetivo NSGA-II que se prueba con éxito en varios ejemplos prácticos. 2. Modelo matemático Teniendo en cuenta los aspectos expuestos, el presente trabajo formula el problema de optimización de la compensación de potencia reactiva en sistemas eléctricos de distribución contaminados por armónicos como un problema multiobjetivo que persigue la selección y localización de los compensadores necesarios para minimizar: 1. El costo de los equipos compensadores seleccionados. 2. El costo de operación anual del sistema eléctrico. 3. La distorsión total de la tensión en las barras del sistema eléctrico. El problema de optimización está sujeto al cumplimiento de las restricciones de: 1) Las normas de calidad de la energía. 2) Las normas de utilización de los equipos compensadores. 2.1. Variables del problema Las variables independientes del problema de optimización, representadas por el arreglo x, son: el número, localización y parámetros de diseño de los compensadores de potencia reactiva (bancos de capacitores o filtros de armónicos) a instalar en el circuito. En un algoritmo genético, las características de un individuo (variante de solución) se expresa por el cromosoma que lo define. La representación de las variables del problema se realiza de acuerdo al tipo de codificación que emplea la implementación computacional utilizada, ya sea la clásica codificación binaria u otro tipo de codificación más adecuada para representar las variables. En la mayoría de los casos, lo más cómodo es utilizar una codificación en números reales “real coded GA”.
Tabla 1. Composición del cromosoma Variable Descripción NC Número de capacitores NF Número de filtros sintonizados Potencia reactiva total en capacitores QcTOT Fd Factores de distribución de la potencia reactiva entre los compensadores U Ubicación de los compensadores en el circuito Q Factores de calidad de los filtros Frecuencias de sintonía de los filtros fs Fuente: Los autores.
Como el número de compensadores a utilizar es uno de los resultados a obtener, el conjunto de datos que representan una solución es de tamaño variable. De esta manera, cuando se define el problema de optimización a resolver, se va a utilizar un cromosoma que puede representar el número máximo de compensadores que se quieran utilizar. Una vez definidas sus dimensiones, el cromosoma queda compuesto por los siguientes componentes (Tabla 1). Partiendo de la estructura del cromosoma utilizado, una vez que este es determinado por el algoritmo genético para una solución dada, el número, localización y parámetros de diseño de los compensadores a instalar quedan determinados directamente con excepción de la potencia reactiva capacitiva de cada compensador, la que se obtiene con el siguiente procedimiento: 1) Se determina la potencia reactiva no estándar del capacitor Qci, proporcional al valor del factor de distribución de potencia reactiva correspondiente: N
Qci QcTOT fd i / fd j
(1)
j 1
2) Se determina el número de unidades de tamaño estándar que mejor aproximan el valor de potencia reactiva Qci. Este procedimiento permite que la distribución de la potencia reactiva entre los distintos compensadores sea determinada por el propio método de optimización a partir de las necesidades del problema. En otras palabras, esta es una forma de resolver el problema de distribuir eficientemente la potencia de los compensadores entre las localizaciones determinadas, sin peligro de que se instale una capacidad total excesiva para el circuito. Aquí hay que señalar, que las frecuencias de sintonía de los filtros sintonizados se escogen a un 94% del valor de frecuencia fs que se determina en el cromosoma. Esto se hace para evitar la resonancia a una frecuencia indeseada cuando ocurren variaciones en los parámetros del filtro [26-27]. 2.2. Funciones objetivo y restricciones El problema de optimización tratado puede ser formalizado mediante dos funciones objetivo: 1) La maximización del valor presente líquido del proyecto de compensación 2) La minimización de la distorsión total de los armónicos de tensión.
176
Santos-Azevedo et al / DYNA 81 (187), pp. 175-183. October, 2014.
2.2.1. Costo de inversión de los compensadores
2.2.3 Valor presente neto del proyecto
Los compensadores de potencia reactiva, sean capacitores o filtros de diferente tipo, tienen un costo de inversión I(x) compuesto por los costos de: capacitores, reactores y resistores, que se consideran proporcionales a sus respectivas potencias para cada nivel de tensión [28].
Como la instalación de compensadores de potencia reactiva (capacitores o filtros de armónicos) en un circuito es en definitiva un proyecto de inversión que persigue obtener ganancia a partir de la economía obtenida en el costo de operación de la red, se puede utilizar el valor presente neto VPN como un indicador económico que reúne en una sola función, los costos de inversión y de operación de la red eléctrica. Considerando un periodo de evaluación de N años con una razón de interés i, el VPN del proyecto de compensación se calcula como:
I ( x) K C QC i K L QL i K R PR i iC C
iC L
(2)
iC R
Donde Kc($/kvar), KL($/kvar) y KR($/kW) son los coeficientes de costo de la potencia de capacitores Qc, inductores QL y resistores PR respectivamente, y CC, CL y CR representan los conjuntos de cada uno de estos tipos de elementos. 2.2.2. Costo anual de operación de la red Las redes eléctricas de distribución de media tensión suministran cargas residenciales, industriales y de edificios comerciales que siguen un patrón de comportamiento diario bastante estable. Para considerar el efecto de los equipos compensadores de potencia reactiva en el costo de operación de la red, este se acostumbra evaluar mediante dos componentes fundamentales: el costo de la demanda máxima de la carga y el costo de la energía consumida en pérdidas. El costo de la demanda máxima consiste en los gastos en que incurre la empresa distribuidora en facilitar la capacidad eléctrica (transformadores, líneas, etc.) necesaria para garantizar el suministro de la potencia máxima de la carga. Como la compensación de la potencia reactiva solo modifica las pérdidas de potencia del circuito, este costo se evalúa como proporcional a las pérdidas de potencia en el horario de máxima demanda ∆Pmax. Por otra parte, el costo de la energía se evalúa como el costo anual de las pérdidas de energía en transformadores, líneas y otros elementos del circuito ∆Ea. Como la carga del circuito varía entre los distintos L estados de carga característicos del mismo, es preciso determinar dichas pérdidas de energía como la sumatoria de las pérdidas que ocurren en cada estado de carga k de duración anual ∆tk: L
Ea Pk t k
(3)
k 1
De esta manera, el costo de operación anual de la red se calcula mediante: L
C ( x ) cD Pmax ( x ) cE Pk ( x ) tk
(4)
k 1
N
VPN ( x ) I ( x ) (C (0) C ( x )) /(1 i ) k (5) k 1
Donde C(0) representa el costo de operación de la red antes de que se instalen los compensadores de reactivo y la diferencia C(0)–C(x) el ahorro anual por concepto de la reducción del costo de operación con la instalación de los compensadores representados por x. 2.2.4. Distorsión armónica total Los bancos de capacitores son esencialmente equipos compensadores de la potencia reactiva. Sin embargo, los mismos pueden magnificar el efecto de los armónicos de las cargas por la existencia de resonancias serie o paralelo con los elementos inductivos de la red eléctrica. No obstante, el efecto de los bancos de capacitores sobre la distorsión de la tensión en las barras del sistema depende de la magnitud y localización de los mismos en el circuito, por eso puede existir una solución mediante capacitores que no incremente los indicadores de distorsión o que incluso los reduzca. Por otra parte, los filtros pasivos de armónicos son primariamente dispositivos de control de armónicos cuya función es evitar la circulación de las corrientes distorsionadas a través de los elementos del sistema y reducir la distorsión de armónicos de tensión en las barras. Por lo tanto una correcta selección y localización de estos compensadores reduce sustancialmente los índices de distorsión de armónicos. Existen dos indicadores fundamentales de la distorsión de la tensión: la distorsión armónica total THD y la distorsión armónica individual IHDk para un armónico k determinado. En esta formulación se define como un tercer objetivo la minimización de la distorsión total de la tensión en todas las barras del circuito. Para esto se plantea minimizar el máximo valor de THD del conjunto U de las barras del sistema para el conjunto L de todos los estados de carga considerados.
Donde cD($/kW) y cE($/kWh) son los coeficientes de costo correspondientes a cada parte de la función de costo de operación.
max THD( x) maxkL THDk ,i ( x)
(6)
iU
Por lo tanto, el problema de optimización puede 177
Santos-Azevedo et al / DYNA 81 (187), pp. 175-183. October, 2014.
formalizarse como:
f ( x ) VPN ( x ) min 1 f 2 ( x ) max THD ( x )
(7)
Debe observarse que la minimización de -VPN(x) es equivalente a la maximización de VPN(x). 2.2.5. Restricciones El conjunto de restricciones del problema considera dos tipos de condiciones fundamentales: 1. Las restricciones de calidad de la tensión en las barras del sistema [29]. 2. Las restricciones al estrés de las componentes de los compensadores [30]. La forma de evaluación de las restricciones de calidad de la tensión depende de la norma adoptada para evaluar los problemas de calidad. Para lograr que el programa de optimización obtenga soluciones factibles al problema, se define una función de penalidad para las restricciones g(x) que se evalúa como la suma cuadrática de todas las violaciones a las restricciones del problema.
g ( x)
calc ( x) limit
2
calc i ( x ) limit i
i
i
3.1. Características del algoritmo utilizado Para la realización de este trabajo, se modificó el algoritmo publicado por Sheshadri [32] para incorporar variables enteras además de las variables reales que utiliza esta implementación. De esta manera, se obtuvo un algoritmo de optimización para problemas mixtos en enteros y reales que emplea una codificación del cromosoma en números reales. 3.2. Cálculo de las funciones objetivo y restricciones
(8)
Donde calci y limiti representan el valor calculado y el valor límite del parámetro i acotado por una restricción dada. Una vez evaluadas todas las restricciones del problema, g(x) tendrá como valor la suma cuadrática de todas las violaciones a las restricciones. Si g(x) tiene valor cero, la solución x es factible, mientras que en caso contrario, la solución no cumple una o varias restricciones. Para incluir las restricciones como una función de penalidad, el problema se expresa como:
f ( x) g ( x) min 1 f 2 ( x) g ( x)
objetivo, normalmente en un problema multiobjetivo no existe una solución única que optimiza todos los objetivos simultáneamente. Cuando eso ocurre, se dice que las funciones son conflictivas y en lugar de una solución existe un conjunto de soluciones para el problema, que se denominan soluciones óptimas de Pareto o soluciones nodominadas del problema. Una solución se llama no-dominada si ninguno de los objetivos del problema puede ser mejorado en valor sin empeorar el valor de alguno de los restantes objetivos. Todas las soluciones no-dominadas que integran la frontera de Pareto pueden considerarse igualmente buenas. Uno de los métodos de mayor éxito en la optimización multiobjetivo es el algoritmo genético de optimización por ordenamiento no-dominado (NSGA-II) [31].
(9)
Donde µ es una constante de alto valor que hace atractiva la reducción de g(x) y por lo tanto facilita la búsqueda de una solución factible al problema. 3. Algoritmo de optimización La optimización multiobjetivo pertenece al área de los problemas de optimización matemática que involucran varias funciones objetivo que deben optimizarse simultáneamente. Normalmente este tipo de optimización se realiza sobre funciones objetivo que pueden tener una naturaleza conflictiva, lo que provoca que las decisiones óptimas tengan que considerar los compromisos existentes entre dos o más objetivos. A diferencia de los problemas de optimización de un
El NSGA-II utiliza una función para evaluar todos los objetivos declarados f1(x),… fn(x), así como la función de restricciones g(x) a partir del arreglo x de variables independientes del problema (cromosoma). Esta función se define como: function f = evaluate_functions(x,data)
(10)
Donde el parámetro data representa los datos adicionales de la red eléctrica y las cargas que son necesarios para determinar el arreglo f de las funciones objetivo. La citada función emplea el siguiente algoritmo de cálculo: 1) Dados los datos del cromosoma x, determina el correspondiente conjunto de compensadores (capacitores o filtros), sus parámetros y su localización en el sistema eléctrico de distribución. 2) Calcula el costo de inversión de los compensadores determinados. 3) Para todos los L estados de carga considerados, analiza la operación del sistema eléctrico mediante programas de flujo de potencia a frecuencia fundamental y de penetración de armónicos, que han sido desarrollados en Matlab para esta aplicación. 4) Con los resultados calculados para todos los estados de carga característicos, calcula el costo de operación de la red: costo de las pérdidas de energía y costo de las pérdidas de potencia en el horario pico. 5) Calcula los índices de distorsión de las tensiones en todos los estados de carga y en todas las barras del sistema y determina el máximo valor de THD para
178
Santos-Azevedo et al / DYNA 81 (187), pp. 175-183. October, 2014.
evaluar la función objetivo correspondiente. 6) Chequea las restricciones de calidad de la energía en todos los estados de carga y en todas las barras y determina el estrés máximo en todos los capacitores. Con estos resultados evalúa la función de restricciones g(x).
Tabla 3. Resultados iniciales Parámetro Costo de operación ($/año) Máximo THD (%) Máximo IHD (%) Factor de potencia (%) Fuente: Los autores.
Valor 16697.01 3.78 3.22 84.70
3.3. Algoritmo principal de optimización
4. Ejemplo de aplicación Como ejemplo de aplicación (ver Apéndice) para la presente metodología se utilizó un circuito de distribución formado por un alimentador radial de 13.8 kV que suministra 21 barras de carga en cada una de las cuales hay una mezcla de carga lineal y no-lineal. La distribución en el circuito de la carga lineal se ofrece en la Tabla A.1 del apéndice, mientras que la carga nolineal representa un 35% de la carga lineal en cada barra. La carga no-lineal se compone de equipos electrodomésticos con un espectro característico que se muestra en la Tabla A.2 del apéndice. Para probar el comportamiento del sistema se consideran cinco estados de carga posibles en un año característico (Tabla 2). Por simplicidad, este comportamiento anual se considera igual para todas las cargas lineales y no lineales del circuito. Todas las barras de media tensión (1 – 21) con excepción de la barra de la fuente (0) se consideran como localizaciones posibles para los equipos compensadores de potencia reactiva a seleccionar. Para determinar el costo de operación anual del circuito se emplean los coeficientes de costo (Costo de la demanda cD = 120 $/kW y Costo de la energía cE = 0.015 $/kWh). La evaluación del VPN se realizó para un periodo de 10 años y un interés del 5% anual.
Para formar los compensadores de potencia reactiva se emplean unidades trifásicas de capacitores de 150 kvar. Como datos de costo de los capacitores, inductores y resistores se utilizaron 13 $/kvar, 250 $/kvar y 100 $/kW respectivamente [28]. En todos los casos, se utilizaron los límites de armónicos de tensión de la norma Prodist-módulo 8 [30] como restricciones de calidad de la energía. Para examinar las posibilidades del programa de optimización, se resolvieron los siguientes casos: 1) Compensación con capacitores. 2) Compensación con capacitores y filtros sintonizados. Los resultados iniciales del problema (caso base sin compensadores) se muestran en la Tabla 3. Según la norma Prodist-Módulo 8, estos índices de distorsión se encuentran dentro de los límites normados para este nivel de tensión. 4.1. Compensación con capacitores En este caso se quiere determinar la potencia y localización en el circuito de hasta tres bancos de capacitores fijos. Para determinar de alguna forma el número de generaciones requerido para obtener “buenas” soluciones para el problema, se ejecutaron 200 generaciones del NSGA-II sobre una población de 50 individuos. Las fronteras de Pareto obtenidas por el algoritmo en 50, 100, 150 y 200 generaciones se muestran en la Fig. 1. 0.065 50 generaciones 100 generaciones 150 generaciones 200 generaciones
0.06
0.055 maxTHD
El algoritmo principal de optimización realiza los siguientes pasos: 1) Lee los datos del sistema, las cargas y la descripción del problema de optimización que se quiere resolver. 2) Determina el estado de operación inicial del sistema sin equipos compensadores conectados, evalúa el costo de operación inicial y determina los índices de distorsión armónica. 3) Definido el tamaño de la población, ejecuta el algoritmo NSGA-II el número de generaciones preestablecidas por el usuario para producir la frontera de Pareto del problema. 4) Salva la población final del NSGA-II en un archivo *.mat para el posterior análisis de las soluciones obtenidas.
0.05
0.045
0.04
Tabla 2. Estados de carga Parámetro Duración(horas/año) Carga (%) Fuente: Los autores.
1 730 100
2 1460 80
Estado 3 2190 60
-14000
4 2190 40
5 2190 20
-12000
-10000
-8000 -6000 -VPN
-4000
Figura 1. Efecto del número de generaciones (caso 1) Fuente: Los autores.
179
-2000
0
Santos-Azevedo et al / DYNA 81 (187), pp. 175-183. October, 2014.
0.065
0.07
(1) X: -1.278e+004 Y: 0.06319
0.06
50 individuos 100 individuos
Corrida-1 Corrida-2 Corrida-3
0.06
0.05 maxTHD
maxTHD
0.055
0.05
0.04
0.03
0.045 X: -2190 Y: 0.04032
0.04
0.02
(2) 0.01 -14000
-14000
-12000
-10000
-8000 -6000 -VPN
-4000
-2000
0
-12000
-10000
-8000 -6000 -VPN
-4000
-2000
0
Figura 3. Efecto del tamaño de la población (caso 2) Fuente: Los autores.
Figura 2. Fronteras de Pareto (caso 1) Fuente: Los autores.
Tabla 4. Soluciones seleccionadas (caso 1) Parámetro Inversión ($) Costo ($/año) VPN ($) máx. THD (%) máx. IHDk (%) Capacitores Seleccionados Fuente: Los autores.
Nodo 11 14 19
Solución (1) 9750.00 13779.07 12781.65 6.32 4.61 kvar Nodo 150 6 300 300
Solución (2)
4.2. Compensación con capacitores y filtros sintonizados En este caso se expone la selección y localización de hasta tres capacitores y tres filtros sintonizados. Tras realizar varias pruebas del algoritmo para este nuevo problema, se comprobó la conveniencia de incrementar el tamaño de la población a 100 individuos para determinar con más exactitud la frontera de Pareto del problema (Fig. 3). Por lo tanto, se efectuaron tres corridas del programa con una población de 100 individuos y 150 generaciones para resolver este nuevo caso. 0.07 Corrida-1 Corrida-2 Corrida-3
0.06
0.05 maxTHD
Como se aprecia en la Fig. 1, no hay grandes variaciones en las soluciones obtenidas a partir de las 100 generaciones, por lo que se decidió realizar las siguientes corridas solo 150 generaciones. Otro aspecto que se evalúa corrientemente en los algoritmos genéticos es su capacidad para obtener de forma repetida, soluciones semejantes en diversas corridas independientes del programa. En este sentido, se decidió correr tres veces el programa, obteniéndose los resultados que se muestran en la Fig. 2. Como se puede comprobar en la Fig.2, hay una buena correspondencia entre las tres fronteras de Pareto, lo que habla a favor de la convergencia del algoritmo. Obtenidas las soluciones de Pareto, pueden utilizarse diferentes criterios para escoger la solución a emplear. Por ejemplo, si se desea la solución de mejor desempeño económico, esta sería la solución (1) que se destaca en la Fig. 2, la que tiene un VPN = $12782 en 10 años. Sin embargo, esta variante es la de peor comportamiento en relación a la distorsión, que alcanza un valor máximo de 6.32%. Otra variante que se destaca es la solución (2), que consigue un valor positivo del VPN sin prácticamente incrementar la distorsión armónica original del circuito.
La Tabla 4 resume los datos fundamentales de estas soluciones. En la misma se aprecia como en la solución (2), buscando no incrementar la distorsión, el algoritmo modifica la capacidad y localización de los capacitores, con lo que se reduce la eficacia económica de la variante.
1950.00 16160.93 2189.52 4.03 3.30 kvar 150
0.04
0.03
X: -4696
(1) Y: 0.02472 X: -2249
0.02
0.01 -14000
(2) Y: 0.01531
-12000
-10000
-8000 -6000 -VPN
Figura 4. Fronteras de Pareto (caso 2) Fuente: Los autores. 180
-4000
-2000
0
Santos-Azevedo et al / DYNA 81 (187), pp. 175-183. October, 2014. Tabla 5. Soluciones seleccionadas (caso 2) Parámetro
Solución (1)
Inversión ($) Costo ($/año) VPN ($) máx. THD (%) máx. IHDk (%)
Solución (2)
17161.84 13866.32 4696.10 2.47 1.78 Nodo
Capacitores y/o Filtros
6. Apéndice: Datos del ejemplo
Datos
23517.15 13360.13 2249.44 1.53 1.16 Nodo
Barra
150 kvar 14 capacitor
150 kvar fs = 4.7 Q = 38.2
15
150 kvar 16 fs = 10.2 Q = 48.7
150 kvar fs = 6.6 Q = 23.9
300 kvar 18 fs = 4.7 Q = 35.6
450 kvar fs = 4.7 Q = 34.6
kW
N1 N2 N3 N4 N5 N6 N7 N8 N9 N10
Datos
9
21
Tabla A.1. Datos de las cargas lineales Kvar
100 100 100 100 100 200 100 100 200 100
56.7 56.7 56.7 56.7 56.7 113.3 56.7 56.7 113.3 56.7
Barra
kW
N11 N12 N13 N14 N15 N16 N17 N18 N19 N20 N21
kvar
100 100 100 300 100 100 100 100 100 100 100
56.7 56.7 56.7 170.0 56.7 56.7 56.7 56.7 56.7 56.7 56.7
Fuente: Los autores.
Tabla A.2. Espectro de armónicos de las cargas no-lineales Corrientes (%) Ángulo (grados) Ordem A B C A B C
Fuente: Los autores.
Las fronteras de Pareto resultantes se muestran en la Fig. 4, donde puede verificarse de nuevo la convergencia del algoritmo hacia conjuntos de soluciones semejantes. En este segundo caso, en que se considera la instalación tanto de capacitores como de filtros de armónicos, se han destacado dos soluciones en la zona de baja distorsión armónica. Un resumen de las características de ambas soluciones se ofrece en la Tabla 5, donde en el caso de los filtros se muestran la frecuencia de sintonía fs y el factor de calidad Q resultantes. Ambas soluciones se logran mediante tres compensadores, la primera con un capacitor y dos filtros sintonizados al 5to y 13vo armónicos y la segunda mediante tres filtros, dos sintonizados al 5to y uno al 7mo armónico. Aunque la solución (2) es más efectiva desde el punto de vista de calidad de la energía, pudiera escogerse la solución (1) que es el doble de efectiva desde el punto de vista económico.
100.0 37.3 12.7 5.3 2.5 1.8
100.0 37.3 12.7 5.3 2.5 1.8
100.0 37.3 12.7 5.3 2.5 1.8
-37.0 -166.0 113.0 -158.0 92.0 -151.0
-157.0 -46.0 -7.0 -38.0 -28.0 -31.0
83.0 74.0 233.0 82.0 212.0 89.0
19
1.1
1.1
1.1
84.0
-36.0
204.0
Fuente: Los autores.
Tabla A.3. Datos de las lineas
5. Conclusiones A partir de los resultados obtenidos en las corridas del programa, se pueden destacar las siguientes conclusiones sobre su uso: 1) El algoritmo ha mostrado buena convergencia a soluciones semejantes en diferentes corridas. 2) El tamaño de la población y el número de generaciones deben ajustarse para el problema que se pretende resolver. 3) Las soluciones que utilizan solo capacitores tienen mejor desempeño económico, pero son inferiores desde el punto de vista de calidad de la energía. 4) Las soluciones con filtros sintonizados deben examinarse ante variaciones de los parámetros de los filtros.
1 5 7 11 13 17
Barra inicio
Barra final
Long. (m)
Barra inicio
Barra final
Long. (m)
N0 N1 N2 N3 N4 N5 N6 N7 N8 N9
N1 N2 N3 N4 N5 N6 N7 N8 N9 N10
900 300 300 300 300 600 300 300 300 300
N10 N11 N12 N13 N14 N15 N16 N17 N18 N19 N20
N11 N12 N13 N14 N15 N16 N17 N18 N19 N20 N21
300 300 300 600 300 300 300 300 600 300 300
Fuente: Los autores. Tabla A.4. Datos de las estrutura de las lineas Distancia
mm
AB BC CA
900 600 1500
Fuente: Los autores.
Agradecimientos Al Instituto de Tecnología Galileo de la Amazonía ITEGAM, a la Fundación para la Investigación del Estado de Amazonas - FAPEAM por apoyar financieramente esta investigación.
181
Santos-Azevedo et al / DYNA 81 (187), pp. 175-183. October, 2014.
References [1]
[2] [3] [4] [5] [6] [7] [8] [9]
[10] [11] [12] [13] [14] [15]
[16]
[17]
[18]
[19] [20] [21]
Alencar de-Souza, B. et al., Microgenetic algorithms and fuzzy logic applied to the optimal placement of capacitor banks in distribution networks, IEEE Transactions on Power Systems, 19 (2), pp. 942947, 2004. Mendes, A. et al., Capacitor placement in large-sized radial distribution networks, Proc. IEE. Generation, Transmission and Distribution, 152 (4), pp. 496–502, 2005. Khodr, H.M. et al., Maximum savings approach for location and sizing of capacitors in distribution systems, Electric Power Systems Research 78, pp. 1192–1203, 2008. Das, D., Optimal placement of capacitors in radial distribution system using a Fuzzy-GA method, Electrical Power and Energy Systems, 30, pp. 361–367, 2008. Da Silva, C. et al., A heuristic constructive algorithm for capacitor placement on distribution systems, IEEE Transactions on Power Systems, 23 (4), pp. 1619-1626, 2008. Chang, Ch.F., Reconfiguration and capacitor placement for loss reduction of distribution systems by ant colony search algorithm, IEEE Transactions on Power Systems, 23(4), pp. 1747 – 1755, 2008. Park, J.Y. et al., Optimal capacitor allocation in a distribution system considering operation costs, IEEE Transactions on Power Systems, 24 (1), pp. 462-468, 2009. Segura, S. et al., Efficient heuristic algorithm used for optimal capacitor placement in distribution systems, Electrical Power and Energy Systems, 32, pp. 71-78, 2010. Tabatabaei S.M. and Vahidi, B., Bacterial foraging solution based fuzzy logic decision for optimal capacitor allocation in radial distribution system, Electric Power Systems Research, 81 (4), pp. 1045-1050, 2011. Singh, S.P. and Rao, A.R., Optimal allocation of capacitors in distribution systems using particle swarm optimization, Electrical Power and Energy Systems, 43, pp. 1267–1275, 2012. Abul’Wafa, A.R., Optimal capacitor allocation in radial distribution systems for loss reduction: A two stage method, Electric Power Systems Research, 95, pp. 168– 174, 2013. Ziari, I, Ledwich, G. and Ghosh, A., A new technique for optimal allocation and sizing of capacitors and setting of LTC, Electrical Power and Energy Systems 46, pp. 250–257, 2013. Ghose, T. and Goswami, S.K., Effects of unbalances and harmonics on optimal capacitor placement in distribution system, Electric Power Systems Research 68, pp. 167-173, 2004. Teng, A. et al., Planning approaches for the strategic placement of passive harmonic filters in radial distribution networks, IEEE Transactions on Power Delivery, 22 (1), pp. 347-353, 2007. Abbas-Taher, S., Karimian, K. and Hasani, M., A new method for optimal location and sizing of capacitors in distorted distribution networks using PSO algorithm, Simulation Modelling Practice and Theory, 19, pp. 662–672, 2011. Chang, G.W. et al., Fuzzy logic and immune-based algorithm for placement and sizing of shunt capacitor banks in a distorted power network, IEEE Transactions on Power Delivery, 26 (4), pp. 2145 – 2153, 2011. Chang, G.W., Chu, S. Y. and Wang, H.L., A new method of passive harmonic filter planning for controlling voltage distortion in a power system, IEEE Transactions on Power Delivery, 21 (1), pp. 305-312, 2006. Ghiasi, M., Rashtchi, V. and Hoseini, H., Optimum location and sizing of passive filters in distribution networks using genetic algorithm, International Conference on Emerging Technologies IEEE-ICET, Rawalpindi, Pakistan, 2008. Zhang R., Yuhong, L. and Yaohua, L., Optimal parameters for filter using improved genetic algorithms. Institute of Electrical Engineering, Chinese Academy of Sciences, Beijing, China, 2008. Amavel-Luiz, A. and Cardoso-Filho, B.J, Minimum reactive power filter design for high power converters, 13th International Power Electronics and Motion Control Conference, EPE-PEMC, 2008. Chang, G.W. et al., Passive harmonic filter planning in a power system with considering probabilistic constraints, IEEE Transactions on Power Delivery, 24 (1), pp. 208-218, 2009.
[22] Hong Y.Y. and Chiu, C.S., Passive filter planning using simultaneous perturbation stochastic approximation, IEEE Transactions on Power Delivery, 25(2), pp. 939-946, 2010. [23] Yue, H. et al., Multi-objective optimal power filter planning in distribution network based on fast nondominated sorting genetic algorithms, in: Electric Utility Deregulation and Restructuring and Power Technologies (DRPT), 2011 4th International Conference on IEEE, pp. 234-240, 2011. [24] Shengqing, L. et al., Multi-objective optimal design for passive power filters in hybrid power filter system based on multi-island particle swarm optimization, 2012 IEEE 7th International Power Electronics and Motion Control Conference - ECCE Asia, Harbin, China. 2012. [25] Junpeng, J.I, Haiwa, L., Guang Z., and Jinggang Z., The multiobjective optimization design of passive power filter based on PSO, IEEE Power and Energy Engineering Conference (APPEEC), 2012 Asia-Pacific, pp. 1-4, 2012. [26] Nassif, A.B. and Xu, W., Passive harmonic filters for mediumvoltage industrial systems: Practical considerations and topology analysis, IEEE 39th North American Power Symposium (NAPS 2007), pp. 301-307, 2007. [27] Nassif, A. B., Xu, W. y Freitas, W., An Investigation on the Selection of Filter Topologies for Passive Filter Applications. IEEE Transactions on Power Delivery, 24(3), 2009. [28] Kawann, C. y Emanuel, A.E., Passive Shunt Harmonic Filters for Low and Medium Voltage: A Cost Comparison Study, IEEE Trans. on Power Systems, 11(4), 1825-1831, 1996. [29] Agência Nacional de Energia Elétrica (ANEEL), Procedimentos de Distribuição de Energia Elétrica no Sistema Elétrico Nacional – Prodist: Módulo 8 – Qualidade da Energia Elétrica. 2010. [30] IEEE Std. 1531-2003, IEEE Guide for Application and Specification of Harmonic Filters, 2003. [31] Frutos, Mariano et. al, Evolutionary multi-objective scheduling procedures in non-standardized production processes, Dyna: Rev. de la Fac. Nacional de Minas, 79(172), 2003. [32] Seshadri, A., NSGA-II source code, Available at: http://www.mathworks.com/ matlabcentral/fileexchange/10429nsga-ii-a-multi-objective-optimization-algorithm/ content/NSGA-II/. M. S. Santos-Azevedo, graduado en Matemática en 1985, en Procesamiento de Datos en 1999, ambos de la Universidad Federal de Amazonas, Brasil y MSc. en Ingeniería Electrica en 2006, de la Universidad Federal de Campina Grande, Brasil. Es profesor asistente de la Universidad del Estado de Amazonas (UEA), Brasil. Tiene experiencia en el área de Sistemas Computacionales con énfasis en Modelos Analíticos y simulación de sistemas. Es coordinador de proyectos en ITEGAM. I. Pérez-Abril, graduado en Ingeniería Eléctrica en 1984, Dr. en Ingeniería Eléctrica en 1995, ambos de la Universidad Central de Las Villas, Cuba. Es director del Centro de Estudios Electroenergéticos y profesor de Sistemas Eléctricos Industriales de la Universidad Central de Las Villas, Cuba. Sus área de interés incluyen: calidad de la energía y análisis, diseño y optimización de sistemas eléctricos de potencia. C. de León-Benítez, graduado en Ingeniería Eléectrica en 1983, Dr. en Ingeniería Eléctrica en 2002, ambos de la Universidad Central de Las Villas, Cuba. Es director del Centro de Estudios Electroenergéticos y profesor de Sistemas Eléctricos Industriales de la Universidad Central de Las Villas, Cuba. Sus áreas de interés incluyen: calidad de la energía y análisis, diseño y optimización de sistemas eléctricos de potencia.
182
Santos-Azevedo et al / DYNA 81 (187), pp. 175-183. October, 2014. J.Cabral-Leite, graduado en Matemática en 1987 de la Universidad Federal de Rondónia (UNIR), Brasil; en Ingeniería en Producciones Eléctricas, en 2006 de la Fund Centro de Analise Pesq e Inov Tecnologica – FUCAPI, Brasil; MSc. en Ing. Industrial y en Sistemas en 2001, de la Universidad Federal de Santa Catarina (UFSC), Brasil y Dr. en Ing. Eléctrica en 2013, de la Universidad Federal de Pará (UFPA), Brasil. Es Director Presidente e investigador del Instituto de Tecnología y Educación Galileo de la Amazonía (ITEGAM), Brasil. Sus áreas de interés incluyen: calidad de la energía, análisis, diseño y optimización de sistemas eléctricos de potencia. U. Holanda-Bezerra, graduado en Ingeniería Eléctrica en 1976 de la Universidad Federal de Pará (UFPA), Brasil. MSc. en Ingeniería Eléctrica en 1980, de la Universidad Federal Escuela de Itajubá (EFEI)-MG, Brasil y Dr. en Ingeniería Eléctrica en 1988, de la Universidad Federal de Rio de Janeiro (COPPE/UFRJ), Brasil. Es profesor de la Universidad Federal de Pará, Brasil, desde 1977. Actualmente es profesor en el área de Conversión de Energía. Sus áreas de interés: Seguridad, Calidad de la Energía y Energía Renovable.
183
Monte Carlo simulation of epitaxial growth of GaInAsSb films Jheison Alejandro Morales a, Manuel Eduardo Ríos-Olaya b & Liliana Tirado-Mejía c a
Instituto Interdisciplinario de las Ciencias, Grupo de Optoelectrónica, Universidad del Quindío, Colombia. jamoralesv@uqvirtual.edu.co b Instituto Interdisciplinario de las Ciencias, Grupo de Optoelectrónica, Universidad del Quindío, Colombia. merios@uniquindio.edu.co c Instituto Interdisciplinario de las Ciencias, Grupo de Optoelectrónica, Universidad del Quindío, Colombia. litirado@uniquindio.edu.co Received: November 26th, de 2013. Received in revised form: June 9th, 2014. Accepted: June 20th, 2014
Abstract Material engineering finds an important support on simulation methods. The study of semiconductors growth techniques through simulation allows the determination of the influence of some growth parameters on the film properties. Experimentally, the variations of these parameters are difficult due to the high experimental demands and expenses. In this work we present the numerical simulation of the epitaxial growth of GaInAsSb by three methods. Devices based on this semiconductor material are thermophotovoltaic generators. The solid-on-solid approximation was used, considering the unit cell formed by the four constituent elements, in the establish proportions according to the choose stoichiometry. Through the Kinetic Monte Carlo method we obtained a high coincidence between the simulated film morphology and the obtained in the experimentally grown films. Keywords: Computational simulation; Kinetic Monte Carlo; Ising model; liquid phase epitaxy; GaInAsSb
Simulación por el método de Monte Carlo del crecimiento de películas epitaxiales de GaInAsSb Resumen El estudio de la fabricación de películas semiconductoras por la técnica de Epitaxia en Fase Líquida a través de métodos de simulación es un importante soporte en la ingeniería de estos materiales pues permite determinar la influencia de condiciones de crecimiento sobre las propiedades de las películas epitaxiales, variando a voluntad ciertos parámetros que experimentalmente conllevan exigentes condiciones de crecimiento y altos costos. En este trabajo se presenta la simulación mediante tres diferentes métodos, del crecimiento epitaxial del material GaInAsSb con interesantes aplicaciones en dispositivos de generación de energía termofotovoltaica. Se utilizó la aproximación de sólido sobre sólido suponiendo que la celda unitaria contiene los cuatro elementos precursores en proporciones correspondientes a la estequiometría seleccionada. Se determina que el método de Monte Carlo cinético arroja los mejores resultados, mostrando una buena coincidencia entre la morfología de las películas simuladas con la de películas fabricadas por esta técnica experimental. Palabras clave: Simulación Computacional; Monte Carlo Cinético; modelo de Ising; Epitaxia en Fase Líquida; GaInAsSb.
1. Introducción Uno de los elementos principales que han intervenido en el desarrollo de los nuevos materiales utilizados en la electrónica y de los nuevos dispositivos diseñados y fabricados, ha sido el perfeccionamiento de las técnicas de fabricación de capas semiconductoras. Las propiedades electrónicas y ópticas de los dispositivos dependen fuertemente de las características estructurales y de cristalinidad que presenten las capas, y por lo tanto, dependen del control sobre los átomos, moléculas o películas que sea permitido por la técnica de crecimiento utilizada. Es así como las técnicas de fabricación de capas
epitaxiales buscan garantizar la formación de capas con un ordenamiento atómico que replica la cristalinidad del sustrato en un crecimiento ordenado (epy: sobre y taxis: orden). Existen varias técnicas de fabricación con la característica mencionada que se diferencian entre sí por la fase en la cual se tiene el material precursor. Por ejemplo, la epitaxia por haces moleculares, en la que los átomos llegan al sustrato a partir de una fase gaseosa, y la epitaxia en fase líquida (EFL), en donde se tiene una solución líquida precursora y a partir de ahí se obtiene el material para formar la fase sólida. El principio de la técnica de EFL es inducir la formación de la fase sólida sobre un sustrato cristalino, a partir de una solución líquida saturada, cuando se baja la temperatura. A
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 184-192. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.40991
Morales et al / DYNA 81 (187), pp. 184-192. October, 2014.
través del diagrama de fases se determina la temperatura a la cual se tiene en equilibrio de fases la solución. Los mecanismos de solidificación que se dan en el proceso dependen principalmente de la rampa de enfriamiento, la calidad superficial del sustrato y la temperatura de contacto. Estos parámetros rigen el posible comportamiento de los adátomos, como es difusión sobre la superficie del sustrato, adsorción y desorción, dando como resultado formaciones particulares de capas, de escalones y de islas coalescentes. En cuanto a la estequiometría de la película, sobre el sustrato se depositan los elementos químicos tal que se forma el compuesto con su estructura cristalina característica. Teniendo en cuenta esta consideración, la simulación en este trabajo se propone como la deposición de unidades conformadas por una molécula neutra, en la aproximación conocida como Sólido sobre Sólido [1]. Por ejemplo, para el Ga1-xInxAsySb1-y se considera la unidad compuesta por los cuatro elementos en una única relación estequiométrica [2-4]. En el crecimiento epitaxial por la técnica EFL, los elementos químicos difunden de la solución líquida hacia el sustrato en un proceso de difusión unidimensional. La simulación del proceso de crecimiento puede realizarse por diferentes métodos entre los cuales aparecen como dos grandes pilares el método de Monte Carlo (estocástico) y la dinámica molecular (determinista) [5-7], siendo aplicables en situaciones antagónica: mientras que el primero permite simular sistemas de muchas partículas a un costo computacional relativamente bajo, pero sacrificando precisión, el segundo es de alta precisión con alto costo computacional, razón por la cual es útil en sistemas pequeños [8-10]. Una aparente desventaja del método de Monte Carlo con respecto al otro método radica en su incapacidad para describir la evolución del sistema en el tiempo; sin embargo existen variaciones al método de Monte Carlo que suplen esta deficiencia como es el caso del Monte Carlo cinético, que asocia el tiempo con la probabilidad de ocurrencia de un movimiento [11]. En este trabajo se toman el número de partículas que se depositan en la unidad de tiempo sobre el sustrato como un parámetro determinístico, mientras que su ubicación sobre el sustrato y los procesos de los adátomos se toman aleatorios. Estas consideraciones llevan a la aparición de sitios de nucleación que crecen formando islas que finalmente se unen para constituir la capa epitaxial. Se simula la parte correspondiente a la interfaz, partiendo de una solución cuya unidad de deposición es el compuesto estequiométrico, y se obtienen diferentes morfologías de acuerdo al método utilizado, siendo el método de Monte Carlo cinético el que presenta resultados de morfología con mayor similitud a las películas fabricadas experimentalmente. 2. Metodología Se simula la formación de la película sobre un sustrato, considerando que la unidad que se deposita es una celda formada por los cuatro elementos constitutivos, en una proporción determinada. Se utilizan tres modelos, el primero de los cuales se basa en el modelo de Ising con Metropolis Monte Carlo [1], el segundo incluye la interacción entre partículas utilizando el potencial de Lennard-Jones [12], y el tercero incluye la difusión pero no la interacción de partículas [5]. Para los dos últimos casos se utiliza Monte Carlo cinético. Las
diferentes propuestas de simulación se basaron en un número establecido de partículas que se depositan en sitios escogidos aleatoriamente. Se consideran como parámetros de entrada las temperaturas del sustrato y de la solución, y la razón de deposición, relacionada con el número de partículas para ubicar, por paso. También se definen el tamaño de la retícula y el número de pasos de Monte Carlo. En este trabajo se utilizó un tamaño de retícula de 1000x1000 y el rango para la temperatura fue de 300K a 600K, en pasos de 50K. En todos los casos se utilizó un rango para la razón de deposición que va de uno a diez, en pasos de uno, y para las energías de la superficie plana y de migración se tomaron los valores -3.7 eV y 0.7 eV, respectivamente. El procedimiento para el primer caso está ampliamente descrito en la literatura, en el que se hace la equivalencia entre la orientación del espín -arriba o abajo- y la ocupación de la retícula -ocupado o vacío-. Se observa la formación de islas con una alta rugosidad. Para el caso del potencial asociado a la retícula, se consideran los primeros próximos vecinos actualizando en cada paso el potencial. En esta simulación se incluye la fluctuación térmica asociada a la difusión de los adátomos, lo que repercute en la morfología de la película resultante. En el Monte Carlo cinético, en términos generales, se ubican aleatoriamente las partículas en la retícula, se analiza la ocupación de sitios próximos vecinos y se clasifican de acuerdo al número de ellos, determinando así las diferentes probabilidades de difundir que tendrá la partícula. Este último algoritmo presenta diversas ventajas frente a los otros modelos, ya que permite estudiar la dinámica del crecimiento tal como se da físicamente el proceso, y además sin recurrir a una matriz de potenciales, haciéndolo más eficiente computacionalmente. Los resultados obtenidos utilizando los tres métodos muestran patrones típicos de películas epitaxiales. En este trabajo se utiliza la aproximación Sólido sobre Sólido (SOS por sus siglas en inglés) en la que se supone que la superficie está constituida por bloques de construcción o celdas unitarias que se apilan unas sobre otras, permitiendo vacancias o lugares vacíos que se presentan experimentalmente en las interfaces. Cada sitio de la retícula puede estar ocupado por varias celdas unitarias, y esto puede interpretarse como múltiples capas atómicas. Los procesos considerados sobre la superficie, definidos por su probabilidad, son la deposición de átomos nuevos, la desorción de átomos superficiales y la difusión de átomos en la superficie. Además, en el movimiento de los átomos que se depositan y que difunden se consideran cinco eventos relacionados con ocupación de los sitios vecinos y definidos por sus probabilidades de adhesión. Existen varios modelos SOS entre los que se destacan los modelos DGSOS (Discrete Gaussian Solid on Solid), ASOS (Absolute value Solid on Solid) y el modelo XY [1], que comparten la característica de ser interpretados como modelos bidimensionales de espín distribuidos en una retícula, pero considerando la energía potencial de los vecinos y no su orientación del momento magnético. Es decir, un sitio de la retícula puede tomar valores dentro de un conjunto discreto y la energía de interacción es invariante bajo cambios globales. En muchos casos, la simulación del crecimiento de materiales cristalinos se hace utilizando modelos basados en
185
Morales et al / DYNA 81 (187), pp. 184-192. October, 2014.
retículas, obviando las posibles diferencias entre los parámetros de red de la película y el substrato sobre la cual se hace crecer. Estas diferencias provocan compresiones y estrés sobre el cristal, resultando en dislocaciones y otro tipo de defectos que son imposibles de simular a través de modelos SOS [13]. Esta consideración se tiene en cuenta al decidir qué características tendrá el modelo con miras a una aproximación más precisa de los fenómenos simulados. Un criterio que permite decidir entre el uso de modelos basados en retícula y sin retícula resulta del análisis de la coincidencia en los parámetros de red sustratopelícula [14]: í
(1)
Si emis es menor al 8%, el sistema es un candidato razonable para ser simulado con un modelo basado en retícula. En epitaxia en fase líquida se busca llevar este valor hasta el 3%. Las consideraciones y aproximaciones utilizadas en las tres diferentes propuestas de simulación se presentan a continuación. 2.1. Metropolis Monte Carlo con modelo de Ising Utilizando los modelos propuestos de sólido sobre sólido, la primera aproximación consiste en utilizar el método Metropolis para obtener el estado final de la película a determinada temperatura sin conocer la evolución temporal de ésta. Este algoritmo se fundamenta en el modelo de Ising, en el cual se hace la analogía entre el estado del espín (arriba o abajo) con la ocupación de un sitio (ocupado o vacío). Se consideran tres posibles movimientos: adsorción, desorción y desplazamiento de la partícula, que puede interpretarse como difusión. El criterio de aceptación está dado por el paso de Monte Carlo definido por Metropolis: (2)
,
siendo H el hamiltoniano del sistema, J la energía de interacción, y indican si los sitios x e y de la retícula están ocupados. El paso de Monte Carlo se define por la expresión: ∆
(3) en donde, para decidir si finalmente aceptar el movimiento o no, se genera un número aleatorio con distribución uniforme y se compara con el valor dado por la distribución exponencial: si el número es mayor entonces se acepta el proceso, en caso contrario se rechaza [5]. 2.2. Monte Carlo cinético con potenciales Para este modelo se tiene en cuenta la interacción entre las partículas y se asocia a cada punto de la retícula un valor de energía potencial. Las variaciones de energía potencial en cada uno de los sitios están basadas en el potencial de LennardJones, teniendo en cuenta la influencia de una partícula frente a
los primeros y segundos vecinos. En cada paso de la simulación se depositan N adátamos en sitios aleatorios de la retícula y una vez ubicados, se revisa cada sitio para determinar qué tipo de movimiento se realizará. Se consideran cuatro posibles casos: la desorción, es el caso cuando la partícula ya adherida se desprende de la superficie; la migración o difusión de la partícula por la superficie; la incorporación o adsorción de la partícula a la superficie; y el caso cuando no sucede nada, es decir, cuando la partícula permanece en su posición. Cada movimiento está asociado a umbrales de energía potencial. A diferencia de la simulación previa, en esta simulación es posible realizar varios eventos a la vez, teniendo en cuenta que la frecuencia con la que se revisa cada sitio está relacionada con un intervalo de tiempo en función de la temperatura y en el cual se garantiza que ocurrirá por lo menos algún tipo de movimiento de los mencionados anteriormente. Al considerar los movimientos térmicamente activados, cada celda de la retícula tiene fluctuaciones de energía asociadas a la temperatura estando estas variaciones regidas por la distribución de Boltzmann. Una vez recorrida toda la retícula, se almacenan los movimientos correspondientes a cada sitio en un arreglo en el cual se desordena aleatoriamente para evitar algún tipo de “estructura artificial” en la evolución de la simulación debido al orden con el que se explora la superficie. Una vez actualizados los potenciales en cada sitio de la retícula, se incrementa el tiempo de simulación, siendo E la energía del sitio (i,j) y R un número aleatorio con distribución uniforme. (4) Cada que una partícula se adsorbe, se actualizan los potenciales de los sitios vecinos (primeros y segundos vecinos); la desorción se simula eliminando la partícula de la superficie y revirtiendo su efecto sobre los potenciales en los sitios vecinos. La migración se considera una desorción y una adsorción en sitios inmediatamente vecinos. La incorporación supone que la partícula se introduce dentro de la película y desaparece de la superficie, manejándose de igual manera que la desorción. La comparación de la energía obtenida a partir de la ec. (4) en cada sitio con los umbrales de energía que debe vencer la partícula para que se dé uno de los movimientos mencionados, se muestra en la Tabla 1. Los subíndices i y m representan la incorporación y la migración, respectivamente, y la U0 es la energía de Lennard-Jonnes. Para el caso de la desorción, su tasa se define según la ec. (5) en términos del número de enlaces que tenga la partícula con otras (n), la energía de cada enlace () y el período de vibración de la partícula ligada al sustrato (o). Para la adsorción simple, con un período de aproximadamente 10-12 s, cada que se aleja la partícula en el ciclo de vibración se considera como un intento de desorción. Tabla 1. Límites de la energía asociada a las barreras que se deben vencer para realizar un movimiento. Tipo de movimiento Energía Desorción E(i,j)>0 Incorporación 0> E(i,j)>Ui Migración Ui > E(i,j) >Um Permanencia Um > E(i,j) >U0 Fuente: Elaborada a partir de Heinbockel, J. H., et al., 1983.
186
Morales et al / DYNA 81 (187), pp. 184-192. October, 2014.
(5) Para la migración, ya sea desorción o difusión, la ocurrencia depende de la probabilidad relativa de cada evento. Aquí, la disponibilidad de más de un sitio para la migración se determina por el número de sitios vecinos disponibles. Cuanto mayor es este número, menos profundo es el pozo de potencial, más pequeña la barrera de energía y por lo tanto aumenta la probabilidad de la migración a ese sitio. La ec. (6) determina la posibilidad de ocurrencia de un proceso de difusión, tanto para el modelo Monte Carlo cinético como para el Monte Carlo basado en potenciales. ;
(6)
Siendo CV la concentración de las vacancias, a la distancia entre partículas, 1/6 es un factor que depende de la estructura cristalina y es la energía de migración [15]. En las simulaciones realizadas se asumió que el número de sitios posibles a los cuales puede migrar la partícula es constante y no depende de la temperatura. Solo se consideran los primeros vecinos, como sitios posibles. Un salto a una de estas vacancias se considera un evento de difusión. Se utilizaron para Ui y U0 los valores -0.1 y -3.7 eV, respectivamente. El valor de Um se obtiene de la suma de U0, Qd y , tomando Qd el valor de 0.7 eV.
donde P(r,t) es la probabilidad de que un átomo esté en la posición r en el tiempo t. En el modelo LGM el coeficiente de difusión D, según ec. (6), está asociado a la concentración de átomos en la superficie [16]. El modelo anterior no toma en cuenta los efectos de la temperatura ni la interacción mutua entre átomos difundiendo y está basado en la llamada teoría de transición de estado, que relaciona dos estados separados por una barrera de energía potencial. La tasa de saltos para cada átomo depende únicamente de sus vecinos cercanos, por lo tanto todos los átomos con igual número de vecinos difunden igual. De nuevo, esto permite agrupar los átomos en cinco diferentes grupos de acuerdo al número de vecinos cercanos. Mientras que en el algoritmo de Metropolis se prueba la aceptación de un evento, en Monte Carlo cinético (KMC por sus siglas en inglés) se escoge el tipo de movimiento, es decir, el tipo de evento seleccionado siempre ocurre (algoritmo n-fold). Para cuando se tiene un total de partículas N y una disponibilidad de movimiento (grupo de acuerdo al número de vecinos) la razón de deposición está descrita por: (9) Al multiplicar las razones individuales por el número de átomos que difunden con la misma razón, se obtienen las probabilidades para cualquier tipo de difusión.
2.3. Monte Carlo cinético
(10)
Una forma de validar los algoritmos es utilizando la teoría de difusión en la que se incluyen los proceso de deposición de átomos nuevos, desorción de átomos superficiales y difusión de átomos en la superficie. Para el caso de difusión superficial, se supone que se tiene una colección de partículas moviéndose en una superficie. En el modelo de gas reticular (LGM lattice gas model), la superficie se modela por una retícula donde cada sitio se marca como ocupado (ni=1) o no ocupado (ni=0). Una aproximación sencilla se hace considerando cada átomo como un “caminante aleatorio” que está limitado por la presencia de otros átomos en la superficie. La difusión consiste en saltos aleatorios hacia sitios vecinos no ocupados; si todos los sitios vecinos están ocupados, el átomo se elimina (desorción). Si la concentración de átomos es muy baja entonces es poco probable encontrar un sitio vecino ocupado, y en este caso el camino medio es: )
(11)
(7)
para r(t) el vector posición en un tiempo t. Cuando la concentración incrementa se hace más difícil para los átomos encontrar un sitio vecino desocupado y por lo tanto el desplazamiento medio cuadrático de los átomos disminuirá con respecto al caso de baja concentración, según la ecuación de difusión: ,
En el proceso se genera un número aleatorio r ϵ [0,Rtot] y se selecciona el evento correspondiente; si r < N0k0, se selecciona el evento 0, si N0k0 < r < N1k1 se selecciona el evento 1, y así sucesivamente. Luego se escoge un átomo del grupo y se mueve en dirección aleatoria. En este modelo es posible que un átomo se ubique sobre otro, y el que queda debajo es excluido de la lista de elegibles ya que no puede difundir. Si el átomo de arriba “salta” otra vez, el átomo se incluye nuevamente en la lista. Después de actualizar los grupos se deben revisar los sitios iniciales y finales ya que es posible que un átomo quede cubierto, como consecuencia del salto. Al ocurrir la adhesión de nuevos átomos que se depositan aleatoriamente en la retícula a una razón constante F (monocapas por segundo mc/s), siendo LxL las dimensiones de la retícula, se suman los eventos considerando la adhesión y la difusión.
(8)
Cuando el evento “deposición” es seleccionado, se escoge aleatoriamente uno de los sitios de la retícula y se suma un átomo. El incremento del tiempo físico debido a la deposición se calcula de acuerdo la expresión: (12) La cuantificación de los resultados obtenidos en las simulaciones se realiza a través del coeficiente de rugosidad (Rf). El Rf mide la textura de la superficie de la película a
187
Morales et al / DYNA 81 (187), pp. 184-192. October, 2014.
través del rms de las alturas; cuando r = 0 se interpreta como una superficie totalmente plana. Su definición matemática es: (13)
presentan similitudes en su configuración, las diferencias observadas se atribuyen a que la simulada no ha presentado una completa coalescencia de los agregados. Un aumento en los pasos de MC podría representar de una manera más fiel el resultado experimental.
siendo S el número de sitios en la retícula, hi la altura de cada sitio y el valor medio de la altura. En general, para calcular cualquier observable físico es necesario obtener el promedio de varias simulaciones independientes ya que el sistema no se encuentra en equilibrio. 3. Resultados En este trabajo se simuló el crecimiento epitaxial utilizando el modelo de Ising, el Monte Carlo cinético basado en potenciales y en el algortimo n-fold, para establecer las dependencias de la morfología con los parámetros de crecimiento temperatura y razón de deposición. Estos últimos son los parámetros de entrada para los algoritmos. El resultado de la simulación es una superficie que muestra la configuración de las partículas a diferentes instantes de tiempo y su rugosidad. Teniendo en cuenta que en la ref. [17] se reporta una dependencia lineal de la rugosidad con el aumento del tamaño de la retícula, este parámetro se consideró constante. A continuación se presentan los resultados obtenidos de las simulaciones con los tres métodos escogidos. Para Metropolis, aunque se observa la formación de islas alrededor de los sitios de nucleación similares a las observadas en el proceso experimental de fabricación (Fig. 1); no se calcula la rugosidad por ser éste un parámetro estático puesto que este algoritmo no describe la evolución del sistema según los criterios físicos del crecimiento. En los resultados utilizando matriz de potenciales y nfold, se dejan como parámetros constantes el tamaño de la retícula, el número de pasos (relacionado con el tiempo de crecimiento) y las energías de salto. Los parámetros que se varían son la temperatura y la razón de deposición. En las Figs. 2 y 3 se presentan algunas imágenes del estado de la película a distintos momentos del crecimiento utilizando el modelo basado en potenciales y el modelo basado en el algoritmo n-fold, respectivamente. La comparación de estos resultados muestra que a través del método de los potenciales se obtiene la formación de granos epitaxiales, que coalescen formando películas con morfología similar a las obtenidas experimentalmente. Cuando se utiliza este método se considera que cada unidad depositada es una celda formada por los cuatro elementos constituyentes, en una relación estequiométrica. Las simulaciones realizadas permiten encontrar la morfología superficial, descrita a través de la rugosidad. Se observa cómo evoluciona la rugosidad de la película en el tiempo, y su dependencia con la temperatura de deposición. Analizando este comportamiento se puede extrapolar para predecir el resultado obtenido de un crecimiento, bajo ciertas condiciones de temperatura y concentración de la solución. Aunque la imagen de la película obtenida experimentalmente y la película simulada
(a)
(b) Figura 1. Simulación por Metropolis Monte Carlo para un tamaño fijo de la retícula, la temperatura y una razón de deposición constante. Se observa los sitios de nucleación y la formación de islas; se evidencia la tendencia a favorecer la formación en la dirección de crecimiento y no en el plano de la interfaz. (a) 100 pasos de Monte Carlo; (b) 2000 pasos de Monte Carlo. Fuente: Los autores
188
Morales et al / DYNA 81 (187), pp. 184-192. October, 2014.
(a)
(a)
(b)
(b)
(c) Figura 2. (a) 500 y (b) 1500 pasos de Monte Carlo para un tamaño fijo de la retícula, la temperatura y una razón de deposición constantes utilizando, para la simulación, el modelo basado en potenciales. Se observa el crecimiento de islas y su coalescencia, para formar la película. Los puntos brillantes en (a) corresponden a los “adátomos” que difunden. Simulación realizada con una energía de la barrera para la difusión de 0.7 eV a 500K y con una razón de deposición de 5 monocapas/s. La micrografía en (c) corresponde a la imagen obtenida mediante un microscopio confocal de la superficie de una película de GaInAsSb, en donde se observa la formación y coalescencia de los agregados. Fuente: Los autores
(c) Figura 3. (a) 500, (b) 1500 y (c) 2000 pasos de Monte Carlo para un tamaño fijo de la retícula, la temperatura y una razón de deposición constante utilizando, para la simulación, el modelo basado en el algoritmo n-fold. Se observa el crecimiento de islas y su coalescencia, para formar la película. Simulación realizada con una energía de la barrera para la difusión de 0.7 eV a 500K, y con una razón de deposición de 5 monocapas/s. Fuente: Los autores
189
Morales et al / DYNA 81 (187), pp. 184-192. October, 2014.
0,7
5 mc/s
0,40
5 mc/s
Rf (u.a.)
600 K
0,30
500 K
0,5
2
Rf (u.a.)
600 K
0,6
0,35
0,25
2
0,4
500 K 0,20
0,3
0,15 0,2
0,10
400 K
400 K
0,1
0,05
0,0
0,00 0
200
400
Pasos MC
600
800
0
1000
200
0,40
800
1000
500 K
0,35
1 mc/s
Rf (u.a.)
10 mc/s
0,6
10 mc/s
2
0,30
2
600
(a)
(a)
Rf (u.a.)
400
Pasos MC
0,25
0,4 5 mc/s
0,20
5 mc/s
0,15
0,2
1 mc/s
0,10 0,05
0,0
500K
0
200
400
600
800
1000
Pasos MC
0,00 0
200
400
600
800
1000
(b)
Pasos MC
(b)
1,4
10 mc/s
600 K
1,2
10 mc/s
600 K
1,0
2
0,40
Rf (u.a.)
0,45
0,35
0,8
500 K
Rf (u.a.)
0,30
0,6
0,25
2
500 K
0,4
400 K
0,20 0,2
0,15
0,0
0,10
400 K
0
200
400
600
800
Pasos MC
0,05
1000
(c)
0,00 0
200
400
Pasos MC
600
800
1000
1,4
600 K 1,2
(c) Rf (u.a.)
10 mc/s 1,0
2
0,6
1 mc/s
0,5
0,8 5 mc/s
2
Rf (u.a.)
0,6
10 mc/s
0,4
1 mc/s
0,4
0,3 0,2
5 mc/s 0,2
0,0 0
200
400
600
Pasos MC
800
1000
0,1
(d) Figura 5. Evolución del cuadrado de la rugosidad (Rf2) para el modelo n-fold considerando tres diferentes razones de deposición (1, 5 y 10 monocapas/s) y tres temperaturas (400, 500 y 600 K). Fuente: Los autores
600K 0,0 0
200
400
600
800
1000
Pasos MC
(d) Figura 4. Evolución del cuadrado de la rugosidad (Rf2) para el modelo basado en potenciales considerando tres diferentes razones de deposición (1, 5 y 10 monocapas/s) y tres temperaturas (400, 500 y 600 K). Fuente: Los autores
De los resultados obtenidos referentes a la rugosidad, vemos que la temperatura es un factor determinante en el proceso de difusión de los adátomos y que está vinculada a la
190
Morales et al / DYNA 81 (187), pp. 184-192. October, 2014.
razón de deposición. La temperatura favorece la difusión para formar agregados pero, un incremento de ella para una misma razón de deposición, incrementa la rugosidad por el proceso de desorción. El aumento de la razón de deposición disminuye el tiempo de difusión, generando una mayor rugosidad. Cuando se consideran independientemente altas temperaturas, el resultado es una interfaz rugosa mientras que a bajas temperaturas el resultado es una interfaz suave y rígida. Del análisis de las figuras presentadas a continuación se observa un compromiso entre temperatura y razón de deposición. Se observa en las Figs. 4a, 4c, 5a y 5c para ambos modelos la fuerte influencia de la temperatura para los primeros estadios de crecimiento (100 pasos), mientras que el crecimiento a una misma temperatura (Figs. 4b, 4d, 5b y 5d) no depende de la razón de deposición en los estadios iniciales (por debajo de los 100 pasos). En el modelo n-fold, para una alta razón de deposición (10 mc/s) no se alcanza la coalescencia de las islas y por lo tanto la rugosidad aumenta monótonamente con los pasos, siendo este efecto más evidente a alta temperatura (600 K). Para una menor razón de deposición (1 mc/s) se observan las oscilaciones asociadas a la formación de capas completas favoreciéndose con altas temperaturas mientras que según el modelo basado en potenciales, sucede lo contrario (Fig. 4.d) describiendo de una manera más cercana el resultado experimental. Si la temperatura no es lo suficientemente alta (400K), los adátomos no tienen mucha oportunidad de difundir y reacomodarse, y por lo tanto se observa una formación lenta de la capa y un crecimiento lento de la rugosidad. Es decir, mientras que en el modelo basado en el algoritmo n-fold crece rápidamente la rugosidad a altas razones de deposición y a altas temperaturas, en el modelo basado en potenciales, se observa cómo la rugosidad alcanza un valor nominal y oscila alrededor de éste debido a la formación de capas (Figs. 4.c y 5.c). Esto muestra que el modelo basado en potenciales permite la coalescencia de islas y la reacomodación de partículas debido a movimientos termoactivados. En general, la rugosidad es mayor para el modelo n-fold que para el de potenciales, debido a la forma de las islas: mientras en el primero los bordes no estan bien definidos, en el segundo modelo la forma de las islas es más compacta. Uno de las principales dificultades al usar el método de Monte Carlo cinético radica en la necesidad de especificar las tasas de ocurrencia de los eventos, o las barreras de energía relacionadas a cada evento, antes de realizar la simulación. Este método puede ser usado cuando en lugar de la cinética de la termodinámica de equilibrio, dominan los cambios estructurales o de composición en el sistema. Por su parte, el algoritmo de Metropolis tiene la particularidad de generar configuraciones aleatorias de acuerdo a las distribuciones estadísticas deseadas. Aunque permite conocer la configuración final del sistema y estudiar las propiedades de equilibrio (reconstrucción y segregación de la superficie), no contempla el tiempo de ocurrencia de los procesos, resultando en una imposibilidad de estudiar la evolución del sistema. Una diferencia fundamental entre el algoritmo Metropolis y los otros dos métodos considerados en este trabajo (MC cinético y basado en potenciales) radica en la
forma como se decide aceptar o rechazar un movimiento. Metropolis se basa en la diferencia de energía entre los estados, mientras Monte Carlo Cinético utilizan tasas que dependen de las barreras de energía entre los estados. Monte Carlo basado en potenciales, al igual que el Monte Carlo cinético, comparten la ventaja de considerar únicamente un pequeño número de reacciones elementales, aumentando la velocidad de los cálculos, a expensas de una menor precisión y menor poder de predicción al no contemplar situaciones que, aunque tienen muy baja probabilidad de ocurrencia, pueden suceder. Los algoritmos desarrollados nos permiten variar condiciones de crecimiento en el proceso de epitaxia en fase líquida como la razón de deposición asociada a la rampa de enfriamiento, y determinar la dependencia de la morfología con estos parámetros de fabricación. 4. Conclusiones La simulación del crecimiento epitaxial sobre sustratos monocristalinos se realiza a partir de la consideración de la difusión de celdas unitarias en la superficie del sustrato, semejantes a adátomos. La composición de la celda unitaria se considera fija y los procesos en la superficie del sustrato son de difusión, adsorción y desorción. Se realizaron simulaciones utilizando el algoritmo de Metropolis y el Monte Carlo cinético, con el algoritmo n-fold y el método de potenciales. El método de Monte Carlo cinético, basado en el algoritmo n-fold no muestra un comportamiento que se aproxime al observado experimentalmente, en cuanto a su dependencia con la temperatura. Aunque aparecen núcleos que forman islas que coalescen, su morfología muestra patrones característicos que bien podrían nombrarse como de tipo fractal alejada de las formas observadas, que son mucho más compactas. Este comportamiento aparentemente anómalo está relacionado también con la energía de barrera para la difusión. Sin embargo, las pruebas realizadas bajo las mismas condiciones y configuraciones, con el algoritmo basado en potenciales muestran comportamientos ligeramente diferentes y más aproximados al comportamiento observado en el experimento físico, presentando coalescencia de islas compactas. Como se observa en las gráficas, en condiciones apropiadas la rugosidad presenta un comportamiento periódico indicando en los puntos más bajos la formación de monocapas completas, y en los máximos relativos, el proceso inicial de formación. La rugosidad puede ser divergente en casos en los cuales la razón de deposición es muy alta e impide a los adátomos su difusión al ser cubiertos rápidamente por otros adátomos antes de alcanzar una ubicación de menor energía. La temperatura puede ser también un factor importante para la divergencia de la rugosidad, pues al tener mayor energía, los adátomos pueden superar fácilmente las barreras de energía interpuestas por sus vecinos, favoreciendo la desorción y afectando así la permanencia de las islas. Los algoritmos se escribieron en forma de librerías para su uso con el software GNU Octave, todas las simulaciones se ejecutaron en máquinas sobre GNU Linux, distribución
191
Morales et al / DYNA 81 (187), pp. 184-192. October, 2014.
Ubuntu. Se realizaron pruebas con GNU Octave corriendo sobre MS Windows, sin ningún inconveniente evidenciando la portabilidad de las librerías. Agradecimientos Este trabajo fue financiado por la Universidad del Quindío, a través del proyecto 589, y por Colciencias a través del programa de Jóvenes Investigadores. Referencias [1] [2] [3]
[4]
[5] [6] [7] [8] [9] [10] [11]
[12] [13]
[14]
[15] [16]
[17]
Pinn, K. Montecarlo studies of Ising model interfaces and Solid-onSolid models [Habilitationsschrift], Departamento de Física, Universidad de Münster (WWV), 1995. Kumar, A. and Dutta. P.S., Liquid phase epitaxial growth of lattice mismatched InSb, GaInAs and GaInAsSb on GaAs substrates using a quaternary melt, J. of Crys. Growth, 310, pp. 1647-1651, 2008. Rakovics, V., Tóth, A.L., Podor, B., Frigeri, C., Balázs, J. and Horváth, Z.E., Liquid phase epitaxy growth and characterization of Ga1−xInxAsySb1−y quaternary alloys, Materials Science and Engineering, B (91–92), pp. 83–86, 2002. Denisova, I.A., Lakeenkova, V.M., Mazhorovab, O.S., Popov and Yu, P., Numerical study for liquid phase epitaxy of CdXHg1-XTe solid solution, J. of Crys. Growth, 245, pp. 21-30, 2002. Carmona, J. and Hoyos B. An improved primitive model for hydrated ions near a metal surface: Monte Carlo simulations. DYNA, 77 (162), pp. 191-203, 2010. Venables J., Introduction to surface and thin film processes. Cambridge University Press, 2010. Gilmer, G.H., Huand, H., de la Rubia, T.D., Torre, J.D. and Baumann, F., Lattice Monte Carlo models of thin film deposition. Thin Solids Films, 365 (2), pp. 189-200, 2000. Landau D., Binder K., A Guide to Monte Carlo simulations in statistical physics. Cambridge University Press, 2005. Battaile C., The kinetic Monte Carlo method: Foundation, implementation, and application. Computer Methods in Applied Mechanics and Engineering, 197 (41-42), pp. 3386-3398, 2008. Baskaran A. and Smereka P., Mechanisms of Stranski-Krastanov growth. J. of Appl. Phys., vol.111, pp. 044321-044321-6, 2012. Kratzer, P., Monte Carlo and kinetic Monte Carlo methods – A tutorial, en: Grotendorst, J., Attig, N., Blügel, S. and Marx, D., Eds. Multiscale simulation methods in molecular sciences, Institute for Advanced Simulation, Forschungszentrum Jülich, NIC Series, Vol. 42, 2009. Heinbockel, J.H., Outlaw, R.A. and Walker, G.H., A potential-energy scaling model to simulate the initial stages of thin-film growth, NASA Technical Paper 2102, 37 P., 1983. Biehl, M. and Much, F., Off-lattice kinetic Monte Carlo simulations of Stranski-Krastanov-like growth. Advanced Research Workshop on Quantum Dots: Fundamentals, Applications, and Frontiers. NATO, Proceedings to be published by Kluwer, 2003. Voter, A., Introduction to the kinetic Monte Carlo Method, [Online], [fecha de consulta: 6 de noviembre de 2013], Available at: http://www.ipam.ucla.edu/publications/matut/matut_5898_preprint.p df Sato, K., Takizawa, S. and Mohri, T., On-the-fly kinetic Monte Carlo simulation of atomic Di usion in L10 structure, Materials Transactions, 52 (3), pp. 391-396, 2011. Shell, M., CHE210D Principles of modern molecular simulation methods. Universidad de California, [Online], [fecha de consulta: 6 de noviembre de 2013], Available at: http://www.engr.ucsb.edu/~shell/che210 d/ Gangshi, H., Xinyu, Z., Orkoulas, G. and Christofides, P.D., Multiscale modeling and control of porous thin film growth, in: William S. Levine, The Control Handbook, Second Edition, CRC Press, pp. 13.1-13.17, 2010.
presentado resultados en el Simposio de Tratamiento de Señales, Imágenes y Visión Artificial STSIVA, Universidad de Antioquia SIU, en la X Escuela Nacional de Física de la Materia Condensada y en el XXV Congreso Nacional de Física. Realizó en el 2013 el curso “Modelado atomístico en la nanoescala: principios y aplicaciones”, ofrecido por la Facultad de Ciencias Químicas de la Universidad Nacional de Córdoba, Argentina. Su perfil está orientado a la planificación, organización, dirección y control de procesos productivos y administrativos. Conocimientos en lenguajes de programación (Matlab, C, C++, Python, VHDL), sistemas operativos (Windows, Linux), metodologías de diseño, planificación y organización de planes de mantenimiento. Diseño de hardware utilizando lenguajes de descripción de hardware o de sistemas basados en microcontrolador. M. E. Ríos-Olaya, recibió el título de Ingeniero Electrónico en 2008, en la Universidad del Quindío, Colombia. Desde el 2011 hasta el 2013 trabajó como joven investigador de Colciencias, en el Instituto Interdisciplinario de la Ciencia de la Universidad del Quindío, Colombia; específicamente en el grupo de investigación de Optoelectrónica, enfocándose en la simulación computacional de fenómenos físicos correspondientes a técnicas de caracterización óptica de materiales semiconductores y fabricación de dispositivos semiconductores por la técnica de Epitaxia en Fase Líquida. Actualmente es estudiante de Maestría en Ingeniería de Telecomunicaciones de la Universidad de Antioquia, Colombia, donde sus áreas de interés son las redes inalámbricas de área corporal WBAN, seguridad y fiabilidad de dispositivos electrónicos para telemedicina y algunos temas específicos en redes heterogéneas LTE-A. L. Tirado-Mejía, es licenciada en Educación - Área Mayor Física, en 1984 de la Universidad del Quindío, Colombia. Obtuvo el título de MSc. en Ciencias - Física, en 1989 y Dra. en Ciencias - Física, en 2000, ambos de la Universidad del Valle, Colombia. Profesora de planta de la Universidad del Quindío desde 1998, actualmente en la categoría de Asociado. Hace parte del Grupo de Optoelectrónica y se ha desempeñado en el campo de la investigación en materiales semiconductores con énfasis en las propiedades ópticas y en fabricación de materiales semiconductores por la técnica de Epitaxia en Fase Líquida.
J. A. Morales, graduado de Ingeniero Electrónico con calificación meritoria en 2014, de la Universidad del Quindío, Colombia. Ha participado en proyectos de investigación financiados por la Universidad del Quindío y ha 192
Projections in the national mining development plan (NMDP) using @risk Giovanni Franco-Sepúlveda a, Luz Viviana Villa-Posada b & Cristian Camilo Henao-Gómez c a
Grupo de Planeamiento Minero, Facultad de Minas, Universidad Nacional de Colombia, Colombia. gfranco@unal.edu.co Grupo de Planeamiento Minero, Facultad de Minas, Universidad Nacional de Colombia, Colombia. lvvilla @unal.edu.co c Grupo de Planeamiento Minero, Facultad de Minas, Universidad Nacional de Colombia, Colombia. cchenao @unal.edu.co b
Received: December 3th, 2013. Received in revised form: June 27th, 2014. Accepted: August 13th, 2014.
Abstract The mining industry in Colombia has reached an important position in the international market and the national economy, so, in order to describe the dynamics of the mining market, analyze the structure of the industry and make a comparison with estimates mineral production released at the National Mining Development Plan (PNDM) Unidad de Planeacion Minero Energetica (UPME), the @Risk tool is implemented. This tool and methodology defined in this article, allows for uncertainty and risk estimates in a simulation that generates a projection with a time horizon to 2019 the historical mining (extraction considering among years 1970 to 2013) of coal, gold and limestone, building alternative models that can be replicated by the mining institution in their respective futures PNDM and its updates. Keywords: Economy; Deterministic; Stochastic; Model; Projection; Uncertainty; Risk.
Proyecciones en el plan nacional de desarrollo minero (PNDM) utilizando @risk Resumen La industria de la minería en Colombia ha alcanzado una importante posición en el mercado internacional y en la economía nacional; por esto, con el fin de describir la dinámica del mercado minero, analizar la estructura de la industria y hacer una comparación con las estimaciones de producción de minerales dadas a conocer en el Plan Nacional de Desarrollo Minero (PNDM) de la Unidad de Planeación Minero-Energética (UPME), se implementará la herramienta @Risk. Esta herramienta y la metodología que se define en el presente artículo, permite incluir la incertidumbre y el riesgo en las estimaciones, en una simulación que genera una proyección con un horizonte temporal al año 2019 de la extracción histórica (teniendo en cuenta la extracción entre los años 1970 al 2013) de carbón, oro y calizas, construyendo modelos alternativos que pueden replicarse por la institucionalidad minera en los futuros PNDM y en sus respectivas actualizaciones. Palabras clave: Economía; Determinístico; Estocástico; Modelo; Proyección; Incertidumbre; Riesgo.
1. Introducción La propuesta expuesta por el Plan Nacional de Desarrollo Minero como medio de planeamiento y orientación de la dirección, negocio e inversión gubernamental con relación a estrategias planteadas para el desarrollo del sector minero colombiano, refleja que el sector en el ámbito nacional, ha experimentado variaciones representativas en el crecimiento de la producción, en el interés por la exploración de yacimientos minerales y en la inversión para ellas. En la última década, la industria de la minería en Colombia ha alcanzado una importante posición en el
mercado internacional y así mismo en la economía nacional; por esto, con el fin de describir la dinámica del mercado minero, analizar la estructura de la industria y hacer una comparación con las estimaciones de producción de minerales dadas a conocer en el PNDM de la UPME, se implementará la herramienta @Risk la cual permite incluir la incertidumbre presente en las estimaciones, en una simulación que permita generar una proyección al año 2019 de producción de carbón, oro y calizas construyendo modelos alternativos para aplicar a la industria minera colombiana y que puedan servir como insumo fundamental en la elaboración de los planes nacionales de desarrollo minero que se definirán en el futuro cercano.
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 193-198. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.41055
Franco-Sepúlveda et al / DYNA 81 (187), pp. 193-198. October, 2014.
1.1. Evolución de las metas de producción Los elementos que determinan el futuro de la actividad minera, como estrategia para facilitar la vinculación al sector de empresas inversionistas en exploración y desarrollo en Colombia son: a. Capacidad de producción y reservas de las minas actualmente en operación. b. Grado de éxito que obtengan los proyectos que se encuentran en la fase exploratoria. c. Probabilidad de colocar mayor producción minera en el mercado internacional. d. Competitividad del país para atraer nuevas inversiones al sector [1,2]. Partiendo de que en el Sistema de Información Minero Colombiano (SIMCO) se conoce la capacidad de producción minera actual de todos los departamentos del país y en general se cuenta con estimativos basados en los registros de los volúmenes de material producido, no es posible tener un consolidado confiable debido al grado de informalidad que predomina en el país, produciendo estimados sin mayor comprobación técnica (hecho medianamente subsanable con la actual política de fiscalización minera); por eso a continuación se presentan modelos predictivos de la producción minera colombiana por año y las perspectivas del mercado para los minerales de mayor impacto en la economía nacional con relación a los resultados obtenidos en el PNDM establecido por la UPME. 2. Proyecciones en el PNDM utilizando modelos determinísticos Durante el año 2006, la Unidad de Planeación Minero Energética proyectó, con base en la información disponible de entonces en publicaciones oficiales y en comunicados de prensa de las compañías mineras, el desempeño de los productos colombianos que aportan de manera significativa al PIB minero. Los resultados obtenidos forman parte del Plan Nacional de desarrollo minero al 2019 - PNDM2019 [3]. En la actualidad, si se realiza una revisión detallada de los PNDM de 2007 al 2010 y el de la visión a 2019 se puede evidenciar la falta de información y claridad en las proyecciones de algunos datos registrados en dichos documentos, solo en el texto de la visión a 2019 se realizan proyecciones de algunos de los minerales que son influyentes en el PIB nacional que deberían ofrecer mayor información agregada como las metodologías utilizadas para las proyecciones y una coherencia en los años proyectados, esto debido a que se evidencian las diferencias en algunos casos realizando proyecciones hasta el año 2010 y otras hasta el 2019. En el negocio minero hay que tener en cuenta que los actores fundamentales del desarrollo minero son los inversionistas, los empresarios u operadores de proyectos, la comunidad y la autoridad minera [4], que en el momento de tomar decisiones respecto al mercado dentro de un sistema económico en algún país buscaran información contundente y lo más aproximada a la realidad del negocio, no solo en los años anteriores de la inversión, sino también en los años
futuros, es por tal razón que las fuentes de información minera colombiana deben aportar datos que asemejen la realidad del mercado teniendo en cuenta que estamos en un mundo económicamente cambiante y que esta propenso a los riesgos e incertidumbres que se generan en el día a día de los mercados mundiales. Para que se pueda decir que existe un riesgo, deben estar presentes tres elementos: primero, la posibilidad de que algo suceda (un evento); segundo, que dicho evento contenga cierta incertidumbre y finalmente la espera de un resultado por una inversión. En este sentido entenderemos por riesgo, a la probabilidad de una pérdida o de una menor ganancia a la esperada en una inversión. Pero también el riesgo se hace presente en los créditos y situaciones de negociación o financiación. No habrá que pensarse en el riesgo solamente en el campo de los inversionistas, sino también en toda operación financiera [5]. El riesgo y la incertidumbre es algo que se debe considerar desde una perspectiva macro (el gobierno) hasta una micro (empresario o empresa). El riesgo mismo, se considera la principal causa de desaparición o estancamiento de muchas empresas, ya que si estas no lo asumen tienden en un corto plazo a volverse obsoletas y perecer; por tal motivo deberían presentarse datos, gráficos e información más coherentes con el entorno económico y dinámico actual que le permitan a los inversionistas mineros tener más garantías en el momento de capitalizar el negocio dentro del territorio colombiano, que brinde la seguridad sobre la información para que en un caso de crisis, se tenga planeado desde el comienzo de los proyectos una medida de contingencia que permita a las compañías mantenerse en el medio en la escala de tiempo establecido para determinado propósito. También se debe mencionar que los datos presentados en la visión del PNDM por la UPME sobre las proyecciones del negocio minero en general con índices como el PIB también son elaborados con métodos clásicos, como en el trabajo sobre “Estimación de la producción minera colombiana, basada en PIB minero latinoamericano”, realizada por el ingeniero Jairo Herrera Arango, se presenta una estimación del desempeño a mediano plazo del producto interno bruto -PIB- minero para los países que el Plan Nacional de Desarrollo Minero visión 2019, ha tomado como referencia y, a partir de allí, infiere el comportamiento que la industria colombiana debe asumir frente a estos escenarios con base en la producción de los productos más representativos de la oferta minera nacional (carbón, oro, níquel y materiales para la construcción) [3]. 3. Metodología Para el presente artículo la metodología implementada se basa en la recopilación de datos históricos de producción minera nacional desde el año 1970 al año 2012 para minerales tales como el carbón, el oro y las calizas. Con esta información y utilizando una herramienta en la industria mundial como lo es @Risk, se realiza análisis de riesgo utilizando la simulación para mostrar múltiples resultados posibles en un modelo de hoja de cálculo, y que indica qué probabilidad hay de que se produzcan. Esta herramienta
194
Franco-Sepúlveda et al / DYNA 81 (187), pp. 193-198. October, 2014.
controla matemática y objetivamente un gran número de escenarios futuros posibles, y luego le indica las probabilidades y riesgos asociados con cada uno donde se podrá decidir qué riesgos se desea tomar y cuáles prefiere evitar, tomando la mejor decisión en situaciones de incertidumbre [8], para cada caso específico de estudio se proporciona un resultado y una breve explicación, además de los aportes de la implementación de este método con diversos fines en la industria minera de Colombia. 4. Análisis y discusión 4.1.
Modelos estocásticos para las proyecciones con @Risk
Bajo las nuevas expectativas de producción y exportación resulta esencial actualizar las proyecciones de producción de la UPME, con base en los nuevos desarrollos asociados a la industria minera sin caer en falsas esperanzas de producción basadas en las aspiraciones sin fundamento técnico y económico que hoy mueven a muchos inversionistas [3]. Por esto proponemos una metodología para realizar las proyecciones o estimaciones de producción minera basada en los datos históricos de producción para tres minerales específicos como carbón, oro y calizas hasta el año 2019, utilizando el software de simulación @Risk teniendo en cuenta el riesgo y la incertidumbre que en las proyecciones del PNDM visón 2019 no fueron tenidas en cuenta. El software utilizado para estas proyecciones es un complemento para Microsoft Excel, permite ver todos los resultados posibles de una situación, e indica la probabilidad de que ocurran, no con información perfecta, pero si con la información más completa posible, puede ver lo que podría suceder y la probabilidad de que suceda, además podrá juzgar los riesgos que existen y los que debe evitar; aunque ningún programa de software puede predecir el futuro [6], @RISK permite seleccionar la mejor estrategia basándose en la información disponible. Cuando se utiliza se utiliza una herramienta como @Risk, básicamente se ingresan los datos de los históricos de producciones de carbón, oro y calizas, se pide que se muestre la media de estos datos, la proyección de los datos a la línea temporal deseada o de análisis, además de las probabilidades de cada tendencia mostradas como un rango con sus respectivos valores de ocurrencia. 4.2. Metodología para ir de lo determinístico hacia lo estocástico Para comenzar con la descripción del estudio realizado, daremos breve claridad sobre los dos conceptos básicos del tema estudiado, lo determinístico y lo estocástico, que son conceptos aunque no muy mencionados, son muy utilizados en la vida cotidiana para la toma de decisiones. Se puede definir un modelo determinístico como aquel modelo matemático o modelo sistémico uno a uno en donde la cantidad de variables de entrada darán como resultado la misma cantidad de variables de salida, en donde no se tiene en cuenta el azar ni la incertidumbre. De otro lado, un
Figura 1. Modelo determinístico y estocástico, representación gráfica. Fuente: Modificado de Modelos estocásticos e incertidumbre [9]
Tabla 1. Históricos de producción de carbón, oro y calizas. Carbón Oro Año Mt kOz-Tr 1990 21.47 943 1991 20.03 1119 1992 21.90 1032 1993 21.71 883 1994 22.67 667 1995 25.74 679 1996 29.56 709 1997 32.74 604 1998 33.56 604 1999 32.75 1112 2000 38.24 1190 2001 43.91 701 2002 39.48 669 2003 50.03 1495 2004 53.89 1213 2005 59.68 1150 2006 66.19 504 2007 69.90 497 2008 73.50 1103 2009 72.81 1538 2010 74.35 1723 2011 85.80 1797 2012 89.20 2127 2013 85.50 2271 Fuente: SIMCO
CalizasMt 8.90 9.15 9.52 10.61 11.35 11.60 10.86 11.21 11.11 8.39 9.44 9.07 9.05 9.84 10.03 12.02 11.99 13.23 12.70 11.45 11.77 13.36 13.52 N.D.
modelo es estocástico es aquel en el cual las variables de salida tienen en cuenta el azar y la incertidumbre apoyados en funciones de distribución de probabilidad. En el Fig. 1 se puede observar las diferencias fundamentales entre modelo determinístico y estocástico. Para el desarrollo de este artículo se utilizaron los valores históricos de producción o tasas de extracción entre los años 1990 y 2013 (para la caliza se utiliza la información disponible solamente hasta el año 2012) presentados en la Tabla 1, para el recurso energético carbón térmico y los minerales oro y calizas. a.
Modelo de extracción de carbón:
El análisis de la serie de tiempo que mejor se ajusta a los datos de extracción histórica de carbón es RiskMA1 (µ; σ;
195
Franco-Sepúlveda et al / DYNA 81 (187), pp. 193-198. October, 2014.
b1; Ɛ0) que genera un proceso de promedio móvil de primer orden (MA1) con una media µ, parámetro de volatilidad σ, coeficiente de promedio móvil b1, y término de error inicial Ɛ0. En el caso de estudio para el carbón se encontraron los siguientes valores: Media µ= 2783826 Parámetro de volatilidad σ = 3615696 Coeficiente de promedio móvil b1 = -0.33649 Término de error inicial Ɛ0 = -5380525 Un proceso MA1 es un modelo común para series de tiempo porque es simple y normalmente proporciona un buen ajuste. Se caracteriza por una función de autocorrelación (ACF) que corta hasta 0 después de un retraso de 1 y una función de autocorrelación parcial (PACF) que se reduce geométricamente [6]. b.
Modelo de extracción de oro:
El análisis de la serie de tiempo que mejor se ajusta a los datos de extracción histórica de oro es RiskBMMR (µ; σ; α; Y0) genera un movimiento browniano con un proceso de reversión a la media con parámetro de media de término largo µ, parámetro de volatilidad σ, parámetro de velocidad de reversión α, y valor Y0 en tiempo 0. En el caso de estudio para el oro se hallaron los siguientes valores: Media de término largo µ =49951 Parámetro de volatilidad σ =721551 Parámetro de velocidad de reversión α = 2.4524 Valor en tiempo 0 Y0 = 17085601 A diferencia del movimiento browniano estándar, un modelo con reversión a la media tiende a una media de equilibrio a largo plazo. Cuando la serie está sobre el nivel, tenderá a reducirse, y viceversa. El parámetro α gobierna la velocidad de esta reversión, y un nivel mayor implica una reversión más rápida [6]. c.
Tabla2. Rutas de muestra al 2019 para las tasas de extracción de Carbón, Oro y Calizas en Colombia. Carbón Oro Calizas Año (Mt) (oz-tr) (Mt) 2013 15.4 2014 90.0 943698 15.7 2015 92.8 1119896 18.3 2016 95.6 1180715 19.0 2017 98.4 1231602 22.8 2018 101.2 1281633 24.3 2019 104.0 1331591 30.3 2020 106.8 1381543 33.5 Fuente: Cálculos propios
Tabla3. Comparativo de proyecciones de extracción de carbón en Colombia al año 2019. Carbón Pndm 2019 Proyeccione Giplamin (Mt) s 2008 2013 2013 127.6 139.2 96.8 2014 129.4 141.3 105.9 2015 131.6 142.8 115.9 2016 134.0 143.3 126.9 2017 134.1 143.7 138.9 2018 134.1 144.1 152.1 2019 134.3 144.7 166.5 Fuente: Cálculos propios
Tabla 4. Comparativo de proyecciones de extracción de oro en Colombia al año 2019. Oro Pndm 2019 Proyecciones Giplamin (t) 2008 2013 2013 116.8 75.3 55.9 2014 130.4 104.7 55.9 2015 143.9 105.9 51.9 2016 159.9 107.2 48.6 2017 179.0 130.0 45.6 2018 202.3 104.5 43.3 2019 231.0 106.0 41.2 Fuente: Cálculos propios
Modelo de extracción de caliza:
El análisis de la serie de tiempo que mejor se ajusta a los datos de extracción histórica de caliza es RiskMA1 (µ; σ; b1; Ɛ0) genera un movimiento browniano con un proceso de reversión a la media con parámetro de media de término largo µ, parámetro de volatilidad σ, parámetro de velocidad de reversión α, y valor Y0 en tiempo 0. En el caso de estudio para las calizas se encontraron los siguientes valores: Media de término largoµ = 0.0036696 Parámetro de volatilidad σ = 0.12916 Parámetro de velocidad de reversión α = -0.25527 Valor en tiempo 0 Y0 = 0.04109 Teniendo en cuenta los tres modelos anteriores y a manera de resumen, se presentan a continuación en la Tabla 2 las proyecciones o rutas de muestra de los niveles de producción o extracción (para carbón, oro y calizas) en un horizonte temporal al año 2019 que se encontraron utilizando @Risk. A manera de resumen, en las Tablas 3, 4 y 5 se pueden apreciar los valores comparativos de las proyecciones de extracción al año 2019 de carbón, oro y calizas realizadas en el Plan Nacional para el desarrollo minero vision al año
Tabla5. Comparativo de proyecciones de extracción de calizas en Colombia al año 2019. Calizas Pndm 2019 Proyecciones Giplamin (Mt) 2008 2013 2013 N.D. 20.5 12.2 2014 N.D. 21.2 12.1 2015 N.D. 22.1 12.0 2016 N.D. 23.3 11.9 2017 N.D. 24.0 11.8 2018 N.D. 24.9 11.7 2019 N.D. 26.0 11.7 Fuente: Cálculos propios
2019 – PNDM 2019 [2], la Estimación de la Producción Minera Colombiana, basada en proyecciones del PIB minero latinoamericano – Proyecciones 2008[3] y GIPLAMIN 2013 (cálculos de los autores). 5. Aportes de la implementación del método en la minería del país Los métodos de análisis estocásticos que se han desarrollado en los últimos años en el país son de alguna
196
Franco-Sepúlveda et al / DYNA 81 (187), pp. 193-198. October, 2014.
manera nulos, en la mayoría de estudios, metodologías, diseños etc. Se ha venido trabajando de la forma clásica o convencional que es la metodología de cálculos determinísticos donde no se tiene en cuenta el riesgo y la incertidumbre; un caso específico es el ya mencionado en los PNDM, que se realizaron para una visión general de la minería hasta el año 2019. Se puede mencionar como aporte fundamental para los cálculos de proyecciones teniendo en cuenta el riesgo y la incertidumbre, el estar bien informados acerca de los riesgos financieros existentes que supondrá una mejora ante posibles situaciones adversas a las empresas, ya que se evitan situaciones que pueden disminuir la evolución, crecimiento y expansión de una compañía [5,7], logrando en la economía nacional una gran confianza inversionista a futuro basada en datos económicos veraces con los que se puede planificar un proyecto y la extracción o explotación de los recursos minerales de Colombia. El conocimiento de términos económicos y financieros determinísticos que muchas veces se leen de manera complicada, permite al inversionista o empresario medio, identificar los riesgos básicos a los que están expuestos; con este análisis se lograría un cambio de visión de dichos empresarios y se pone en evidencia el problema de lograr un conocimiento completo sobre a qué tipo de riesgo se enfrenta cada empresa. El analista de riesgos, deberá considerar fundamentalmente, saber donde residen las mayores incertidumbres, así como identificar hasta qué punto los riesgos se pueden mitigar de manera diferente. Es posible en futuros análisis para el Plan Nacional de Desarrollo Minero, tener en cuenta las proyecciones de extracción que se presentan en este artículo y en las cuales se pueden estudiar las posibles relaciones de los modelos propuestos con variables tales como el Producto Interno Bruto (PIB), la Inversión Extranjera Directa (IED), los precios de los metales en la London Metal Exchange (LME), el Dow Jones Industrial Average (DJIA), la balanza de pagos, los niveles de exploración geológica – minera en Colombia, el número de empleos generados en el sector minero, entre otras.
riesgo en las estimaciones proyectadas con un horizonte temporal al año 2019 de la extracción histórica (teniendo en cuenta la extracción entre los años 1970 al 2013) de carbón, oro y calizas, lo que permite construir modelos alternativos que pueden replicarse por la institucionalidad minera en los futuros PNDM y en sus respectivas actualizaciones. Se recomienda a la institucionalidad nacional (Ministerio de Hacienda y Crédito Público, Departamento Nacional de Planeación, entre otros) y a la autoridad minera (Ministerio de Minas y Energía, Agencia Nacional de Minería, Servicio Geológico Colombiano, entre otros), por lo menos realizar un trabajo de este tipo cada año, con el fin de tener en cuenta en los modelos los diferentes fenómenos macroeconómicos que se encuentran asociados con la extracción de los recursos minerales en Colombia.
6. Conclusiones
[8]
Es indispensable una actualización continua de la información requerida para hacer un análisis del comportamiento de la industria minera colombiana, pues se encuentran discrepancias entre las entidades mineras con relación a la información de disponibilidad pública y de uso esencial en el análisis de inversiones mineras en el país. Si Colombia desea convertirse en un país minero, que fundamenta su crecimiento y desarrollo económico en la extracción de los recursos naturales no renovables, es necesario contar con Planes de Desarrollo Minero cuantitativos, es decir, con Planes de Desarrollo Minero que tengan como base para proponer las políticas públicas mineras: Modelos cuantitativos de planeación; Optimización; Modelos econométricos, Modelos estocásticos, Redes neuronales, Algoritmos genéticos, Riesgo, Incertidumbre, Corto y largo plazo, Precios, Software minero, entre otros. Con el apoyo de @Risk y la metodología que se define en el presente artículo, se puede incluir la incertidumbre y el
Agradecimientos El grupo de Planeamiento Minero GIPLAMIN desarrolló este trabajo investigativo gracias al apoyo del patrimonio autónomo fondo nacional de financiamiento para la ciencia, la tecnología y la innovación, Francisco José de Caldas (Colciencias) y la Facultad de Minas de la Universidad Nacional de Colombia, sede Medellín. Referencias [1] [2] [3] [4] [5] [6] [7]
[9]
Unidad De Planeación Minero Energética – UPME, Competitividad del sector minero Colombiano, Bogotá, UPME, 2002. Unidad de Planeación Minero Energética – UPME, Plan Nacional para el desarrollo minero vision al año 2019, Bogotá, UPME, 2006. Herrera, J., Estimación de la producción minera colombiana, basada en proyecciones del PIB minero latinoamericano, Bogotá, Ministerio de Minas y Energía, 2008. Unidad de Planeación Minero Energética – UPME, Plan Nacional de desarrollo Minero 2007 – 2010, Bogotá, Scripto Ltda, 2007. Salgador, J.P., Globalización, incertidumbre y riesgo, España, Intangible capital, 2005. PALISADE, Palisade Latinoamerica. [Online], [fecha de consulta: 24 de abril de 2013], Available at: http://www.palisade-lta.com/risk/ Unidad de Planeación Minero Energética – UPME, Plan Nacional de desarrollo minero al 2014, Sector minero de cara a la sociedad, Bogotá D.C., 2012. PALISADE, 2014, @Risk, analisis de riesgo con simulacion montecarlo, [Online], [fecha de consulta: 25 de febrero de 2014], Available at: http://www.palisade-lta.com/risk/. Segura, J.L., Riesgo e incertidumbre, Material de apoyo, Maestria en gestión de proyectos, Universidad EAN, Bogota D.C., 2011
G. Franco-Sepúlveda, es graduado como Ing. de Minas y Metalurgia en 1998, MSc. en Ciencias Económicas en 2006 y candidato a Dr. en Ingeniería, todos de la Universidad Nacional de Colombia - Sede Medellín, Colombia. Actualmente Profesor Auxiliar en Dedicación Exclusiva adscrito al Departamento de Materiales y Minerales de la Facultad de Minas, Universidad Nacional de Colombia - Sede Medellín, Colombia y Director del Grupo de Planeamiento Minero-GIPLAMIN, grupo C - Colciencias. ORCID: 0000-0003-4579-8389 L.V. Villa-Posada, es graduada como Ing. Geóloga en 2012, de la Universidad Nacional de Colombia - Sede Medellín, Colombia. Esp. en Sistemas de Información Geográfica en 2013, de la Universidad de San Buenaventura. Investigadora del Grupo de Planeamiento MineroGIPLAMIN. Actualmente Ingeniera Geóloga de la Vicepresidencia de Seguimiento y Control en la Agencia Nacional de Minería. ORCID: 0000-0001-7565-4998
197
Franco-Sepúlveda et al / DYNA 81 (187), pp. 193-198. October, 2014. C.C. Henao-Gómez, es graduado como Ing. de Minas y Metalurgia en 2014, de la Universidad Nacional de Colombia - Sede Medellín, Colombia. Joven Investigador del Grupo de Planeamiento Minero-GIPLAMIN. Actualmente Ingeniero Planeador de Ingex Grupo Minero S.A.S. ORCID: 0000-0002-8517-4610
198
Concurrent sketching model for the industrial product conceptual design Juan Carlos Briede-Westermeyer a, Marcela Cabello-Mora b & Bernabé Hernandis-Ortuño c a Departamento de Arte y Tecnologías del Diseño, Universidad del Bío-Bío, Chile. jbriede@ubiobio.cl Departamento de Arte y Tecnologías del Diseño, Universidad del Bío-Bío, Chile. mcabello@ubiobio.cl c Departamento de Expresión Gráfica, Universidad Politécnica de Valencia, España. bhernandis@degi.upv.es b
Received: December 4th, 2013. Received in revised form: June 12th, 2014. Accepted: June 25th, 2014.
Abstract Conceptual design is one of the earliest stages of product development, and is responsible for defining key aspects of the final product. The systematic approach addresses this stage by using a disaggregate model of product attributes and their corresponding geometries. This ultimately serves as a starting point for exploring conceptual proposals. Research into the emergence of various sketch typologies shows that they are labeled according to aim rather than technical utility. The proposed sketch-based model is intended to serve as a comprehensive version of the systematic model for conceptual design (Hernandis & Briede, 2009). Sketch outlines are used during various stages of the model in order to enable and visually assist with cognitive processes and decision-making during the initial theoretical stages, which are abstract and poorly defined. Keywords: Engineering Design, Product Design, Systemic Methodology, Sketching, Ideation, Conceptual Design.
Modelo de abocetado concurrente para el diseño conceptual de productos industriales Resumen El diseño conceptual, en el diseño de nuevos productos, es la etapa temprana donde se definen aspectos claves del producto final. El enfoque sistémico aborda dicha fase a través de un modelo de desagregación teórica de los atributos del producto y su asociación a geometrías que las representen, sirviendo de base para realizar la exploración de la propuesta conceptual. La investigación en torno al origen de las diversas tipologías de boceto demuestra que se nombran en función de su propósito más que en su instrumentalización técnica. El modelo de abocetado concurrente planteado busca ser un modelo ampliado del modelo sistémico para el diseño conceptual (Hernandis&Briede, 2009), que asocia el uso de las tipologías de boceto a las diversas etapas del modelo para facilitar y apoyar visualmente los procesos cognitivos y la toma de decisiones en etapas teóricas iniciales, poco definidas y muy abstractas. Palabras clave: Ingeniería del Diseño, Diseño de Productos, Metodología Sistémica, Abocetado, Ideación, Diseño Conceptual.
1. Introducción El diseño de productos es una actividad que puede orientar los procesos de creatividad desde la generación de las ideas hasta la materialización de un nuevo producto con el objetivo de alcanzar la diferenciación y competitividad en el mercado actual y con ello la innovación. Una actividad que no sólo debe considerar el ejercicio proyectual, que busca aterrizar y concretar las ideas, sino también la consideración e integración de múltiples factores de diversos órdenes y contextos desde una perspectiva multidimensional [1] orientado a la fabricación y producción [2]. Debiendo
balancear en esa suerte de contradicción que busca compatibilizar e integrar la creatividad con la racionalización de procesos [3]. Desde el punto de vista de la ingeniería del diseño las características y cualidades del producto ya se definen en etapas tempranas del proceso. Estudios sobre el impacto de la etapa de diseño conceptual han demostrado que tanto la calidad como el 70 % a 80 % de los costos del producto final ya se definen en dicha etapa [4], por lo que debe abordarse con la debida atención y rigor metodológico ya que luego es muy difícil enmendar errores [5]. El diseño conceptual se considera una etapa de síntesis, donde se utilizan representaciones de diseño como el boceto y sus
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 199-208. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.41068
Briede-Westermeyer et al / DYNA 81 (187), pp. 199-208. October, 2014.
diversas tipologías para asistir al proceso cognitivo relacionado con la creación, y las acciones de exteriorizar, explorar y registrar las primeras soluciones [6]. La Metodología Sistémica [7] plantea una fase de análisis teórico para abordar la fase conceptual, definiendo las características del sistema-producto a través de una desagregación que posibilita un estudio detallado de los atributos por subsistemas, su integración y análisis en el espacio del diseño. Este artículo presenta los aspectos básicos del modelo sistémico en el diseño conceptual de productos y expone las diversas tipologías de bocetos y propósitos, para finalmente proponer un modelo ampliado que integre y prescriba el uso de las diversas tipologías de bocetado durante las fases iniciales orientadas a la configuración del diseño conceptual. 2. Diseño de productos El diseño como disciplina proyectual está orientado a la resolución de problemas, que es una forma natural y la más ubicua de las actividades humanas [8]. El diseño industrial optimiza la función, el valor y la apariencia de productos y sistemas para el beneficio mutuo de usuarios y fabricantes [9]. El diseño industrial se refiere a un proceso de combinación de artes y ciencias aplicadas para mejorar la cualidad estética de un producto, resultado de la creatividad individual y la innovación industrial [10,11]. Para el diseño de ingeniería se considera ''diseño'' como un proceso de toma de decisiones de la innovación y los ajustes para cumplir con las necesidades requeridas por un producto potencial, permitiendo la construcción y la integración de nuevos sistemas/productos que están sujetos a restricciones dinámicas [12]. El diseño conceptual es una de las fases más importantes para definir las características expresivas (apariencia) y de ingeniería (funcionamiento) con el fin de traducirlas en formas geométricas de un nuevo producto basado en los requerimientos del cliente [13]. La generación de concepto o también llamado “ideación” es un proceso esencial para el desarrollo de diseños innovativos. Durante este proceso, los diseñadores pueden crear una amplia variedad de conceptos y propuestas de soluciones creativas que definen en última instancia el potencial para innovar [14]. 3. Metodología sistémica para el diseño de productos La metodología sistémica para el diseño de productos [15] plantea el análisis bajo la descomposición de los subsistemas fundamentales del diseño: forma, función y ergonomía en volúmenes, superficies y límites de contorno, como divisiones capaces de incorporar todos los valores integrantes del diseño, dando lugar a un modelo conceptual de formulación por objetivos, generalizable al análisis de cualquier producto. 4. Concepto y tipologías de bocetos El boceto, al ser un tipo de dibujo, hereda ciertas características propias de esta representación. Desde el punto de vista material toma los medios operativos; desde el conceptual, la construcción de una imagen estática.
Finalmente de las técnicas constructivas emplea la perspectiva para generar la ilusión de especialidad: volumetría e isometría. Estas técnicas tradicionales siguen siendo válidas y claves al momento de abordar la representación a mano alzada, particularmente en la descripción de objetos mediante proyecciones diédricas [16]. El boceto es una de las principales herramientas para plasmar el diseño conceptual. Este medio hereda la técnica y los principios del dibujo para representar y simular una realidad en su condición volumétrica y espacial en un entorno bidimensional. Goel (1995) considera al boceto como el primer paso del proceso de diseño para externalizar y visualizar ideas en un nivel individual. Pero más allá de la calidad del resultado y su nivel de realismo, es el apoyo fundamental que establece este medio a niveles cognitivos en el proceso mental llevado a cabo durante el diseño. Es el nivel de síntesis, informalidad y ambigüedad [17] de este lenguaje expresivo el que reafirma la fase tentativa y efímera de la propuesta y su estado en desarrollo. Además de apoyar la dialéctica [18] permite la emergencia y la reinterpretación de los datos visuales. Se constituye en un apoyo más que en una fijación en el proceso de resolución. El boceto es un dibujo a mano alzada, transversal a todo el proceso de diseño pero que se utiliza principalmente en las primeras etapas de diseño, apoyando el desarrollo de ideas en la etapa conceptual. Se caracteriza por ser un dibujo informal de desarrollo, cuyo énfasis está en representar las ideas y conceptos de manera visual, es decir formalmente. Para estudiar el concepto de boceto hay que ir a su origen etimológico. ”La etimología de todas estas palabras es muy clarificadora: esbozo y boceto son palabras tomadas del italiano bozza, nombre dado a la piedra sin desbastar; bosquejo es, a su vez, palabra derivada de bosquejar, de la misma raíz de bosque, y significa desbastar un tronco; croquis es un término tomado del francés, deriva de croquer, y significa: indicar solo a grandes rasgos” [19]. Según Olszweski [20] en el Renacimiento se denomina al boceto “primi pensieri” o primer pensamiento, qué se plasmaba a través de líneas sin refinar. Otros orígenes provienen del griego Shkedios, que significa sin preparar y del latín, Schedius, realizado abruptamente. El propio Leonardo Da Vinci utilizaba el dibujo, “…para aterrizar sus ideas para un nuevo aparato, o cuando deseaba registrar el estado del arte del renacimiento…” [21]. Ya en el siglo XVII, Zucari [22] instaura la definición de proyecto, estableciendo una división del dibujo en diseño interno y diseño externo. Un proceso que comienza con la creación de un concepto interno en el intelecto que luego debe hacerse perceptible. Para ello se le da cuerpo y forma visual a través del dibujo; el cual tiene la obligación de dar forma y mostrar públicamente la imagen mental. Por medio de una simple delineación, circunscripción, medida y figura de cualquier cosa imaginada o real. Muchos autores se refieren a la importancia del dibujo en el proceso de diseño de manera genérica. El dibujo está presente en el proceso de diseño, aunque el tipo de dibujo variará según el propósito que tenga dentro del proceso. Es así como Lawson [23] afirma que cada tipo de dibujo tiene sus propias reglas y características. Johnson plantea una definición en progreso sobre el abocetado, asociada al proceso productivo: “Una serie de marcas rápidas
200
Briede-Westermeyer et al / DYNA 81 (187), pp. 199-208. October, 2014.
de variados grados explícitos y acabados, realizadas a través de una multitud de medios en las primeras etapas de diseño para el propósito de la producción” [24]. En cambio Lansdown asocia estas marcas a un proceso de exteriorización: “El diseñador necesita dibujar a fin de exteriorizar sus pensamientos y volverlos concretos. Incluso se podría decir que si un objeto no ha pasado por este proceso de exteriorización, no ha sido diseñado” [25]. La exteriorización es útil para comunicar ideas y al mismo tiempo es considerada un proceso mediante el cual se diseña. Esto hace ver el proceso de diseño como un proceso de exteriorización. Lo anterior plantea considerar el boceto no sólo como resultado de una operación gráfica, sino como medio en un proceso cambiante, donde las ideas van mutando, y se van transformando. El proceso de diseño utiliza representaciones como medio para exteriorizar las ideas, transformar una imagen mental en una imagen visual, y así poder compartirlas, explorarlas, transformarlas y evaluarlas: “No puede haber actividad de diseño sin representaciones. Las Ideas tienen que ser representadas para poder ser compartidas por otros, incluso cuando se comparten con uno mismo. Los diferentes modos de representaciones y estrategias abordan distintas oportunidades con el fin de leer o transformar ideas de diseño” [26]. El dibujo es una de las representaciones visuales más utilizadas durante el proceso, permite definir la apariencia visual de los objetos, su morfología y su configuración constructiva. En este sentido, la mayor parte de los dibujos relacionados con diseño industrial manifiestan aspectos estructurales del objeto. Se alcanza la especialización de la representación, es decir, el dibujo en esta etapa es técnico, geométrico o de construcción. El dibujo especializado, por su carácter utilitario e instrumental, está sujeto a convenciones de símbolos compartidos por aquellos profesionales que los utilizan: arquitectos, ingenieros o diseñadores. Estos símbolos compartidos permiten la comunicación entre las diferentes disciplinas y ayudan a las instrucciones de ejecución de obras. La geometría aporta objetividad a este tipo de dibujo, ya que expresa las formas a través de modelos geométricos invariables. Ciñéndose al significado de boceto encontrado en la Real Academia Española: 1. m. Proyecto o apunte general previo a la ejecución de una obra artística. 2. m. Esquema o proyecto en que se bosqueja cualquier obra1 Estas dos definiciones muestran la naturaleza del boceto como elemento proyectual que sirve de base a la obra posterior, a través de un esquema en el cual se bosqueja una obra, un apunte, un bosquejo haciendo referencia a su naturaleza transitoria. Al ser concebido como esquema se transforma en la organización de un sistema. Lo anterior sin desconocer la herencia que recibe del dibujo: convenciones y principios. El boceto se establece como un estadio de transición, donde asiste al desarrollo de la solución. Es de naturaleza dinámica ya que modifica, añade o quita elementos de la solución. Las representaciones conceptuales juegan un rol fundamental en los fenómenos de emergencia (develamiento) y reinterpretación durante la actividad temprana del diseño. Por emergencia se entiende nuevos pensamientos e ideas que no podrían ser anticipados ni 1
planeados antes de trazar. La reinterpretación se refiere a la habilidad de transformar, desarrollar y engendrar nuevas imágenes a partir de la reinterpretación de las imágenes iniciales. Se configuran procesos dialécticos de ideación y formación de conceptos, gracias a las posibilidades de transformación de la imagen y orientados a la creatividad, innovación y desarrollo de conceptos [27]. Para Pipes [28], el principal propósito del diseñador de productos es representar en dos dimensiones, con signos sobre el papel un objeto tridimensional real o imaginario, exteriorizándolo. Representación que es un medio de persuasión para vender y comunicar información orientada a la fabricación. Al mismo tiempo, la actividad del ingeniero también mantiene una relación intrínseca con el dibujo. Autores como Ullman [29] buscan demostrar la necesidad del dibujo en todas las etapas del diseño mecánico. Larkin y Simon [30] concluyen que los bocetos permiten agrupar información en un formato fácilmente accesible y recuperable, en comparación con las descripciones textuales que son secuenciales en la naturaleza. Por su parte Walderon [31] argumenta que los diseños mecánicos son percibidos en varios niveles de abstracción mediante bocetos, abarcando desde entidades geométricas sencillas hasta componentes funcionales. Diferentes investigadores atribuyen importantes características a la actividad de abocetar en el proceso de diseño, los diagramas y dibujos en Diseño Industrial, serán/servirán [32]: - Rápidos, convenientes para la capacidad de la memoria a corto plazo. - Describirán una forma sin una estructura secuencial particular, con lo cual es implícito. - Servirán para analizar - Abstractos e inexactos, evitarán detalles innecesarios - Desechables, se caracterizan por un compromiso mínimo. - Externalizarán y visualizarán problemas. - Organizarán la actividad cognitiva. - Simplificarán la resolución de problemas y el esfuerzo creativo. - Representarán los artefactos del mundo real para “manipular y razonar” por medio de ellos. - Revisarán y refinarán las ideas. El boceto es la manera de representación formal que asiste a la primera síntesis de soluciones. Conforma una etapa altamente creativa donde la interfaz es capaz de acoplarse a la rapidez del proceso mental para exteriorizar, registrar y explorar posibles soluciones. Existe una serie de bocetos que cumplen con el propósito de comunicación en términos genéricos. La diferencia entre los mismos radica en el tipo de información que se desea comunicar, esto se encuentra relacionado con la fase o nivel de desarrollo de la entidad y del contexto. Los distintos tipos de bocetos se han clasificado en los siguientes criterios: 4.1. Bocetos de Exploración/Ideación Boceto Pensante [33]: usado para enfocar y guiar el pensamiento no verbal. Apoya el proceso de reflexión visualmente.
(Del it. bozzetto). 201
Briede-Westermeyer et al / DYNA 81 (187), pp. 199-208. October, 2014.
Figura 4. Boceto Memo. Fuente: Cartes J. (2009)
Figura.1- Boceto Pensante. Fuente: Cartes J. (2009)
Figura 5. Boceto Dialogo. Fuente: Cartes J. (2009) Figura 2. Boceto Parlante. Fuente: Cartes J. (2009)
Figura 6. Bocetos de investigación y de exploración. Fuente: Cartes J. (2009) Figura 3. Boceto Lanzado. Fuente: Cartes J. (2009)
Boceto Parlante [33]: utilizado en un ambiente de reunión con objeto de aclarar, es un boceto enfático en sus trazos. Según Fergurson es el medio para guiar el pensamiento visual enfocado a exteriorizar y compartir. Boceto Lanzado [34]: definido por Nenad Pavel, permite al diseñador comunicar el estado del proyecto de manera visual, con colegas, clientes, etc. Boceto Memo [35]: es un registro rápido que permite ayudar a la memoria de corto plazo.
Boceto Diálogo [36]: Exteriorización que según Robbins tiene como propósito establecer un diálogo con otros acerca de los dibujos. Bocetos de investigación y de exploración [18]: se caracterizan por ser dibujados con rapidez, con “mano suelta” para comunicar la forma, función y emoción de los objetos. La velocidad permite evaluar alternativas. Boceto Conceptual [33,34]: según Pavel es un medio de expresión, tanto para comprender problemas como para investigar múltiples soluciones, a través de un proceso de visualización y de redibujado (refinamiento). El boceto es una herramienta que apoya y facilita el pensamiento
202
Briede-Westermeyer et al / DYNA 81 (187), pp. 199-208. October, 2014.
Figura 10. Boceto Explicativo. Fuente: Cartes J. (2009)
Figura 7. Boceto Conceptual. Fuente: Cartes J. (2009)
Figura 11. Boceto de estudio y observacion. Fuente: Cartes J. (2009)
Figura 8. Boceto Informal. Fuente: Cartes J. (2009)
Figura 12. Dibujo de Presentación. Fuente: Cartes J. (2009)
Figura 9. Boceto Thumbnail. Fuente: Cartes J. (2009)
creativo. La expresión a mano alzada es primordial, no condicionada o afectada por los medios materiales utilizados. Boceto Informal [37]: mediante este tipo de boceto se hace mención a la falta de rigurosidad útil del medio. Se realiza a mano alzada representando el objeto y su función con alto grado de abstracción y sin escala. 4.2. Bocetos de definición Boceto Thumbnail [38,34] y el boceto aproximado [39]: permiten considerar opciones de puntos de vista y variaciones de un diseño. Comienza a examinar alternativas de diseño. Sirve para la selección y el desarrollo posterior.
El Boceto explicativo [40]: son bocetos para explicar funciones, estructuras y formas. Comunica de manera neutral, enfocado en dar a entender más que en vender. Es un boceto más laborioso, utiliza una serie de técnicas para alcanzar su propósito. Boceto de estudio y observación [41,42]: se define como un proceso o método que utiliza capas de papeles traslúcidos y el borrado como herramientas. Dibujo de Presentación [43]: son realizados a partir de los bocetos previos, éstos se rehacen y refinan para presentar la idea de manera más precisa. Boceto de especificaciones [34] según Pavel es un dibujo más elaborado y riguroso que utiliza dibujo técnico y preciso para especificar diferentes aspectos del producto, es preparado para la transición del modelado físico a CAD.
203
Briede-Westermeyer et al / DYNA 81 (187), pp. 199-208. October, 2014.
Figura 13. Boceto de especificaciones. Fuente: Cartes J. (2009)
Figura 16. Boceto Persuasivo. Fuente: Cartes J. (2009)
características del producto completo, con todos los detalles de la forma, textura, color y patrones para un entendimiento claro. Es según Shimizu una representación cuyo objetivo es dotar de una fuerte apariencia y expresión dramática a la forma. Boceto Persuasivo [45]: Pretende impactar e influenciar a la audiencia para vender un concepto de diseño. Busca representar un carácter o sentimiento, más que ilustrar un producto físico con todos sus detalles. Una imagen de cualidad casi pictórica, artística, que no se puede lograr con un programa de CAD. Conocer el propósito de las diferentes tipologías de boceto nos permite contextualizar su utilidad dentro del proceso de diseño. El medio, ya sea papel y lápiz, tiza sobre pizarra o tableta digital, impone sus propias restricciones a la representación que se gesta en el boceto. Durante el proceso, el diseño es refinado desde un concepto abstracto hasta un borrador detallado del mismo. En consecuencia, es importante que en este proceso de estudio ingenieril, la persona que realiza los bocetos de representación, evidencie su capacidad para representar los conceptos diseñados gráficamente.
Figura 14. Boceto Presentación. Fuente: Cartes J. (2009)
5. Integración del uso del boceto en el diseño conceptual según la secuencia sistémica
Figura 15. Rendering o Conceptional Sketch. Fuente: Cartes J. (2009)
Este proceso permite evaluar la posibilidad de implementar el concepto en tres dimensiones. 4.3. Bocetos de presentación Boceto Presentación [44]: es un dibujo con todos los detalles necesarios para que la totalidad del proyecto esté definida y se comprenda. Rendering o Conceptional Sketch [35]: es una representación muy realista que busca comunicar las
A continuación se realiza un análisis cualitativo de la secuencia sistémica y sus etapas con el objetivo de determinar que tipología de boceto es el más idóneo para apoyarla. En la tabla 1 se nombran los bocetos, se describe su propósito y la modalidad instrumental (análogo, digital o hibrido) para su aplicación. Para finalmente diagramar el Modelo resultante presentado en la Fig. 17. Dicho modelo busca apoyar el proceso concurrente [46] con el uso de diversas tipologías de boceto en las diversas fases para llegar a la elección y presentación del diseño conceptual. La estructura plantea la secuencia y acciones en las siguientes etapas a las cuales se les Asocia una tipología de boceto que se presenta y describe en la Tabla 1.
204
Briede-Westermeyer et al / DYNA 81 (187), pp. 199-208. October, 2014. Tabla 1. Tipologías de bocetos. Tipo de Boceto Pensante (1) Informal(2) Memo(3) Informal (2) Estudio (4) Concepto (5) Observación (6) Descriptivo (7) Explicativo(8)
Objetivo Apoyar el pensamiento creativo y el desarrollo de ideas Generación de ideas básicas para constituirse en un referente visual ambiguo. Visualización y exploración de atributos del producto a diversos niveles de abstracción Estructurar y modelar básicamente los elementos que constituyen el espacio del diseño. Apoyar la exploración y análisis de soluciones.
Investigación & Exploración(9) Presentación (10) Conceptual(11) Comunicar, seducir, Render (12) potenciando los rasgos y Persuasivo(13) apariencia del producto. Fuente: Elaboración propia.
Modalidad Análogo Análogo Análogo Análogo Digital
Análogo Hibrido Análogo Digital Hibrido
informal, rápido y suelto, el cual ayuda a aclarar las cuestiones relativas al nuevo producto, en términos muy genéricos y básicos. Objetivos: Apoyar el proceso cognitivo, la búsqueda, análisis, discusión y decisión. Complementar la acción del texto y la palabra, reafirmada con la imagen y actuar de ejemplo para razonar prospectivamente. 5.2. Ideación preliminar
Figura 17. Modelo de abocetado para la Metodología Sistémica. Fuente: Elaboración propia.
A continuación se procederá a definir cada etapa del modelado, describiendo sus propósitos y objetivos. 5.1. Elección del producto La elección de producto es fundamental, ya que todo el desarrollo posterior se basará en esta decisión. Para ello es necesario hacer un estudio; obtener información acerca del tipo de producto y la orientación que éste debe asumir. Es en ésta etapa donde se realiza una pequeña búsqueda genérica. En este breve proceso creativo se analizan los posibles desarrollos, planteándose la utilización del boceto como medio para asistir dicho proceso; es decir, que apoye la visualización, discusión y comunicación de las ideas a un nivel preliminar. En primer lugar a través del Boceto Pensante usado para enfocar y guiar el pensamiento no verbal en este proceso cognitivo. Seguido por el Boceto
En esta etapa metodológica se realiza un proceso mental que va del dominio concreto al abstracto. Permite ampliar el espacio del diseño, de lo específico/concreto a lo genérico/ abstracto a partir de la fijación de la idea. Como una primera definición global del producto alejada de soluciones concretas, es decir en términos conceptuales. El objetivo es convertir una desventaja en ventaja. La definición conceptual es un referente de comparación y analogía para el desarrollo de la propuesta. El tipo de boceto que se plantea es informal, a través de una representación básica que permita ser utilizada como hito y referencia de partida para el análisis y discusión para desmarcarse y evolucionar dicha idea. Objetivos: Generar ideas básicas, constituirse en referente visual ambiguo, que apoye la discusión y exploración del espacio de diseño abstracto. Establecer un punto de partida en ocasiones por contraste y en otras por analogía, en el cual se facilite la exploración teórica de la propuesta y su relación con el problema del diseño. 5.3. Modelos conceptuales Se generan los modelos conceptuales definiendo los atributos y características desde el punto de vista formal, funcional y ergonómico. Se deben ordenar jerárquicamente los atributos por subsistema (formal, funcional, ergonómico), generar un análisis visual con respecto a dichas características mediante el boceto. De esta manera se busca aprovechar la capacidad de síntesis y abstracción que conlleva la delineación del trazo para generar y establecer las
205
Briede-Westermeyer et al / DYNA 81 (187), pp. 199-208. October, 2014.
expresiones formales en dichos atributos y la posibilidad de establecer cuestiones medulares de diseño. A partir de esta retroalimentación hay que especificar y generar los modelos geométricos para ellos. Es un ejercicio de alto nivel de abstracción que contempla abstraer de cada atributo la expresión formal, por medio de una línea, superficie o volumen de manera desagregada. Este análisis documentado tiene utilidad como base de datos para contrastar las definiciones posteriores, ya sea en los modelos conceptuales y su geometría y en el resultado final de la propuesta conceptual. Los bocetos en este caso son de estudio-observación y de concepto, ya que son capaces de hacer visibles los conceptos además de generar un sinnúmero de alternativas, tipo lluvia de ideas, que contemplen los atributos teóricos mediante rasgos de configuración. Objetivos: Manifestar por medio de un lenguaje Abstracto de Visualización cualidades y atributos a través de la imagen.
La representación debe tener la suficiente información para que la idea o principio de producto se comprenda en términos globales. Se utilizan los bocetos conceptual para el desarrollo de alternativas que permitan configurar de manera rápida y gestual las propuestas de diseño. Paralelamente se emplea el boceto descriptivo a mano alzada cuyo propósito es expresar de manera objetiva las características del producto. La alternativa elegida se desarrolla de manera más detallada a través del boceto render. Posteriormente continúa el avance de manera dramática mediante el boceto Persuasivo con el objetivo de seducir a la audiencia mostrando las características del producto de manera especial. Es una imagen más elaborada, contemplando el uso del color, sombra, brillos y texturas aplicadas de manera estratégica. Tipología de boceto que sigue siendo aproximado en escala pero con énfasis en la emotividad y sensación. Objetivo: Representar de manera general la configuración de los atributos y cualidades de la idea de producto. 6. Conclusiones
5.4. Modelos geométricos La implementación de los modelos conceptuales es un ejercicio de síntesis y de toma de decisiones. El medio de representación es el boceto descriptivo y prescriptivo, de contorno, simple. Se busca establecer y comunicar las relaciones volumétricas básicas en el espacio a través de un boceto que utiliza solamente línea de contorno. Objetivos: Estructurar visualmente el espacio del diseño y sus requerimientos espaciales. 5.5. Espacio del diseño El espacio del diseño con todas las cuestiones a contemplar en la generación de la propuesta, se representa por medio de un esquema global. El boceto descriptivo pero de carácter esquemático busca delinear de manera general las relaciones entre geometrías contenidas en el diseño, relaciones de ubicación, orientación, proporción y tamaño. Objetivos: Apoyar el desarrollo y pruebas de alternativas. Explorar posibles soluciones esquemáticas. 5.6. Diseño conceptual A partir de las especificaciones y consideraciones que definen el espacio de diseño como un sistema que configura relaciones, las cuales deben ser consideradas para abordar la materialización y caracterización de la solución. Para esto se plantea un proceso divergente de exploración de alternativas en paralelo. Las que serán evaluadas según criterios previamente establecidos a través de un proceso convergente, el cual integrará las atributos deseables de otras alternativas, configurando la propuesta definitiva en términos conceptuales. La configuración corpórea de la idea en términos concretos se realiza en esta etapa, mediante una representación visual. Representación capaz de comunicar las características del producto, basada principalmente en su apariencia, informando acerca de su configuración global, de partes y piezas, aspectos constructivos, de estilo, de uso, etc.
El boceto como representación funcional, independiente de su instrumentalización análoga, digital o híbrida posee un carácter flexible y versátil, permite a través de sus tipologías asistir a las diversas fases del proceso de diseño conceptual. Es posible relacionar los distintos tipos de bocetos con las etapas que define el modelo sistémico. Permitiendo orientar, economizar tiempo y recursos cognitivos, acotando el grado de definición del producto a sus estadios de desarrollo. El modelo de abocetado faculta integrar y prescribir la intencionalidad del boceto como representación de diseño, a las fases que el modelado concurrente define. El planteamiento de desagregación sistémica busca controlar la complejidad en la definición del producto a través de un análisis teórico que requiere altos niveles de abstracción, que por medio del lenguaje visual otorgado por los bocetos, permite facilitar el análisis y la toma de decisiones en las distintas etapas del modelado. Apoyar la toma de decisiones en contexto de alto nivel de abstracción y teorización a través de los bocetos permite visualizar y acercar a dimensiones concretas y aliviar las cargas cognitivas. Al mismo tiempo, el uso del boceto comunica y registra con la simpleza de los trazos, situaciones altamente complejas. Es un registro visual que documenta la trazabilidad del proceso. Dicho registro pudiese nutrir futuros desarrollos. Agradecimientos Los autores agradecen a la comisión nacional Científica &Tecnológica por financiar este trabajo a través de Fondecyt Nº 11121570 y al fondo FAPEI de la Dirección de Investigación de la Universidad del Bío-Bío. A D.I. Jorge Cartes Sanhueza por colaborar con material gráfico de su proyecto: “Accessories for safety and visibility in the region of the head of the rider: Chromatic persuasion helmet with geodetic dissipation system for urban cyclists”. Referencias [1]
206
Aguayo, F.V. ySoltero, V., Metodología del diseño industrial: un enfoque desde la ingeniería concurrente. Madrid, España: Ra-Ma, 2002.
Briede-Westermeyer et al / DYNA 81 (187), pp. 199-208. October, 2014. [2]
Pahl, G., Beitz, W., Feldhusen, J. and Grote, K.H., Engineering design - A systematic approach. London: Springer, 2007.
[3]
Brattström, A., Löfsten, H. and Richtnér, A., Creativity, trust and systematic processes in product development, Research Policy, 41 (4), pp.743-755, 2012.
[4]
Ehrlenspiel, K. and Dylla, N., Experimental investigation of designers thinking methods and design procedures, Journal of engineering design, 4 (3), pp. 201-202, DOI: 10.1080/ 09544829308914782, 1993.
[5]
[Ehrlenspiel, K., Kiewert, A. and Lindemann, U., Kostengünstig entwickeln und konstruieren: kostenmanagementbei der integrierten produktentwicklung. Berlin, Germany, Springer, 1998.
[6]
Briede, J., La metodología sistémica y el rol del boceto en el diseño conceptual de productos industriales, Dr. Tesis, Departamento de Ingeniería Gráfica, Universidad Politécnica de Valencia, Valencia, España, 2008.
[7]
Hernandis. B., Desarrollo de una metodología sistémica para el diseño de productos industriales, Dr. Tesis, Departamento de Ingeniería Gráfica, Universidad Politécnica de Valencia, Valencia, España, 2003.
[8]
Braha D. and Maimon O., The design process: properties, paradigms, and structure, IEEE Transactionson Systems, Man, and Cybernetics— Part A: Systems and Humans, 27 (2), pp. 146-166, 1997.
[9]
The Industrial Designers Society of America, IDSA, What is industrial design? Industrial design defined, 2010, [Online], Avaliable at: http://www.idsa.org/what-is-industrial-design
[10] Heskett, J., Industrial Design. Oxford, Oxford University Press, 1980. [11] Bertacchini, E. and Friel, M., (2013) Understanding creativity and innovation in industrial design: An historical and empirical assessment, [Online], Working paper 1/2013. Università di Torino, Avaliable at: http://www.eblacenter.unito.it/WP/2013/1_WP_Ebla_CSS.pdf [12] Zhong, H., Wachs J.P., and Nof, S.Y., HUB-CI model for collaborative telerobotics in manufacturing, Intelligent Manufacturing Systems, 11 (1), pp. 63-68, 2013. [13] Hsu, L.H., and Chen S.Y., A case-based shape conceptualization system for supporting creative product design, Journal of Engineering Design, 17 (1), pp. 17-33, 2006.
[25] Lansdown, J., Graphics, design and artificial intelligence, in Earnshaw, Ed., Theoretical foundations of computer graphics and CAD, Berlin, Springer, 1988. [26] Goldschmidt, G. and Porter, W., Design representation, London, Springer-Verlag, London Limited, 2004. [27] Eissen, K. and Steur, R. Sketching. Drawing techniques for product designers, Amsterdam, BIS Publisher, 2007. [28] Pipes, A., Dibujo para diseñadores. Técnicas, bocetos de conceptos, sistemas informáticos, ilustración, medios, presentaciones, diseño por ordenador, Barcelona, España, Art Blume S.A, 2008. [29] Ullman, D.G., Wood, S. and Craig, D., The importance of drawing in the mechanical design process, Computers & Graphics, 14 (2), pp. 263274, 1990. [30] Larkin, J. and Simon H., Why a diagram is (sometimes) worth a thousand words, Cognitive Science, 11, pp. 65-99, 1987. [31] Walderon, M.B. and Walderon K.J., Conceptual CAD tools for mechnical engineers, in Patton E.M. Ed., Proceedings of Computers in Engineering Conference, Computer and Graphics, 2, pp. 203-209, 1988. [32] Lipson, H. and Shpitalni, M., Conceptual design and analysis by sketching, Journal of Artificial Intelligence in Design and Manufacturing (AIDAM), 14, pp. 391-401, 2000. [33] Ferguson, E., Engineering and the mind’s eye, Cambridge, MA, MIT Press, 1992. [34] Pavel, N., The industrial designer´s guide to sketching. Strategic use of sketching in the design process, Trondheim, Tapir Academic Press, 2005. [35] Shimitzu, Y., Creative marker techniques. Tokio, Japan, Graphic-sha Publishing Co., Ltda, 1990. [36] Robbins, E., Why architects draw, Cambridge, MA, MIT, 1997. [37] Ullman, D., The mechanical design process, New York, McGraw-Hill, Science/Engineering/Math, 2009 . [38] Kemnitzer R., Rendering with markers. New York, Watson-Guptill Publications, 1988.
[14] Yilmaz, S., Daly, S.R., Seifert, C. and Gonzalez, R., Comparison of design approaches between engineers and industrial designers, International Conference on Engineering and Product Design Education, Dublin, pp. 178-183, 2013.
[39] Powell, D., Monahan, P., Marker rendering techniques, London & Sydney, Macdonald & Co, (Publishers) Ltd., 1987.
[15] Hernandis. B., Diseño de nuevos productos, una perspectiva sistémica. [Online]. Cursos Formación Tutorizada a Distancia por Internet. Interf@d. Servicio de Publicaciones, Universidad Politécnica de Valencia, España 1999.
[41] Goldschmidt, G., On visual design thinking: The vis kids of architecture, Design Studies, 15 (2), pp 158-174, 1994.
[16] Rojas-Solas, J., Fernández-Sora, A., Serrano-Tierz, A. y HernándezDíaz, D., Una revisión histórica: Desde el dibujo en ingeniería hacia la ingeniería del diseño. DYNA, 78 (167), pp. 17-26, 2011.
[43] Mc Gown, A., Green, G. and Rodgers, P.A., Visible ideas: Information patterns of conceptual sketch activity, Design Studies, 19 (4), pp. 431453, 1998.
[17] Goel, V., Sketches of thought. Cambridge, MA, MIT Press, 1995.
[44] Erlinghagen, M. and Hank, K., Participation of older Europeans in volunteer work. MEA Discussion Paper 71-05, University of Mannheim, 2005, 28 P.
[18] Goldschmidt, G., The dialectics of sketching, Creativity Research Journal, 4 (2) pp. 123-143, 1991. [19] Molina, J., Cabezas, L. y Bordes, J. El manual de dibujo. Estrategias de su enseñanza en el siglo XX, Madrid. España, Ediciones Cátedra,Grupo Anaya, S.A., 2003. [20] Olszweski, E.J., The draughtsman´s eye: Late renaissance schools and styles.,Cleveland, OH, Cleveland Museum of Art/Indiana University, 1981. [21] Petroski, H., The Pencil: A history of design and circumstance. New York, Ed. Alfred A. Knopf, 1990. [22] Zuccari, F., L'idea de' Pittori, Scultori. Turin, Italia: Ed. Architetti divisa en duelibri, 1607. [23] Lawson, B., What designers know, Oxford OX2 8DP, Architectural Press, Elsevier, Linacre House, Jordan Hill, 2004. [24] Johnson, B., Sketching now, International Journal of Art & Design Education, 21 (3), pp. 246-253, 2002.
[40] Olofsson, E. and Sjölen, K., Design sketching, Sweden, KEEOS Design Books AB, 2005.
[42] Laseau, P., Freehand sketching: An Introduction, New York, W.W. Norton & Company, 2004.
[45] Olofsson, E. and Sjölen, K., Design Sketching, Sweden, KEEOS Design Books AB, 2005. [46] Hernandis, B. and Briede, J., An educational application for a product design and engineering systems using integrated conceptual models. Ingeniare. Revista chilena de Ingeniería, 17 (3), pp. 432-442, 2009.
J.C. Briede-Westermeyer, se recibe de Diseñador Industrial mención productos, en 1996 de la Universidad de Valparaíso, Chile, de MSc. en Diseño, Gestión y Desarrollo de Nuevos Productos en 2005 y de Dr. en Métodos y Técnicas del Diseño Industrial y Gráfico en 2008, ambos de la Universidad Politécnica de Valencia, España. Desde el año 1999 es profesor e investigador del Departamento de Arte y Tecnologías del Diseño de la Universidad del Bío-Bío, Chile. Las áreas de interés incluyen: Metodologías de Diseño, Procesos Colaborativos, Representaciones análogo-digitales y Enseñanza del Diseño,
207
Briede-Westermeyer et al / DYNA 81 (187), pp. 199-208. October, 2014. M.B. Cabello-Mora, se recibe de Diseñadora en 2002 de la Pontificia Universidad Católica de Chile, Chile, de MSc. en Diseño, Gestión y Desarrollo de Nuevos Productos en 2005 y de Dra. en Métodos y Técnicas del Diseño Industrial y Gráfico en 2009, ambos de la Universidad Politécnica de Valencia, España. Desde el año 2012 es docente e investigadora del Departamento de Arte y Tecnologías del Diseño de la Universidad del BíoBío, Chile. Revisora de Becas de Postgrado-Conicyt. Las áreas de interés incluyen: Colaboración, marketing, emprendimiento. B. Hernandis-Ortuño, es Dr. Ingeniero Industrial en 2004 por la Universidad Politécnica de Valencia - UPV, España, Director del Máster en Diseño Gestión y Desarrollo de Nuevos Productos de la UPV en 1999. Director y editor de la revista on line especializada en diseño www.rdis.upv.es, de 2012 a la fecha. Director de la Red Internacional en Diseño Sistémico RDIS, de 2012 a la fecha, miembro fundador del Grupo de Investigación y Gestión de Diseño de la UPV en 2000. Coordinador del programa de doctorado en Diseño, Fabricación y Gestión de Proyectos Industriales de la UPV de 2007 a 2011. Subdirector de Posgrado y Tercer Ciclo del Departamento de Ingeniería Gráfica de la UPV de 2004 a la fecha. Las áreas de interés incluyen: Metodologías Sistémicas para el diseño de productos. Modelos para Gestión del Conocimiento.
208
Application of Bayesian techniques for the identification of accident-prone road sections Thomas Edison Guerrero-Barbosa a & Gloria Estefany Amarís-Castro b a
Universidad Francisco de Paula Santander Ocaña, Colombia. teguerrerob@ufpso.edu.co b Universidad del Norte Barranquilla, Colombia. gloriacastro-18@hotmail.com
Received: December 28th, 2013.Received in revised form: May 29th, 2014.Accepted: November 5th, 2014
Abstract The use of Bayesian techniques for the identification of accident-prone road sections has become very important in recent years. The objective of this investigation consisted of identifying accident-prone road sections in the Municipality of Ocaña (Colombia) using the Bayesian Method (BM); the modeling approach developed involved the creation of a database of accidents that occurred between the years 2007 (January) and 2013 (August) and the application of the methodology on 15 sections of urban road. The final analyses show that the BM is an original and fast tool that is easily implemented, it provides results in which 4 accident-prone or dangerous road sections were identified and ranked them in order of danger, establishing a danger ranking that provides a prioritization for investments and the implementation of preventive and/or corrective policies that will maximize benefits associated with road safety. Keywords: Bayesian Method, accident-prone sections, hazard ranking, road safety.
Aplicación de técnicas Bayesianas en la identificación de tramos viales propensos a accidentes Resumen El uso de técnicas bayesianas para la identificación de tramos de carretera propensos a accidentes ha llegado a ser muy importante en los últimos años. El objetivo de esta investigación consistió en identificar los tramos de carretera propensos a accidentes en el municipio de Ocaña (Colombia), utilizando el método bayesiano (BM); el enfoque de modelación desarrollado consistió en la conformación de una base de datos de accidentes ocurridos entre los años 2007 (enero) y 2013 (agosto) y la aplicación de la metodología en 15 tramos de carreteras urbanas. Los análisis finales muestran que el BM es una herramienta poderosa y rápida de fácil implementación, que proporciona resultados en los que se identificaron 4 tramos de carretera propensos a los accidentes o peligrosos y los clasificó por orden de peligro, el establecimiento de un ranking de peligro proporciona un orden de prioridades para las inversiones y la aplicación de políticas preventivas y / o correctivas que maximicen los beneficios asociados con la seguridad vial. Palabras clave: Método Bayesiano, tramos propensos a accidentes, ranking de peligrosidad, seguridad vial.
1. Introduction Accident rates are alarmingly high in Colombia, and this has become a public health problem with great economic impact. Official statistics show that the vulnerable groups are primarily pedestrians and motorcycle riders, which collectively account for 70% of deaths in road accidents. Statistics also show that between the years 2005 and 2010 there was an increase in deaths from traffic accidents, from 5.418 to 5.502, and in 2010 over 39.275 seriously injured persons were registered according to the National Institute of Legal Medicine and Forensic Sciences (INML), with traffic accidents becoming
the number-one cause of death for children between five and 14 years of age, and the second leading cause of death for people between 15 and 24 years of age. According to data provided by the INML, 2.044 people under the age of 30 died in traffic accidents in Colombia in the 2010 [1]. The identification of the accident-prone sections is one of the alternatives available to properly address the problem, and tends to be the first step in the investigation and implementation of road safety programs. This is because once these sections have been defined as high-risk, possible factors associated with the frequency of accidents are determined (e.g. volume of vehicles, environmental factors,
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 209-214. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.41333
Guerrero-Barbosa & Amarís-Castro / DYNA 81 (187), pp. 209-214. October, 2014. Table 1. Investment in Road Safety in the Americas 2006-2007 Annual budget to fund Population Country the National Strategy for 2007 2008 (USD$) Bahamas 10.100,00 331.278 Canada 14.100.000,00 32.876.047 Colombia 16.541,20 46.155.958 Costa Rica 32.980.000,00 4.467.625 Honduras 1.083.800,00 7.106.001 México 8.706.240,00 106.534.880 Nicaragua 1.179.035,20 5.603.190 United States 838.000.000,00 305.826.246 Source: Adapted from [14]
relatively few accidents and low exposure, significant improvements cannot be evaluated and/or experienced [13]. Another method that has been used in the last few years as a reliable method providing pertinent results is the Quantile Regression Method [18]. The BM has greater credibility and better results in the identification of accident-prone sections, for which reason it is the subject of study in this research. Other studies [13, 19-23] have demonstrated that the BM offers a greater capacity to determine highly hazardous or risky sites in terms of safety. With regard to the hazard ranking of the accident-prone sections found, there are studies that report how prioritization for efficient investments can be achieved using the BM [24].
Expenditure per capita in USD$ 0,03 0,43 0,00 7,38 0,15 0,08 0,21 2,74
geometric characteristics of road infrastructure, and speed), and preventive and/or corrective policies are then proposed to decrease the indicators associated with the accidents. Evidence reports the effect of factors associated with road geometry [2-4], vehicle volumes [5,6], environmental conditions [3,7] and speed [8,9] on the occurrence of accidents, which is estimated with Poisson regression, negative binomial, generalized linear models. Likewise, the assessment of the effectiveness of road safety measures using the Bayesian empirical approach has also been reported in other studies [10-12]. According to [13], an element that is part of road infrastructure (sections of highways, intersections, curves, among others) may experience a high number of accidents due to two conditions: high random variations of traffic accidents during periods of observation and safety problems associated with the surroundings (high vehicular traffic, nature of the site, inappropriate geometric road design). The study and identification of accident-prone sites (also called hotspots, blackspots, sites with promise, high-risk locations, accidentprone locations) can suffer from two types of common effects. The first effect, termed a false negative, corresponds to an unsafe site that does not show high rates of accidents. It is also possible to observe high accident rates in a relatively safe site, which is referred to as a false positive. The two situations above need to be taken into account in determining where to invest in road safety, because, in a bureaucracy such as that of Colombia, investments in road safety are restricted and limited (as shown in Table 1, which shows marked differences in investment in road safety in terms of per capita spending by country). False negatives lead to the loss of opportunities for effective road safety investments. As is to be expected, correct determinations of the safety of a site is essential, including the identification of a safe site as “safe” and an unsafe site as “unsafe.” For the purposes of this research, we sought accident-prone sections that produced the lowest proportion of false negatives and false positives using the BM. In reviewing the available research, it was found that there is evidence of other techniques parallel to the BM with which it is possible to identify accident-prone sections; these include the Classification Method [15,16] and the Confidence Interval Method [17], which use different approaches for the analysis and determination of accidentprone sections. It was concluded that in some cases a large number of false positives are produced using these methods, while in other situations, when dealing with sites with
2. Methodological bases 2.1. The Bayesian Method (BM) The use of the BM in the identification of accident-prone sections is based on relating n random variables (Y1, ..., Yn) corresponding to i sections (i = 1,..., n) under study, where a current ratio of accidents (λi) occurs during a specific time period. We assume that λi is distributed in accordance with a law of probability with a function of density f(λi | θi), where θi represents the mean number of accidents in section i (parameter of interest). The Bayesian approach, assuming a distribution with density π(θi) in θi, allows the incorporation of prior knowledge regarding the behavior of θi. This prior information is combined with the information presented by the sample in the subsequent distribution, represented by p(θi | λi). The subsequent distribution of θi is a direct application of Bayes’ theorem and has the form of the eq. (1) [25]: (1) Where m(λi) represents the function of unconditional marginal density of λi and f(λi|θ) is the probability of the data observed. Put simply, the BM, as shown in [24], groups this estimate into two consecutive processes: in the first instance, it estimates the history of accidents for each of the sites (i) in order to define the distribution of probability of the ratio of accidents in each section studied locally. The second step consists of using this local probability distribution and the accident rate of each site (i) in order to obtain a more precise estimate of the probability distribution that is associated with the ratio of accidents of a particular site (i). In this way, it is possible to assess the probability that one of the sections under study may be dangerous. The function of accumulated distribution associated with the accident ratio (λi) is represented in the eq. (2): (2) Where Vi is the number of vehicles that transit along section i during the period of study, Ni is the number of accidents that occur in section i studied within the time frame
210
Guerrero-Barbosa & Amarís-Castro / DYNA 81 (187), pp. 209-214. October, 2014.
analyzed (for this case, the number of accidents that occurred between January 2007 and August 2013), and fi (λ│Ni,Vi) is the probability density function associated with the ratio of accidents in section i. Prior research [13] sets out two basic assumptions on which the BM bases its logic: Assumption 1: In a given place, the occurrence of crashes follows a Poisson-type counting process, where the probability that n accidents occur per unit of time (n = 0, 1, 2,.) is given by the following eq. (3):
prioritize investments and the implementation of preventive and/or corrective policies that will maximize benefits associated with road safety. Investment priorities must be based not only on a hazard ranking, but also cost-benefit analysis; however, this aspect was not considered for this research. There are two criteria that allow a hazard ranking to be determined: 2.2.1. Criterion 1 This procedure relates the accident ratio observed in each section studied (λr) to the accident-prone rate in each section studied (λcr). This ratio must be greater than one (λr/ λcr ≥ 1).
(3) Assumption 2: The probability distribution Fr(λ) is of the population of the gamma-distributed sites, where g(λ) is denoted as the gamma probability density function (eq. 4) and is typically modeled as a function of the co-variables of the site. (4) In these equations, α is the parameter of form and β is the parameter of scale of the gamma function, which can be estimated from the procedures set out by [26]. Finally, the BM permits two types of approximations from which it is possible to identify the accident-prone sections. The first makes use of the eq. 5 to determine them:
2.2.2. Criterion 2 This criterion is defined by the eq. 7: (7) Where the Average Daily Transit (ADT) and the time (years) for which there are accident records are related, estimated as follows (eq. 8): (8) 2.3. Data and sections studied
Where: λr is the accident ratio observed for all of the sections studied in the time period in which the observations were made. In the estimates based on the second approximation, the probability (Prob) is calculated and compared against that established in the 95% probability threshold. If this probability is greater than or equal to 95%, the null hypothesis (H0: Prob ≥ 95%) is accepted and it is said that a section is accident prone.
A database was prepared of the records of accidents that occurred in the urban perimeter of the municipality of Ocaña between January 2007 and August 2013. Based on other studies, time periods of between 3 and 6 years are suitable for this type of study [13]. In parallel, and based on prior studies [27] the BM was applied in 15 roads corridors of Ocaña. The length of the sections (L) is a variable identifying each road section. Each section is classified as homogeneous in terms of geometric and operational characteristics. However, at present the effects of the length of the identification section on the hotspot are still not as clear [28]. Some other evidence from the literature shows the variation in the length of sections of road [28-30]. Since the BM allows relating the number of accidents allocated to each section with vehicle volumes, it was necessary to estimate the ADT for each of the 15 corridors to be studied. In summary, a total of 1,062 accidents were reported, spread out among the 15 sections studied. It must be clarified that in countries such as Colombia (particularly in Ocaña), accident records are obtained from the National Police and other entities, such as the Volunteer Firefighters' Corps and/or Ocaña Civil Defense, which are entities that deal with accidents. This involves some disadvantages, because there is no linkage and/or agreement between those reported by medical sources and those from police records, resulting in underestimates of the records; in addition, records of accidents with minor injuries, single-vehicle accidents and cyclist accidents are sometimes not reported [31,32].
2.2. Criteria used to determine a hazard ranking
3. Study area
Once the accident-prone sites have been identified, it is necessary to establish a hazard ranking and, in this way,
Ocaña is a city located in the northwestern region of Colombia in the Norte de Santander department. It is the
∗
∗
∗
(5)
Where: λp is the mean of the ratios of accidents observed for all of the sections studied and λcr corresponds to the accident-prone rate in each section studied. For this first approximation, the probability (Prob) of λcr ≤ λr is estimated; this probability is defined according to a 95% confidence interval. In this way, values of λcr are estimated such that there is a probability of 95% and λcr ≤ λr is compared; if this verification is met, the null hypothesis (H0: λcr ≤ λr) is accepted, and it is said that a section is accident prone. The second approximation sets out the estimate of probability based on the following model (eq. 6): ∗
(6)
211
Guerrero-Barbosa & Amarís-Castro / DYNA 81 (187), pp. 209-214. October, 2014.
Figure 1. Geographic Location of Ocaña (Colombia). Source: The Authors
second largest town of the department after Cúcuta, with approximately a population of 100.000 including rural areas. It has elevation relative to sea level of 1202 m and a land area of 460 km2, representing 2,2% of the surface of department. The geographic location of Ocaña is presented in Fig. 1: 4. Results and discussion As was already mentioned in the previous section, two types of approximations were used to determine whether or not a section is accident prone in terms of road safety. Parameters were estimated that allow for estimating the critical status of the section from the approximation where it is verified that λcr ≤ λr. The evaluation and identification of the accident-prone section and the estimate of the other parameters can be seen in Table 2. Table 2. Identification of Sections λcr ≤ λr Sectio N ADT L n (i)
λr
λcr
Prob
1
45
13.380
751,24
1,3163
2,1712
95,00%
2
38
20.047
1.007,66
0,7419
2,0941
95,00%
3
28
8.607
1.141,10
1,2733
2,2784
95,00%
4
226
14.158
1.801,56
6,2476
2,1594
95,00%
5
170
49.506
1.407,54
1,3440
2,0157
95,00%
6
179
10.791
4.084,26
6,4923
2,2200
95,00%
7
41
12.342
1.233,64
1,3002
2,1888
95,00%
8
13
18.568
685,18
0,2740
2,1074
95,00%
9
22
12.193
355,85
0,7062
2,1915
95,00%
10
4
15.692
374,85
0,0998
2,1386
95,00%
11
57
9.632
2.524,63
2,3162
2,2483
95,00%
12
25
15.745
732,16
0,6215
2,1380
95,00%
13
47
18.381
684,50
1,0008
2,1092
95,00%
14
17
10.958
667,54
0,6072
2,2163
95,00%
15
150
26.278
1.283,53
2,2341
2,0513
95,00%
Source: The Authors
State NonCritical NonCritical NonCritical Critical NonCritical Critical NonCritical NonCritical NonCritical NonCritical Critical NonCritical NonCritical NonCritical Critical
Figure 2. Location of the Accident-prone Sections. Source: The Authors
Table 3. Identification of Sections Prob ≥ 95% Section (i) N ADT L 1 45 13.380 751,24 2 38 20.047 1.007,66 3 28 8.607 1.141,10 4 226 14.158 1.801,56 5 170 49.506 1.407,54 6 179 10.791 4.084,26 7 41 12.342 1.233,64 8 13 18.568 685,18 9 22 12.193 355,85 10 4 15.692 374,85 11 57 9.632 2.524,63 12 25 15.745 732,16 13 47 18.381 684,50 14
17
10.958
667,54
λr Prob State 1,3163 1,66% Non-Critical 0,7419 0,00% Non-Critical 1,2733 2,94% Non-Critical 6,2476 100,00% Critical 1,3440 0,38% Non-Critical 6,4923 100,00% Critical 1,3002 1,69% Non-Critical 0,2740 0,03% Non-Critical 0,7062 0,00% Non-Critical 0,0998 0,13% Non-Critical 2,3162 96,96% Critical 0,6215 0,01% Non-Critical 1,0008 0,00% Non-Critical 0,6072
0,00%
Non-Critical
15 150 26.278 1.283,53 2,2341 Source: The Authors
99,65%
Critical
From the analysis and the estimates made with the first approximation, it can be observed that four sections were identified as accident-prone or dangerous sections. The accident-prone sections correspond to those identified as 4, 6, 11 and 15, which are shown in Fig. 2. 212
Guerrero-Barbosa & Amarís-Castro / DYNA 81 (187), pp. 209-214. October, 2014. Table 4. Hazard Ranking Criterion 1 Section (i) λr 4 6,25 6 6,49 11 2,32 15 2,23 Source: The Authors
Table 5. Hazard Ranking Criterion 2 Section (i) λr a 4 6,25 36,17 6 6,49 27,57 11 2,32 24,61 15 2,23 67,14 Source: The Authors
λcr 2,16 2,22 2,25 2,05
λcr 2,16 2,22 2,25 2,05
(λr/λcr)>1 2,89 2,92 1,03 1,09
(λr-λcr)*a 147,89 117,79 1,67 12,28
Avenida Circunvalar, respectively. It was possible to estimate the parameters λcr following a Poisson-type counting process, which is suitable for this type of analysis. These values are graphed with the values of λcr obtained by the BM. The comparison of both trends is observed in Fig. 3, in which the adjustment of both curves to a logarithmic model is easily predictable, where the curve corresponding to λcr (Poisson) is below the curve λcr (BM). This observation has a direct relationship to the effect of regression towards the mean, thereby producing a more conservative curve, as is also shown by [24].
Ranking 2 1 4 3
Ranking
5. Conclusions
1 2 4 3
Figure 3. λcr (BM) and λcr (Poisson) Trends. Source: The Authors
The estimates, presented in Table 3, show the accidentprone sections to be those given by the second approximation; these results show that the BM is an accurate and reliable methodology. The BM offers reductions of 50% in false positives and false negatives as identified by other methods [13]. Having identified the four accident-prone sections of the 15 originally defined sections, it is necessary to determine a hazard ranking of accident-prone sections, given that investments in road safety are very scarce and the efficiency and optimization of these resources is necessary in order to maximize their benefits in terms of road safety. The estimated results per criterion 1 and criterion 2 of the hazard ranking are shown in Table 4 and Table 5. Note that the two analyzed criteria differ. According to criterion 1, the most dangerous section is 6, followed by 4, while criterion 2 puts section 4 in first place in the ranking and then section 6. This situation may be due to criterion 2 giving more weight to the parameter associated with the ADT and its relation to the accidents, thus producing the discrepancy in the ranking of the described situation; however, to be clear, other sections analyzed have the same place in the ranking under both criteria. The sections identified as 4 and 6 correspond to the road section between La Ondina until Defensa Civil and
It was possible to identify four accident-prone sections from the application of the approaches used (λcr ≤ λr and Prob ≥ 95%). The two types of Bayesian approximations were used in this research in order to identify four accident-prone sites in which similar results were found, minimizing in this way the identification of false positives or false negatives that would influence the results of the research and divert investment of resources to road sections where it is not necessary. These approximations also allow controlling for the effect of regression towards the mean, which is very common in this type of modeling. The estimation results with the MB allow be certain of which are the true accident-prone sections in the municipality of Ocaña. It was possible to apply the hazard ranking to the four sections identified as accident prone using two criteria. Although identical results were not obtained using both criteria. They are similar, however, and their use is recommended for the prioritization of investments, the explanation of their importance having already been provided. The methodological approach of the MB applied to the urban area of the municipality of Ocaña gives coherent and accurate results, corroborating that this method contributes to and is suitable for studies of accident rates, and, more specifically, for the identification of accident-prone sites. It must be clarified that accident data were used in this research, i.e. those that had occurred in the field (not simulated). This is an advantage, given that when one works with real data it is possible to identify accident-prone sections, whereas in the use of other approaches uncontrolled observational environments are evident [23]. The parameter estimation λcr (Poisson) and λcr (BM) shows consistency of results and relevance in the use of the methodology applied; the behavior of the curve for both approaches was as expected and supports the results obtained. Future research may measure the effectiveness of the BM against other methods such as Quantile Regression, Confidence Intervals or the Classification Method. Acknowledgements The authors would like to thank Orlando Álvarez, Yenika Espinel and Darwin Palacios. References [1]
213
Instituto Nacional de Medicina Legal y Ciencias Forenses, Forensis 2012 Datos para la vida, Bogotá D.C., 2012.
Guerrero-Barbosa & Amarís-Castro / DYNA 81 (187), pp. 209-214. October, 2014. [2] [3] [4]
[5] [6] [7]
[8] [9]
[10] [11] [12]
[13] [14] [15] [16] [17] [18] [19] [20]
[21]
[22]
Karlaftis, M.G. and Golias, I., Effects of road geometry and traffic volumes on rural roadway accident rates, Accident Analysis and Prevention, 34, pp. 357-365, 2002. Chang, L.Y., Analysis of freeway accident frequencies: Negative binomial regression versus artificial neural network, Safety Science, 43, pp. 541-557, 2005. García, R.A., Delgado, D.E., Díaz, E.E. y García, R.E., Caracterización de la accidentalidad vehicular y análisis de las causas en la provincia de Villa Clara, Cuba, DYNA, 79 (175), pp. 191-200, 2012. Winslott, L., Estimating the relationship between accident frequency and homogeneous and inhomogeneous traffic flows, Accident Analysis and Prevention, 36, pp. 985–992, 2004. Ayati, E. and Abbasi, E., Investigation on the role of traffic volume in accidents on urban highways, Journal of Safety Research, 42, 209214, 2011. Venkataram, S., Mannering, F. and Barfield, W., Effect of roadway geometrics and environmental factors on rural freeway accident frequencies, Accident Analysis and Prevention, 27 (3), pp. 371-389, 1995. Ossiander, E.M. and Cummings, P., Freeway speed limits and traffic fatalities in washington state. Accident Analysis and Prevention, 34 (1), pp. 13-18, 2002. Rangel, T., Vassalloa, J.M. and Herraiz, I., The influence of economic incentives linked to road safety indicators on accidents: The case of toll concessions in spain, Accident Analysis and Prevention, 59, pp. 529-536, 2013. Hauer, E., Harwood, D., Council, F. and Griffith, M., The empirical bayes method for estimating safety: A tutorial. Transportation Research Record 1784, pp. 126-131, 2002. Persaud, B. and Lyon, C., Empirical Bayes before–after safety studies: Lessons learned from two decades of experience and future directions, Accident Analysis and Prevention 39, pp. 546-555, 2007. Lan, B., Persaud, B., Lyon, C. and Bhim, R., Validation of a full Bayes methodology for observational before–after road safety studies and application to evaluation of rural signal conversions. Accident Analysis and Prevention 41, pp. 574-580, 2009. Cheng, W. and Washington, S.P., Experimental evaluation of hotspot identification methods, Accident Analysis and Prevention, 37, pp. 870-881. 2005. Organización Panamericana de la Salud – OPS, Informe sobre el estado de la seguridad vial en la Región de las Américas, Washington, D.C., 2009. Persaud, B.N. and Hauer, E., Comparison of two methods for debiasing before and after accident studies, Transportation Research Record, 975, pp. 43-49. 1984. Persaud, B.N., Safety migration, the influence of traffic volumes and other issues in evaluating safety effectiveness. Transportation Research Record, 1086, pp. 33-41, 1986. Laughlin, J. C., Hauer, L. E., Hall, J. W., & Clough, D. NCHPR Report 162: Methods for Evaluating Highway Safety Improvements. Washington, D.C.: National Research Council, 1975. Qin, X., Ng, M. and Reyes, P.E., Identifying crash-prone locations with quantile regression. Accident Analysis and Prevention, 42, pp. 1531-1537, 2010. Geurts, K. and Wets, G., Black spot analysis methods: Literature review. Diepenbeek (Belgium): Flemish Research Center for Traffic Safety, 2003. Miaoua, S.P. and Song, J.J., Bayesian ranking of sites for engineering safety improvements: Decision parameter, treatability concept, statistical criterion and spatial dependence, Accident Analysis and Prevention, 37, pp. 699-720, 2005. Miranda-Moreno, L.F., Statistical Models and methods for the identification of hazardous locations for safety improvements, PhD. Thesis, Department of Civil Engineering, University of Waterloo, Waterloo, Canada, 2006. Geurts, K., Wets, G., Brijs, T., Vanhoof, K. and Karlis, D., Ranking and selecting dangerous crash locations: Correcting for the Number of passengers and Bayesian ranking plots. Journal of Safety Research, 37, pp. 83-91, 2006.
[23] Miranda-Moreno, L.F., Labbe, A. and Fu, L., Bayesian multiple testing procedures for hotspot identification. Accident Analysis and Prevention, 39, pp. 1192-1201, 2007. [24] Feria-Torres, R.F. y Timaná-Rojas, J.A., El método de Bayes aplicado en la identificación de las localizaciones más propensas a sufrir accidentes de tránsito, Revista del Encuentro Científico Internacional, 5 (2), pp. 21-26. 2008. [25] Carlin, B. and Louis, T., Bayes and empirical Bayes methods for data analysis, London, Chapman and Hall/CRC Press, 2000. [26] Higle, J. and Witkowski, J., Bayesian identification of hazardous locations, Transportation Research Records, 1185, pp. 24-36, 1988. [27] Guerrero, T.E., Gallardo, R.J. and Córdoba, J.A., Análisis estadístico y espacial de corredores viales críticos de accidentalidad en Ocaña, Colombia, Revista Institucional Universidad Tecnológica del Chocó, 2, pp. 103-115, 2012. [28] Yu, H., Liu, P., Chen, J. and Wang, H., Comparative analysis of the spatial analysis methods for hotspot identification, Accident Analysis and Prevention, 66, pp. 80-88, 2014. [29] Washington, S., Haque, M., Oh, J. and Lee, D., Applying quantile regression for modeling equivalent property damage only crashes to identify accident blackspots, Accident Analysis and Prevention, 66, pp. 136-146, 2014. [30] Park, B.J., Lord, D. and Lee, C., Finite mixture modeling for vehicle crash data with application to hotspot identification, Accident Analysis and Prevention, 71, pp. 319-326, 2014. [31] Also, J. and Langley, J., Under reporting of motor vehicle traffic crash victims in new zealand. Accident Analysis and Prevention, 33, pp. 353-359, 2001. [32] Brenac, T. and Clabaux, N., The indirect involvement of buses in traffic accident processes, Safety Science, 43, pp. 835-843, 2005. T.E. Guerrero-Barbosa, received the Bs. Eng in Civil Engineering in 2007 from the Universidad Francisco de Paula Santander, Cúcuta, Colombia; the MSc in Civil Engineering in 2011 from the Universidad del Norte, Barranquilla, Colombia. From 2012 to to current, he has worked as Auxiliary Professor in the Department of Civil Engineering at the Universidad Francisco de Paula Santander in Ocaña, Colombia. His research has focused on road safety and transport systems modeling. G.E. Amarís-Castro, received the Bs. Eng in Civil Engineering in 2013 from the Universidad Francisco de Paula Santander, Ocaña, Colombia; currently MSc. in Civil Engineering student at Universidad del Norte Barranquilla, Colombia.
214
Heuristic for production scheduling on job-shop plants considering preventive maintenance tasks Ronald Díaz-Cazaña a, Yasel José Costa-Salas b & William Ariel Sarache-Castro c a
Facultad de Ingeniería Industrial y Turismo, Universidad Central “Marta Abreu” de Las Villas, Cuba. ronalddc@uclv.edu.cu b Faculty of Economics, Universidad de Manizales, Colombia. yasel.costa@umanizales.edu.co c Industrial Engineering Department, Universidad Nacional de Colombia Sede Manizales, Colombia. wasarachec@unal.edu.co Received: May 28th, 2014.Received in revised form: August 25th, 2014.Accepted: September 10th, 2014
Abstract The simultaneous analysis of production scheduling and preventive maintenance task attracts special attention of researchers due to its complexity and therefore the necessity to seek efficient methods for solving this kind of combinatorial problems. This paper presents a heuristic approach to solve this issue on job shop plants. The solution method includes a linear programming model, based on the Traveling Salesman Problem, where the setup time is considered as distance measure. The method´s aim is to obtain a sequence of production orders and preventive maintenance tasks that reduce the idle time and the backlogs simultaneously, accomplishing the maintenance program. After finding an optimal solution for each machine a Correction Factor (CF) is determined as new distance measure. The CF considers the structure of the initial solution, the machine utilization and the product priorities. Then, the final solution is reached running the linear programming model using the distance updated values. Finally, the proposed heuristic is applied to real case study of the Cuban industry. The experimental results indicated a significant idle time reduction for the company under examination. Keywords: simultaneous programming; production scheduling; preventive maintenance; linear programming model.
Heurística para la secuenciación de producción en plantas job-shop considerando tareas de mantenimiento preventivo Resumen El análisis simultáneo de la programación de la producción y las tareas de mantenimiento preventivo atrae especial atención en los investigadores debido a su gran complejidad y por ende la necesidad de encontrar métodos eficientes para resolver este tipo de problema combinatorio. Este artículo presenta un enfoque heurístico para resolver dicha problemática en plantas tipo job-shop. El método de solución incluye un modelo de programación lineal inspirado en el problema del Agente Vendedor, donde el tiempo de iniciación es considerado como métrica de distancia. El método persigue obtener una secuencia de las órdenes de producción y tareas de mantenimiento preventivo que reduzcan el tiempo ocioso y los retrasos simultáneamente, cumpliendo con el programa de mantenimiento. Luego de encontrar la solución óptima para cada máquina, un factor de corrección (CF) es determinado como la nueva medida de distancia. El factor CF considera la estructura inicial de solución, la utilización de las máquinas y las prioridades en los productos. De esta forma, la solución final es alcanzada solucionando el modelo de programación lineal usando los valores de distancia actualizados. Finalmente, la heurística propuesta es aplicada en un caso de estudio real de la Industria Cubana. Los resultados experimentales indicaron una reducción significativa del tiempo ocioso para la compañía objeto de estudio. Palabras clave: programación simultánea; secuenciación de producción; mantenimiento preventivo; programación lineal.
1. Introduction One of the elements for optimization, while establishing the manufacturing sequence, is the setup time reduction, due to its influence on equipment downtime. This topic has received a great deal of attention by several current
researchers, since great savings are achieved when the setup times are included in the scheduling decisions [1]. In this context, the maintenance tasks programming are inserted, as well as the search for options which allow to generate production–maintenance integrated plans on this level [l-6]. According to [1] most of the researches considering setup
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 215-222. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.46103
Díaz-Cazaña et al / DYNA 81 (187), pp. 215-222. October, 2014.
times are aimed to flow shop scheduling, while job shop scheduling had been less studied. In the latter case, we stand out the researches carried out by [7] who proposed a heuristic method to minimize the makespan. Authors in [8] tackled this type of problem, in job shop scheduling, through a mixed integer linear programming, developing a heuristic method for its solution, having likewise as an objective, to minimize the makespan. In [9] this is approached considering features such as: release dates, due dates and transportation times. Also [10] developed a hybrid algorithm based on Genetic Algorithms (GAs) which prioritizes the orders according to the shorter processing time dispatching rule; the first operations for every machine are defined from GA, whereas the remaining operations are programmed through the referred dispatching rule, having as an objective the makespan minimization. Similar to the former evolutionary strategy, [11] proposes an elitist GA, which provides a Pareto solution set minimizing simultaneously the makespan and maintenance total cost. On the other hand, [1] carried out a study applying four metaheuristics to solve a set of instances from the general scheduling problem (including preventive maintenance tasks), considering the machines setup time. Three preventive maintenance (PM) policies were taken into account: 1) PMat fixed predefined time intervals; 2) PM optimum period model, maximizing the machines’ availability; 3) maintaining a minimum reliability threshold for a given period. This policies were included in the hybrid metaheuristics: GA–Shorter Processing Time Dispatching Rule (GA-SPT), Simulated Annealing (SA) –Shorter Processing Time Dispatching Rule (SA-SPT), GA adapted for production scheduling and preventive maintenance task simultaneously, from the one proposed by [10] (GA-Ch), and the Immune Algorithm (IA) introduced by [12] for job shop scheduling considering setup times (IA-YZ). After a performance analysis it was concluded that among the metaheuristics, the hybrid method GA-SPT gave the best results and there were no significant differences between the results obtained through SA-SPT and GA-Ch methods; in addition, the IA-YZ showed less solution quality and with the application of the dispatching rule SPT, separately, the worse result was obtained. Despite the great amount of techniques developed for solving the production scheduling and preventive maintenance problem, including the exact methods [4], heuristics [5] and metaheuristics [13], it cannot be stated that an optimal option for its treatment has been found due to the disadvantages of all of these approximate proposals; for instance, the fact that being so sophisticated, great efforts for its codification and implementation are needed. In other cases the proposals developed lack generality. Many of these methods have specific characteristics, which are rarely applicable to extensions from the original problem. The latter arguments demonstrate the complexity of the production scheduling and preventive maintenance task problem, considering one or several machines. Furthermore, there exist other real-life characteristics from corporate practice context that raising this complexity when taken into account. Underestimated the aforementioned elements may lead to design models which can give an inappropriate
representation of the real problem and, therefore, the solutions would be quite ineffective. Considering the above, in this paper a heuristic algorithm is proposed, which is aimed to obtain the effective production scheduling and preventive maintenance task in job shop process, minimizing the equipment downtime as a result from the setup time reduction, and thus, facilitating the accomplishment of products delivery due date, having as a premise the compliance of the established preventive maintenance program. This paper is structured as follows: Section 2 is dedicated to the description of the optimization problem, considering specifically, the integration of the production order scheduling and the preventive maintenance tasks. It is also presented in this section, the mathematical formulation of the problem, as well as a detailed explanation of the steps for the proposed algorithm. In Section 3 the main experimental results from the application of the heuristic algorithm are presented. Afterwards, a discussion about the achieved results is addressed in Section 4. Finally, some conclusions of this research are presented in Section 5. 2. Problem formulation and algorithmic proposal 2.1. Description of the problem The production environment is characterized by a set machines and types of products. The manufacturing for each product requires its processing in all or some of the machines, according to its technological sequence. According to the delivery due date, the company defines the priority of each product. The processing time and the setup times for the machines are known. The time for the preventive maintenance task for each machine is known according to the maintenance program. Correspondingly to the established manufacturing strategy in the company, the planning objectives in this level are aimed to achieve an optimal exploitation of the production capacity, as well as complying with the delivery due dates. These two decisions can be formulated according to the criteria of minimizing the machines setup time and, simultaneously, minimizing the delivery backlogs. Thus, the proposed problem consists on establishing the production order sequence (batches of each type of product) and preventive maintenance task on every machine, which minimizes their setup time, accomplishing the product delivery dates and the preventive maintenance program established for each machine. As a model premise, should be considered that: the manufacturing for a product batch must be not started if its execution time overcomes the remaining time to start the preventive maintenance task. Production interruptions are not acceptable once a batch processing has started, except for failures. 2.2. Heuristic algorithm proposed The heuristic algorithm proposed in this paper consists of four general steps, which are described below: Step 1.Initial solution search
216
Díaz-Cazaña et al / DYNA 81 (187), pp. 215-222. October, 2014.
It refers to the search of an initial sequence for jobs processing (product batches), independently, on each machines. This initial sequence will minimize the setup time and backlogs. Then, the algorithm is as follows: do: For each machine P1.1Initialize (Initial number of products) P1.2 Implement the model as follows: Parameters: : Number of products (production orders) to be scheduled. : Index referring to products. : Index referring to preventive maintenance task. : Total orders to be scheduled in the machine, including production and preventive maintenance task. : Machine setup time between ending order and beginning order . : Machine setup time between ending order and beginning preventive maintenance task. : Processing time of order . : Priority of order . : Priority of order . : Priority of order . : Time between preventive maintenance tasks. : -th component of the subcircuit or analyzed circuit. : Length of a subcircuit or circuit. Decision Variables: : Binary variable, which indicates if the order is processed {1} or not {0} after the order . : Binary variable, which indicates if the preventive maintenance task will be scheduled {1} or not {0} in the sequence after the order . : Binary variable, which indicates if the order k will be the first {1} or not {0} in the production sequence. : Slack variable. Objective function: To reduce the setup time ( ) in the equipment,
(1)
It was used the constant value of 100 in order to ensure that the model sequences the major quantity of orders until the moment for the preventive maintenance task occurs. This value was defined after some a priori values previously tested. Constraints: 1) To ensure the accomplishment for the preventive maintenance program, (2) 2) To ensure that one order can be preceded by one order only,
(3)
3) To ensure that from a node only comes out one arc (i.e. an order can be preceded by one order only), (4) 4) To avoid subcircuits and circuit. Specifically for all of the long subcircuits , and circuit, ,
(5) 5) To ensure a logical sequence,
(6)
(7) If is lower than the number of products to be manufactured in the machine , repeat step P1.2 with the remaining products for sequencing; otherwise go to Step 2. Step 2. Obtaining the relative importance for every machine The relative importance (weight) for every machine can be computed based on various criteria. One of them, which is the one adopted in this paper, is the capacity utilization rate, which aims to favor the most loaded machines in the obtained final sequence. For the weight determination, any of the qualitative or quantitative current methods can be applied. Step 3. Obtaining a corrected distance measure With this new measure, it is attempted to correct the initial distance measure adopted in Step 1. To obtain it, a coefficient is proposed (order factor for product with respect to machine . This coefficient integrates three factors: : Priority factor for product based on its delivery date. This factor is calculated only once for each product, regardless the machines. : Technological priority factor for product with respect to the machine . It constitutes a proximity measure between the position of product , according to the initial sequence, with respect to the machine , and the weighted position of the product considering all the machines, also based on the initial sequence. This factor is calculated only once, for each product depending on
217
Díaz-Cazaña et al / DYNA 81 (187), pp. 215-222. October, 2014.
every machine, using the information supplied by the initial sequence of every machine. : Starting factor for product with respect to the machine . It is a measure for the availability of the product , in a specific moment, to start its processing in a machine after being processed in the machine according to its operation sequence. The starting factor must be calculated for every machine as the machine is to going to be sequenced. This factor ranges from . The proposed mathematical expressions to calculate these factors and the corrected distance are the following: (8) (9)
: Order in which the product would be processed in the previously sequenced machine to the one that is being sequenced at the present moment, according to the initial sequence. : Order of the product in the initial sequence for the machine that is being sequenced at the present moment. Step 4. Obtaining the final solution do: For every machine P4.1 Initialize P4.2 Implement the proposed mathematical model in P1.2, but taking into account as a distance measure the corrected distances ( ). If is lower than the number of products (products to be manufactured in the machine ) repeat P4.2 with the remaining products for sequencing; otherwise take the solution obtained for every machine as a final integrated sequence for production orders and preventive maintenance. 3. Experimental results
If it is assigned priority,
to the product with the highest
(10) If it is assigned priority,
to the product with the highest
(11)
(12)
(13)
where: : Corrected distance for the product used for obtaining the final sequencing with respect to the machine . : Order factor for product with respect to machine . : Setup time in the machine when product is changed for product according to the initial sequence. : Position for product according to the initial sequence of the machine . : Weight for the machine . : Number of products to be manufactured. : Number of machines : Priority order given to the product according to its delivery date. .
Step 1. Implementation: Searching for an initial solution The production environment is characterized by a set of five machines ( ): mechanical saw ( ), conventional lathe ( ), milling machine ( ), grinding machine ( ), sharpening machine ( ); and a set N of six (6) types of products: punches ( ), matrix ( ), dies ( ), pintles ( ), blades ( ) and nozzles ( ). The processing sequence and priority for every product is shown in Table 1. Table 2 contains the processing time of each product on every machine; whereas Tables 3, 4, 5, 6 y 7 show the setup time of every machine to change from one product to another, as well as the time between orders and preventive maintenance task. Table 1. Technological sequence and priority for every product. Machines Products m1 m2 m3 m4 m5 n1 1 2 3 4 5 n2 1 2 3 4 n3 1 2 3 n4 1 2 3 n5 1 2 3 n6 1 2 3 4 Source: The autors
Priority 1 4 3 2 6 5
Table 2. Product processing time (h/batch). Products n1 n2 n3 n4 n5 n6 Source: The autors
218
m1 10 3.2 10 33 6.6 16.6
m2 33.3 26.6
30
Machines m3 25 33.3 5.8 125 225 50
m4 43.2 60 75 40 86.7
m5 1 20
DĂaz-CazaĂąa et al / DYNA 81 (187), pp. 215-222. October, 2014. Table 3. Setup time among the products and among themselves and the preventive maintenance task (IP) in m1 (h/batch). n1 n2 n3 n4 n5 n6 IP n1 1 1.5 1.5 1.5 1.3 0.5 n2 1 2 2.5 1 1.25 1 n3 3 2.5 1.5 1.5 1.5 0.5 n4 2 1.5 2 2 1.5 1.5 n5 1.5 1.5 2.5 1 1.8 1 n6 2 1.3 1 1.5 1 0.5 Start 1 0.5 1.5 1 1.5 0.8 Source: The autors
Table 8. Initial product sequence and preventive maintenance tasks. Machines Products and IP m1 m2 m3 m4 n1 1 2 4 2 n2 6 3 1 n3 4 4 1 n4 2 2 5 n5 7 7 6 n6 3 1 5 3 IP 5 3 6 4 Source: The autors
Table 4. Setup time among the products and among themselves and the preventive maintenance task (IP) in m2 (h/batch). n1 n3 n6 IP n1 1.6 1.4 0.8 n3 1 2 0.8 n6 1.5 1.25 1 Start 0.5 0.2 0.8 Source: The autors
In Table 9 are presented possible performance measures for each one of the machines, based on the initial sequence obtained: the total setup time ( ),the idle time while waiting for the moment to start the maintenance task, given by the slack variable ( ) used in the mathematical model and,
Table 6. Setup time among the products and among themselves maintenance task (IP) in m4 (h/batch). n1 n2 n4 n5 n1 1.2 1.3 1.5 n2 0.5 1 1.5 n4 0.8 1.7 0.75 n5 2 1.6 1 n6 0.7 1 1.25 2 Inicio 0.3 0.25 0.5 0.4 Source: The autors
and the preventive n6 1 1.25 2 1.3 0.3
IP 0.7 1 1.25 0.5 0.5 -
Table 7. Setup time among the products and among themselves and the preventive maintenance task (IP) in m5. n1 n2 IP n1 2.5 0.8 n2 2 1.3 Inicio 0.25 0.2 Source: The autors
The preventive maintenance task, in every one of the five machines taken into account, must be done every 72, 72, 240, 192 y 24 operating hours, respectively. The initial sequence of production orders and preventive maintenance task (IP) for each one of the 5 machines is showed in Table 8.
Table 10. Relative importance of each machine. Machines m1 m2 m3 m4 m5 Source: The autors
H [h] 2.4 8.7 0.9 2.1 24.8
Weight 0.08 0.09 0.48 0.32 0.02
1 1.50 1.33 1.16 1.83 1.66
Table 12. Technological priority factor of each product in every machine. Machines m1 m2 m3 m4 n1 0.79 0.79 1.22 0.79 n2 1.35 0.92 1.06 n3 1.35 1.07 0.92 n4 0.85 0.85 1.28 n5 1.06 1.06 0.92 n6 0.89 1.04 1.18 0.75 Source: The autors
219
3
A [%] 96.5 91.3 98.4 96.2 76.8
Q [h] 79.4 89.9 464.1 304.9 21
Table 11. Priority factor according to the delivery date. Products n1 n2 n3 n4 n5 n6 Source: The autors
Products
Table 5. Setup time among the products and among themselves and the preventive maintenance task (IP) in m3 (h/batch). n1 n2 n3 n4 n5 n6 IP n1 2.5 2 1.5 1 0.8 0.6 n2 1 2 1.8 1 1 0.8 n3 1.5 2 1 1.5 1 0.8 n4 0.8 1.3 1.5 2.5 1.5 1 n5 1.25 1.3 1.5 1 1.5 0.7 n6 2 2.3 1 1.25 0.8 0.5 Start 0.3 0.2 0.5 0.5 0.6 0.25 Source: The autors
Table 9. Performance measures of the initial solution. Machines TTP [h] m1 66.7 m2 91 m3 55.5 m4 53.85 m5 82.2 Source: The autors
m5 2 1
m5 0.94 0.64
DĂaz-CazaĂąa et al / DYNA 81 (187), pp. 215-222. October, 2014.
Table 13. Starting factor of each product in every machine. Machines m1 m2 m3 n1 1 1 0.57 n2 1 1.43 n3 1 1.29 1.14 n4 1 1 n5 1 1 n6 1 0.86 0.86 Source: The autors Products
m4 1.43 0.86 0.57 1.14 1.43
Table 14. Order factor of each product in every machine. Machines m1 m2 m3 n1 0.79 0.79 0.69 n2 2 1.97 n3 1.8 1.84 1.39 n4 1 1 n5 1.94 1.94 n6 1.48 1.48 1.68 Source: The autors
Table 16. Setup and starting times corrected in m2. n1 n3 n1 2.94 n3 0.79 n6 1.19 2.3 Starting 0.4 0.37 Source: The autors
n4 1.5 2.5 1.5 1 1.5 1
m5 0.8 1.37
0.85 1.92 1.78
n5 2.91 1.94 2.91 3.88 1.94 2.91
n6 2.07 2.96 1.18
n1 n2 n3 n4 n5 n6
n1 0.69 1.04 0.55 0.86 1.38
n2 4.93 3.94 2.56 2.56 4.53
n3 2.78 2.78 2.09 2.09 1.39
n4 1.5 1.8 1 1 1.25
n5 1.94 1.94 2.91 4.85 1.55
n6 1.34 1.68 1.68 2.52 2.52 -
IP 0.6 0.8 0.8 1 0.7 0.5
0.21
0.39
0.7
0.5
1.16
0.42
-
Source: The autors
Table 18. Setup and starting times corrected in m4. n1 n2 n4 n1 1.64 1.11 n2 0.57 0.85 n4 0.9 2.33 n5 2.26 2.19 0.85 n6 0.79 1.37 1.06 Starting 0.34 0.34 0.43 Source: The autors Table 19. Setup and start times corrected in m5. n1 n1 n2 1.6 Starting 0.2 Source: The autors
m4 1.13 1.37
Products
Table 15. Setup and starting times corrected in m1. n1 n2 n3 n1 2 2.7 n2 0.79 3.6 n3 2.37 5 n4 1.58 3 3.6 n5 1.19 3 4.5 n6 1.58 2.6 1.8 Starting 0.79 1 2.7 Source: The autors
m5 0.86 1.43
Table 17. Setup and starting times corrected in m3.
Starting
the corresponding capacity utilization rate ( ),resulting from the latter measure (idle time). Once all products in every machine have been sequenced, the Step 2 is applied. Step 2. Implementation: Obtaining the relative importance of every machine The relative importance (weight) of each machine is established according to its workload ( ) expressed in hours, so the most loaded machines obtain more weight. The results are shown in Table 10. Step 3. Implementation: Obtaining the corrected distance for each product on every machine In Table 11 is presented priority factor for product based on its delivery date ( ). Then, in Table 12, is shown technological priority factor for product with respect to the machine ( ).
n6 1.92 1.85 2.22 2.22 2.66 1.18
IP 0.5 1 0.5 1.5 1 0.5 -
IP 0.8 0.8 1 -
n5 2.88 2.88 1.44 3.84 0.77
n6 1.78 2.23 3.56 2.31 0.53
IP 0.7 1 1.25 0.5 0.5 -
n2 3.43 0.27
IP 0.8 1.3 -
Table 20. Final processing sequence and preventive maintenance task Machines Products and IP m1 m2 m3 m4 n1 4 2 4 2 n2 6 1 1 n3 2 4 2 n4 3 3 6 n5 7 7 5 n6 1 1 5 3 IP 5 3 6 4 Source: The autors Table 21. Performance measures of the final solution obtained. Machines TTP [h] H [h] m1 58.46 2.4 m2 91.44 8.7 m3 56.96 0.9 m4 183.11 2.1 m5 81.87 25.1 Source: The autors
m5 2 1
3
A [%] 96 91.3 98.4 98.9 76.5
In Table 13 is shown the starting factor for product with ). Thereafter, in Table 14, is shown respect to the machine ( ). the order factor for product with respect to machine ( In Tables 15, 16, 17, 18 and 19 are shown the corrected representative distance measures of the setup times in each machine (in hours). 220
DĂaz-CazaĂąa et al / DYNA 81 (187), pp. 215-222. October, 2014. Table 22. Start and end time of each product on every machine and machines downtime ( ) according to the initial sequence. Machines Products and IP m1 m2 m3 m4 n1 1 / 11 95.9 / 129.2 496.8 / 521.8 556.55 / 599.75 n2 79.6 / 82.8 462.5 / 495.8 496.05 / 556.05 n3 64.6 / 74.6 134.2 / 160.8 161.3 / 167.1 n4 12.5 / 45.5 168.1 / 461.2 692.7 / 767.7 n5 83.8 / 90.4 577.7 / 802.7 768.45 / 808.45 n6 47 / 63.6 64.4 / 94.4 522.6 / 572.6 601 / 687.7 IP 75.1 / 79.1 130 / 134 573.1 / 577.1 688.2 / 692.2 7 66.2 166.5 499.55 Source: The autors
Table 23. Start and end time of each product on every machine and machines downtime ( ) according to the final sequence. Machines Products and IP m1 m2 m3 m4 n1 64.9 / 74.9 75.4 / 108.7 273.4 / 298.4 298.7 / 341.9 n2 79.9 / 83.1 83.3 / 116.6 116.85 / 176.85 n3 18.4 / 28.4 113.7 / 140.3 140.8 / 146.6 n4 29.9 / 62.9 147.6 / 272.6 620.7 / 695.7 n5 84.1 / 90.7 354.3 / 579.3 579.7 / 619.7 n6 0.8 / 17.4 18.2 / 48.2 299.2 / 349.2 349.5 / 436.2 IP 75.4 / 79.4 109.5 / 113.5 349.7 / 353.7 436.7 / 440.7 7.3 46.4 111.2 386.8 Source: The autors
In Table 20 the final processing sequence and preventive maintenance tasks for every machine is shown. In Table 21 are shown the performance measures previously described. In Tables 22 and 23 it is shown the moment where each product begins its processing in each one of the machines and the corresponding downtime of each one of these machines, obtained from the initial and final sequence, respectively. Considering that the processing starts at zero time and there are no other products in process, the initial solution reported a total downtime of 1298.3 hours. According to Table 23 the total downtime is 874.6 hours. Therefore, the proposed heuristics achieves a reduction of 423.7 hours respecting to the initial solution, which corresponds to the generation of local optimum solutions in each one of the machines. The expression (14) allows quantifying the total weighted disruption time, based on the fact that one of the defined objectives is to achieve the maximum equipment utilization, giving a major priority to the most loaded machines. Replacing the results of the initial solution in the expression (14), a total weighted disruption time of 257.5 h. is obtained. This performance measure, according to the final solution provided by the proposed method is reduced to188.4 h. (14) where: : Total weighted downtime. : Downtime of machine . : Weight of the machine according to its utilization level (Table 10).
m5 578.25 / 579.25 556.25 / 576.25 580.05 / 582.05 559.05
m5 342.15 / 343.15 177.05 / 197.05 343.95 / 347.95 322.9
4. Discussion Despite that the proposed method does not consider many of the situations that can occur when the production scheduling and preventive maintenance tasks are undertaken in an integrated manner, such as random failure events and their impact on manufacturing technology and even on the maintenance and production program obtained, a scheduling horizon definition which covers more than one preventive maintenance task, among others, is considered an efficient tool for scheduling within the treated study, being its extension possible to productive contexts with similar characteristics, where the machine setup time takes the significant values within the shift work. It is important to establish the objectives to the scheduling process, and the priority to achieve them, as one of the basic heuristic inputs, since the structure of the final solution obtained will depend greatly on it. In the examined case study, since it was more important for the decision maker to minimize the downtime than complying with the delivery dates, it can be observed how the major priority products ( y ) are not the first to be completed, which could be interpreted as an inconsistency in the proposed method; however, this result responds to the hierarchical structure which takes the branch and bound method used to solve the linear integer programming model. For subsequent papers it will be interesting to consider the variations that could be obtained in the solution structure if only one objective function was applied in the mathematical model, which could integrate the objectives that are expected to be optimized, assigning them different weights in the equation in order to model the hierarchical importance that the decision maker adopts for them, besides considering the
221
Díaz-Cazaña et al / DYNA 81 (187), pp. 215-222. October, 2014.
possibility of assigning different weights to the components which conform the order factors used to obtain the corrected distance measure.
[8]
5. Conclusions
[10]
In the literature, several proposals can be found focused on obtaining production order sequences and preventive maintenance tasks in an integrated manner, which include mathematical models and proper heuristic methods from the field of Artificial Intelligence, due to the complexity that this type of problem entails; however, it cannot be stated that an optimal option for its treatment has been found due to the disadvantages of all of these proposals, for instance, the fact that being so sophisticated, great efforts for its codification and implementation are needed and, in other cases, many of these methods have specific characteristics which are rarely applicable to branches from the origin problem. The heuristic method proposed in this paper allows obtaining the optimal processing sequence and preventive maintenance tasks, so the equipment setup time is minimized and the downtime as well, contributing to achieve the delivery dates compliance for the products and the maintenance plan previously established is kept. It includes the design of a mathematical model based on the general scheme of the model used in the Traveling Salesman Problem, setting up certain constraints to consider the time between preventive maintenance tasks on the machines, besides avoiding circuits, which would conform an incoherent solution for the tackled problem. The validation of the proposed method was carried out from its application in a productive context characterized by five machines and six types of products, considering a preventive maintenance task for every machine. This solution reported a reduction of 423.7 hours in the total downtime. References [1]
[2]
[3]
[4]
[5]
[6]
[7]
[9]
[11] [12]
[13]
Choi, I. and Korkmaz, O., Job shop scheduling with separable sequence-dependent setups, Annals Operational Research, 70 (0), pp. 155-170, 1997. Schutten, J., Practical job shop scheduling, Annals Operational Research, 83 (0), pp. 161-178, 1998. Cheung, W. and Zhou, H., Using genetic algorithms and heuristics for job shop scheduling with sequence-dependent setup times, Annals Operational Research, 107 (1-4), pp. 65-81, 2001. Ben-Ali, M., Sassi, M., Gossa, M. and Harrath, Y., Simultaneous scheduling of production and maintenance tasks in the job shop, International Journal of Production Research, 49 (13), pp. 3891-3918. Zhou, Y., Beizhi, L. and Jianguo, Y., Study on job shop scheduling with sequence-dependent setup times using biological immune algorithm, The International Journal of Advanced Manufacturing Technology, 30 (1-2), pp. 105-111, 2006. Wong, C.S., Chan, F.T.S. and Chung, S.H., A joint production scheduling approach considering multiple resources and preventive maintenance tasks, International Journal of Production Research, 51 (3), pp. 883-896, 2012.
R. Díaz-Cazaña, is an Industrial Engineer from the Universidad Central “Marta Abreu” de Las Villas, Cuba. He obtained the MSc. in 2008 in the aforementioned University. Production research, maintenance planning and human force planning highlighted within his main research areas. He works as Associate Professor in the Department of Industrial Engineering in the Universidad Central “Marta Abreu” de Las Villas, Cuba. Y. J. Costa-Salas, is an Industrial Engineer from the Universidad Central “Marta Abreu” de Las Villas, Cuba. He received the Dr. in Engieneer in the prestigious German Institution Otto-von-Guericke University. His research interests cover several topics of Applied Mathematics in decision making: mathematical programming and approximate algorithms for hard combinatorial problems, bio-inspired algorithms, and supply chain optimization, among others. Prof. Costa belongs to the referee staff of many well-known international journals such as European Journal of Operational Research, Expert System with Application and Decision Science. He works as Associate Professor in the Faculty of Economics at Universidad de Manizales, Colombia. W.A. Sarache-Castro, obtained his Industrial Engineer degree from the Universidad de Ibagué, Colombia. He received the PhD in the Universidad Central “Marta Abreu” de Las Villas, Cuba. His has many contributions in the research field of Logistics and Operation Management. His is Associate Professor of the Industrial Engineering Department at Universidad Nacional de Colombia, Sede Manizales, Colombia.
Naderi, B., Zandieh, M. and Fatemi-Ghomi, S., A study on integrating sequence dependent setup time flexible flow lines and preventive maintenance scheduling, Journal of Intelligent Manufacturing, 20 (6), pp. 683-694, 2009. Low, C., Ji, M., Hsu, C-J. and Su, C-T., Minimizing the makespan in a single machine scheduling problems with flexible and periodic maintenance, Applied Mathematical Modelling, 34 (2), pp. 334-342, 2010. Xu, D., Sun, K. and Li, H., Parallel machine scheduling with almost periodic maintenance and non-preemptive jobs to minimize makespan, Computers & Operations Research, 35 (4), pp. 1344-1349, 2008. Wang, S. and Liu, M., A branch and bound algorithm for singlemachine production scheduling integrated with preventive maintenance planning, International Journal of Production Research, 51 (3), pp. 847-868, 2012. Alaoui-Selsouli, M., Mohafid, A. and Najid, N.M., Lagrangian relaxation based heuristic for an integrated production and maintenance planning problem, International Journal of Production Research, 50(13), pp. 3630-3642, 2012. Machani, M. and Nourelfath, M., A variable neighborhood search for integrated production and preventive maintenance planning in multistate systems, International Journal of Production Research, 50 (13), pp. 3643-3660, 2012. Chen, Z. and Egbelu, P.J., Scheduling in a manufacturing shop with sequence-dependent setups, Robotics and Computer-Integrated Manufacturing, 5 (1), pp. 73-81, 1989. 222
An algorithm for the routing problem with split deliveries and time windows (SDVRPTW) applied on retail SME distribution activities Juan Sepúlveda a, John Wilmer Escobar b & Wilson Adarme-Jaimes c a Universidad Nacional de Colombia, Bogotá, Colombia. jcsepulvedas@unal.edu.co b Departamento de Ingeniería Civil e Industrial, Pontificia Universidad Javeriana Cali, Cali, Colombia. jwescobar@javerianacali.edu.co c Departamento de Ingeniería de Sistemas e Industrial. Universidad Nacional de Colombia. wadarmej@unal.edu.co Received: May 28th, 2014.Received in revised form: August 25th, 2014.Accepted: September 10th, 2014
Abstract In this paper, particular conditions of retail trade SMEs was analyzed, identifying not enough financial resources for using powerful tools for solve vehicle routing problem (VRP). On the other hand, in literature revised could not be identified studies about application of current approaches for solving VRP in SMEs. Additionally because of high cost, commercial software do not fit investment budget of those companies. Through a simple insertion heuristic for VRP with split deliveries and time windows (SDVRPTW), developed on an accessible technology platform like Microsoft® Excel™, was validated that SDVRPTW is an appropriate approach for solving vehicle routing problem on retail trade SMEs. Computational results show that the heuristic proposed can reduce about 50% the fleet size. Keywords: Routing, SME, Distribution, SDVRPTW, Split deliveries
Un algoritmo para el problema de ruteo de vehículos con entregas divididas y ventanas de tiempo (SDVRPTW) aplicado a las actividades de distribución de PYMEs del comercio al por menor Resumen En este artículo, se analizan las condiciones particulares de las PYMEs del comercio al por menor, identificando recursos insuficientes en el uso de herramientas robustas para la solución del problema de ruteo de vehículos (VRP). Por otra parte, en la literatura revisada no se encuentra evidencia de estudios sobre la aplicación de enfoques actuales para la solución de VRP en PYMES, y aunque existe software comercial, por su alto costo no se ajustan al presupuesto de inversión de dichas compañías. Mediante una heurística de inserción sencilla para el VRP con entregas divididas y ventanas de tiempo (SDVRPTW), implementada en una plataforma tecnológica de fácil acceso como Microsoft® Excel™, se validó que el SDVRPTW es un enfoque adecuado para abordar la problemática de ruteo de vehículos en compañías PYMEs del sector comercial al por menor. Los resultados computacionales muestran que la heurística propuesta logra reducir aproximadamente en un 50% el número de vehículos empleados. Palabras clave: Ruteo de, PYME, Distribución, SDVRPTW, Entregas divididas.
1. Introducción Las pequeñas y medianas empresas (PYMEs) generalmente atienden necesidades específicas y focalizadas de la sociedad y la industria, por lo que sus sistemas de distribución se ajustan a pequeñas cantidades, frecuencias particulares para abastecer a sus clientes y condiciones especiales de transporte. Teniendo en cuenta los mercados que las PYMEs atienden y sus niveles de producción, la cantidad de recursos que invierten para planear y controlar las actividades de distribución son limitados; asimismo la robustez e innovación de sus recursos técnicos y
tecnológicos son bajos. Planear y controlar las actividades de distribución implica necesariamente la toma de decisiones sobre el ruteo de vehículos, además de administrar personas, vehículos, tiempo y otras variables importantes respecto de cómo, cuándo, dónde y a través de qué tipo de vehículo se debe atender algún cliente en el tiempo, de la manera adecuada. Esta toma de decisiones en cualquier aspecto dentro de las compañías, principalmente esta soportada de manera intuitiva por la función de distribución, sin el uso de metodologías cuantitativas. De esta manera se obtienen resultados insatisfactorios o no
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 223-231. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.46104
competitivos afectando su rentabilidad y competitividad. Algunas metodologías ampliamente conocidas en la literatura en las cuales están basadas las actuales herramientas computacionales para planear las actividades de distribución, son complejas heurísticas y metaheurísticas compuestas por algoritmos computacionales diseñados para proveer soluciones a grandes instancias de ruteo de vehículos en grandes compañías. Ese tipo de métodos de solución fueron bien desarrollados a través de los últimos cincuenta años debido a la creciente complejidad y tamaño de las actividades de distribución alrededor del mundo, los cuales requieren para generar soluciones rápidamente y de calidad, recursos de alta tecnología y personal capacitado para administrar las plataformas y leer los resultados obtenidos. De esa manera las PYMEs tienen algunas desventajas, incluyendo la problemática de no contar con el suficiente dinero para invertir en recursos tecnológicos, ni el personal capacitado para cumplir con los requerimientos de las plataformas y sistemas. Por esta razón la metodología propuesta tiene un gran soporte para el desarrollo logístico de las PYMEs al estar al alcance de las mismas. 1.1. Actividades de distribución de las PYMEs En [21] se muestra el uso de vehículos alternativos como la bicicleta y motocicleta con tráiler en la distribución de insumos en el subsector de productos de panadería en el área urbana de la ciudad de Palmira-Valle del Cauca. En dicho estudio se encontraron 202 panaderías (registradas en la Cámara de Comercio), que tenían diferente tamaño, necesidades de insumos, frecuencia de pedidos, horarios de trabajo, entre otros. Los investigadores tomaron una muestra de dicha población de clientes (panaderías) y las caracterizaron. Entre otros aspectos relevantes, en dicho estudio se observa que el 80% de los clientes operan desde las 5:00 am hasta las 12 pm. Respecto de la demanda de los clientes, en [21] se calcula la cantidad media para cuatro de los insumos demandados por los clientes en el estudio. Asimismo se caracteriza los dos vehículos referidos arriba, determinando que la velocidad media de la motocicleta con tráiler es de 7.3 Km/h en el centro de la ciudad y de 27.7 Km/h en áreas residenciales y cuenta con una capacidad de 350 Kg. Para la bicicleta la velocidad media es de 6.7 Km/h en el centro de la ciudad y de 8.2 Km/h en áreas residenciales, y cuenta con una capacidad de carga de 100 Kg. En [14] se analiza el caso de Copacabana, el barrio más densamente poblado de Rio de Janeiro-Brasil. Se encontró que 372 establecimientos (la mayoría de ellos PYMEs) incluyendo farmacias (11%), panaderías (10%), cigarrerías (9%), restaurantes (8%), lavanderías (8%), supermercados (8%) y otros, usan bicicletas para sus actividades de distribución. En particular, 732 bicicletas son usadas, donde el 40% son bicicletas regulares, 30% son bicicletas de carga (bicicletas de doble parrilla) y el 30% triciclos. En promedio, hay dos repartidores de tiempo completo para 31 despachos al día cada uno. En el 29% de los viajes de carga hechos dentro de Copacabana y barrios cercanos (que complementaron el estudio) se realizaron despachos de hasta 25 Kg., el 17% hasta 50 Kg., el 29% hasta 100 Kg., el 21% hasta 200 Kg. y el 4% hasta 250 Kg. Uno de los hallazgos más importantes del estudio realizado por [14] fue que el 42% de los empresarios consultados respondieron que sus
Numero de publicaciones
Sepúlveda et al / DYNA 81 (187), pp. 223-231. October, 2014.
800 700 600 500 400 300 200 100 0
Año Figura 1. Publicaciones por año para la palabra clave “vehicle routing” Fuente: Elaborado por el autor.
negocios simplemente “no podrían funcionar” sin el uso de bicicletas, refiriéndose a la viabilidad económica de sus negocios. La baja rentabilidad de esas PYMEs brasileras convierte a las bicicletas en un factor crítico para la supervivencia de sus negocios, incluso para los repartidores. En [14] se destacan las ventajas del uso de bicicletas de carga frente a los vehículos motorizados (a menudo furgonetas, camioneras y camiones): Los bajos costos asociados a los vehículos (incluyendo la compra, el mantenimiento y los costos operativos). Mayor acceso para la distribución de productos. Las bicicletas de carga encuentran parqueaderos sobre la vía mucho más fácilmente que los vehículos motorizados. Incluso durante las horas pico las bicicletas superan a los vehículos motorizados atascados en el tráfico. Beneficios medioambientales por la no emisión de gases de efecto invernadero. Menores costos de infraestructura. Los vehículos motorizados causan un daño sustancial a las vías y puentes. Incremento de la seguridad por la reducción de la cantidad de camiones y furgonetas sobre las vías de la ciudad. 1.2. Métodos cuantitativos para resolver el problema de ruteo de vehículos en PYMEs Una búsqueda realizada a través de Scopus® filtrando aquellos artículos publicados entre 1971 y 2013, con la palabra “Vehicle Routing” en el título, resumen y palabras clave, arrojaron un resultado de 5301 artículos. En la Fig. 1 puede observarse un crecimiento exponencial de las publicaciones entre 1990 y 2013, evidenciando un atractivo incremental en este tema especialmente en la última década en este campo del conocimiento. A pesar del gran número de publicaciones disponibles en la literatura sobre VRP, para el caso de las PYMEs muy pocos artículos fueron encontrados. En [21] se analiza un algoritmo para el problema de ruteo de vehículos con ventanas de tiempo (VRPTW) basado en la formulación del flujo de los tres índices propuestos en [9], incluyendo un cuarto índice para las rutas. Para la solución de la problemática utilizan el software Logware® 5.0 con un método basado en el algoritmo de los ahorros de Clarke &
224
Sepúlveda et al / DYNA 81 (187), pp. 223-231. October, 2014.
Wright. El algoritmo propuesto ha sido probado en el problema de distribución de insumos en el subsector del pan en Palmira, Valle del Cauca-Colombia usando motocicletas con tráiler y bicicletas. Se han comparado tres diferentes escenarios, 1) solo bicicletas, 2) solo motocicletas con tráiler (la alternativa más económica) y 3) combinación de bicicletas y motocicletas. En dicho artículo se concluye sobre los beneficios del uso de métodos cuantitativos para la toma de decisiones en actividades de distribución. En [16] y [13] se reflexiona sobre el rol de la “computación distribuida” especialmente para PYMEs. Debido a que individualmente las PYMEs no podrían acceder fácilmente a recursos de alta tecnología ni a la experticia requerida para resolver complejos como el VRP, se busca que a través de la agrupación de varias compañías se pueda construir una plataforma colaborativa tomando ventaja de las capacidades tecnológicas de las PYMEs. De esta manera se logra generar soluciones de calidad para el VRP mediante la implementación de complejos algoritmos usados por las grandes industrias. En [12] se aplica la heurística propuesta en [9], la cual es un método del tipo “cluster first – route second”, para resolver el problema de ruteo de vehículos de una PYME que distribuye insumos de oficina. En particular, 26 clientes agrupados en tres ciudades son considerados. Las rutas desarrolladas por un solo vehículo en un horizonte de tiempo de 5 días son analizadas. Este artículo presenta una aplicación exitosa de dicha heurística. En [18] se construye un método heurístico para el VRPTW tomando en cuenta las características administrativas especiales de las PYMEs relacionadas con las capacidades tecnológicas, económicas y humanas. El algoritmo propuesto no requiere de largos tiempos de ejecución (usando tecnología de gama baja y media). El algoritmo incluye variables tradicionales y restricciones del clásico VRPTW. El método de solución desarrollado no usa procedimientos de post-optimización. El algoritmo propuesto es evaluado en instancias propuestas por [20] y es comparado con los resultados de las mejores heurísticas desarrolladas en dicha fecha. 1.3. Características del VRP en PYMEs y el SDVRPTW De manera opuesta a la realidad de algunas organizaciones y especialmente para las PYMEs, de acuerdo con [1], en muchos problemas de ruteo de vehículos la demanda de los clientes es menor o igual a la capacidad del vehículo y la demanda de cada cliente debe ser satisfecha por solo un vehículo, por lo tanto, hay un supuesto de una sola visita. En [21], se menciona que las PYMEs (especialmente aquellas dedicadas al comercio de insumos al por menor) usan vehículos de baja capacidad, incluyendo bicicletas y motocicletas, por lo que puede ocurrir que la capacidad de algunos de estos vehículos no pueda satisfacer la demanda de algún cliente en una sola visita. Debido a lo anterior, las PYMEs deberían ser capaces de fraccionar la demanda del cliente en varios vehículos con el propósito de satisfacer los requerimientos del sistema y adicionalmente, reducir el número de rutas y la distancia recorrida por los vehículos. En [22] se menciona que al
fraccionar la demanda en múltiples rutas, es posible reducir la distancia recorrida y el número de vehículos empleados. A este punto el problema de ruteo de vehículos para las PYMEs tratan con el Problema de Ruteo de Vehículos con entregas divididas (SDVRP). Sin embargo, las PYMES así como las grandes empresas deben proveer los productos a los clientes dentro de ventanas de tiempo específicas, de tal manera que el problema se puede generalizar a un Problema de Ruteo de Vehículos con entregas divididas y ventanas de tiempo (SDVRPTW). El SDVRPTW ha sido un problema poco explorado en la literatura según [3]. En [3] se menciona que la única solución heurística para el SDVRPTW ha sido propuesta en [15]. De igual manera en [3] se menciona que muy pocos artículos han sido publicados hasta la fecha. Heurísticas de construcción y mejoramiento han sido propuestas por [10] y [17], métodos exactos basados en "Branch-and-price" ha sido introducido por [11], "Branch-and-price-and-cut" propuesto por [5] y "Branch-and-price-and-cut" mejorado por [2]. En [19] se propone un algoritmo exacto "Branch-and-price" para el Problema de Ruteo de Vehículos con entregas divididas y ventanas de tiempo (SDVRPTW). El SDVRPTW puede ser definido como: Dado: Un número ilimitado de vehículos homogéneos con capacidad Q localizados en un depósito central. Un conjunto de clientes con una demanda de productos (incluso superior a la capacidad de un vehículo). Hallar las rutas que: Satisfagan la demanda de los clientes (la demanda puede ser fraccionada en varios vehículos, por lo que un cliente puede ser visitado más de una vez). Cada ruta empieza y termina en el depósito. Cada ruta no puede exceder la capacidad del vehículo asignado. Cada ruta debe cumplir las restricciones de ventanas de tiempo. La distancia total debe ser minimizada La heurística para el SDVRPTW desarrollada por [15] consiste en tres etapas. En la primera etapa se genera soluciones iniciales factibles construyendo rutas a través de la inserción del cliente más cercano al último cliente insertado en la ruta, teniendo en cuenta que el tiempo de viaje más el tiempo de espera para atender el siguiente cliente sea mínimo (como puede ser observado en la ecuación (1)). Si la demanda del último cliente excede la capacidad del vehículo, la demanda es fraccionada. En la segunda etapa realiza una búsqueda tabú a partir de la solución inicial para mejorar las rutas y en la tercera etapa se ejecuta un proceso de post-optimización.
225
′
(1)
donde: es el j-ésimo vecino no ruteado más cercano al i-ésimo cliente es el tiempo de viaje desde el i-ésimo cliente hasta el j-ésimo cliente es el inicio de la ventana de tiempo del i-ésimo cliente es el inicio del tiempo de servicio del vehículo en el iésimo cliente
Sepúlveda et al / DYNA 81 (187), pp. 223-231. October, 2014.
′ es el conjunto de clientes no ruteados A pesar de que los métodos de solución anteriormente descritos han sido desarrollados con éxito para el SDVRPTW, son complejos para las habilidades y conocimientos del personal de las PYMEs y adicionalmente su robustez no es necesaria para los requerimientos de las PYMEs del comercio al por menor. Por lo anterior, un algoritmo sencillo, eficiente y fácil de implementar podría satisfacer las necesidades de ruteo de estas compañías. 2. Datos y métodos 2.1. Caracterización y parametrización del caso de estudio El grupo de investigación “SEPRO – Logística” de la Universidad Nacional de Colombia desarrolló bajo un esquema de co-financiación con el Departamento Administrativo de Ciencia, Tecnología e Innovación “COLCIENCIAS” una propuesta metodológica para la administración logística de las actividades de abastecimiento/distribución para PYMEs en Colombia, del cual diferentes trabajos de tesis de pregrado, maestría y doctorado han sido derivados. Para dicho proyecto, un conjunto de empresas de diferentes sectores económicos (entre ellos, comercio al por menor, cosméticos, agroindustria y artes gráficas) fueron seleccionadas para su caracterización y para la generación de estrategias o propuestas que ayuden a fortalecer las actividades logísticas y de almacenamiento. Se ha seleccionado el barrio “La Candelaria” como referente en este estudio, donde se ha realizado un estudio de geo-referenciación y caracterización de hábitos de compra de Hoteles y Restaurantes, establecimientos que se constituían como clientes potenciales de las PYMEs de comercio al por menor seleccionada para el estudio realizado por SEPRO. Las empresas de comercio al por menor de productos perecederos e insumos localizadas en el barrio “La Candelaria” de la ciudad de Bogotá, seleccionadas para la investigación abastecen principalmente restaurantes, cafeterías, fruterías y hoteles. De acuerdo a la investigación mencionada, dichas empresas desean maximizar el uso de transportes alternativos, reducir el impacto ambiental y social de sus actividades de distribución, mejorar sus debilidades en el ordenamiento territorial y mejorar el uso del espacio de almacenamiento así como en unitarización de la carga, entre otras. Para la caracterización del caso de estudio se delimitó el área geográfica del barrio “La Candelaria” de acuerdo a los límites propuestos por el Plan de Ordenamiento Territorial. En particular se geo-referenciaron 35 puntos de demanda (Ver Fig. 2) como parámetros del modelo de ruteo, y se diseñaron y aplicaron instrumentos de recolección de información de hábitos de compra a 23 (31,5%) de los 73 establecimientos reportados en la base de datos de la Asociación de Restaurantes de la Candelaria (ARCA). La información relacionada con los hábitos de compra de los clientes ha sido analizada estadísticamente para caracterizar el caso de estudio y para definir los parámetros del modelo. El 69,6% de los establecimientos encuestados son restaurantes, el 17,4% son hostales y el 13% son hoteles.
Figura 2. Localización del depósito y de los puntos de demanda georeferenciados para el ruteo Fuente: Google® Maps.
Su capacidad promedio es de 58 personas, el establecimiento con menor capacidad es de 24 personas y el de mayor capacidad es de 150. El promedio de tiempo en el mercado para los establecimientos encuestados es de aproximadamente 7 años. El 60,9% de las instalaciones en que operan los establecimientos encuestados son arrendados. El 50% de los establecimientos encuestados mantiene intercambio de información con sus proveedores, de éstos el 81,8% es a nivel de inventarios y el 18,2% restante con base en las ventas realizadas, lo que permite inferir que se aplican estrategias de manejo de inventario por parte del vendedor (Vendor Managed Inventory - VMI). La calidad del producto, seguida del precio son las variables prioritarias por los establecimientos encuestados al momento de seleccionar sus proveedores. De los establecimientos encuestados el 50,8% mantiene una frecuencia de compra semanal y el 51,7% realiza compras vía telefónica para productos perecederos. La demanda promedio de la muestra fue de 67,4 Kg con una desviación estándar de 58,9 y el Lead Time para la recepción de productos alimenticios solicitados al proveedor es en promedio de 1,13 días. 2.2. Formulación matemática La primera formulación del SDVRPTW ha sido propuesta por [10], quienes tomaron contribuciones del SDVRP realizada por [7,8] y del VRPTW introducida por [6]. Considerando las recientes contribuciones de [22] y [15], la siguiente formulación para el SDVRPTW es analizada: minimizar z(x)=
(2)
sujeto a
226
(3) (4)
Sepúlveda et al / DYNA 81 (187), pp. 223-231. October, 2014.
su demanda puede ser satisfecha hasta por dos rutas/vehículos. El último supuesto tiene en cuenta que un cliente no estará dispuesto a atender más de dos vehículos para cumplir sus requerimientos.
(5) (6)
(7)
2.3. Heurística de inserción Para resolver el SDVRPTW en las PYMEs analizadas en este trabajo, se propuso una heurística inicial de inserción y un algoritmo de post-optimización integrado con un algoritmo de asignación de vehículos. Los algoritmos construidos en este estudio fueron modelados con el propósito de validar que el enfoque del SDVRPTW es el tipo de problema que se ajusta a los requisitos de las PYMEs bajo estudio y que los métodos cuantitativos son una herramienta poderosa para la toma de decisiones. El algoritmo propuesto no busca competir con los mejores resultados obtenidos en la literatura para el SDVRPTW.
(8) (9) (10) (11) (12) donde:
1,
á 0,
é
2.3.1. Algoritmo de solución inicial
es el costo (distancia) de viajar desde el i-ésimo cliente al j-ésimo cliente es la cantidad demandada satisfecha del i-ésimo cliente por la k-ésima ruta es la demanda del i-ésimo cliente es el tiempo de servicio de la k-ésima ruta en el jésimo cliente es el tiempo de viaje desde el i-ésimo cliente al jésimo cliente es el inicio de la ventana de tiempo del i-ésimo cliente es el fin de la ventana de tiempo del i-ésimo cliente es la capacidad de los vehículos es un número muy grande La función objetivo es descrita en la ecuación (2) la cual busca minimizar la distancia recorrida por los vehículos. La ecuación (3) permite la conservación del flujo en las rutas; la ecuación (4) garantiza que la demanda de cada cliente sea satisfecha; la ecuación (5) define que la cantidad de productos distribuidos no exceda la capacidad del vehículo Q; la ecuación (6) establece que un cliente es servido por un vehículo que lo visite; las inecuaciones (7)-(9) establecen que los vehículos deben llegar a cada cliente dentro de su ventana de tiempo, no antes o después de dicho intervalo de tiempo. La ecuación (10) define la no negatividad de las variables empleadas y la ecuación (11) define el inicio del tiempo de servicio en el depósito con el valor del inicio de la ventana de tiempo (punto de inicio para cada ruta). Para el caso de las PYMEs, considerando el caso de estudio y con el propósito de desarrollar un método de solución fácil de interpretar, fácil de mantener y económico de implementar, en este trabajo se harán algunos supuestos sobre la formulación matemática original: Solo hay un tipo de vehículos (p.e. bicicletas). Se pueden crear un número ilimitado de rutas con el objetivo de satisfacer los requerimientos. Un cliente puede ser visitado hasta dos veces, por lo que 1
Velocidad de los vehículos: Permite calcular el tiempo de viaje entre dos nodos.
El algoritmo propuesto tiene en cuenta el criterio de selección de introducido en [15] para las inserciones de vecinos. Para la inserción de un nuevo cliente en una ruta en construcción, se evalúa que el vehículo pueda regresar al depósito dentro de la ventana de tiempo del depósito y que si un cliente ya fue atendido y tiene un remanente de demanda insatisfecha, la cantidad de productos a distribuir a dicho cliente en el proceso de inserción en la actual ruta en construcción debe satisfacer el remanente de demanda total de dicho cliente; todo esto con el ánimo de usar toda la capacidad disponible de los vehículos y satisfacer las necesidades de los clientes con no más de dos vehículos. Begin Solicitar el ingreso de los parámetros al usuario: , 1 y 2 Calcular la matriz de distancias entre todos los clientes Cargar en un arreglo las ventanas de tiempo de cada cliente Cargar en un arreglo la demanda de cada cliente Verificar que cada cliente pueda rutearse: y Do Iniciar la ruta k desde el depósito. Definir Definir q(k) = Q Hallar el vecino j más cercano desde i de acuerdo a la ecuación (1) que satisface las ventanas de tiempo (incluyendo )y Añadir j a la ruta k, y definir Do
If
then For cada cliente no ruteado verificar
2 Tiempo de servicio: Valor constante para todos los clientes. Se refiere al tiempo consumido atendiendo al cada cliente en el nodo (tiempo de descargue).
227
Sepúlveda et al / DYNA 81 (187), pp. 223-231. October, 2014.
y
If
3
then
Else End if Next cliente
End if Añadir el cliente más cercano que satisface los anteriores tres criterios While Call Algoritmo-de-Post-optimización Verificar si todos los clientes han sido ruteados While AllRouted = False Call Algoritmo-de-Asignación End 2.3.2. Algoritmo de post-optimización Construidas todas las rutas necesarias para satisfacer los requerimientos de los clientes, el algoritmo de postoptimización combina aleatoriamente cada posición de cada ruta buscando una mejor solución que minimice la distancia total recorrida en cada ruta y si la encuentra, almacena esa nueva secuencia. Begin Cargar en un arreglo todos los clientes de la ruta actual Calcular la distancia total recorrida de la ruta actual Do Aleatorizar la secuencia de ruteo de la ruta actual Calcular la nueva distancia total recorrida If nueva distancia total recorrida actual distancia total recorrida then For todos los clientes de nueva ruta, verificar cumplimiento de ventanas de tiempo y Next cliente en la nueva ruta If las restricciones de ventanas de tiempo se cumplen then Re-organizar la secuencia de ruteo Actual secuencia de ruteo = Nueva secuencia de ruteo End if End if While End
de tiempo de cada cliente visitado en la ruta añadida deben ser satisfechas y el criterio de selección de la ecuación (1) también es tenido en cuenta, añadiendo la siguiente ruta con el mínimo tiempo de espera. De esta manera se itera hasta que todas las rutas hayan sido asignadas a un vehículo. Begin Do Iniciar un vehículo desde el depósito Tiempo inicial de viaje = Tiempo de inicio de ventana de tiempo del depósito Do For todas las rutas no asignadas Evaluar los siguientes criterios: Seleccione la ruta que implique el menor tiempo de espera para el vehículo actual Verifique el cumplimiento de ventanas de tiempo para la nueva ruta añadida al vehículo actual Calcular la nueva distancia total recorrida para el vehículo Verificar si el vehículo puede regresar al depósito antes de finalizar la ventana de tiempo del depósito If todos los criterios anteriores son verdaderos then Añadir la ruta seleccionada al vehículo actual Actualizar variables Else End if Next ruta no asignada While Verificar que todos los vehículos hayan sido asignados While todas las rutas no hayan sido asignadas aún End 3. Resultados El modelo ha sido ejecutado en una computadora 1.3 GHz para 35 puntos de demanda, con los siguientes parámetros generales del modelo: Velocidad de los vehículos: 6,7 Km/h (velocidad media de bicicletas de carga) Capacidad de carga de los vehículos: 100 Kg (capacidad de bicicletas de carga) Tiempo de servicio: 6 min. Tres escenarios fueron ejecutados con la heurística propuesta para evaluar la validez de la hipótesis que el enfoque SDVRPTW se ajusta mejor que el enfoque VRPTW a las necesidades de las PYMEs para el ruteo de vehículos. Las ventanas de tiempo se ubicaron en un horizonte de planeación entre las 4 AM y 10 PM. 3.1. Escenario VRPTW (demanda menor a capacidad)
2.3.3. Algoritmo de asignación de vehículos Finalmente, el algoritmo propuesto asigna cada ruta creada a un vehículo teniendo en cuenta que el tiempo de servicio de cada ruta que se añada al vehículo no tome más tiempo que la ventana de tiempo del depósito. Las ventanas
En este escenario la demanda fue reducida a la mitad y no se permite despachos fraccionados. El algoritmo propuesto tomó 2.328 segundos para obtener la solución, dos vehículos fueron necesarios para satisfacer
3 Si la demanda de un cliente ya ha sido fraccionada, Holg(j) = True, sino Holg(j) = False. La demanda de un cliente puede ser satisfecha por hasta 2 vehículos.
228
Sepúlveda et al / DYNA 81 (187), pp. 223-231. October, 2014. Tabla 1. Asignación de rutas y secuencia de ruteo para el escenario VRPTW (demanda<capacidad) No. Vehículo No. Ruta 1 6 8 1 9 11 10 2 4 5 2 3 7 Fuente: Elaborada por el autor
todos los requerimientos de los clientes. Once rutas fueron creadas y la distancia recorrida fue de 22.269 kilómetros. La Tabla 1 presenta la asignación de rutas y la secuencia de ruteo de los vehículos empleados. 3.2. Escenario SDVRPTW (demanda < capacidad) En este escenario la demanda fue reducida a la mitad, y las entregas divididas fueron permitidas. Este escenario permite comparar el enfoque VRPTW con el enfoque SDVRPTW cuando la demanda no excede la capacidad de los vehículos. El algoritmo tardó 2.086 segundos para obtener la solución, solo un vehículo fue necesario para satisfacer los requerimientos de los clientes. Diez rutas fueron creadas y la distancia recorrida fue de 22.383 kilómetros. La Tabla 2 presenta la secuencia de ruteo del vehículo usado y la Tabla 3 muestra los clientes a los cuales se les fraccionaron la demanda y las rutas en que fueron fraccionadas. Tabla 2. Asignación de rutas y secuencia de ruteo para el escenario SDVRPTW (demanda < capacidad) No. Vehículo No. Ruta 1 2 3 4 5 1 6 7 8 9 10 Fuente: Elaborada por el autor
Tabla 3. Clientes con demanda fraccionada para el escenario SDVRPTW (demanda < capacidad) Cliente Rutas Quinua y Amaranto 2y3 Hostal la quinta 5y6 Hotel Platypus 3y4 La Bruja 1y2 Hostel Sue Candelaria 4y5 Fuente: Elaborada por el autor
3.3. Escenario SDVRPTW (demanda > capacidad) En este escenario la demanda es considerada en su totalidad, y las entregas divididas son permitidas. En este caso, la demanda excede la capacidad de los vehículos para algunos clientes, por lo que si las cargas divididas no son permitidas, el problema no tendría solución factible. Al algoritmo le tomó 135.606 segundos para obtener la solución, solo un vehículo fue necesario para satisfacer los requerimientos de los clientes. Veinte rutas fueron creadas y la distancia recorrida fue de 37.154 kilómetros. La Tabla 4 presenta la secuencia de ruteo para el vehículo empleado, mientras que la Tabla 5 muestra aquellos clientes a quienes la demanda fue fraccionada y las rutas que satisficieron dichas necesidades. Tabla 4. Asignación de rutas y secuencia de ruteo para el escenario SDVRPTW (demanda > capacidad) No. Vehículo No. Ruta 1 2 3 5 7 6 8 4 9 10 11 1 13 14 15 12 21 16 17 20 19 18 Fuente: Elaborada por el autor
Tabla 5. Clientes con demanda fraccionada para el escenario SDVRPTW (demanda > capacidad) Cliente Rutas Hostal destino nomada 17 y 18 Hotel internacional 9 y 10 Quinua y amaranto 6y8 Andante ma non tropo 14 y 15 La scala 19 y 20 Hostal la quinta 11 y 13 Hostal aventureros 1y3 Café de la peña 12 y 13 Fulanitos 18 y 19 Hostal crankycroc 10 y 11 El carnero 2y3 Hotel platypus 7y8 La bruja 16 y 17 Hostal el baluarte 8y9 Hostal martinikñ9 13 y 14 Hotel muisca 5y6 Hotel sue candelaria 15 y 16 El gato gris 3y4 Enchiladas 4y5 Fuente: Elaborada por el autor
229
Sepúlveda et al / DYNA 81 (187), pp. 223-231. October, 2014. Tabla 6. Resumen de resultados para los tres escenarios evaluados Vehículos Distancia Tiempo Escenario usados recorrida [km] computacional [s] VRPTW (d<Q) 2 22.269 2.328 SDVRPTW (d<Q) 1 22.383 2.086 SDVRPTW (d>Q) 1 37.154 135.606 Fuente: Preparada a partir de los resultados.
4. Conclusiones A pesar de que el ruteo de vehículos ha sido un tema ampliamente estudiado en la literatura desde hace más de 20 años, los estudios recientes se han enfocado en la solución de problemas con características particulares propias de compañías emergentes, las cuales requieren técnicas para planeaciones de procesos de distribución complejas, con un gran número de clientes y con diversos vehículos. Hoy en día existen diversas variantes del VRP así como métodos de solución para resolverlos, aunque con los mercados cambiantes y las condiciones de comercio de la última década, los nuevos métodos de solución responden a las necesidades de las grandes compañías que tienen suficientes recursos para invertir y tienen complejos sistemas de distribución. De igual manera, las PYMEs tambien están expuestas a los mercados cambiantes y están sujetas a una agresiva competencia. Incluso los mercados locales son sumamente competitivos. Las PYMEs Colombianas del sector al comercio al por menor en general usan bicicletas y vehículos pequeños para las actividades de distribución, su planta de personal es de menos de 50 personas y dicho personal no cuenta con suficientes habilidades computacionales y analíticas para administrar los complejos modelos de solución expuestos, entre otras debilidades. Así, las PYMEs no cuentan con suficientes métodos de solución a la mano, algoritmos y aplicaciones que tengan en cuenta esas características especiales, restricciones y debilidades de las PYMEs, que pudieran habilitarlas para sobrevivir, fortalecer sus capacidades e incrementar su competitividad. A través del uso de métodos cuantitativos y extendidas herramientas para la toma de decisiones, no solo para las actividades de distribución, las PYMEs podrían reaccionar más rápidamente y de manera más precisa a cualquier cambio en las políticas externas y en las necesidades del mercado que pudieren afectar el desempeño de las empresas y usar de una mejor manera cada recurso que tenga la compañía. Desarrollando y ofreciendo a las PYMEs herramientas técnicas que apoyen las actividades de distribución, comerciales, operativas y financieras de las PYMEs, estas podrían mejorar sus márgenes de rentabilidad y generar empleo, desarrollo y bienestar para las ciudades y regiones de los países en vías de desarrollo. Considerando la variante del problema de ruteo de vehículos SDVRPT le proporciona beneficios a las PYMEs en términos de uso de recursos, como puede ser visto en la Tabla 6. Usando el enfoque del SDVRPTW se reduce el número de vehículos usados para satisfacer la demanda de los clientes (Primera función objetivo) y permite usar vehículos
con menor capacidad que la demanda de los clientes a través de su fraccionamiento. El método desarrollado en este estudio procura resolver el problema de ruteo de vehículos para las PYMEs con un enfoque no considerado aún en dicho tipo de empresas, dividiendo la demanda de los clientes hasta en dos lotes, usando una heurística de inserción sencilla con un algoritmo de post-optimización primitivo (aleatorizando el orden inicial del conjunto de clientes) y usando una plataforma tecnológica de fácil acceso como Microsoft® Excel™, fácil de entender, fácil de mantener, fácil de implementar y fácil de mejorar. La heurística presentada (y su despliegue en MS Excel™ que contiene una interfaz de usuario amigable y una representación gráfica de las rutas en Google® Maps) son del tipo de herramientas que las PYMEs deberían emplear para la toma de decisiones, que les ayuden a resolver problemas combinatoriales en segundos, respondiendo a problemas de la vida real en cortos periodos de tiempo con cierto grado de precisión. Referencias [1]
[2]
[3] [4] [5] [6] [7] [8] [9] [10] [11] [12]
[13]
[14]
230
Archetti, C., Savelsbergh, M. and Speranza, M., An optimizationbased heuristic for the split delivery vehicle routing problem. Transportation Science, 42 (1), pp. 22-31. 2008. DOI: 10.1287/trsc.1070.0204 Archetti, C., Bouchart, M. and Desaulniers, G., Enhanced Branchand-Price-and-Cut for vehicle routing with split deliveries and time windows. Transportation Science 45 (3), pp. 285-298, 2011. DOI: 10.1287/trsc.1100.0363 Archetti C. and Speranza M., Vehicle routing problems with split deliveries. International Transactions in Operational Research 19, pp. 3-22, 2012. Dantzig G. and Ramser R., The truck dispatching problem, Management Science, 6, pp. 80-91. 1959. DOI: 10.1111/j.14753995.2011.00811.x Desaulniers G., Branch-and-Price-and-Cut for the split delivery vehicle routing problem with time windows. Operations Research, 58, pp. 179-192, 2010. DOI: 10.1287/opre.1090.0713 Desrochers M., Lenstra J., Savelsbergh, M. and Soumis F., Vehicle routing with time windows: Optimization and approximation. Vehicle routing: Methods and studies. Elsevier, New York. 1988. Dror, M. and Trudeau P., Savings by split delivery routing. Transportation Science, 23 (2), pp. 141-145, 1989. Dror, M. and Trudeau P., Split delivery routing. Naval Res. Logistics, 37, pp. 383-402. 1990. Fisher. M. and Jaikumar, R., A generalized assignment heuristic for the vehicle routing problem. Networks, 11, pp. 109-124. 1981. Frizzel, P. and Giffin, J., The split delivery vehicle scheduling problem with time windows and grid network distances. Computers and Operation Research, 22, pp. 655-667, 1995. Gendreau, M., Dejax, P., Feillet, D. and Guegen, C., Vehicle routing with time windows and split deliveries. Technical Report, 2006-851, Laboratoire Informatique d' Avignon, 2006. Guerrero, A., Pérez, R. and Olivares, E., Un caso logístico del problema de ruteo vehicular múltiple m-VRP resuelto con la heurística de Fisher & Jaikumar. 4to Taller Latino Iberoamericano de Investigación de Operaciones 2011, Acapulco, Guerrero, México, 2011. Guimarans, D., Herrero, R., Riera, D., Juan, A. and Ramos, J., Combining constraint programming, Lagrangian relaxation and probabilistic algorithms to solve the vehicle routing problem. In Proceedings of the 17th International RCRA workshop (RCRA 2010): Experimental Evaluation of Algorithms for Solving Problems with Combinatorial Explosion Bologna, Italy, 2010. Hagen, J., Lobo, Z. and Mendoça, C., The benefits of cargo bikes in Rio de Janeiro: A case of study. 13th World Conference on Transport Research, Rio de Janeiro-Brazil. 2013.
Sepúlveda et al / DYNA 81 (187), pp. 223-231. October, 2014. [15] Ho, S. and Haugland, D., A tabu search heuristic for the vehicle routing problem with time windows and split deliveries. Computers and Operations Research, 31, pp. 1947-1964, 2004. DOI: 10.1016/S0305-0548(03)00155-2 [16] Juan, A., Marull, J., Jorba, J., Hester, J., Marquès, J. and Vilajosana, X., Using agent-based simulation and distributed computing to solve vehicle routing problems. Integrationsaspekte der Simulation: Technik, Organisation und Personal GertZülch & Patricia Stock (Hrsg.) Karlsruhe, KIT Scientific Publishing, 2010. [17] Mullaseril, P., Dror, M. and Leung, J., Split-delivery routing in livestock feed distribution. Journal of the Operational Research Society, 48, pp. 107-116, 1997. [18] Nieto, A., García, A. y Crespo, D., ELOCONS un algoritmo de construcción de rutas eficiente para la pequeña y mediana empresa de distribución, Dyna Ingeniería e Industria, 87 (2), pp. 222–228, 2012. DOI: 10.6036/4360 [19] Salani, M. and Vacca, I., Branch and Prlice for the vehicle routing problem with discrete split deliveries and time windows. European Journal of Operational Research, 213, pp. 470-477, 2011. DOI: 10.1016/j.ejor.2011.03.023 [20] Solomon, M., Algorithms for the vehicle routing and scheduling problem with time window constraints. Operations Research, 35, pp. 234-265, 1987. [21] Arango-Serna, M., Adarme-Jaimes, W. and Zapata-Cortes, J., Commodities distribution using alternative types of transport. a study in the colombian bread SME's. DYNA, 77 (163), pp. 222-233. 2010. [22] Wilck, J. and Cavalier, T., A construction heuristic for the split delivery vehicle routing problem. American Journal of Operations Research, 2, pp. 153-162, 2012 J.C. Sepúlveda, es Ingeniero Industrial de la Universidad Nacional de Colombia, MSc (c) en Ingeniería - Ingeniería Industrial en la línea de investigación de logística - distribución. Miembro del Grupo de Investigación SEPRO - Logística. Profesional con experiencia en optimización y mejora de procesos productivos, lean manufacturing, sistemas de gestión de la calidad y gerencia de proyectos. J.W. Escobar, es Dr. en Investigación de Operaciones de Universidad de Bologna, Italia. Docente de programas de Pregrado y Posgrado de la Pontificia Universidad Javeriana y de la Universidad del Valle, Cali Colombia. Sus intereses de investigación incluyen el diseño e implementación de efectivos algoritmos exactos y heurísticos para problemas de optimización combinatoria. W. Adarme-Jaimes, es Ing. Industrial, Esp. en Gerencia de la Producción, MSc. en Ingeniería, Énfasis en logística, PhD en Ingeniería Industria y Organizaciones – Énfasis en logística. Es Profesor en la Facultad de Ingeniería de la Universidad Nacional de Colombia - Sede Bogotá, Colombia, director del Grupo de Investigación en Logística Sociedad, Economía y Productividad (SEPRO) de la misma universidad. Ha dirigido en los últimos diez años seis investigaciones sobre logística para diferentes sectores de la economía colombiana, con publicación de resultados en revistas indexadas (nueve artículos en los últimos cinco años). Es consultor en política pública sobre logística y sistemas de abastecimiento para los Ministerios de Comercio, Transporte y Salud de Colombia y para la Alcaldía mayor de Bogotá. Director de 14 tesis de Maestría y tres tesis de Doctorado en Logística. Ponente en congresos internacionales sobre logística en Alemania, México, Panamá, Venezuela y Colombia.
231
Reliability in urban freight distribution: A Markovian approach Miguel Gastón Cedillo-Campos a, José Luis de la Riva-Canizales b, Alfredo Bueno-Solano c, Jesús Gonzalez-Feliu d & Jorge Luis García-Alcaraz e a, c
Mexican Institute of Transportation, Querétaro, México. gaston.cedillo@mexico-logistico.org, abueno@imt.mx b COMIMSA – CONACYT (National Council of Science and Technology), Saltillo, Coahuila, México. d Centre National de la Recherche Scientifique, Lyon, France. jesus.gonzalez-feliu@cnrs.fr e Institute of Engineering and Technology – Autonomous University of Ciudad Juarez, Ciudad Juarez, México. jorge.garcia@4uacj.mx Received: May 28th, 2014.Received in revised form: August 25th, 2014.Accepted: September 10th, 2014
Abstract A key element in assessing reliability in urban freight distribution (UFD) is the probability density function (PDF) of the variables that characterize the performance of the distribution routes. This article presents a method for modeling the PDF with an approach based on the Markov models, under the assumption that the present status of reliability of a route depends only on its immediate previous state. Currently, the PDF is obtained directly from the field, therefore an analytical model that provides certainty to the analysis is essential. The results are applicable both to the design of routes and operation of the same process. The originality of this work is based on the development of a methodological procedure to assess the reliability of the components of a path, complementary to current methodologies to calculate network reliability. Keywords: Reliability; Markov models; urban freight distribution; logistics; supply chain.
Confiabilidad en distribución urbana de mercancías: Un enfoque Markoviano Resumen Un elemento importante en la evaluación de la confiabilidad de la distribución urbana de mercancías (DUM) es la función de densidad de probabilidad (FDP) de las variables que caracterizan el desempeño de las rutas de distribución. En este artículo se presenta un método para modelar la FDP con un enfoque basado en los modelos de Markov, bajo el supuesto de que la situación actual de la confiabilidad de una ruta sólo depende de su estado inmediato anterior. Actualmente, la FDP se obtiene de forma empírica, por lo tanto, un modelo analítico que proporcione seguridad en el análisis es esencial. Los resultados son aplicables en el diseño de rutas y el funcionamiento del mismo proceso. La originalidad de este trabajo se basa en el desarrollo de un procedimiento metodológico para evaluar la confiabilidad de los componentes de una ruta, la cual es complementaria a las metodologías actuales para calcular confiabilidad en redes. Palabras clave: Confiabilidad; modelo de Markov; distribución urbana de mercancías; logística; cadena de suministro.
1. Introduction An urban freight distribution system with an incorrect design can sometimes cause an increase of up to 5% on the invoiced value of the goods, and also degrades the quality of service expected by the client [1,2]. Companies benefit from the important advantages of high agglomeration of production and consumption activities located within cities, (considered as entities with a greater influence in the dynamism of transport and its development). But at the same time, this means important challenges imposed by extern factors such as congestion of traffic and other barriers for the effective distribution of its products [3-6]. In this sense, the urban freight distribution (UFD)
must at the same time adapt to new forms of consumption, and also adjust to the urban territory’s transformations that put new barriers to logistics operations [7-9]. Requirements of an agile coordination of human, material and financial resources at the UFD require establishing a wellstructured plan of logistics operations. Otherwise, there is a risk of unexpected costs that would not only be reflected in the final price of a product, but also in a poor exposure and lost sales. Wishing to guarantee an effective logistics performance, a key factor is to know the level of operation of the system both in stable and uncertain states [10]. In fact, according to [11]: "in addition to factors such as time and cost, logistics performance increasingly depends on the reliability and predictability of the
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 232-239. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.46105
Cedillo-Campos et al / DYNA 81 (187), pp. 232-239. October, 2014.
supply chain." So "the reliability of the supply chain is one of the most important aspects in logistics performance". Reliability in UFD is considered as: "the level of stability in the quality of the service offered by a system of routes" [12]. It is also known as distribution system robustness [13]. In this regard, a key element in assessing network reliability is the probability density function (PDF) of the variables that characterize the performance of the distribution routes, which is currently calculated empirically. This is why an analytical model is necessary. This research contributes to the body of knowledge in the area, by offering a methodology for evaluating the reliability of the components of a distribution route, modeling the PDF on the basis of the Markov models. Accordingly, this contribution assumes that the current state of reliability of a route depends only on its immediate previous state. In this context, two main problems were identified to be solved for the analysis of reliability of a UFD network: 1) to determine its reliability and vulnerability to ensure an operational level of service; and 2) dynamically re-design the system of distribution routes considering predetermined restrictions regarding its set of nodes and edges. Given the scope of the topic, this article focuses on the resolution of the first issue. That is, with the objective of evaluating the reliability of the components of a UFD route, a modeling method of the PDF based on the theory of Markov models is exposed. This document is structured as follows. In the following section 2, a critical analysis of previous approaches, and evaluation techniques reported in the literature is presented. Section 3 outlines the methodology used, emphasizing the phase of application of the Markov models. Section 4 presents the application of this methodology to a case study. Finally, section 5 presents relevant conclusions, as well as future research work. 2. Background In the context of commercial distribution, the UFD activity is considered as the set of processes performed through the distribution chain, from the origin until the reception by the customer within an urban area [14]. In this sense, looking for improved distribution systems, decision makers are not only facing the definition of the location of warehouses and sale points, transportation, inventory level, but also the selection of distribution routes, all under a set of given restrictions [7]. In this regard, different strategies to improve the urban freight distribution have been implemented in recent years, among them: i) improvements in the processing of orders and customer service; ii) processes and operations of reverse logistics; iii) implementation of logistics operators with dedicated fleets; iv) location of logistics support in logistics centers, many-to-many delivery, multiple shipments, among others [11,15]. All these have been originated and modified routing design methods. The literature reports three classes of methods: 1) exact; 2) heuristics; and; 3) meta-heuristics methods [16]. 2.1. Networks reliability The analysis of network reliability has commonly focused on different aspects of the distribution and transport, such as: i)
the reliability of connectivity (or terminal reliability, which means that distribution can be successfully completed between each pair of nodes); ii) reliability of the travel time (including the transportation of goods with success at a given time); and iii) the reliability of capacity (which considers the distribution adapted to a demand of traffic or load). All of them are associated with probabilities of occurrence of each event [17-18]. Another important aspect is also the vulnerability of networks. This latest is related to observable consequences in the distribution due to any failure or disruption on routes regardless of its probability of occurrence. These two concepts (reliability and vulnerability) are differentiated when considering the reliability as the operability level of the system, and vulnerability as the consequences of the nonoperability [19]. Among the consequences of a distribution system with a low reliability, it is possible to observe: i) increase in the transit time of the goods; ii) loss of opportunity value; iii) total or partial default order; and iv) need to implement crisis plans. All these generate socioeconomic costs that were not previously considered. 2.2. Reliability evaluation methods This paper defines a measure of reliability of a distribution system based on its topology and on the reliability of its components. One of the important elements to assess network reliability is the stage of defining the parameters or reliability indicators. The main common indicators are: 1) frequency of interruption, which indicates how many times a route has been disrupted over a period of time; 2) unavailability of the network, which measures the total time of disruption for a route over a period of time; 3) duration of disruption; [20]. However, another important indicator is the probability of failure, for which there are analytical methodologies and simulations. Among those with a focus on simulation, Monte Carlo technique is used. It should be noted that, metaheuristics and genetic algorithms techniques are also used. On the other hand, the focus of analytical methods, include: i) techniques of frequency and duration; ii) minimum-cut method; iii) fault tree analysis; iv) Markov models; v) Boolean models; vi) the generating function [21]. However, these methodologies require the reliability value of each component of the route to determine the reliability of the whole route. All of them lack a procedure for evaluation; however, the Markov models were identified as an important base to measure the reliability of the every component through its PDF. Markov models are characterized by a logical approach to model complex systems and sequential events [22]. Since our research assumed that the current state of reliability of a route only depends on its immediate previous state, an approach based on the Markov models was appropriate. At the same time, we considered that taking samples of the reliability state of a route, at different moments, and if these samples are related to some indicators, it is then possible to make a dynamic analysis (feature which is lacking in other methods). A Markov model applied to the subject of distribution is defined as a stochastic model of evaluation of
233
Cedillo-Campos et al / DYNA 81 (187), pp. 232-239. October, 2014.
reliability, associated with one of the default states of operation or not [22,23]. However, it is important to note that Markov models allow obtaining the probability that the route resides in any of its possible states, but not the probability of failure or disruption at some certain time of operation.
Table 1. Classification of Markov models [20]
3. Methodology
Source: The authors
The methodology oriented to reliability assessment here exposed is composed by 3 stages: i) Evaluation of reliability factors; ii) Markov models; and iii) Evaluation of the path reliability. 3.1. Evaluation of reliability factors The first phase determines the variables to consider as factors of reliability of a route. Based on the approach of reliability analysis (connectivity, travel time or capacity), these factors are specified by considering as route failure any incident or disruption that affects the optimal or expected operation of the route. Among some of the variables observed are: i) time; ii) reaction capacity; iii) cost of operation by unit transported; iv) effective deliveries; v) load capacity, etc. For each unit of time during which the measurements of the reliability factors are carried out, an indicator, called reliability indicator, must represent them. To integrate this indicator, we must linearly combine all the study factors that consider as coefficients the importance weightings of each variable. Furthermore, to determine the reliability of the elements or nodes that make up the distribution route, it was due to obtain an indicator of reliability for each of them.
States
Time of observation
Discrete Continuous
Discrete Discrete Markov chain Markov chain continues
Continuous Discrete Markov process Diffusion process
First, it is important to confirm that the phenomenon is consistent with a behavior of Markov chains. This way, based on the frequency of measurements of the variables of the process and the classification of the possible states of the process, the type of Markov model is stated [20,22]. Another important feature of the model is its homogeneity, i.e., the probability that the process currently in one of the states changes to another particular state is the same, regardless of the time in which the variables of the phenomenon are evaluated [19,22]. c) Determining the probabilities of transition The probabilities of transition between states indicate the probability of the process X to go from a state i to state j for each unit of time n [23], which are expressed as follows: (1) Then, for the case in which the probability of the process of going from state i to state j for k units of time is needed, the expression to compute it is [24]: (2)
3.2. Markov models In a second phase, Markov models were applied to estimate the reliability of each item (node) of the route. This was based on the measurements of the reliability factors, as well as on the reliability indicator [24]. This approach was organized around four parts: a) Definition of the states of the process and mechanisms of transition between them The performance states of the route can be defined a priori or a posteriori of the measurements of the reliability indicator. Consequently, based on [23,25] the characteristics of the process were identified to define the mechanisms of transition between states. Therefore, if the probability that the process currently in a certain state changes to another state, we then say that the process is: Recurrent: If the probability is the same for two or more units of time; Transitional: If the probability is different for any two units of time; Periodical: If the probability is the same for any period of unit of time; Absorbent: If the probability is zero in any unit of time; Complex: If the probability is different to zero in any unit of time. b) Selecting the Markov model There are other attributes of the process to determine the type of model to be used when modelling a phenomenon.
Based on the characteristics and type of Markov model, as well as on the reliability of the process indicator measurements, transition probabilities were obtained [20], which in turn formed the transition matrix:
i, j 1: m m process stages t : n th measurement time
d) Analysis of the temporal evolution of the phenomenon This process is understood as predicting the state of a process at a certain time through transition matrices [22]. However, the analysis depends on the type of model: • In the case of a discrete Markov chain, the transition matrix of k units of time is as follows: (3) Where each component of the matrix is the probability of transition from one state to another in k units of time. If the discrete Markov chain is homogeneous, it is because:
234
(4)
Cedillo-Campos et al / DYNA 81 (187), pp. 232-239. October, 2014.
• In the case of a continuous Markov chain, one of the techniques to analyze this type of stochastic processes is to solve differential equations [24,25]. Since the process is represented by a succession of values X (t) representing the value of the process X at any moment of time t, then the probability of transition from one state i to state j, was defined as:
considering the initial conditions of the process, the result is a system solution vector in which its components are the PDF of reliability states.
(5)
(10)
Where, the matrix of transition was established as: 3.3. Evaluation of the path reliability
(6)
Therefore, considering a homogeneous Markov chain, we obtained that the probability of each state at time t + h was the linear combination of the probabilities of all states at time t and the transition probabilities in infinitesimal time interval (Δt) defined as λijΔt: (7) Based on the property that the sum of the probabilities of transition from one state to the other, the process is: (8) The result was that by replacing (7) in each equation (8) for each state, the equations system is:
In a third phase, once obtained the calculation of reliability of each node that is part of the distribution path, the reliability of the distribution network is computed. To do so, algorithms to assess the network reliability were used. An option was implementing the hybrid algorithm proposed by Jane Chin-Chia [26]. It not only calculates the reliability of a route, but also of all feasible routes based on nodes, edges, demand and distribution costs. It also displays a direct and practical reliability assessment. The purpose of this algorithm is to compute the reliability of the route by organizing its components as reliable, not reliable, or stochastic, through the analysis of the characteristics of the route, stored in a S-item. The algorithm starts by considering as stochastic all possible routes formed by feasible nodes and edges for the distribution. Through iteration the classification of each route is determined. Finally, the algorithm ends when the S-item is absent from any stochastic route. In the process of determining if a route is reliable or not, the reliability portion issued by this route is added to the network reliability on the previous iteration. If it is considered as stochastic, then each component of this route is analyzed to determine what parts are reliable or not, ending with the calculation of reliability of the route. 4. Application and analysis To show the importance of the exposed work, a case study was used. The ABC Company is dedicated to the delivery and collection of mail and parcel service. It wishes to fulfill in time and form the service expectations offered to the
(9)
From which, applying algebra we obtained the following matrix system:
´ ´ ´
By solving this differential equations system, and
Figure 1. Analyzed network Source: The authors
235
Cedillo-Campos et al / DYNA 81 (187), pp. 232-239. October, 2014.
Table 2. Failures observed at the node 1 during day 1. Units No. of Observed Observed of 30 observed time of time of min. failures failure operation Ti t0 0 0 0 t1 2 5 300 t2 5 15 300 t3 7 25 300 t4 4 28 300 t5 3 12 300 t6 0 0 300 6 7 300 t7 t8 2 9 300 t9 3 20 300 t10 15 95 300 t11 11 120 300 t12 3 23 300 t13 0 0 300 t14 2 10 300 t15 2 9 300 Source: The authors
Average time for failures Dti 0 2.5 3 3.571 7 4 0 1.16 4.5 6.66 6.33 10.90 7.66 0 0 4.5
Availability for time
1 0.983 0.95 0.916 0.906 0.96 1 0.976 0.97 0.933 0.683 0.6 0.923 1 0.966 0.970
No. of deliveries affected by failure CCI 0 1 3 7 10 2 0 4 8 10 20 25 9 0 3 7
No. of deliveries assigned Dci 0 50 50 50 50 35 35 35 35 50 50 50 50 40 40 40
No. Average failures x connectivity
Availability for connectivity
0 0.5 0.6 1 2.5 0.66 0 0.66 4 3.33 1.33 2.27 3 0 0 3.5
1 0.98 0.94 0.86 0.8 0.942 1 0.885 0.771 0.8 0.6 0.5 0.82 1 0.925 0.825
Table 3a. Indicators of reliability for node 1 3 1 0.894 0.793 0.563
4 1 0.912 0.801 0.683
5 1 0.891 0.716 0.592
6 1 1 0.861 0.641
Day: 7 1 0.891 0.412 0.536
8 1 0.948 0.913 0.751
9 1 0.968 0.846 0.752
10 1 0.934 0.752 0.842
11 1 0.876 0.741 0.642
12 1 0.941 0.761 0.648
Table 3b. Reliability indicators to node 1 t4 0.608 0.381 0.781 t5 0.836 0.568 0.803 t6 1 0.792 0.952 t7 0.894 0.982 0.932 t8 0.606 0.756 0.708 t9 0.583 0.563 0.415 0.551 0.596 0.510 t10 t11 0.332 0.712 0.763 t12 0.578 0.654 0.382 t13 1 0.863 0.763 t14 0.966 0.724 0.841 t15 0.648 0.852 0.632 t16 0.880 0.863 0.904 Source: The authors
0.692 0.780 0.863 0.744 0.632 0.852 0.341 0.695 0.804 0.963 0.741 0.726 0.841
0.640 0.792 0.652 0.532 0.409 0.346 0.392 0.569 0.624 0.792 0.808 0.637 0.708
0.784 0.841 0.905 0.763 0.698 0.631 0.691 0.580 0.563 0.896 0.821 0.786 0.930
0.671 0.493 0.762 0.841 0.762 0.562 0.361 0.429 0.568 0.784 0.691 0.854 0.846
0.706 0.813 0.792 0.864 0.791 0.683 0.614 0.709 0.569 0.762 0.846 1 0.942
0.592 0.716 0.792 0.804 0.846 0.694 0.597 0.521 0.710 0.841 0.946 0.761 0.768
0.648 0.675 0.765 0.842 0.872 0.654 0.692 0.561 0.745 0.846 0.861 0.761 0.598
0.583 0.691 0.713 0.842 0.681 0.538 0.491 0.348 0.368 0.641 0.712 0.754 0.842
0.691 0.841 0.345 0.741 0.641 0.514 0.842 0.873 0.742 0.921 0.831 1 0.941
1 t0 1 t1 0.901 t2 0.860 t3 0.790 Source: The authors
2 1 1 0.786 0.812
customer. The approach used was mainly based on the assessment of reliability in the sense of connectivity and delivery time. Due to the variability of the demand, the company required assessing the reliability for each day in order to design an optimal route. Accordingly, the company looked for designing a route from s to t (see Fig. 1). After a sampling of failures at each node in the route during 12 days (two weeks of six working days each), with ten delivery vehicles, the following items were observed: i) average failure time; ii) deliveries affected by failures; and iii) availability of the route due to failure (see Table 2). Although the type of failure or disruption was considered independent in this analysis of reliability, it is relevant to mention what events were counted as failures: i) mechanical failures; ii) traffic congestion; iii) road accidents; iv) loss of time due to ignorance of the route.
From the information collected, there were reliability indicators for each time period and each day. This information is presented in Table 3, by means of the following equation (based on the classification of States):
(11) Where VC (X) is the critical value of the variable X, which indicates the tolerance limit of X because of shortcomings in each period of time. For the case study, these are:
236
(12)
Cedillo-Campos et al / DYNA 81 (187), pp. 232-239. October, 2014. ´
Table 4. Classification of states of reliability ID State Description A B C D E Source: The authors
Reliable Operational Stochastic Uncertain Not reliable
´
Condition If If If If If
´
0.90 < I(t) < 1 0.60 < I(t) < 0.90 0.40 < I(t) < 0.60 0.10< I(t) < 0.40 I(t) < 0.10
´ ´
0.092 0.277 0.151 0.033 0
0.033 0.533 0.7 0.133 0
0 0.4 0.4 0.8 0
0 0 0 0 0
(14)
Since the DES is linear and homogeneous with constant coefficients, to solve the eigenvalues and eigenvectors of the matrix associated with the DES, the eigenvalues were obtained by using the MATLAB® language:
Table 5. Codification of I (t).
t0 t1 t2 t3 t4 t5 t6 t7 t8 t9 t10 t11 t12 t13 t14 t15 t16
0.606 0.066 0 0 0
1
2
3
4
5
6
Day 7
8
9
10
11
12
A A B B B B A B B C C D C A A B B
A A B B D C B A B C C B B B B B B
A B B C B B A A B C C B D B B B A
A A B B B B B B B B D B B A B B B
A B B C B B B C C D D C B B B B B
A A B B B B A B B B B C C B B B A
A B C C B C B B B C D C C B B B B
A A A B B B B B B B B B C B B A A
A A B B C B B B B B C C B B A B B
A A B B B B B B B B B C B B B B C
A B B B C B B B B C C D D B B B B
A A B B B B D B B C B B B A B A A
(15) While the eigenvectors were:
(16)
And considering as initial conditions of the process:
Source: The authors
(17) Once evaluated the reliability indicators, the PDF were determine for each state of the process; that is to say initiating the phase of Markov models to define the states of reliability (see Table 4). The characteristics of the phenomenon related to the properties of Markov models were also took into account. Considering that the process is transitory, absorbed in state E and reducible due to state E, Table 5 is obtained, showing the encoding of the I(t). Since the experiment was conducted during continued business days with consecutive units of time (with a discrete classification of states; and in compliance with the property of Markov, where the current state of the process depends only on the state during the previous time unit), to work with a continuous Markov chain was chosen. Taken into account the ratios of change from one state to another, the transition matrix A was defined based on the coding of Table 4, which is represented as: 0.393 0.606 0 0 0
0.092 0.033 0 0 0.722 0.533 0.4 0 0.151 0.3 0.4 0 0.033 0.133 0.2 0 0 0 0 0
Then from (15), (16) and (17), the solution of the DES was defined by the vector in (18). As a result, the reliability state of each node in the route for each time of unit of the same operation was obtained. By applying this phase of the methodology to each node in the route, a map of the reliability states of all nodes was obtained during all the time of operation
.
.
.
.
(18)
5. Conclusions (13)
For example, the process appears 33 times in state A (excluding states from final time t16), but once in it, the process only remains in state A 13 times. So the transition probability is 0.393. For the last part of the Markov modeling, the differential equation system was solved (DES). This system is representative of the reliability behavior of node 1. So the DES is represented as:
The reliability evaluation of routes is a relevant issue in the design of urban freight distribution routes, but some current algorithms and techniques do not consider stages prior to the calculation of reliability. Therefore, combining in one methodology steps of analysis, such as: i) sampling of data; ii) classification of reliability levels; and iii) reliability of each node, enables the input and output information at every stage to being highly correlated with the final result of the methodology. i.e. that the reliability calculation of the route is completely related to the information obtained on the field and its analysis through each phase. With the methodology here presented, the reliability
237
Cedillo-Campos et al / DYNA 81 (187), pp. 232-239. October, 2014.
evaluation of a route of urban freight distribution is simplified, from gathering information of the reliability factors to the evaluation of the route through the application of some algorithm. The methodology also offers the decision maker a useful tool to design and operate complex distribution routes. Applying the technique of Markov models provides a dynamic analysis, i.e., it enables knowing the behavior of the elements that make up the distribution route at any time unit of operation. And, along with the quantitative measurement of reliability of each node involved in the route, it covers the opportunity area that was observed in different algorithms to evaluate the networks reliability. Regarding the application, the probability density function (PDF), indicators was defined based on performance goals established for the case here analyzed. Likewise, a reliability approach was considered, based on two variables, which were connectivity and delivery time. The theoretical support for the analysis of reliability through Markov models is also explained, considering it as one of the contributions of this work. While the most important innovation is the use of Markov models, the balanced integration of all phases is important for the effectiveness of the methodology. However, a key element is to note that the complexity of the methodology lies in the execution of the last phase, where the choice of the algorithm to assess the reliability of the route is at the discretion of the analyst. Consequently, three future works were identified. First, to compare the results of this application with other existing algorithms looking for an exact selection of the algorithm used during the last phase of the method. Second, strengthening the contribution of the first phase with the improvement in the evaluation of probability of transition between states. One option is through bayesian theory, due to the stochastic behavior of the distribution process. And third, standardizing the proposed methodology through the creation of a computer application, which would evaluate the reliability of the route, and design the optimal route based on costs, demands, and reliability.
[5] [6]
[7] [8]
[9] [10]
[11]
[12]
[13]
[14] [15] [16]
[17]
Acknowledgment [18]
The authors thank Flora Hammer for several useful comments that improved this paper as well as anonymous reviewers for their constructive comments and suggestions.
[19]
References [1]
[2]
[3]
[4]
Calderón, K., Se encarece costo de productos por fallas en distribución urbana [En linea]. Noticiero T21 [Consulta: 18 de jun 2012]. Dsiponioble en : http://www.t21.com.mx/news/news_display.php?story_id=14164. Boudouin, D., Morel, C., and Gardrat, M., Suppy chains and urban logistics plataforms. In Gonzalez-Feliu, J., Semet, F., Routhier, J.L., (eds.), Sustainable urban logistics: Concepts, methods and information systems. Springer, Heideberg, 2014, pp. 01-20. Crainic, T.G., City logistics. In Chen, Z.L. and Raghavan, S. (eds.), Tutorials in operations research 2008. State-of-the-art decision making Tools in the information-intensive age, INFORMS, 2008, pp. 181-212,. Sanz, G., Pastor, R. and Benedito, E., Distribución urbana de mercancías: Descripción y clasificación de soluciones existentes e implementación de dos soluciones novedosas. DYNA, 80 (179), pp. 6-13, 2013.
[20] [21] [22] [23] [24] [25]
238
Arango-Serna, M.D., Serna-Uran, C.A. and Alvarez-Uribe, K.C., Collaborative autonomous systems in models of urban logistics. DYNA, 79 (172), pp. 171-179, 2012. Soto-de la Vega, D., Vidal-Vieira, J.G. and Vitor-Toso, E.A., Metodología para la localización de centros de distribución a través de análisis multicriterio y optimización. DYNA, 81 (184), pp. 28-35, 2014. Arango-Serna, M.D., Adarme-Jaimes, W. and Zapata-Cortes, J.A., Commodities distribution using alternative types of transport. A study in the Colombian Bread SMEs. DYNA ,79 (172), pp. 171-179, 2010. Galván, D.C., Martínez, L. y Antún, J.P., Prácticas en distribución y su efecto sobre la optimización de la logística urbana. XVI Congreso Panamericano de Transporte, Tráfico y Logística, Lisboa, Portugal, 2010. Betanzo-Quezada, E., Romero-Navarrete, J. y Obregón-Biosca, S. Un referencial para evaluar la gestión pública en transporte urbano de carga. Gestión y Política Pública, XXII (2), pp. 313-354, 2013. Morana, J., Sustainable supply chain management in urban logistics. In Gonzalez-Feliu, J., Semet, F., Routhier, J.L. (eds.), Sustainable urban logistics: Concepts, Methods and information systems. Springer, Heideberg, 2014, pp. 21-34. Arvis, J.F., Alina, M., Ojala, L., Shepherd, B. and Saslavsky, D., The logistics performance index and its indicators. [En línea]. By: World Bank’s International Trade Department, 2010, [date of reference December 8 of 2013]. Avaiable at: <http://siteresources.worldbank.org/INTTLF/Resources/LPI2010_fo r_web.pdf> Tadashi, Y., Yohe, Y. and Kazuhiro, M., Road network reliability analysis using vehicle routing and scheduling procedures. III International Conference on City Logistics: Logistics Systems for Sustainable Cities, pp. 111-122, 2013. Robledo, F., Modelos combinatorios de confiabilidad en redes. Apuntes del curso de postgrado Modelos Combinatorios de Confiabilidad en Redes, IMERL/INCO – UdelaR Montevideo, Uruguay, 2009. Ros, Ll. and Hayes, S., La distribución urbana de mercancías. economistas, vol. 2. Consultores ALTRAN Technologies, pp. 2-4, 2009. Estrada, R., Análisis de estrategias eficientes en la logística de distribución de paquetería. PhD. Thesis. Universitat Politècnica de Catalunya, Barcelona, Spain, 2007. García, I.C., Un enfoque metaheurístico para un problema de ruteo con flexibilidad en las fechas de entrega. Ph.D. Thesis, Facultad de Ingeniería Mecánica y Eléctrica, Universidad Autónoma de Nuevo León, México, 2010. Jenelius, E., Peterson, T. and Mattsson, L.G., Importance and exposure in road network vulnerability analysis. Transportation Research Part A: Policy and Practice, 40 (7), pp. 537-560, 2006. Susilawai, S., Taylor, M.A.P. and Somenahalli, S.V.C., Travel time reliability measurement for selected corridors in the Adelaide Metropolitan area. Journal of the Eastern Asia Society for Transportation Studies,8, pp. 86-102, 2010. Husdal, J., Reliability and vulnerability versus cost and benefits. Proceedings of the Second International Symposium on Transportation Network Reliability (INSTR 2004). Christchurch, New Zealand, pp. 182-189, 2004. Sumper, A., Sudrià, A., Ramírez, R., Villafáfila, R. y Chindris, M., Índices de continuidad en redes de distribución y su mejora. 9º Congreso HISPANO LUSO Ingeniería Eléctrica, pp. 20-24, 2004. Muñoz, A.Z., Multi-State system reliability design via particle evolutionary swarm optimization. MSc. Thesis, Centro de Investigación en Matemáticas A.C., Guanajuato, México, 2004. Fuqua, N.B., The applicability of Marvok analysis methods to reliability, maintainability and safety. Selected Topic in Assurance Related Technologies (START), 2 (10), pp. 1-8, 2003. Rubio, C.T. y Echeverría, A., Modelos de Markov: Una herramienta útil para el análisis fármaco-económico. Pharmacoeconomics Spanish Research, 3 (2), pp. 71-78, 2006. Ocaña, R.A., Modelos de Markov aplicados a la investigación en Ciencias de la Salud. Interciencia, 34 (3), pp. 157-162, 2009. Marín, J.M.D. ,Cadenas de Markov. Apuntes de estadística actuarial II [en linea]. Depto. de Estadística, Univ. Carlos III de Madrid. [date
Cedillo-Campos et al / DYNA 81 (187), pp. 232-239. October, 2014. of referenca June 15th of 2013]. Avaiable at: <http://halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/PEst/te ma4pe.pdf> [26] Chin-Chia, J., Performance evaluation of logistics systems under cost and reliability considerations. Transport. Res. Part E, 47 82), pp. 130137, 2010, doi:10.1016/j.tre.2010.09.012. M.G. Cedillo-Campos, is a Professor-Researcher in Logistics Systems Dynamics at the Mexican Institute of Transportation (IMT). He is the Founder and President of the Mexican Logistics and Supply Chain Association (AML). Dr. Cedillo-Campos is acknowledged as National Researcher level 1 by the National Council of Science and Technology in Mexico (CONACYT). In 2004, he received a PhD. in Logistics Systems Dynamics from the University of Paris, France. In 2012, he was acknowledged by the Autonomous University of Nuevo Leon (UANL) with the Innovation Award. In 2012, he collaborated as speaker at Georgia Tech Panama. Dr. Cedillo is member of the Mexican Academy of Systems Sciences and the Scientific Chairman of the International Congress on Logistics and Supply Chain (CiLOG) organized by the AML. He is the author of several scientific publications in top journals as Transportation Research Part E: logistics and Transportation Review, Simulation, Computers and Industrial Engineering, Applied Energy, Computers in Industry, Journal of Applied Research and Technology, among others.
a PhD. in Industrial Engineering from the Tedchnological Institute of Ciudad Juarez, Mexico and a Post-Doctorate at the University of La Rioja, Spain. His main research area are related to modeling and multi-criteria decisionmaking applied to production processes. He is author and co-author in over 100 articles published in indexed journals and international conferences and congresses as International Journal of Advanced Manufacturing Technology, Expert System with Applications, International Journal of Production Research, Computer in Industry, among others.
J.L. de la Riva-Canizales, is a researcher in industrial engineering at Chrysler. In 2013, he received a MSc in Industrial Engineering from COMIMSA (National Council of Science and Technology), Mexico. He obtained a BSc. degree in Mathematics from the Autonomous University of Coahuila, Mexico. He has worked for logistics businesses in Mexico and as a consultant on supply chain management for global companies, and several Mexican State Governments. His current research interests include quality processes, service operations in supply chains, city logistics, and design of supply chains oriented to emerging markets. A. Bueno-Solano, heads the Logistics and Multimodal Unit at the Mexican Institute of Transportation (IMT). Dr. Bueno is a founding member of the Mexican Logistics and Supply Chain Association (AML). In 2013, he received a PhD. in Industrial Engineering and Manufacturing Science from COMIMSA (National Council of Science and Technology), Mexico. His PhD. thesis deals with risk propagation modelling in export-oriented supply chains. He has participated as part of important research projects as the first national survey on supply chain security which was supported by the National Council of Science and Technology as well as by the Secretariat of Economy of Mexico. He is the author of several scientific publications in top journals as Transportation Research Part E: logistics and Transportation Review, and Journal of Applied Research and Technology, among others. He is part of the scientific board of the International Congress on Logistics and supply chain (CiLOG) organized by the AML. J. Gonzalez-Feliu, is a research engineer at the Centre National de la Recherche Scientifique in Lyon, France, and member of the Laboratoire d'Economie des Transports (LET, Laboratory of Transport Economics). He obtained his MSc. degree in Civil Engineering and Urban Planning in 2003 at INSA Lyon (France) and passed his PhD. in Computer and Systems Sciences - Operations Research in 2008 at Politecnico di Torino (Italy). His PhD. thesis deals with urban freight distribution solutions and two-echelon vehicle routing problems. At LET since 2008, his work deals with urban logistics data production, simulation and evaluation, focusing on data collection techniques, simulation of urban routes and shopping trip behaviour, substitution of shopping trips by proximity deliveries, logistics pooling and multi-stage transport systems. His research interests include urban logistics planning and policy, freight demand modeling, scenario assessment, decision support systems, vehicle routing optimization, sustainable supply chain management and collaborative transportation. J.L. GarcĂa-Alcaraz, is a Professor-Researcher at the Department of Industrial Engineering at the Autonomous University of Ciudad JuĂĄrez in Mexico, a founding member of the Mexican Society of Operations Research and an active member in the Mexican Academy of Engineering. Dr. Garcia is recognized as National Reseracher level 1 by the National Council of Science and Technology in Mexico (CONACYT). He received a MSc. in Industrial Engineering from the Technological Institute of Colima, Mexico, 239
Effect of competitive priorities on the greening of the supply chain with TQM as a mediator Tatiana Paola Leguízamo-Díaz a & Carlos Eduardo Moreno-Mantilla b a b
Facultad de Ingeniería, Universidad Nacional de Colombia, Bogotá, Colombia. tpleguizamod@unal.edu.co Facultad de Ingeniería, Universidad Nacional de Colombia, Bogotá, Colombia. cemorenoma@unal.edu.co Received: May 28th, 2014.Received in revised form: August 25th, 2014.Accepted: September 10th, 2014
Abstract The purpose of this work is to evaluate the relationship between competitive priorities (quality, delivery, cost, and flexibility) and the development of greening of supply chain practices (GSCM) through the mediation of one of the dimensions of Lean, Total Quality Management (TQM). Quantitative survey data were obtained from 123 questionnaires completed by staff related to environmental management in the same number of companies in Bogotá, Colombia, participating in a tutoring program administered by Secretaría Distrital de Ambiente. The validity and reliability of the instruments were evaluated using factor analysis and the proposed relations were contrasted using structural equation modeling. The study's findings offer partial evidence on the mediation role of TQM practices (integration of suppliers, in particular) in the association between competitive priorities - quality and delivery - and GSCM practices. Keywords: Total Quality Management, supply chain, Supply Chain Management, Greening of Supply Chain, competitive priorities.
Efecto de las prioridades competitivas en la implementación de prácticas de reverdecimiento en la cadena de suministro con TQM como mediador Resumen El propósito de este trabajo es evaluar la relación entre las prioridades competitivas (calidad, entrega, costo, y flexibilidad) y el desarrollo de prácticas de reverdecimiento de la cadena de suministro (GSCM), a través de la mediación de una de las dimensiones de Lean, Total Quality Management (TQM). Se obtuvieron datos cuantitativos de encuesta a partir de 123 cuestionarios diligenciados por encargados de la gestión ambiental en el mismo número de empresas de Bogotá, Colombia, que participan en un programa de la Secretaría Distrital de Ambiente que apoya a empresas en el fortalecimiento de la gestión ambiental. La validez y confiabilidad de los instrumentos se evaluaron mediante análisis factorial y las relaciones propuestas se contrastaron mediante el modelamiento de ecuaciones estructurales. Los hallazgos del estudio ofrecen evidencia sobre el papel mediador de TQM (integración de proveedores, en particular) en la asociación entre las prioridades competitivas – calidad y entrega – y prácticas GSCM. Palabras clave: Gestión de la Calidad Total, cadena de suministro, Gestión de la Cadena de Suministro, Reverdecimiento de la Cadena de Suministro, prioridades competitivas.
1. Introducción El mejoramiento del desempeño ambiental de las organizaciones y la conciencia sobre la protección de los recursos naturales se han venido consolidando como factores claves de diferenciación en los mercados competitivos a nivel mundial. Esta corriente demanda de las empresas el uso adecuado de los recursos naturales para la elaboración de productos, al menor costo para la compañía y ofreciendo al
cliente no solo la satisfacción de la necesidad inicial, sino un valor agregado que aumente la satisfacción al momento de utilizarlos, enfocándose de esta forma en los factores ambientales que hacen parte de la disposición a pagar de los consumidores [1]. Por esta razón, tanto las presiones ambientales en el mercado internacional de productos [2], como la competencia, han orientado las firmas hacia la implementación de prácticas ambientales con el fin de acceder a estos mercados emergentes.
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 240-248. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.46106
Leguízamo-Díaz a & Moreno-Mantilla / DYNA 81 (187), pp. 240-248. October, 2014.
Adicionalmente, a través del tiempo las empresas han buscado desarrollar capacidades que les permita diferenciarse mediante características que no puedan ser reemplazadas o copiadas por aquellos que quieren adquirir su éxito [3]. Barney (1991) en la Teoría de la Firma Basada en Recursos (TBR) reconoce elementos estratégicos necesarios que denomina ‘recursos’ y deben responder a los criterios de ser valiosos, raros, difíciles de imitar y específicos de la organización. Los tres recursos mencionados son los recursos físicos, el recurso humano y el capital organizacional, afirmando que el manejo adecuado de dichos recursos genera en la compañía ventajas competitivas. Con posterioridad a los planteamientos de Barney, la TBR se extiende al campo de las organizaciones y el medio ambiente por parte de Stuart L. Hart, quien en 1995 propone que además de los recursos mencionados en la TBR, la organización debe tener en cuenta el medio ambiente como elemento clave para desarrollar los recursos necesarios para desplegar las capacidades requeridas para una gestión ambiental proactiva, lo cual puede conllevar ventajas competitivas como lo son las decisiones estratégicas orientadas a la reducción de costos, a la diferenciación de los productos y a adquirir una posición futura adecuada para las empresas. La respuesta a estas presiones y la constante búsqueda de ventajas competitivas como estrategia al interior de las organizaciones pueden tener distintas consecuencias y diversas fuentes de motivación como fuerza de impulso para tomar la decisión de invertir tiempo y dinero en la implementación de dichas prácticas [4] Teniendo en cuenta la importancia de las ventajas competitivas, las empresas deben evaluar la relación que existe entre sus prioridades competitivas y la implementación de prácticas de reverdecimiento en la cadena de suministro para establecer cuál es la mejor forma de alinear los objetivos ambientales con la estrategia competitiva de la empresa. Así, de una parte, recientemente se ha explorado en la literatura la relación existente entre el desarrollo de prácticas de manufactura esbelta (Lean) y el desarrollo de prácticas medioambientales como prevención de la contaminación y tutelaje de producto [5-8]. De otra parte, es bien sabido que los objetivos del negocio (prioridades competitivas) deben guiar la selección de las prácticas de producción que permitan alcanzar ventajas competitivas [9]. Sin embargo, parece existir una brecha en la literatura en cuanto a evaluar empíricamente la relación entre prioridades competitivas y prácticas medioambientales proactivas. En consecuencia, el propósito de este trabajo es evaluar la relación entre las prioridades competitivas (calidad, entrega, costo, y flexibilidad) y el desarrollo de prácticas de reverdecimiento de la cadena de suministro (GSCM), argumentando teóricamente y evaluando empíricamente la mediación de una de las dimensiones de Lean, Total Quality Management (TQM). La evaluación de la relación mencionada se realizará primero a través de una revisión de la literatura en tres temas: prioridades competitivas, Total Quality Management y prácticas de reverdecimiento de la cadena de suministro. A partir de dicha revisión, se proponen hipótesis que permitan operacionalizar el estudio de las relaciones propuestas. Este cuerpo de trabajos se toma como base para la identificación
de ítems medibles en cada uno de los tres constructos mencionados. Posteriormente, se analizan los datos recolectados a través de una encuesta a empresas participantes en un programa de la Secretaría Distrital de Ambiente de Bogotá que apoya a las empresas en el fortalecimiento de la gestión ambiental. Estos datos se utilizan aquí para evaluar el modelo teórico propuesto mediante el empleo del modelamiento de ecuaciones estructurales. La originalidad de este trabajo radica en localizar a TQM como una variable mediadora entre la orientación de las prioridades competitivas de la empresa y la implementación de prácticas de reverdecimiento en la cadena de suministro. El artículo prosigue con la presentación de los resultados y concluye con una discusión de estos resultados. 1.1. Prioridades competitivas y sistemas de producción En referencia a las fuentes de motivación estratégica, las prioridades competitivas son definidas como el conjunto de objetivos de fabricación que representan el vínculo de la oferta de la organización con las necesidades del mercado [10]. A su vez, estas prioridades se han relacionado con los sistemas de producción. Un sistema de producción se define como un subsistema empresarial que recibe insumos como materiales, fuerza de trabajo, energía, información, entre otros, y los transforma en bienes y servicios a través del subsistema de conversión. El éxito de una empresa manufacturera requerirá un esquema coherente que pueda alinear las prioridades competitivas con el sistema de producción [11]. Desde que se estableció el campo disciplinar de ‘estrategia de manufactura’, se han considerado cuatro objetivos básicos de manufactura: eficiencia en costos, calidad, flexibilidad y entrega [12,13]. Asimilan las prioridades competitivas a los objetivos que deben alcanzar las unidades de fabricación, para que la empresa sea capaz de competir, lograr las capacidades necesarias y generar una ventaja competitiva. Estos autores presentan cuatro prioridades competitivas clásicas: costo, calidad, flexibilidad y entrega. Adicionalmente, incluyen como prioridad competitiva la protección del medio ambiente, al igual que [14, 15]. [10] Considera que además de las cuatro prioridades competitivas comunes se deben agregar las prioridades competitivas, innovación y servicio, si bien [12] muestran que esta propuesta no ha sido bien recibida en la literatura. Aunque el enfoque estratégico inicial sugería que estos objetivos eran incompatibles entre sí (i.e., trade-offs), comenzando con [16], varios trabajos han mostrado que es posible encontrar firmas que alcancen niveles aceptables de desempeño en varios objetivos simultáneamente. De otra parte, dentro de los sistemas de producción se encuentra la metodología de gestión de las operaciones denominada Lean Manufacturing (Lean), que busca minimizar los desperdicios y mejorar la calidad de los productos manufacturados en la fábrica [17]. Esta metodología de gestión se basa en encontrar todas las actividades que adicionan valor dentro del proceso productivo y tomar las actividades restantes que hacen parte del mismo y minimizarlas con el fin de agregar valor diferenciable tangible para el cliente final [18].
241
Leguízamo-Díaz a & Moreno-Mantilla / DYNA 81 (187), pp. 240-248. October, 2014. Tabla 1. Evolución de la relación entre la implementación de Lean Manufacturing y la intervención de prácticas ambientales al interior de la compañía. AUTOR ENFOQUE DE MEJORA 2001 Rothenberg, Pil, & Maxwell Emisiones a la atmósfera y uso de recursos 2005 Simpson & Power Cadena de suministro 2008 González-Benito Tecnologías de gestión ambiental 2010 Mollenkopf, Stolze, Tate, & Ueltschy Cadena de suministro 2011 Puvanasvaran, Kerk, & Muhamad Sistemas de gestión ambiental 2011 Yang, Hong, & Modi Desempeño financiero 2012 Dües, Tan, & Lim Catalizador de objetivos enfocados a lo ambiental Fuente: Los Autores
Al implementar Lean como sistema de gestión con el fin de alcanzar un mejoramiento continuo se encuentran cuatro grandes módulos en los que se basa el éxito de la implementación y la consecución de los resultados esperados [19]: Just-in-Time, Total Quality Management (TQM), Total Productive Maintenance, y Human Resources Management. La Gestión de la Calidad Total, o TQM, se basa en el principio de limitar los posibles errores humanos a lo largo del proceso con los sistemas Poka-Yoke y borrar la confusión con la implementación de la técnica de gestión japonesa denominada 5 Ss’, que se basa en cinco principios simples: Clasificación (separar los elementos innecesarios en cada parte del proceso); Orden (mantener el puesto de trabajo de forma tal que todos los elementos estén en su puesto y a la vista); Limpieza (evitar los elementos innecesarios en el puesto de trabajo); Normalización (establecer un lugar para cada cosa que debe estar siempre en el puesto que le corresponde); y mantener la Disciplina. La aplicación de estas técnicas incluye objetivos como mejorar la condición del recurso humano, tanto en puestos de trabajo como en motivación; reducir la inversión en reparar accidentes de trabajo; y, mejorar la calidad, entre otros [20]. En la gestión de la calidad, el énfasis inicial en el control estadístico de la calidad de las operaciones individuales se extendió a través de TQM para incluir un proceso más amplio que incluye los requerimientos de los clientes y las operaciones de los proveedores [54]. [9] presentan un modelo que relaciona las prioridades competitivas con los sistemas de producción de la siguiente forma: el sistema de producción en masa se relaciona con la prioridad competitiva de costo, el sistema de producción Lean Manufacturing se relaciona con las prioridades competitivas de calidad y flexibilidad, y el sistema de manufactura “de respuesta” (responsive, en inglés) se relaciona con las prioridades competitivas de entrega (speed, en inglés) y flexibilidad. Este modelo encuentra un complemento en el llamado modelo de cono de arena, que establece que las empresas pasan por un camino entre las prioridades competitivas, comenzando en costo, siguiendo en calidad, y posteriormente pasando a las prioridades competitivas de entrega y flexibilidad [21]. Es así como [12] afirman que puede asumirse que las mejoras en el objetivo de calidad sirven como una base para la mejora en los subsecuentes objetivos. En particular, además de la relación evidente entre la prioridad estratégica de calidad y TQM, la literatura muestra que existe evidencia de la relación entre una estrategia orientada a la entrega a tiempo y TQM. Por ejemplo, [22] muestran que existe una relación directa entre las inversiones
en la coordinación de proveedores y el tiempo (lead-time, en inglés) de manufactura, así como entre las inversiones en la coordinación con los clientes y los tiempos de entrega y la confiabilidad en la entrega. Así mismo, [23] muestran que existe una relación entre la respuesta rápida (por ejemplo, mediante ciclos de manufactura más cortos) y un objetivo estratégico de servicio al cliente. De forma complementaria, [24] encuentran que la integración con proveedores y clientes en cadenas de abastecimiento es una competencia que depende del contexto de la firma y es característica de empresas enfocadas en el servicio mediante la co-creación de valor con proveedores y con clientes. Finalmente, [25] concluyen que la confiabilidad en la entrega y la flexibilidad del proceso tienen un efecto mediador en la relación entre el grado de integración en la cadena de suministro y la satisfacción del cliente. Con base en la anterior argumentación proponemos la Hipótesis 1: Existe una relación positiva entre el mayor énfasis dado por la empresa a las prioridades competitivas calidad, flexibilidad y entrega, y el grado de implementación de prácticas de Total Quality Management. 1.2. Lean y Green En la Tabla 1 se muestra la evolución que ha tenido en la literatura el estudio de la relación entre la implementación de Lean Manufacturing y el despliegue de prácticas ambientales al interior de la compañía. Existen hallazgos que determinan una relación positiva entre la implementación de sistemas de gestión de la producción como Lean Manufacturing y la mejora de los resultados ambientales de la compañía [26]. Esta relación es proporcional a la inversión que tenga el desarrollo de la estrategia y el diseño de las operaciones a través de Lean Manufacturing [27]. Desde otra perspectiva, se sugiere que Lean es un catalizador para la implementación exitosa de prácticas ecológicas y en consecuencia facilitaría alcanzar objetivos verdes establecidos por la empresa [5]. Esto sucede debido a que los paradigmas de Lean y Green están constituidos a partir de atributos comunes: el manejo de los residuos y técnicas de reducción de los desechos, las personas y la organización, la reducción del tiempo de entrega, relaciones en la cadena de suministro, y nivel de servicio [5]. Cuando la reducción de desechos se puede medir en términos de emisiones a la atmósfera y el uso de los recursos y la compañía no ve la disminución de estos dos factores como restricciones sobre las operaciones productivas de transformación de bienes, se encuentra una relación positiva entre ambos sistemas de gestión. Se encuentran tres factores
242
Leguízamo-Díaz a & Moreno-Mantilla / DYNA 81 (187), pp. 240-248. October, 2014.
significativos para el proceso de reverdecimiento: la minimización de amortiguamiento, las prácticas de trabajo y prácticas de recursos humanos [28]. La integración del pensamiento ambiental en la cadena de suministro (o GSCM, por sus siglas en inglés, para referirse a la gestión para el “reverdecimiento” de la cadena de suministro) se ha venido configurando en los últimos años como una extensión de la gestión de la cadena de suministro (SCM, por sus siglas en inglés). La “coordinación sistemática y estratégica de las funciones tradicionales del negocio y de las tácticas a través de estas funciones y a través de negocios dentro de la cadena” en SCM [29], se extiende en GSCM al mejoramiento del desempeño ambiental en el largo plazo tanto de las compañías individuales como de la cadena de suministro. Así, GSCM involucra prácticas de gestión ambiental interna, diseño medioambiental de producto y empaques, reverdecimiento de procesos (incluyendo distribución), selección y desarrollo de proveedores “verdes”, cooperación con clientes y proveedores, y gestión del final del ciclo de vida de producto, incluyendo logística reversa [30,14]. En particular, el estudio de las prácticas de tutelaje de producto se ha asimilado a GSCM [31,32] en razón a que estas implican un desplazamiento del enfoque centrado en procesos a la optimización de los factores ambientales en toda la cadena de productos [33,34]. Ahora bien, en la cadena de suministro la relación que existe entre Lean y Green se encuentra a través de un enfoque de sistemas que se sume a la visión estratégica y la implementación de un plan de gestión integrado para la medición constante de la aplicación de Lean Manufacturing [6]. Al integrar los pilares Lean y Green al interior de la organización se suman esfuerzos para mejorar o influir en la práctica de un proveedor de la gestión medioambiental, lo cual disminuye los costos de transacción y aumenta la eficacia del proceso que se enfoca hacia el cliente final de la compañía [35]. De la misma forma, existe una relación con el momento en el que se implementan las tecnologías relacionadas con la reducción de desechos, debido a que la aplicación de algunas tecnologías de gestión ambiental puede llegar a ser más fácil y menos costosa cuando se instalan al mismo tiempo que los nuevos equipos de producción [36]. Debido al constante y rápido cambio en las prácticas de gestión y formas de medir las mismas, es necesario crear una práctica integrada entre los sistemas de gestión ambiental y los sistemas de gestión Lean Manufacturing que permita generar una ventaja competitiva válida a la compañía. Es decir, esto equivale a demostrar al mercado los resultados de la práctica de gestión operacional a través de mejoras en los resultados ambientales. En este tipo de casos Lean Manufacturing agrega valor a los sistemas de gestión ambiental mediante la eliminación de los procesos que no adicionan valor (principio básico de Lean) y la adopción de métodos que son fácilmente integrables al proceso de la eliminación de residuos que impactan al medio ambiente [7]. El énfasis de la literatura en las prácticas de cooperación y colaboración en la cadena de suministro, como una dimensión de TQM, se relaciona con que [30] afirmen que cuando varias entidades de la cadena de suministro enfatizan en sus propias prioridades, pasando por encima de las de sus
aliados, el sistema de producción pueda ser sub utilizado por las compañías. Con base en la anterior argumentación, proponemos la Hipótesis 2: La implementación de prácticas Total Quality Management (TQM) está relacionada de forma positiva con el grado de implementación de prácticas de Reverdecimiento en la Cadena de Suministro (GSCM) en las compañías. 1.3. Mediación de TQM entre prioridades competitivas y GSCM Por las relaciones mencionadas anteriormente, el objetivo de la presente investigación consiste en explorar la relación existente entre los objetivos estratégicos de manufactura de las empresas y el tipo de prácticas desplegadas que buscan mejorar el desempeño medioambiental en la cadena de suministro. Existe un importante antecedente en relación con este problema de investigación: [37] son los primeros en reconocer y proponer que el grado de éxito de una compañía en alcanzar sus objetivos ambientales, dada una determinada posición competitiva depende de, primero, la integración exitosa de la estrategia de manufactura dentro del proceso estratégico de la firma y, segundo, de la alineación de la gestión ambiental con capacidades operacionales complementarias definidas por una estrategia de manufactura. Complementariamente, si bien—como se ha dicho aquí anteriormente—algunos autores han visto a la gestión ambiental como un objetivo estratégico de manufactura, encontramos dos argumentos que nos llevan a no incluir la primera como tal dentro de nuestro modelo. De una parte, [38] muestran que para incluir la gestión ambiental como prioridad competitiva, esta debe ser capaz de generar una ventaja competitiva clara. La evidencia para el caso latinoamericano [39,40] no permite afirmar que un enfoque típicamente centrado en la prevención de la contaminación en estas firmas sea una evidente fuente de ventaja competitiva. Y, de otra parte, siguiendo el enfoque propuesto en [42], optamos en nuestro trabajo por relacionar al conjunto de prácticas de GSCM como una variable dependiente de la estrategia de operaciones. Desde esta perspectiva, las prácticas de GSCM pueden verse como un "portafolio de tecnologías ambientales" que se derivan de las inversiones en estructura e infraestructura que, a su vez, se configuran desde el planteamiento de los objetivos estratégicos. Así, como también lo muestran [15], las actividades en TQM constituyen inversiones en infraestructura (i.e., estructura organizacional, prácticas de trabajo, entrenamiento y sistemas de medición del desempeño) que sientan la base para las tecnologías ambientales, unas orientadas hacia procesos y otras hacia producto y la cadena de suministro. En consecuencia, nuestro problema de investigación consiste en evaluar cómo los objetivos estratégicos de manufactura (Variable independiente) de las organizaciones impactan en la mejora del desempeño ambiental (Variable dependiente) a través de la implementación de Lean Manufacturing (Variable mediadora). La literatura aquí revisada permite proponer que los objetivos estratégicos de manufactura que definen las prioridades competitivas de la firma son utilizados por las empresas para generar
243
Leguízamo-Díaz a & Moreno-Mantilla / DYNA 81 (187), pp. 240-248. October, 2014.
Figura. 1. Modelo del problema de investigación. Fuente: Elaboración propia con base en [41].
capacidades claves para la implementación de prácticas de enverdecimiento en los niveles de prevención de la contaminación y el tutelaje de producto. De esta forma, las empresas pueden tomar sus capacidades internas (Lean Manufacturing, en este caso) para convertirlas en capacidades dinámicas (despliegue de estrategias medioambientales según el entorno de negocios en que se encuentren) que les permitan competir en mercados cambiantes de acuerdo a las necesidades de sus clientes, que son las motivaciones que mueven a las compañías. A partir del modelo planteado para la investigación (Fig. 1), proponemos la Hipótesis 3: El efecto de las prioridades competitivas sobre el grado de implementación de tutelaje de producto (GSCM) está mediado por el grado de desarrollo de prácticas TQM en las compañías. 2. Metodología Para la realización del presente estudio se aplicó un cuestionario de encuesta (véase Apéndice) a 129 empresas participantes en un programa de la Secretaría Distrital de Ambiente de Bogotá que apoya a las empresas en el fortalecimiento de su gestión ambiental. Inicialmente, se eliminaron seis cuestionarios por falta de grupos completos de datos para un mismo constructo o porque los perfiles de las personas encargadas de diligenciar el mismo no pertenecían a áreas que garanticen el conocimiento integral de los aspectos evaluados por el cuestionario. El instrumento se aplica a 64 empresas de manufactura y a 59 empresas de servicios; El 11% son empresas pequeñas (con 10 trabajadores o menos), el 33% son empresas medianas (entre 11 y 50 trabajadores) y el 55% son empresas grandes (más de 50 trabajadores). El instrumento cuenta con un módulo de identificación de la empresa y 88 ítems1 que se miden a través de una escala de Likert de 5 puntos para evaluar la percepción de los participantes a través de tres módulos (Prioridades competitivas; prácticas de Lean Manufacturing – Just in Time, Total Quality Management, Total Productive Maintenance y Recursos Humanos; y, prácticas de reverdecimiento de la cadena de suministro). El planteamiento de los ítems de la encuesta se realizó con base en los siguientes trabajos: Prioridades competitivas: [4244, 9,11]. Lean Manufacturing: [19, 45-48]. Prácticas de enverdecimiento: [5,41,49, 50-52]. Los datos faltantes se trataron en el paquete estadístico 1
El instrumento original incluye en el módulo de prácticas de Lean Manufacturing cuatro grupos de prácticas. Para el presente artículo se tiene en cuenta únicamente el grupo de prácticas definido como Total Quality management.
SPSS bajo el método de imputación de datos por regresión lineal, dado que los datos no se distribuyen normalmente de forma multivariada. En el mismo programa se realiza el análisis de disimilaridad con el coeficiente de Mahalanobis (criterio de decisión para considerar casos atípicos con un coeficiente > 2,5). El análisis de disimilaridad indicó que no existen casos atípicos en la muestra. De particular relevancia para nuestro trabajo resulta la escogencia del método utilizado para evaluar las relaciones objeto de escrutinio. Existe un cuerpo de literatura que ha propuesto el método de regresión lineal para evaluar relaciones de mediación, comenzando por los trabajos seminales de Sobel (1982) y Baron & Kenny (1986). No obstante, el uso de modelos de ecuaciones estructurales representa el “enfoque de estado del arte para evaluar relaciones de mediación entre constructos o variables”, particularmente cuando estos involucran múltiples ítems [53], lo cual ha sido demostrado experimentalmente en años recientes [54]. En consecuencia, con el propósito de alcanzar los objetivos de este trabajo se analizarán las relaciones planteadas en las hipótesis mediante el uso de modelos de ecuaciones estructurales. 3. Resultados Se realizó un análisis exploratorio de factores para cada uno de los tres módulos del cuestionario de encuesta [21]. La reducción de factores para prioridades competitivas (PRICOM) dio como resultado 14 ítems válidos que se agruparon en cuatro (4) factores (costo – COSTO, calidad – CALID, entrega – ENTRE, y flexibilidad – FLEXI). Los cuatro factores extraídos explican el 63,4% de la varianza total de la variable. Para TQM dio como resultado 11 ítems válidos que se agrupan en tres (3) factores (control de calidad – CONTRO, integración con proveedores – INPRO, y puesto de trabajo – PUEST, confirmando lo encontrado en la literatura [10]). Los tres factores extraídos explican el 67,1% de la varianza total de la variable TQM. Y, finalmente, para GSC dio como resultado 24 ítems válidos que se agrupan en cinco (5) factores (tutelaje de producto – TUTEL, visión compartida – VISCO, monitoreo – MONIT, eco eficiencia – ECOEF, y manejo de residuos – RESID). Los cinco factores extraídos explican el 65,1% de la varianza total de la variable. Posteriormente se realiza el análisis de confiabilidad de los factores existentes con el Alfa de Cronbach, cuyo criterio de decisión es que sea mayor a 0,62. El Alfa de Cronbach de los factores se puede ver en la Tabla 2. Tabla 2. Alfa de Cronbach para los factores resultantes del Análisis Exploratorio de Factores. PRICOM CALID ENTRE COSTO FLEXI Alfa 0,79 0.,754 0,744 0,676 TQM CONTRO INPRO PUEST Alfa 0,804 0,791 0,751 GSC TUTEL GAINT VISCO ECOEF RESID Alfa 0,903 0,903 0,859 0,794 0,768 Fuente: Elaboración Propia. 2
El acuerdo general sobre el límite inferior para el alfa de Cronbach es de 0,70, aunque puede bajar a 0,60 en la investigación exploratoria [70], como en el caso que nos ocupa.
244
Leguízamo-Díaz a & Moreno-Mantilla / DYNA 81 (187), pp. 240-248. October, 2014.
Con apoyo del software LISREL 8.0 se realiza el análisis confirmatorio de factores para confirmar la validez de los ítems y de los factores obtenidos en el análisis exploratorio de factores, utilizando el método de máxima verosimilitud robusta. Inicialmente se realizó un análisis por separado de tres modelos, uno por cada constructo teórico (i.e., prioridades competitivas, TQM y GSCM). Durante el proceso de contraste de cada modelo fue necesario eliminar algunos ítems y factores, en comparación con los ítems y factores que venían originalmente del análisis exploratorio de factores. El criterio de evaluación de los factores es el valor de varianza promedio extraída (AVE, por sus siglas en inglés), descartando los factores con AVE inferiores a 0,5. Para los ítems se utilizó como valor de referencia el valor de carga en la solución completamente estandarizada, donde los ítems con una carga menor a 0,5 fueron descartados [55]. Los resultados sugirieron eliminar los factores FLEXI, ECOEF y RESID. Los tres modelos analizados y sus valores de bondad de ajuste3 se presentan a continuación: 1. Modelo de primer orden para prioridades competitivas χ² = 14,94; p-valor = 0,5996; gl = 17; RMSEA = 0,000 CFI = 1,000 IFI = 1,001 2. Modelo de segundo orden4 para Total Quality Management χ² = 16,87; p-valor = 0,4631; gl = 17; RMSEA = 0,000 CFI = 1,000 IFI = 1,000 3. Modelo de segundo orden5 para GSC χ² = 48,20; p-valor = 0,5857; gl = 51; RMSEA = 0,000 CFI = 1,000 IFI = 1,000 Posteriormente, se pasó a evaluar el modelo teórico hipotetizado de segundo orden (Fig. 2), que tiene como variable dependiente la implementación de prácticas de reverdecimiento en la cadena de suministro y permite evaluar de forma integrada las hipótesis 1 y 2 del estudio. De acuerdo con los resultados mostrados en la Fig. 2 (se presentan los coeficientes no estandarizados y su significancia) y valores de bondad de ajuste CFI = 1,00 e IFI = 1,00, se puede afirmar lo siguiente: - Las tres dimensiones de TQM y las tres dimensiones de GSC son significativas al 1%, lo cual implica que los factores CONTR, INPRO y PUEST son explicados por TQM, y los factores TUTEL, VISCO y MONIT son explicados por GSCM. - La prioridad competitiva calidad se relaciona de forma positiva con TQM y esta relación es significativa estadísticamente al nivel de 5%, soportando parcialmente la Hipótesis 1. De igual forma, existe evidencia adicional que permitiría soportar esta Hipótesis, dado que la prioridad entrega se relaciona positivamente con TQM al 10%. - TQM y GSC están relacionados de forma positiva al 1%, lo cual soporta la Hipótesis 2. Complementariamente, la hipótesis 3 se evaluó mediante el ajuste de un modelo de ecuaciones estructurales en donde los
efectos directos e indirectos (i.e., con mediación de TQM) de las variables endógenas (i.e., prioridades competitivas) sobre las variables exógenas de primer orden para GSCM se ajustan simultáneamente con el fin de estimar cada efecto al tiempo que se controlan estadísticamente los demás efectos [54]. El modelo arroja los siguientes índices: χ² = 358,85; p-valor = 0,06632; gl = 320; RMSEA = 0,032 CFI = 0,99; IFI = 0,99. Este modelo muestra una relación positiva significativa al nivel de 0,05 entre ENTRE e INPRO, lo mismo que entre PUEST y MONIT. Así mismo, se obtuvieron relaciones positivas significativas al nivel de 0,01 entre INPRO y los tres factores de GSCM, y entre PUEST y TUTEL y VISCO. Finalmente, se tiene una relación positiva al nivel de 0,1286 entre CALID e INPRO. Según se muestra en la Tabla 3, estas relaciones permiten configurar en principio una relación indirecta entre ENTRE y las tres dimensiones de GSCM, vía la mediación de INPRO. Sin embargo, debido al efecto directo negativo entre la prioridad competitiva “entrega” y las tres dimensiones de GSCM, la relación total entre la primera y las segundas no es significativa estadísticamente. Se configuraría igualmente una relación, en este caso con un débil soporte estadístico, para la relación indirecta entre CALID y las tres dimensiones de GSCM, vía la mediación de INPRO.
Figura. 2. Modelo de Ecuaciones Estructurales de Segundo Orden. Elaboración Propia.
Tabla 3. Efectos directos, indirectos y totales entre prioridades competitivas y reverdecimiento de la cadena de suministro (GSCM). ° p<0,15; * p<0,10; ** p<0,05; *** p<0,01. ED = efecto directo; EI = efecto indirecto; ET = efecto total.
χ²: p-valor no significativo esperado (se reportan los valores de Satorra-Bentler, al tratarse de la estimación robusta de los parámetros) RMSEA: Valores < 0,08
0,35°
TUTEL
CALID EI
ED
ET
ED
--
0,35°
-0,35
0,57°
0,22*
VISCO
-0,09
0,37°
0,28***
MONIT
-0,35
0,48°
0,13
0,52 ** 0,78** 0,45** -0,63*
ENTRE EI
ET
INPRO
--
0,52**
--
0,85**
0,007
1,45***
0,55**
0,11
0,83***
0,72**
0,09
1,24***
Fuente: Los autores.
CFI: superior a 0,92 IFI: superior a 0,92
3
La validez de los modelos depende de establecer niveles aceptables de los valores de bondad de ajuste, por lo cual se utilizan los siguientes valores para los índices establecidos:
Efecto de X sobre Y INPRO
4
Teóricamente, los tres factores de TQM hacen parte de un mismo constructo, al tratarse de dimensiones complementarias de la gestión de la calidad total. 5 Teóricamente, los tres factores de GSCM hacen parte de un mismo constructo, al tratarse de dimensiones complementarias de GSCM. 245
Leguízamo-Díaz a & Moreno-Mantilla / DYNA 81 (187), pp. 240-248. October, 2014.
4. Discusión y Conclusiones Los resultados obtenidos a partir del ajuste del primer modelo de ecuaciones estructurales dan una base para confirmar que existe una relación estadísticamente significativa entre las prioridades competitivas de calidad (al 5%) y entrega (al 10%) y Total Quality Management (soporte a la hipótesis 1). Adicionalmente, no se encuentra relación significativa entre la prioridad competitiva de costo y la implementación de TQM, lo cual establece un factor de decisión inicial para las empresas, ya que es el camino con menos posibilidades para aprovechar la mediación de TQM para la implementación de prácticas de reverdecimiento de la cadena de suministro. En las prácticas de reverdecimiento de la cadena de suministro, se puede observar que el constructo denominado como Tutelaje de Producto – TUTEL (coeficiente Alfa igual a 0,81) es el que muestra mayor impacto en dichas prácticas. El tutelaje de producto se basa principalmente en la consideración de todas las actividades de la cadena de valor para incorporar la “voz del ambiente” en el diseño de los productosj y que se ve reflejada en la diferenciación del producto en el mercado. Esto se hace con el análisis del ciclo de vida del producto “de la cuna a la tumba” y busca reducir los costos a lo largo de la producción de los mismos respondiendo a las necesidades de diseño del producto, minimizando el uso de recursos no-renovables, evitando el uso de compuestos tóxicos y aumentando el uso de los recursos renovables, reduciendo de esta forma el impacto ambiental del producto [56]. El constructo Monitoreo – MONIT (0,67) y el constructo Visión Compartida – VISCO (0,56) siguen en orden de impacto en las prácticas de reverdecimiento de la cadena de suministro. El primero, se enfoca en exigir a los proveedores que estén alineados con los criterios ambientales de la empresa y por lo tanto dichos criterios se convierten en elementos de decisión para la empresa. El segundo constructo, depende del apoyo de los mandos medios y altos de la empresa para impulsar el desarrollo e implementación de prácticas de reverdecimiento de la cadena de suministro [32]. Se observa que la relación entre la variable que permite operacionalizar una de las dimensiones de Lean Manufacturing (i.e., TQM) y las prácticas de reverdecimiento de la cadena de suministro es positiva y estadísticamente significativa, lo cual permite establecer los lineamientos de una estrategia inicial que involucra un desarrollo previo al interior de la organización que facilite la implementación de mejoras ambientales a lo largo de la cadena de suministro [16]. Los resultados del segundo modelo generado a partir del análisis de la información recolectada sugieren una conexión entre las prioridades competitivas calidad y entrega con al menos una dimensión de Total Quality Management, a saber, integración de proveedores, y de esta última con la implementación de prácticas de reverdecimiento de la cadena de suministro. Estos resultados indican que GSCM tiene un antecedente fundamental: la integración de proveedores, según ha sido propuesto por varios autores [41,49, 57-63], integración que en este caso estaría antecedida del énfasis en
la calidad y en la entrega a tiempo como objetivos estratégicos de manufactura. De aquí que la priorización de la calidad se extienda a toda la cadena y abarque la calidad ambiental con orientación al pensamiento de ciclo de vida de producto [41]. Como se resaltó anteriormente, [64] muestran que el énfasis inicial dentro de TQM en el control estadístico de la calidad en cada operación individual (con el fin de monitorear continuamente el proceso y corregir errores tan pronto se presentan) se extiende a través de la Gestión de la Calidad Total para incluir una frontera que abarca los requisitos del cliente y las operaciones de los proveedores. En adición, estos autores establecen similitudes entre el “costo de calidad” en TQM, que incluye el costo de los defectos y el costo de la prevención, y los costos ambientales, que incluyen el costo relacionado a la contaminación y el costo de prevención de la contaminación. En calidad, los costos de prevenir son más bajos que los costos de los defectos, y de igual forma, los costos de prevenir la contaminación son menores que los de tratarla al final del tubo. En GSCM, se extiende la definición de clientes para abarcar otros grupos de stakeholders y la de defectos para incluir cualquier tipo de desperdicio [64]. No obstante, cabe resaltar el efecto directo negativo observado de la prioridad competitiva de entrega sobre las dimensiones de GSCM. Esto lleva a que el efecto total para la relación entre dicha prioridad y GSCM no sea estadísticamente significativo, incluso después de considerar el efecto indirecto positivo (estadísticamente significativo) a través de la mediación de la integración de proveedores. A diferencia de la relación objeto de análisis en nuestro caso, la literatura ha evaluado el efecto de las prácticas ambientales proactivas sobre el desempeño, y en particular sobre la entrega a tiempo como una de las medidas de este último. Por ejemplo, [65] muestran que una mayor integración ambiental en la cadena de suministro está asociada con una mejora en el desempeño organizacional a través de menores tiempos de manufactura, mayor productividad y finalmente en los tiempos de entrega. Así mismo, [37,66] encuentran efectos directos de las prácticas ambientales sobre la entrega, y [12] encuentran un efecto indirecto que es mediado por la flexibilización como objetivo estratégico. Las relaciones observadas en nuestra investigación indican que las empresas que demuestran un enfoque avanzado de manufactura poseen antecedentes de incorporación de la calidad en la fase previa (prioridad competitiva) y por lo tanto presentan facilidades para orientarse hacia el enfoque de reverdecimiento de la cadena de suministro. Visto de otra forma, consideramos que con esto se da una forma de trayectoria de la dependencia que constituye un círculo virtuoso que facilita o promueve el despliegue de esfuerzos de reverdecimiento de las prácticas en la cadena de suministro. En el caso contrario, aquellas empresas cuya orientación inicial está enfocada fundamentalmente hacia la reducción de costos no encontrarán con facilidad la orientación hacia las prácticas ambientales en la cadena de suministro. Como se dijo anteriormente, las empresas pueden disponer de sus capacidades internas (Lean Manufacturing, en este caso) para convertirlas en capacidades dinámicas dirigidas al tutelaje
246
Leguízamo-Díaz a & Moreno-Mantilla / DYNA 81 (187), pp. 240-248. October, 2014.
medioambiental de sus productos, el monitoreo del desempeño de sus proveedores y la colaboración ambiental con estos [67], permitiendo la obtención de ventajas en mercados cambiantes, de acuerdo con las necesidades de sus clientes. El alcance de las conclusiones derivadas de este trabajo puede verse limitado por al menos tres aspectos de la investigación que deberán ser tenidos en cuenta por futuros trabajos: (i) el carácter exploratorio de los ítems referidos a las prácticas de reverdecimiento de la cadena de suministro para el contexto colombiano, lo cual llevó a que se perdieran dos dimensiones de GSCM en el análisis confirmatorio de factores; (ii) el limitado grado de implementación de prácticas Lean en muchas de las empresas de la muestra, lo cual puede haberse reflejado en que para dos de los tres factores de TQM se llegara al modelo de ecuaciones estructurales con dos ítems que los representen (a cada uno), cuando lo deseable es contar con tres o más; y, (iii) el número relativamente bajo de casos con que se realizó el análisis, lo cual limitó las posibilidades de realizar un análisis más profundo de la validez de los resultados, además de imposibilitar el control del tamaño de la empresa en los modelos que se ajustaron en el trabajo.
[9]
[10] [11]
[12]
[13]
[14] [15] [16]
Agradecimientos Los autores expresan su agradecimiento a los funcionarios del nivel Producción Sostenible del Programa de Gestión Ambiental de la Secretaría Distrital de Ambiente de Bogotá por su amable y valiosa colaboración para la realización de las encuestas de las que se obtuvieron los datos para el estudio. Así mismo, los autores agradecen los pertinentes y rigurosos comentarios hechos por dos pares evaluadores anónimos, estando seguros de que con su aporte se ha enriquecido este trabajo.
[17]
Referencias
[21]
[1]
[2] [3] [4] [5]
[6] [7]
[8]
Gandhi, N.M., Selladurai, V. and Santhi, P., Unsustainable development to sustainable development: a conceptual model, Management of Environmental Quality: An International Journal, 17 (6), pp. 654-672, 2006. Pil, F.K. and Fujimo, T., Lean and reflective production: The dynamic nature of production models, International Journal of Production Research, 45 (16), pp. 3741-3761, 2007. Porter, M. y Van Der Linde, C., Verdes y Competitivos (Green and Competitive: Ending the Stalemate), Harvard Business Review, pp. 120-134, 1995. González-Benito, J. and González-Benito, O., A study of the motivations for the environmental transformation of companies, Industrial Marketing Management, 34 (5), pp. 462-475, 2005. Dües, C., Tan, K. and Lim, M., Green as the new Lean: How to use Lean practices as a catalyst to greening your supply chain, Journal of Cleaner Production, 40 pp. 93-100, 2013. DOI: 10.1016/j.jclepro.2011.12.023 Mollenkopf, D., Stolze, H., Tate, W. and Ueltschy, M., Green, lean, and global supply chains, International Journal of Physical Distribution & Logistics Management, 40 (1/2), pp. 14-41, 2010. Puvanasvaran, A., Kerk, R. and Muhamad, M., Principles and business improvement initiatives of lean relates to Environmental Management System, First International Technology Management Conference, pp. 439-444, 2011. Yang, M.G., Hang, P. and Modi, S., Impact of lean manufacturing and environmental management on business performance: An empirical
[18] [19] [20]
[22]
[23] [24] [25]
[26] [27] [28] [29]
247
study of manufacturing firms, Int. J. Production Economics, 129, pp. 251-261, 2011. Godinho, M. and Faria, F., Strategic paradigms for manufacturing management (SPMM): Key elements and conceptual model, International Journal of Industrial Engineering, 16 (2), pp. 147-149, 2009. Hallgren, M., Manufacturing strategy, capabilities and performance, Linköping: Studies in science and technology dissertations, vol. 1108, 2007. Sarache, W., Cardenas, D., Giraldo, J. y Parra, J., Procedimiento para evaluar la estrategia de manufactura: Aplicaciones en la industria metalmecánica, Cuadernos de Administración, 20 (33), pp. 103-123, 2007. Avella, L., Vazquez-Bustelo, D. and Fernandez, E., Cumulative manufacturing capabilities: An extended model and new empirical evidence, International Journal of Production Research, 3 (1), pp. 707-729, 2011. Díaz-Garrido, E., Martín-Peña, M. and Sánchez-López, J., Competitive priorities in operations: Development of an indicator of strategic position, CIRP Journal of Manufacturing Science and Technology, 4 (1), pp. 118-125, 2011. doi:10.1016/j.cirpj.2011.02.004 Handfield, R., Walton, S., Seegers, L. and Melnyk, S., ‘Green’ value chain practices in the furniture industry, Journal of Operations Management, 15 (4), pp. 293-315, 1997. Angell, L. and Klassen, R., Integrating environmental issues into the mainstream: An agenda for research in operations management, Journal of Operations Management, 17 (5), pp. 575-598, 1999. Hayes, R. and Pisano, G., Beyond world class: The new manufacturing strategy, Harvard Business Review, 72 (1), pp. 77-86, 1994. Boyle, T., Scherrer-Rathje, M. and Stuart, I., Learning to be lean: The influence of external information sources in lean improvements, Journal of Manufacturing Technology Management, 22 (5), pp. 587603, 2011. Christmann, P., Effects of “Best Practices” of environmental management on cost advantage: the role of complementary assets, Academy of Management Journal, 43 (4), pp. 663-680, 2000. Shah, R. and Ward, P.T., Defining and developing measures of lean production, Journal of operations management, 25 (4), pp. 785-805, 2007. Pettersen, J., Defining lean production: some conceptual and practical issues, The TQM Journal, 21 (2), pp. 127-142, 2009. Kathuria, R., Competitive priorities and managerial performance: A taxonomy of small manufactures, Journal of Operations Management, 18 (6), p. 627-641, 2000. da Silveira, G. and Arkader, R., The direct and mediated relationships between supply chain coordination investments and delivery performance, International Journal of Operations & Production Management, 27 (2), pp. 140-158, 2007. Hopp, W. and Spearman, M., Factory physics, New York: McGrawHill, 2008. Dobrzykowski, D., Tran, O. y Hong, P., Insights into integration for supply chain redesign in service and product-focused firms, Int. J. of Services and Operations Management, 8 (3), pp. 260-282, 2011. Rosenzweig, E., Roth, A. y Dean, J., The influence of an integration strategy on competitive capabilities and business performance: An exploratory study of consumer products manufacters, Journal of Operations Management, 21 (4), pp. 437-456, 2003. Vries, R., Leaner and Greener, IEEE International Solid-State Circuits Conference, pp. 8-13, 2009. Simpson, D. and Samson, D., Environmental strategy and low waste operations: Exploring complementarities, Business Strategy and the Environment, 19 (2), pp. 104-118, 2010. Rothenberg, S., Pil, F. and Maxwell, J., Lean, Green, and the quest for superior environmental performance, Production and Operations Management, 10 (3), pp. 228-243, 2001. Mentzer, J., Dewitt, W., Keebler, J., Min, S., Nix, N., Smith, C. and Zacharia, Z., Defining supply chain management, Journal of Business Logistics, 22 (2), pp. 1-25, 2001.
Leguízamo-Díaz a & Moreno-Mantilla / DYNA 81 (187), pp. 240-248. October, 2014. [30] Srivastava, S.K,. Green supply-chain management: A state of the art literature review, International Journal of Management Reviews, 9 (1), pp. 53-80, 2007. [31] Sarkis, J., A boundaries and flows perspective of green supply chain management, Supply Chain Management, 17 (2), pp. 202-216, 2012. [32] Zhu, Q. and Sarkis, J., Relationships between operational practices and performance among early adopters of green supply chain management practices in Chinese manufacturing entreprises, Journal of Operations Management, 22, pp. 265-289, 2004. [33] Seuring, S., Industrial ecology, life cycles, supply chains: Differences and interrelations, Business Strategy and the Environment, 13 (5), pp. 306-319, 2004. [34] Linton, J., Klassen, R. and Jayaraman, V., Sustainable supply chains: An introduction, Journal of Operations Management, 25 (6), pp. 1075-1082, 2007. [35] Simpson, D. and Power, D., Use the supply relationship to develop lean and green suppliers, Supply Chain Management: An International Journal, 10 (1), pp. 60-68, 2005. [36] González-Benito, J., The effect of manufacturing pro-activity on environmental management: an exploratory analysis, International Journal of Production Research, 46 (24), pp. 7017-7038, 2008. [37] Newman, W. and Hanna, M., An empirical exploration of the relationship between manufacturing strategy and environmental management. Two complementary models, International Journal of Operations & Production Management, 16 (4), pp. 69-87, 1996. [38] Jiménez, J.B. y Lorente, J.J., Environmental performance as an operations objective, International Journal & Production Management, 21 (12), pp. 1553-1572, 2001. [39] Chiappetta Jabbour, C.J., da Silva, E.M. and Paiva, E.L., Environmental management in Brazil: is it a completely competitive priority?, Journal of Cleaner Production, 21, pp. 11-22, 2012. [40] Moreno, C.E. and Reyes, J.F., The value of proactive environmental strategy: An empirical evaluation of the contingent approach to dynamic capabilities, Cuadernos de Administración, 26 (47), pp. 87118, 2013. [41] Hart, S., A natural-resource-based view of the firm, The Academy of Management Review, 20 (4), pp. 986-1014, 1995. [42] Adler, P., Goldoftas, B. and Levine, D., Flexibility versus Efficiency? A case study of model changeovers in the Toyota production system, Organization Science, 10 (1), pp. 43-68, 2011. [43] Arnas, E., Lopes de Sousa-Jabbour, A. and Saltorato, P., Relationships between operations strategy and lean manufacturing: An exploratory study, African Journal of Business Management, 7 (5), pp. 344-353, 2013. [44] Sanchez, L., Estrategia de producción para PyMES colombianas del sector de la comunicación en artes gráficas, Tesis Dr., Universidad EAN, Madrid, España, 2011. [45] Shah, R. and Ward, P., Lean manufacturing: Context, practice bundles, and performance, Journal of Operations Management, 21 (2), pp. 129-149, 2003. [46] C. Fricke, Lean management: Awareness, implementation status, and need for implementation support in virginia’s wood industry, MSc. Thesis, The Virginia Polytechnic Institute and State University, Blacksburg, USA, 2010. [47] Ahmad, S., Schroeder, R.G. and Sinha, K.K., The role of infrastructure practices in the effectiveness of JIT practices: Implications for plant competitiveness, Journal of Engineering Technology Management, 20 (3), pp. 161-191, 2003. [48] Flynn, B., Relationship between JIT and TQM: Practices and performance, Academy of Management Journal, 38 (5), pp. 13251380, 1995. [49] Gavronski, I., Klassen, R.D., Vachon, S. and Machado-Do Nascimiento, L.F., A resource-based view of green supply management, Transportation Research Part E: Logistics and Transportation Review, 47 (6), pp. 872-885, 2011. [50] Buysse, K. and Verbeke, A., Proactive environmental strategies: A Stakeholder management perspective, Strategic Management Journal, 24 (5), pp. 453-470, 2003. [51] Guang, V., Natural resource based green supply chain management, Supply Chain Management: An International Journal, 17 (1) , pp. 5467, 2012.
[52] Klassen, R. and Whybark, C., The impact of environmental technologies on manufacturing performance, The Academy of Management Journal, 42 (6), pp. 599-615, 1999. [53] Brown, R., Assessing specific mediational effects in complex theoretical models, Structural Equation Modeling, 4 (2), pp. 142-156, 1997. [54] Iacobucci, D., Saldanha, N. and Deng, X., A meditation on mediation: evidence that structural equations models perform better than regressions, Journal of Consumer Psychology, 17 (2), pp. 140-154, 2007. [55] Hair, J., Black, W., Babin, B. and Anderson, R., Multivariate data analysis, Seven Edition ed., Pearson Prentice Hall, 2010. [56] Hart, S., A natural-resource-based view of the firm, The Academy of Management Review, 20 (4), pp. 986-1014, 1995. [57] Sharma, S. and Vredenburg, H., Proactive corporate environmental strategy and the development of competitively valuable organizational capabilities, Strategic Management Journal, 19 (8), pp. 729-753, 1998. [58] Aragón-Correa, J., Hurtado-Torres, N., Sharma, S. and GarciaMorales, V., Environmental strategy and performance in small firms: A resource-based perspective, Journal of Environmental Management, 86 (1), pp. 88-103, 2008. [59] Vachon, S. and Klassen, R., Extending green practices across the supply chain, International Journal of Operations & Production Management, 26 (7), pp. 795-821, 2006. [60] Seuring, S., Supply chain management for sustainable products – insights from research applying mixed methodologies, Business Strategy and the Environment, 20 (7), pp. 471-484, 2011. [61] Bowen, F., Cousins, P., Lamming, R. and Faruk, A., The role of supply management capabilities in green supply, Production and Operations Management, 10 (2), pp. 174-189, 2001. [62] Paulraj, A., Understanding the relationships between internal resources and capabilities, sustainable supply management and organizational sustainability, Journal of Supply Chain Management, 47 (1), pp. 19-37, 2011. [63] Guang-Shi, V.. Baldwin. J. and Cucchiella, F., Natural resource based green supply chain management, upply Chain Management: An International Journal, 17 (1), pp. 54-67, 2012. [64] Corbett, C. and Klassen, R., Extending the horizons: Environmental excellence as key to improving operations, Manufacturing & Service Operations Management, 8 (1), pp. 5-22, 2006. [65] Vachon, S. and Klassen, R.D., Environmental mangement and manufacturing performance: The rol of collaboration in the supply chain, J. Production Economics, 111 (2), pp. 299-315, 2008. [66] Yang, C., Lin, S., Chan, S. and Sheu, C., Mediated effect of environmental management on manufacturing competitiveness: An empirical study, International Journal of Production Economics, 123 (1), pp. 210-220, 2010. [67] Aragón-Correa, J. and Sharma, S., A contingent resource-based view of proactive corporate environmental strategy, The Academy of Management Review, 28 (1), pp. 71-88, 2003. [68] Diaz-Garrido, E., Martín-Peña, M.L. and Sánchez-López, J.M., Competitive priorities in operations: Development of a indicator of strategic position, CIRP Journal of Manufacturing Science and Technology, 4 (1), pp. 118-125, 2011. [69] Sobel, M.E., Asymptotic confidence intervals for indirect effects in stryctural eqyuation models, Sociological Methodology, 13, pp. 290312, 1982. [70] Hair, J., Anderson, R., Tatham, R. y Black, W., Análisis Multivariante, Fifth Edition ed., Madrid: Prentice Hall Iberia, 1999. T.P. Leguízamo-Díaz, es Ingeniera Industrial en 2012 de la Universidad Nacional de Colombia, Bogotá, Colombia. Candidata a MSc. en Ingeniería Industrial de la Universidad Nacional de Colombia, Bogotá, Colombia. C.E. Moreno-Mantilla, es Ingeniero Industrial en 1995 de la Universidad Industrial de Santander, Bucaramanga, Colombia. Esp. en Ingeniería Ambiental en 1999 de la Universidad Industrial de Santander, Bucaramanga, Colombia y Dr. en Ciencias del Medio Ambiente en 2004 de la Universidad del Estado de Nueva York y Syracuse University, Syracuse, Estados Unidos. Es Profesor Asistente del Departamento de Ingeniería de Sistemas e Industrial, Universidad Nacional de Colombia, Bogotá, Colombia.
248
An emission model as an alternative to O-D matrix in urban goods transport modelling Jesús González-Feliu a, Miguel Gastón Cedillo-Campo b & Jorge Luis García-Alcaraz c a Institut Henri Fayol, EMSE, Saint-Etienne,, Francia, jesus.gonzalez-feliu@cnrs.fr b Instituto Mexicano del Transporte. Querétaro, México. gaston.cedillo@gmail.com c Instituto de Ingeniería y Tecnología, Universidad Autónoma de Ciudad Juárez, México. jorge.garcia@uacj.mx. Received: May 28th, 2014.Received in revised form: August 25th, 2014.Accepted: September 10th, 2014
Abstract This paper presents an alternative method to O-D matrix for estimating road occupancy of urban goods movement (UGM). The originality of the model arises on three elements. The first is that the modelling unit is the delivery operation, with all the elements that are associated to it. The second is that it follows an inductive approach, starting from a rich database, to define different generation functions without a priori applying a defined mathematical framework. The third is that the model is an emission one, i.e. we start generating the number of deliveries that are shipped by the different urban establishments, and not those attracted by them. First, the literature in the field is reviewed. Then, the main methodological elements are presented. We present here the delivery generation procedure and the route definition method. Finally, validation results for both parts of the model are critically discussed. Keywords: urban goods modelling; category class model; delivery-based model; experimental analysis.
Un modelo de emisión como una alternativa a la generación de matrices O-D para modelar el transporte urbano de carga Resumen Este trabajo presenta un método alternativo a la matriz O-D para estimar los impactos del transporte de mercancías urbano. La originalidad del modelo está en tres elementos principales. La primera es que la unidad utilizada es la entrega. La segunda es que se sigue un enfoque inductivo, partiendo de una base de datos rica para definir las diferentes funciones generadoras sin utilizar a priori un marco matemático definido. La tercera es que el modelo es de emisión, es decir, se genera el número de entregas que envían los diferentes establecimientos urbanos, y no las que ellos reciben. En primer lugar, se realiza una revisión de la literatura para posicionar la investigación. A continuación, se presentan los principales elementos metodológicos usados, principalmente el procedimiento de generación de la entrega y método de definición de ruta. Finalmente, los resultados de validación para las dos partes del modelo se presentan y discuten críticamente. Palabras clave: modelado de mercancías en medios urbanos; modelo de clasificación en categorías; modelo basado en la entrega; análisis experimental.
1. Introduction Modelling is one of the main issues of city logistics. Although urban goods modelling is a research subject since 40 years [1,2], the subject is still of actuality nowadays. However, and opposing urban personal transport modelling, the classical four step model is not adapted to urban goods transport [3], so a multitude of approaches is proposed in literature [4-7]. We can therefore observe four main categories of models, related to the general sequential methodology they apply to estimate the impacts of urban
goods transport: classical models with four steps, models with four steps adapted to urban goods transport and combined models, and category class models. The first category (classical four step models) emerged in the 1970s. The aim of this first group of models was to characterise the transport demand of urban business and industrial zones to dimension infrastructures and promote the economic development of these areas [1-2, 8-9]. Other more exhaustive models included services, waste and construction [10-11]. Those models are built using a logic very close to that of urban passenger transport, using data from cordon line
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 249-256. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.46108
González-Feliu et al / DYNA 81 (187), pp. 249-256. October, 2014.
surveys, specific to each city and only focusing on the vehicle trip. The models follow the classical four-step procedure [12]: first, the number of vehicle trips for urban goods transport was generated by emission and attraction; second origin-destination pairs were obtained with a distribution model, generally using gravity or entropy minimisation methods; the third step (modal choice) is replaced by the choice of vehicle given the monomodal nature of UGM. When necessary, traffic assignment (the fourth step) was implemented [13]. Several authors conclude that classical four step models are not adapted to the problem of UGM [3] because they do not take into account the LTL1 nature of transport and other basic elements such as the type of and nature of goods, hence the interest of seeking new paths of reflection. To deal with those limits, the second one adapts four-step models to the LTL nature of urban goods transport. This category, called adapted four-step models, is closely linked to the distribution of business activities and thus transport for third parties. The main steps of this category of models are: (1) generation of needs for goods, (2) estimation of a goods O-D matrix, (3) construction of trip sequences, (4) estimation of a trip O-D matrix and (5) traffic assignment when necessary. For the first step, we therefore find econometric models that estimate the quantity of goods generated by an urban activity attracting goods then the quantity of goods emitted by each zone of influence in the city [14]. This quantity of goods is then distributed to obtain the first O-D matrix, which links the place of shipment and the place of delivery, mainly with gravity models [15]. Thirdly, routes are estimated from data obtained from specific surveys, by using discrete choice methods [16], route optimisation algorithms [14] or multi-agent simulation methods [17]. Then, on the basis of these routes, a second O-D matrix, for vehicle trips this time, is obtained. Finally, traffic assignment can be done by using classical algorithms [17]. The third category (combined models) is more difficult to define, as they combine two or more approaches. Ogden [18] was the first to make a distinction between goods O-D (commodity flow) and vehicle O-D (vehicle trip). . Sonntag [19] proposed using the Savings method frequently used for optimising rounds. In this way each round is built without knowing the quantity of goods. Hunt and Stefan [20] proposed a method based on a set of specific surveys to characterise mods of organisation, and used a discrete choice model to build the rounds. These methods do not comprise the generation of a goods O-D matrix rather they pass from generation to building rounds directly. A limit of that category of models arises on the fact all sequences of trips are rounds, i.e. that the point of departure and destination is the same, as several surveys have shown that this mode of operation only covers part of the trips made to transport urban goods. Another approach by Holguin-Veras et al. [21], started by generating goods O-D (generation and distribution) and then converting them into the stops of a round, to which were added returns and empty first legs, generated specifically. Routes were then built using discrete choice methods. A third group proposes the route as unit of generation. Generation is ensured in a way similar to that of the previous group, by using vehicle stops as the working unit. Each stop is then assigned to a round. 1
Less‐than‐truckload, i.e. the organization of transport into routes having one origin and two or more destinations, opposing to TL (full truckload),
The fourth category is that of category class models, that consist on dividing the entire set of establishment into classes then affecting a generation function. Then, different distribution functions can be assigned. A first group of models propose to generate deliveries using a category class model [22], focusing on generation at destinations, and then explore the origins, without necessarily coming to the definition of transport flows. A second group [23] aims to produce an estimation of travelled kilometres from a category class model based at destinations (so in attraction). This model proposes a method to estimate road occupancy issues based on transposition of survey adjustment coefficients and average values of route characteristics, always following category class approaches. Then, a distribution method can be used to obtain finally O-D matrices [24]. As seen in this synthetic overview (Table 1 presents a synthesis of those 4 categories), and to the best of our knowledge, urban goods movement models attempt to estimate flows by adapting and completing classical fourstep models, sometimes introducing sound methodological innovations, but all of them produce O-D matrices to estimate then road occupancy impacts. Moreover, they start by generating attracted quantities of goods then affecting them to emission zones. Taking as goal to estimate road occupancy impacts, for city planners and in an aggregated way (i.e., by zone or by city) for an entire urban area (i.e. for a higher territory than a city centre), we can question the monoapproach viewpoint that supposes using only O-D matrix Table 1. Synthesis of main demand UGM models Reference
Category
Unit
Implementation issues
[8] [1] [2] [9] [21] [10] [25] [11] [26] [14] [17] [3]
Classical Four steps
Trip
Easy to assess, strong approximation
Classical Four steps
Delivery
Easy to assess, strong approximation
Classical Four steps
Trip
Easy to assess, strong approximation
Adapted Four steps Adapted Four steps Adapted Four steps Adapted Four steps
Commodity
Difficult to assess, city (context) dependent Operational tool used for local planning Strong object reduction due to lack of data Model remains theoretical
[27] [28] [16] [30] [18] [29] [21] [19] [20] [31] [25] [22] [23]
Combined models Combined models Category class
Delivery and commodity Trip Commodity quantity and trip Trip and commodity Round Deliverycommodity
City (context) dependent Takes into account routes Easy to assess, context dependent
Category Delivery Needs very detailed class data Source: Authors ‘elaboration from the literature review presented above. where the transport goes directly from an origin to a unique destination, typical of inter‐urban distribution [7]
250
González-Feliu et al / DYNA 81 (187), pp. 249-256. October, 2014.
estimation to then estimate road occupancy issues. This question arises on two points: the first is that, if we get a zoning of a city and we can estimate routes entering the zone, we can, with empirical methods, estimate road occupancy issues without passing through the approximation of estimating O-D matrices with four-step models (whose errors and limits are clearly set in Ortuzar and Willumsen [12]. The second is that O-D matrices are able to estimate road occupancy by running vehicles, and work well when dealing with aggregated approaches at a city (or urban area level). However, those approaches make abstraction of the routes nature and are public-policy oriented. As city logistics has been developed on an optimisation logic [32], it is important to relate it also to supply chains and to private carriers management issues [33]. Moreover, private carriers are more and more integrated into city logistics projects, and organizational issues become now as important as public policy actions. Indeed, in a first time, city logistics was mainly related to public decision support [34-36], but in the last years we show a highly increasing implication of private companies, mainly with an aim of optimization [3739]. But in terms of modelling, all approaches are “public decision support” oriented or derive from frameworks related in a first time to public policy making. For that reason, we think it is important to propose a model that estimates urban freight transport demand from carriers’ perspectives. Moreover, and since ITS and optimization methods in urban logistics need a good knowledge of demand [40] and the relations between territory and logistics are starting to be studied [41], it is important to develop data production methods that are not expensive and need few computational and financial efforts to support decisions in urban logistics management. This paper aims to propose an alternative methodology to estimate road occupancy issues without generating O-D pairs. This methodology does not propose a new mathematical framework but aims to adapt and existing modelling methods to generate, non O-D matrices but deliveries at their origin, then routes which lengths and stop duration are first defined without a spatial assignment then related to the zones. The novelty is that the proposed model is an emission one, i.e., the generation is made at the goods origin, and then routes are associated to those deliveries using statistical approaches. First, the main methodological elements are presented. Then, calibration results are presented to show the suitability and the validity of the proposed model. Finally, as a conclusion, the model’s main applications are described. 2. Methodology 2.1. Hypotheses, definitions and model structure Before presenting the methodology, it is important to define the main targets, definitions and hypotheses behind the proposed model, to motivate it and introduce its main methodological choices. Although having spatial information is extremely important in planning, the main constraints of integrating urban goods in urban transport and mobility plans resume to identifying road occupancy issues, by zone, since such plans are established in a long term horizon and lead
with general impacts on transport. In such plans, the aim is to make a diagnosis of current and future flows, both for personal and commercial transport (including goods), as well as to estimate the impacts of envisaged actions such as access limitations, infrastructural changes or the creation of logistics platforms or parking areas. In that context, road occupancy issues and other impacts such as pollution or GHG emissions, can be made without necessarily estimating O-D pairs, since the needed results are global indicators, aggregated by zone but do not necessarily need to assigned to a road network. To do this, we need first to collect enough data, of enough quality and in a coherent way. Then we need to be sure such data are representative of the situation we aim to estimate. The choice of the modelling unit is then fundamental to ensure the model suitability. For that reason, we aim to whose not the trip or the quantity of freight, but the movement, intended the pickup or delivery operation at a location, as the observation and modelling unit, to have a coherence between data collection (surveys, described in [42]) and modelling. The movement is then not only a trip origin or destination, but a route stop, to which is associated a quantity of freight (here not considered, but being possible to consider as on [43], an operation (pickup, delivery or combined pickup and delivery), a type of establishment, nature of freight and loading unit. Then, the model structure is defined. First, the number of deliveries of each establishment is generated at its origin, i.e. at the shipper’s location. In parallel, those deliveries are empirically converted into routes, making abstraction of freight quantities in a first time (freight quantities will be able to be added further). Finally, to those routes, a travelled distance is estimated to finally obtain road occupancy rates by running vehicles. 2.2. Generation model The generation model we present here is based on emission and not attraction. In other words, and opposing previous literature in which deliveries are generated at destination, we start by generating the demand at their origin, i.e. starting at a depot or warehouse, after which the potential destinations are assigned to that demand. Thus the generation methods used are not new (they derive from [41]), but they are applied differently (to demand emission at shipment origin and not to demand attraction at shipment destination). In other words, the aim of the model proposed is to generate urban goods flows by focusing on shippers and not on receivers. To do this, we considered an establishment e of an urban area. This establishment is defined by an activity class ae (i.e. the type of premises, in 35 categories). Moreover, a premise is defined by its number of employees empe. The number of deliveries dele that establishment e ships are then defined by (1): del e f (empe , a e )
(1)
As shown in Holguin-Veras et al. [41], some categories of establishments have a generation function that depends on employment rates, but others have a constant generation function at destination. Moreover, ae is a class variable.
251
González-Feliu et al / DYNA 81 (187), pp. 249-256. October, 2014.
Consequently, we proposed an index category class model for generating deliveries at origin. This therefore led us to partition a set of all premises into 34 categories2 (according to the French Institute of Statistics and Economics, INSEE, in its classification at level 2): Pr Pr1 , Pr2 ,... Pri ,...Prn
(2)
such that, e Ei :
del e f ae (emp e ) if ae is employment dependent
del e K ae if an invariant can be demonstrated del e r ae elsewhere where fae is a function (linear or not) of the employment, defined for each employment-dependent category ae; Kae is a constant, also defined for each corresponding category ae; rae is a random value, following a probability distribution (Normal or Rayleigh), also defined for each corresponding category ae. The choice of the probability distribution in non-invariant categories which are also not employment-dependent depends on the standard error s. If s>3*Average, we define a Rayleigh distribution (ref.) in order to avoid negative values. Elsewhere, a Normal distribution will be able to good approximate the probability distribution of the number of deliveries.
procedure that assigns to each delivery generated a set of destinations and constructs a realistic route taken into account the composition of the urban delivery system, using data from the French Surveys on Urban Goods Transport [42]. The procedure is divided into 4 stages: 1. Definition of rates of own and third-party account to each category. 2. Definition of types of routes and characterisation of each category in terms of routes. 3. Empirical route construction procedure: Matching to cover all activities of the city. 4. Travel distance estimation: definition of an average first trip/last trip length and an average intermediary trip length. One of the main characteristics of urban goods transport is the importance of own account transport (about 56% of the total traffic of goods transport in Bordeaux [42]. Since the fact establishments need to be delivered seems to remain invariant with respect to the city or the economic context [42], we can use the data of the French surveys (3 cities) to obtain average ratios that characterize the parts of own account transport for each category of establishments. In other words, given establishment e belonging to category ae and having a number of deliveries at origin in establishment e, noted dele, we define Pmae the percetage of deliveries of each establishment of category ae that follow a mode of management m. We define three modes of management: third party transport (TPT); shipper’s own account (SOA) and receiver’s own account (ROA). Since the sum of deliveries made by each mode of management must be the total number of deliveries dele, the following condition needs to be met: ae ae ae PTPT PSOA PROA 1
2.3. Route construction model The proposed model generated the number of deliveries at each origin, for all establishment of a city or urban area. Opposing to other models, and for reasons of data needs, we aim to propose a model that do not need a big quantity of data in input, so with only generation inputs (at emission) and standard data inputs, the model has to be able to simulate freight transport routes in urban contexts. When speaking about urban freight transport between two establishments, we observe three main modes of management of those transport flows. The first is that of third-party transport, i.e. the transport is carried out by a transport carrier; the second is that of shipper’s own account, i.e. the transport is carried out by the shipper and made by his own vehicles and resources; the third is that of receiver’s own account, i.e. the receiver goes himself by his own vehicle to pick up directly the freight from the shipper or an intermediary platform. The composition of those three modes of management in terms of percentage is different for each category. Moreover, the composition of the transport in terms of route length (in number of stops) is also related to both the category and the mode of management [25]. In this section we propose an empirical route construction
(3)
Assumming that each establishment e belonging to category ae has the same proportion of own account and third party transport, the number of deliveries del me made by mode m are defined as: del me Pmae .del e
(4)
Then, we need to build routes. Given the category of establishment ae and the proportion of routes Pmae made by mode m, we define the average composition of routes extending the findings of Gonzalez-Feliu and Morana [45] to define the average characteristics of a route (in terms of number of deliveries, truck size and traveled distances). 3. Validation results The generation model was calibrated on the basis of the Urban Goods Transport Survey of Bordeaux (France), performed in 1995 [42], although the data is not new, the results of that survey still appear coherent [44, 46]. Moreover, this survey presents a richness that was not
2 Categories are obtained from NAF codes (the French declination of
European NACE codes) in an aggregation in 34 categories. For more information, see http://www.insee.fr. 252
González-Feliu et al / DYNA 81 (187), pp. 249-256. October, 2014. Table 2 Main variant characteristics of the two measurements considered (significant results in bold) Linear regression results Dispersion analysis Sample Critical value Standard Category Name Coef-ficient Adjusted R² Average of F error 1 Agriculture 15 0.270 0.810 1.593E-07 2.800 3.802 2 Craftsmen 17 4.058 0.217 0.025 14.882 54.167 3 Industry-Chemical 21 0.016 -0.047 0.799 32.476 2.770 4 Industry-Intermediary 54 0.117 0.109 0.007 16.037 49.272 5 Industry-Manufacturing 37 0.024 0.326 8.590E-05 3.081 2.597 7 Intermediary distribution 57 0.446 0.429 1.047E-08 8.298 10.073 8 Wholesalers-Non food 38 4.315 0.424 3.142E-06 42.526 107.539 9 Wholesalers-Food 33 0.050 0.009 0.253 10.030 11.134 24 Tertiary-Services 24 0.026 0.032 0.184 1.792 2.265 25 Tertiary-Other 21 0.007 -0.046 0.735 2.650 5.373 Heavy 34 15 0.028 0.346 0.009 2.000 1.961 Industry/Construction Source: Authors ‘elaboration of the results of both linear regression and dispersion analysis presented above
exploited in precedent works, which were more focused on a global vision of the city and not on that of shippers. A sample of 454 representative establishments is surveyed, and each operation was surveyed for a week. Since the sample is small, and for reasons of statistical representativeness [47], only categories with more than 15 individuals in the sample are selected for the model calibration. In this way, the sample has been reduced to 332 establishments belonging to 11 categories of shippers. The categories non present in the analysis contain establishments that are receivers, but not shippers. This does not exclude the fact some shippers can also be receivers, but show, as seen in table 2, which categories are at the origin of freight transport flows: agriculture, craftsmen, industry, intermediary distribution (including logistics and transport operators when moving freight by themselves), wholesalers, construction and tertiary activities. On the basis of these data, two modelling approaches are applied: the first is a linear regression approach to study the relations between the number of deliveries generated and the workforce of the establishment, the second is a mean-standard error estimation to study the potential of applying constant generation rates. Table 2 presents the main calibration results. From the French survey on Urban Goods Transport in Bordeaux we extract the 332 establishment from which we have complete records for transport emissions (i.e. shipments or routes having an origin at the surveyed establishment). We report in Table 2 respectively the sample size, the results of the linear regression and the results of the variance analysis. Finally, we reported which model was chosen for each category (either a constant rate or a linear function of the employment). Concerning linear regression, the model is considered robust if the critical value of F is lower than 1/1000. Moreover, this model is chosen if the R² is higher than 0.4 and the variance analysis does not show a strong invariance. Concerning variance analysis, we consider that a constant rate is suitable if the standard error is less than 10% of the average. We observe 3 robust employmentdependent models (categories 1, 7 and 8) and one robust constant rate model (category 3). For the rest of the categories, if the standard error is less than 1.3 the generation pattern can be seen as a random generation following a normal law (knowing both the average and standard error and assuming that the probability distribution follows a normal law). This is
Retained model Employment dependent Rayleigh Constant Rayleigh Rayleigh Employment dependent Employment dependent Rayleigh Rayleigh Rayleigh Rayleigh
applied to categories 3, 4, 9, 24 and 34. Finally, 3 categories do not show a clear model that seems more robust than the others, while other possibilities exist for (categories 2, 4 and 25). We report in Table 3 the percentages of own account and third party transport in each retained category. Those results are extracted from the generalization of the Survey of Urban Goods Transport in Bordeaux (France). We observe a high predominance of third party transport (i.e., more than 2/3 of routes are third party managed) in four categories: chemical industry, intermediary industry, non-food wholesalers, and heavy industry. The other manufactory, tertiary and distribution activities present third party rates between ½ and 2/3 of the total. Only agriculture presents a lower rate (about 47%). For the report between shipper’s and receiver’s own account, receiver’s own account (the most difficult part of transport to optimize) is usually lower than shipper’s, except in chemical, intermediary industry and non-service tertiary activities. In any case, receiver’s own account is present, as well as shipper’s own account. With those results, we can state that classical models, based on LTL routes made by professionals (in general, the three first categories presented in section 1), will at their best underestimate transport flows (since third party transport is better optimized than own account transport) but also the number of routes. Table 3. Rates of own account and third party transport for delivery emission in the retained categories PSOA PTPT Category Name PROA 1 Agriculture 39.72% 13.05% 47.23% 2 Craftsmen 53.42% 21.40% 25.17% 3 Industry-Chemical 10.60% 15.57% 73.83% 4 Industry-Intermediary 5.40% 17.96% 76.65% 5 Industry-Manufacturing 24.11% 12.81% 63.09% 7 Intermediary distribution 24.14% 9.26% 66.61% 8 Wholesalers-Non food 16.16% 14.00% 69.84% 9 Wholesalers-Food 36.83% 8.03% 55.15% 24 Tertiary-Services 22.33% 14.96% 62.71% 25 Tertiary-Other 23.51% 25.77% 50.72% 34 Heavy Industry/Construction 13.24% 2.86% 83.90% Source: Authors’ elaboration from French urban goods surveys 1995-1997
253
González-Feliu et al / DYNA 81 (187), pp. 249-256. October, 2014. Table 4. Average and standard error of the number of delivery stops for each route category Average number of delivery stops Route size category TPT SOA ROA TL routes (1 delivery) 1.00 1.00 1.00 2 to 10 deliveries 6.47 6.48 3.47 11 to 20 deliveries 15.49 15.69 11.03 21 to 30 deliveries 24.70 24.94 31 or more deliveries 45.95 30.49 Standard error of number of stops Route size category TPT SOA ROA TL routes (1 delivery) 0.00 0.00 0.00 2 to 10 deliveries 2.37 2.19 1.83 11 to 20 deliveries 2.79 2.81 0.58 21 to 30 deliveries 2.58 2.34 31 or more deliveries 12.23 6.43 Source: Adapted from [45]
We report in Table 4 a synthesis of the results obtained from surveys concerning routes composition. We show the average and standard error of the number of delivery stops, aggregated for each category of route. We observe that TPT and SOA routes (i.e. third party transport and own account carried by shippers have a very similar behaviour for categories of route size up to 30 deliveries. The main difference arises in the weights mobilized as shown in [23], but for road occupancy issues the composition of the routes (before spatializing them) are very close. However, the spatial component shows an important role, and the first analyses of data surveyed show a significant difference in terms of travelled kilometres [42]. Receiver’s own account (ROA) has its particularities, since it shows routes until 20 deliveries, which are collection routes (i.e., the receiver does not deliver goods but goes to shippers’ locations to collect them). Those routes are less loaded than TPT and SOA delivery routes so less optimized [42]. Finally, we report in Table 5 the results of an application of the model on the standard dataset of Bordeaux (France) used in the Urban Goods Transport Survey. We selected a significant sample from the survey and adjusted it using the different survey’s adjustment ratios. Then, we applied the proposed generation model on each category. The table can be read as follows. The two first columns show each retained category; the third column represent the total number of deliveries shipped for all establishment of each category, per week, obtained directly from the survey; the fourth column presents the generation results of the model, i.e. the same measurements but estimated using the proposed approach; the fifth column presents the gap between the two results (model vs. survey, so in percentage with respect to survey results). We observe significant gap differences in each category, going from less than 1% (Non-food wholesalers) to about 35% (other tertiary activities), in absolute values. Most results are about 10 to 25% with respect to the surveyed data (in absolute values), which are, according to [12], good results in terms of approximation, taken into account the difficulty to collect data (data is declared by shippers and receivers, and no automatic measurement can be defined nowadays to survey the pickup and delivery operations’ description), the adjustment errors and the data sampling bias [47].
Table 5. Model application on a surveyed sample
Category
Weekly number of deliveries Surveyed Estimated Gap
1 Agriculture 109 118 +8.8% 2 Craftsmen 376 357 -5.2% 3 Industry-Chemical 146 170 +17.0% 4 Industry-Intermediary 1232 1507 +22.3% 5 Industry-Manufacturing 654 560 -14.4% 7 Intermediary distribution 1401 1249 -10.8% 8 Wholesalers-Non food 681 687 +0.7% 9 Wholesalers-Food 311 407 +31.2% 24 Tertiary-Services 271 326 +20.3% 25 Tertiary-Other 923 1249 +35.4% 34 Heavy Industry/Construction 381 289 -24.1% Source: Authors’ elaboration (surveyed data is obtained from French urban goods survey, 1995-1997, estimated data using the proposed model).
4. Conclusion and further developments This paper presented an emission model to estimate the impacts of urban goods transport. After a literature analysis, the methodology of the model has been presented, as well as details on its mathematical framework. Then, validation results have proposed. We observe that urban goods transport present different particularities that classical O-D approaches do not represent accurately. Moreover, validation results complete those of [41] by confirming their findings (generation rates are not homogeneous and each category has different determinants in the generation of urban goods deliveries). Moreover, the alternative proposed by an emission model that generates global impacts instead of O-D pairs seems robust and can be used for different purposes, as for example in urban mobility plans (to include freight flows) or in the definition and assessment of new urban distribution schemes, mainly for setting an initial situation, among others. However, this approach is exploratory and the route construction procedure is empirical and not still related to the space. However, using complementary procedures (as freight quantity generation models like in Gonzalez-Feliu et al. [48], and route spatial construction methods like in [45], this model can be a good tool to propose realistic VRP instances for city logistics problems, which are needed by the scientific community who uses for the moment theoretical instances [49,50]. Moreover, from survey data, a parking time can be associated to obtain road occupancy rates by stopped vehicles. This should be done in a similar way than the rest of the modelling approaches, i.e., in an inductive way in order to find the best relation between parking time, category of establishment and/or vehicle, mode of management and eventually freight quantity. We insist in the fact that using averages can be interesting at an aggregate level (or macroscopic), for example to obtain road occupancy issues at the level of an urban area, but when dealing with street planning (parking issues or retailing location issues in terms of delivery needs), or on logistics management (in terms of route needs) it is important to produce more information than an average, as for example a mathematical relation (either linear or not), a distribution probability or, for practical issues, a suitability range (i.e., a min-max range within which
254
González-Feliu et al / DYNA 81 (187), pp. 249-256. October, 2014.
the generated ratios must be included, to complete the average value). Further developments of the model include improving the route construction procedure to provide an analytical framework able to be adapted to any context, and the completion of the model by adding road occupancy issues by stopped vehicles, which will be obtained from surveys’ data and associated to each delivery of each route by a similar generation-assignment procedure as the number of deliveries or goods quantities. Acknowledgments This work was done during Dr. Gonzalez-Feliu’s stay at Laboratoire d’Economie des Transports, mainly in the context of the ANNONA project, financed by the Sustainable Cities and Buildings Program of ANR (French National Agency of Research). Authors also thank Christian Ambrosini for his valuable suggestions that helped to improve the paper. References [1] [2] [3] [4]
[5] [6] [7]
[8] [9] [10] [11] [12] [13] [14]
[15]
Meyburg, A.H. and Stopher, P.R., Towards trip attraction models for freight vehicle trips to shopping plazas. Transportation Research Record, 496, pp. 68-79, 1974. Watson, P.L., Urban goods movement: A disaggregate approach, C.D. Heath, Lexington, 1975. Gentile, G. and Vigo, D., Movement generation and trip distribution for freight demand modelling applied to city logistics. European Transport / Trasporti Europei, 54 (6), pp. 1-27, 2013. Anand, N., Quak, H., van Duin, R. and Tavasszy, L., City logistics modelling efforts: Trends and gaps. A review. Procedia Social and Behavioural Science, 39, pp. 101-115, 2012. DOI: 10.1016/j.sbspro.2012.03.094 Comi, A., Delle-Site, P., Filippi, F. and Nuzzolo, A., Urban freight transport demand modelling: A state of the art. European Transport/Trasporti Europei, 51 (7), pp. 1-17, 2012. Gonzalez-Feliu, J. and Routhier, J.L., Modelling urban goods movement: How to be oriented with so many approaches?, Procedia Social and Behavioral Science, 39, pp. 89-100, 2012. Gonzalez-Feliu, J., Multi-Stage LTL Transport systems in supply chain management. In Cheung, J., Song, H. (eds.), Logistics: Perspectives, approaches and challenges, Nova Science Publishers, New York, pp. 65-86, 2013. Demetsky, M.J., Measurement of urban commodity movements. Transportationn Research Record, 496, pp. 57-67, 1974. Loebl, S.A. and Crowley, K.W., Aspects of demand for urban goods movement in city centers. Transportation Research Record, 591, pp. 38-40, 1976. Ogden, K.W., Urban goods movement: A guide to policy and planning Aldershot: Ashgate, 1992. Eriksson, J.R., Urban freight Transprt forecasting – an empirical approach. Urban Transportation and the Environment II, Computational Mechanism Publications, Ashurst, pp. 359-369, 1997. Ortúzar, J. de D. and Willumsen, L.G., Modelling transport, John Wiley & Sons, Chichester, 2001. Janssen, T. and Vollmer, R., Development of a urban commercial transport model for smaller areas. German Society for Geography Annual Meeting, Berlin, 2005. Boerkamps, J.H., van Binsbergen, A.J. and Bovy, P.H., Modeling behavioral aspects of urban freight movement in supply chains. Transportation Research Record: Journal of the Transportation Research Board, 1725, pp. 17-25, 2000. D’Este, G., Urban freight movement modeling. In Hensher, D.A., Button, K.J. (eds.), Handbook of transport modelling, Pergamon, Oxford, pp. 539-552, 2001.
[16] Nuzzolo, A., Crisalli, U. and Comi, A., A trip chain order model for simulating urban freight restocking. European Transport / Trasporti Europei, 50 (7), pp. 1-13, 2012. [17] Wisetjindawat, W., Sano, K. and Matsumoto, S., Commodity distribution model incorporating spatial interactions for urban freight movement. Transportation research record: Journal of the Transportation Research Board, 1966, pp. 41-50, 2006. [18] Ogden, K.W., The distribution of truck trips and commodity flow in urban areas: A gravity model analysis. Transportation Research, 12 (2), pp. 131-137, 1978. [19] Sonntag, H., A computer model of urban commercial traffic, in transport. Policy and Decision Making, 3 (2), pp. 171-180, 1985. [20] Hunt, J.D. and Stefan, K.J., Tour-based microsimulation of urban commercial movements. Transportation Research Part B, 14 (9), pp. 981-1013, 2007. [21] Holguin-Veras, J., Thorson, E. and Zorilla, J.C., Commercial vehicle empty trip models with variable zero order empty trip probabilities. Networks and Spatial Economics, 10 (2), pp. 241-259, 2010. [22] Maejima, T., An application of continuous spatial models to freight movements in Greater London. Transportation, 8 (1), pp. 51-63, 1979. [23] Aubert, P. L. and Routhier, J.L., Freturb: Un modèle de simulation des transports de merchandises en ville. In Transport Modes and Systems: Proc., 8th World Conf. on Transport Research. Vol. 1. Amsterdam, The Netherlands: Pergamon, pp. 531-544, 1999. [24] Gonzalez-Feliu J., Toilier, F., Ambrosini, C. and Routhier, J.L., Estimated data production for urban goods transport diagnosis. The Freturb methodology. In Gonzalez-Feliu, J., Semet., F., Routhier, J.L. (eds.), Sustainable urban logistics: Concepts, methods and information systems, Springer, Heidelberg, pp. 115-144, 2014. [25] Slavin, H.L. Demand for urban goods vehicle trips, Transportation Research Record, 591, pp. 32-37, 1976. [26] Ministerie VROM., Handboek vrachtverkeer in gemeenten, CROW, Ede, 1996. [27] Muñuzuri, J., Cortés, P., Onieva, L. and Guadix, J., Estimation of daily vehicle flows for urban freight deliveries. Journal of Urban Planning and Development, 138 (1), pp. 43-52, 2012. [28] Russo, F. and Comi, A., A modeling system to simulate goods movements at an urban scale. Transportation, 37 (6), pp. 987-1009, 2010. [29] Slavin, H.L., Enhanced framework for modeling urban truck trips. Proceedings of the 6th National Conference on Transportation Planning for Small and Medium-Sized Communities, Transportation Research Board, Washington, USA, 1998. [30] Crocco, F., De-Marco, S., Iaquinta, P. and Mongelli, D.W.E., Freight transport in urban areas: An integrated system of models to simulate freight demand and passengers demand for purchase trips, International Journal of Mathematical Models and Methods in Applied Sciences, 4 (4), pp. 295-273, 2010. [31] Schwerdtfeger, W., Städtischer Lieferverkehr, Technischen Universität Carolo-Wilhelmina, Braunschweig, 1976. [32] Taniguchi, E., Thomson, R.G., Yamada, T. and Van-Duin, R., City logistics - network modelling and intelligent transport systems, Elsevier, Amsterdam, The Netherlands, 2001. [33] Browne, M. and Gómez, M., The impact on urban distribution operations of upstream supply chain constraints, International Journal of Physical Distribution & Logistics Management, 41 (9), pp. 896912, 2001. [34] Muñuzuri, J., Larrañeta, J., Onieva, L. and Cortés, P., Solutions applicable by local administrations for urban logistics improvement, Cities, 22 (1), pp. 15-28, 2005. [35] Russo, F. and Comi, A., Measures for sustainable freight transportation at urban scale: Expected goals and tested results in Europe. Journal of Urban Planning and Development, 137 (2), pp. 142-152, 2010. [36] Sanz, G., Pastor, R. y Benedito, E., Distribución urbana de mercancías: Descripción y clasificación de soluciones existentes e implementación de dos soluciones novedosas. DYNA, 80 (179), pp. 6-13, 2013. [37] Arango-Serna, M.D., Serna-Uran, C.A. and Alvarez-Uribe, K.C., Collaborative autonomous systems in models of urban logistics. DYNA 79 (172), pp. 171-179, 2012.
255
González-Feliu et al / DYNA 81 (187), pp. 249-256. October, 2014. [38] Ballantyne, E.E., Lindholm, M. and Whiteing, A., A comparative study of urban freight transport planning: Addressing stakeholder needs. Journal of Transport Geography, 32, pp. 93-101, 2013. [39] Gonzalez-Feliu, J., Semet, F., Routhier, J.L., eds. Sustainable urban logistics: Concepts, methods and information systems, Springer, Heidelberg, 2014. [40] Zapata-Cortes, J.A., Arango-Senrna, M.D. and Gómez, R.A., Information systems applied to transport improvement. DYNA 80 (180), pp. 77-86, 2013. [41] Avelar-Sosa, L., García-Alcaraz, J.L., Cedillo-Campos, M.G. and Adarme-Jaimes, W., Effects of regional infrastructure and offered services in the supply chains performance: Case Ciudad Juarez. DYNA 81 (186), pp. 208-217, 2014. [42] Ambrosini, C., Patier, D. and Routhier, J.L., Urban freight establishment and tour based surveys for policy oriented modelling. Procedia-Social and Behavioral Sciences, 2 (3), pp. 6013-6026, 2010. [43] Gonzalez-Feliu, J., Salanova-Grau, J., Morana, J., Ma, T.Y., Design and scenario assessment for collaborative logistics and freight transport systems, International Journal of Transport Economics, 40 (2), pp. 207-240, 2013. [44] Dablanc, L., Goods transport in large European cities: Difficult to organize, difficult to modernize. Transportation Research Part A: Policy and Practice, 41 (3), pp. 280-285, 2007. [45] Gonzalez-Feliu, J. and Morana, J. Assessing urban logistics pooling sustainability via a hierarchic dashboard from a group decision perspective. In Macharis, C., Melo, S., Woxenius, J., Van-Lier, T. (eds.) Sustainable Logistics, Emerald, Coll. Transport and Sustainability, 6, 2014, in press. [46] Ambrosini, C., Gonzalez-Feliu, J., Toilier, F., A design methodology for scenario-analysis in urban freight modelling, European Transport/Trasporti Europei, 54, pp. 1-21, 2013, [47] Wonnacott, T.H. and Wonnacott, R.J., Introductory statistics, and introductory statistics for business and economics. John Wiley & sons, 2001. [48] Gonzalez-Feliu, J., Salanova Grau, J.M. and Beziat, A., A locationbased accessibility analysis to estimate the suitability of urban consolidation facilities, International Journal of Urban Sciences, 18 (2), pp. 166-185, 2014. [49] Crainic, T.G., City Logistics. In Chen, Z.L. and Raghavan, S. (eds.), Tutorials in operations research 2008. State-of-the-art decision making tools in the information-intensive age. INFORMS, pp. 181212, 2008. [50] Soto-de la Vega, D., Vidal-Vieira, J.G. and Vitor-Toso, E.A., Metodología para la localización de centros de distribución a través de análisis multicriterio y optimización. DYNA 81 (184), pp. 28-35, 2014.
modelación en Supply Chain Clustering, todos ellos desarrollados con financiamiento tanto de empresas mexicanas, como globales y del Consejo Nacional de Ciencia y Tecnología (CONACYT) de México. J. L. García-Alcaraz, es Ingeniero Industrial de la Universidad Autónoma de Ciudad Juárez, México, es MSc. en Ingeniería Industrial del Instituto Tecnológico de Colima, México, Dr. en Ingeniería Industrial del Instituto Tecnológico de Ciudad Juárez, México y PhD. de la Universidad de La Rioja, España. Es miembro fundador de la Sociedad Mexicana de Investigación de Operaciones y miembro activo de la Academia Mexicana de Ingeniería Industrial. El Dr. García es investigador reconocido por el Consejo Nacional de Ciencia y Tecnología de México (CONACYT). Sus principales áreas de investigación están relacionadas con la toma de decisiones multicriterio y modelado aplicado a procesos de producción. Es autor-coautor de más de 100 artículos publicados en revistas, conferencias y congresos internacionales.
J. González-Feliu, es MSc. en Ingeniería Civil y Urbanismo en el INSA de Lyon, Francia, PhD. en Ciencias de la Computación y Sistemas del Politecnico di Torino, Italia. Es Investigación Científica (CNRS) afectado al LET (Laboratoire d’Economie des Transports). Desde el 1 de octubre 2014 destacado a Institut Henri Fayol, Ecole Nationale Supérieur des Mines de Saint-Etienne, Francia. Sus principales áreas de investigación están relacionadas con la logística urbana, el modelado de la demanda de transporte y la logística sostenible. Es autor-coautor de más de 50 artículos publicados en revistas, conferencias y congresos internacionales. M. G. Cedillo-Campo, es Profesor-Investigador en Análisis Dinámico de Sistemas Logísticos y Presidente Fundador de la Asociación Mexicana de Logística y Cadena de Suministro. El Dr. Cedillo es Investigador Nacional Nivel 1, Mérito a la Innovación UANL-FIME 2012 y Premio Nacional de Logística 2012. Actualmente Investigador de Tiempo Completo del Instituto Mexicano del Transporte (Centro de Tecnología e Innovación de la Secretaría de Comunicaciones y Transportes), México. En el campo profesional, cuenta con 17 años de experiencia en ámbito de la investigación y aplicación de soluciones tecnológicas en logística y el transporte. Es coautor del libro “Análisis Dinámico de Sistemas Industriales”. El Dr. Cedillo es miembro titular de la Academia Mexicana de Ciencias de Sistemas y Presidente del Comité Científico del Congreso Internacional en Logística y Cadena de Suministro (CiLOG), México. Sus más recientes investigaciones y proyectos de consultoría se enfocan en diseño de cadenas de suministro para mercados emergentes, sistemas de transporte, así como diseño y 256
Model for the logistics distribution of medicines in the Colombian public health program Juan Pablo Castrellón-Torres a, Jairo Humberto Torres-Acosta b & Wilson Adarme-Jaimes c b
a Facultad de Ingeniería, Universidad Nacional de Colombia, Bogotá, Colombia. jpcastrellont@unal.edu.co Facultad de Ingeniería, Universidad Distrital Francisco José de Caldas, Bogotá, Colombia. jatorresa@udistrital.edu.co c Facultad de Ingeniería, Universidad Nacional de Colombia, Bogotá, Colombia. wadarmej@unal.edu.co
Received: May 28th, 2014.Received in revised form: August 25th, 2014.Accepted: September 10th, 2014
Abstract This paper presents the results of the general modelling process for the logistics of medicines distribution within the public health program in Colombia. The model is grounded in verifying the conditions on the current information for the logistics distribution system of the medicines in the six (6) public health programs in Colombia. Verification on the structure and robustness of the created model is developed through an emulation system based on the matrix of real information, and later verified by using a discrete simulation program developed in visual.Net with input and output to Excel. The proposal is tested and validated through GAMS® – General Algebraic Modelling System, with the formulation of three operational scenarios that achieve savings up to 57,44% of the total cost of the public health medicines logistics system. Keywords: Modeling, logistics, procurement, distribution, public health, strategy, tactics, operations.
Modelo para la operación logística de distribución de medicamentos del programa de salud pública en Colombia Resumen El artículo presenta los resultados del proceso de modelado general para la logística de distribución de medicamentos dentro del programa de salud pública en Colombia. El modelo se fundamenta en la verificación de las condiciones sobre la información real para el sistema logístico de distribución de medicamentos en los seis (6) programas de salud pública en Colombia. La verificación sobre la estructura y robustez del modelo creado, se desarrolla a través de un sistema de emulación desarrollado con base en la matriz de información real, para posteriormente ser verificado a través de simulación discreta mediante un programa desarrollado en visual.Net con entrada y salida para Excel. La propuesta es probada y validada a través de GAMS® (General Algebraic Modelling System), con la formulación de tres escenarios de operación que de manera secuencial permiten ahorros de hasta el 57,44% en el costo total del sistema logístico de medicamentos de salud pública. Palabras Clave: Modelado, logística, abasto, distribución, Salud pública, estrategia, táctica, operación.
1. Introducción La logística, cuyo objetivo es proveer la cantidad exacta de productos en el lugar definido, en el momento en que se necesitan y con la calidad y precio requeridos [1-3], es el soporte operativo de las organizaciones del mundo de hoy [4], en donde el transporte, manipulación, almacenamiento y recolección de los productos que son necesarios en los sistemas productivos, son las actividades más destacadas. En el sector de la salud, en donde se debe proveer atención integral al paciente [5], incluyendo el empleo de
tecnologías sanitarias [6], las operaciones logísticas son cruciales para asegurar la disponibilidad óptima de ellas con el fin de maximizar la efectividad y oportunidad del sistema para beneficio del usuario final [7-9]. Se ha estimado que el costo asociado a las actividades logísticas en la red de salud pública corresponde al 46% del presupuesto total asignado a la operación de la red [10]. Gran parte de esta situación se debe a la falta de un adecuado modelo de gestión que optimice la disyuntiva entre la calidad de servicios médicos, la accesibilidad a los servicios y los costos hospitalarios [11]. Ahorros de hasta un 19%, pueden
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 257-266. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.46107
Castrellón-Torres et al / DYNA 81 (187), pp. 257-266. October, 2014.
proceder de una mejor gestión de los suministros. Con el objetivo de mejorar los indicadores de eficiencia y oportunidad en la entrega de los bienes y servicios, reduciendo los costos y el tiempo de operación, se propone la definición de la operación logística a nivel estratégico, táctico y operativo, de seis (6) programas de salud pública en Colombia: Enfermedades Transmisibles por Vectores (ETV) –Leishmaniasis, Dengue y Enfermedad de Chagas–; Malaria; Tuberculosis (TB), y una agrupación denominada biológicos (vacunas). En este contexto, el desarrollo de la investigación, objeto central de este artículo, define y estructura en sus tres capas componentes, un modelo de optimización discreto para las decisiones logísticas estratégicas, tácticas y operativas, el cual se ha verificado mediante simulación, permitiendo validar los objetivos planteados. El desarrollo de la investigación contempla la creación y estructura de los componentes conceptuales, estructurales y matemáticos como elementos principales del modelado matemático general, fundamentado éste en la verificación de las condiciones sobre la información real para el sistema de distribución logística de medicamentos en los seis (6) programas de salud pública en Colombia. El artículo inicia con la presentación del estado del arte, seguido de la propuesta metodológica y posteriormente el desarrollo de la misma a través de la contextualización, la propuesta de operación, la estructuración del modelo y finalmente las conclusiones. 2. Estado del arte – Diseño de redes de distribución En el marco de desarrollo de la propuesta, el componente de localización es determinante en la evaluación de los escenarios de operación logística (compras, almacenamiento y distribución) para los programas de salud pública del país. Las consideraciones de localización o relocalización establecen las mejores alternativas de distribución, de forma eficiente y oportuna que respondan a las necesidades reales de prevención y atención a la población colombiana. De acuerdo con [12], la evaluación de alternativas de localización o relocalización hacen parte del componente estratégico organizacional, que busca definir mejores prácticas logísticas a partir de ubicaciones óptimas. La planeación estratégica está influenciada por un conjunto de elementos críticos, tales como el diseño de la cadena de suministro, los procesos de selección de proveedores, la definición de flujos físicos y de información al interior de la cadena, y la localización de instalaciones [13]. En [14] se asegura que las decisiones de localización, además de ser especialmente críticas, presentan un alto grado de dificultad en relación con las demás categorías de decisión relativas al desarrollo de procesos eficientes al interior de las cadenas de suministro. Existen diversas situaciones coyunturales que constituyen problemas de localización de instalaciones, las cuales deben ser enfrentadas por las organizaciones [15]. El primer enfoque dado a este problema consiste en el estudio de instalaciones únicas, evolucionando hacia la investigación alrededor de múltiples instalaciones.
Con respecto a las decisiones de ubicación de instalaciones para los propósitos de distribución, se han incorporado modelos y formulaciones de problemas que resuelven situaciones con parámetros determinísticos / estocásticos, productos unitarios / múltiples y horizontes de planeación de únicos / múltiples periodos. El problema de la mediana P es una de las propuestas más desarrolladas de la comunidad académica [16] debido a su sencillez para seleccionar p instalaciones que minimice las distancias o costos totales para suplir las demandas del consumidor. Un modelo extendido de la mediana p es el Problema de Localización de Instalaciones sin restricciones de capacidad (UFLP, por sus siglas en inglés) [17] que considera un costo fijo de montaje para establecer cada instalación, y el Problema de Localización de Instalaciones con Capacidad restringida (CFLP, por sus siglas en inglés) el cual asigna una demanda máxima a las instalaciones teniendo en cuenta las variables exógenas además de las endógenas tales como las distancias entre los clientes y las instalaciones [18]. En la última década, los investigadores que tratan el tema de localización de instalaciones se han enfocado en los problemas de diseño de redes dinámicas. Estos problemas han sido abordados por primera vez en [19]. En particular, se considera el objetivo de localizar una bodega con el fin de maximizar las ganancias durante un horizonte de tiempo determinado. En [20] se hace especial énfasis en la formulación de diseños de red que soportan estrategias administrativas tales como los sistemas de trazabilidad, desde las perspectivas de producción y distribución, como modelos que son capaces de mitigar las perturbaciones y alteraciones en las cadenas de suministros de perecederos, especialmente en los intereses de la seguridad, calidad e integridad del producto [21]. En [22] se presenta un modelo con un alcance estratégico con el diseño de un sistema de trazabilidad. Existen otras decisiones estratégicas/tácticas que suceden en el proceso de diseño de la red, y han sido estudiadas y combinadas en modelos matemáticos por parte de investigadores en todo el mundo [23], como la localización de plantas / almacenes [24], planeación de la red de distribución [15], las adopciones de tecnología [25], entre otros. De acuerdo con [26], la mayor parte del tiempo, el problema de asignación y localización conduce a modelos de programación lineal entera mixta, donde variables binarias de decisión sirven como vehículo para determinar si una planta de procesamiento o un almacén se abrirá o no. Para discusiones adicionales, en [26] se describe en detalle los problemas de asignación y localización y los métodos utilizados para su solución. En [27] se aborda el problema de diseño de redes de suministro de productos perecederos, considerando un híbrido entre un modelo sensible y un modelo eficiente. En [28] se hace hincapié en un modelo, en el campo de las soluciones de programación lineal entera mixta para el problema de localización, que vincula la degradación de la calidad con la función objetivo para decidir si emplazar o no un almacén de refrigeración. En [25] se afirma que las consideraciones de los modelos para el diseño de la red carecen de aspectos tales como múltiples productos perecederos, o diseños de red que
258
Castrellón-Torres et al / DYNA 81 (187), pp. 257-266. October, 2014.
características técnicas con las que fueron fabricados, así como para garantizar la custodia de los bienes del Estado. El sistema de distribución encabezado por el Ministerio de Salud y Protección Social se caracteriza por usar un sistema de pedido de “halar” en el cual se determinan los tipos y cantidades de medicamentos, vacunas e insumos que se distribuirán en los niveles inferiores del sistema de acuerdo con un plan de necesidades que cada departamento o distrito reporta.
Figura 1. Etapas de la metodología Fuente: Propia
combinen las decisiones de producción-distribución, niveles de ocupación de los medios de transporte o la selección de los modos de transporte para perecederos que no necesiten cadena de frio. La estructura del sistema de logística desarrollada para el Ministerio de Salud y Protección Social permite desarrollar la gestión integral del sistema, ofreciendo soluciones logísticas adecuadas, que permiten la selección de modos de transporte, la asignación a medios de almacenamiento y transporte, la selección de proveedores y las frecuencias de envío. Con estos atributos el modelo busca generar valor agregado en toda la cadena, prestando servicios logísticos competitivos y de calidad en sus actividades básicas, así como otras funciones especiales requeridas, lo que se convierte en el factor de diferenciación en la gestión de la cadena de suministro. 3. Metodología Las etapas de la metodología necesarias para el desarrollo del proyecto se presentan en la Fig. 1. Estas se definieron tomando como marco de referencia el tipo de investigación y resultado requeridos. 3.1. Definición del objeto de estudio El trabajo de campo realizado permitió identificar dos niveles de gestión y operación, los cuales son importantes por estar en concordancia con el modelo a estructurar y que posteriormente permitirán obtener el modelo general. 3.1.1. Primer nivel El primer nivel corresponde a la actividad del Ministerio de Salud en cuanto al abastecimiento, almacenamiento y distribución. El proceso de abastecimiento en el primer nivel se realiza principalmente entre el Ministerio de Salud y Protección Social y la Organización Panamericana de la Salud –OPS, mediante los Fondos rotatorios y Estratégicos, creados como mecanismo de facilitación en los países centro y latinoamericanos para la adquisición de los diferentes medicamentos e insumos. El proceso de almacenamiento se lleva a cabo en el Almacén Central que el Ministerio tiene destinado para tal fin, con el objetivo de garantizar la integridad de los medicamentos y otros insumos manteniendo las
3.1.2. Segundo nivel El segundo nivel correspondiente a las secretarías de salud departamentales y distritales se caracterizó mediante visitas de campo a los puntos especificados por el Ministerio de Salud. Los hallazgos generales obtenidos de las visitas realizadas son los siguientes: No existe unicidad en el desarrollo de las operaciones en relación con la entidad encargada de almacenar y distribuir los medicamentos en cada uno de los puntos requeridos lo cual no permite una operación normal. En cuanto a la gestión de almacenes se evidencia que obedece a dinámicas heterogéneas en los diferentes puntos visitados. Se hallaron por ejemplo desde sistemas de información tan sofisticados como SAP®1, hasta el uso de registros manuales en una gran cantidad de las secretarías visitadas. De igual manera, sobresale el uso de herramientas como Excel® y Access® para la gestión. Se evidenció que la principal causa de pérdida de medicamentos es la expiración o caducidad de éstos, con frecuencia hay medicamentos que no pueden ser empleados, ya que son abastecidos con una vida útil corta, es decir con menos de tres meses de vencimiento, lo cual está asociado a la baja rotación de algunos medicamentos, pues su demanda es inferior a las cantidades mínimas que ofrece la Organización Panamericana de la Salud (OPS). Una vez verificada la situación problemática encontrada, se puede concluir que es necesario desarrollar una investigación que permita estructurar el modelo para la operación estratégica, táctica y operativa de la logística de distribución de medicamentos del programa de salud pública en Colombia. 3.2. Caracterización y diagnóstico de la operación logística La caracterización se basó en instrumentos de recolección de información dirigidos a más de 40 agentes intervinientes identificados. La información primaria recolectada se consolidó, analizó y a partir de la misma se identificaron los parámetros del sistema. 3.3. Propuesta de operación logística El desarrollo y estructuración del modelo matemático tiene como lineamentos básicos las filosofías de coordinación y cooperación de los diferentes nodos de la estructura de la red diseñada para tal propósito.
1 Software que maneja una plataforma ERP para el desarrollo de planificación integrada de las organizaciones
259
Castrellón-Torres et al / DYNA 81 (187), pp. 257-266. October, 2014.
Se diseñó una estructura de programación, que responde con exactitud a la información de salida deseada tomando como insumos fundamentales los que a continuación se relacionan. Maestro de medicamentos. Sistema de codificación e identificación de los medicamentos / insumos. Sistema integrado de almacenamiento. Políticas de inventarios. Se toman en cuenta los parámetros de costos logísticos asociados a la compra, mantenimiento de medicamentos/ insumos, picking, packing, transporte, cargue, descargue y demás parámetros derivados de la operación del sistema logístico tales como distancias recorridas y capacidades disponibles, algunos de los cuales se agrupan de acuerdo con los criterios generales que se manejan en el estado del arte de este dominio de conocimiento. Finalmente, los tiempos de entrega o lead times se han considerado determinísticos, como supuesto del modelo en cuanto a la regularidad y normalidad de los tiempos de transporte, por lo cual no varían durante el horizonte de planeación y se contemplan al final de las corridas. Las instancias a correr se han desarrollado en código GAMS®. Adicionalmente, se ha utilizado un modelo de emulación y simulación desarrollado en Visual Basic® con entrada y salida en Excel®. Una vez verificadas las condiciones sobre la información real para el sistema de distribución logística del abastecimiento de medicamentos para los seis (6) programas de salud pública en Colombia, se establece que existe sólo una fuente de adquisición, la cual es la Organización Panamericana de la Salud (OPS), dada k como el número de fuentes de adquisición, se establece que ; Se pudo establecer que el único lugar de desembarco es Bogotá D.C, a través del Aeropuerto Internacional El Dorado, por tanto sólo existe una fuente para la distribución del sistema de abastecimiento. En este escenario, también se determinó que es probable que el abastecimiento de medicamentos pueda tener como centro de acopio temporal las bodegas del aeropuerto para algunos tipos de medicamentos predefinidos. Así, se tendrían entonces dos centros de acopio (bodega central y bodegas Aeropuerto El Dorado) y un único lugar de desembarco.
3.3.1.
Estructura del medicamentos
sistema
de
distribución
Figura 2. Estructura del sistema abasto-distribución Fuente: Propia
matemático es de trascendental importancia debido a que es uno de los lead time que determinan el tiempo rector del sistema. En la geometría del sistema la identificación queda como:
En el segundo nivel, correspondiente al puerto o aeropuerto de desembarco, se estableció que existe un sólo aeropuerto de desembarque y la identificación se establece como sigue:
En relación con la bodega central que corresponde al tercer nivel, ésta se encuentra ubicada en Bogotá. La identificación geométrica es la siguiente:
Una vez ubicados los medicamentos en la bodega central, estos se tienen que distribuir a las bodegas regionales que corresponden al cuarto nivel de la estructura. En este nivel es necesario tomar la decisión relacionada con el modo de transporte terrestre o aéreo dependiendo del tiempo de desplazamiento requerido :
de
El comportamiento estructural del sistema abastecimiento-distribución se puede observar en la Fig. 2. En relación con la Fig. 2, la estructura del sistema abastecimiento-distribución está compuesto por cinco (5) niveles, dos de los cuales sirven de frontera al sistema; los correspondientes a los orígenes y a las cabeceras municipales. Los orígenes o procedencia de los medicamentos correspondientes al primer nivel, aunque en el desarrollo para la investigación no se contemplan por haberse tomado como origen la OPS, para la estructura del modelo
La identificación de la bodega regional es la siguiente:
Finalmente, se tiene el quinto nivel en donde se encuentran ubicadas las bodegas de las cabeceras municipales que al igual que el primer nivel no se contemplan en el desarrollo de la investigación, pero que aun así son de vital importancia para la estructura integral del modelo. La geometría del sistema identifica este nivel así:
260
Castrellón-Torres et al / DYNA 81 (187), pp. 257-266. October, 2014.
3.3.2. Consideraciones generales y estructura del modelo .
Una vez establecidos todos los criterios de pertinencia en relación con el trabajo desarrollado para el Ministerio de Salud y Protección Social en el contexto del manejo del abasto-distribución que actualmente maneja dicha entidad para los seis programas (6), se estableció una estructura del sistema que permitió direccionar y proyectar el modelo de gestión logística pertinente, con el cual se optimiza la gestión en este contexto.
Variables de viajes (NV): Establecen el control de la cantidad de viajes probables que se deben efectuar entre las bodegas de acopio y los puertos y aeropuertos cuando esto sea necesario, o de las bodegas de acopio a los aeropuertos regionales o bodegas regionales cuando esto tenga que cumplirse. Se debe aclarar que este control de viajes corresponde únicamente a las porciones terrestres.
Geometría del sistema
Al realizar el análisis de los diferentes tipos de medicamento, se concluye que algunos de los identificadores o subíndices de la geometría del sistema, pueden ser sustituidos por una denominación especial como resultado de las conclusiones establecidas. Variables de decisión del sistema Las variables de decisión para la facilitación de la estructura se dividieron en los siguientes grupos, tomando como criterio la generación de costos. Variables de abastecimiento (x): Son aquellas que denotan las cantidades de medicamento que debe ser abastecido en las diferentes bodegas pertenecientes a los niveles definidos en la estructura del sistema.
Variables de inventario (I): Permiten establecer los niveles de inventario de los medicamentos tipo que se manejan y controlan periódicamente tanto en bodega central como en las bodegas regionales y de las cabeceras municipales.
Parámetros del modelo Una vez definida la geometría del sistema y las variables correspondientes, se establecen los parámetros que permiten evaluar la función objetivo del modelo. Parámetros asociados a las variables de abastecimiento.
Este comportamiento de costo corresponde al costo agregado por la compra, embarque y entrega de los medicamentos en el puerto o aeropuerto y que proceden desde el origen . De este modo, los parámetros asociados a los dos conjuntos de variables de decisión restantes corresponden a los costos de transporte aéreo o terrestre desde las bodegas centrales , hasta las bodegas regionales .
261
Parámetros asociados a las variables de inventario
Castrellón-Torres et al / DYNA 81 (187), pp. 257-266. October, 2014.
La meta es generar el mínimo costo de la gestión logística MinSalud en el abasto-distribución de los medicamentos de los seis (6) programas de salud pública en Colombia, teniendo en cuenta el abastecimiento, el manejo y control de inventarios y el número de viajes o desplazamientos para el abastecimiento de las bodegas centrales y las bodegas regionales.
.
Parámetros asociados a las variables de viajes
Parámetros sobre número de viajes
En relación con las matrices de restricciones se determinan los siguientes parámetros: Parámetros asociados con el abastecimiento de los medicamentos: Los parámetros asociados al abastecimiento de los diferentes tipos de medicamentos tienen que ver con las demandas del quinto nivel de la estructura del sistema logístico, correspondientes a las cabeceras municipales, las que mediante la consolidación por bodegas regionales tal como se muestra en las ecuaciones (1) y (2), permiten establecer los niveles de requerimiento para cada bodega regional. Ecuación que consolida las demandas por bodegas regionals
Matrices de restricciones: El objetivo de minimización debe estar sujeto a las siguientes matrices de restricciones: (1) Matrices de satisfacción del abastecimiento a través de las demandas. (1.1) En la bodega central
(1.2)
En la bodega regional
(2) Matriz de restricciones de mantenimiento del flujo (ley de Kirchhoff) ∈
∈
Donde:
(3) Matriz de restricciones que permiten cumplir con la demanda que tiene que satisfacerse con medicamento/insumo del conjunto , y que debe enviarse desde las bodegas hasta , en cada uno de los períodos .
Estructura general del modelo
Función objetivo:
(4) Matrices de restricciones sobre número de viajes. 262
Castrellón-Torres et al / DYNA 81 (187), pp. 257-266. October, 2014.
Es necesario aclarar que esta información podría utilizarse para definir la cantidad de medios de transporte a utilizar. hasta bodega (4.1) Para recogida desde aeropuerto central
(4.2) Para recogida desde bodega central aeropuerto .
viajes ( la siguiente heurística.
), es necesario aplicar
Paso 1. En donde:
hasta el Paso 2.
(4.3) Para desplazamiento desde bodega central hasta la bodega regional .
Paso 3. (4.4) Para desplazamiento desde bodega regional aeropuerto regional
hasta 3.3.4. Escenarios del Modelo de Gestión Logística
Finalmente, se deben considerar las restricciones de no negatividad, pues deben ser mayores o iguales que cero (0). 3.3.3. Estructura de un sub-modelo para viajes En relación con un posible sub-modelo para determinar el número de viajes, se debe cumplir con el objetivo que se expresa mediante una función objetivo que contenga los siguientes parámetros asociados a las variables de viajes definidos anteriormente. Es necesario aclarar que esta información podría utilizarse para definir también la cantidad de medios de transporte a utilizar, pues al tener en cuenta la cantidad de medicamento a transportar, así como la capacidad del medio se podría establecer el cálculo. La función objetivo de la ecuación (12) establece el costo óptimo por concepto de transporte, teniendo en cuenta si es de tipo aéreo o terrestre, y en caso de ser terrestre si debe o no manejar cadena de frío.
Para la determinación de las variables sobre número de
Una vez estructurado el modelo que permite la gestión logística del Ministerio de Salud y Protección Social en relación con los seis (6) programas de salud pública, se verificó que los arcos de comunicación del grafo de la cadena de suministro del sistema logístico son del tipo , que representan la secuencialidad en el contexto de los cinco niveles definidos, pero es probable que la secuencialidad de comunicación pueda pasar del tipo , es decir que pueda pasar del nivel 1 al nivel 3 sin pasar necesariamente por el nivel 2, es decir que se estaría trabajando con un costo directo entre 1 y 3 que podría finalmente resultar mejor para el desempeño general del sistema. En este orden de ideas se consideran los escenarios expuestos en los siguientes epígrafes. El modelo matemático general que se ha descrito permite ser utilizado como medio central en los procesos de planeación y gestión del sistema logístico del Ministerio de Salud y Protección Social y de esta forma el mismo posibilita al grupo decisor definir distintos escenarios que guíen la acción y logren que de primera mano se puedan realizar las simulaciones requeridas que midan las incidencias e impactos en términos de cobertura, costos, tiempos, servicios, modos y medios requeridos, infraestructura logística, sistemas de información y comunicación, perfil de potencialidades entre otros aspectos asociados al sistema logístico. Se definieron diferentes escenarios teniendo en cuenta pedidos masivos en el comienzo del horizonte de gestión y el total de los medicamentos de los seis programas, a través de la generación de conjuntos de medicamentos/insumos y otros relacionados con gestiones parciales, entre los cuales se han seleccionado tres que a juicio de los investigadores representan el mayor impacto en términos de cobertura, facilidad de adopción, manejo de información y fiabilidad de
263
Castrellón-Torres et al / DYNA 81 (187), pp. 257-266. October, 2014.
la misma. Escenario Cero: Dos bloques (ETV-TB) y PAI (Biológicos) Del trabajo de campo, características, rasgos y evaluación llevada a cabo in situ para los diferentes puntos que el Ministerio de Salud y Protección Social consideró necesario incluir en la investigación, se logró establecer que por los hallazgos, medios, modos disponibles y sus modus operandi se puede coordinar en principio dos grandes bloques: ETVTB y Biológicos. Esta agrupación permite iniciar un proceso de mejora sostenida en términos de la operación logística la cual puede representar beneficios visibles en términos de costos, tiempos, cobertura e impacto, con mínimos traumatismos para el sistema en su conjunto. De manera esquemática se presenta este escenario en la Tabla 1. Escenario 1: comunicación directa nivel 1, nivel 3 Para este escenario el planteamiento consiste en la descentralización del abastecimiento de forma tal que pueda pasar de un origen o procedencia hasta una bodega regional sin que tenga que pasar por la bodega central , es decir que pueda pasar a un nivel diferente . La estructura se puede observar en la Figura 4 (excluyendo las flechas trasversales entre nodos q). En este escenario las flechas que conectan los nodos origen del nivel 1 con los nodos correspondientes a las bodegas regionales del nivel 3 representan la conectividad tipo lo que significa que pasa directamente de 1 a 3. En el contexto real (sistema empírico) como ya se había definido, puede existir una probabilidad que desde los orígenes pertenecientes al primer nivel 1 se pueda llegar directamente a una bodega regional del nivel 3, probabilidad que está asociada al comportamiento del costo de transporte , en donde debe cumplirse:
Escenario 2: Comunicación Directa Intra-nivel Este escenario plantea la posibilidad de comunicación intra-nivel, la cual podría presentarse concretamente en el cuarto nivel de la estructura del sistema de logística. El contexto se daría al evaluar el subconjunto de nodos . Quedando la estructura tal como se presenta en la figura 4. Las flechas que interconectan los nodos pertenecientes a las bodegas regionales representan la conectividad dentro de este nivel (intra-nivel) que para el análisis de contexto en un sistema empírico, puede existir una probabilidad que entre las diferentes bodegas regionales pertenecientes al cuarto nivel se pueda llegar establecer un flujo físico de medicamentos por ejemplo entre , etcétera, probabilidad que está asociada al comportamiento del costo de transporte , en donde debe cumplirse que por ejemplo: ,
3. Resultados y discusión En todos los escenarios analizados, los resultados evidenciaron mejoras sustanciales para los resultados del
Figura 4. Estructura del sistema abasto-distribución con intra-conectividad . Fuente: Propia
Sistema logístico al comparar los resultados con los costos reales que se manejan en MinSalud, pero que son de carácter confidencial, razón por la cual no se desarrolla ninguna tabla de comparación, en términos de costos y servicios, que responden a las dinámicas de una cadena de suministro en donde el eslabón más débil condiciona el desempeño del sistema. Escenario 1: Soportados en el modelo general, mediante variantes relacionadas con la posibilidad de poder abastecer sus bodegas regionales o departamentales en forma directa desde los orígenes de los medicamentos, posibilita la eliminación de un intermediario en relación con los flujos físicos del sistema generando la probabilidad de reducir los costos de una manera más agresiva que el escenario 0 de hasta el 40,04%. Este escenario permite adoptar las economías de escala por concepto de un mejor uso de los medios de transporte disminuyendo los costos que se generan en las operaciones de distribución que atienden los diferentes puntos de demanda. Esta reducción de costos en los medios de transporte representa cerca de una tercera parte de los costos logísticos del sistema, mejorando también los tiempos de respuestas, condición necesaria para este tipo de CS. Escenario 2: Este escenario busca descentralizar la ubicación física de las bodegas regionales y centralizar en algunas de ellas el flujo físico de los medicamentos, teniendo como marco de referencia la conectividad entre bodegas regionales, lo que permitiría una probable reducción de los costos por conceptos de transporte y almacenamiento, además de brindar una capacidad de respuesta apropiada al usuario final, mejorando de manera determinante la percepción sobre el servicio al usuario final. Este escenario requiere el mayor nivel de esfuerzo en su implementación debido al hecho que la calidad de la información requerida así como su nivel de detalle son de un alto nivel de precisión, confiabilidad y oportunidad. Este contexto requiere un mayor nivel de inversión para el desarrollo de la operación logística, sin embargo, evidencia el mayor nivel de ahorros frente a los escenarios anteriormente propuestos, de hasta el 57,44%, como resultado de la inversión efectuada en su mejoramiento.
264
Castrellón-Torres et al / DYNA 81 (187), pp. 257-266. October, 2014. Tabla 1. Estructura esquemática que incluye notación y simulación de resultados del escenario 0. Origen 1 (O1) Medicamento 1 (M1) Medicamento 2 (M2) Variables F. α β γ δ ε ζ η θ Objetivo Coef. Función 500 500 500 500 456 456 456 456 Objetivo Valor óptimo 12.085 29.950 20.965 3.907 3.894 de variables Dem. M1 P1 1 Dem. M1 P2 1 Dem. M1 P3 1 Dem. M1 P4 1 Dem. M2 P1 1 Dem. M2 P2 1 Dem. M2 P3 1 Dem. M2 P4 1 Cap. M1 O1 1 1 1 1 Cap. M1 O1 Cap. M1 O1 1 1 1 1 Cap. M1 O1 Variables F. Objetivo Coef. Función Objetivo Valor óptimo de variables Dem. M1 P1 Dem. M1 P2 Dem. M1 P3 Dem. M1 P4 Dem. M2 P1 Dem. M2 P2 Dem. M2 P3 Dem. M2 P4 Cap. M1 O1 Cap. M1 O1 Cap. M1 O1 Cap. M1 O1
LHS 41930 23960 29950 20965 5331,1 4432,6 5870,2 3893,5 63000 53805 7800 11727,4
Origen 2 (O2) Medicamento 1 (M1) Medicamento 2 (M1) ι
κ
λ
μ
ν
ξ
ο
π
642
642
642
642
670
670
670
670
41.930
11.875
-
-
5.331
4.433
1.964
-
1 1 1 1 1 1 1 1 1
Min Z 80909502,8 Signo ≥ ≥ ≥ ≥ ≥ ≥ ≥ ≥ ≤ ≤ ≤ ≤
1
1
1 1
1
1
1
RHS 41930 23960 29950 20965 5331,1 4432,6 5870,2 3893,5 63000 74000 7800 15000
Fuente: Propia
4. Conclusiones El modelo general propuesto tiene la capacidad de adaptarse para el procesamiento de diferentes parámetros tales como capacidad, tiempo, costos, accesibilidad, variedad del portafolio y otras fuentes de variación del sistema logístico, que a juicio del decisor deban incluirse en el proceso de planeación, sin que esto tenga repercusiones en la calidad de los resultados, permitiendo un adecuado procesamiento de la información para el desarrollo del proceso de toma de decisiones. De manera general se determina que es imperativo para el Ministerio de Salud y Protección Social como ente rector en la definición de políticas de salud pública, establecer como prioridad la definición y adopción del sistema logístico integral de la red de salud pública para el país, que propenda por coordinar y armonizar las acciones a nivel intra e inter agentes dentro del territorio nacional, independiente de las responsabilidades administrativas, financieras, técnicas y científicas que competen a los diferentes actores a nivel nacional, departamental o municipal. Estas acciones permiten mejorar la necesidad de coordinación de las actividades de la operación logística en
forma general, relacionadas con los macro procesos de abastecimiento, almacenamiento y distribución, de acuerdo con la regulación existente, la infraestructura disponible, atendiendo en forma bidireccional los flujos de información, dinero, energía, conocimiento e inventarios de vacunas, medicamentos, insumos, manejo de empaques y embalajes, excedentes, en relación con las que se ejecutan actualmente. Referencias [1]. [2]. [3].
[4]. [5]. [6].
265
Jünemann, R., Logistik in Europa: Innovationsstrategien für Wirtschaft und Dienstleistungen. Verlag TÜV Rheinland, Köln, 1989. Jünemann, R., Umwelt, Logistik und Verkehr: wohin geht die Reise? Verlag Praxiswissen, Dortmund. 1992. Jünemann, R., Logistikstrukturen im Wandel - Herausforderungen für das 21. Jahrhundert: Logistik im Dialog zwischen Praxis und Wissenschaft. Tagungsband zu den 13. Dortmunder Gesprächen Verlag Praxiswissen, Dortmund, 1995. The World Bank., Connecting to Compete 2012 - Trade Logistics in the Global Economy. Washington D.C., Communications Development Incorporated. 2012. Ministerio de la Protección Social., Protocolo de vigilancia y control de Dengue. Bogotá, Subdirección de Vigilancia y Control en Salud Pública. 2010. Comunidad Europea., Propuesta de sistema de trazabilidad para medicamentos de consumo humano. 2010. [Online], [Dato de
Castrellón-Torres et al / DYNA 81 (187), pp. 257-266. October, 2014.
[7]. [8]. [9]. [10].
[11]. [12].
[13]. [14]. [15]. [16]. [17]. [18]. [19].
[20].
[21].
[22].
[23]. [24]. [25].
[26].
consulta Diciembre de 2010]. Disponible en : http://ec.europa.eu/health/files/counterf_ par_trade/doc _publ _consult_ 00803/61_societa_generale_per_l _industria_ della_magnesia_ s_p_a__en.pdf Subdirección de Vigilancia y Control en Salud Pública., Protocolo de vigilancia y control de Leishmaniasis. Bogotá: Ministerio de la Protección Social. 2011. Vélez, L.G., Biológicos y biotecnológicos: Una oportunidad para Colombia, Medellín, 2012. Ministerio de la Protección Social., Guía de Atención Clínica de Malaria. Organización Panamericana de la Salud., Bogotá, Colombia, 2010. Garland-Chow, T.D., and Heaver-Henriks, L.E., Logistics performance: Definition and measurement. International Journal of Physical Distribution & Logistics Management, 24 (1), pp. 17-28. 1994. Naylor, D., Health care in Canada: Incrementalism under fiscal duress. Health Affairs, 18 (3), pp. 9-26. 1999. Adarme-Jaimes, W. and Arango-Serna, M.D., Decisiones estratégicas de localización de centros de distribución, bodegas y puntos de crossdock. En Botero-Botero, S. and Rojas-López, M.D., Innovación & Sostenibilidad - Avances en Ingeniería de la Organización. Medellín: Apotema S.A.S., Colombia, 2010. Thanh, P.N., Bostelb, N. and Olivier, P., A dynamic model for facility location in the design of complex supply chains. International Journal of Production Economics, 113 (2), pp. 678-693, 2008. Daskin, M.S., Coullard, C. and Shen, Z.M., An inventory-location model: Formulation, solution algorithm and computational results. Annals of Operations Research, 110 (1), pp. 83-106, 2002. Melo, M.T., Nickel, S. and Saldanha-da-Gama, F., Facility location and supply chain management – A review. European Journal of Operational Research, 196 (2), pp. 401-412, 2009. Mirchandani, P.B. and Francis, R.L., Discrete location theory. New York, Wiley. 1990. Sridharan, R., The capacitated plant location problem. European Journal of Operational Research, 87 (2), pp. 203-213, 1995. Ballou, R.H., Business logistics/supply chain management. Prentice Hall. 2004. Grunow, M. and Rong, A., A methodology for controlling dispersion in food production and distribution. OR Spectrum, [Online]. 32 (4), pp. 957-978, 2010. [Date of reference November 24th of 2012]. Available at: http://www.s pringerlink.com/index/10.1007 /s00291010-0210-7 Pfohl, H.-C., Köhler, H. and Thomas, D., State of the art in supply chain risk management research: Empirical and conceptual findings and a roadmap for the implementation in practice. Logistics Research, 2 (1), PP. 33-44, 2010. Grunow, M. and Rong, A., A methodology for controlling dispersion in food production and distribution. OR Spectrum, [Online]. 32 (4), pp. 957-978, 2010. [Date of reference November 22th of 2012]. Available at: http://www. springerlink.com/index/10.1007/ s00291010-0210-7 Mula, J., Peidro, D., Díaz-Madroñero, M. and Vicens, E., Mathematical programming models for supply chain production and transport planning. European Journal of Operational Research, [Online]. 204 (3), pp. 377–390, 2010. [Date of reference October 12th of 2013]. Available at: http:// linkinghub.elsevier.com/ retrieve/pii/S0377221709005694. Lucas, M.T., and Chhajet, D., Applications of Location Analysis in Agriculture: A Survey. The Journal of the Operational Research Society, 55 (6), pp. 561-578, 2004. Salin, V., Information Technology in agri-food Supply Chains. International Food and Agribusiness Management Review, 1 (3), pp. 329-334, 1998. Akkerman, R., Farahani, P. and Grunow, M., Quality, safety and sustainability in food distribution: a review of quantitative operations management approaches and challenges. OR Spectrum, [Online]. 32 (4), pp. 863-904, 2010. [Date of reference November 23th of 2012]. Available at: http://www. springerlink.com/index/10.1007/s00291010-0223-2 Klose, A. and Drexl, A., Facility location models for distribution system design. European Journal of Operational Research, [Online].
162 (1), pp. 4-29, 2005. [Date of reference October 12th of 2013]. Available at: http://linkinghub.elsevier.com/retrieve/pii /S0377221703008191. [27]. Blackburn, J. and Scudder, G., Supply chain strategies for perishable products: The case of fresh produce. Production and Operations Management, 18 (2), pp. 129-137, 2009. [28]. Rong, A., Akkerman, R. and Grunow, M., An optimization approach for managing fresh food quality throughout the supply chain. International Journal of Production Economics, [Online]. 131 (1), pp. 421-429, 2011. [Date of reference October 05th of 2013]. Available at: http://linkinghub.elsevier. com/retrieve/pii/S0925527309004290. J. P. Castrellón Torres, recibió el grado de Ingeniero Industrial en 2012 y actualmente se encuentra culminando su MSc. en Ingeniería Industrial, ambos estudios en la Universidad Nacional de Colombia, Bogotá, Colombia. Se encuentra vinculado a la investigación en logística a través del Grupo Sociedad Economía y Productividad SEPRO – Línea Logística donde ha participado en proyectos de investigación y extensión con el sector público y privado en temas relacionados con la logística y la administración de la cadena de suministro. Sus áreas de interés abarcan los temas de logística de productos perecederos, los servicios logísticos 3PL, políticas públicas en logística. J. H. Torres Acosta, recibió el grado de Ingeniero Industrial de la Universidad Francisco José de Caldas, Colombia, es Esp. en Ingeniería de Producción, MSc. en Investigación de Operaciones, ambos de la Universidad Nacional Autónoma de México, México. Dr. en Ciencias Técnicas de la Universidad Central ‘Martha Abreu’ de las Villas y PhD. de la Universidad de la Florida, USA. Ha tenido experiencia en el sector productivo y actualmente se desempeña como profesor titular de la Universidad Francisco José de Caldas, Colombia. Su actividad de investigación en logística la desarrolla en el grupo Sociedad Economía y Productividad SEPRO – Línea Logística, donde ha participado en proyectos de investigación y extensión con el sector público y privado en temas relacionados con la logística y la administración de la cadena de suministro. Sus áreas de interés comprenden la gestión del conocimiento, modelado matemático de sistemas logísticos, sistemas soporte de decisiones en logística y Business Intelligent. W. Adarme Jaimes, recibió el grado de Ingeniero Industrial en 1993 de la Universidad Industrial de Santander, Colombia; es Esp. en Ingeniería de la Producción y Mejoramiento Continuo en 1997 de la Universidad Pedagógica y Tecnológica de Colombia, Colombia, es MSc. en Ingeniería con énfasis Logística en 2007 de la Universidad del Valle, Colombia, Dr. en Ingeniería, Industria y Organizaciones en 2011 de la Universidad Nacional de Colombia, Bogotá, Colombia. Ha tenido experiencia en el sector metalúrgico y textil. Actualmente se desempeña como profesor asociado de la Universidad Nacional de Colombia, Bogotá, Colombia. Es el director del grupo Sociedad Economía y Productividad SEPRO – Línea Logística, donde ha dirigido proyectos de investigación y extensión en contextos regionales, nacionales e internacionales, todos en temas de logística y administración de la cadena de suministro. Sus áreas de interés comprenden la coordinación de actores, políticas públicas en logística.
266
The importance of being chemical affinity. Part V: The fruits Guillermo Salas-Banuet a, José Ramírez-Vieyra b, Oscar Restrepo-Baena c, María Noguez-Amaya d & Bryan Cockrell e a
Universidad Nacional Autónoma de México, México, salasb@unam.mx Universidad Nacional Autónoma de México, México, jgrv@unam.mx c Universidad Nacional de Colombia, Colombia, ojrestre@unal.edu.co d Universidad Nacional Autónoma de México, México, nogueza@unam.mx e University of California, Berkeley, USA, bryan.cockrell@berkeley.edu b
Received: December 10th, 2013. Received in revised form: May 7th, 2014. Accepted: June 13th, 2014
Abstract Through the meticulousness in experimentation, the incorporation of discoveries in physics and the application of the logic of algebra to make chemistry´s language systematic and universal, the level of thought achieved in chemistry during 18th century gave a foundation to the discipline that would allow it to evolve and transform. The discovery, comprehension and application of electricity in the 19th century supplied chemistry with analogous units, which in turn, facilitated increased understanding of the field and permitted the proposal of new theories. Developments in thermodynamics allowed for the presentation of qualitative scales of affinity and electronegativity. The discovery of the atom and electron and the emergence of quantum physics restructured chemical thought, permitting for the establishment, in the first half of the 20th century, of the first quantitative scale of electronegativity, which offered chemistry a new dynamism, facilitating the proposal of other scales, based on diverse approaches. Keywords: Chemical Affinity, science, electroaffinity, electronegativity, thought, history.
La importancia de llamarse afinidad química. Parte V: Los frutos Resumen El nivel de pensamiento alcanzado en la química durante el siglo XVIII, a través de la exactitud en la experimentación, la asimilación de los descubrimientos de la física y la aplicación de la lógica del álgebra para hacer del lenguaje químico uno sistemático y universal, permitió consolidar una base para que la química evolucionara y se revolucionara. El hallazgo, entendimiento y aplicación de la electricidad en el siglo XIX, le proveyó de elementos analógicos para su mejor comprensión y para la propuesta de nuevas teorías; la termodinámica le permitió presentar escalas cualitativas de afinidad o electronegatividad. El descubrimiento del átomo, del electrón y la física cuántica redimensionaron el pensamiento químico, permitiendo el planteamiento, en la primera mitad del siglo XX, de la primera escala cuantitativa de electronegatividad, la cual inyectó un nuevo dinamismo a la química, induciendo la propuesta de otras escalas, basadas en diversas racionalizaciones. Palabras clave: Afinidad química, ciencia, electroafinidad, electronegatividad, pensamiento, historia.
1. Introducción Existe una anécdota relativa a la muerte del químico, biólogo y economista parisino Antoine Lavoisier (17431794), que bien puede ser una leyenda: el 7 de mayo de 1794, día anterior a morir guillotinado durante la revolución francesa, con la finalidad de dar alguna utilidad científica a su muerte, concertó con algunos colegas que intentaría mantenerse parpadeando después de que la guillotina le cortase la cabeza para demostrar que la muerte no era inmediata; parpadeó 12 veces. Si esta historia es cierta, muestra la naturaleza profundamente científica de Lavoisier
y de los pares de su época. Se ha considerado que el nacimiento de la ciencia moderna se sitúa en un periodo de ciento cuarenta y cuatro años, comprendido entre 1543 -año de la publicación del libro “Sobre las revoluciones de las esferas celestes” del astrónomo, abogado y médico polaco Nicolás Copérnico (1473-1743)- y 1687 -cuando se publicó “Principia Mathematica”-, del físico, filósofo, teólogo, inventor, alquimista y matemático inglés Isaac Newton (1642-1727). También se ha dicho que los cambios que tuvieron lugar durante ese periodo -la concepción heliocéntrica del sistema solar, la tipificación de la gravitación universal, la
© The author; licensee Universidad Nacional de Colombia. DYNA 81 (187), pp. 267-275. October, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online DOI: http://dx.doi.org/10.15446/dyna.v81n187.46092
Salas-Banuet et al / DYNA 81 (187), pp. 267-275. October, 2014.
comprensión de la luz, el vacío, los gases, el cuerpo y la vida microscópica- determinaron la llamada Revolución científica porque transformaron total e irremediablemente la concepción que se tenía de la naturaleza; con ella se desecharon la noción del mundo aristotélico y la reflexión aleatoria y sobrenatural de la Edad Media, las cuales fueron sustituidas por la racionalidad sobria, matemática y acumulativa de la Edad Moderna. Pero Newton también fue un alquimista que buscaba la piedra filosofal, que estudiaba la cronología de la Biblia convencido de que le permitiría prevenir el apocalipsis que vendría y las leyes de la acción divina en la naturaleza para demostrar la existencia y providencia de Dios; puede considerarse a Newton un cuasimístico hechizado por los rosacruces, la astrología y la numerología, quien creía que Moisés conocía la teoría heliocéntrica de Copérnico y su propia teoría de la gravedad; y un esforzado investigador de la forma exacta del Templo de Salomón, al que consideraba la mejor guía para descubrir la topografía de los cielos [1,2]. Sin embargo, hay estudios que sugieren que los descubrimientos científicos de Newton no podrían haber sido realizados si no ha sido por sus investigaciones alquímicas [3, 4]. Así, hablar de una revolución científica en un periodo de tiempo tan reducido parece poco sustentable y, tal vez, habría que ampliarlo hasta el siglo XVIII, abarcando a los cambios que dieron origen a la química moderna y que cristalizaron con Lavoisier [5]. El descubrimiento de la electricidad y la experimentación a la que estuvo sujeta, permitieron que los químicos utilizaran sus conceptos para reinterpretar lo que se sabía de la afinidad entre elementos y sustancias y comprendieran mejor lo que sucedía durante su unión y separación. Con ello y a lo largo de muchos años, el concepto de afinidad dejó de usarse para ser sustituido directamente por el de electronegatividad, sin dejar de significar lo mismo: Tendencia de un átomo o molécula a reaccionar o combinarse con átomos o moléculas de diferente constitución química [6], la propensión que existe entre átomos o moléculas diferentes a unirse para formar una sustancia o compuesto o, en sentido inverso, la resistencia que muestran los átomos o moléculas de las sustancias o compuestos a ser separados. 2. Antecedentes En esta serie de escritos [5, 7-9] se ha plasmado una idea de la historia occidental acerca del esquivo concepto de la afinidad química. Históricamente, en Mesopotamia (antigua Irak y noreste de Siria), Egipto y Persia (ahora Irán), los hombres que manipulaban constantemente los materiales, entendieron que podían cambiarlos usando altas temperaturas; el primer pensamiento que utilizaron para explicar esas transmutaciones fue el religioso. Sin embargo, en cualquier época, siempre han existido personas que no se han apoyado en el pensamiento religioso para explicar el mundo; personas creativas, observadoras, perfeccionistas y reflexivas; unas involucradas en los procesos de producción de materiales artificiales, que pudieron entender, mejorar y crear; y otras dedicadas a pensar sistemáticamente sobre el mundo, interpretándolo. Son estas quienes, de manera inconsciente, comenzaron a desarrollar la idea de que algo
en la materia podía separarse y unirse para ser cambiada. Es en Grecia, primero en Jonia, luego en Atenas y por último en Alejandría-entre los siglos VI a.C. y II d.C.- que se utilizó sistemáticamente un pensamiento independiente del religioso, llamado aristotélico, para explicar al mundo. Allí nacieron los conceptos básicos necesarios para construir el concepto de afinidad química; fue al final de ese periodo que nació la alquimia. Más tarde en Europa, durante aproximadamente un milenio (la Edad Media), con el rígido control que ejerció la Iglesia Cristiana de Roma sobre el pensamiento, todo se interpretó usando un pensamiento religioso colectivo, basado en los conceptos de esa religión. Paralelamente floreció la alquimia, produciendo una base para la química práctica. Es en el siglo IX d.C., que uno de los fieles de la iglesia cristiana inició la defensa del pensamiento individual que, junto con el descubrimiento de los escritos aristotélicos, promovería el desarrollo del conocimiento basado en un pensamiento independiente del religioso que, respecto a la afinidad química, daría sus primeros frutos durante el siglo XVII. 3. Edad moderna. Electricidad, temodinámica y estructura atómica en la afinidad química Claude Louis Berthollet (1748-1822), médico y químico francés, quien sería uno de los colaboradores más importantes de Lavoisier, formó parte del grupo de científicos que en 1798 acompañaron a Napoleón a Egipto. Allí, Berthollet se interesó por los lagos Natron, palabra griega para la sosa o carbonato de sodio, Na2CO3×nH2O, los cuales se encuentran en una gran depresión al oeste de El Cairo. Al visitarlos, efectuó análisis químicos que indicaban que el agua de los lagos contenía nitrato de sodio, NaNO3, carbonato de sodio, Na2CO3 y una pequeña cantidad de sulfato de sodio, NaSO4, en diversas proporciones. Las observaciones que realizó sobre los productos sólidos formados (cloruro de sodio, NaCl, carbonato de sodio y salitre, NaNO3) en las varias condiciones en que los encontró, lo llevaron a razonar y concluir que condiciones tales como la temperatura, la concentración relativa, las cantidades de los reactantes o sus estados de agregación, afectaban la naturaleza y dirección de las afinidades en una reacción química. Esto lo llevó a concebir un nuevo sistema en química que desarrolló en su libro Essai de Statique Chimie [10], publicado en 1803, en el que estableció un nuevo concepto de equilibrio químico, rompiendo la visión de la afinidad que cumple con leyes estrictas e invariantes. En 1795, Alessandro Volta (1745-1827), profesor italiano de física de la Universidad de Padua, demostró que la electricidad podía producirse colocando dos piezas de metales diferentes con un líquido o un paño húmedo entre ellas, con lo que creó la primera batería de corriente eléctrica -muy cara-, comenzándose a comprender sus propiedades básicas. En 1802, el químico británico Humphry Davy (1778-1829) -utilizando una pila enormeconsiguió aislar, además del magnesio, bario, estroncio, calcio, y boro, dos nuevos metales mucho más baratos, el sodio y el potasio, con lo cual la electricidad comenzó a ser sujeto de investigación importante. Pocos años después (1807) Davy pudo sugerir, en la publicación On some
268
Salas-Banuet et al / DYNA 81 (187), pp. 267-275. October, 2014.
chemical agencies of electricity [11] que la afinidad química provenía de las energías eléctricas de los cuerpos. Enunció que, si dos tipos de partículas con cargas muy opuestas se encontraban, éstas se unirían tan fuertemente que formarían un compuesto estable y, basado en su observación de que durante las neutralizaciones química y eléctrica se producían distintas intensidades de calor, explicó que la afinidad entre los cuerpos se podía modificar, cambiando sus energías eléctricas al utilizar una pila voltaica o al calentarlos. Expuso que era posible medir experimentalmente la energía eléctrica necesaria para descomponer una sustancia o para establecer su carácter positivo o negativo y propuso una escala de afinidad química relativa. También señaló que había una relación entre la acidez y la electricidad negativa y entre la alcalinidad y la electricidad positiva, con la que se podría especificar la posición de cada sustancia en esa escala. Quien aplicó en la química esta comparación entre ácidoalcalino y electricidad negativa-positiva fue el físico y químico italiano Amedeo Avogadro (1776-1856), al observar las inconsistencias de la definición de acidez absoluta de Lavoisier y tomar en cuenta los puntos de vista de Berthollet sobre la acidez y la afinidad. En su trabajo Idées sur l’acidité et l’alcalinité [12], de 1809, Avogadro sugirió que los conceptos de acidez y alcalinidad deberían abarcar todas las interacciones químicas. Propuso que cada sustancia simple tiene una acidez o alcalinidad relativa y que ésta se puede ubicar en una escala universal de acidez. Además, situó en primer lugar de su escala al oxígeno, acuñando el término “oxigenidad”, para sustituir al de acidez, que pasaría a describir los valores de la oxigenidad relativa entre dos sustancias: a mayor separación entre dos sustancias en la escala, mayor antagonismo habría entre ellas y más grande sería su afinidad química. Sin embargo, Berthollet [10] señaló que la oxigenidad de un material sólo se manifestaba para algunos estados de agregación. Así, la escala de oxigenidad mostraría la habilidad de una sustancia para adquirir una electrificación negativa, equivalente a una escala simple de electronegatividad. Al correlacionar la oxigenidad con el calor específico de varias sustancias -al que consideraba como medida de la afinidad de las sustancias por el calor- Avogadro encontró una relación de la oxigenidad con los volúmenes atómicos relativos de los elementos, concluyendo que los elementos fuertemente oxigénicos tenían volúmenes atómicos grandes, el equivalente de la relación que existe entre la electronegatividad y el tamaño de los átomos de los elementos. El sueco Jöns Berzelius (1779-1848), contemporáneo de Avogadro, propuso una teoría electroquímica para la afinidad química. En 1825, en su libro Lärbok i kemien, traducido y publicado en alemán como Lehrbuch der Chemie [13], situó a las sustancias simples en una escala similar a la de oxigenidad, a la que llamó de electronegatividad, donde la oposición ácido-alcalino tenía su equivalente en el antagonismo electronegativoelectropositivo. Berzelius incluyó en su escala a los 54 elementos conocidos en su época, separando con una línea a las especies eminentemente electronegativas de las predominantemente electropositivas. Lo realmente
novedoso en su teoría residía en la explicación de que la cantidad de calor producido -o la cantidad electricidad neutralizada- en una reacción, era una medida de la afinidad química entre los reactivos. Sugirió también que al calentarlos aumentaba su carga eléctrica -lo cual explicaba la aceleración de la reacción- y que el calor producido se debía a la destrucción de sus cargas durante la formación del producto [14]. Un hecho fundamental fue la racionalización, inducida por el empirismo, durante el estudio de las propiedades físicas de la atmósfera y otros gases, que llevó al británico John Dalton (1766-1844) al planteamiento de su teoría atómica. En su tabla de pesos atómicos relativos -la primera en publicarse- Dalton presenta seis elementos: hidrógeno, oxígeno, nitrógeno, carbono, azufre y fósforo, asignándole al átomo de hidrógeno un peso unitario. Interesado en la elasticidad de los fluidos, advirtió que bajo diferentes presiones, tomando en cuenta el principio de conservación de la materia, los gases del mismo peso debían de tener configuraciones diferentes. Al crear nuevos gases y determinar sus pesos pudo introducir una nueva nomenclatura, actualmente vigente, v. gr., N2O, NO y NO2; y al estudiar las reacciones químicas de precipitación, en las que al unir dos sustancias líquidas transparentes estas producen un sólido o un gran cambio de color, se convenció que existía una reconfiguración de una entidad básica, los átomos, y que los elementos y compuestos químicos estaban constituidos por ellos. En su libro publicado en 1808, A new system of chemical philosophy [15], Dalton estableció los puntos principales de su teoría, sumarizados en cinco: 1. Los elementos están hechos de partículas diminutas llamadas átomos que son indestructibles e indivisibles; 2. Todos los átomos de un determinado elemento son idénticos; 3. Los átomos de un elemento son diferentes a los de cualquier otro elemento, los átomos de elementos diferentes se pueden distinguir unos de otros por sus respectivos pesos atómicos relativos; 4. Los átomos de un elemento se combinan con los átomos de otros elementos para formar compuestos químicos, un compuesto dado siempre tiene el mismo número relativo de tipos de átomos; 5. Los átomos no se pueden crear ni dividir en partículas más pequeñas, ni se destruyen en el proceso químico. Una reacción química simplemente cambia la forma en que los átomos se agrupan. Según asegura el norteamericano George F. Barker (1835-1910) en su el libro A Text-book of Elementary Chemistry [16], para 1870 los químicos podían determinar tres propiedades atómicas: 1. El peso atómico, que permitía medir la cantidad de materia presente, calcular la composición de las sustancias y cuantificar las reacciones químicas; 2. La valencia atómica, que evaluaba el poder de combinación de un átomo, permitía prever la estructura química y predecir el número de isómeros posibles para una composición dada; y 3. La electronegatividad atómica, que expresaba el poder de combinación de un átomo. En aquel entonces se publicaban tablas para cada propiedad. La tabla de las electronegatividades era la publicada por Berzelius en 1836, con nueve elementos adicionales. Barker ilustró la forma en que los químicos usaban la electronegatividad para explicar la reactividad de
269
Salas-Banuet et al / DYNA 81 (187), pp. 267-275. October, 2014.
las moléculas isotípicas o isoestructurales, a través de ácidos, bases y sales. En la nueva teoría, los óxidos de los no metales o átomos electronegativos (v. gr. SO3) correspondían a los ácidos de la teoría dualista de la afinidad; los óxidos de los metales o átomos electropositivos (v. gr. K2O), a las bases y la reacción entre los óxidos básicos y los óxidos ácidos (v. gr. K2O•SO3 o K2SO4) producían las sales. Por otra parte, la teoría de tipo había aceptado como válida la teoría de acidez del hidrógeno, que postulaba que al sustituir uno o los dos átomos de hidrógeno en la molécula de agua (H-O-H), por un átomo o radical monovalente con valores de valencia idénticos -para poder preservar la estructura “tipo” del aguase podían obtener todos los ácidos (R--O-H), bases (R+-OH) y sales (R–-O-R+). En el mismo sentido, Josiah Cooke (1827-1894), utilizó signos negativos y positivos en sus fórmulas químicas para expresar las polaridades relativas y para el oxígeno bivalente usó dos polos de distinto signo (H–-+O–-K+). En su libro de texto de 1874, The New Chemistry [17], subrayó que la teoría tipo no explicaba las características distintivas de los ácidos, bases y sales, sin recurrir al carácter electroquímico de los átomos contenidos en esos compuestos, a partir del simple tipo del agua; esto significaba que debería existir un continuo de posibles derivados de agua (hidratos), cuyas acideces y alcalinidades aumentaban, respectivamente, desde el centro hacia los extremos de la tabla. Hacia 1880, los datos sobre los pesos atómicos y las valencias de los elementos ya eran comunes y numerosos. Esto permitió a los químicos encontrar gran cantidad de pautas que derivaron en la propuesta de la ley periódica. Dentro de este nuevo orden, la importancia de la clasificación de las sustancias de acuerdo a su electronegatividad disminuyó considerablemente. Finalmente, Lothar Meyer (1830-1895) señaló que la electronegatividad, como las otras propiedades atómicas, era periódica, uniendo así las dos clasificaciones. El primer quinto del siglo XX estuvo marcado por dos hechos ocurridos a finales del siglo XIX: El primero, la publicación del tercer volumen, en 1899, de Lectures on Theoretical and Physical Chemistry [18], de Jacobus van’t Hoff (1852-1911), que dio lugar a la búsqueda de relaciones entre la entalpía de reacción y la electronegatividad. Al comparar las entalpías de reacción de cantidades equivalentes de azufre, cloro, iodo, hidrógeno y sodio, van’t Hoff se percató de que la mayor facilidad para combinarse -y la máxima generación de calor- se presentaban cuando reaccionaban el sodio y el cloro, elementos con la mayor diferencia de electronegatividad. Robert M. Caven (1870-1934) y George D. Lander presentaron resultados similares en su libro de texto, Systematic Inorganic Chemistry from the Standpoint of the Periodic Law [19], publicado en 1906, indicando la tendencia de que cuanto más diferencias hubiera en el carácter electroquímico de los elementos, mayores serían los valores del calor de reacción. Otto Sackur (1880-1914) también daba cuenta, en su libro de 1913, A Text Book of Thermo-Chemisty and Thermodynamics [20], de que la máxima generación de calor se daba cuando se combinaban los elementos ubicados en los extremos opuestos del
sistema periódico y que, al aumentar el peso atómico de los elementos que reaccionaban para formar óxidos, cloruros, sulfuros, etc., el calor de formación generalmente disminuía. También observó que la tendencia a formar iones negativos (la electroafinidad) presentaba el mismo comportamiento y que el potasio y el sodio, elementos con gran tendencia a formar cationes, y el cloro, con gran tendencia a formar aniones, producían calores de formación grandes cuando se combinaban con elementos con carácter eléctrico opuesto. Y el segundo, el descubrimiento del electrón en 1897 por el físico británico Joseph John Thomson (1856-1940) quien, junto a sus colegas John Sealy Townsend (18681957) y Harold Albert Wilson (1874-1964), demostró experimentalmente que los rayos catódicos eran realmente partículas subatómicas y no ondas, átomos o moléculas. Existía ya un antecedente: la explicación sobre la estructura del átomo propuesta por Hermann von Helmholtz (18211894) en On the Modern Development of Faraday’s Conception of Electricity, de 1881 [21]. En su artículo, von Helmholtz recurre a la teoría dualística de la electricidad para proponer un átomo neutro, constituido por partículas eléctricas en movimiento, positivas y negativas en igual cantidad, asociadas a un núcleo central. Estas partículas podían ser desprendidas para crear cationes o aniones, dependiendo de la habilidad del átomo para ganarlas, perderlas o retenerlas, dándole así su carácter electropositivo o electronegativo. El descubrimiento del electrón estimuló el pensamiento científico llevando a la propuesta de dos diferentes modelos [22]: 1. En su monografía de 1903 Die Diessoziierung und Umwandlung chemischer Atome, Johannes Stark (18741957), propuso la tendencia de los átomos a saturarse con electrones negativos, que difería de un elemento a otro de acuerdo con la magnitud de su energía de ionización: a mayor fuerza con la que un átomo mantenía sus electrones, mayor energía de ionización. Entonces sería posible construir una escala de electronegatividad cuantitativa midiendo estas energías; y 2. Para el químico inglés Geoffrey Martin (1881-?) sólo un tipo de electrón era responsable de la valencia química. En su libro de 1905. Researches on the Affinity of the Elements and on the causes of the chemical similarity or dissimilarity of elements and compounds afirmaba que los electrones provocaban que un átomo fuera electropositivo o electronegativo, dependiendo de qué tan débil o fuertemente eran retenidos. En 1911, el alemán Walter Nernst (1864-1941), promotor y congresista en la Primera Conferencia Solvay, en Bruselas, cuyo tema principal fue la Radiación y los Cuantos, presentó un trabajo donde proponía que la afinidad química de los elementos y los radicales eran diferentes, debido a los electrones positivos y negativos; los que tendían a combinarse con electrones positivos formaban grupos de elementos positivos y los que tenían afinidad hacia los electrones negativos producían grupos negativos. Así, dichos modelos fueron propuestos, uno dualístico y el otro unitario, aunque para muchos científicos eran equivalentes. El concepto de un electrón unitario para la
270
Salas-Banuet et al / DYNA 81 (187), pp. 267-275. October, 2014.
interpretación de la electronegatividad ya era bastante aceptado hacia 1913, por lo que el polaco Kasimir Fajans (1887-1957) propuso en la ley de los desplazamientos radiactivos -conocida como ley de Soddy-Fajans- que el carácter electronegativo de un átomo se determinaba como su tendencia para soltar o tomar electrones negativos, sin justificación alguna. 4. La afinidad química durante la segunda revolución científica Se está viviendo la segunda revolución científica, la cual, según algunos científicos, comenzó a principios del siglo XX con el descubrimiento simultáneo del cuanto, el gen y el inconsciente. En este contexto, la química y su concepto de afinidad encuentran una nueva propuesta en el trabajo de Linus Pauling (1901-1994) quien, junto con Don M. Yost (1893-1977), propuso la primera escala cuantitativa para la electronegatividad (1932). 4.1. La química posmoderna. La electronegatividad de Pauling y la termodinámica El posmodernismo es una renovación fundamental de las formas tradicionales del pensamiento, el arte, la cultura, la literatura, la filosofía y la vida social y la ciencia. Pauling comprendió el trabajo que sus antecesores de la Edad Moderna habían hecho. Así, planteó una experimentación que lo llevó a proponer una definición de electronegatividad y a materializar una escala cuantitativa para la misma. Primero, Pauling y Yost (1932) propusieron y demostraron experimentalmente su llamado postulado de la aditividad: el valor de la energía de un enlace covalente sencillo entre dos átomos diferentes (enlace heteronuclear), es muy parecido al promedio aritmético de las energías de los enlaces entre los átomos iguales (enlace homonuclear). Luego, Pauling explicó la diferencia entre estos valores con la presencia de un carácter iónico (compartir electrones de manera desigual) en ese enlace covalente, de manera que la energía de éste aumentaría. Cuanto más diferentes fueran los átomos involucrados en el enlace (A y B), mayores serían la energía del enlace y su carácter iónico. Pauling confirmó esto midiendo los calores de formación de varios compuestos y propuso que la diferencia entre esas dos energías (Δ) podría calcularse como: Δ = (XA – XB)2; siendo XA y XB las electronegatividades de los átomos A y B, respectivamente. Ya que la diferencia de electronegatividades es proporcional , las unidades de éstas serían raíz cuadrada de la a energía [23]. Para Pauling (1932), los valores de Δ obtenidos sugerían la posibilidad de colocar a los átomos a lo largo de una escala de electronegatividad y supuso que Δ era una función de la separación lineal de los lugares geométricos de dos átomos en la escala [24]. Pero así sólo se podían definir diferencias de electronegatividad. Para construir la escala se necesitaba establecer un punto de referencia: ya que el hidrógeno forma enlaces covalentes con una gran variedad de elementos, se eligió éste elemento. Tomando el valor de electronegatividad de 2.1 obtenido por
Mulliken en 1934 [25], Pauling construyó una escala para 10 elementos (C, N, O, Cl, F, Br, H, I, P y S) [26] que, para 1960, contaba con más de 50 [27]. Al ser los datos termodinámicos más exactos y de más fácil acceso, algunos investigadores -como Allred en 1961 [28] y Fung en 1965 [29]- revisaron los valores de electronegatividad obtenidos por Pauling, dando lugar a los llamados valores de electronegatividad de Pauling revisados, que se usan cotidianamente; el valor de 2.1 para el H, cambió a 2.2. Bergmann y Hinze consideraron que, al tomar el valor de electronegatividad calculado por Mulliken para el H, en 1934, Pauling transformó su escala en absoluta [25]. Para construir su escala de electronegatividades (XP), en 1960, Pauling utilizó conceptos de la teoría del enlace de valencia y, apoyándose en los argumentos de la mecánica cuántica y en los suyos propios, concluyó que los enlaces iónicos y covalentes eran casos extremos y que casi todos los enlaces estaban constituidos por una combinación de ambos. De esta manera, el carácter iónico parcial (el grado de polaridad), I, del enlace se podría calcular como
I 1 e 1 4 X A X B
2
y la frontera entre los compuestos iónicos y los covalentes sería el 50% de ionicidad, con su correspondiente valor de 1.7 de diferencia de electronegatividades [27] -idea que, al no corresponder con la realidad, dejó de considerarse-. Más adelante, en 1937, para resolver el problema de la energía adicional proveniente de la resonancia iónica-covalente en los hidruros alcalinos, Pauling y Sherman [30] sugirieron usar el promedio geométrico en vez del aritmético, lo cual, en realidad, no se tomó en cuenta, tal vez porque, como dijo Derek Smith [31], no ayudaba mucho. En 1939, Pauling propuso que “la electronegatividad es el poder de un átomo, en una molécula, para atraer electrones hacia él” [26]. Esta definición no estuvo exenta, al paso del tiempo, de algunas críticas. Por ejemplo, la de Sanderson (1986) indicando la derivación errónea de la electronegatividad de Pauling [32], comentario que provocó una respuesta aclaratoria defensiva, publicada en 1988 [33], o la de Allen (1990), calificando su primera propuesta de valores de electronegatividad como “…un grupo de valores semicuantitativos para átomos libres, cuyas diferencias daban estimaciones numéricas aproximadas de polaridades…” [34]. 4.2. La cuantificación de la electronegatividad después de Pauling. 1ª mitad del siglo XX Al plantear una escala de electronegatividad, el principal problema a resolver es predecir -o explicar- la distribución de la carga eléctrica en una molécula [23]. Al redefinir la electronegatividad de Pauling (XP), Mulliken, en 1934, propuso un método simple para cuantificarla [35] al usar el promedio aritmético entre los valores de dos propiedades atómicas: el primer potencial de ionización (I) y la afinidad electrónica (A). Así, la electronegatividad (o electroafinidad) de Mulliken (XM) puede definirse como la energía necesaria para atraer o soltar un electrón. Aunque el
271
Salas-Banuet et al / DYNA 81 (187), pp. 267-275. October, 2014.
mismo Mulliken explicó el “empirismo” de su escala y lo “aproximado” de su definición, calificó a la primera de “absoluta”, al no depender de una escala relativa arbitraria, como la de Pauling; sus unidades son las de la energía. Calculó los valores de electronegatividad para H, Li, B, C, N, O, F, Cl, Br, Be, e I, elementos de los que existían datos de afinidad electrónica. Estos valores serían recalculados por Parr y Pearson [36], en 1983, utilizando datos más precisos, aumentando el número de elementos a 25. A decir de Mullay, el método de Mulliken permite calcular los valores de la electronegatividad para los átomos en cualquier estado: neutro, excitado o con cualquier valencia, dándole la posibilidad de representar al átomo tal como existe en la molécula [23]. Sin embargo, Pearson advirtió, en 1990, que ni el potencial de ionización ni la afinidad electrónica correspondían a los átomos en estado neutro, sino a un estado de valencia “conveniente”, lo que le permitió a Mulliken comparar su escala con la de Pauling, aunque el interés inicial de Mulliken estuviera en estudiar la polaridad del enlace [37]. Aunque se considera que la propuesta de Mulliken tiene una fundamentación teórica mayor que la de Pauling, su uso fue limitado debido a la falta de datos de afinidad electrónica -todavía en 2006 se conocían sólo los de 57 elementos-. Al contrastar su escala de electronegatividad (XM) con las de Malone (1933) [38], Pauling (1960) y Mulliken (1934), la encontró equivalente, aunque con valores 2.8 veces más grandes que la de Pauling: XP = 0.168 (XM - 1.23). Por lo que toca a las críticas, Allen señalaba “desórdenes severos obvios” en los valores de electronegatividad de Mulliken para algunos elementos: XH > XC; XH > XS; XCl > XO; y XBr > XO, lo que no se presenta en ninguna otra escala. Además menciona la “principal falla” de la escala: los valores de electronegatividad de los metales de transición se determinan solamente sobre la base de los electrones s más externos, sin considerar el número y comportamiento de los electrones d. Finalmente critica el sobredimensionamiento de la contribución aniónica que procede de considerar al mismo nivel A e I, cuando en la realidad tienen magnitudes diferentes [39]. En 1946 Walter Gordy propuso definir la electronegatividad de un átomo neutro, en una molécula estable, como la carga nuclear efectiva del átomo actuando sobre un electrón de valencia, a una distancia igual al radio covalente desde el núcleo: (Zeff)e/r, es decir, un potencial de superficie en los enlaces atómicos covalentes [40]. Basado en esta definición, Gordy también desarrolló una escala de electronegatividad. Boeyens [41] resalta que separar la capa de valencia del núcleo implica que la magnitud de la carga positiva efectiva del núcleo es igual a la carga electrónica de la capa de valencia. Gordy supuso un factor de apantallamiento constante, k, igual a 0.5 para cualquier electrón de la capa de valencia. Entonces Zeff = n – k(n – 1) = k(n + 1); donde n es el total de los electrones en la capa de valencia. Al sustituir 0.5(n + 1) por Zeff, en su propuesta, se obtiene que X = k(n + 1)/r, donde k = 0.5e. En el artículo referido, Gordy también señala que su modelo definía la
electronegatividad absoluta de un elemento y que, en el caso de enlaces dobles o triples, la electronegatividad de un átomo dado sería mayor por tener un radio covalente menor. En la comparación de su escala con la de Pauling, encontró una gran diferencia para los valores de la plata, el oro y el cobre y lo explicó señalando que estos elementos contribuían con más de un electrón a los enlaces covalentes en sus compuestos, por lo que las constantes de apantallamiento debería tener un valor de 1 para todos los electrones, excepto para el electrón de la capa final. Cabe hacer notar que el valor de la carga efectiva en relación al radio (Zeff /r) es un potencial, mientras que la misma carga en relación al cuadrado del radio da como resultado una fuerza; seguramente esto fue notado y tomado en cuenta por Allred y Rochow, al realizar su trabajo [42]. Gordy comparó los valores de su escala (XG) con las de otros autores: Mulliken y Pauling: XP = 0.31XG + 0.50. Sanderson es el autor de un método para la obtención de una escala de electronegatividad publicado en 1952. Se basó en el concepto de relación de estabilidad (SR, por sus siglas en inglés) [43]. SR es la relación de la densidad electrónica promedio (ED, por sus siglas en inglés) del átomo de un elemento activo entre la densidad electrónica de un átomo inerte (EDi). ED representa la compactación promedio de de la esfera electrónica respecto al núcleo atómico; se calcula como el número electrónico entre el volumen atómico, covalente o iónico: ED = Z/4.19r3. Por otro lado, SR es una medida de la compactación del átomo, de qué tan cerca y firmemente unidos están los electrones en el átomo. Sanderson ideó el número ED solo para propósitos de comparación, basándose en dos ideas que consideraba deberían ser tomadas en cuenta por toda explicación relativa a la electronegatividad: los átomos o iones que poseen electronegatividad tienen una atracción inherente por los electrones; y esos átomos o iones aumentan su estabilidad química después de aceptar los electrones. De allí que, si los átomos de todos los elementos tienen algo de electronegatividad, teóricamente poseen el poder de atraer a los electrones de otros átomos. Este poder es proporcional a la carga nuclear e inversamente proporcional al radio atómico y a la repulsión de la esfera electrónica del átomo. Entonces, la electronegatividad es aproximadamente proporcional a la densidad electrónica promedio, medida por medio de SR. Sanderson explicó el aumento en la estabilidad del átomo al ser anexados los electrones, definiendo el concepto de estabilidad máxima (SR = 1): al adquirir una carga negativa parcial la esfera electrónica se expande, lo cual se puede considerar “una mejora en el balance de fuerzas” al interior del átomo, disminuyendo la electronegatividad. Para este autor, el estudio de la naturaleza de los enlaces químicos y las propiedades de los compuestos eran las aplicaciones de la electronegatividad más evidentes. Más adelante (1986) propondría otra escala de electronegatividad [44] y, en 1988, la definiría “de manera menos controversial” como “la propiedad que determina la forma en que se distribuyen los electrones enlazantes entre uno y otro átomo” [45]. Al comparar la
272
Salas-Banuet et al / DYNA 81 (187), pp. 267-275. October, 2014.
escala de Sanderson con la de Pauling se obtiene la ecuación XP = (0.2 (SR) + 0.77)2, una hipérbola tan abierta que parece una recta [23]. Allred y Rochow observaron que esta escala de electronegatividad mostraba una alternancia con el número atómico y que, en general, estaba de acuerdo con la de ellos (basada en la fuerza electrostática). También notaron que ese modelo podría explicar la alternancia en electronegatividad de grupos cercanos al centro de la Tabla Periódica, usando el empaquetamiento electrónico [42]. La escala de Sanderson no tuvo aceptación, posiblemente por su aparente oscuridad [23] o porque sus argumentos no fueron convincentes [46]. Sanderson también presentó una idea, a la que llamó igualación de la electronegatividad, para calcular su valor para un compuesto (desde una molécula diatómica hasta un sólido polimolecular) [47]. Básicamente establecía que los átomos del compuesto, inicialmente diferentes, terminan por tener la misma electronegatividad intermedia al constituirse el compuesto. Explicó que, para un compuesto binario, antes de formar un enlace, los átomos son eléctricamente neutros, pero mientras se forma el enlace, el átomo inicialmente más electronegativo gana más de la mitad de los electrones compartidos en él, quedando con una carga parcial negativa y menos electronegativo que al principio. El otro átomo, inicialmente menos electronegativo, queda con una carga parcial positiva, volviéndose más electronegativo. Estos cambios en la energía terminan cuando se alcanza el equilibrio y la electronegatividad se iguala en el compuesto. En este modelo, la electronegatividad es la media geométrica de las electronegatividades originales de los átomos [48]. Da como ejemplo, el cálculo de la electronegatividad del compuesto CH3COCl -usando las XM-: [(XC)2 * (XH)3 * (XO) * (XCl)] 1/7 = (2.746 * 2.5923 * 3.654 * 3.475)1/7 = 2.886. A pesar de los argumentos planteados por Sanderson, este formalismo tampoco tuvo mucha aceptación, hasta que Robert Parr y coautores publicaron un artículo cuya hipótesis era la equivalencia entre la electronegatividad y el negativo del potencial químico electrónico (–μ) [49]; sin embargo, cuando se encontró que eran similares, pero no iguales [34], la idea perdió nuevamente popularidad. Sumado a esto, Allen enumeró cinco “severas” objeciones a la hipótesis de la igualación de la electronegatividad -y a otros postulados establecidos por Sanderson- [41], que van más allá de los objetivos de este trabajo. No obstante todo lo anterior, algunos autores siguen aceptando el formalismo de Sanderson, como Noorizadeh y Shakerzadeh [50], últimos en proponer una escala de electronegatividad basada en los valores calculados de electrofilicidad. La escala de Albert L. Allred (1931-?) y Eugene G. Rochow (1909-2002) [42], tiene la misma base teórica que la de Gordy [40]. Para estos autores la electronegatividad debería relacionarse a la carga experimentada por un electrón en la superficie de un átomo, de manera que cuanto mayor fuera
la carga por unidad de superficie atómica, mayor sería la tendencia del átomo para atraer electrones, es decir, una fuerza electrostática calculada como F = e2Zeff /r2, donde r es el radio covalente y eZeff la carga nuclear efectiva. La plantearon como una aproximación a la fuerza con la que un átomo, en una molécula, atrae electrones y la llamaron electronegatividad absoluta del átomo. Calcularon la carga nuclear efectiva usando las reglas de Slater y supusieron que el área superficial del átomo en una molécula podía ser tomada como proporcional al cuadrado del radio covalente, si éste se expresaba en Angstroms. De esta manera, la electronegatividad dependía mayormente de la combinación de los orbitales usados para el enlace y, como la mayoría de los elementos exhibían más de un tipo de hibridación en sus compuestos, sería más adecuado hablar de una electronegatividad orbital y asignarle un intervalo de valores a un elemento y no tratarla como una propiedad atómica invariante. Allred y Rochow consideraron sus propuestas totalmente consistentes con la definición de Pauling, pues estimaba, precisamente, la tendencia de los átomos a atraer electrones. Existe una particularidad en esta escala, ya observada por Sanderson [43]: la electronegatividad del Ge es mayor que la del Si, lo que difiere de la de Pauling [51]. Compararon su escala con la de Gordy [40], la de Pritchard [46] y, la de Pauling XP = 0.359 XA-R + 0.744. En la 2ª mitad del siglo XX vendrían otras propuestas. 5. Conclusión Ninguno de los caminos seguidos por los químicos del siglo XIX para entender la afinidad fructificó en una idea clara ni llevó a una posible cuantificación. Fue sólo hasta el siglo XX, con Pauling, que esto comenzó a suceder, aunque el nombre del concepto afinidad química entró en desuso; sin embargo, la esencia de lo que representaba continuó vigente. El descubrimiento y desarrollo de la electricidad, la termodinámica, y la estructura del átomo fueron fundamentales para que el concepto de electronegatividad (la afinidad) encontrara nuevas vetas de perfeccionamiento de lo que es y de su medición, lo cual promovió una mayor discusión y, por ende, la reflexión y el planteamiento de nuevas propuestas. Referencias [1] [2] [3] [4] [5] [6] [7]
273
White, M., Isaac Newton: The Last Sorcerer, Londres, Fourth Estate, 3 P, 1977. Hampson, N., The Enlightenment, Londres, Penguin, 458 P, 2003. Gleick, J., Isaac Newton, Londres, Fourth Estate, pp. 101-108, 2003. Frank, E. Manuel, A Portrait of Isaac Newton, Cambridge, Harvard University Press, 398 P, 1968. Salas, G., Ramírez, J., Restrepo, O., Noguez, M y Cockrell, B., La Importancia de llamarse afinidad química. Parte IV: Las primeras flores. DYNA, 81 (184), pp. 225-232, 2014. Real Academia de Ciencias Exactas, Físicas y Naturales, Diccionario esencial de las ciencias. España, Espasa, p. 29, 2001. Salas, G., Ramírez, J., Restrepo, O., Cockrell, B. y Noguez, M., La Importancia de llamarse afinidad química. Parte I: La semilla. DYNA, 79 (173), pp. 135-144, 2012.
Salas-Banuet et al / DYNA 81 (187), pp. 267-275. October, 2014. [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] [34] [35] [36] [37] [38]
Salas, G., Ramírez, J., Restrepo, O., Noguez, M. y Cockrell, B., La Importancia de llamarse afinidad química. Parte II: La semilla germina. DYNA, 80 (177), pp. 162-170, 2013. Salas, G., Ramírez, J., Restrepo, O., Noguez, M. y Cockrell, B., La Importancia de llamarse afinidad química. Parte III: El crecimiento vano. DYNA, 80 (181), pp. 219-227, 2013. Berthollet, C.L., Essai de Statique Chimie, Paris, Demonville et Sœurs, 1803. Davy, H., On some Chemical Agencies of Electricity, Phil. Tras. R. Soc. Lond., 97, pp. 1-56, 1807. Avogadro, A., Idées sur l’acidité et l’alcalinité, Journal de physique, de chimie, d´histoire naturelle et des arts, Tome LXIX, pp. 142-148, 1809. Berzelius, J.J., Lehrbuch der Chemie, Dresde, Arnoldi, 1825. Jensen, W.B., Electronegativity from Avogadro to Pauling. Part I: Origins of the Electronegativity Concept, Journal of Chemical Education, 73 (1), pp. 11-20, 1996. Dalton, J., A new system of chemical philosophy, Londres , S. Russell, 1808. Barker, G.F., A Text-book of elementary chemistry, Louisville, John P. Morton & Co, 1870. Cook, J.P., The New Chemistry, New York, D. Appleton & Co., 1876. Van’t Hoff, J. and Thomson, J., Lectures on theoretical and physical chemistry, Londres, Edward Arnold, 1899. Caven, R.M. and Lander, G.D., Systematic inorganic chemistry from the standpoint of the periodic law, Londres, Blackie & son, 1906. Sackur, O., A Text book of Thermo-Chemisty and Thermodynamics, Londres, Macmillan & Co, 1913. Von Helmholtz, H., On the modern development of Faraday’s conception of electricity, J. Chem. Soc. Trans., 39, pp. 277-304, 1881. Jensen, W.B., Electronegativity from Avogadro to Pauling. Part II: Late nineteenth- and early Twentieth-Century developments, Journal of Chemical Education, 80 (3), pp. 279-287, 2003. Mullay, J., Estimation of atomic and group electronegativities, In Sen, K. and Jørgensen, C.K. (eds), Electronegativity, Heidelberg, SpringerVerlag, 1987, pp. 1-26. Pauling, L. and Yost, D.M., The additivity of the energies of normal covalent bonds, Proceedings of the National Academy of Sciences, 18, pp. 414-416, 1932. Bergmann, D. and Hinze, J., Electronegativity and molecular properties, Angewandte Chemie Edición Internacional, 35, pp. 150-163, 1996. Pauling, L., The nature of chemical bond and the structure of molecules and crystals: An introduction to modern structural chemistry, Ithaca, Cornell University Press, 1939. Pauling, L., The nature of chemical bond, Ithaca, Cornell University Press, 1960. Allred, A.L., Electronegativity values from thermochemical data, Journal of Inorganic & Nuclear Chemistry, 17, pp. 215-221, 1961. Fung, B., The electronegativity of noble gases, Journal of Physical Chemistry, 69 (2), pp. 596-600, 1965. Pauling, L. and Sherman, J., A quantitative discussion of bond orbitals, Journal of the American Chemical Society, 59 (8), pp. 1450-1456, 1937. Smith, D.W., Comment on “Evaluation and test of Pauling’s electronegativity scale”, Journal of Physical Chemistry A, 106, pp. 5951-5952, 2002. Sanderson, R.T., Is the theoretical emperor really wearing any clothes?, Journal of Chemical Education, 63 (10), pp. 845-846, 1986. Pauling, L., The origin and nature of the electronegativity scale, Journal of Chemical Education, 65 (4), p. 375, 1988. Allen L.C., Electronegativity scales, Accounts of Chemical Research, 23, pp. 175-176, 1990. Mulliken, R.S., A new electroaffinity scale; together with data on valence states and on valence ionization potentials and electron affinities, Journal of Chemical Physics, 2, pp. 782-793, 1934. Parr, R.G. and Pearson, R.G., Absolute Hardness: Companion parameter to absolute electronegativity, Journal of the American Chemical Society, 105, pp. 7512-7516, 1983. Pearson, R.G., Electronegativity scales, Accounts of Chemical Research, 23 (1), pp. 1-2, 1990. Malone, J.G., The electric moment as a measure of the ionic nature of covalent bonds, Journal of Chemical Physics, 1, pp. 197-199, 1933.
[39] [40] [41] [42] [43] [44] [45] [46] [47] [48] [49] [50] [51]
Allen, L.C., Chemistry and electronegativity, International Journal of Quantum Chemistry, 49, pp. 253-277, 1994. Gordy, W., A relation between bond force constants, bond orders, bond lengths, and the electronegativities of bonded atoms, Journal of Chemical Physics, 14 (5), pp. 305-320, 1946. Boeyens, J.C.A., The periodic electronegativity table, Zeitschrift für Naturforschung, 63b, pp. 199-209, 2008. Allred, A.L. and Rochow, E.G., A scale of electronegativity based on electrostatic force, Journal of Inorganic & Nuclear Chemistry, 5, pp. 264-268, 1958. Sanderson, R.T., An explanation of chemical variations within periodic major groups, Journal of the American Chemical Society, 74 (19), pp. 4792-4794, 1952. Sanderson, R.T., Electronegativity and bonding of transitional elements, Inorganic Chemistry, 25, pp. 3518-3522, 1986 [45] Sanderson, R.T., Principles of electronegativity. Part I. General nature, Journal of Chemical Education, 65 (2), pp. 112-118, 1988. Pritchard, H.O. and Skinner, H.A., The concept of electronegativity, Chemical Reviews, 55, pp. 745-786, 1955. Sanderson, R.T., An interpretation of bond lengths and a classification of bonds, Science, New series, 114 (2973), pp. 670-672, 1951. Sanderson, R.T., Principles of electronegativity. Part II. Applications, Journal of Chemical Education, 65 (3), pp. 227-231, 1988. Parr, R.G., Robert A., Donnelly, R.A., Levy, M. and Palke, W.E., Electronegativity: The density functional viewpoint, Journal of Chemical Physics, 68 (8), pp. 3801-3807, 1978. Noorizadeh, S. and Shakerzadeh, E., A new scale of electronegativity based on electrophilicity index, Journal of Physical Chemistry, 112, pp. 3486-3491, 2008. Pauling, L., Atomic radii and interatomic distances in metals, Journal of the American Chemical Society, 69 (3), pp. 542-553, 1947.
G. Salas-Banuet, Ing. Químico Metalúrgico con título de Postgrado, ambos de la Universidad Nacional Autónoma de México (UNAM), México. Profesor Titular "C" en la Facultad de Química de la misma universidad, donde ha trabajado en docencia, investigación y divulgación por 39 años, de tiempo completo. Su principal área de interés es la enseñanza. Su área principal de trabajo está en los materiales, especialmente metales, las relaciones estructura-propiedades, nuevos procesos de obtención, diseño y reemplazamiento de aleaciones, reciclaje, el desarrollo y el impacto de la ciencia y la tecnología; otros campos de interés son el pensamiento, las ideas, la historia, sociología, arqueología, desarrollo humano, leyes, economía, funcionamiento cerebral, entre otros. Ha enseñado en cursos de pregrado y postgrado (más de 165), publicado en revistas nacionales (más de 30) e internacionales indexadas (más de 20). Así mismo ha enviado trabajos a conferencias y eventos científicos internacionales (más de 80) y nacionales (más de 25) y ha sido conferencista invitado en más de 25 oportunidades, algunas de ellas de carácter magistral. J. Ramírez-Vieyra obtuvo su diploma en Ingeniería Metalúrgica en 1992 en la Universidad Nacional Autónoma de México (UNAM), México, donde también obtuvo su MSc en Ingeniería. Fue profesor adjunto (19931994) y ha sido Investigador Asistente. Adicionalmente, actúa como Profesor Asistente en la Facultad de Química de la UNAM. Ha colaborado en algunos proyectos de investigación en la elaboración de artículos y ha participado en alrededor de 50 congresos y ha publicado cerca de 20 artículos en sus temas de interés: Metalurgia física, Arqueometalurgia, Educación en ingeniería y Materiales y ambiente. O. Restrepo-Baena, recibió su título de Ing. de Minas y Metalurgia en 1991 en la Universidad Nacional de Colombia. MSc. en Evaluación de Impactos Ambientales del Instituto de Investigaciones Ecológicas de Málaga, España y Dr. en Metalurgia y Materiales de la Universidad de Oviedo, España. Trabaja en la Facultad de Minas de la Universidad Nacional de Colombia, Sede Medellín desde 1997 y su área de trabajo se centra en Metalurgia extractiva y Materiales de Ingeniería, Cementos, Cerámicos, Pigmentos. M. Noguez-Amaya, es Ing. Química Metalúrgica de la Facultad de Química, Universidad Nacional Autónoma de México (UNAM), México, 1964-1968. MSc. en Ingeniería Metalúrgica de la School of Engineering,
274
Salas-Banuet et al / DYNA 81 (187), pp. 267-275. October, 2014. University of Pittsburgh, Pittsburgh, Pa., USA, 1973. Ha trabajado profesionalmente en la industria automotriz y en la industria de fundición como Ingeniera de Manufactura 1968-1970. En la UNAM, ha sido profesora desde 1968 Profesora Asociada en 1974 y Profesora en 1984. Actualmente profesora de tiempo completo en la Facultad de Química de la UNAM, donde ha sido miembro del Consejo Técnico primero como estudiante y después como profesora por 3 periodos (1976-2001); coordinadora de los estudios de pregrado en Ingeniera Química Metalúrgica (1979-1981); ganó el premio “Ernesto Rios del Castillo” (1995-1997), y el premio “Sor Juana Inés de la Cruz” a la mujer universitaria de la UNAM (2013), de la Escuela de Química. Sus áreas de interés son: Metalurgia física, Educación en ingeniería y Materiales y ambiente. B. R. Cockrell, recibió su PhD. en Antropología en 2014 (mención en Arqueología) en la University of California, Berkeley, USA Su área de investigación actual está en el análisis de metales del Cenote Sagrado de Chichen Itza en Yucatán, México, en colaboración con investigadores de la UNAM. Actualmente enseña en el Departamento de Antropología de UC Berkeley y San Francisco State University, USA. Sus intereses incluyen la metalurgia de los antiguos pueblos americanos así como la arqueometría y arqueología de Mesoamérica.
275