Dyna Edition 186 - August of 2014

Page 1

DYNA Journal of the Facultad de Minas, Universidad Nacional de Colombia - Medellin Campus

DYNA 81 (186), August, 2014 - ISSN 0012-7353 Tarifa Postal Reducida No. 2014-287 4-72 La Red Postal de Colombia, Vence 31 de Dic. 2014. FACULTAD DE MINAS


DYNA

http://dyna.medellin.unal.edu.co/

DYNA is an international journal published by the Facultad de Minas, Universidad Nacional de Colombia, Medellín Campus since 1933. DYNA publishes peer-reviewed scientific articles covering all aspects of engineering. Our objective is the dissemination of original, useful and relevant research presenting new knowledge about theoretical or practical aspects of methodologies and methods used in engineering or leading to improvements in professional practices. All conclusions presented in the articles must be based on the current state-of-the-art and supported by a rigorous analysis and a balanced appraisal. The journal publishes scientific and technological research articles, review articles and case studies. DYNA publishes articles in the following areas: Organizational Engineering Civil Engineering Materials and Mines Engineering

Geosciences and the Environment Systems and Informatics Chemistry and Petroleum

Mechatronics Bio-engineering Other areas related to engineering

Publication Information

Indexing and Databases

DYNA (ISSN 0012-73533, printed; 2346-2183, online) is published by the Facultad de Minas, Universidad Nacional de Colombia, with a bimonthly periodicity (February, April, June, August, October, and December). Circulation License Resolution 000584 de 1976 from the Ministry of the Government.

DYNA is admitted in:

Contact information Web page: E-mail: Mail address: Facultad de Minas

http://dyna.unalmed.edu.co dyna@unal.edu.co Revista DYNA Universidad Nacional de Colombia Medellín Campus Carrera 80 No. 65-223 Bloque M9 - Of.:107 Telephone: (574) 4255068 Fax: (574) 4255343 Medellín - Colombia © Copyright 2014. Universidad Nacional de Colombia The complete or partial reproduction of texts with educational ends is permitted, granted that the source is duly cited. Unless indicated otherwise. Notice All statements, methods, instructions and ideas are only responsibility of the authors and not necessarily represent the view of the Universidad Nacional de Colombia. The publisher does not accept responsibility for any injury and/or damage for the use of the content of this journal. The concepts and opinions expressed in the articles are the exclusive responsibility of the authors.

The National System of Indexation and Homologation of Specialized Journals CT+I-PUBLINDEX, Category A1 Science Citation Index Expanded Journal Citation Reports - JCR Science Direct SCOPUS Chemical Abstract - CAS Scientific Electronic Library on Line - SciELO GEOREF PERIÓDICA Data Base Latindex Actualidad Iberoaméricana RedALyC - Scientific Information System Directory of Open Acces Journals - DOAJ PASCAL CAPES UN Digital Library - SINAB CAPES

Publisher’s Office Juan David Velásquez Henao, Director Mónica del Pilar Rada T., Editorial Coordinator Catalina Cardona A., Editorial Assistant Amilkar Álvarez C., Diagrammer Byron Llano V., Editorial Assistant Institutional Exchange Request DYNA may be requested as an institutional exchange through the Andrew Mark Bailey, English Style Editor Alberto Gutiérrez, IT Assistant e-mail canjebib_med@unal.edu.co or to the postal address: Biblioteca Central “Efe Gómez” Universidad Nacional de Colombia, Sede Medellín Calle 59A No 63-20 Teléfono: (57+4) 430 97 86 Medellín - Colombia

Reduced Postal Fee Tarifa Postal Reducida # 2014-287 4-72. La Red Postal de Colombia, expires Dec. 31st, 2014


SEDE MEDELLÍN

DYNA


SEDE MEDELLÍN


COUNCIL OF THE FACULTAD DE MINAS

JOURNAL EDITORIAL BOARD

Dean John Willian Branch Bedoya, PhD

Editor-in-Chief Juan David Velásquez Henao, PhD Universidad Nacional de Colombia, Colombia

Vice-Dean Pedro Nel Benjumea Hernández, PhD Vice-Dean of Research and Extension Verónica Botero Fernández, PhD Director of University Services Carlos Alberto Graciano, PhD Academic Secretary Carlos Alberto Zarate Yepes, PhD Representative of the Curricular Area Directors Gaspar Monsalve Mejía, PhD Elkin Rodríguez Velásquez, PhD Representative of the Basic Units of AcademicAdministrative Management Germán Alberto Sierra Gallego, PhD

Editors George Barbastathis, PhD Massachusetts Institute of Technology, USA Tim A. Osswald, PhD University of Wisconsin, USA Juan De Pablo, PhD University of Wisconsin, USA Hans Christian Öttinger, PhD Swiss Federal Institute of Technology (ETH), Switzerland Patrick D. Anderson, PhD Eindhoven University of Technology, the Netherlands Igor Emri, PhD Associate Professor, University of Ljubljana, Slovenia

Representative of the Basic Units of AcademicAdministrative Management Juan David Velásquez Henao, PhD

Dietmar Drummer, PhD Institute of Polymer Technology University ErlangenNürnberg, Germany

Professor Representative Jaime Ignacio Vélez Upegui, PhD

Ting-Chung Poon, PhD Virginia Polytechnic Institute and State University, USA

Delegate of the University Council Pedro Ignacio Torres Trujillo, PhD

Pierre Boulanger, PhD University of Alberta, Canadá

Undergraduate Student Representative Rubén David Montoya Pérez

Jordi Payá Bernabeu, Ph.D. Instituto de Ciencia y Tecnología del Hormigón (ICITECH) Universitat Politècnica de València, España

FACULTY EDITORIAL BOARD Dean John Willian Branch Bedoya, PhD Vice-Dean of Research and Extension Santiago Arango Aramburo, PhD Members Hernán Darío Álvarez Zapata, PhD Oscar Jaime Restrepo Baena, PhD Juan David Velásquez Henao, PhD Jaime Aguirre Cardona, PhD Mónica del Pilar Rada Tobón MSc

Javier Belzunce Varela, Ph.D. Universidad de Oviedo, España Luis Gonzaga Santos Sobral, PhD Centro de Tecnología Mineral - CETEM, Brasil Agustín Bueno, PhD Universidad de Alicante, España Henrique Lorenzo Cimadevila, PhD Universidad de Vigo, España Mauricio Trujillo, PhD Universidad Nacional Autónoma de México, México

Carlos Palacio, PhD Universidad de Antioquia, Colombia Jorge Garcia-Sucerquia, PhD Universidad Nacional de Colombia, Colombia Juan Pablo Hernández, PhD Universidad Nacional de Colombia, Colombia John Willian Branch Bedoya, PhD Universidad Nacional de Colombia, Colombia Enrique Posada, Msc INDISA S.A, Colombia Oscar Jaime Restrepo Baena, PhD Universidad Nacional de Colombia, Colombia Moisés Oswaldo Bustamante Rúa, PhD Universidad Nacional de Colombia, Colombia Hernán Darío Álvarez, PhD Universidad Nacional de Colombia, Colombia Jaime Aguirre Cardona, PhD Universidad Nacional de Colombia, Colombia


DYNA 81 (186), August, 2014. Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online

CONTENTS Editorial: Minimum Aspects of Using Signs ranking Proofreading and Proofreading

9

Chemical-mineralogical characterization of copper smelting flue dust

11

Revalidation of Elder´s equation for accurate measurements of dispersion coefficients in natural flows

19

Simplified calculation of vibrations in shell and tube heat exchangers with liquids

28

A robust neuro-fuzzy classifier for the detection of cardiomegaly in digital chest radiographies

35

Three-dimensional oil spill transport and dispersion at sea by an event of blowout

42

Service quality management based on the application of the ITIL standard

51

Photorealistic simulated modelling from fractals applied to mined-out pit restoration

57

Estimation of land use conflicts due to the dynamic of african Palm cultivation using remote sensing in Cesar, Colombia

65

Techniques to correct and prevent acid mine drainage: A review

73

The influence of osmotic pretreatments on melon (Cucumis melo L.) quality during frozen storage

81

Coal acid mine drainage treatment using cement kiln dust

87

Carbon nitride films grown by cathodic vacuum arc for hemocompatibility applications

94

Molecular dynamics simulation of nanoindentation in Cr, Al layers and Al/Cr bilayers, using a hard spherical nanoindenter

102

Effect of a superconducting defect on the Cooper pairs of a mesoscopic sample

108

Applying TOC Heuristics to Job Scheduling in a Hybrid Flexible Flow Shop

113

Apparent molar volume and modeling of volumetric properties of ionic liquid aqueous solutions 1-butyl-3-metilmidazolium chloride [Bmim+][Cl-] at various temperatures

120

A framework for consistences in association relations between classes in UML

126

Test effort: A pre-conceptual-schema-based representation

132

Model for a vehicle dynamics through a sequence of traffic lights

138

Alternative methods to attach components in printed circuit boards to improve their recyclability

146

Juan D. Velásquez

Eduardo Balladares, Ursula Kelm, Sonia Helle, Roberto Parra & Eugenia Araneda

Alfredo José Constain-Aragón

Maida Bárbara Reyes-Rodríguez, Jorge Laureano Moya-Rodríguez & Rafael Goytisolo-Espinosa.

Fabián Torres-Robles, Alberto Jorge Rosales-Silva, Francisco Javier Gallegos-Funes & Ivonne Bazán-Trujillo

Luis Otero-Díaz, Jorge O. Pierini, Paulo Chambel-Leitao, Madalena Malhadas, Joao Ribeiro, Jose Chambel-Leitao & Juan Restrepo Hermenegildo Gil-Gómez, Raúl Oltra-Badenes & Wilson Adarme-Jaimes

Iván de Rosario-Amado, José Santiago Pozo-Antonio, Gabriel Lorenzo-Salgueiro, Jorge Feijoo-Conde & Javier Taboada-Castro. Angie López-Duque & Verónica Botero-Fernández

Santiago Pozo-Antonio, Iván Puente-Luna, Susana Lagüela-López & María Veiga-Ríos Alfredo Ayala-Aponte & Martha Isabel Cadena-G.

Edgar Alberto Martínez, Jorge Iván Tobón & Juan Guillermo Morales.

Diana Shirley Galeano-Osorio, Santiago Vargas a, Rogelio Ospina-Ospina, Elisabeth Restrepo-Parra & Pedro José Arango Sebastián Amaya-Roncancio, Elisabeth Restrepo-Parra, Diana Marcela Devia-Narvaez Diego Fernando Arias- Mateus & Mónica María Gómez-Hermida Sindy Jessenia Higuera-Agudelo, Heli Barba-Molina & José José Barba-Ortega

Jaime Antero Arango-Marín, Jaime Alberto Giraldo-García, Omar Danilo Castrillón-Gómez

Manuel Páez-Meza, Omar Pérez-Sierra & Yeris Cuello-Delgado

Javier Dario Fernández-Ledesma

Carlos Mario Zapata-Jaramillo & Diana María Torres-Ricaurte

Mónica Mesa-Mazo, Johnny Valencia-Calvo & Gerard Olivar-Tost

André Canal-Marques, Maria Rita Ortega-Vega, José-María Cabrera & Célia de Fraga-Malfatti


Occupational injuries in the mining sector (2000-2010). Comparison with the construction sector

153

Study of the effect of silver in the mechanical properties and electrical conductivity of duralumins (Al-4%Cu-0.5%Mg)

159

Application of structural equation and servqual in a health service

166

Elements that define the social responsibility of a product

175

Kinetic modelling of drying of three varieties of yucca industrial

184

Specification of problems from the business goals in the context of early software requirements elicitation

193

Impact estimates of the actions for the rehabilitation of energy efficiency in residential building

200

Effects of regional infrastructure and offered services in the supply chains performance: Case Ciudad Juarez

208

Viscosity and viscometric properties of Glycine in aqueous solutions of Sodium Thiosulfate Pentahydrate (Na2S2O3 .5H2O) at different temperatures

218

Damage detection in ACSR cables based on ultrasonic guided waves

226

Numerical and experimental preliminary study of temperature distribution in an electric resistance tube furnace for hot compression tests

234

Attaining multiple dispatch in widespread object-oriented languages

242

Reanalysis of monthly precipitation fields in Colombian territory

251

Coordinating inventory in collecting raw milk. Case Region Sugamuxi – Colombia

259

José Juan de Felipe-Blanch, Modesto Freijo-Álvarez, Pura Alonso, Lluís Sanmiquel-Pera & Carla Vintró-Sánchez Reinaldo Correa-Avendaño, Héctor Darío Sánchez-Londoño & Edwin García-Quintero Amparo Zapata-Gómez

Francesc Xavier Espinach, Ramón Ripoll, Josep Tresserras & Fernando Julián Angélica María Torregroza-Espinosa, Everaldo Joaquín Montes-Montes, Adrián Enrique Ávila-Gómez & John Fredy Remolina-López Carlos Mario Zapata-J. & Fabio Alberto Vargas-Agudelo

Sonia Zaragoza- Fernández, Javier Tarrío-Saavedra, Salvador Naya, Jorge López-Beceiro & Ana Álvarez-García Liliana Avelar-Sosa, Jorge Luis García-Alcaraz, Miguel Gastón Cedillo-Campos & Wilson Adarme-Jaimes

Manuel Silvestre Páez-Meza a, Gustavo Manuel Alvarino-Bettín & Plinio de los Santos Cantero-López Rito Mijarez, Arturo Baltazar, Joaquín Rodríguez-Rodríguez & José Ramírez-Niño

Gabriel Torrente-Prato & Mary Torres-Rodríguez

Francisco Ortin, Jose Quiroga, Jose M. Redondo & Miguel Garcia

Andrés Felipe Hurtado-Montoya & Óscar José Mesa-Sánchez

CésarH. Guzmán-Camacho, Hugo F. Salazar-Sanabria & Wilson Adarme-Jaimes

Logistics process improvement of warehousing and picking in a colombian company textile sector

267

Dynamic model to analyze pedestrian traffic policies in Bogota

276

An algorithm based on granular tabu search for the problem of balancing public bikes by using multiple vehicles

284

Coordination of inventory: A case study of city logistics

295

An alternative solution for the repair of electrical breakdowns after natural disasters based on ant colony optimization

304

New product forecasting demand by using neural networks and similar product analysis

311

Carlos Eduardo-Díaz, Javier Arias-Osorio & Henry Lamos Germán Méndez-Giraldo & Lindsay Álvarez-Pomar

Rodrigo Linfati, John Willmer Escobar & Bernardo Cuevas Oscar Palacio León & Wilson Adarme Jaimes Yasel Costa Salas & William Ariel Sarache

Alfonso T. Sarmiento & Osman Camilo Soto

Our cover Image alluding to Article: Three-dimensional oil spill transport and dispersion at sea by an event of blowout Authors: Luis Otero-Díaz, Jorge O. Pierini, Paulo Chambel-Leitao, Madalena Malhadas, Joao Ribeiro, Jose Chambel-Leitao & Juan Restrepo


DYNA 81 (185), June, 2014. Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online

CONTENIDO Editorial: Aspectos Mínimos del Uso de Signos de Puntuación en Corrección de Estilo y Proofreading

9

Caracterización químico-mineralógica de polvos de fundición de cobre

11

Revalidación de la ecuación de Elder para la medición precisa de coeficientes de dispersión en flujos naturales

19

Cálculo simplificado de vibraciones en los intercambiadores de calor de tubo y coraza con fluidos líquidos

28

Clasificador robusto neuro-difuso para la detección de cardiomegalia en radiografías digitales del tórax

35

Transporte y dispersión tridimensional de un derrame de petróleo en el mar debido a un evento "blowout"

42

Gestión de la calidad de servicios apoyados en la aplicación del estándar ITIL

51

Modelo de simulación fotorrealística a partir de fractales aplicados a la restauración de entornos mineros

57

Estimación de conflictos de uso de la tierra por la dinámica de cultivo de Palma africana usando sensores remotos en el Cesar, Colombia

65

Técnicas correctoras y preventivas de las aguas ácidas de mina: Una revisión

73

Influencia de pretratamientos osmóticos sobre la calidad de muestras de melón (Cucumis melo L.) durante almacenamiento en congelación

81

Tratamiento de drenaje ácido de minería de carbón usando polvo de horno de cemento

87

Películas de nitruro de carbono crecidas por arco catódico en vacío para aplicaciones en hemocompatibilidad

94

Simulación del proceso de nanoindentación con dinámica molecular en capas de Cr y Al y bicapas de Al/Cr, empleando un nanoindentador esférico

102

Efecto de un defecto superconductor sobre los pares de Cooper de una muestra mesoscópica

108

Aplicando la Heurística TOC a la Secuenciación de Trabajos en un Flow Shop Híbrido Flexible

113

Volumen molar aparente y modelamiento de propiedades volumétricas de soluciones acuosas del líquido iónico cloruro de 1butil-3-metilmidazolio [Bmim+][Cl-] a varias temperaturas

120

Un framework para consistencias en relaciones de asociación entre clases en UML

126

El esfuerzo en pruebas: Una representación basada en esquemas preconceptuales

132

Modelo para la dinámica de un vehículo a través de una secuencia de semáforos

138

Métodos alternativos de fijación de componentes de circuitos impresos para mejorar su reciclabilidad

146

Juan D. Velásquez

Eduardo Balladares, Ursula Kelm, Sonia Helle, Roberto Parra & Eugenia Araneda Alfredo José Constain-Aragón

Maida Bárbara Reyes-Rodríguez, Jorge Laureano Moya-Rodríguez & Rafael Goytisolo-Espinosa.

Fabián Torres-Robles, Alberto Jorge Rosales-Silva, Francisco Javier Gallegos-Funes & Ivonne Bazán-Trujillo

Luis Otero-Díaz, Jorge O. Pierini, Paulo Chambel-Leitao, Madalena Malhadas, Joao Ribeiro, Jose Chambel-Leitao & Juan Restrepo Hermenegildo Gil-Gómez, Raúl Oltra-Badenes & Wilson Adarme-Jaimes

Iván de Rosario-Amado, José Santiago Pozo-Antonio, Gabriel Lorenzo-Salgueiro, Jorge Feijoo-Conde & Javier Taboada-Castro.

Angie López-Duque & Verónica Botero-Fernández

Santiago Pozo-Antonio, Iván Puente-Luna, Susana Lagüela-López & María Veiga-Ríos

Alfredo Ayala-Aponte & Martha Isabel Cadena-G.

Edgar Alberto Martínez, Jorge Iván Tobón & Juan Guillermo Morales.

Diana Shirley Galeano-Osorio, Santiago Vargas a, Rogelio Ospina-Ospina, Elisabeth Restrepo-Parra & Pedro José Arango

Sebastián Amaya-Roncancio, Elisabeth Restrepo-Parra, Diana Marcela Devia-Narvaez Diego Fernando Arias- Mateus & Mónica María Gómez-Hermida Sindy Jessenia Higuera-Agudelo, Heli Barba-Molina & José José Barba-Ortega

Jaime Antero Arango-Marín, Jaime Alberto Giraldo-García, Omar Danilo Castrillón-Gómez

Manuel Páez-Meza, Omar Pérez-Sierra & Yeris Cuello-Delgado

Javier Dario Fernández-Ledesma

Carlos Mario Zapata-Jaramillo & Diana María Torres-Ricaurte

Mónica Mesa-Mazo, Johnny Valencia-Calvo & Gerard Olivar-Tost

André Canal-Marques, Maria Rita Ortega-Vega, José-María Cabrera & Célia de Fraga-Malfatti


Las lesiones por accidente de trabajo en el sector de la minería (2000 – 2010). Comparación con el sector de la construcción

153

Estudio del efecto de la plata en las propiedades mecánicas y conductividad eléctrica de los duraluminios (Al-4%Cu-0,5%Mg)

159

Aplicación de ecuaciones estructurales y servqual en un servicio de salud

166

Aspectos que definen la responsabilidad social del producto

175

Modelado de las cinéticas de secado de tres variedades de yuca industrial

184

Especificación de problemas a partir de objetivos de negocios en el contexto de la educción temprana de requisitos de software

193

Estimación del impacto de acciones en la rehabilitación de la eficiencia energética en la edificación residencial

200

Efectos de la infraestructura regional y los servicios en el desempeño de la cadena de suministro: Caso Ciudad Juárez

208

Viscosidades y propiedades viscosimetricas de la Glicina en soluciones acuosas de Tiosulfato de Sodio Pentahidratado (Na2S2O3 .5H2O) a diferentes temperaturas

218

Detección de daño en cables ACSR basada en ondas guiadas ultrasónicas

226

Estudio preliminar numérico y experimental de la distribución de temperatura en un horno tubular de resistencia eléctrica para ensayos de compresión en caliente

234

Aproximaciones para obtener multi-métodos en los lenguajes orientados a objetos más extendidos

242

Reconstrucción de los campos de precipitación mensual en Colombia

251

Coordinación de inventarios en la recolección de leche cruda. Caso región Sugamuxi - Colombia

259

Mejoramiento de los procesos logísticos de almacenamiento y preparación de pedidos en una empresa del sector textil colombiano

267

Modelo dinámico para analizar políticas relacionadas con el tráfico peatonal en Bogotá

276

Un algoritmo basado en búsqueda tabú granular para el problema de balanceo de bicicletas públicas usando múltiples vehículos

284

Coordinación de inventarios: Un caso de estudio para la logística de ciudad

295

Solución alternativa para la reparación de averías eléctricas posterior a desastres naturales usando optimización basada en colonias de hormigas

304

Pronóstico de demanda de productos nuevos mediante el uso de redes neuronales y el análisis de productos similares

311

José Juan de Felipe-Blanch, Modesto Freijo-Álvarez, Pura Alonso, Lluís Sanmiquel-Pera & Carla Vintró-Sánchez Reinaldo Correa-Avendaño, Héctor Darío Sánchez-Londoño & Edwin García-Quintero Amparo Zapata-Gómez

Francesc Xavier Espinach, Ramón Ripoll, Josep Tresserras & Fernando Julián Angélica María Torregroza-Espinosa, Everaldo Joaquín Montes-Montes, Adrián Enrique Ávila-Gómez & John Fredy Remolina-López Carlos Mario Zapata-J. & Fabio Alberto Vargas-Agudelo

Sonia Zaragoza- Fernández, Javier Tarrío-Saavedra, Salvador Naya, Jorge López-Beceiro & Ana Álvarez-García Liliana Avelar-Sosa, Jorge Luis García-Alcaraz, Miguel Gastón Cedillo-Campos & Wilson Adarme-Jaimes

Manuel Silvestre Páez-Meza a, Gustavo Manuel Alvarino-Bettín b & Plinio de los Santos Cantero-López Rito Mijarez, Arturo Baltazar, Joaquín Rodríguez-Rodríguez & José Ramírez-Niño

Gabriel Torrente-Prato & Mary Torres-Rodríguez

Francisco Ortin, Jose Quiroga, Jose M. Redondo & Miguel Garcia

Andrés Felipe Hurtado-Montoya & Óscar José Mesa-Sánchez

César H. Guzmán-Camacho, Hugo F. Salazar-Sanabria & Wilson Adarme-Jaimes

Carlos Eduardo-Díaz, Javier Arias-Osorio & Henry Lamos Germán Méndez-Giraldo & Lindsay Álvarez-Pomar

Rodrigo Linfati, John Willmer Escobar & Bernardo Cuevas Oscar Palacio León & Wilson Adarme Jaimes

Yasel Costa Salas & William Ariel Sarache

Alfonso T. Sarmiento & Osman Camilo Soto

Nuestra carátula Imágenes alusivas al artículo: Transporte y dispersión tridimensional de un derrame de petróleo en el mar debido a un evento "blowout" Authors: Luis Otero-Díaz, Jorge O. Pierini, Paulo Chambel-Leitao, Madalena Malhadas, Joao Ribeiro, Jose Chambel-Leitao & Juan Restrepo


Chemical-mineralogical characterization of copper smelting flue dust Eduardo Balladares a, Ursula Kelm b, Sonia Helle c, Roberto Parra d & Eugenia Araneda e a Departamento de Ingeniería Metalúrgica, Universidad de Concepción, Chile. eballada@udec.cl Unidad de Geología Económica Aplicada (GEA), Universidad de Concepción, Chile. ukelm@udec.cl c Unidad de Geología Económica Aplicada (GEA), Universidad de Concepción, Chile. shelle@udec.cl d Departamento de Ingeniería Metalúrgica, Universidad de Concepción, Chile. e Departamento de Ingeniería Metalúrgica, Universidad de Concepción, Chile. euaraned@udec.cl

b

Received: September 19th, de 2012. Received in revised form: June 14th, 2013. Accepted: March 5th, 2014

Abstract In pyrometallurgical processing of copper, 5-10 wt-% of concentrates fed to smelting furnaces are released in the form of flue dust, which contains most of the impurities that pollute products and effluents as well as very significant amounts of copper. Consequently, these dusts cannot be disposed of as an industrial waste and must be treated to recover the copper in order to assure efficient processing. Better process designs needs precise dust characterization. The present study is aimed at generating useful physical, chemical and morphological information of copper smelting flue dust for samples from the gas handling system of a flash smelting furnace. The analyses showed that copper and iron are mainly found in water-soluble phases like chalcantite and chalcocyanite; the water-insoluble fraction contains largely hematite and magnetite; the presence of delafossite is likely. Part of the copper detected in the insoluble fraction is also associated to iron in form of spinel. Keywords: flue dust, characterization, copper smelting dust.

Caracterización químico-mineralógica de polvos de fundición de cobre Resumen En el procesamiento pirometalúrgico del cobre, hasta 10% de la carga alimentada a los hornos sale de estos en forma de polvo arrastrado por los gases conteniendo la mayor parte de las impurezas presentes en el mineral, así como cantidades significativas de cobre por lo que no pueden ser descartados como residuos industriales y debe tratarse para recuperar el cobre. La conceptualización de nuevos y mejores procesos requiere caracterizaciones de estos materiales más precisas. Se analizaron polvos provenientes de una caldera recuperadora de calor y de un precipitador electrostático, ambos de un horno de fusión instantánea. Las diferentes herramientas analíticas empleadas muestran que el cobre y el hierro se encuentran principalmente en fases solubles en agua tales como chalcantita. La fracción insoluble está formada mayoritariamente por hematita y magnetita, con probable presencia de delafosita. Parte del cobre detectada en la fracción insoluble se asocia al hierro en forma de espinela. Palabras clave: polvos de fundición, caracterización, fundición de cobre.

1. Introduction

In the pyrometallurgical processing of copper concentrates, the most commonly employed technology is the flash smelting furnace. This type of reactor produces a high strength SO2-bearing gaseous stream that carries an

important amount of solid particles outside the furnace. This solid-gas suspension leaves the furnace at high temperature (about 1400 °C), and is treated in a gas-handling system that uses waste boiler heat to separate coarse solids from gas as well as heat recovery to be used in concentrate drying equipment. The gas leaving the waste-heat boiler (WHB) at

© The author; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 11-18. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Balladares et al/ DYNA 81 (186), pp. 11-18. August, 2014.

350 ºC enters the electrostatic precipitator (ESP) for removal of fine particles leaving a solid-free gas stream suitable for sulfuric acid production in an acid plant. This solid separated from the gaseous stream constitutes the so-called copper smelting flue dust and comprises a coarse fraction named WHBD (waste heat boiler dust, Dust I) and a fine fraction named ESPD (electrostatic precipitator dust, Dust II). The composition of these dusts is variable for different operations. The composition depends on the mineralogy of the concentrates, fluxes and circulating material (slag, dust, etc.), and their respective proportions. Thus flue dust is composed of fine particles, fragmented particles and condensed compounds that have been carried out by the gaseous stream. Recent worldwide primary copper production by pyrometallurgical processes was around 12 million tons a year [1]. The volume of fine solids in the typical smeltingconverting operations (only taking into consideration conventional technologies like Outokumpu flash smelting and Peirce-Smith converting) amounts to about 350,000 tons of flue dust each year [2]. These materials are important sources of copper; however, the significant amount of minor elements prevents easy and complete reprocessing in smelting or converting furnaces. Instead, different processes have been developed in each smelter. All these processes take place in aqueous media by either dust leaching or copper and arsenic precipitation followed by a final effluent neutralization step and other unit operations. Since the mineralogy varies from one concentrate to the next, customized processes should be developed, even when this leads to a complex, high cost, and hard-to-control dust treatment plant that operates as an auxiliary unit to the smelter. Increasingly restrictive environmental regulations complicate design, economics and operation of these treatment units. Copper smelting flue dusts are defined as “hazardous materials” according to current Chilean environmental regulations, such as DS 148/2003 [3] and DS 185/1991 [4]. This classification of the dusts is mainly due to the high solubility of arsenic compounds in the TCLP (Toxicity Characteristic Leaching Procedure) test and the presence of bismuth and lead. Due to the progressive increase in arsenic content in concentrates and a simultaneous decrease of their copper content, this issue results in a very complex scenario for future smelting operations with respect to environmental issues as well as product quality and overall process cost [5,6]. In order to improve the process, a comprehensive physical-chemical-mineralogical characterization of the flue dusts is needed. Since most characterization requirements are mainly based on current operating practices, the present study uses different analytical techniques to characterize properly copper smelting flue dust in order to have more robust information for decision makers.

collected from the WHB of the Ashio flash smelter as well as vaporization and further condensation of volatile elements downstream. The presence of As(V) is probably due to highly oxidative conditions inside the smelting furnace and ducts for off-gases (between up-take and WHB). Evans et al. [8] investigated the mineralogical composition of the WHB dust and gas stream in the Kidd Creek Mitsubishi smelting furnace, where most of the copper deposits on WHB walls. These authors show the transformation of the dust from oxides to sulfates when passed through the WHB, while other elements, such as zinc and lead, are carried down to the ESP. Kim et al. [9] detected the presence of a wide variety of compounds in the Noranda reactor’s ESP dust, which contains mainly PbSO4, other metal sulfates, oxides and zinc ferrites, sulfides and basic copper sulfate (oxysulfates), iron oxides and silicates. Copper bearing phases were associated with iron oxides covered by a lead sulfate layer on the surface. In the case of a smelting electric furnace, Samuelsson [10] determined that the majority of species correspond to copper, lead and zinc sulfates, cuprous oxide, magnetite and copper-zinc ferrites. In the settling furnace, compounds identified by the same author included iron and zinc oxides, iron and copper sulfides and lead sulfate. It is important to emphasize that the qualitative and quantitative phase determination of dust depends not only on the compositional characteristics of the concentrate fed into smelting furnaces but also on temperature and oxidative conditions inside the furnace and equipment, which are greatly determined by the reactor type employed. 3. Experimental The samples (Dust I, Dust II) were obtained from a smelter that operates with a flash smelting furnace followed by PeirceSmith converters. Two different types of samples were analyzed: the first type comes from the waste heat boiler (WHB) and the second comes from the electrostatic precipitator (ESP). The samples were collected from two parts of the smelter: the WHB and the electrostatic precipitator. In both cases, samples of dust were taken from the discharge screw and from the storage area, using a spatula to collect 1 kg in each case. The spatulas were cleaned using alcohol wipes after each sampling to avoid contamination. The collected material was placed in petri dishes, properly labeled, sealed, and taken to the laboratory. The samples were reduced in the laboratory to 10 g. Since both units (WHB and ESP) operate under different conditions of temperature and oxygen potential, synthetic compounds are not necessarily the same and are present in different proportions. 3.1. Granulometric analysis Granulometric analyses were performed by laser ray diffraction in a Helos-Succel® equipment that operates with the following settings: Sheat diameter: 20.2 mm; wave length: 0.6328 µm; power: 5mW; deflection: 180º; measuring time: 10 s. The samples were prepared in a solid-water suspension to avoid particle agglomeration. Scanning electron microscope (SEM) imaging was carried out on a JEOL JSM 6380 LV.

2. Background Flue dust characterization is not a widely studied subject in the literature. The few studies published at present mainly focus on formation of accretions in heat recovery and gas cleaning systems at smelters. Kurosawa et al. [7] reported presence of Fe3O4, PbSO4, Cu2S, Cu2O, As2O5 and PbS in dust 12


Balladares et al/ DYNA 81 (186), pp. 11-18. August, 2014.

Under cumulative, %

3.2. Chemical analysis The chemical analysis was performed by atomic absorption spectrometry in a Hitachi® Z-8100 equipment. Depending on the particular element to be analyzed, a different kind of chemical dissolution technique was used. For Si, Al, Fe, Ca, Pb, Zn, Ni and Co determination the samples were dissolved with an HCl attack, followed by fusion of the insoluble residue with lithium tetraborate. In the case of arsenic and bismuth, these were extracted by using HNO3 at a controlled temperature; for Mo, an oxidative mixture HClO4-H2SO4 was used. Prior to sample dissolution, the presence of minor and mg/kg level trace elements was verified by an X-ray fluorescence spectroscopy scan (Rigaku 3070E WDS, Rh radiation).

100

80 Distribution density, % Under cumulative, %

60

40

20

0

3.3 X-ray diffraction analysis Under cumulative, %

Qualitative XRD was carried out on a Rigaku Dmax C Diffractometer equipped with a horizontal goniometer and operated with Mn-Kβ filtered Fe radiation. Samples were scanned (continuous scan) as received and then thoroughly rinsed with distilled water to remove the interference of chalcanthite peaks. Exploratory quantitative XRD analyses were carried out using a URD-6 diffractometer (Seifert-FPM) operated with Co radiation, and a secondary graphite monochromator at 40KV, 30 mA. For Rietveld modeling, step scans were recorded between 5 and 80º 2θ, at 0.05º steps and 5 s counting time per step. Rietveld spectral modeling was carried out using BGMN Autoquan software [11].

1

100

10

1000

Particle size, microns

100

80 Distribution density, % Under cumulative, %

60

40

20

3.4. Qemscan analysis 0

Semi-automatic quantitative energy-dispersive scanning electron microscopy (SEM–EDS) analysis were carried out on a QEMSCAN system equipped with four XFlash 275 SDD Bruker detectors at 25 kV and 5 nA. Particle Mineral Analysis mode (PMA) was used at 2.5 µm point spacing resolution to obtain mineral maps and to characterize the As- and Cu-bearing phases using the 4.2 iDiscover–M series software. Due to the material’s complexity, a population of 30,000 particles was obtained using Particle Mineralogical Analysis at a resolution of 2.5 pixels. QEMSCAN is capable of categorizing the measured particles based on different mineralogical and metallurgical parameters, including density, locking characteristics, grain and particle sizes.

1

100

10

1000

Particle size, microns

Figure 1. Size distribution curves for ESP (top) and WHB dusts (bottom). Source: The authors

4. Results and discussion

(a)

(b)

(c)

(d)

4.1. Grulometric analysis (grain size and SEM features) Granulometric analysis was performed on both WHB and ESP dust. The results are shown in Fig. 1 and reveal several interesting features. First, for ESPD, the particle size range is narrow and 100 % of the particles are smaller than 9.3 µm. Second, for WHBD, the particle size range is wider, and the maximum size was 79 µm. These results agree with the operational practice because when the gases (carrying dusts) leave the furnace they first enter the WHB where the gas-solid stream cools down from 1300-1400 ºC to 850 ºC due to air infiltration (at atmospheric temperature). Also, the

Figure 2. SEM images of ESPD (a, c) and WHBD (b, d). Source: The authors

13


Balladares et al/ DYNA 81 (186), pp. 11-18. August, 2014.

stream velocity decreases because of the flow’s cross section increases within the WHB, resulting in the collection of coarser particles in the equipment’s lower gassolid stream cools down to 300 ºC and the finest particles are separated from gaseous stream and retained due to electrostatic and gravitational effects [12]. SEM images allow visual verification of the differences in particles size mentioned earlier. Fig. 1 is clearly related to the measured grain size distribution for WHBD and ESPD, respectively. In particular, ESPD is finer than WHBD due to the loss of coarser dust in the WHB (comparison of Fig. 2 (a) and (c) with (b) and (d)). Another relevant aspect is that the particles from both WHBD and ESPD dust show a spherical or rounded shape rather than edgy or shard-like shapes. This appearance is typical of semi-molten or molten material solidified by cooling in the gas transport system, rather than particulate material reacted in solid state, which has a more angular appearance.

the arsenic appear in the system’s cooler (ESP) rather than hotter section. The same situation applies for Dusts III and IV, where the solids’ coarse fraction is recovered in the evaporative chamber (1350–850 ºC) and the fine fraction is collected in ESP (near 300 ºC). Since the gases pass through the ESP, vapors containing volatile species begin to condense around solid particles and solidified matte drops, and thus the fine material presents higher content in arsenic (bismuth, antimony, lead and others). Moreover, data in Table 1 illustrate that the chemical compositions of the dust depends on many variables, including the kind of reactor where the smelting and converting processes take place, the specific place of the gas handling system from where dusts are collected, and the chemical-mineralogical characteristics of the concentrate feed. The effect of these variables on the amount and mineralogical features of the dust generated cannot be quantitatively determined, although a qualitative discussion is possible. On the other hand, the results confirm that the dusts contain a significant amount of copper molten and important levels of volatile elements such as As. This is important because the most commonly used hydrometallurgical treatment of the dusts is very sensitive to changes in minor and trace element levels. Finally, Table 1 shows that both dusts (WHBD and ESPD) contain mainly copper, iron and sulfur. Due to air infiltration in the gas handling system, almost all of the sulfur is associated to copper and iron as sulfates (see XRD results below), resulting from the oxygen and sulfur’s partial pressure.

4.2. Chemical analysis Chemical analyses were performed considering the most important elements present in this kind of materials, namely metallic cations (base metals), sulfur, volatile elements and slagging agents (fluxes). The importance of the first is related to their potential recovery, in particular Cu. On the other hand As, Sb, Bi analyses are needed since the current metal recovery processes involve a great amount of liquid effluents that contain some of these toxic elements and/or produce a solid waste with high mg/kg or % level content of these elements. Furthermore, the content of these elements in the final effluent depends on the dust’s initial composition and their form in the feed. The results of chemical analysis (Table 1, Dusts I and II) account for the most important elements for the smelters in the form of metal for potential recovery of environmentally hazardous elements in effluent treatment and disposal. Since almost all of the arsenic is present as volatile compounds that condensate at lower temperatures, most of

Qualitative X-ray diffraction was performed on samples as received, water rinsed, heated to 150 ºC, 350 ºC and 800 ºC respectively. XRD charts “as received” of Dust I and II are dominated by CuSO4·5H2O (chalcanthite), a spinel phase, e.g., FeFe2O4 (magnetite), minor Fe2O3 and possibly delafossite CuFeO2. Due to the masking effect of chalcanthite on the XRD peaks, we worked with water-rinsed samples as a base for quantitative XRD since the formation of chalcanthite is due to dust storage in environmental humidity and not due to conditions in the WHB and ESP. Heating samples to 150 ºC

Assay, wt-%

Sample

Dust I (WHB)

Dust II (ESP)

Dust III (WHB)

Dust IV (ESP)

Reference

[2]

[2]

[13]

[13]

Smelter Cu Fe Pb Ni Zn Mo S As Sb Bi Si Al Ca

Chagres 25.51 22.74 0.067 0.005 0.197 0.092 8.26 0.82 0.057 0.013 2.92 1.43 0.49

Chagres 22.98 17.64 0.133 0.004 0.291 0.190 11.53 2.04 0.012 0.043 3.01 1.30 0.46

Kosaka 12.6 11.6 15.9 n.a. 7.9 n.a. 9.0 1.7 n.a. n.a. n.a. n.a. n.a.

Kosaka 10.2 8.9 21.6 n.a. 2.7 n.a. n.a. 9.3 n.a. n.a. n.a. n.a. n.a.

Counts (Relative intensity)

Table 1. Copper smelter flue dust assays.

4.3. XRD analysis

c: CuSO4·5H2O (chalcantite) sp: FeFe2O4 (Fe spinel)/ CuFe2O4 (Cu spinel) h: Fe2O3 (hematite) d: CuFe2O4 (delafossite) s: CuSO4 (chalcocyanite) sp t: CuO (tenorite) sp

sp s

s

t

sp d

s

t sp sp

sp

s s d sp sp d s s s h sp s s spd s s d sp s sp c d c s c s c spd c c h cc sc d sp c cc sp

20

s

40

t sp t

t

s

sp

s

sp

s 60

sp

WHB dust washed

ESP dust washed

WHB dust as received

ESP dust as received 80

100

2 theta

Figure 3. XRD spectra for ESPD and WHB dusts, both as received and washed. Source: The authors

n.a.: Data not available. Source: The authors 14


Balladares et al/ DYNA 81 (186), pp. 11-18. August, 2014.

helps clear the charts, leaving CuSO4, the spinel phase, Fe2O3 and possibly delafossite. At 350 ºC, the spinel phase dominates, probably magnetite. Due to delafossite, a peak at 28.6 nm is missing, thus not permitting the definite identification of this copper phase. An alternative copper phase would be copper spinel CuFe2O4, although with strong superposition with magnetite. Samples heated to 800 ºC show only the presence of a spinel phase and CuO, where the latter is a product of calcinations in an oxidizing atmosphere. Table 2. Rietveld spectral modeling of water washed Dust I and II. Dust I (WHB) Dust II (ESP) Phase wt-% 3σ wt-% 3σ Amorphous 7.20 3.30 10.20 3.90 CuFeO2 22.70 1.02 10.72 0.87 Hematite 10.28 0.81 0.78 0.54 Magnetite 59.79 2.22 78.50 5.50 Source: The authors

600

Fe

500

cps/eV

400

Cu

300

OCu

200

Rietveld spectral modeling (with ZnO as internal standard) was only conducted on water washed samples. Results (see Table 2) corroborate the qualitative observations; however, it is important to note that 7-10 % of the amorphous material probably contain Si and Al as oxides as well as minor elements. The amorphous phase will require further scrutiny in the future. When comparing the elemental chemical composition of both dusts (WHB and ESP) using AAS (Table 1) with the calculation derived from XRD (Table 2), some discrepancies can be observed regarding major species (Cu, Fe and S). However, these are due to the fact that the elemental analyses shown in Table 1 refer to non-washed dust, whereas for XRD spectral modeling dust has been washed to eliminate chalcanthite spectral overlap (Table 2). Assuming as a first approximation that during washing only copper sulfate is dissolved (a valid assumption because other soluble species are present in minor proportion), the content of delafossite, hematite and magnetite can be recalculated using elemental analysis and bringing the species identified by XRD (i.e., 92.8 % for Dust I and 89.8 % for Dust II) to a 100 % basis. The re-calculated content of the mentioned species are shown in Table 3. These values are obtained by adjusting the CuFeO2/CuFe2O4 and Fe3O4/Fe2O3 ratios (used as parameters), resulting in 0.45 and 0.5 for WHBD and 0.18 and 25 for ESPD, respectively. The comparison of (CuFe2O4+Fe3O4) content (from Table 3) is close to the Fe3O4 content (from Table 2), thus demonstrating the compatible results of chemical and XRD analysis.

Fe

100

Cu

0 0

2

4

6

8

10

12

14

16

18

20

keV

Figure 4. BSE image and X-ray spectrum dispersive energy (EDS) of the Cu-Fe-O phase. Source: The authors

1000

Fe

900 800 700

cps/eV

600 500 400

4.4. QEMSCAN analysis

O

300 200

Due to the presence of amorphous phases and the need to “clear” the XRD spectrum by water rinsing, QEMSCAN was tested on the coarser dust (Dust I) as an alternative for the quantitative phase characterization of the dusts since this technology of spatial resolved mineralogical semiautomated scanning electron microscopy is now more widely available.

Fe

100 0 0

2

4

6

8

10 keV

12

14

16

18

Figure 5. BSE image and X-ray spectrum dispersive energy (EDS) of the Fe-Cu phase type Cu spinel. Source: The authors 15


Balladares et al/ DYNA 81 (186), pp. 11-18. August, 2014.

The first Cu-rich group consists of different Cu-bearing phases in even proportions: a Cu-Fe-bearing phase and a Cu-Fe-O phase suggesting a delafossite type, a copper sulfide with low Fe content, and a Cu-O compound, possibly cuprite. The Fe-rich group includes mainly Fe-Cu phases resembling iron-copper spinel and Fe-O phases similar to a hematite/magnetite composition. Some chalcanthite remains from the washing of flue dust or exposure of the sample to ambient humidity; it is associated with the Cu-Fe-S-O phases. Energy dispersive spectra were acquired for some phases in order to corroborate the modal analysis and identification (Fig. 4 - 7). The As-bearing

295 Îźm

Figure 6. BSE of particle subpopulation order by size. Source: The authors

Particles with irregular and mainly rounded shapes were observed. Coarse round particles are surrounded by fine material forming aggregates bonded by a phase likely to be hydrated copper sulfate and other mixed phases. Since the presence of sulfate hydrates implied difficult sample preparation and carbon coating instability, washed samples are preferred for good quality imaging and microchemical data collection. The backscatted electron image (BSE) in Fig. 4 is a size-ranked subpopulation showing the described particle characteristics. Modal phase distribution (Table 3) shows that the main species are copper- and iron-bearing phases making up over 95% of the total population. Only 0.42 % of As phases were identified. Two main groups can be differentiated (Table 3) depending on the Cu and Fe content.

Figure 8. BSE image and X-ray spectrum dispersive energy (EDS) of an As-bearing particle mixture. Source: The authors

Si

Table 3. Re-calculated species content for non-washed dusts from elemental analysis. Species Dust I (WHB) Dust II (ESP) CuFe2O4 58.12 78.64 CuFeO2 23.62 10.56 Fe3O4 5.63 19.95 Fe2O3 11.27 0.80 Total 92.8 89.8 Source: The authors

Fe

O Cu Cu S Al

Fe

phase (Fig. 8) is unstable under the vacuum conditions used and the incidence of the electron beam causes partial sample volatilization evidenced by clear sample damage. The results obtained by QEMSCAN performed on a rigorously water washed sample to eliminate most of the chalcanthite, down to 1.00 % (Table 3), are comparable to

Cu

Figure 7. BSE image and X-ray spectrum dispersive energy (EDS) of the Fe-O phase. Source: The authors 16


Balladares et al/ DYNA 81 (186), pp. 11-18. August, 2014. Table 4. Modal phase distribution (%) of washed dust I (WHB). Phase Cu-Fe phases Cu-S-Fe phases (‘copper sulphides’) Cu-O phase Fe(Cu) spinel and hematite Cu-Fe-S-O phase (‘chalcantite’) As phases Others Source: The authors

that delafossite was only tentatively identified due to the absence of one peak. This compound was preliminarily quantified as 22.7 and 10.72 wt-%, for WHB and ESP dust, respectively. Copper smelting flue dust characterization is a very complex task, requiring systematic efforts combining different techniques to obtain more comprehensive information that can be used to analyze and design dust treatment processes to recover valuable metals and remove toxic elements.

vol-% 22.86 1.16 0.69 72.55 1.00 0.42 1.32

Acknowledgments

the calculations of the XRD spectral modeling for Dust I (Table 2) and its recalculated chemical analysis (Table 4). Since both XRD and QEMSCAN allow semiquantitative–quantitative phase analysis, their application to industrial dusts, characterized by small grain size and even smaller phase size as well as short cooling times (crystallization times of the samples under industrial conditions), will be briefly discussed based on the material analyzed. Desirable aspects for successful Rietveld modeling of XRD spectra are: good crystalline phases with available crystallographic models and an XRD spectrum without the abundant overlap caused by the presence of chalcanthite in this study. Samples need to be analyzed “as received” (bulk), requiring only milling prior to analysis. QEMSCAN record resolution depends on the pixel spacing on the microscope’s electron beam source, resolution may be limited to 2 µm. In the case of flue dusts, phases are small (<5 µm), thus limiting the possibility to register single phases without spectral interference from adjacent phases. Reference spectra by quantitative electron microprobe analysis are required for optimum calibration of the phase database. These can at best be obtained from other (coarser) synthetic phases of the same process. However, from the operating conditions, it can only be inferred that similar phases should form in the corresponding dusts. It should also be pointed out that different iron oxides cannot be distinguished. For the material analyzed, a copper sulfate hydrate (chalcanthite) acted as a “glue” between fine particles, complicating phase identification and possibly underestimating the presence of this mineral.

The authors thank financial support from DAADConicyt Grant No. 218-13-2007, PBC project PSD-25 and INNOVA Chile project 07CN13PMT-206. The authors would also like to thank Chagres Smelter and Caletones (El Teniente) Smelter for providing samples and data for the study. Bibliography [1]

Copper Bulletin and Statistical Yearbook, ICSG, 2009.

[2]

Parada, R., Technical manager of chagres smelter, Anglo American Chile. Personal communication.

[3]

Biblioteca del Congreso Nacional de Chile, Decreto Supremo DS Nº 148/2003, January 24th, 2004.

[4]

Biblioteca del Congreso Nacional de Chile, Decreto Supremo DS Nº 185/1991, April 26th, 1993.

[5]

Valenzuela, A., Arsenic management in the metallurgical industry. MSc Thesis, Mines and Metallurgy Department, Laval University, Quebec, Canada, 2000.

[6]

Informe País. Estado del Medio Ambiente en Chile 2008, Universidad de Chile, Instituto de Asuntos Públicos, Ed. Centro de Análisis de Políticas Públicas, 2010.

[7]

Kurosawa, T., Yagishi, T., Togo, K. and Kato ,T., On the several problems of dust in the copper smelting; Transactions of National Research Institute for Metals, 15 (3), 1973.

[8]

Evans, J.P., Mackey, P.J. and Scott, J.D., Impact of cooling techniques on smelter dust segregation. In: Smith T.J.A., Newman C.J. ed. Smelter process gas handling and treatment. Warrendale, PA. TMS, 1991, pp. 189-214.

[9]

Kim, J.Y., Lajoie, S. and Godbehere, P., Characterization of copper smelter dusts and its effect on metal recovery. In Rao et al. eds. Waste processing and recycling in mineral and metallurgical industries, British Columbia, Canada: CIM, 1995, pp. 221-234.

5. Conclusions Granulometric characterization was successfullly determined for both, WHB and ESP dust samples. The coarser granulometric distribution for the WHB dust respect to the ESP one agrees with that expected from current practice. The WHB and ESP dusts have similar copper content, specifically 22.98 and 25.51 wt-%, respectively. However, WHB shows higher content of arsenic than ESP, 2.04 compared with 0.82%. Copper and iron are present mainly in the form of sulfates (water soluble species), and hematite and magnetite (insoluble species). Quantitative XRD for insoluble fraction detected 10.28 and 59.79 wt-% of hematite and magnetite, respectively, in the WHB dust. In the ESP dust, the results are 0.78 and 78.50 wt-%, for the same compounds. In the case of insoluble copper compounds, results show

[10] Samuelsson, C., Controlled dust separation, theoretical and experimental study of the possibilities of controlled dust separation in copper producing processes. Doctoral Thesis Lulea University of Technology, Lulea, 1999. ISSN: 1402-1544. [11] Bergmann, J., Friedel, P. and Kleeberg, R., BGMN - a new fundamental parameters based Rietveld program for laboratory Xray sources, it's use in quantitative analysis and structure investigations. Commission of Powder Diffraction, International Union of Crystallography CPD Newslett. 20, pp.5-8, 1998. [12] Vazán, V., Sarquis, P. y Brandaleze, E., Caracterización de un mineral de cobre en Argentina para la producción de mate, Revista Dyna, 78 (167), pp. 220-228, 2011. [13] Swinbourne, D.R., Simak, E. and Yazawa, A., Accretion and dust formation in copper smelting-thermodynamic considerations. In: 17


Balladares et al/ DYNA 81 (186), pp. 11-18. August, 2014. Sulfide Smelting 2002. TMS (The Minerals, Metals and Materials Society), Seattle, Washington, USA, 2002, pp. 247-259. ISBN: 087339-525-5.

University of Concepción. She is full Associate Professor and Director of the Instituto de Geología Económica Aplicada. The fiel of specialization include Geometallurgy, Geochemistry and Atomic Spectrometry Analysis. Roberto Parra, Graduated from Universidad de Concepción as Metallurgical Engineering in 1991, he obtained a D.E.A. (1992) and a Ph.D. (1998) in Engineering and Material Science, both from Institut National Polytechnique de Grenoble (France). Full professor at the Metallurgical Department of the University of Concepción. The main interests in R&D are Physical Chemistry of High Temperature Processes with special emphasis in copper pyrometallurgy. He is adjunct professor at the Mining School of Oviedo in Spain developing academic activities in the research group of Steelmaking, Metallurgy and Materials and is associated researcher in the group Sustainability on Metallurgical and Steelmaking Processes at CENIM in Madrid (Spain).

Eduardo Balladares, received the Bs. Eng in Metallurgical Engineering in 1994, the MSc degree in Metallurgical Engineering in 2004, and the PhD degree in Metallurgical Engineering in 2008, all of them from the Universidad de Concepción, Chile. From 1995 to 1996, he worked as project engineer and from 1997 to 2001, he work at SQM Salar as Plant Chief. From 2002 to 2008, he worked as project engineer. He is currently Assistant professor in the Universidad de Concepción. Ursula Kelm received her undergraduate degree (Diplom) in geology from Tübingen University, Germany in 1984, followed by a PhD from Bristol University, Great Britain in 1988. Since 1990, she is geologist at the Institute of Applied Economic Geology (GEA), University of Concepción, Chile. Her main areas of interest are gangue mineralogy, in particular clays, as well as the characterization of ultrafine mineral processing materials.

Eugenia Araneda, received his degree in Metallurgical Engineering in 1998 and is candidate for the Ph.D. in Metallurgical Engineering at the University of Concepción, Chile. Since 2001 she works as Senior Researcher in the Department of Metallurgical Engineering, University of Concepción, participating in R+D projects in mining with emphasis in electrochemistry and advanced characterization of materials.

Sonia Helle, received the degree of Bach. in Chemistry in 1975, from the University of Concepción, Chile. From 1973 to now, she works at the

18


Revalidation of Elder´s equation for accurate measurements of dispersion coefficients in natural flows Alfredo José Constain-Aragón a a

FLUVIA/HYDROCLORO TECH, SAS, Bogotá, Colombia. alfredoconstain@fluvia.com

Received: February 5th, 2013. Received in revised form: June 16th, 2014. Accepted: June 25th, 2014.

Abstract One of first practical definitions for numerical solutions of classical model of Advection-Dispersion was the Elder´s equation developed in 1959. This relationship based on the theoretical guidance proposed by G.I. Taylor for long, straight pipes, extent successfully the method for the case of ideal prismatic, wide channels in open flow. However, wishing to apply it to real cases with varied geometry the results were not satisfactory due to several reasons which will be examined in this article. This limiting situation for the equation is inconvenient for two reasons: First, whatsoever it is a very used equation due to its simplicity and to the fact that involve geomorphologic parameters, without requiring tracers. Secondly but not the less important, because it is based on fundamental mechanisms that are widely accepted, and then they should not lead to results in conflict with experiments. For these reasons, and also because the study of water quality depends critically on the understanding of these processes, it is interesting to review this subject. It will be tried to show if it is used a longitudinal coefficient function of time it is possible to recover the applicability of equation. For this it is used an extended work of PhD thesis done by H.B. Fischer in the Mc Keck channel of Caltech on behavior of Elder´s relationship. Keywords: Dispersion, Gaussian dynamics, water quality studies

Revalidación de la ecuación de Elder para la medición precisa de coeficientes de dispersión en flujos naturales Resumen Una de las primeras definiciones prácticas para la solución numérica del modelo clásico de Dispersión-Advección fue la ecuación de Elder desarrollada en 1959. Esta relación basada en las guías teóricas propuestas por G.I. Taylor para tubos largos, rectos, extendió exitosamente el método para el caso de canales ideales prismáticos anchos en flujo abierto. Sin embargo al quererse aplicar a casos reales con geometría variada los resultados no fueron satisfactorios por diversas razones que serán analizadas en este artículo. Esta situación limitante para la ecuación es inconveniente por dos razones: Primera, pese a todo es una ecuación muy utilizada hoy en día debido a su sencillez y al hecho de involucrar parámetros de la geomorfología del flujo, sin requerir el uso de trazadores. En segundo lugar, y no menos importante por cuanto está basada en mecanismos fundamentales de los fluidos que se han aceptado como correctos y que por lo tanto no deberían conducir a resultados en conflicto con el experimento. Por estas razones, y además por cuanto el estudio de la calidad del agua depende actualmente en forma crítica del entendimiento de estos procesos, es interesante revisar este tema. Se tratara de mostrar que si se plantea un coeficiente longitudinal función del tiempo se puede recuperar la aplicabilidad de la ecuación. Para esto se aprovecha un extenso trabajo de tesis doctoral realizado por H.B. Fischer en el canal Mc Keck del Caltech sobre el comportamiento de la relación de Elder. Palabras clave: Dispersión, dinámica Gaussiana, estudios de calidad de agua.

1. Introducción Siendo un tema de fundamental importancia para el bienestar de las sociedades actuales, el desarrollo de las ciencias del agua es relativamente reciente. El primer estudio importante sobre el transporte dispersivo en los

flujos naturales fue realizado por G.I. Taylor en 1954 [1] quien postulo que el principal mecanismo para el esparcimiento aleatorio de solutos en dichos flujos era el efecto cortante generado por las distribuciones de velocidad. Afirmó también que este efecto, bajo ciertas circunstancias, puede representarse mediante una ecuación de Fick mono

© The author; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 19-27. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Constain-Aragón / DYNA 81 (186), pp. 19-27. August, 2014.

dimensional. Taylor aplico sus hipótesis a tubos rectos y largos encontrando una definición apropiada para estos casos. Luego, aplicando estos mismos razonamientos J.W. Elder en 1959 obtuvo una definición del coeficiente de transporte para un canal abierto infinitamente ancho. El intento de aplicar posteriormente estas fórmulas a flujos naturales, abiertos e irregulares llevo a una gran dispersión de los valores de estos coeficientes, pensándose que el concepto Fickiano estaba en un error [2] y que los desarrollos de Taylor y Elder deberían circunscribirse a variadas restricciones. El desarrollo de este tema comprende:

u = U + u'

Ec. (1)

c = C + c'

Ec. (2)

Las distribuciones espaciales de velocidad y concentración son c y u, mientras que las desviaciones espaciales son c´ y u´. Los valores medios espaciales son entonces C y U. En este caso el balance se puede poner como sigue (manteniendo solo la difusión turbulenta, εx)

∂C ∂C ∂ 2 C ∂ (u´c´) +U ≈ εx 2 − ∂t ∂x ∂x ∂x

1.1. Objetivo

Ec. (3)

En este punto el esparcimiento aleatorio longitudinal de las partículas de soluto se va a deber primordialmente al efecto cortante de la distribución de velocidades, siendo mucho mayor que el efecto de la difusión turbulenta [4]. Si además se tiene en cuenta la aproximación Fickiana dada por Taylor sobre este tipo de transporte, con E como el Coeficiente de dispersión cortante efectiva:

Se plantea mostrar que la Ecuación de Elder apropiadamente interpretada es correcta en sus aplicaciones en los cauces naturales. 1.2. Método general Se desarrolla un nuevo enfoque teórico del coeficiente de dispersión como función de tiempo que recobra una adecuada operación de las ecuaciones de transporte en flujos naturales. Se aplica luego a la ecuación de Elder y se resuelve en un caso clásico de la literatura técnica desarrollado por H.B. Fischer. Para concretar este procedimiento se revisan los antecedentes y fundamentos de dicha ecuación y en seguida los argumentos que se usaron para limitar drásticamente (e injustamente) los alcances de Elder, mostrando como ellos a su vez estaban afectados por diversos errores; imposibilitando así su validez como “referencia” válida para descalificarla.

u´c´ ≈ − E

∂C ∂x

Ec.(4)

La ecuación de balance final se puede aproximar como:

∂C ∂C ∂ 2C +U ≈E 2 ∂t ∂x ∂x

Ec. (5)

Para deducir un valor específico para el coeficiente de transporte E, Elder se basó en una triple integración sobre el plano móvil, empleada por Taylor previamente [1-5]:

1.3. Resultados generales La aplicación del método en el caso particular resulta exitosa al concordar bastante bien los datos experimentales con el modelo teórico.

1

0

0

E ≈ −d 2 ∫ u´dz´∫

1.4. Conclusiones generales La técnica desarrollada en este artículo puede aplicarse con gran ventaja en los cauces naturales, permitiendo obtener valores objetivos de la pendiente y la rugosidad.

dz´

εz

z

∫ ú ( z´) dz´ 0

Ec. (6)

Aquí d es la profundidad media del flujo, εz el coeficiente de transporte vertical y z´= z/d. Se considera que el efecto dispersivo longitudinal se puede describir apropiadamente en función de lo que ocurra con la desviación de velocidad u´ y un desarrollo para c´ (que desaparece) proporcional al gradiente de C, ya que la operación en Ec. (6) es correspondiente en realidad a la integración espacial de desviaciones implícita en Ec. (4). Las condiciones impuestas por Taylor para llegar a Ec. (6) Son: A).-Que se cumpla “mezcla completa” en la sección transversal medida por c´<<C. B).- Que el transporte longitudinal debido a la turbulencia sea despreciable. C).- Que los cambios de la concentración promedio C en la sección transversal no sean muy rápidos tal que se pueda establecer a c´ como proporcional al gradiente de C (estado estable). Elder para llegar a un valor concreto de Ec. (6) propone involucrar la analogía de Reynolds con τ el esfuerzo

2. Fundamentos de la ecuación de Elder La mayoría de los análisis matemáticos de los flujos turbulentos, el transporte de solutos se describe por una ecuación diferencial de balance de masa promediada en el tiempo. Cuando la difusión vertical y transversal ha ocurrido y el trazador llena uniformemente la sección transversal es más practico plantear el balance como promediado en el espacio y puesto en términos de valores medios, distribuciones y desviaciones, tanto para la velocidad advectiva como para la concentración, medidos sobre el plano móvil asociado a dicha sección transversal [3]. 20


Constain-Aragón / DYNA 81 (186), pp. 19-27. August, 2014.

cortante y ρ la densidad del agua Ec. (7) para definir εz; para definir la distribución de velocidades usa la formula (8) de perfil vertical que involucra la constante de Von Kármán, κ y la velocidad cortante U* con g aceleración de la gravedad y S la pendiente de fricción del flujo. Ec. (9):

τ =εzρ u´=

U*

κ

∂u ∂z

(1 + Ln

4. Análisis de las aparentes imprecisiones de la fórmula de Elder Teniendo una fundamentación fijada fuertemente en postulados ampliamente aceptados, a menudo se postula que el motivo fundamental para la falta de precisión de la ecuación de Elder es que las variaciones laterales de velocidad son más significativas que las variaciones verticales. Como se verá, esta objeción es discutible puesto que cada tipo de perfil de velocidad relaciona de manera diferente un mismo tipo de fenómeno. Para explicar esto se pondrá un ejemplo de la termodinámica [7]: Sea un sistema en el que la variación de energía interna, Ui se deba al ingreso de calor desde el exterior debido a una diferencia de temperatura, ΔT y a una variación de la energía superficial por variación de la superficie del sistema, ΔA. Usualmente y dependiendo del tipo de proceso, de la estructura física del sistema y de otros factores, un sumando es predominante sobre el otro.

Ec. (7)

z ) d

Ec. (8)

U * = gdS

Ec. (9)

Estas consideraciones llevan a definir el Coeficiente de dispersión longitudinal según Elder como:

E≈

0.404

κ

3

∆U i = C p ∆T + γ ∆A

´U * d ≈ 5.90 U * d

Ec. (10)

Esto ocurre así por cuanto estas variables son independientes. En el caso de los efectos dispersivos transversales y verticales son en última instancia funciones de la turbulencia, la cual se considera homogénea e isótropa en este tipo de flujos. Por lo tanto, esas dispersiones aunque aparentemente sin conexión, son dependientes y su expresión matemática es en esencia diferente a lo expresado en la Ec. (13). En ese mismo tenor se podría decir que las variaciones laterales de velocidad reflejan una misma realidad que las variaciones verticales. Otra cosa es que se pueda decir que una variación es mayor (más sensible) que la otra [8]. Cualquiera que fuesen las razones para la imprecisión de la fórmula de Elder, la necesidad de disponer de valores concretos del coeficiente de transporte llevó a muchos investigadores a proponer diferentes métodos, la mayoría basados en datos de experimentación con trazadores. Muy populares en las décadas de 1970 y 1980 fueron las definiciones basadas en la estadística (“variación de momentos”) y su ajuste mediante la correlación por Routing [2]. El método de los momentos exige el cálculo de las varianzas para dos curvas secuenciales en función del espacio. Como los datos de concentración son normalmente dados en función del tiempo se debe multiplicar por la velocidad media al cuadrado.

Las condiciones para la validez de esta ecuación práctica son las mismas que se aplicaron para la deducción de los pasos intermedios en el procedimiento de Taylor, Ec. (1) a Ec. (7). 3. Problemas posteriores para la ecuación de dispersión de Elder Aunque las pruebas iniciales realizadas por Elder correspondieron con precisión con su ecuación:

5.90 ≈

E U *d

Ec. (11)

Posteriores experimentos especialmente en cauces naturales con gran variación de la geomorfología indicaron una gran dispersión con respecto al resultado esperado, del orden de:

E < 700 U *d

Ec. (13)

Ec.(12)

Las modelaciones teóricas de las curvas experimentales con base en los coeficientes longitudinales de dispersión derivados de la aplicación de Elder (y de otros investigadores) fueron mostrando errores evidentes especialmente en replicar la asimetría y la “altura” correctas de las curvas [6]. Entre las razones aparentes para explicar la falta de precisión de la fórmula de Elder aplicada a las corrientes naturales se anotan principalmente: La variación del perfil ideal de velocidad vertical y la predominancia de las variaciones laterales de velocidad.

σ 2 − σ t21 1 E = U 2 t2 2 t 2 − t1

Ec. (14)

Ahora, cualquiera que sea el valor de E obtenido por la Ec.(14) o por cualquier otro método, lo usual era verificar el resultado por un procedimiento de integración basado en la difusión. Así, si en un tiempo inicial t=0 una distribución inicial de trazador co(ξ) es observada, entonces por 21


Constain-Aragón / DYNA 81 (186), pp. 19-27. August, 2014.

superposición de soluciones elementales se puede obtener la distribución c(ξ,t) correspondiente a un tiempo posterior. Este resultado se compara en el punto de interés con la distribución experimental real. Si el resultado es satisfactorio se deja el valor de E utilizado, sino se va variando en pasos hasta que se obtenga una convergencia satisfactoria.

c(ξ , t ) =

+∞

∫c

o

(ξ ´)

e

−∞

− ( ξ − ξ ´) 2 4 Et

4πEt

dξ ´

Debe notarse aquí que el tiempo característico Gaussiano τ es diferente a la variable independiente t, ya que la primera se refiere al tiempo en el cual la separación aleatoria de las partículas ocurre mientras esta distancia promedio es Δ mientras que la escala temporal general se asocia más bien al efecto advectivo de U. La relación entre ambos tiempos se puede establecer si se piensa que el tiempo general se gasta en observar la aparición probabilística de 0, 1, 2…n partículas de trazador que se mueven en su propio marco temporal característico, y teniendo en cuenta que es una dinámica del tipo Svedberg [11].

Ec. (15)

El cálculo de los momentos tiene el problema de que la asimetría de las curvas reales es mayor que la prevista por la teoría difusiva normal, como se explicara posteriormente. El problema con la verificación por Routing es que plantea cálculos muy engorrosos que pueden ser reiterativos en el peor de los casos, sin tenerse una solución completamente satisfactoria. Por otra parte aunque el autor del método Routing (H. B. Fischer) clama que este ofrece el “mejor coeficiente de dispersión posible” otros autores [9] advierten que si la curva experimental a ser analizada es muy asimétrica el ajuste puede estar en gran error.

β= 5.2.

A partir del concepto Browniano del movimiento totalmente aleatorio de las partículas de soluto conservativo en un flujo, se puede establecer una relación monodimensional cuadrática entre el tiempo y el desplazamiento característico, Δ y τ [10]:

τ

Ec. (16)

E=

2

M A 4π E t

e

( X −U t ) 2 4E t

Ec. (20)

Ec. (21)

En este sistema inercial particular el observador deberá eliminar la velocidad U pues la pluma no se desplazará con respecto a él, y además esta curva aparecerá simétrica pues el no compondrá U consiguientemente con otras que aparezcan en su descripción (por ejemplo las dos velocidades simétricas de dispersión de la pluma). Fig. 1. La eliminación de esta velocidad puede ser trabajada en la ecuación diferencial básica de conservación Ec. (5) así:

Ec. (17)

Despejando a E:

φ2 U 2 τ

La descripción de la pluma de soluto vista por diferentes observadores

x´= x − U t

Por lo tanto se puede establecer una ecuación para la velocidad media advectiva:

φ

Ec. (19)

Sin embargo, su implicación física profunda no fue advertida completamente por Taylor en su análisis de la evolución de la pluma en un flujo. En efecto lo que realmente quiere decir esta transformación es que pueden existir diversos observadores inerciales y que ellos tendrán diferentes pinturas del suceso, dependiendo de la composición de velocidades que ellos hagan. Por ejemplo, un observador moviéndose exactamente con U sobre el centro de masa de la pluma describirá su desplazamiento con la ecuación simple:

5.1. Velocidad media del flujo en función de los datos del transporte dispersivo

1 2E

= e −1.54 ≈ 0.215

C ( x, t ) =

No obstante las diversas objeciones a la fórmula de Elder Se tratará de mostrar como el concepto de coeficiente de transporte función del tiempo puede devolver la validez de la ecuación de Elder, tal como se desarrolla a continuación:

U=

t

Aunque la transformación de Galileo para pasar de un sistema inercial a otro se incluye en el argumento exponencial de la ecuación clásica de Fick, con M la masa de soluto y A la sección transversal del flujo:

5. El coeficiente de transporte longitudinal como función del tiempo

∆ = 2 Eτ

τ

∂C ∂C ∂ ∂C +U ≈ (E ) ∂t ∂x´ ∂x´ ∂x´

Ec. (18)

22

Ec. (22)


Constain-AragĂłn / DYNA 81 (186), pp. 19-27. August, 2014.

Esta es una ecuaciĂłn de Fick modificada que tiene en cuenta la dependencia de la velocidad de dispersiĂłn con la velocidad media advectiva, tal como se ha explicado anteriormente. La particularidad de esta ecuaciĂłn es que reproduce bastante bien las curvas experimentales de trazador como se mostrara mĂĄs adelante. 6. AplicaciĂłn del concepto de coeficiente de transporte funciĂłn del tiempo a un experimento real Para verificar el nuevo enfoque propuesto fue escogido un experimento detallado en el que se cumplen las condiciones de mezcla y flujo uniforme aproximado. Este experimento fue realizado por H.B. Fischer en el canal calibrado de 40 metros con pendiente ajustable y recirculaciĂłn, del W.M Keck Laboratory de Caltech en 1966[1]. El objetivo original del experimento fue analizar la validez de las hipĂłtesis de Taylor y Elder con respecto a la dispersiĂłn por efecto cortante. Este es un canal rectangular de paredes de plĂĄstico y lecho de acero inoxidable. Tiene un recorrido uniforme desde 0.0 m hasta los 38.6 m. Para el experimento en cuestiĂłn se utilizĂł una pendiente de 0.0002 ajustada mediante los aparejos mecĂĄnicos de precisiĂłn del laboratorio. Fig. 2. Fischer aplico la fĂłrmula de momentos Ec. (13) para determinar E. AsĂ­ mismo verifico el resultado mediante un procedimiento Routing. Las condiciones anteriores permiten calcular un valor de este coeficiente por la fĂłrmula de Elder y entonces compararla con el dato obtenido por Fischer.

Figura 1. ComposiciĂłn de velocidades en una pluma de trazador. Fuente: ElaboraciĂłn propia

∂ 2C ∂C ∂C ∂E ∂C +U ≈ +E ∂t ∂x´ ∂x´ ∂x´ ∂x

Ec. (23)

Por lo tanto, para que el tĂŠrmino advectivo desaparezca se tiene que:

U

∂C ∂E ∂C = ∂x´ ∂x´ ∂x´

Ec. (24)

6.1. Consideraciones particulares del experimento El experimento denominado por su autor como “Seriesâ€? 2700 consistiĂł en ocho vertimientos con sal comĂşn. Cuatro (2700 a 2704) hechos a X1= 14.06 m y otros cuatro (2705-2708) hechos a X2= 25.06 m. Para todos los vertimientos-salvo la distancia-las demĂĄs condiciones del experimento fueron mantenidas iguales. Para pasar de una “serieâ€? a otra (de X1 a X2) se moviĂł el dispositivo inyector de trazador, en lugar de mover las sondas para no modificar la calibraciĂłn. En realidad para cada distancia se promediaron los cuatro vertimientos, asĂ­ que el dato dado para cada serie es un promedio. Para este experimento se obtuvo una profundidad de la lĂĄmina de agua de h= 0.128 m y una velocidad media del flujo de U=0.362 m/s. La profundidad de cada experimento se controlĂł con un indicador especial colocado sobre la lĂĄmina de agua mientras que la velocidad del flujo fue medida con un tubo Pitot tipo Prandlt.

Esto implica que:

E = âˆŤ U dx´+Cte

Ec. (25)

Y si se tiene flujo no uniforme (como ocurre en la pråctica) entonces U serå función de la distancia x´ y por lo tanto del tiempo. Así mismo E serå función del tiempo. Entonces, la condición para que el observador móvil sobre la pluma de soluto describa correctamente su visión de este movimiento, es que el coeficiente de transporte sea función del tiempo. Por esta razón quienes aplicaron la ecuación de Fick con E=constante no obtuvieron resultados concordantes con el experimento pues la transformación de Galileo fue solo aplicada parcialmente. 5.3. Una ecuación modificada de Fick para el transporte dispersivo

6.2. MĂŠtodo de inyecciĂłn del trazador

Ahora reemplazando la Ec. (18) en la Ec. (20) se tiene con: ďż˝2đ?œ‹đ?œ‹đ?œ‹đ?œ‹ ≈ 1.16

La sustancia trazadora iĂłnica sal comĂşn se inyecto al canal sĂşbitamente mediante un aparejo especial que permitiĂł una dispersiĂłn completa sobre toda la secciĂłn transversal del flujo.

( X −U t ) 2

C ( x, t ) =

x − M 2 2 2 e 2β φ U x t Q φ t 1.16

Ec. (26)

23


Constain-Aragón / DYNA 81 (186), pp. 19-27. August, 2014.

El experimento de Fischer básicamente estaba orientado a lograr de manera rápida una condición de “Mezcla completa” en el flujo del trazador y obtener una condición de flujo uniforme aproximado. Por lo tanto para el experimento 2700 esta canaleta de la Fig. 2 ocupaba todo el ancho del canal. De esta forma el trazador inyectado alcanzaba mezcla ideal en toda la sección transversal del flujo de manera casi instantánea. La masa de trazador para cada vertimiento fue la misma ya que la canaleta se llenaba en las dos oportunidades con la misma cantidad de solución conductora. 6.4. Datos del Experimento Los Datos hidráulicos y mecánicos básicos del canal en la “corrida” 2700 se muestran en la Tabla 1. Figura 2. Vista parcial del canal de 40 metros Fuente: Pagina web de Caltech.

6.5. Curvas de trazador en los dos sitios de medición De acuerdo con lo requerido por la ecuación de momentos para el cálculo de E, era necesario tener dos curvas secuenciales con un solo vertimiento. Las gráficas de las dos mediciones se muestran en la Fig. 3. Hay que anotar que H.B. Fischer no documentó la información de la concentración (conductividad) real y solo utilizó datos relativos. Para poder comparar las diferentes modelaciones que se estudian es necesario tener un valor concreto de masa (que valdrá para todas ellas por igual), por lo que se asume una inyección súbita de sal de M=40,5 gramos, ajustando los datos experimentales correspondientemente a concentraciones absolutas. A partir de estos datos discretos se pueden calcular las varianzas de cada una de las curvas y a partir de ellas por medio de la Ec. (14) calcular el coeficiente de transporte.

Tabla 1 Información básica del canal Parámetro

Especificación

Condiciones del canal

L(max)= 40 m W= 1.09 m h=0.128 m R=0.104 m A= 0.140 m2 S= 0.0002 Ux=0.362 m/s Q= 50.8 l/s U*=0.0159 m/s Sal común (NaCl) Masa (convencional)= 40.5 gramos t1=38.5 s t2=68.8 s Seis (6) para asegurar una medición precisa en la sección transversal Sensibilidad de los sensores: 0.5 mgr/l Tubos de Pitot estáticos 1/8 pulgada Súbito en toda la sección a 14.08 m primero y a 24.8 m después

Trazador

Medidores Conductividad

de

Medidores de velocidad Método de vertimiento:

7. Análisis y comparaciones de los resultados del experimento utilizando diversos enfoques 7.1. Comparación entre el valor del Coeficiente de dispersión calculado por variación de momentos y la formula de Elder

Fuente: Elaboración propia

6.3. Método especifico utilizado en el experimento

El valor de referencia (verificado por un procedimiento de Routing) es de:

σ 2 − σ 12 1 E = U2 2 = 0.0240 m 2 / s 2 t 2 − t1 El método Routing de ajuste ofrece un valor bastante parecido al de momentos, E= 0.0236 m2/s. El resultado de la modelación óptima aparece con línea punteada. Fig. 4, tomada del documento original en Ingles de H.B. Fischer [1]. En amarillo se resalta el valor para el Coeficiente Longitudinal de dispersión hallado por este procedimiento. La aplicación de la fórmula de Elder es como sigue:

E = 5.93 d U * = 0.0121m 2 / s El error porcentual entre los dos valores es de 95% siendo bastante menor el valor de la fórmula de Elder, en

Figura 3. Datos experimentales ajustados para los dos sitios de medición. Fuente: Elaboración propia 24


Constain-Aragón / DYNA 81 (186), pp. 19-27. August, 2014.

Tabla 2. Datos para aplicar el procedimiento de E(t). Distancia

U (m/s)

Q (l/s)

Φ

T (s)

X1=14.06 m

0.372

53.0

0.137

37.8

X2=25.06 m

0.372

53.0

0.130

67.4

Fuente: Elaboración propia

Figura 4. Aplicación del ajuste por Routing (línea punteada) Fuente: Fischer H.B. [1]

Figura 6. Modelación de las curvas experimentales usando la Ec. (23). Fuente: Elaboración propia

7.3. Modelaciones de las curvas experimentales usando el coeficiente de dispersión función del tiempo Los datos de las curvas de trazador que son necesarias para la aplicación del nuevo enfoque plasmado en la ecuación modificada de Fick, Ec. (26) se muestran en la Tabla 2 y Fig. 6. Estos datos se obtienen aplicando el modelo de Fick modificado de la Ec. (20) que sintetiza la metodología del coeficiente de transporte función del tiempo. [14] [15]. En este nuevo procedimiento se corrige el desfasaje entre curvas teóricas y experimentales que resulta de aplicar la metodología corriente con el dato de Elder a partir de su verificación de Routing. Nótese como en la Fig. 5 falla la congruencia obligatoria que debe haber entre un valor hallado por este Routing y el modelo clásico de Fick, que es la base misma del procedimiento de correlación de Fischer. Por el contrario, la congruencia entre teoría y experimento con E(t) es evidente en la Fig. 6. Es evidente en este caso la correspondencia entre los datos teóricos y experimentales para las curvas del experimento analizado.

Figura 5. Curvas teóricas usando la ecuación de Fick y el valor de E de Fischer. Fuente: Elaboración propia

concordancia con otros muchos resultados previos en los que esta fórmula minimizaría la dispersión real al no basarse sobre distribuciones laterales de velocidad. [13] 7.2. Modelaciones de las curvas experimentales usando el valor de E de Fischer y la formula de Fick Modelaciones en la ecuación básica de Fick, Ec. (20) utilizando Excel con el valor de E obtenido por Fischer dan curvas teóricas muy alejadas de sus correspondientes valores experimentales. . 5. X1=14.06 m Con E=0.0236 m2/s, A= 0.140 m2 y U=0.362 m/s.

7.4.

X2= 25.06 m Con E=0.0236 m2/s, A= 0.140 m2 y U=0.362 m/s.

Es interesante comparar los valores del coeficiente de transporte función del tiempo con el valor dado por la 25

Comparación de los valores de E(t) con el valor calculado con la formula de Elder


Constain-Aragón / DYNA 81 (186), pp. 19-27. August, 2014.

con gran ventaja en aquellos casos en los que esta ecuación aporta innegables facilidades, como por ejemplo involucrar la pendiente en los cálculos analíticos.[16] 5.- Diversas aplicaciones del método a variados cauces indican en principio una buena confidencia del método. [17]

ecuación de Elder. X1=14.06 m: E1 (t ) =

φ (t ) 2 U 2 β t (0.137) 2 × (0.372) 2 × 0.215 × 37.8 = 2 2

E1 (t ) ≈ 0.0106 m 2 / s

Referencias

X2=25.06 m: φ (t ) 2 U 2 β t (0.130) 2 × (0.372) 2 × 0.215 × 67.4 E2 (t ) = = 2 2 E2 (t ) ≈ 0.0169 m 2 / s

Esto da un valor promedio para E(t)= 0.0138 m2/s, lo que implica un error porcentual del 14% con el resultado de Elder. 7.5. Discusión de los resultados de la aplicación del nuevo método en el experimento clásico de Fischer Las diferencias entre las curvas teóricas (y su congruencia con los datos experimentales), mostradas en las Figs. 8 y 9 muestran que el método de coeficiente de transporte función del tiempo da resultados mucho mejores que los obtenidos con las teorías convencionales. Pero además de eso, en el desarrollo de los cálculos para el experimento del canal Caltech se obtuvo analíticamente la pendiente utilizada en dicho canal, lo que constituye una gran ventaja en los estudios de calidad de aguas en los que valores congruentes de pendiente son un requisito para el éxito de las modelaciones.

[1]

Fischer, H.B., Longitudinal dispersion in Laboratory and Natural Streams. Report No. KH-R-12, California Institute of Technology, 1966.

[2]

Fischer, H.B., The mechanisms of dispersion in natural streams, Journal of the Hydraulics Division, Proceedings of the ASCE. Nov, pp. 187-215, 1967.

[3]

Holley, E.R., Unified view of diffusion and dispersion, Journal of the Hydraulics Division. Proceedings of ASCE, March, pp. 621-631, 1969.

[4]

French, R.H., Open channel hydraulics, Chapter 10, New York, Mc Graw-Hill, 1987, pp. 462-507.

[5]

Prych, E.A., Effects of density difference on lateral mixing in openchannel flows. Report No. KH-R-21. California Institute of Technology, 1970.

[6]

Jobson, H.E., Prediction of travel time and longitudinal dispersion in rivers and streams, USGS report in internet, 1996.

[7]

Kikoin, I. y Kikoin, A., Física molecular. Editorial Mir, Moscú, 1971.

[8]

Lopatkin A.A. y Spiridonov V.P. Tratamiento matemático de datos fisicoquímicos, Moscú, Editorial Mir, 1973.

[9]

Mc Quivey, R.S. and Keefer, T.N., Simple method for predicting dispersion in streams, Journal of the Environmental Engineering Division, August, pp. 996-1011, 1974.

8. Conclusiones específicas 1.- La ecuación de Elder desarrollada para dar valores concretos del coeficiente longitudinal de dispersión, E en función solo de parámetros de la geomorfología del cauce es analizada en este artículo para un experimento en el canal Caltech en 1966, siendo compatible con los datos experimentales si se utiliza un coeficiente E función del tiempo. 2.- El procedimiento utilizado por Fischer para caracterizar la dispersión cortante en este canal usa definiciones y ajustes vigentes en la época. Sin embargo sus resultados están muy alejados (por exceso) de los de Elder. Se explica en este artículo las razones por las cuales este punto de vista de Fischer y otros puede estar equivocado. 3.- De acuerdo con los resultados anteriormente mencionados, la ecuación de Elder da valores de E concordantes con la realidad, dentro del rango esperado de error experimental. Esta es una situación interesante pues la fundamentación teórica de esta ecuación ha sido reconocida como correcta a lo largo de los años y su aparente falla no dejaba de ser un gran interrogante a los especialistas del tema. 4.- Como quiera que la parte geomorfológica es sumamente importante en los estudios de calidad de aguas [16] ,este método puede entonces ser aplicado

[10] Constain, A.J. y Lemos, R., Una ecuación de velocidad media del flujo en régimen no uniforme, su relación con el fenómeno de dispersión como función del tiempo y su aplicación a los estudios de calidad de agua. Revista Ingeniería Civil CEDEX, 164, pp. 114-135, 2011. [11] Constain, A.J., Svedberg´s number playing a main role in diffusion processes, Presented to Tracer 6, Norway. 2011. [12] Prigogine, I. and Kondepudi, D., Modern Thermodynamics. New York, Wiley, 1999. [13] Seo, I.W. and Baek, K.O., Estimation of longitudinal dispersion coefficient for streams, River Flow, Belgium, 2002. [14] Constain, A. J., Definición y análisis de una función de evolución de solutos dispersivos en flujos naturales, Revista DYNA, 79 (175), pp. 173-181, 2012. [15] Constain, A. J., Verificación del transporte de trazadores radioactivos usando un coeficiente función del tiempo en cauces naturales, Revista DYNA, 79 (175), pp. 150-157, 2012.

26


Constain-Aragón / DYNA 81 (186), pp. 19-27. August, 2014. A.J. Constaín-Aragón received the Bs. Eng in electronic Engineering by Universidad del Cauca in 1977. He was certified in Telecommunications by the same university. He was professor in Universidad de la Salle, Universidad Javeriana, Universidad Autónoma de Occidente, Universidad del Valle and Universidad del Cauca. In 1993 he was awarded with the Brigard & Castro prize and in 2005with the INNOVA prize. He is currently R&D manager in FLUVIA TECH from Bogota, developing tracer techniques.

[16] Montelongo, R., Gordillo, A.J., Otazo, E.M., Villagómez, J.R., Acebedo, O.A. y Prieto, F., Modelación de la calidad del agua del Rio Tula, Estado de Hidalgo, México, Revista DYNA, 75 (154), pp. 5-18, 2008. [17] Hydrocloro Tech SAS., Informe Rio Meta, Documento interno de la empresa, Bogotá, 2014.

27


Simplified calculation of vibrations in shell and tube heat exchangers with liquids Maida Bárbara Reyes-Rodríguez a, Jorge Laureano Moya-Rodríguez b, & Rafael Goytisolo-Espinosa c a

Facultad de Ingeniería Mecánica. Universidad Central “Marta Abreu” de Las Villas, Cuba. maidab@uclv.edu.cu Facultad de Ingeniería Mecánica. Universidad Central “Marta Abreu” de Las Villas, Cuba. jorgemr@uclv.edu.cu c Centro de Estudios para la Oleo hidráulica y la Neumática. Universidad “Carlos Rafael Rodríguez” de Cienfuegos, Cuba. ragoyti@ucf.edu.cu b

Received: March 18th, 2013. Received in revised form: June 16th, 2014. Accepted: July 3th, 2014.

Abstract A very serious problem to consider in the mechanical design of Shell and Tube Heat Exchangers is the vibrations induced in the tubes by the fluid pass. The vibration of the tubes of the Shell and Tube Heat Exchangers is a factor that limits the operation of these equipments in important way. The dynamic processes of the nonstationary fluids that happen during the flow produce vibrations. These are turbulent pulsations of the pressure (turbulent flow), initiation of the vortex and separation of the tubes during the crossing of the currents, hydro elastic interaction of the assemblies of the transmitting elements of the heat (tubes) with the flow, and acoustic phenomena. In the present work the procedure for the calculation of the vibrations in Shell and Tube Heat Exchangers is described. Key words: Heat exchangers, vibrations, resonance, frequency.

Cálculo simplificado de vibraciones en los intercambiadores de calor de tubo y coraza con fluidos líquidos Resumen Un problema muy serio a tener en cuenta en el diseño mecánico de los intercambiadores de calor de tubo y coraza son las vibraciones inducidas en los tubos por el paso del fluido. La vibración de los tubos de los intercambiadores de calor de tubo y coraza es un factor que limita de manera importante la operación de estos equipos. Los procesos dinámicos de los fluidos no estacionarios que ocurren durante el flujo producen vibraciones. Éstas son pulsaciones turbulentas de la presión (flujo turbulento), iniciación del vórtice y separación de los tubos durante el cruce de las corrientes, interacción hidro elástica de los montajes de los elementos transmisores del calor (tubos) con el flujo, y fenómenos acústicos. En el presente trabajo se describe el procedimiento a seguir para el cálculo de las vibraciones en los intercambiadores de calor de tubo y coraza. Palabras Claves: Intercambiadores de calor, vibraciones, resonancia, frecuencia.

1. Introducción La vibración en los intercambiadores de calor de tubo y coraza es causada por fuerzas desbalanceadas repetidas aplicadas al tubo. Hay un gran número de tales fuerzas, pero la más común en el caso de los intercambiadores de calor de tubo y coraza es la fuerza de remolino que se produce en el movimiento del fluido a través del tubo. Las fuerzas desbalanceadas por lo general son relativamente pequeñas, pero ellas ocurren a cientos y miles de veces por segundo y sus magnitudes se incrementan rápidamente con el incremento de la velocidad del fluido. En ocasiones estas fuerzas son

amortiguadas sin producir daños en el tubo; sin embargo cualquier cuerpo puede vibrar mucho más fácilmente a determinadas frecuencias (las llamadas “frecuencias naturales”) que a otras frecuencias. Si las fuerzas desbalanceadas están aplicadas a frecuencias que coinciden o están cerca de las frecuencias naturales, ocurre la resonancia; y aún pequeñas fuerzas pueden provocar una vibración muy fuerte en el tubo. Hay varias posibles consecuencias de las vibraciones de los tubos, todas ellas muy perjudiciales. Los tubos pueden vibrar contra los separadores, los cuales eventualmente pueden cortar los tubos. En casos extremos, los tubos pueden romper otros tubos adyacentes y literalmente

© The author; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 28-34. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Reyes-RodrĂ­guez et al / DYNA 81 (186), pp. 28-34. August, 2014.

abrirse agujeros entre sĂ­. Por otra parte, las tensiones repetidas del tubo cerca de un soporte rĂ­gido tal como la placa de tubos, pueden resultar en la fractura por fatiga del tubo, pĂŠrdida de la uniĂłn del tubo y corrosiĂłn acelerada. Se encontraron muy pocos trabajos en la literatura revisada sobre vibraciones en intercambiadores de calor de tubo y coraza. Uno de los trabajos mĂĄs completos hallados fue el de los canadienses MJ Pettigrew y CE Taylor, los cuales publicaron en dos partes un anĂĄlisis de las vibraciones en los intercambiadores de calor de tubo y coraza. La primera parte del estudio la dedicaron al anĂĄlisis de los flujos, la amortiguaciĂłn y la fluido elĂĄstica [1] y la segunda parte a la respuesta a las vibraciones, el desgaste por esta causa y recomendaciones [2]. Otro buen trabajo es el del inglĂŠs H.G.D. Goyder [3] quien afirma que los paquetes de tubo de los intercambiadores de calor pueden fallar debido a la vibraciĂłn o al ruido excesivo. SeĂąala que el mecanismo mĂĄs severo de la vibraciĂłn es una inestabilidad fluido elĂĄstica que puede causar daĂąo del tubo despuĂŠs de algunas horas de operaciĂłn. En su trabajo presta una atenciĂłn particular a los mĂŠtodos para alcanzar buenos arreglos de los apoyos de los tubos que reduzcan al mĂ­nimo el daĂąo provocado por la vibraciĂłn.

Figura 1. Modos de VibraciĂłn. Fuente: Vladislavas, K. [4]

V0 - Va velocidad en la ausencia de tubos en m/s. b- Paso de los tubos en m, do - Diåmetro exterior del tubo en m β - à ngulo de la pendiente de los tubos en la dirección del flujo. Para el flujo transversal β = 90° y para el flujo longitudinal β = 0°. La generalización de los datos para el cålculo de las fuerzas hidrodinåmicas y de las vibraciones del tubo excitadas por ellas permite utilizar la velocidad de referencia, calculada por la ecuación (1), con un error relativamente bajo para β en el rango entre 90° y 15°. Se asume que todas las clases de vibración del tubo entran en juego simultåneamente con el inicio del flujo del fluido. Sin embargo, cada tipo de vibración domina sobre cierta gama de velocidad de flujo, esta gama depende de los paråmetros vibratorios de los tubos, las propiedades del fluido, y las condiciones del flujo. Esta velocidad de referencia interviene en muchos de los cålculos que se realizan para evaluar las vibraciones en los intercambiadores de calor de tubo y coraza. Este valor de la velocidad se tiene de manera bastante aproximada del cålculo tÊrmico. TambiÊn la norma TEMA [5] tiene una forma de hallarla, pero solamente para las corazas tipo E. Aunque muchos investigadores usan ya sea la velocidad de paso o velocidad en la fila para tener en cuenta la velocidad del cruce de corrientes para sus modelos, en todas estas secciones el tÊrmino de velocidad es la velocidad del cruce de corrientes calculada por el mÊtodo de Tinker [6] o el mÊtodo de Bell [7] o el mÊtodo de anålisis de la corriente [8].

2. Materiales y mÊtodos 2.1. Mecanismos de la vibración inducida por el flujo Los mecanismos de la excitación considerados generalmente como responsables de la vibración inducida por el fluido son: 1. Vórtice por el vertimiento o periodicidad de flujo 2. Embate turbulento 3. Inestabilidad elåstica del fluido 4. Resonancia acústica El vertimiento de vórtice, la resonancia acústica, el embate turbulento, y la excitación acústica se producen debido al fenómeno de la resonancia. La inestabilidad elåstica del fluido se manifiesta en los tubos en un cruce de corrientes a una velocidad de flujo crítica o cerca de este umbral, dando por resultado una amplitud de la vibración del tubo bastante grande, lo que provoca el choque con los tubos adyacentes y causa la falla. La inestabilidad se produce cuando la entrada de energía al sistema masa del tubo – amortiguamiento excede la energía disipada por el sistema.

2.3. Modos de vibraciĂłn de los tubos en intercambiadores de calor En el cĂĄlculo de la vibraciĂłn del tubo, es importante encontrar la frecuencia natural de la vibraciĂłn de los tubos. Para un tubo con extremos pivotantes, la vibraciĂłn puede ocurrir segĂşn las formas de modo 1, 2 y 3 segĂşn se muestra en la fig. 1.

2.2. Velocidad de Referencia del flujo transversal

2.4. Frecuencia natural de vibraciĂłn en los tubos

El efecto dinĂĄmico del flujo en un tubo vibrante depende de la velocidad de flujo y de las caracterĂ­sticas de la vibraciĂłn del tubo. Con un flujo transversal separado sobre un banco de tubos, la velocidad de referencia se asume como la velocidad de flujo en la secciĂłn mĂĄs estrecha del banco en el plano del tubo y es calculada por la fĂłrmula [4]:

2.4.1. Frecuencia natural para tubos rectos

�� =

đ?‘?đ?‘?1 ďż˝đ?‘‘đ?‘‘ 0

đ?‘‰đ?‘‰đ?‘œđ?‘œ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘?đ?‘?1 ďż˝đ?‘‘đ?‘‘ −1 0

Donde:

��

En el caso particular de los intercambiadores de calor de tubo y coraza, la frecuencia natural de vibraciones depende de la forma del modo y de las caracterĂ­sticas fĂ­sicas del tubo, y la manera de fijar sus extremos; y puede ser calculada por la fĂłrmula [9]:

(1)

���� =

29

đ??ľđ??ľđ?‘›đ?‘›

2đ?œ‹đ?œ‹đ??żđ??ż2

đ??¸đ??¸.đ??źđ??ź

ďż˝

đ?‘šđ?‘š

Donde: fn – Frecuencia natural en 1/s

(2)


Reyes-Rodríguez et al / DYNA 81 (186), pp. 28-34. August, 2014. Tabla 1. Valores del coeficiente Ν Fijación de los extremos del tubo Pivote - pivote Pivote – fijación fija Fijación fija – Fijación fija Fuente: Vladislavas,

K. [4]

Valor de Îťn Ď€.n đ?œ‹đ?œ‹ (4đ?‘›đ?‘› + 1) 4 đ?œ‹đ?œ‹ (2đ?‘›đ?‘› + 1) 2

E – MĂłdulo de elasticidad del material del tubo en Pa. I – Momento de inercia de ĂĄrea del tubo en m4 đ??źđ??ź =

đ?œ‹đ?œ‹

64

ďż˝đ?‘‘đ?‘‘đ?‘œđ?‘œ4 − đ?‘‘đ?‘‘đ?‘–đ?‘–4 ďż˝

Figura 3. En torno a la determinaciĂłn del coeficiente Cu. Fuente: Standards of the Tubular Exchanger Manufacturers Association [5]

(3)

di – diĂĄmetro interior del tubo en m do – diĂĄmetro exterior del tubo en m m – Masa total del tubo por unidad de longitud en Kg/m (incluyendo la masa del tubo en sĂ­ mismo, la masa del lĂ­quido del lado del tubo y la masa del lĂ­quido del lado de la coraza desplazado en la vibraciĂłn). L – Longitud del tubo en m. Bn – Constante adimensional dependiendo de la forma de la vibraciĂłn y de la manera de la fijaciĂłn del tubo en el intercambiador de calor. Para intercambiadores de calor de tubo y coraza con mĂĄs de 4 bafles, y donde los espacios finales entre las placas y los bafles mĂĄs cercanos no exceden el espaciamiento del bafle por mĂĄs de un 20%, se puede tomar un valor de Bn = 10 [10]. Alternativamente puede usarse la expresiĂłn đ??ľđ??ľđ?‘›đ?‘› = đ?œ†đ?œ†2đ?‘›đ?‘› , donde Îťn, se calcula de la expresiĂłn dada en la tabla 1. En la tabla anterior n es el nĂşmero del modo de vibraciĂłn.

���� = 68,06

đ??śđ??śđ?‘˘đ?‘˘ đ?‘&#x;đ?‘&#x; 2

đ??¸đ??¸đ??¸đ??¸ 1/2

(4)

ďż˝ ďż˝ đ?‘¤đ?‘¤đ?‘œđ?‘œ

Donde: ���� – Frecuencia natural fundamental del tramo de tubos en 1/s. r = radio medio de curvatura de la zona doblada en pulgadas. Cu = Constante de modo del tubo doblado en U. w0 – Peso efectivo del tubo por unidad de longitud en lb/ft. E – Módulo de Elasticidad del material del tubo a la temperatura del metal del tubo en libras por pulgadas cuadradas (psi). 2.5. Masa efectiva por unidad de longitud Durante la vibración inducida por el fluido, los tubos vibrantes desplazan el líquido del lado de la coraza. Cuando los líquidos implicados son líquidos muy densos, la inercia del líquido tendrå efecto substancial en la frecuencia natural de los tubos, actuando como efecto amortiguador. En la literatura se ofrecen las bondades de los amortiguadores magnetoreológicos para el control de las vibraciones [11]. Por lo tanto, cuando se calcula la frecuencia natural del tubo, la influencia del líquido desplazado debe ser tomada en cuenta, aumentando la masa del tubo vibrante incluyendo la masa hidrodinåmica o masa agregada. La masa agregada se define como la masa total de fluido desplazada y se mide por un coeficiente Cm. La masa efectiva del tubo por unidad de longitud serå:

2.4.1. Frecuencia natural para tubos en U Las filas externas de los tubos doblados en U tienen una frecuencia natural de vibraciones mĂĄs baja y, por tanto, son mĂĄs susceptibles a las fallas producidas por las vibraciones inducidas por el flujo que por las filas internas. Para determinar la frecuencia natural de los tubos en U, primero hay que dibujar un esquema de la secciĂłn en U e identificar la configuraciĂłn con respecto a la fig. 2: l s Posteriormente hay que determinar las relaciones b y (ver r r fig. 3). Finalmente determinar Cu de acuerdo a la configuraciĂłn del haz de tubos segĂşn las figuras v-5-3, v-5-3-1, v-5-3-2, v5-3-3, de la norma TEMA [5] La frecuencia natural para el primer modo de vibraciĂłn se determina por la expresiĂłn [5]:

(5)

đ?‘šđ?‘š = đ?‘šđ?‘šđ?‘Žđ?‘Ž + đ?‘šđ?‘šđ?‘–đ?‘– + đ?‘šđ?‘šđ?‘Ąđ?‘Ą

Donde: ���� – masa aùadida por unidad de longitud ���� – masa de fluido contenida en los tubos por unidad de longitud. ���� – masa estructural de los tubos por unidad de longitud Figura 2. Formas de apoyo de los tubos doblados en U. Fuente: Standards of the Tubular Exchanger Manufacturers Association [5] 30

đ?‘šđ?‘š =

2 .đ??śđ??ś .đ?œŒđ?œŒ đ?œ‹đ?œ‹đ?‘‘đ?‘‘đ?‘œđ?‘œ đ?‘šđ?‘š đ?‘ đ?‘

4

+

đ?œ‹đ?œ‹đ?‘‘đ?‘‘đ?‘–đ?‘–2 .đ?œŒđ?œŒđ?‘–đ?‘– 4

+

2 −đ?‘‘đ?‘‘ 2 ďż˝.đ?œŒđ?œŒ đ?œ‹đ?œ‹ďż˝đ?‘‘đ?‘‘đ?‘œđ?‘œ đ?‘–đ?‘–

4

(6)


Reyes-RodrĂ­guez et al / DYNA 81 (186), pp. 28-34. August, 2014.

đ?œŒđ?œŒđ?‘ đ?‘ – Densidad del fluido por el lado de la coraza. đ?œŒđ?œŒđ?‘–đ?‘– – Densidad del fluido del lado del tubo đ?œŒđ?œŒ – Densidad del metal del tubo.

Tabla 2. Valores del coeficiente de masa aĂąadida Cm Tipo de Triangulares a 30Âş y 60Âş arreglo Modelo Weibull Cm Cm = 2.597 −13.422 ďż˝ − 1.366 . eďż˝âˆ’8.816.x

2.6. DeterminaciĂłn del coeficiente de masa aĂąadida, Cm, para el flujo monofĂĄsico El coeficiente de masa aĂąadida se puede estimar por el mĂŠtodo analĂ­tico de Blevins [12] o por la base de datos experimental de Moretti et al [13]. Blevins [12] da una fĂłrmula analĂ­tica para determinar el coeficiente total de masa aĂąadida de un tubo flexible rodeado por un arreglo de tubos rĂ­gidos. La expresiĂłn para el coeficiente de masa total aĂąadida Cm estĂĄ dado como: đ??śđ??śđ?‘šđ?‘š =

đ??ˇđ??ˇđ?‘’đ?‘’ 2 ďż˝ +1 đ?‘‘đ?‘‘đ?‘œđ?‘œ đ??ˇđ??ˇđ?‘’đ?‘’ 2 ďż˝ ďż˝ −1 đ?‘‘đ?‘‘đ?‘œđ?‘œ

ďż˝

Fuente: Los autores

đ??ˇđ??ˇ

(7)

đ?‘?đ?‘?

= �1 + �

đ?‘?đ?‘?

đ??ˇđ??ˇ đ??ˇđ??ˇ

el medio del tramo del tubo para el primer modo, para fluidos de una fase en pulgadas.

,

De – diåmetro equivalente del arreglo de tubos. El diåmetro equivalente De, se utiliza para representar el confinamiento debido a los tubos circundantes. p – paso entre los tubos Moretti et al [13] determinaron experimentalmente el coeficiente de masa aùadida para un tubo flexible rodeado por tubos rígidos en un arreglo hexagonal o en un arreglo cuadrado con una relación paso entre diåmetro de 1.25 a 1.50. La norma TEMA incluye como figura los datos del experimento de Moretti para la determinación del coeficiente total de masa aùadida [5]. Con los datos experimentales de Moretti, los autores de este trabajo desarrollaron expresiones para determinar los coeficientes de masa aùadida, con vistas a que pudieran ser programados. Los mismos se ofrecen en la tabla 2. En la tabla anterior x es la relación entre el paso y el diåmetro del tubo.

đ?‘Śđ?‘Śđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š =

đ??śđ??śđ??żđ??ż .đ?œŒđ?œŒđ?‘œđ?‘œ .đ?‘‘đ?‘‘đ?‘œđ?‘œ .đ?‘‰đ?‘‰ 2

2.đ?œ‹đ?œ‹2 .đ?›żđ?›żđ?‘‡đ?‘‡ .đ?‘“đ?‘“đ?‘›đ?‘›2 .đ?‘¤đ?‘¤đ?‘œđ?‘œ

(8)

CL - Coeficiente de elevaciĂłn para el vertimiento de vĂłrtice (ver tabla 3). Ď o – Densidad del fluido del lado de la coraza a la temperatura volumĂŠtrica en libras por pie cĂşbico. đ?‘‘đ?‘‘đ?‘œđ?‘œ – DiĂĄmetro exterior del tubo en pulgadas. V- Velocidad de flujo cruzado de referencia en pies por segundo đ?›żđ?›żđ?‘‡đ?‘‡ – Decremento logarĂ­tmico (amortiguaciĂłn) fn – Frecuencia natural fundamental del tramo de tubo en ciclos/s đ?‘¤đ?‘¤đ?‘œđ?‘œ – Peso efectivo del tubo por unidad de longitud en libras/pie

2.7.2. Amplitud de la vibraciĂłn debido a la turbulencia por impacto

2.7. Amplitud de la vibraciĂłn en los tubos

La amplitud de la vibraciĂłn causada por el impacto turbulento del fluido se puede calcular por la siguiente expresiĂłn [5]:

En los tubos de los intercambiadores de calor de tubo y coraza se pueden presentar vibraciones debido a dos causas: el vertimiento de vĂłrtice y la turbulencia por impacto. Las fuerzas hidrodinĂĄmicas no estacionarias, que surgen debido a la separaciĂłn de vĂłrtice, pueden excitar vibraciones de alta amplitud de los tubos si las frecuencias naturales de sus vibraciones coinciden con la frecuencia de la separaciĂłn de vĂłrtice o son dos veces mĂĄs altas.

đ?‘Śđ?‘Śđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š =

đ??śđ??śđ??šđ??š .đ?œŒđ?œŒđ?‘œđ?‘œ .đ?‘‘đ?‘‘đ?‘œđ?‘œ .đ?‘‰đ?‘‰ 2

8.đ?œ‹đ?œ‹ďż˝.đ?›żđ?›żđ?‘‡đ?‘‡ ďż˝đ?‘“đ?‘“đ?‘›đ?‘›3 .đ?‘¤đ?‘¤đ?‘œđ?‘œ

(9)

Donde: ymaxit - Valor mĂĄximo de la amplitud de la vibraciĂłn en el medio del tramo del tubo para el primer modo, para fluidos de una fase en pulgadas. CF - Coeficiente de fuerza, ver tabla 4.

2.7.1. Amplitud de la vibraciĂłn debida al vĂłrtice por el vertimiento La amplitud de la vibraciĂłn debido al vertimiento de vĂłrtice se puede calcular por la expresiĂłn siguiente: Donde: ymaxvv - Valor mĂĄximo de la amplitud de la vibraciĂłn en

ParĂĄbola CuadrĂĄtica đ??śđ??śđ?‘šđ?‘š = 8.438 − 9.357. x + 3.047 x 2

Tabla 3. Coeficiente de elevaciĂłn para el vertimiento de vĂłrtice CL đ?‘ƒđ?‘ƒďż˝ Arreglo de Tubos đ?‘‘đ?‘‘đ?‘œđ?‘œ 30Âş 60Âş 90Âş 45Âş 1,20 0,090 0,090 0,070 0,070 1,25 0,091 0,091 0,070 0,070 1,33 0,065 0,017 0,070 0,010 1,50 0,025 0,047 0,068 0,049 Fuente: Standards of the Tubular Exchanger Manufacturers Association [5]

Donde: đ??ˇđ??ˇđ?‘’đ?‘’

Cuadrados a 45Âş y 90Âş

2.8. Velocidad CrĂ­tica

Las vibraciones hidroelĂĄsticas (o “fluido-elĂĄsticasâ€?) de los tubos en los bancos prevalecen a altas velocidades de flujo. 31


Reyes-RodrĂ­guez et al / DYNA 81 (186), pp. 28-34. August, 2014. Tabla 4. Coeficientes de Fuerza CF LocalizaciĂłn

CF

����

Tubos de la entrada del haz

reemplazo de tubos daùados por barras, el montaje de bafles o deflectores de regulación en la entrada del líquido refrigerante en el intercambiador de calor. Los mecanismos que intervienen en la amortiguación son numerosos, y los efectos diversos no son medidos ni cuantificados exactamente. Las expresiones para el decremento logarítmico δT , estån basadas estrictamente en observaciones experimentales y en modelos idealizados.

0,022 ≤ 40 −0.00045đ?‘“đ?‘“đ?‘›đ?‘› + 0,04 > 40 < 88 0 ≼ 88 Tubos Interiores 0,012 ≤ 40 −0.00025đ?‘“đ?‘“đ?‘›đ?‘› + 0,022 > 40 < 88 0 ≼ 88 Fuente: Standards of the Tubular Exchanger Manufacturers Association [5]

2.10. CĂĄlculo del parĂĄmetro de amortiguaciĂłn segĂşn la norma TEMA [5]

Se presentan como resultado de las fuerzas hidrodinĂĄmicas que se originan como resultado de la vibraciĂłn en sĂ­ misma. Cuanto mĂĄs grande es la amplitud de la vibraciĂłn, mayor es la fuerza y, por lo tanto, ocurre en la regiĂłn un aumento rĂĄpido en amplitud de la vibraciĂłn con la velocidad. A la caracterĂ­stica auto-amplificada se le da a menudo el nombre de “inestabilidad fluido-elĂĄstica.â€? En el flujo transversal sobre los tubos la velocidad de flujo que iguala las fuerzas excitatrices y amortiguadoras y que da lugar a vibraciones hidroelĂĄsticas se conoce como la velocidad crĂ­tica. Mantener las condiciones de trabajo a esa velocidad produce un aumento brusco de las amplitudes de la vibraciĂłn y conlleva a la falla del tubo. Para bancos con arreglo triangular equilĂĄtero y cuadrado de los tubos esta velocidad se calcula como [5]: đ?‘†đ?‘†

đ?‘‰đ?‘‰đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘? = ďż˝0,8 + 1,7 ďż˝ 1 �� [đ?‘“đ?‘“đ?‘›đ?‘› . đ?‘‘đ?‘‘đ?‘œđ?‘œ ] ďż˝

������

2ďż˝ ďż˝đ?œŒđ?œŒđ?‘‘đ?‘‘đ?‘œđ?‘œ

đ?‘‘đ?‘‘đ?‘œđ?‘œ

0,5

ďż˝

Para lĂ­quidos en el lado de la coraza đ?œšđ?œšđ?‘ťđ?‘ť se toma como el mayor entre đ?œšđ?œšđ?&#x;?đ?&#x;? y đ?œšđ?œšđ?&#x;?đ?&#x;?

��1 =

��.���� 0,5

đ?œŒđ?œŒđ?‘ đ?‘ .đ?‘‘đ?‘‘đ?‘œđ?‘œ2

ďż˝

δ2 =

y

đ?‘¤đ?‘¤đ?‘œđ?‘œ .đ?‘“đ?‘“đ?‘›đ?‘›

0,012do Ď o .Âľ 0.5 wo

ďż˝

fn

ďż˝

(12)

Donde: Âľ – Viscosidad del fluido del lado de la coraza a la temperatura volumĂŠtrica en centipoises. do – DiĂĄmetro exterior del tubo en pulgadas. Ď o – Densidad del fluido del lado de la coraza a la temperatura volumĂŠtrica en libras por pie cĂşbico. fn – Frecuencia natural fundamental del tramo de tubo en ciclos/segundos. wo – Peso efectivo del tubo (es la masa efectiva por la gravedad) en libras/pie.

(10)

2.11. CĂĄlculo del parĂĄmetro de amortiguaciĂłn segĂşn las Correlaciones de Pettigrew, Rogers y Axisa [15]

O tambiĂŠn SegĂşn Petigrew y Taylor [14]:

đ?‘‰đ?‘‰đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘? = 3 đ?‘“đ?‘“đ?‘›đ?‘› . đ?‘‘đ?‘‘đ?‘œđ?‘œ ďż˝

3,41đ?‘‘đ?‘‘đ?‘œđ?‘œ

(13)

đ?›żđ?›żđ?‘‡đ?‘‡ = 2đ?œ‹đ?œ‹đ?œ‰đ?œ‰đ?‘›đ?‘›

(11)

Donde:

Donde S es el paso longitudinal del tubo y δT es el factor de amortiguación (decremento logarítmico).

đ?œ‰đ?œ‰đ?‘›đ?‘› =

2.9. ParĂĄmetro de amortiguaciĂłn

ďż˝

La amortiguaciĂłn del tubo limita la amplitud de la vibraciĂłn. Se compone de la amortiguaciĂłn hidrodinĂĄmica y de la amortiguaciĂłn por razones estructurales. La amortiguaciĂłn hidrodinĂĄmica se atribuye a las fuerzas viscosas que aparecen durante la interacciĂłn del tubo con el flujo. Cuando los tubos vibran la energĂ­a tambiĂŠn se disipa en el fluido circundante puesto que sus partĂ­culas se mueven. La amortiguaciĂłn por razones estructurales se atribuye a las fuerzas de fricciĂłn que aparecen en la rotaciĂłn del tubo en los agujeros de los soportes. En intercambiadores de calor reales, la amortiguaciĂłn total de los tubos en los ensamblajes se determina por el decremento logarĂ­tmico. ComĂşnmente la amortiguaciĂłn hidrodinĂĄmica constituye cerca del 50% del amortiguamiento total y depende de la configuraciĂłn del banco y de las relaciones de los pasos. Cuanto mĂĄs baja es la relaciĂłn de los pasos, mayor es la amortiguaciĂłn. La disminuciĂłn de la vibraciĂłn de elementos que transmiten calor se logra generalmente disminuyendo la velocidad de flujo, eliminado las averĂ­as en tubos daĂąados, el reordenamiento de tubos para hacer pasos para un lĂ­quido refrigerante, el

đ?‘ đ?‘ −1 đ?‘ đ?‘

đ?œ‹đ?œ‹

√8

22

đ?‘‘đ?‘‘ 1+ďż˝ đ?‘œđ?‘œ ďż˝ đ??ˇđ??ˇđ?‘’đ?‘’

3

đ?œŒđ?œŒđ?‘ đ?‘ đ?‘‘đ?‘‘đ?‘œđ?‘œ2

ďż˝

2 2

đ?‘‘đ?‘‘ ďż˝1âˆ’ďż˝ đ?‘œđ?‘œ ďż˝ ďż˝

� � �� � � ��

đ??ˇđ??ˇđ?‘’đ?‘’

đ?œŒđ?œŒđ?‘ đ?‘ đ?‘‘đ?‘‘đ?‘œđ?‘œ2 đ?‘šđ?‘š

đ?‘Ąđ?‘Ą

đ?‘šđ?‘š

0,6

2.đ?œˆđ?œˆ

ďż˝ ďż˝đ?œ‹đ?œ‹.đ?‘“đ?‘“

��

ďż˝ ďż˝đ??żđ??żđ?‘?đ?‘? ďż˝ đ?‘Ąđ?‘Ą

0,5

ďż˝ .đ?‘‘đ?‘‘ 2 đ?‘œđ?‘œ

+ (14)

N- nĂşmero de tramos de tubos Lt – Longitud del tubo en m tb – Espesor del deflector en m do d = 0,58 o Para arreglos triangulares, D doe dp = 0,52 o Para arreglos cuadrados De p fn – Frecuencia natural en 1/s p – paso de los tubos en m do – DiĂĄmetro del tubo en m De - DiĂĄmetro equivalente en un arreglo de tubos en m ν – Viscosidad cinemĂĄtica en centistokes. Si δT da menor que 0,0377, entonces se asume igual a 0,0377 [16] 2.12. Frecuencia de las vibraciones debido al vertimiento de vĂłrtice

32

đ?‘“đ?‘“đ?‘Łđ?‘Łđ?‘Łđ?‘Ł =

đ?‘†đ?‘†đ?‘˘đ?‘˘ .đ?‘‰đ?‘‰ đ?‘‘đ?‘‘đ?‘œđ?‘œ

en ciclos por segundo

(15)


Reyes-RodrĂ­guez et al / DYNA 81 (186), pp. 28-34. August, 2014.

Donde: V – Velocidad de referencia de flujo cruzado en m/s do – Diåmetro exterior del tubo en m. Su – número de Strouhal.

2- Primer chequeo a las vibraciones Chequeo al vertimiento de vĂłrtice: Criterio de Pettigrew y Gorman [20]. El criterio para evitar la resonancia debido al vĂłrtice por vertimiento se expresa en tĂŠrminos de la frecuencia reducida.

El número de Strouhal puede determinarse a travÊs de los mapas de Strouhal de Chen [17] y de Fitz-Hugh [18]. Estos mapas se trazan con varios cocientes de paso. La norma TEMA en este caso no ofrece un chequeo para los líquidos, solamente para los gases. Se usarån entonces las correlaciones de Weaver y Fitzpatrick [19]. ���� =

1

1,73đ?‘‹đ?‘‹đ?‘?đ?‘?

a 60Âş, đ?‘†đ?‘†đ?‘˘đ?‘˘ = đ?‘‹đ?‘‹đ?‘?đ?‘? =

đ?‘?đ?‘?

đ?‘‘đ?‘‘đ?‘œđ?‘œ

1

Para arreglos a 30º, ���� =

2đ?‘‹đ?‘‹đ?‘?đ?‘?

Para arreglos a 90Âş y 45Âş

1

1,16đ?‘‹đ?‘‹đ?‘?đ?‘?

đ?‘“đ?‘“đ?‘›đ?‘› .đ?‘‘đ?‘‘đ?‘œđ?‘œ đ?‘‰đ?‘‰

Para arreglos

đ?‘“đ?‘“đ?‘›đ?‘› .đ?‘‘đ?‘‘đ?‘œđ?‘œ đ?‘‰đ?‘‰

đ?‘‘đ?‘‘đ?‘œđ?‘œ .đ?‘‹đ?‘‹đ??żđ??ż .đ?‘‹đ?‘‹đ?‘Ąđ?‘Ą

1 2

đ?‘‹đ?‘‹đ?‘Ąđ?‘Ą

3- Chequeo a la excitación producida por la turbulencia. Si 0,8�������� < ���� < 1,2�������� - Ocurre la resonancia.

4- Chequeo a la deflexión måxima producida por el vertimiento de vórtice. El valor måximo de la amplitud producida por el vertimiento de vórtice no debe ser mayor de 0,02 do, es decir: ymaxvv ≤ 0,02 do

(16)

en ciclos por segundo đ?‘‹đ?‘‹đ??żđ??ż =

đ?‘ƒđ?‘ƒđ??żđ??ż

đ?‘‘đ?‘‘đ?‘œđ?‘œ

,

đ?‘‹đ?‘‹đ?‘Ąđ?‘Ą =

(18)

��

2.13. Frecuencia de las vibraciones debido al impacto turbulento o excitaciĂłn debido a la turbulencia ďż˝3,05 ďż˝1 − ďż˝ + 0,28ďż˝

< 0,25����

En resumen: Si 0,8đ?‘“đ?‘“đ?‘Łđ?‘Łđ?‘Łđ?‘Ł < đ?‘“đ?‘“đ?‘›đ?‘› < 1,2đ?‘“đ?‘“đ?‘Łđ?‘Łđ?‘Łđ?‘Ł - Ocurre la resonancia đ?‘“đ?‘“ .đ?‘‘đ?‘‘ Si đ?‘›đ?‘› đ?‘œđ?‘œ > 2đ?‘†đ?‘†đ?‘˘đ?‘˘ - No hay problemas. đ?‘“đ?‘“ đ?‘‰đ?‘‰.đ?‘‘đ?‘‘ Si đ?‘›đ?‘› đ?‘œđ?‘œ < 0,25đ?‘†đ?‘†đ?‘˘đ?‘˘ - No hay problemas.

p – paso de los tubos do – diåmetro exterior de los tubos.

��

(17)

SegĂşn el criterio de Au-Yang, para evitar la resonancia, el nĂşmero de Strouhal (Su) debe ser menor que el 25% de la frecuencia reducida [21,22].

, donde:

đ?‘“đ?‘“đ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Ł =

> 2����

5- Chequeo a la deflexión måxima producida por el impacto turbulento. El valor måximo de la amplitud producida por el impacto turbulento no debe ser mayor de 0,02 do, es decir: ymaxit ≤ 0,02 do

đ?‘ƒđ?‘ƒđ?‘Ąđ?‘Ą

đ?‘‘đ?‘‘đ?‘œđ?‘œ

PL – Paso longitudinal de los tubos en m, Pt – Paso transversal de los tubos en m.

6- Chequeo a la inestabilidad elĂĄstica del fluido. Para chequear la inestabilidad elĂĄstica del fluido hay que calcular la velocidad crĂ­tica y compararla con la velocidad del cruce de corrientes (velocidad transversal). Hay que conservar la velocidad mĂĄxima del cruce de corrientes por debajo de la velocidad crĂ­tica.

2.14. Procedimiento para la evaluaciĂłn de la vibraciĂłn en los intercambiadores de calor de tubo y coraza Teniendo en cuenta los conceptos y las expresiones seĂąaladas anteriormente, el procedimiento para evaluar las vibraciones en los intercambiadores de calor de tubo y coraza se puede realizar a travĂŠs de los siguientes pasos: 1- CĂĄlculos iniciales a) Identificar las zonas de interĂŠs (entrada, ventana del deflector, zonas centrales del bafle, curva en U, etc.) para calcular la frecuencia natural. Es recomendable hacer un croquis del Intercambiador de calor. b) Calcular la frecuencia natural para los tramos en las regiones de interĂŠs. c) Calcular la velocidad del cruce de corrientes o transversal (V) para la coraza de la norma TEMA considerada. d) Calcular el nĂşmero de Strouhal para los arreglos de tubo correspondientes e) Calcular la frecuencia de la vibraciĂłn debida al vertimiento de vĂłrtice, fvv: f) Calcular la frecuencia de la vibraciĂłn debida al embate turbulento, fvit:

Chequear si V < Vcrit Ăł

V

Vcrit

< 0,5 si se cumple, no

hay problemas con la inestabilidad elĂĄstica del fluido. 3. Conclusiones

1. Los cĂĄlculos de vibraciones que hay que realizarle a un intercambiador de calor de tubo y coraza son tan o mĂĄs complejos que los cĂĄlculos tĂŠrmicos. 2. Generalmente las fallas mecĂĄnicas de los intercambiadores de calor tiene que ver con la resonancia de los tubos o con las excesivas deformaciones de los mismos. Las dos mejores formas de evitar los problemas de vibraciones es apoyar o colocar los tubos tan rĂ­gidamente como sea posible (por ejemplo colocando los deflectores tan cerca como sea posible) y conservar las velocidades en valores bajos. Pero estos aspectos entran en conflicto con el diseĂąo 33


Reyes-Rodríguez et al / DYNA 81 (186), pp. 28-34. August, 2014.

térmico e hidráulico y con el costo del intercambiador. En la actualidad estos aspectos se rigen por la experiencia de los diseñadores tanto térmicos como mecánicos. 3. Existen numerosos criterios para el cálculo a las vibraciones de los tubos, siendo los más usados los de Blevins, Chen y Eissinger, Owens, Rae y Murray, Pettigrew y Gorman y Au Yang. 4. La frecuencia natural de vibración de un intercambiador depende del tipo de intercambiador y del arreglo de tubos. 5. El coeficiente de masa añadida sigue una distribución de Weibull para arreglos triangulares a 30 y 60º y una parábola cuadrática para arreglos cuadrados.

[15] Pettigrew, M. J., Rogers, R. J., and Axisa, F., Damping of multisoan heat exchanger tubes, Part 2: In liquids, in Flow Induced Vibration, PVP vol. 104, ASME, New York, 1986, pp. 89-98. [16] Kuppan, T., Heat Exchanger Design Handbook. Marcel Dekker, Inc. New York, 2000. [17] Chen, Y.N., Flow induced vibration and noise in tube bank heat exchangers due to Von Karmon streets, Trans. ASME, J. Eng. Ind., February, pp. 134-146, 1968. [18] Fitz-Hugh, J. S., Flow induced vibration in heat exchangers, Int. Svmp. Vibration Problems in Industry, Keswick, UK, 1973, pp. 10-12. [19] Weaver, D.S., Fitzpatrick, J.A., and El Kashlan, M.L., Strouhal numbers of heat exchanger tube arrays in crossflow, ASME Svmp. Flow Induced Vibration, Chicago, 1986 (S. S. Chen, J. C. Si- monis, and Y. S. Shin, eds.), PVP vol. 104, pp.

Referencias

[20] Pettigrew, M. J., and Gorman, D. J., Vibration of tube bundles in liquid, and two phase crossflow, in Flow Induced Vibration Guidelines (P. Y. Chen, ed.), PVP vol. 52 (ASME), New York, 1981.

[1] Pettigrew, M.J. and Taylor, C.E., Vibration analysis of shell-and-tube heat exchangers: An overview -Part 1: Flow, damping, fluidelastic instability. Journal of Fluids and Structures. ELSEVIER, 18 (5), pp. 469 – 483, 2003.

[21] Au-Yang, M. K., Blevins, R. D., and Mulcahy, T. M., Flow induced vibration analysis of tube bundles-A proposed Section I11 Appendix N nonmandatory code, Trans. ASME, J. Pressure Vessel Technol., 113, pp. 257-267, 1991.

[2] Pettigrew, M J. and Taylor, C.E., Vibration analysis of shell-and-tube heat exchangers: An overview - Part 2: Vibration response, frettingwear, guidelines. Journal of Fluids and Structures. ELSEVIER, 18 (5), pp. 485–500, 2003.

[22] Au-Yang, M. K., Flow induced vibration: Guidelines for design, diagnosis and trouble shooting of common power plant components, Trans. ASME, J. Pressure Vessel Technol., 207, pp. 326-334, 1985.

[3] Goyder, H.G.D., Vibration and wear of loosely supported heat exchanger tubes. International working group on fast reactors Specialists' Meeting on Flow Induced Vibration in Fast Breeder Reactors Paris, France. 21-2A October 1986.

M. B. Reyes Rodríguez, Graduada de Ing. Química en 1992 en el Instituto Superior Politécnico José Antonio Echevarría en la Habana Cuba y de MSc. en Análisis de Procesos en 1997 en la Universidad Central “Marta Abreu “ de Las Villas. Santa Clara. Cuba. Trabaja en el Centro de Estudios de Energía y Tecnologías ambientales de la Universidad Central “Marta Abreu “de Las Villas como profesora asistente a tiempo completo. Sus intereses investigativos incluyen: Procesos químicos, transferencia de calor, aplicaciones de la computación a los procesos químicos, técnicas computacionales inteligentes y optimización usando algoritmos evolutivos. Actualmente investiga en la optimización del diseño de intercambiadores de calor de tubo y coraza, tema en el cual se encuentra en el proceso de defensa de un Doctorado en Ciencias Técnicas. Ha participado en diferentes Eventos Internacionales y ha publicado diferentes artículos en revistas tales como Ingeniería Mecánica y Afinidad.

[4] Vladislavas, K., Vibration in heat exchangers. Disponible en: http://www.thermopedia.com/content/1242/ [5] Standards of the Tubular Exchanger Manufacturers Association, 7th ed., Tubular Exchanger Manufacturers Association, Inc., Tarrytown, New York, 2007. [6] Tinker, T., Shellside characteristics of shell and tube heat exchangersA simplified rating system for commercial heat exchangers, Trans. ASME, pp. 36-52, 1958. [7] Bell, K.J., Delaware Method for shellside design in heat transfer equipment design, In: R. K. Shah, E. C. Subbarao, and R. A. Mashelkar, eds., Hemisphere, Washington, DC, 1988, pp. 145-166.

J. L. Moya Rodríguez, Graduado de Ing. Mecánico en 1974 en la Universidad Central “Marta Abreu” de Las Villas, de MSc. en Fiabilidad en 1985 en la UT “Otto Von Guericke” de Alemania y Dr. en Ciencias Técnicas en 1994 en la Universidad Central “Marta Abreu” de Las Villas. Ha trabajado como profesor de Postgrado en diferentes universidades de México, Brasil, Nicaragua y España. Posee varios premios de la Academia de Ciencias de Cuba y es Profesor de Mérito de la Universidad Central “Marta Abreu” de Las Villas. Tiene más de 300 artículos publicados en revistas y memorias de eventos. Es miembro de la ASME. Coordina las Maestrías de Ingeniería Mecánica y de Ingeniería Mecatrónica de la Universidad Central “Marta Abreu” de Las Villas. Tiene varios libros publicados. Es miembro del Tribunal Nacional de Defensas de Doctorado de la Rama Mecánica. Ha sido tutor de 27 tesis de doctorados y de 47 tesis de maestrías, todas ellas defendidas exitosamente.

[8] Palen, J. W. and Taborek, J., Solution of shellside flow pressure drop and heat transfer by stream analysis method, CEP Symposium Ser. Heat Transfer, 92, 65, Philadelphia, 1969, pp. 53-63. [9] Lowery, R. L. and Moretti, Natural frequencies and damping of tubes on multiple supports. Heat transfer, Research and applications, ed., J.C. Cheng. AIChE Symposium, Series No 4, Vol 74, 1978, pp. 1-5. [10] Chenoweth, J. M., Flow-induced vibration, Heat Exchanger Design Handbook, 4, Hemisphere, New York, 1983. [11] Lara, L., Brito J.L.V. y Valencia. Y., Reducción de vibraciones en un edificio mediante la utilización de amortiguadores magnetoreológicos. Revista DYNA, 79 (171), pp. 205-214. 2012.

R. A. Goytisolo Espinosa, Destacado pedagogo y coordinador de la Maestría de Mecánica Aplicada. Ha impartido más de 70 cursos de pregrado en Universidades de Cuba y Colombia. Ha desarrollado numerosos entrenamientos y cursos de postgrado en universidades de Cuba, México y Colombia. Ha realizado más de un centenar de servicios científicos técnicos que constituyen soluciones y aportes al desarrollo económico del país. Ha realizado más de veinte investigaciones. Tiene varios libros publicados. Ha trabajado como tutor u oponente de tesis de maestrías y doctorados. Es miembro de los Consejos Científicos de la Facultad de Mecánica y de la Universidad de Cienfuegos, Cuba. Miembro del Tribunal Nacional de Defensas de Doctorado de la Rama Mecánica. Miembro de la Asociación Nacional de Innovadores y Racionalizadores y de la American Society of Mechanical Engineering.

[12] Blevins, R.D., Flow Induced Vibration, 2nd ed., Van Nostrand Reinhold, New York, 1990. [13] Moretti, P. M. and Lowery, R. L., Hydrodynamic inertia coefficients for a tube surrounded by rigid tube, Trans. ASME, Pressure Vessel Technol., 97, 1976. [14] Pettigrew, M. J., Taylor, C. E., and Yasuo, A., Vibration damping of heat exchanger tube bundles in two phase cross flow, and Blevins, R. D., Acoustic resonance in heat exchanger tube bundles, Welding Research Bulletin No. 389, Welding Research Council, New York.

34


A robust neuro-fuzzy classifier for the detection of cardiomegaly in digital chest radiographies Fabián Torres-Robles a, Alberto Jorge Rosales-Silva b, Francisco Javier Gallegos-Funes c & Ivonne Bazán-Trujillo d a

Escuela Superior de Ingeniería Mecánica y Eléctrica, Instituto Politécnico Nacional de México, México. fabian.trobles@gmail.com b Escuela Superior de Ingeniería Mecánica y Eléctrica, Instituto Politécnico Nacional de México, México. arosaless@ipn.mx c Escuela Superior de Ingeniería Mecánica y Eléctrica, Instituto Politécnico Nacional de México, México. fgallegosf@ipn.mx d Escuela Superior de Ingeniería Mecánica y Eléctrica, Instituto Politécnico Nacional de México, México. ibazan@ipn.mx Received: April 15th, 2013. Received in revised form: May 16th, 2014. Accepted: August 8th, 2014.

Abstract We present a novel procedure that automatically and reliably determines the presence of cardiomegaly in chest image radiographies. The cardiothoracic ratio (CTR) shows the relationship between the size of the heart and the size of the chest. The proposed scheme uses a robust fuzzy classifier to find the correct feature values of chest size, and the right and left heart boundaries to measure the heart enlargement to detect cardiomegaly. The proposed approach uses classical morphology operations to segment the lungs providing low computational complexity and the proposed fuzzy method is robust to find the correct measures of CTR providing a fast computation because the fuzzy rules use elementary arithmetic operations to perform a good detection of cardiomegaly. Finally, we improve the classification results of the proposed fuzzy method using a Radial Basis Function (RBF) neural network in terms of accuracy, sensitivity, and specificity. Keywords: Cardiomegaly; fuzzy classifier; Radial Basis Function neural network; chest image radiographies.

Clasificador robusto neuro-difuso para la detección de cardiomegalia en radiografías digitales del tórax Resumen Presentamos un nuevo procedimiento que determina de forma automática y fiable la presencia de cardiomegalia en radiografías torácicas. El CTR muestra la relación entre el tamaño del corazón y el tamaño del tórax. El esquema propuesto utiliza un clasificador robusto difuso para encontrar los valores correctos del tamaño del tórax y los límites del corazón derecho e izquierdo para medir el agrandamiento del corazón para detectar cardiomegalia. El método propuesto utiliza operaciones clásicas de morfología para segmentar los pulmones proporcionando baja complejidad computacional y el método difuso propuesto es robusto para encontrar las medidas correctas del CTR proporcionando un cálculo rápido porque las reglas difusas usan operaciones aritméticas elementales para desempeñar una buena detección de cardiomegalia. Finalmente, se mejoran los resultados de clasificación del método difuso propuesto utilizando una red neuronal función de base radial (RBF) en términos de precisión, sensibilidad y especificidad. Palabras clave: Cardiomegalia; clasificador difuso; red neuronal Función de Base Radial; radiografías de tórax.

1. Introduction Radiography helps medical staff to provide the most accurate diagnosis possible, which enables insight into the human body. In radiology, radiographies of the chest are the most common and they are used to diagnose conditions affecting the chest cavity, contents and nearby structures. [1,2].

The interpretation of chest radiographs is notoriously difficult, due to the intensity, the brightness, or the contrast which is not appropriate to provide a good delineation of anatomical structures and other regions of interest. For these reasons computer-aided diagnosis for chest radiography is becoming increasingly important to assist and automate specific radiological tasks [1-5]. Some applications of computer analysis of the chest

© The author; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 35-41. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Torres-Robles et al / DYNA 81 (186), pp. 35-41. August, 2014.

abnormal growth of the heart) cause the malfunction and incapacity of this organ to expel or refill blood at the rate needed by other organs to work [4-6]. Cardiac insufficiency can be defined in terms of its symptoms which are: dysponea, weakness, cyanosis, swelling, palpitation etc. These symptoms are the result of the pumping function of the heart [6]. Cardiomegaly is a symptom of cardiac insufficiency and it refers to the abnormal growth of the heart. This condition is caused by the excessive work of the heart that has to perform a properly function, just like a muscle; the heart increases its size and strength when it is forced continuously. Cardiomegaly can be identified by measuring of the cardiothoracic ratio CTR [4-6],

radiographies are reported in the literature: estimation the total volume of the lung and pulmonary nodule detection, estimation of the cardiothoracic ratio CTR detection of cardiomegaly, pneumothorax detection, estimation of pneumoconiosis severity, interstitial disease detection, and detection of abnormalities found in mass screening for tuberculosis [1]. Cardiomegaly is a symptom of cardiac insufficiency. The number of people suffering cardiac insufficiency increases every year. In the USA there are about 260,000 deaths caused by cardiac insufficiency every year [6]. In Mexico, there are about 750,000 patients affected by cardiac insufficiency and the number of cases increases 10% per year [7]. More newer alternative methods of diagnosis are been developed [4,5,8-11], so that non experts in cardiology can make a reliable diagnosis and start a preventive treatment for patients who suffer cardiac insufficiency, until they are able to treat this condition with a cardiologist. Segmentation of the heart from chest radiographic images has been studied by several researchers, usually with the aim of detecting cardiomegaly (enlargement of the heart) [6,9-11]. Methods exist that employ local thresholding, region growing, edge detection, ridge detection, morphological operations, fitting of geometrical models or functions about the heart shape, dynamic programming, and the use of rule-based schemes [1,4,5,811]. On the other hand, several attempts have been made to classify each pixel in the image into an anatomical class, such as heart, mediastinum, diaphragm, lung or background. Neural networks or Markov random field modeling are used as classifiers of a variety of local features including intensity, location, and texture measures [1]. In this paper we present a robust fuzzy classifier to decide if a chest radiographic image has cardiomegaly or not. The proposed fuzzy algorithm is the focus of the paper and it is very robust in finding the correct feature values that are important to measure the heart enlargement in chest images to detect cardiomegaly. This algorithm corrects the false characteristic values obtained during the basic segmentation stage where Sobel edge detection and mathematical morphology algorithms are used. Recently, we demonstrated the robust properties of a similar fuzzy feature extraction algorithm used to detect Acute Lymphoblastic Leukemia [12]. For this reason, we decide to use in this paper the results of a basic segmentation stage to demonstrate that the proposed fuzzy classifier could potentially provide a robust solution and reliable diagnosis of cardiomegaly. Finally, we improve the classification results of the proposed fuzzy classifier method using the criteria of the New York Heart Association (NYHA) and the American College of Cardiology - American Heart Association (ACC-AHA) [13] on a Radial Basis Function (RBF) neural network [14].

đ??śđ??śđ??śđ??śđ??śđ??ś = (đ?‘…đ?‘… + đ??żđ??ż)â „đ?‘‡đ?‘‡

(1)

where R and L are the longest distances from the central vertical line (middle line of the chest) to the right and left heart boundaries, respectively, and T is the longest horizontal distance from the left to the right boundary of lung (see Fig. 1). The cardiothoracic ratio shows the relationship between the size of the heart and the size of the chest, if CTR is greater than 0.5, it indicates cardiomegaly in most of cases [4,6]. In order to assess the level of cardiac insufficiency or heart failure (HF), two classifications are commonly employed. One is based on symptoms and exercise capacity according to the New York Heart Association (NYHA) functional classification and American College of Cardiology - American Heart Association (ACC-AHA) classification describes the HF in stages based on structural changes and symptoms [13]. We can distinguish four classes of the NYHA classification (the severity is based on the symptoms and the physical activity), which are as follows: Class I. No limitation of physical activity. Ordinary physical activity does not cause undue fatigue, palpitation, or dyspnoea. Class II. Slight limitation of physical activity. Comfortable at rest, but ordinary physical activity results in fatigue, palpitation, or dyspnoea. Class III. Marked limitation of physical activity. Comfortable at rest, but less than ordinary activity results in fatigue, palpitation, or dyspnoea. Class IV. Unable to carry on any physical activity without discomfort. Symptoms at rest. If any physical activity is undertaken, discomfort is increased.

2. Methodology 2.1. Cardiac insufficiency

a) b) Figure 1. Measurement of heart size, a) incorrect measurement, and b) correct measurement. Source: The Authors

A cardiac insufficiency is defined as a clinical syndrome, in which anomalies in the heart structure (i.e. 36


Torres-Robles et al / DYNA 81 (186), pp. 35-41. August, 2014.

The ACC-AHA working group introduced four stages of HF (the stages of heart failure are based on structure and damage to heart muscle): Stage A. At high risk for developing heart failure. No identified structural or functional abnormality; no signs or symptoms. Stage B. Developed structural heart disease that is strongly associated with the development of heart failure, but without signs or symptoms. Stage C. Symptomatic heart failure associated with underlying structural heart disease. Stage D. Advanced structural heart disease and marked symptoms of heart failure at rest despite maximal medical therapy.

the diaphragm, ĎƒT(R,L) is the standard deviation of an ending pixel of the trachea, pD ( R , L ) is the average of a starting đ?‘ƒđ?‘ƒđ??ťđ??ť(đ?‘…đ?‘…,đ??żđ??ż) 1, ⎧ ⎪1 − đ?‘?đ?‘? + đ?‘?đ?‘?Ě…đ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) − đ?œŽđ?œŽđ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) , ⎪ 2đ?œŽđ?œŽđ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) = ⎨đ?‘?đ?‘? + đ?‘?đ?‘?Ě…đ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) − đ?œŽđ?œŽđ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) , ⎪ 2đ?œŽđ?œŽđ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) ⎪ ⎊0, đ?‘ƒđ?‘ƒđ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) ⎧1, ⎪đ?‘?đ?‘? − đ?‘?đ?‘?Ě…đ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) + đ?œŽđ?œŽđ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) = , 2đ?œŽđ?œŽđ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) ⎨ ⎪ ⎊0,

2.2. Proposed method Lung boundaries identification in a chest radiograph is a necessary step to detect abnormalities such as interstitial disease, pneumothorax, cardiomegaly, and pulmonary nodules [5-8]. The features that are important in the chest images to detect cardiomegaly in terms of CTR are: the chest size by finding the parameter T, the middle line localization of chest (vertebral column) to compute the distances L and R, and the heart size is obtained from the sum of L and R (see Eq. (1) and Fig. 1(b)). We also compute the distance between the middle line and the clavicles, this is used to validate if a chest radiograph is well taken, or on the contrary another radiograph should be taken (i.e., if the relative orientation of body changes with respect to the direction of the x-ray beams this can cause that a normal heart can have an apparently abnormal cardiac shadow in the resulting image making the calculated CTR measure incorrect). Fig. 2 presents the distances found between the middle line and the clavicles where to validate the radiography, the difference between the measurements of the right and left side of the middle line should be of Âą 8% . This value is obtained to analyzing different radiography images from our database according to the medical staff. Some problems are found in obtaining the maximum size of the heart because there is some ambiguity with respect to the measurement if this is part of the heart, the trachea or the diaphragm (see Fig. 1a to see an incorrect measurement). To solve this problem the implementation of a fuzzy system is proposed [15-18]. The fuzzy membership functions used to compute the fuzzy membership values are used for each side (right R and left L boundaries) of the heart about the middle line to describe if a pixel in the radiography is part of the chest using a data base of 11 images as follows, đ?‘ƒđ?‘ƒđ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) ⎧1, ⎪ đ?‘?đ?‘? + đ?‘?đ?‘?Ě… đ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) − đ?œŽđ?œŽđ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) = 1− , 2đ?œŽđ?œŽđ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) ⎨ ⎪ ⎊0,

ďż˝đ?‘?đ?‘?Ě… đ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) + đ?œŽđ?œŽđ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) ďż˝ ≤ đ?‘?đ?‘? ≤ ďż˝đ?‘?đ?‘?Ě…đ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) − đ?œŽđ?œŽđ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) ďż˝

ďż˝đ?‘?đ?‘?Ě…đ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) − đ?œŽđ?œŽđ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) ďż˝ < đ?‘?đ?‘? < ďż˝đ?‘?đ?‘?Ě…đ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) + đ?œŽđ?œŽđ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) ďż˝ ďż˝đ?‘?đ?‘?Ě… đ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) − đ?œŽđ?œŽđ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) ďż˝ < đ?‘?đ?‘? < ďż˝đ?‘?đ?‘?Ě… đ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) + đ?œŽđ?œŽđ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) ďż˝ đ?‘œđ?‘œđ?‘œđ?‘œâ„Žđ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’

(3)

đ?‘?đ?‘? ≼ ďż˝đ?‘?đ?‘?Ě…đ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) + đ?œŽđ?œŽđ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) ďż˝

ďż˝đ?‘?đ?‘?Ě…đ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) − đ?œŽđ?œŽđ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) ďż˝ < đ?‘?đ?‘? < ďż˝đ?‘?đ?‘?Ě…đ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) + đ?œŽđ?œŽđ??ˇđ??ˇ(đ?‘…đ?‘…,đ??żđ??ż) ďż˝

đ?‘œđ?‘œđ?‘œđ?‘œâ„Žđ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’

(4)

pixel of the diaphragm, pT ( R , L ) is the average of an ending pixel of the trachea, PT(R,L), PH(R,L), and PD(R,L) are the membership values of trachea, heart, and diaphragm, respectively. These parameters are computed for each side (right R and left L boundaries) of the heart about the middle line, and p is the horizontal measure from the boundaries of the R and L distances about the middle line. To provide more robustness to the proposed method, the membership function Similar (Eq. (5)) is used to evaluate if the longest distance R and L found are correct measurements or not (i.e., if the measurement is part of the heart or part of another area such as the diaphragm or trachea). The

đ?‘?đ?‘? ≤ ďż˝đ?‘?đ?‘?Ě… đ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) − đ?œŽđ?œŽđ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) ďż˝

ďż˝đ?‘?đ?‘?Ě… đ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) − đ?œŽđ?œŽđ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) ďż˝ < đ?‘?đ?‘? < ďż˝đ?‘?đ?‘?Ě… đ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) + đ?œŽđ?œŽđ?‘‡đ?‘‡(đ?‘…đ?‘…,đ??żđ??ż) ďż˝

đ?‘œđ?‘œđ?‘œđ?‘œâ„Žđ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’

(2)

where ĎƒD(R,L) is the standard deviation of a starting pixel of 37

Figure 2. Validation of chest radiography, a) Distances found from the middle line to clavicles, b) Erosion to find the right clavicle, and c) Erosion to find the left clavicle. Source: The Authors


Torres-Robles et al / DYNA 81 (186), pp. 35-41. August, 2014.

the proposed algorithm. The stages of proposed method are given as follows: a) Preprocessing. Chest radiographies display a wide dynamic range of X-ray intensities. In unprocessed images it is often hard to obtain data from the mediastinum because the contrast in the lung fields is limited. A solution to this kind of problem in image processing is the use of local histogram equalization methods [1]. Histogram equalization adjustment is used to enhance contrast of the processed radiographic image [19,20]; which achieved similar contrast in all images and agreed to the best result obtained with the segmentation algorithm. Fig. 3(a)-3(b) presents an original chest image and the processed image using the histogram equalization method where one can see that this image is enhanced. b) Segmentation. Mathematical morphology algorithms are used to skeletize the pre-processed images [19]. Fig. 3(c)-(d) illustrates these processes in order to find the middle line of the chest, erosion is made with a rectangular structural element of 5xm pixel size, where m is the vertical size of the image. The resulting image is shown in Fig. 3(e). A similar process is used to compute the distance between the middle line and the clavicles to validate if a chest radiograph is well taken before finding the middle line of the chest. In this case, erosion is performed with a rectangular structural element of 2x3 pixel size, Fig. 2(b)-(c) shows the results of this erosion in both clavicles. Also, in the preprocessed image, thresholding is needed before Sobel edge detection (Fig. 3(f)) to highlight the heart in the pre-processed image and to eliminate the ribs to obtain the heart boundaries (parameters R and L defined previously) of Fig. 3(g)-(h). c) Feature extraction. From the segmentation results we are able to find the middle line of the chest, the heart size (R and L distances), and the chest size (T distance). The middle line of the chest is computed by finding the middle line of the white block of Fig. 3(e) to obtain the black line of the image of Fig. 3(i). When this line is found we can obtain the longest R and L distances (using an array containing different measures of R and L distances) by counting the distance that exists between the middle line and the right and left boundaries of heart using Fig. 3(g)-(h). We also compute the distance between the middle line and clavicles applying a similar procedure using the images of Fig. 2(b)-(c). The chest size is now found as the longest distance between the right and left chest boundaries. Measurements of the middle line and the chest size are achieved successfully. Fig. 3(i) shows these measurements. d) Fuzzy rules. We need to validate the longest R and L distances by using the fuzzy membership functions shown in equations (2) to (4) to evaluate whether these distances are significant measurements or not. Fig. 1(a) depicts a non significant measurement where this distance includes a part of the diaphragm, to avoid this problem we apply the following steps: 1) Find the longest value of R and L distances and the pixel pertinence (whether it is or not a part of the heart) of the distance values from the array that contains the measures

membership fuzzy value Similar indicates if this is strongly related or not to the heart area. Moreover, this fuzzy value will help to discover if there is an abrupt growth of the measurements, meaning that the measurements go through the heart area to the diaphragm area. �������������� = �

đ?‘Žđ?‘Ž(đ?‘…đ?‘…,đ??żđ??ż) + 1, 0 ≤ đ?‘Žđ?‘Ž(đ?‘…đ?‘…,đ??żđ??ż) ≤ 10 10 0, đ?‘œđ?‘œđ?‘œđ?‘œâ„Žđ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’ −

(5)

where a is the pixel difference between the longest found distance measurement and the longest distance in the heart area where the membership value is equal to 1 computed for each side (right R and left L boundaries) of the heart about the middle line. Using the Similar and PH(R,L) membership functions values, the algorithm is able to decide if the longest distance is a measure of the heart or not. The designed fuzzy rule makes the decision as follows: IF đ?‘?đ?‘? IS â„Žđ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’ OR đ?‘Žđ?‘Ž IS đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘† THEN đ?‘?đ?‘? IS đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?

(6)

1, đ?‘?đ?‘? ≼ 0.8 đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘? = ďż˝ 0, đ?‘œđ?‘œđ?‘œđ?‘œâ„Žđ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’

(7)

đ?‘?đ?‘? = ďż˝0.2đ?‘ƒđ?‘ƒđ??ťđ??ť(đ?‘…đ?‘…,đ??żđ??ż) + đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†ďż˝ − ďż˝0.2đ?‘ƒđ?‘ƒđ??ťđ??ť(đ?‘…đ?‘…,đ??żđ??ż) ∙ đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†ďż˝

(8)

where OR connective is the fuzzy union representation and b is a membership value of the correct fuzzy set computed as,

( y = a + b − a ⋅ b)

where b ≼ 0.8 was experimentally chosen to provide the robustness needed to improve the accuracy of the heart size measurement. Algebraic form of fuzzy rule (6) is as follows:

where the heart membership value PH(R,L) is multiplied by 0.2 to decrease the effect it has on the decision, 0.2 value is found to empirically agree to the best detection results. The membership function (7) of the correct fuzzy set indicates the membership level of the measurement obtained from the fuzzy rule to determine the heart size in an accurate form, if the membership value obtained is 0, it indicates that a new measurement should be taken, and the algorithm has to evaluate if the new measurement taken has a membership value of 1 to determine if the measure belongs to the heart. Problems encountered in the feature extraction of the heart size are solved using (7) and the results are shown in Fig. 1, where the measurement obtained without implementing a fuzzy method (see Fig. 1(a)) for measuring of the right side of the heart is incorrect because it does not belong to the heart. After applying the fuzzy method (see Fig. 1(b)) the system found the correct measurement of the right heart size. 3. Results 3.1. Segmentation results Several chest image radiographies are obtained from a Mexican medical data base (200 images) to train and test 38


Torres-Robles et al / DYNA 81 (186), pp. 35-41. August, 2014.

of R and L distances. 2) Evaluate the R and L distances using the correct fuzzy set. If correct=0, the measurement is incorrect and the algorithm evaluates the following distance taken from the distance array up to find a distance and a pixel that corresponds to a result of correct=1. It indicates that the measurement represents the longest distance between the middle line and the heart boundaries (R and L distances). a. Classification. The CTR is computed using the T and the correct (R, L) measurements found by the proposed fuzzy method, with these results we obtain the performance of proposed method using the condition CTR > 0.5, this indicates that the chest radiograph image has cardiomegaly, otherwise, it does not.

results that are not correct, TN is the number of negative results that are correct and FP is the number of false positives, that is, the positive results that are not correct. Table 1 shows some numerical values results obtained from the measure of cardiothoracic ratio using a simple comparative method without fuzzy logic and the proposed fuzzy method. The variable CTRT shows the true (manual) measure obtained from the chest radiography, Tt indicates the true classification value, CTRC and CTRF indicates the measure values obtained with the comparative and proposed fuzzy method, respectively, in terms of correct (c) and wrong (w) classifications, and in terms of medical purposes. The procedure of comparative method is performed using a fixed region in the image and assuming that it is a heart region, and obtaining the maximum distance as if this was the correct measurement of the heart size. The fuzzy method is implemented using the whole image and it is evaluated whether the longest distance found is the correct measurement of the heart. Analyzing the results of Table 1, the proposed fuzzy method is able to provide a good CTR classification and to fix the measured errors produced during the segmentation stage outperforming the results of comparative method. Table 2 shows the sensitivity and specificity values obtained from the proposed fuzzy method and the comparative method without fuzzy logic (COMP) in the determination of cardiomegaly. We can observe that the specificity of the proposed method outperforms the comparative method. In the case of sensitivity, the comparative method has better performance in comparison with the proposed fuzzy method.

3.2. Fuzzy classifier results

The performance of the proposed fuzzy method is evaluated in terms of medical purposes, we compute the sensitivity and specificity [4,8,9,11,12]. Sensitivity is the probability that a medical test delivers a positive result when a group of patients with certain illness is under study, and specificity is the probability that a medical test delivers a negative result when a group of patients under study do not have certain illness, both sensitivity Sn and specificity Sp are represented as: đ?‘†đ?‘†đ?‘†đ?‘† = đ?‘‡đ?‘‡đ?‘‡đ?‘‡â „(đ?‘‡đ?‘‡đ?‘‡đ?‘‡ + đ??šđ??šđ??šđ??š)

đ?‘†đ?‘†đ?‘†đ?‘† = đ?‘‡đ?‘‡đ?‘‡đ?‘‡â „(đ?‘‡đ?‘‡đ?‘‡đ?‘‡ + đ??šđ??šđ??šđ??š)

(9) (10)

3.3. Neuro-fuzzy classifier results

where TP is the number of true positive that are correct, FN is the number of false negatives, that is, the negative

Table 1. Comparative classification results in terms of cardiothoracic class is the classification. Chest images # CTRT Tt CTRC class CTRF 1 0.450 false 1.000 w - FP 0.427 2 0.396 false 0.418 c - TN 0.379 3 0.402 false 0.644 w - FP 0.396 4 0.350 false 0.353 c - TN 0.336 5 0.432 false 1.000 w - FP 0.396 6 0.444 false 0.447 c - TN 0.408 7 0.571 true 0.760 c - TP 0.558 8 0.584 true 0.885 c - TP 0.595 9 0.350 false 0.352 c - TN 0.349 10 0.372 false 0.536 w - FP 0.383 11 0.391 false 0.625 w - FP 0.380 12 0.552 true 0.648 c - TP 0.530 13 0.357 false 0.578 w - FP 0.414 14 0.402 false 0.618 w - FP 0.411 15 0.450 false 0.684 w –FP 0.455 16 0.540 true 0.537 c - TP 0.510 17 0.719 true 0.724 c - TP 0.724 18 0.510 true 0.931 c - TP 0.474 19 0.843 true 0.912 c - TP 0.833 20 0.729 true 0.903 c - TP 0.743 21 0.509 true 0.509 c - TP 0.489 22 0.523 true 0.525 c - TP 0.506 23 0.675 true 0.676 c - TP 0.676 . . . . . . . . . . . . . . . . . . 80 0.530 true 0.529 c - TP 0.547 Source: The Authors

Figure 3. Experimental results, a) Original chest image, b) Processed image with histogram equalization method, c) Processed image with morphological operators, d) Skeletization of the image, e) Erosion to find the middle line, f) Edge detection, g) Right border of heart, h) Left border of heart, and i) Measurement of middle line and chest size. Source: The Authors 39

ratio where class c - TN c - TN c - TN c - TN c - TN c - TN c - TP c - TP c - TN c - TN c - TN c - TP c - TN c - TN c - TN c - TP c - TP w -FN c - TP c - TP w -FN c - TP c - TP . . . c - TP


Torres-Robles et al / DYNA 81 (186), pp. 35-41. August, 2014.

detection technique with feature analysis [9]. A method based on image filtering with convolution masks, segmentation with thresholding and edge detection achieves an accuracy of 90.5% with a sensitivity of 83.3% and a specificity of 93.3% [11]. Our proposed fuzzy approach provides an accuracy of 93.65% of correct detection (see the error of Table 2) and 93.85% and 100.00% of sensitivity and specificity, respectively. From this comparative we can see that the performance of the proposed fuzzy method provides the best results in terms of accuracy, sensitivity, and specificity in comparison with other methods in most of cases. An advantage of the proposed approach is that it uses classical morphology operations to segment the lungs providing low computational complexity and the proposed fuzzy method is robust to find the correct measures of CTR providing fast computation because the fuzzy rules use elementary arithmetic operations and have a good performance in the detection of cardiomegaly. Finally, the proposed fuzzy logic-neural networks (FRBF NYHA and FRBF ACC-AHA) improve the results of the proposed fuzzy logic based method (see Table 2) and outperform other ones published in recently literature [4,8,9,11] by balancing the tradeoff between accuracy, sensitivity, and specificity.

Table 2. Experimental results in the determination of CTR to detect cardiomegaly where σ is the standard deviation and ε es el error. Method Sn (%) Sp (%) ε (%) σ COMP 100.00 33.33 33.33 0.1713 Fuzzy 93.85 100.00 6.35 0.0212 Source: Authors

Table 3. Experimental results in the detection of cardiomegaly using an RBF neural network. Method Sn (%) Sp (%) ε (%) FRBF NYHA 96.17 100.00 5.88 FRBF ACC-AHA 98.79 96.38 4.62 Source: The Authors

To improve the results of the proposed fuzzy method (see Table 2), we use two different Radial Basis Function (RBF) neural networks [12] where the inputs of the first network are given by the clinical data of patients given under the New York Heart Association (NYHA) classification based on the functional incapacity degree of patient (i.e. physical activity) and the second classification with the American College of Cardiology-American Heart Association (ACC-AHA) based on a pre-diagnostic of patient (i.e. structural abnormality) [6,13]. Additionally, the parameters found in the fuzzy logic algorithm are added as inputs in the RBF networks. Table 3 shows that the proposed fuzzy logic-neural networks (Fuzzy-RBF NYHA and Fuzzy-RBF ACC-AHA) improve the results of accuracy, sensitivity, and specificity values of the proposed fuzzy logic based method (see Table 2).

5. Conclusions The proposed fuzzy and fuzzy – RBF neural networks are able to detect cardiac insufficiency in terms of cardiomegaly. The proposed methods have demonstrated better classification of chest parameters and detection of cardiomegaly in comparison with the traditional method and others published in literature in terms of accuracy, sensitivity, and specificity. Analyzing chest radiographies by means of use of fuzzy logic and RBF neural networks are possible and can be used as an alternative diagnosis test using the proposed algorithms.

4. Discussions There are several similar researches on cardiomegaly detection in the literature [4,8,9,11], we compared our approach with some of them. It has been proved that a correct segmentation of the lung fields is enough to compute the CTR indicative of cardiomegaly, since parts of the boundaries of the lung fields coincide with the heart contour [1]. For this reason we take the lung segmentation results of two methods to compare our proposal in terms of accuracy, sensitivity, and specificity. In paper [8] the authors present a knowledge-based approach to segmentation and analysis of the lung boundaries in chest X-rays. The image edges are matched to an anatomical model of the lung boundary using parametric features to find the CTR, this system shows a sensitivity of 88% and a specificity of 95% [8]. Another technique presents a novel segmentation method that extracts cardiac and thoracic boundaries with respect to the regions of interest from radiography images providing robustness in noisy environments like chest radiographies. In this technique, the accuracy of segmentation is 98.53% with standard deviation of 0.52, and the sensitivity and specificity are measured as 93.37% and 98.21%, respectively [4]. Other methods after finding the lung segmentation compute the CTR. An accuracy of 94.9% is obtained in a method based on gray-level histogram analysis and an edge

Acknowledgments The work is supported by Instituto Politécnico Nacional de México (National Polytechnic Institute of Mexico) and CONACYT (National Council on Science and Technology of Mexico). References

40

[1]

van Ginneken, B., ter Haar Romeny, B.M. and Viergever, M.A., Computer-Aided Diagnosis in chest radiography: A Survey. IEEE Transactions on Medical Imaging, 20 (12), pp. 1228-1241, 2001.´

[2]

van Ginneken, B., Hogeweg, L. and Prokop, M., Computer-aided diagnosis in chest radiography: Beyond nodules, European Journal of Radiology, 72, pp. 226–230, 2009.

[3]

Jannin, P., Fitzpatrick, J.M., Hawkes, D.J., Pennec, X., Shahidi, R. and Vannier, M.W., Validation of medical image processing in image-guided therapy. IEEE Transactions on Medical Imaging, 21 (12), pp. 1455–1449, 2002.

[4]

Hasan, M.A., Lee, S.L., Kim, D.H. and Lim, M.K., Automatic evaluation of cardiac hypertrophy using cardiothoracic area ratio in


Torres-Robles et al / DYNA 81 (186), pp. 35-41. August, 2014. chest radiograph images, Computer Methods and Programs in Biomedicine, 105 (2), pp. 95-108, 2012. [5]

[15] Torres-Robles, F., Gallegos-Funes, F.J. and Rosales-Silva, A.J., Fuzzy feature extraction in image radiographies to detect cardiac insufficiency, IEEE 2nd Workshop Circuits and Systems for Medical and Environmental Applications, CASME, Merida, Mexico, pp. 1-4, 2010.

van Ginneken, B., Stegmann, M.B. and Loog, M., Segmentation of anatomical structures in chest radiographs using supervised methods: A comparative study on a public database, Medical Image Analysis, 10, pp. 19-40, 2006.

[6]

Jamroży, M., Leyko, T. and Lewenstein, K., Early detection of the cardiac insufficiency, in Recent advances in mechatronics, Berlin, Springer, 2010, pp. 407-411.

[7]

Cordova, J., Lee, G., Hernandez, M., Aguilar, C., Barriguete, J. and Kuri, P., Clinical prevention of chronic diseases: Overweight, diabetes mellitus and cardiovascular risk, Mexican Journal of Cardiology, 20 (1), pp. 42-45, 2009.

[16] Bankman, I., Handbook of medical image processing and analysis Volume 1. Boston: Academic Press, 2008. [17] Kerre, E.E., Fuzzy techniques in image processing. Berlin: Springer, 2000. [18] Goncalves, M., Rodríguez, R. and Tineo, L. Formal method to implement fuzzy requirements. DYNA, 79 (173), pp. 15-24, 2012. [19] Gonzalez, R.C., Digital image processing using Matlab. New York: Prentice Hall, 2003.

[8]

Brown, M.S., Wilson, L.S., Doust, B.D., Gill, R.W. and Sun, C., Knowledge-based method for segmentation and analysis of lung boundaries in chest X-ray images, Computerized Medical Imaging and Graphics, 22, pp. 463–477, 1998.

[20] Kinani, J.M.V., Gallegos-Funes, F.J., Rosales-Silva, A.J. and Arellano, A., Computer-aided diagnosis of brain tumors using image enhancement and fuzzy logic. DYNA. 81 (183), pp. 148-157, 2014.

[9]

Ishida, T., Katsuragawa, S., Chida, K., MacMahon, H. and Doi, K., Computer-aided diagnosis for detection of cardiomegaly in digital chest radiographs, Proceedings of SPIE 5747 Medical Imaging 2005: Image Processing, pp. 914-920, 2005.

F. Torres-Robles, received the MSc. degree in electronic engineering from National Polytechnic Institute of Mexico in 2011. His areas of scientific interest are image processing and fuzzy logic.

[10] Kulkarni, D.A. and Dere, P.U., Characterization of cardiomegaly disease from X-ray images using mean shift based image segmentation, International Conference on Contours of Computing Technology, ThinkQuest 2010, pp. 133-137, 2010.

A.J. Rosales-Silva, received the PhD. degree in communications and electronics from National Polytechnic Institute of Mexico in 2008. He is currently an Associate Professor in the Mechanical and Electrical Engineering Higher School from the same institute. His areas of scientific interest are image processing, filtering, pattern recognition, and real-time applications.

[11] Ilovar, M. and Sajn, L., Analysis of radiograph and detection of cardiomegaly, IEEE Proceedings of the 34th International Convention MIPRO 2011, pp. 859 – 863, 2011. [12]

F.J. Gallegos-Funes, received the PhD. degree in communications and electronics from National Polytechnic Institute of Mexico in 2003. He is currently an Associate Professor in the Mechanical and Electrical Engineering Higher School from the same institute. His areas of scientific interest are signal and image processing, filtering, steganography, pattern recognition, and real-time applications.

Ordaz-Gutierrez, S., Gallegos-Funes, F.J., Rosales-Silva, A.J., Carvajal-Gamez, B.E. and Mujica-Vargas, D., Diagnosis of acute lymphoblastic leukemia using fuzzy logic and neural networks, Imaging Science Journal, 61 (1), pp. 57-64, 2013.

[13] Dickstein, K., Cohen-Solal, A., Filippatos, G., McMurray, J.J.V., Ponikowski, P., Poole-Wilson, P.A., Strömberg, A., van Veldhuisen, D.J., Atar, D., Hoes, A. W., Keren, A., Mebazaa, A., Nieminen, M., Priori, S. G. and Swedberg, K., ESC Guidelines for the diagnosis and treatment of acute and chronic heart failure 2008. European Heart Journal, 29, pp. 2388-2442, 2008.

I. Bazán-Trujillo, received the PhD. degree in electrical engineering from Center for Research and Advanced Studies of Mexico in 2009. She is currently an Associate Professor in the Mechanical and Electrical Engineering Higher School. Her areas of scientific interest are biological signal and image processing, sensors and actuators.

[14] Moreno-Escobar, J.A., Gallegos-Funes, F.J., Ponomaryov, V. and de-la-Rosa-Vazquez, J.M., Radial basis function neural network based on order statistics. Lecture Notes in Computer Science, 4827, pp. 150-160, 2007.

41


Three-dimensional oil spill transport and dispersion at sea by an event of blowout Luis Otero-Díaz a, Jorge O. Pierini b, Paulo Chambel-Leitao c, Madalena Malhadas d, Joao Ribeiro e, Jose Chambel-Leitao f & Juan Restrepo g Departamento de Física, Universidad del Norte, Colombia. ljotero@uninorte.edu.co b CIC-CCT BB, Universidad Nacional del Sur, Argentina. jpierini@criba.edu.ar c HIDROMOD, Portugal. paulo.chambel@hidromod.com d HIDROMOD, Portugal. madalena.malhadas@hidromod.com e HIDROMOD, Portugal. joao.ribeiro@hidromod.com f HIDROMOD, Portugal. jose.chambel@hidromod.com g Departamento de Física, Universidad del Norte, Colombia. restrepojc@uninorte.edu.co a

Received: Abril 25th, 2013. Received in revised form: March 27th, 2014. Accepted: June 5th, 2014.

Abstract The simulated droplet trajectories of the 3-D model at the Caribbean platform showed that droplets with a diameter of 50 µ m formed a distinct subsurface plume, which was transported horizontally and could remain below the surface. This plume could have a very restricted area of impact because the dispersion is only controlled by the ocean currents which, at 1000 m depth, have a low intensity and are quite turbulent. In this case, the formed plume stayed trapped at 1000 m depth, not posing a risk to the Caribbean Coast. In contrast, droplets with diameters of 250 µ m , 1 and 10 mm rose rapidly to the surface, even with different velocities (6, 10, 20 ms-1).. Keywords: Blowout; hydrodynamic; spread; oil spill.

Transporte y dispersión tridimensional de un derrame de petróleo en el mar debido a un evento "blowout" Resumen Las trayectorias de las gotas simuladas con el modelo 3-D de dispersión de petróleo en la plataforma del mar Caribe colombiano mostraron que las gotas con diámetro de 50 µ m , forman una pluma subsuperficial, la cual es transportada horizontalmente y puede permanecer debajo de la superficie por largo tiempo. Esta pluma podría tener un impacto muy restringido, porque la dispersión es controlada solamente por las corrientes oceánicas, las cuales a 1000 metros de profundidad, tienen baja intensidad y son poco turbulentas. En este caso, la pluma formada permanece atrapada a 1000 metros de profundidad, no poniendo en riesgo la costa Caribe. En contraste, las gotas con diámetros de 250 µ m , 1mm y 10 mm, se elevaron rápidamente a la superficie, aun con diferentes velocidades (6, 10, 20 ms-1). Palabras clave: Blowout; hidrodinámica; dispersión; mancha de petróleo.

1. Introducción Generalmente, el transporte y la dispersión del petróleo derramado en la superficie del mar son gobernados por los procesos físicos, químicos, y biológicos que dependen de las condiciones hidrodinámicas, meteorológicas y de las características ambientales del hidrocarburo [1]. Estos procesos, que influencian la dinámica del transporte del crudo

derramado, incluyen la advección, la difusión turbulenta, la dispersión superficial, la evaporación, la disolución y la emulsificación. Cuando el petróleo se derrama en la superficie del mar, se dispersa y forma una película fina llamada mancha de petróleo [2]. Por lo tanto, los modelos de derrames de petróleo juegan un papel importante en la evaluación de los riesgos e impactos sobre los recursos naturales debido a derrames, tanto reales como potenciales. También son útiles

© The author; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 42-50. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Otero-Díaz et al/ DYNA 81 (186), pp. 42-50. August, 2014.

realización de este tipo de análisis. Tradicionalmente se utilizan aproximaciones 2D, para evaluar las trayectorias de derrame de hidrocarburos, tal y como ocurrió en la mayoría de evaluaciones realizadas del derrame en el Golfo de Méjico. Uno de los pocos trabajos que han sido realizados en esta región es el de [13]. Estos autores utilizan para la evaluación de las trayectorias 3D aproximaciones probabilísticas basadas en técnicas de Montecarlo. Esta aproximación presenta inconvenientes ya que parametriza algunos procesos físicos, dejando de lado fenómenos no lineales que pueden ser importantes en la dinámica oceanográfica. Por el contrario, en el presente trabajo, la dinámica 3D es tomada en cuenta de forma continua durante las simulaciones numéricas, generando una situación más realista y acorde con las condiciones oceanográficas presentes en la zona de estudio. Para ello fue implementado un algoritmo especial en el modelo, que permite en cada paso del tiempo la interacción entre la dinámica de corrientes 3D y las partículas de petróleo.

para el desarrollo de estrategias en la planificación y respuesta ante emergencias por accidentes que involucran el vertido de hidrocarburos en el mar [3]. En la actualidad existe un gran número de modelos disponibles para la simulación de derrames de petróleo, sin embargo la mayoría de ellos utilizan aproximaciones semiempíricas [4,5], para el seguimiento de la mancha de petróleo, para la evaluación de la evaporación y para el cálculo de las pérdidas de masa del hidrocarburo debido a su interacción con el medio [6]. La nueva generación de modelos tiene la capacidad de predecir el arrastre, el transporte subsuperficial y la resuspensión del vertido de petróleo en la columna de agua [7,8]. En las últimas tres décadas, muchos investigadores han estudiado los procesos de transporte y destino de los derrames de petróleo en el mar, basados en el método de trayectorias [1,9-10]. Usualmente, este tipo de modelos han sido bidimensionales y emplean parámetros constantes y/o variables que integran el efecto del viento y de las velocidades de las corrientes, para calcular la velocidad de la mancha de petróleo en la superficie del agua [3]. Muchos de estos modelos de derrame de hidrocarburos se centran en el movimiento que tiene la mancha de petróleo en la superficie, utilizando aplicaciones tradicionales para describir la dispersión en el plano horizontal [2]. Diferentes estudios basados en datos de campo, laboratorio y modelación [10,11] han demostrado claramente la importancia de la dimensión vertical en la dinámica del petróleo. Estos estudios han comprobado que el movimiento natural del petróleo no solo juega un rol importante en el cálculo del balance de masas, sino también en la determinación de la distribución espacial y temporal del petróleo en la superficie del mar [3]. Han sido pocos los trabajos de investigación que se han publicado sobre la distribución vertical del petróleo en la columna de agua, pero se sabe que las gotas de mayor flotabilidad pasan más tiempo en las capas superficiales y son advectadas aún más debido a las corrientes superficiales que las gotas más pequeñas [2,12]. La difusión de la mancha de petróleo es entonces un proceso tridimensional (3-D) que es controlado por la distribución del tamaño de la gota de petróleo y por los procesos de difusión de corte [2,12]. En este caso de estudio, el modelo MOHID se aplicó a la región de la Costa Caribe de Colombia para simular un derrame de petróleo asociado con un escenario de “Blowout” a 1500 m de profundidad. Para esta modelación, ha sido desarrollado y aplicado un algoritmo discreto de partículas Lagrangianas para simular el movimiento vertical de las gotas de petróleo en la columna de agua. Esta aplicación es en tres dimensiones y consiste en la predicción de la mezcla vertical de las gotas de petróleo en el tiempo, suponiendo diferentes tamaños de diámetro de las mismas. El objetivo de este estudio es el de comprender y evaluar el impacto de un derrame de petróleo en áreas protegidas a lo largo de la Costa Caribe Colombiana (Parque Nacional Natural Corales del Rosario y San Bernardo), por lo que es importante contar con un enfoque del modelo en 3-D Este tipo de estudios no son comunes, por el grado de dificultad y complejidad de los procesos involucrados. Para el Caribe Colombiano, hasta el momento, no se conoce sobre la

2. Modelo Matemático Para el desarrollo del presente trabajo, se aplicó en el área de estudio el Sistema de Modelado MOHID, que es una herramienta integrada de modelación para sistemas acuáticos, tanto fluviales como marinos. En la Fig. 1, se presenta un esquema de la estructura del sistema MOHID para simular los derrames de petróleo. El módulo hidrodinámico de MOHID calcula y actualiza el flujo de información a partir de la solución de las ecuaciones primitivas de Navier-Stokes en el espacio tridimensional para fluidos incompresibles. Una descripción detallada del modelo se encuentra en [14]. La información hidrodinámica (corrientes y niveles) necesaria para calcular las trayectorias del petróleo es entonces transferida al modelo de transporte Lagrangiano, el cual calcula su evolución espacial utilizando esta información [15]. El módulo de envejecimiento del petróleo, originalmente desarrollado por [16], utiliza las variables del módulo hidrodinámico y del módulo de transporte Lagrangiano, para calcular la densidad, la viscosidad, y los procesos de envejecimiento del hidrocarburo. Específicamente para este estudio fue incorporado un nuevo componente vertical de la velocidad de las partículas de petróleo, basado en la formulación presentada por [2]. La velocidad de las gotas de petróleo está determinada por su tamaño, viscosidad del agua de mar y la diferencia de densidades del agua de mar y del tipo de hidrocarburo vertido [2]. El diámetro crítico de las gotas de petróleo es calculado mediante la siguiente formula [17]:

dc =

9.52υ 2 3

(1)

g 1 3 (1 − ρo ρ w )

13

d d

Para gotas de petróleo de diámetro pequeño i < c , la ley de Stokes, proporciona la velocidad de boyancia estacionaria:

= uLS gdi2 (1 − ρo ρ w ) 18υ 43

(2)


Otero-Díaz et al/ DYNA 81 (186), pp. 42-50. August, 2014.

Datos Batimétricos

Datos Hidrodinámicos

Sistema MOHID

Módulo Hidrodinámico

Módulo Lagrangiano

Módulo de Petróleo

Características del petróleo derramado (volumen, densidad, tipo, punto local de derrame, etc.)

Evolución de la posición, propiedades y procesos de la mancha de petróleo: -Posición geográfica -Área -Volumen -Grosor -Densidad -Viscosidad -Evaporación -Dispersión -Emulsificación -Sedimentación -Disolución -Dispersión química

Condiciones ambientales (propiedades del agua, estado del mar, condiciones atmosféricas)

Figura 1. Diagrama esquemático del funcionamiento del modelo de pronóstico de evolución de hidrocarburos. Fuente: Los autores.

d

d

Para gotas de petróleo de mayor diámetro i ≥ c , la ley de Reynolds proporciona la velocidad de boyancia estacionaria:

8 gdi (1 − ρo ρ w ) 3

= uLR Donde

υ

(3)

es la viscosidad del agua de mar, g la

ρ

ρ

aceleración de la gravedad, mientras que o y w son la densidad del petróleo y del agua de mar, respectivamente. La velocidad de ascenso vertical de las gotas de petróleo pueden tener diferentes órdenes de magnitud dependido de los diámetros (e.g. para 30 y 300 μm les corresponden 0.06 y 6 m ms-1, respectivamente, según las ecuaciones 1, 2 y 3). Estas velocidades verticales controlan fundamentalmente si las gotas de petróleo alcanzan o no la superficie, si ellas forman plumas superficiales (o subsuperficiales), y determinan la extensión y dirección de la dispersión horizontal en las diferentes capas de la columna de agua. Para el tipo de petróleo considerado en este trabajo (densidad = 920 kg m-3), y suponiendo una densidad del agua de 1030 kg m-3, el diámetro crítico es de 210 μm (Fig. 2). Las velocidades para los diámetros inmediatamente por encima del crítico son del orden de 2.5 cm s-1, e inmediatamente por debajo del orden de 2.5 m ms-1. Además, las velocidades verticales de las corrientes en esta área y a esta profundidad (1000 a 1500 m) varían entre 0.55 m ms-1. Esto significa que las gotas con un diámetro inferior al crítico, tendrían velocidades más bajas o del mismo orden de magnitud que las velocidades de las corrientes verticales, y por consiguiente tendrán la tendencia a ser dispersadas, principalmente debido a la acción de las corrientes oceánicas a través de las diferentes capas en la

Figura 2. Velocidad vertical de las gotas de petróleo en función de su −3

diámetro para un tipo de hidrocarburo con densidad de 920 kgm [2]. Fuente: Los autores.

columna de agua. Las gotas con un diámetro superior al diámetro crítico tendrán velocidades superiores a las velocidades de las corrientes y alcanzarán por consiguiente la superficie rápidamente. 3. Aplicación del modelo de derrame en el Mar Caribe En esta sección se efectúa una descripción de la implementación llevada a cabo en la región del mar Caribe de Colombia del modelo de derrame de petróleo en 3-D. La descripción incluye la configuración, adaptación y puesta en funcionamiento de los modelos hidrodinámicos y del modelo de trazadores Lagrangianos, así como de las simulaciones realizadas. Esta aplicación en 3-D sigue una metodología similar a la presentada por [12] para el "derrame de Deepwater Horizon" en el Golfo de Méjico en abril de 2010. El principal objetivo de la implementación del modelo de derrames de hidrocarburos en 3-D es para ilustrar el 44


Otero-Díaz et al/ DYNA 81 (186), pp. 42-50. August, 2014.

comportamiento en tres dimensiones de la pluma de petróleo en función de la dimensión de las gotas de crudo. La idea con esta aproximación es validar la hipótesis implícita del enfoque en 2-D, consistente en que la pluma se eleva muy rápido hacia la superficie (del orden de minutos o pocas horas), para un determinado tamaño de las gotas de petróleo. Otro de los objetivos que se persigue es presentar una metodología sencilla [18] para reducir la escala (temporal y espacial) de los campos oceanográficos y meteorológicos a soluciones de baja frecuencia (alta resolución temporal), como los que proporciona el Sistema de Pronóstico Oceánico en Tiempo Real (RTOFS, por sus siglas en inglés) (http://polar.ncep.noaa.gov/ofs/) o MyOcean (http://www.myocean.eu.org/). [18].

3.2.1. Batimetría

3.1. Área de estudio

La información meteorológica y oceanográfica empleada para la puesta a punto de los modelos numéricos incluye vientos, flujos de superficie, corrientes, salinidad, temperatura y olas. El viento y los flujos de superficie (temperatura del aire, humedad, presión, radiación solar, etc) para el forzamiento atmosférico, fueron obtenidos de la base de datos globales de viento de la NASA (http://worldwind.arc.nasa.gov/) y del Sistema de Pronósticos Globales (GFS, por sus siglas en ingles http://nomads.ncdc.noaa.gov/). Los datos de la NASA y de las salidas del sistema GFS tienen 0.22° y 0.5° de resolución

La información batimétrica para la construcción de las mallas de cálculo que serán utilizadas por los modelos numéricos en este estudio, fue obtenida de la base de datos global de batimetrías GEBCO (General bathymetric chart of the Oceans - http://www.ngdc.noaa. gov/mgg/gebco/) y de batimetrías de las cartas náuticas locales levantadas por la Dirección General Marítima (DIMAR) de Colombia. Las principales características batimétricas son presentadas en la tabla 1 y los dominios computacionales de los modelos en la Fig. 4. 3.2.2. Información Meteorológica y Oceanográfica

El área de estudio del potencial derrame de petróleo (Fig. 3, polígono amarillo) se encuentra localizada en proximidades a la Costa Caribe Colombiana. Dentro de las zonas insulares más importantes se encuentra el parque Natural Nacional Corales del Rosario y San Bernardo, localizado a 100 km al sur de Cartagena de Indias. La amplitud de la marea a lo largo de la costa del Caribe es una mezcla de tipo semidiurno, con amplitudes máximas de 60 cm [19]. Los vientos predominantes son del este, noreste y norte en la Península de La Guajira y del noreste al norte, al sur de la Sierra Nevada de Santa Marta, aunque en algunas épocas del año se registran vientos del oeste y noroeste. El clima de la costa Caribe se caracteriza generalmente por dos períodos climáticos principales, llamados época seca (verano) que va desde los meses de diciembre a marzo, y época húmeda (invierno) que va dese los meses de agosto a noviembre, con una época de Transición en los meses de abril a julio, [20].

Tabla 1. Principales características de los dominios batimétricos. Dominio

Coordenadas

Dimensiones (dx dy)

Resolución (km/º)

Golfo de México

-99.0ºW 5.5ºN -54.7ºW 42.9ºN

174x147

25/0.22

Cuenca Caribe Colombiana

-81.4ºW 6.5ºN -70.9ºW 15.7ºN

205x180

5/0.045

Área del Proyecto

-77.1ºW 9.3ºN -74.7ºW 11.0ºN

230x163

1/0.009

Fuente: Los autores

Figura 4. Dominios anidados para el modelo en 3-D de derrames de petróleo. El nivel 1 incluye el Mar Caribe y Golfo de México, el nivel 2 la cuenca Caribe Colombiana y nivel 3 la Costa Central Caribe de Colombia. Fuente: propia.

Figura 3. Área de estudio - Cuenca Caribe Colombiana. El polígono de color amarillo delimita el lugar considerado para el potencial derrame de petróleo. Fuente: propia.

espacial respectivamente. Ambos tienen una resolución temporal de 3 horas y 7 días de pronóstico.

3.2. Datos de entrada

45


Otero-Díaz et al/ DYNA 81 (186), pp. 42-50. August, 2014.

La información de corrientes, salinidad y temperatura para el forzamiento del módulo hidrodinámico proviene del Sistema de Pronóstico Oceánico en Tiempo Real (RTOFS, por sus siglas en inglés) manejado por la NOAA (http://polar.ncep.noaa.gov/ofs/) basado en el modelo “Hybrid Coordinate Ocean Model” (HYCOM, http://hycom.org/). La resolución espacial de las salidas de este modelo es de 1/12°. Los resultados tridimensionales (3D) del modelo tienen una resolución diaria. La información relativa al oleaje, para el bloque hidrodinámico y de transporte, fue incluida a partir de las series de estados de mar proporcionadas por el modelo WAVEWATCH III (http://polar.ncep.noaa.gov/waves/). Las variables tenidas en cuenta fueron: dirección de pico (Dp), periodo de pico (Tp) y altura significante (Hs). El modelo tiene una resolución espacial de 1.2° x 1° y cuatro salidas diarias.

Figura 5. Velocidad de las corrientes superficiales obtenidas por el modelo hidrodinámico 3-D en la Cuenca y costa del Caribe Colombiano. Fuente: Los autores

nivel 1; (iii) El paso de tiempo es de 120 s y la viscosidad de remolino horizontal es de 50 m2 s-1. En la región de la Costa Caribe Colombiana (nivel 3), también se implementó un modelo3D baroclínico anidado en el dominio de la Cuenca del Caribe Colombiano (nivel 2). Se utilizó la misma discretización vertical del nivel 2 (40 capas cartesianas). Para la definición de las condiciones de frontera, se utilizó una metodología similar a la seguida en el nivel 2. Sin embargo, en este caso, la solución exterior barotrópica sólo se deriva del nivel 2, y el procedimiento de relajación se realiza para los valores de salinidad, temperatura y velocidad interpolados directamente desde el nivel 2 al nivel 3. En este caso, el segundo nivel ya incorpora los componentes de alta y baja frecuencia. El paso de tiempo es de 40 s, y la viscosidad de remolino horizontal es 10 m3 s-1. Esta metodología de anidación se describe en detalle en [18]. La salida del modelo hidrodinámico incluye los campos 3-D de temperatura, salinidad, tres componentes de la velocidad y la altura de la superficie del mar. Un ejemplo de las velocidades de las corrientes arrojadas por el modelo hidrodinámico 3-D en los dominios de la Cuenca del Caribe Colombiano y de la Costa Colombiana se puede apreciar en la Fig. 5. El segundo paso consiste en la implementación de un modelo Lagrangiano de derrame de petróleo. Las propiedades del agua, el nivel del mar, las tres componentes de las velocidades, la salinidad, la temperatura y difusividades son interpolados para la malla, donde es ejecutado el modelo de partículas. Se asume que a las partículas le son asignadas las características de gotas de petróleo, incluyendo el diámetro y la densidad. Las trayectorias de las partículas se evalúan mediante un seguimiento en tres dimensiones, utilizando la advección, mezcla y velocidades de ascenso de las gotas de petróleo. Se asume una emisión continua (aproximadamente 0.04 m3s-1), por 24 horas con las mismas características del petróleo descritas para la configuración del modelo 2-D. Posterior a esas primeras 24 horas de vertido, se deja evolucionar el modelo durante 3 días continuos para cada escenario. Las partículas fueron emitidas en la localización 76.33° W y 10.33° N (Fig. 2) a 1500 metros de profundidad. El objetivo es analizar la estructura 3-D de la pluma de petróleo y no el impacto del “Blow Out”. Un total de 10 mil partículas fueron emitidas durante la simulación. Fueron llevadas a cabo cuatro simulaciones para el período del 6 al 9 de enero de 2012. Las simulaciones se definieron de acuerdo al diámetro de las gotas de petróleo,

3.3. Configuración del modelo Para simular la dispersión 3-D de un derrame de petróleo debido a un episodio de Blowout a 1500 metros de profundidad en la costa del Caribe Colombiano, fue implementado un modelo de seguimiento de partículas offline que utiliza los resultados hidrodinámicos 3-D, previamente almacenados. El diseño off-line fue elegido para concentrar el poder de cómputo en el funcionamiento de un número suficiente de partículas que permitan asegurar la robustez estadística de los resultados del modelo [12]. La configuración del modelo consiste en proporcionar los campos hidrodinámicos generados por el modelo MOHID (www.mohid.com) en 3-D de la Región de la Costa Caribe, como datos de entrada para el modelo de seguimiento de partículas Lagrangiano. La configuración del modelo implementado para este estudio se compone de 3 niveles de anidamiento (Fig. 4), tabla 1. En el dominio del Mar Caribe-Golfo de México se configuró un modelo barotrópico 2-D. El nivel del mar se supone que es igual a la solución de marea global FES2004 en la frontera abierta [21]. Como condiciones iniciales se definió un gradiente nulo de superficie libre y velocidad nula en todos los puntos de malla. El paso de tiempo es de 240 s y la viscosidad de remolino horizontal es de 250 m2 s-1. El dominio en la Cuenca Caribe Colombiana (Nivel 2) es un modelo 3D baroclínico con 40 capas cartesianas en vertical. Las condiciones en las fronteras abiertas en este nivel de malla de cálculo se definieron de la siguiente manera: (i) Condiciones de frontera radial barotrópica (nivel del mar y velocidades barotrópicas) con una solución exterior (o de referencia) igual a la solución del nivel 1 más la solución RTOFS (promedio diario). En este caso, el nivel 1 corresponde a la componente de alta frecuencia de la solución exterior, mientras RTOFS es la de baja frecuencia; (ii) Relajación (o empuje) a lo largo de la frontera abierta para los valores de salinidad y de temperatura interpolados directamente de la solución RTOFS. También existe la relajación para el campo de velocidad 3D resultado de la interpolación de la solución RTOFS más las velocidades del

46


Otero-Díaz et al/ DYNA 81 (186), pp. 42-50. August, 2014.

las cuales se presentan en la tabla 2. El modelo Lagrangiano utiliza como entrada los campos hidrodinámicos 3-D generados por el modelo MOHID para el dominio computacional de la cuenca del Caribe 4. Resultados y discusión Las predicciones de la posición para las gotas de petróleo de tamaño 50 μm se presentan en la Fig. 6 (a- vista a lo largo de la plataforma, b- vista frontal de la plataforma). El mismo tipo de resultados, pero para tamaños de gotas de 250 μm, 1 mm y 10 mm se muestra en las Fig. 7-9. Los resultados de las simulaciones 3-D indican que el diámetro de las gotas de petróleo influye significativamente en el movimiento del petróleo en la columna de agua. Las distribuciones de las partículas en profundidad indican que dos tipos de plumas se podrían generar dependiendo del tamaño de las gotas de petróleo. Las partículas con diámetros de 50 μm, tienen bajas velocidades de ascenso (~0.08 m ms-1 velocidad vertical), por debajo de las velocidades típicas, debido a la hidrodinámica local. En esta situación, la pluma de petróleo tiende a permanecer atrapada a unos 1.000 m de profundidad (Fig. 6). La dispersión de la pluma a través de la columna de agua tiende a ser horizontal (Fig. 6) debido a los procesos físicos (por ejemplo, mareas, olas y corrientes internas de densidad). El movimiento oscilante en profundidad de la pluma atrapada (~1.000 m) podría mantener la pluma debajo de la superficie durante un largo tiempo (escalas de tiempo del orden de meses). ID Escenario

1

2

3

4

Periodo de Simulación

6 al 9 de enero, 2012

6 al 9 de enero, 2012

6 al 9 de enero, 2012

6 al 9 de enero, 2012

Diámetro gotas

50 µ m

250 µ m

1 mm

10 mm

Figura 6. Posición de la partícula a lo largo de la columna de agua para el Escenario 1 - gotas de petróleo de tamaño de 50 µ m : a) vista a lo largo de la plataforma y b) vista frontal de la plataforma. Fuente: Los autores

El comportamiento de este tipo de partículas también coincide con las predicciones realizadas por la aplicación del modelo SABGOM-LTRANS para el Golfo de México [12], donde las partículas menores a 50 μm permanecieron más de tres meses, sin alcanzar la superficie. Las predicciones de la pluma de petróleo generada por las gotas de 50 µ m , sugieren un riesgo bajo para la región del Caribe Colombiano. Esto podría explicarse por el hecho de que la pluma permanece a bajas profundidades (~1.000 m) por largo tiempo. Las partículas con diámetros de 250 μm, 1 mm y 10 mm se elevan rápidamente a la superficie (Figs. 7-9) con velocidades de ascenso de alrededor de 6, 10 y 20 cm s-1. Las partículas de 250 μm toman alrededor de cuatro horas para llegar a la superficie. En el área del derrame de petróleo, las velocidades horizontales tienen intensidades típicas de 10 cm s-1, lo que significa para las gotas de 250 μm un desplazamiento horizontal, antes de alcanzar la superficie, del orden de 2 km. El análisis de la velocidad de las gotas de petróleo presentado anteriormente (Fig. 2) predice claramente los dos tipos de dispersión descritos. Para las gotas de petróleo con un diámetro superior a 210 μm de diámetro (diámetro crítico), el petróleo llega a la superficie rápidamente. Las gotas por debajo del diámetro crítico se dispersan principalmente debido a los campos de corrientes 3-D del océano. Estos resultados concuerdan con los obtenidos por [22]. En la superficie, la pluma se rige principalmente por los vientos, las olas y las corrientes superficiales, y es altamente dependiente de las condiciones instantáneas, lo que significa que el modelo de derrame de petróleo 2-D es una metodología válida. Después de llegar a la superficie, las partículas se quedan allí y comienzan a ser afectadas por la dispersión horizontal inducida por las corrientes, los vientos y las olas.

Condiciones Hidrodinámicas Corrientes

3-D Modelo MOHID

Salinidad

3-D Modelo MOHID

Temperatura

3-D Modelo MOHID

Corrientes

3-D Modelo MOHID

Salinidad

3-D Modelo MOHID

Temperatura

3-D Modelo MOHID

Corrientes

3-D Modelo MOHID

Salinidad

3-D Modelo MOHID

Temperatura

3-D Modelo MOHID

Corrientes

3-D Modelo MOHID

Salinidad

3-D Modelo MOHID

Temperatura

3-D Modelo MOHID

Tabla 2. Períodos y principales características de las simulaciones realizadas para analizar la dinámica vertical de las gotas de petróleo. Fuente: Los autores

47


Otero-Díaz et al/ DYNA 81 (186), pp. 42-50. August, 2014.

Figura 7. Posición de la partícula a lo largo de la columna de agua para el Escenario 2 - gotas de petróleo de tamaño de 250 µ m : a) vista a lo largo de la plataforma y b) vista frontal de la plataforma. Fuente: Los autores

Figura 9. Posición de la partícula a lo largo de la columna de agua para el Escenario 4 - gotas de petróleo de tamaño de 10 mm : a) vista a lo largo de la plataforma y b) vista frontal de la plataforma. Fuente: Los autores

para el "derrame de Deepwater Horizon" en el Golfo de Méjico se utiliza una aproximación empírica para simular la dispersión en la columna de agua de las gotas de petróleo, sin tener en cuenta la viscosidad del agua de mar ni la componente de la velocidad vertical de las partículas de crudo. 5. Conclusiones La zona turbulenta creada en el punto de liberación hace que el petróleo se fragmente en pequeñas gotas. Los tamaños de estas gotas varían en función de las condiciones de salida y las velocidades. Los datos presentados por [23] basados en trabajos de campo y laboratorio llevan a la conclusión de que la mayoría de las gotas liberadas bajo una situación de "Blowout" tienen un diámetro mayor a 250 micras (>90% del volumen de liberación). La misma conclusión se puede llegar con base en los datos experimentales del proyecto de DeepSpill [24]. Esto significa que la mayoría del petróleo liberado se elevará rápidamente a la superficie. Sin embargo, esta conclusión general debe ser adaptada a las características específicas del petróleo que se extrae y las condiciones de funcionamiento de la plataforma de explotación offshore. En conclusión, puede establecerse que en caso de eventos de "Blowouts", deben ser analizados dos tipos de dispersión: Enfocarse en el estudio de la mayoría del petróleo que es liberado (>90%) que alcanza la superficie casi en el mismo punto horizontal de la profundidad de liberación (diferencia de ~2 km). En este caso, el tradicional enfoque 2-D es válido. Concentrarse en una pequeña fracción del petróleo vertido (<10%), pero que es muy tóxico. En este caso, la dispersión es controlada principalmente por la estructura hidrodinámica 3-D del océano. Esto significa que esta fracción de petróleo se dispersa muy lentamente. En el punto de liberación, las velocidades son muy turbulentas (no

Figura 8. Posición de la partícula a lo largo de la columna de agua para el Escenario 3 - gotas de petróleo de tamaño de 1 mm : a) vista a lo largo de la plataforma y b) vista frontal de la plataforma. Fuente: Los autores

Durante el tiempo modelado, la pluma se desvía de la Región de la Costa Caribe, debido a las corrientes superficiales. Sin embargo, desde que la pluma en la superficie está controlada por los procesos de dispersión horizontal, en el caso de condiciones extremas de vientos persistentes, la pluma de petróleo podría viajar hacia la orilla y llegar a la región de la Costa Caribe Colombiana. Otra de las contribuciones importantes de este trabajo, ha sido el desarrollo y aplicación de un algoritmo discreto de partículas que incorpora un nuevo componente vertical de la velocidad de las gotas de petróleo, basado en la formulación presentada por [2]. La velocidad de las gotas está determinada por su tamaño, la viscosidad del agua de mar y la diferencia de densidades del agua de mar y del tipo de hidrocarburo vertido. En el trabajo desarrollado por [12] 48


Otero-Díaz et al/ DYNA 81 (186), pp. 42-50. August, 2014.

.

[10] Johansen, E., The Halten Bank experiment observations and model studies of drift and fate of oil in the marine environment. In: Proceedings of the 11th Arctic Marine Oil Spill Program (AMOP) Techn. Seminar. Environment Canada. pp. 18-36, 1984. [11] Singsaas, I. and Daling, P.S., Meso-scale test for laboratory weathering of oil. In: Proceedings of the 158th Arctic and Marine Oil Spill Program Technical Seminar, Environment Canada, pp. 5566, 1992. [12]

Figura 10. Vista en planta de la pluma de petróleo después de 3 días la simulación: figura de la izquierda - 50 µ m y figura de la derecha - 250 µ m . Fuente: Los autores

tienen una dirección clara) y son pequeñas (5-50 ms-1 en sentido horizontal y vertical 0.5-5 ms-1). Esto puede apreciarse claramente en la vista en planta, de la pluma petróleo para los escenarios de diámetros de gota de µ m y 250 µ m (Fig. 10) petróleo de 50 La pluma asociada a gotas de petróleo de diámetro de 250 μm cubre un área horizontal de por lo menos dos órdenes de magnitud mayor al escenario de 50 μm. El área de impacto de las fracciones más disueltas tiende a ser restringido. El impacto sobre la cadena trófica de estos componentes más tóxicos del petróleo es el principal punto de preocupación a evaluar.

[13] Mariano, A., Kourafalou, V., Srinivasan, A., Kang, H., Halliwell, G., Ryan, E. and Roffer, M., On the modeling of the 2010 Gulf of Mexico oil spill, Dynamics of Atmospheres and Oceans, 52 (1-2), pp 322-340, 2011. [14] Martins, F., Leitao, P., Silva, A. and Neves, R., 3D modelling in the sado estuary using a new generic vertical discretization approach. Oceanologica Acta, 24, S51–S62, 2001. [15] Janeiro, J., Fernandes, E., Maritns, F. and Fernandes, R., Wind and freshwater influence over hydrocarbon dispersal on Patos Lagoon, Brazil. Marine Pollution Bulletin, 56 (4): pp.650-665, 2008. [16] Fernandes, R., Modelação de derrames de hidrocarbonetos. Graduation Thesis. Relatorio Final. Instituto Superior Tecnico, Portugal, 2001.

Agradecimientos

[17] Lou, A.G., Wu, D.X., Wang, X.C. and XI, P.G., Establishment of a 3-D model for oil spill prediction. Journal of Ocean, University of Qingdao, 31 (4), pp.473-479, 2001.

Los autores desean agradecer a ECOPETROL S.A (Compañía colombiana de Petróleos) y GEOTEC ingeniería Ltda.

[18] Leitao, P., Coelho, H., Santos, A. and Neves, R., Modelling the main features of the Algarve coastal circulation during July 2004: A downscaling approach. Journal of Atmospheric & Ocean Science. 10 (4), pp.421-462, 2005.

Referencias [1]

Wang, S.D., Shen Y.M. and Zheng Y.H., Two-dimensional numerical simulation for transport and fate of oil spills in seas. Ocean Engineering. 32, pp.1556–1571, 2005

[2]

Wang, S.D., Shen, Y.M., Zheng, Y.H., Guo, Y.K. and Tang, J., Three-dimensional numerical simulation for transport of oil spills in seas. Ocean Engineering, 35, pp.503–510, 2008.

[3]

Reed, M., Turner, C. and Odulo, A., The role of wind and emulsification in modelling oil spill and drifter trajectories. Spill Science and Technology Bulletin 1 (2), pp.143-157, 1994.

[4]

Fay, J.A., The spread of oil on a calm sea. In: D. Hoult (Ed.), Oil on the Sea. Plenum Press, 1969.

[5]

Fay, J.A., Physical processes in the spread of oil on a water surface. In: Proc. Conf. Prevention and Control of Oil Spills, 15-17 June. American Petroleum Institute, Washington, DC, pp. 463-467, 1971.

[6]

Tkalich, P., Huda, K. and Gin K., A multiphase oil spill model. Journal of Hydraulic Research. 41, No. 2, pp. 115–125, 2003.

[7]

Elliot, A.J., Hurford, N. and Penn, C.J., Shear diffusion and the spreading of oil slicks. Mar. Pollut. Bull., 17, pp. 308-313, 1986.

[8]

Spaulding, M.L., Oil spill trajectory and fate modelling: State-of-the art review. In: Proceeding of the Second International Oil Spill Research and Development Forum, IMO, London, UK, 1995.

[9]

Mackay, D., Paterson, S. and Nadeau, S., Calculation of the evaporation rate of volatile liquids. Proceedings, National Conference on Control of Hazardous Material Spills, Louisville. Ky., pp. 364-368, 1980.

North, E., Adam, E., Schlag, Z., Sherwood, C.R., He, R., Hyun K.H. and Socolofsky, S.A., Simulating oil droplet dispersal from the Deepwater Horizon spill with a Lagrangian approach, in Y. Liu et al., Monitoring and Modeling the Deepwater Horizon Oil Spill: A RecordBreaking Enterprise, Geophys. Monogr. Ser., vol. 195, Washington, D. C., doi:10.1029/2011GM001102, 2011, pp. 217-226.

[19] Tuchkovenko, Y.S. and Calero, L., Mathemathical modelo of the Ciénaga Grande de Santa Marta Ecosystem. Bol. Invemar, 32 (1), pp. pp.145-167, 2003. [20] Andrade C., Barton E. and Mooers C., Evidence for an eastward flow along the Central and South American Caribbean Coast, J. Geophys. Res., 108 (C6), 3185, doi:10.1029/2002JC001549, 2003. [21] Lyard, L., Lefevre, F., Letellier, T. and Francis, O., Modelling the global ocean tides: Modern insights from FES2004. Ocean Dyn., 56, pp. 394-415, 2006. [22]

Leitao, P.C., Malhadas, M.S., Ribeiro, J., Leitao, J.C., Pierini, J. and Otero, L., An Overview for simulating the blowout of oil spills with a Three-Dimensional model approach (Caribbean Coast, Colombia), in: M. Mateus y R. Neves, Eds., Ocean Modelling for Coastal Management – case studies with MOHID, IST Press, 2013, pp.97-115.

[23] Ross, S. L., Environmental Research Ltd., Fate and behavior of deepwater subsea oil well blowouts in the Gulf of Mexico. Minerals Management Service, 1997. [24] Johansen, O., Rye, H., Melbye, A., Jensen, H., Serigstad, B. and Knusten, T., Deep spill JIP experimental discharges of gas and oil at helland hansen, Parts I, II, and III – Technical Report, SINTEF Applied Chemistry, Norway, 2001. L.J. Otero-Díaz, es Oceanógrafo Físico del año 1999 de la Escuela Naval Almirante Padilla, MSc. en Ciencias y Tecnologías Marinas en 2003 y Doctor en Ciencias y tecnologías Marinas del año 2008, ambas de la Universidad de Cantabria (España). Desde 2000 hasta 2011 se desempeñó en la Armada Nacional de Colombia como Subdirector y Director del Centro Control Contaminación del Pacifico (CCCP), Subdirector del Centro de Investigaciones Oceanográficas e Hidrográficas del Caribe 49


Otero-Díaz et al/ DYNA 81 (186), pp. 42-50. August, 2014. (CIOH) y Decano de la Facultad de Oceanografía Fisica de la Escuela Naval Almirante Padilla. Actualmente es profesor tiempo completo del Departamento de Fisica de la Universidad del Norte (Barranquilla, Colombia). Sus intereses de investigación se enfocan en. Ondas en el océano, Amenazas Naturales de Origen marino: tsunamis, ondas de tormenta y oleaje extremo; Modelación numérica de procesos de transporte de sustancias contaminantes en el medio marino, Hidrodinámica en la zona de rompientes, Dinámica de estuarios, Manejo Integral de Zonas Costeras y Marinas.

Dentro de los principales proyectos recientes se pueden mencionar: AquaSafe que tiene como objetivo aumentar la eficiencia en la gestión de operaciones, proporcionando información en tiempo real y su perfecta integración con herramientas de predicción y diagnóstico. Proyecto INSEA que consiste en un sistema de integración de datos para la evaluación de eutrofización en aguas costeras. M.M. Santos-Malhadas, es Oceanógrafo Físico, MSc. en Ciencias Ambientales y Dr. en Ingenieria Medio Ambiental de la Universidad Técnica de Lisboa. Tiene 11 años de experiencia en la aplicación de modelos numéricos en las zonas costeras y embalses, en la adquisición de datos oceanográficos y monitoreo (sondas multiparamétrica, ADCP, CTD etc.). Las actividades más recientes se han enmarcado en cuatro proyectos europeos (efecto de aumento del flujo de las comunidades de peces en el Duero, Tajo, Guadiana y aguas costeras adyacentes), EASY/ EASYCO (modelado operacional de la costa portuguesa) y PORTONOVO (modelado de calidad del agua en puertos europeos) y los proyectos nacionales de seguimiento de emisarios y planes de manejo de aguas residuales de varias empresas (INAG, sensato, SIMTEJO, oeste de agua, madera IGAARH-Tejo, ARH-Aletenjo).

J. O. Pierini, es Oceanógrafo Físico de la Universidad Nacional del Sur en Bahía Blanca, realizó estudios de Postgrado de Ingeniería Ambiental, MSc en Evaluación de Impacto Ambiental en España y Dr. de la Universidad de Buenos Aires en el Área de Ciencias de la Atmósfera y los Océanos. Desarrolla su trabajo de docencia en la Universidad Nacional del Sur e Investigación en el Centro Científico y Tecnológico de Bahía Blanca, en el Instituto Argentino de Oceanografía y la Comisión de Investigaciones Científicas de la Provincia de Buenos Aires. El interés en investigación se centra en el Modelado numérico hidrodinámico y de procesos de transporte de contaminantes en el medio marino, modelos de calidad de agua y ecológicos, modelos de transporte de sedimentos, implementación de sistemas operacionales, dinámica de estuarios y procesos costeros.

J. Ribeiro, es Licenciado de Ciencias del Mar de la Universidad Lusofona de Humanidades y Tecnologías. Es consultor de la empresa HIDROMOD desde 1997. Sus líneas de investigación son ondas en el océano, Modelamiento numérico de estuarios y aplicación de Sistemas Operacionales de Pronóstico.

J.Ch. Leitão, es Ingeniero Civil y Dr. en Ingeniería Mecánica de ISTLisboa. Tiene 25 años de experiencia en modelado de sistemas acuáticos y en gestión de proyectos. Es socio y director de HIDROMOD desde 1992, donde ha participado en alrededor de 300 proyectos en Europa, África, América del sur y sudeste de Asia. Recientemente, coordinó el desarrollo de una plataforma de gestión de datos, dentro del proyecto SOWFIA, dirigido a los dispositivos de energía y evaluación ambiental de olas.

J.C. Restrepo, es Ingeniero Ambiental de la Escuela de Ingeniería de Antioquia, Colombia y MSc. en Ciencias de la Tierra de la Universidad Eafit, Colombia. Actualmente es Doctor(c) en Ciencias del Mar de la Universidad del Norte, Colombia. Se ha desempeñado como investigador del Centro Control de Contaminación del Pacífico (CCCP-DIMAR) y el Centro de Investigaciones Oceanográficas e Hidrográficas (CIOHDIMAR). Actualmente es profesor tiempo completo del Departamento de Física de la Universidad del Norte (Barranquilla, Colombia). Sus intereses de investigación se enfocan en el análisis de procesos costeros y fluviales. ORCID: 0000-0001-5696-8625

P.Ch. Leitao, es Ingeniero Civil y MSc. en Ecología, manejo y modelado de sistemas marinos. Es Dr. Ingenieria Ambiental del IST Lisboa. Es consultor y socio de HIDROMOD. Tiene 18 años de experiencia en la implementación y validación de modelos numéricos costeros hidrodinámicos, integración de modelos numéricos marinos en sistemas de previsión operativos, ha sido uno de los principales desarrolladores del modelo numérico de código abierto MOHID (http://www.mohid.com).

50


Service quality management based on the application of the ITIL standard Hermenegildo Gil-Gómez a, Raúl Oltra-Badenes b & Wilson Adarme-Jaimes c a

Dpto. de Administración, Instituto de Automática e Informática Industrial (ai2), Universitat Politècnica de Valencia – UPV, España. hgil@ai2.upv.es b Universitat Politècnica de València (UPV) y Universitat Jaume I, España. rauloltra@doe.upv.es c Departamento de Industrial Universidad Nacional de Colombia. wadarmej@unal.edu.co Received: April 26th, 2013. Received in revised form: February 27th, 2014. Accepted: June 5th, 2014

Abstract The modern world has led companies to become increasingly competitive, highlighting the customer as the core element of commercialization processes, and also recognizing the need to treat all internal activities as customers in the delivery of products/services to final consumers. An important element to ensure an adequate level of customer satisfaction is the need to properly manage the required services inside business processes, where the management of technology services becomes an imperative in almost every company. This paper presents the ITIL standard, which is a framework that allows the delivery of technology services to be efficiently managed, in order to improve internal business processes and obtain other benefits such as better internal communication. After that, the use of ITIL as a frame of reference for enhancing quality is proposed, focused not only on IT but on any type of service in general. Keywords: Services; Information Technology (IT); Systems; ITIL; Customer

Gestión de la calidad de servicios apoyados en la aplicación del estándar ITIL Resumen El mundo moderno ha llevado a las empresas a ser cada vez más competitivas, volviendo al cliente el eje central de los procesos de comercialización, pero evidenciando la necesidad de tratar todas las actividades internas como clientes parciales en el proceso de entrega del producto o servicio a los consumidores finales. Un elemento necesario para asegurar un adecuado nivel de satisfacción a los clientes radica en la necesidad de gestionar adecuadamente los servicios requeridos en los procesos empresariales, donde la gestión de los servicios de tecnología se vuelve un imperativo en casi todas las empresas. Este artículo presenta el estándar ITIL, el cual es un marco de referencia que permite administrar de manera eficiente la prestación de servicios de tecnología, de cara a mejorar los procesos internos de las empresas y obtener otros beneficios, como potencializar la comunicación interna. Tras ello, se propone el uso de ITIL como marco de referencia para la mejora de la calidad, no solo centrado en las TI, sino de cualquier tipo de servicio en general. Palabras clave: Servicios; Tecnologías de la Información (TI); Sistemas; ITIL; Cliente.

1. Introduction In the current environment, in which companies must seek maximum competitiveness, services are becoming increasingly important as a means to provide customer value and competitive advantage. Therefore, the quality of service as perceived by customers, and their evaluation, in order to seek continual improvement in a strategy of continuous quality improvement, is one of the priorities for organizations. In the search for competitiveness and customer value

delivery, managing different areas of organizations relies heavily on information technology (IT), which is essential to properly manage the business processes of companies. It is for this reason that in every organization, an IT organization exists (either internal or external) that generates and provides IT services. Those services are provided to a group of customers of that IT organization, a group that demands services with value, and expects their timely delivery with quality. In this exchange, the relations and communications between the IT service provider and IT customers must be

© The author; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 51-56. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Gil-G贸mez et al / DYNA 81 (186), pp. 51-56. August, 2014.

procedure, accuracy, conditions, and quality of the order, management of discrepancies with the order, punctuality and personal contact quality. On the other hand, McDougall and L茅vesque [10] and Brady et al. [11] deal with these more complex classifications by simplifying the components of the quality of service based on two dimensions; the technical capacity or reliability and personal relationship. In the literature of service marketing, quality of service has been linked to satisfaction. Customer satisfaction has been defined as an attitude (loyalty), which has been linked with buying behaviour [12], as well as with the probability that the consumer returns to the establishment and provides good references and publicity to his acquaintances [13]. Different studies have pointed out the influence of technology on the components of the quality of service [1416]. In particular, it has been observed that the higher the level of progress and the adaptation of the technology to the needs of the client, the greater the efficiency perceived in distribution activities [17]. The concept of service is considered in different areas of the organization to refer to different things, such as marketing, operations management, software engineering and information systems [18]. For example, in the discipline of marketing, services refer to the provision of intangible assets which are valued and traded on the market. In software engineering, this term designates a useful abstraction for deploying software for open environments, productively and scalably [19]. In Information Systems this concept can be found in different contexts, either to refer to electronic or digital services, or to the infrastructure layer of organizations providing computing capabilities that help organizations achieve their goals [18]. Many authors agree that services have been the core of economic activity in recent years [20-23]. This phenomenon certainly requires the support and consideration of Information Technology and Communications (ICT) and its evolution in recent years. The recognition of the growing importance of services in the world today and the interdisciplinary and complex nature of today's services led to the emergence of a new discipline: Service Management Science and Engineering - SMSE [22]. This new research discipline aims to address emerging issues in services with an interdisciplinary approach, and is expected to grow as a meeting place and forum for discussion of issues related to service, regardless of the original field of study of researchers and practitioners [18]. Organizations and businesses are changing, largely due to the impact of IT. In particular, the Internet, known as "the great vehicle of service" [24], is altering the ways to provide and manage products and services, and the relationships between organizations and customers, which is leading to a redefinition of their value chains. In the service field, significant changes have occurred due to the rapid increase of communication networks and the Internet. ICT offer significant opportunities for service innovation in customer service and efficiency improvements. Although technology transforms the interaction between organization and customer, expectations for the quality of service received are immutable. In many cases,

channeled through a system that ensures the optimization of the processes of service delivery and support of IT. It is in this environment where the discipline of "IT Service Management" appears. In this paper, the authors present the IT Service Management and ITIL standard as a framework for the management of all the processes needed in the lifecycle of IT services. The use of this framework ensures that these IT services and the organizations that provide them are aligned all the time with the business processes they support, and with their objectives. However, this is not only applicable to IT service management but to any type of service in general. For this reason, the use of ITIL good practices could serve as a reference frame for enhancing service quality. 2. State of the art In the society of the 21st century, services throughout the entire set of exchange processes that occur between the different agents that make up the market are increasingly critical and vital. In this sense, the quality of service and its assessment are some of the priorities that organizations should consider in order to adapt their management, and respond effectively and efficiently to the demands of the market. This circumstance makes it necessary for a better understanding of the concept of quality of service, its extent and the implications arising from studying it [1]. Quality of service received a strong boost for its application in the management of organizations from the work developed since the middle of the 80's by Parasuraman et al. [2-5]. These authors proposed a conceptual model which defines quality of service as a global judgement concerning its superiority, which is obtained from the comparison between the expectations about the service to be received and the perceptions of performance of the service provider organizations (paradigm unconfirmed). These authors developed a measuring instrument identified as SERVQUAL (SERViceQUALity) for its evaluation [3-6]. Specifically, assuming the multidimensional nature of the construct, these authors propose that service quality can be estimated from five dimensions, identified as tangible elements, reliability, responsiveness, security and empathy. Further studies [5-7] focused research of quality of service especially on the attitude of the consumer towards the service provided, i.e. from an attitude that is generated from the perception of the consumer with respect to the provision of the service. This fact allows the quality of service to be studied from a prominently psychological approach. Quality of service has been defined both from an objective approach as well as from a subjective one. While the objective quality of service relates to fitting service to the specifications defined by the providers [8], the subjective quality of service moves towards the client, being defined as a "global judgment or attitude, relative to the superiority of the service" [3]. Mentzer et al. [9] focus on the logistics of quality of service and identify its critical components such as the amount of orders placed, the quality of the information, the 52


Gil-Gómez et al / DYNA 81 (186), pp. 51-56. August, 2014.

customers and employees are not always receptive to what technology has to offer, nor do they recognize its associated value. Self-help technologies (self-help) allow customers to get the service independently and participate in the process of acquiring goods. The challenges of introducing IT to provide online services (on-line) are also very important [24]. The rapid evolution of ICT and e-business has created a situation in which services can evolve in their access strategy, and organizations see the increased value of offering services through the Internet. These services through Internet and other IT services are based on the knowledge provided by experts in information technologies and systems, who offer these services to their customers [25]. The process of IT service delivery involves deep knowledge sharing between service providers and customers. Therefore, communication between customers and IT experts is a critical component of the quality of IT services. However, in many cases, due to lack of expertise in ICT customers, IT service is one of the professional services that demand high credibility; therefore, it is not easy for customers to evaluate the quality of service, even after it has been delivered [26]. Different studies of IT services identify quality of service as a critical factor in the effectiveness of communication and trust between the parties [27, 28]. Jia and Reich [29] conducted an investigation whose objective was to reduce the gap between the perceptions of customer service and management actions. In this research they introduced the concept of IT service climate and a survey instrument that can be used to evaluate it. Jia and Reich [29] define "IT Service Climate" as a shared perception of IT employees, practices and behaviours in the workplace that support the provision of IT services to business customers. These authors show that the climate of service is closely related to customer satisfaction and quality of service. There are three main components of the IT Service Climate [29], as shown in Table 1: • Service Leadership • Service Vision • Service Evaluation The urgent need to create an enabling environment to improve service, its quality and customer satisfaction is pointed out. Furthermore Lepmets et al. [30] assess the impact of process improvement in the quality of IT services by performing a series of studies of the IT service industry. From a business perspective, the shift to process-oriented organizations, the growing importance of business processes cut across the organization, as well as the increased focus on the quality of IT services perceived by end users, emphasize the need for information systems to provide an effective and versatile support for business processes and to meet the needs of the organization [31, 32]. IT services are increasingly complex, their regulatory levels are increased, there are frequent deviations in time or costs in their life cycle, there are continuous technological advances, etc.; all of which makes their management more necessary so they continue to be efficient, but at the same time more complex [33].

Main components of IT service climate [29] Dimension Definition Items Service The extent to Our unit manager regularly discusses Leadership which IT work performance goals with us. managers take Our unit manager frequently talks to us actions to about how our service contributes to guide the better performance of our clients. delivery of Our unit manager regularly discusses with us the best approaches to serve our clients. service. Service Vision

The extent to which meeting client needs, demonstrating flexibility, and establishing communication are emphasized.

In my unit’s daily work, there is an emphasis on providing excellent service to our business clients. There has been true effort in our unit to establish ourselves as a respected partner of our clients. People in my unit are flexible when dealing with clients’ perspectives. My unit frequently shares information with clients.

Service Evaluation

The extent to which the evaluation of IT professionals is linked with service performance.

We receive recognition and reward for providing excellent service to our clients. In my most recent performance review, I was evaluated on how well I served the clients. Customer service is an important criterion of our formal performance evaluation.

Source [29]

If their management is effective, changes are achieved which proactively adapt to the business strategy [41]. 3. ITIL standard application approach on service management (SM) Information Technology Service Management (ITSM) deals with the management of IT services through the use and coordination of people, workflows and information technology [34]. These three components are the core business processes in IT management. Business processes can be classified as: strategic business processes, main business processes and business support processes. IT processes are included in the support process category, providing outputs in terms of the business’ required services [34]. ITSM seeks to support the implementation and management of high quality IT services, and this is carried out by IT service providers. ITSM mainly differs from traditional IT management with regard to the fact that it does not focus on technology but rather looks at IT and its services from a business perspective. This article proposes the use of the best practices in IT Service Management through the ITIL standard (Information Technology Infrastructure Library) for service management, not only of IT services but also of all types of service. ITIL "is a framework that describes the best practices for service management in information technology" and it has an approach based on a set of processes that are grouped in five phases of the service life cycle [35=39]. In fact, ITIL is the most used standard in the ITSM environment [34]. Table 2 provides a brief description of ITIL cycle phases

Table1.

53


Gil-Gómez et al / DYNA 81 (186), pp. 51-56. August, 2014.

presented in its latest version (v3). ITIL offers organizations a set of strategies for continuous process monitoring, providing an organizational culture that generates greater benefits in service quality [40]. This approach can be applied to any organization, regardless of size, sector or service. The result should be a reliable, safe and consistent service with the expected costs [41]. However, even though originally ITIL is conceived for service management only, it is clear that any other type of service, either IT or non-IT, can obtain a benefit from the focus by processes and from the phases and processes presented by it. It can be argued that the five phases of the ITIL life cycle, which are shown in Table 2 (Strategy, Design, Transition, Operation, and Continuous Improvement), are common in any service type, whether IT, Marketing, Logistics, Consulting or any other kind of service. Accordingly, the use of ITIL standard as a reference frame for the management of any service type is proposed.

delivery. • Reduces the negative impact of business. • Offers a better management and control of infrastructure. • Gives a better use of IT support resources and increased productivity of business people. • Improves the information management process and supports decision making. To do this, the Service Desk must assume some responsibilities, such as the following: • Register all relevant incident / requested service details, assigning codes to prioritization and categorization • Provide investigation and diagnosis • Resolve incidents / customers’ requests • Escalate incidents / service requests that cannot be resolved within the agreed deadlines • Keep users informed about the process’s progress • Close all resolved incidents, requests and other calls • Apply surveys or calls to customers/users to verify satisfaction • Communicate with the users, continuously, updating them about the process’s progress, changes, commitments, etc. • Update the Configuration Management System (CMS) under the direction and approval of the Service Desk management, if it is agreed. A Service Desk has helped many companies to improve their processes, and its implementation is a high priority objective when an organization wants to follow ITIL best practices. For this reason, the authors propose that in order for an IT or non-IT organization to be able to introduce a service management based on the ITIL standard, one of the critical points will be the implementation of a Service Desk. The primary but not only objective of Service Desk is to serve as a contact point between users and service management. This relationship is depicted in Fig. 1. A Service Desk is the central hub in the management of incidents and therefore it is (more or less) directly related with other processes such as problem management and change and configuration management. Thus, a suitable Service Desk, and a proper management of it, will manage the related processes more efficiently. By having centralized and controlled information, it is possible to extract critical information from any event and

4. The Service Desk: The key in service management using TIL Service Desk is an ITIL function located in the service operation phase. Service Desk is "the main contact point when users face a service interruption, when there is a request, or even when some changes are required. The Service Desk provides a communication point with users, and a coordination point for several IT groups and processes" [38]. The implementation of an appropriate Service Desk is crucial in organizations because many companies consider it as the first step to achieve ITSM [42]. Service Desk generates the following benefits [38]: • Improves customer service, perception and satisfaction. • Increases accessibility, communication and information through a single contact point. • Increases quality and response time to customer or user requests. • Provides better teamwork and communication. Table 2. The five ITIL v3 Phases. Phase

Purpose

Service Strategy

To provide guidance on how to design, develop and implement service management, whilst providing direction for growth, not only as an organizational capability, but as a strategic asset.

Service Design

To provide guidance on service design and development of service management processes to define design principles and methods for converting strategic objectives into portfolios of services and service assets of existing and new services.

Service Transition Service Operation Continual Service Improvement

SERVICE PROVIDER ORGANIZATION

To provide guidance on how to develop and improve capabilities for transitioning new and changed services into operations and ensure requirements of Service Strategy defined in Service Design are effectively carried out in Service Operation. To provide guidance on how to achieve effectiveness and efficiency in the delivery and support of services to ensure value for the customer and the service provider. To provide guidance on how to create and maintain value for customers through better design, introduction, and operation of services and establish principles, practices, and methods from quality management and capability improvement.

Request

Request for change

Communication, request, incidents, service

SERVICE

Service Desk

Incidents

Users

Problems

Configuration Management

Figure 1. Information through a unique Service Desk between users and supplier (Service Provider Organization). Own Source

Source: Adapted from Cabinet Office [35-39].

• Increases the focus and proactive approaches to service

use the knowledge of previous incidents, creating a 54


Gil-Gómez et al / DYNA 81 (186), pp. 51-56. August, 2014.

continuous improvement dynamic. As a consequence, an organization that implements a Service Desk based on ITIL will generate an added value in the following aspects: • Efficient maintenance management of services by improving troubleshooting time response and the completion of client requests • Efficient relationship management with the customers and users, and their satisfaction • Efficient service delivery management, from the point of view of availability, continuity and process capability, as well as improvement of the changing management process The latter allows service managers to offer higher service quality to customers and/or users.

implications for further research. Journal of Marketing, 58 (1), pp. 111-124, 1994.

Parasuraman, A., Zeithaml, V.A. and Berry, L.L., A conceptual model of service quality and its implications for future research. Journal of Marketing, 49 (4), pp. 41–50, 1985.

[3]

Parasuraman, A., Zeithaml, V. A. and Berry, L.L., SERVQUAL: A multiple-item scale for measuring consumer perceptions of service quality. Journal of Retailing, 64 (1), pp. 12–40, 1998.

[4]

Parasuraman, A., Zeithaml, V. and Berry, L., Calidad total en la gestión de servicio. Madrid: Díaz de Santos, 1993.

[5]

Parasuraman, A., Zeithaml, V.A. and Berry, L., Reassessment of expectations as a comparison standard in measuring service quality:

Marzo, J,C., Martínez-Tur, V., Ramos, J. and Peiró, J., La satisfacción del usuario desde el modelo de la confirmación de expectativas. Respuestas a algunos interrogantes. Psicothema, 14 (4), pp. 765-770, 2002.

[8]

Crosby, P., La calidad no cuesta. El arte de cercionarse de la calidad. CECSA, Méjico, 1991.

[9]

Mentzer, J.T.; Flint, D.J. y Hult, G.T.M., Logistics service quality as a segment-customized process, Journal of Marketing, 65 (4), pp. 82104, 2001.

[12] Griffin, J., The Internet’s expanding role in building customer royalty, Direct Marketing: Garden City, 59 (7), pp.50–53, 1996. [13] Bowen, J. T. and Shoemaker, S., Loyalty: A strategic commitment, Cornell Hotel and Restaurant Administration Quarterly, 39 (1), pp.12–25, 1998. [14] Kaynama, S.A., Black, C.I., and Keesling, G., Impact of the Internet on internal service quality factors: The travel industry case, Journal of Applied Business Research, 19 (1), pp. 135-45, 2003. [15] Weijters, B., Rangarajan, D., Falk, T. and Schillewaert, N., Determinants and outcomes of customers’ use of self-service technology in a retail setting, Journal of Service Research, 10 (1), pp. 3-21, 2007. [16] Shamdasani, P., Mukherjee, A. and Malhotra, N., Antecedents and consequences of service quality in consumer evaluation of selfservice internet technologies, Service Industries Journal, 28 (1), pp. 117-138, 2008. [17] Wu, F., Yeniyurt, S., Kim, D. and Cavusgil, S.T., The impact of information technology on supply chain capabilities and firm performance: A resource-based view, Industrial Marketing Management, 35 (4), pp. 493-504, 2006. [18] Cardoso, A., Ferreira, I., Carvalho, J.Á. and Santos, L., What Service?, in: Cruz-Cunha, M.M., Varajão, J., Powell, P., Martinho, R. (Eds.), Enterprise Information Systems, Communications in Computer and Information Science. Springer Berlin Heidelberg, 2011 pp. 315–324.

References

[2]

[7]

[11] Brady, M.K., Robertson, C.J. and Cronin, J.J., Managing behavioral intentions in diverse cultural environments: An investigation of service quality, service value, and satisfaction for American and Ecuadorian fast-food customers, Journal of International Marketing, 7 (2), pp 129-149, 2001.

The changes in the way companies offer their products and/or services, driven by technological changes, have led to the need of developing new processes to ensure the proper management of activities within firms, aiming to provide the highest possible customer satisfaction level. IT services must be managed properly since they bring a good number of benefits that improve businesses and provide higher levels of customer satisfaction, which leads to improved companies’ competitiveness. This management process can be efficiently developed by using the ITIL standard, which is one of the most widely used frameworks for this purpose. But the ITIL approach can also be used for any kind of services, not only for the IT service management, its original objective. Any type of service can be managed in function of the five phases of the life cycle proposed by ITIL (Strategy, Design, Transition, Operation, and Continuous Improvement). In the service provision, it is imperative to have a Service Desk, which is an outstanding mechanism that allows communication between users and coordination points for groups and IT processes. Therefore, it is vital to allocate resources for the operation of this Service Desk, due to its relevance in improving communication and the other benefits that it can generate for organizations.

Pascual, M., Pascual, J., Frías, M.D. and Rosel, J.F., Calidad de servicio en los supermercados: Una propuesta de medición. Psicothema 18, pp. 661–667, 2006.

Coulthard, L.J.M., Measuring service quality. A review and critique of research using. International Journal of Market Research, 46 (4), pp. 479-497, 2004.

[10] McDougall, G.H.G. and Levesque, T., Customer satisfaction with services: Putting perceived value into the equation, Journal of Services Marketing, 14, (5), pp. 392-410, 2000.

5. Conclusions

[1]

[6]

[19] Huhns, M., and Singh, M., Service-Oriented Computing: Key Concepts and Principles. IEEE Internet Computing. 9 (1), pp. 75–81, 2005. [20] Bitner, M.J. and Brown, S.W., The service imperative. Business. Horizonts. 51 (1), pp. 39–46, 2008. [21] Chesbrough, H. and Spohrer, J., A research manifesto for services science. Communications of the ACM 49 (7), pp. 35–40, 2006. [22] Spohrer, J. and Maglio, P.P., The emergence of service science: Toward systematic service innovations to accelerate co-creation of value. Production Operations Management. 17 83), pp. 238–246, 2008. [23] Spohrer, J., Maglio, P.P., Bailey, J. and Gruhl, D., Steps toward a science of service systems. Computer, 40 (1), pp. 71–77, 2007. 55


Gil-Gómez et al / DYNA 81 (186), pp. 51-56. August, 2014. [24] Hirschheim, R., Offshoring and the new world Communications of the ACM 52 (11), pp. 132–135, 2009.

order.

[36] Cabinet Office (b). ITIL Service Design. TSO (The Stationery Office).United Kingdom, 2011.

[25] Park, J., Lee, J., Lee, H. and Truex, D., Exploring the impact of communication effectiveness on service quality, trust and relationship commitment in IT services. International Journal of Information Management 32 (5), pp. 459–468, 2012.

[37] Cabinet Office (c). ITIL Service Transition. TSO (The Stationery Office).United Kingdom, 2011. [38] Cabinet Office (d). ITIL Service Operation. TSO (The Stationery Office).United Kingdom, 2011.

[26] Sharma, N. and Patterson, P.G., The impact of communication effectiveness and service quality on relationship commitment in consumer, professional services. Journal of Service Marketing, 13 (2), pp. 151-170, 1999.

[39] Cabinet Office (e). ITIL Continual Service Improvement. TSO (The Stationery Office).United Kingdom, 2011. [40] Barafort, B., Renzo, B. Di. and Olivier, M., Benefits resulting from the combined use of ISO/IEC 15504 with the Information Technology Infrastructure Library (ITIL). 4th International Conference Product Focus. Software. Process Improvement. Heidelberg. Germany. Springer Berlin. 2002, pp. 314 –325.

[27] Carr, C. L., Reciprocity: The golden rule of IS-user service relationship quality and cooperation. Communication of the ACM, 49 (6), pp. 77–83, 2006. [28] Lee, J.-N., and Kim, Y.-G., Effect of partnership quality on IS outsourcing success: Conceptual framework and empirical validation. Journal of Management Information Systems, 15 (4), pp. 29–62, 1999.

[41] Cando, N L., Cruz, J D. and Paredes, N.J., Sistema para la gestión de configuraciones y cambios (ITIL v3), Disertación para el Departamento de Administración y Desarrollo de Tecnologías de Información y Comunicación de la Universidad Central del Ecuador, Ecuador.

[29] Jia, R. and Reich, B.H., IT Service Climate - An essential managerial tool to improve client satisfaction with it service quality. Information Systems Management 28 (1), pp. 174–179, 2011.

[42] Keller, A. and Midboe, T., Implementing a service desk: A practitioner’s perspective, in: Kiriha, Y., Granville, L.Z., Medhi, D., Tonouchi, T., Kim, M.S. (Eds.), Proceedings of the 2010 IEEE-IFIP Network Operations and Management Symposium. IEE, New York, 2010, pp. 685–696.

[30] Lepmets, M., Ras, E., and Renault, A., Impact analysis of process improvement on it service quality, in: Snene, M., Ralyté, J., Morin, J.-H. (Eds.), Exploring services science, Lecture notes in Business Information Processing. Springer Berlin Heidelberg, pp. 227–231, 2011.

H. Gil-Gómez, received the Bs. Eng in Telecomunications in 1997 and the PhD degree in Telecomunications Engineering in 2003, all off them from the Universitat Politècnica de València (UPV) in Spain. Currently, he is a Full Professor in the Business Administration Department at UPV and Full Researcher at the ai2 Institute in UPV (www.ai2.upv.es). His research interests include: Innovation at multisectorial organizations, Marketing and customer behavior and Integration of Information Technologies (IT) in Public and Private Organizations with a special interest in Low Cost technology for Health.

[31] Schlosser, F., Wagner, H.T., Beimborn, D. and Weitzel, T., The role of internal business/IT alignment and IT governance for service quality in IT outsourcing arrangements, in: 2010 43rd Hawaii International Conference on System Sciences (HICSS). Presented at the 2010 43rd Hawaii International Conference on System Sciences (HICSS), 2010, pp. 1–10. [32] Longo, A. and Bochicchio, M., Modelling SLAs check points along multiple service chains, in: 23rd International Workshop on Database and Expert Systems Applications (DEXA). Presented at the 2012 23rd International Workshop on Database and Expert Systems Applications (DEXA), 2012, pp. 73–77.

R. Oltra-Badenes, has the PhD degree in Industrial Engineering. He has been partner and director of operations at companies’ of information systems (IS) consulting, and currently he is professor at the Universitat Politècnica de València (UPV) and Universitat Jaume I. He has participated in research projects and has published in various areas of IS an IT. Is Specialist degree in "Integration of IT in Organizations" by the UPV, and in "Business Administration" and "Business Management in the Digital Age", by the Universidad Politécnica de Madrid. In addition, he is certified as ITIL Expert and ISO 20,000. His research interests include: Information Systems, IT Service Management, Innovation at multisectorial organizations, and Operations and Logistics.

[33] Bauset, M.C. and Rodenes, M., Gestión de los servicios de tecnologías de la información: Modelo de aporte de valor basado en ITIL e ISO/IEC 20000. El Profesional de la Información. 22 (1), pp. 54–61, 2013. [34] Hoerbst, A., Hackl, W.O., Blomer, R. and Ammenwerth, E., The status of IT service management in health care - ITIL® in selected European countries. BMC Medical Informatics and Decission Makers. 11 (1), 76, 2011.

W. Adarme-Jaimes, received the Bs. Eng in Industrial Engineering in 1992, the MSc degree in Engineering – logistics in 2007 and the PhD degree in Engineering Industry/Organization in 2012. Currently, he is a Full Professor in the Industrial Department at Universidad Nacional de Colombia and Full Researcher at the SEPRO - LOGISTICS Group (www.seprologistica.unal.edu.co). His research interests include: Logistics and Supply Chain Managemet in Public and Private Organizations.

[35] Cabinet Office (a). ITIL Service Strategy. TSO (The Stationery Office).United Kingdom, 2011.

56


Photorealistic simulated modelling from fractals applied to minedout pit restoration Iván de Rosario-Amado a, José Santiago Pozo-Antonio b, Gabriel Lorenzo-Salgueiro c, Jorge Feijoo-Conde d & Javier Taboada-Castroe. Escuela de Ingenieros de Minas, Universidad de Vigo, España. ivanderosario@gmail.com. b Escuela de Ingenieros de Minas, Universidad de Vigo, España. ipozo@uvigo.es c General de Hormigones S.A., España. glorenzos@gedhosa.masaveu.com d Escuela de Ingenieros de Minas, Universidad de Vigo, España. jorgefeijooconde@gmail.com. e Escuela de Ingenieros de Minas, Universidad de Vigo, España. jtaboada@uvigo.es. a

Received: May 13th, de 2013. Received in revised form: July 14th, 2014. Accepted: July 25th, 2014

Abstract 3D modelling has been used to simulate the restoration of mining environments, mainly due to ease of use. However, this technique poorly models natural structures, such as leaves, coastlines, mountain systems, etc. Recent digital technology innovations have led to the development of fractal geometry software that reiterates geometric objects at different scales. Below we describe how this geometry can be used for environmental restoration and rehabilitation. We present a case study describing an application of fractal geometry to the restoration of a mined-out open pit. We conclude with a discussion of the advantages — mainly realism and the rapid execution time — of using this type of geometry versus 3D modelling for mining restorations. Keywords: Euclidean geometry, Fractal geometry, Landscape, Mining, Open-pit mine, Landscape integration.

Modelo de simulación fotorrealística a partir de fractales aplicados a la restauración de entornos mineros Resumen A la hora de realizar las restauraciones de entornos mineros, se ha empleado la modelización 3D debido fundamentalmente a su facilidad de manejo. Sin embargo, esta técnica no obtiene buenos resultados cuando genera estructuras naturales, como hojas de árboles, bordes de costa o sistemas montañosos. Gracias al desarrollo de la tecnología digital en los últimos años, nace el empleo de software informáticos basados en la geometría fractal, basada en la repetición continua de diversos objetos geométricos en diferentes escalas. Este trabajo está constituido por dos secciones diferenciadas. La primera presenta el fundamento de esta geometría orientada a restauraciones y rehabilitaciones medioambientales. La segunda parte presenta un caso práctico de restauración de una corta minera. Finalmente se presentan las ventajas del empleo de este tipo de geometría frente a la modelización 3D en el ámbito de las restauraciones mineras, destacando su realismo y bajo tiempo de ejecución. Palabras clave: Geometría euclidiana; Geometría fractal; Paisaje; Minería; Corta minera; Integración paisajística.

1. Introduction Landscape is understood to be the perception or set of sensations (visual, auditory and olfactory) produced by a natural setting in which humans have or have not intervened [18]. Landscape protection policies exist at the European level whose origins lie in two conferences in particular: the 1972 UNESCO World Heritage Convention held in Paris and the 2000 Council of Europe European Landscape

Convention held in Florence. Both declare the landscape to play an important public interest role in the cultural, ecological, environmental and social fields [26]. Nonetheless, the lack of reliable and up-to-date information from the European Union related to the type, location, size and conservation status of natural and semi-natural habitats is an obstacle to implementing the Pan-European Biological and Landscape Diversity Strategy [19]. Skãlos and Kašparová [21] discuss — in relation to the

© The author; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 57-64. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Rosario-Amado et al/ DYNA 81 (186), pp. 57-64. August, 2014.

built from other predefined shapes such as cones, spheres, cylinders, tubes, ring, pyramids etc. via non-uniform rational basis spline (NURBS) curves [28-30]. This geometry is not able to accurately represent forms of nature, however. Natural phenomena like mountains, coastlines, river systems, clouds, leaves, snowflakes, etc. are best described and illustrated by objects whose dimensions are not expressed as integers but as fractions (fractal dimensions). Thus, a straight line has dimension 1, whereas a fractal curve has a dimension whose value lies between 1 and 2, depending on the space occupied in the plane and their relative behaviour [24]. The Koch curve is one of the most common deterministic fractals [5]. Introduced by Helge von Koch in 1904, it is an example of a curve that has no tangent at any point. Figure 1 shows how the Koch curve is constructed, starting from the unit interval (initiator). The central interval of length 1/3 is replaced by two segments of the same length at an angle of 60 degrees so that the generator length is increased to 4/3. This growth factor is associated with each iteration, with the operation repeated in each of the 4 intervals formed, and so on. The Koch curve is the limit of this infinite process. The mathematical expression for calculating the dimension of a fractal is as follows:

European Landscape Convention [26,12] and the case of mining — the issues of identifying and quantifying the values of what are called "ordinary cultural landscapes" and the associated loss of cultural memory, drawing comparisons with the landscapes resulting from farming activities. Uncontrolled and disordered growth of mining infrastructures and operations has altered the landscape resource, greatly affecting perceptions of mine surroundings. As a result of this habitat destruction [7], visual unity is fragmented in small regions isolated from each other [6]. A number of indicators have been developed aimed at assessing the quality of the landscape and quantify its ecological importance [19,26]. 1.1. Simulation of mined-out open pits restoration: 3D modelling and fractal geometry The social and political pressures to restore mined-out open pits has been growing in recent years. 3D modelling has been the technique of choice for simulating the appearance of an area in different seasons of the year through variations in the sun’s position and atmospheric conditions, determining how far water would rise in a flood situation and verifying that the restored orography and vegetation would be integrated in the landscape [8, 20]. 3D modelling is also used to study the behaviour of structures that are still in the exploitation-place over time. [32]. However, 3D models represent natural forms (coastlines, tree branches, rocks, mountains, etc.) using Euclidean geometry and so require vast amounts of data for detailed description and representation, not to mention the substantial processing time needed. Another type of geometry that would simulate more realistic models more rapidly is fractal geometry [4,13], by means of which the structure of objects is repeated in different scales (called fractals). This structure is generated by a recursive or iterative process that is capable of producing similar structures regardless of the viewing scale [16]. An irregular or fragmented geometric element can be subdivided into parts, each of which is approximately a smaller copy of the set [24]. General characteristics of fractals include the following: they have detail at all scales, they are self-similar, they have a simple algorithmic definition and the topological dimension is less than the Hausdorff dimension, which is an extended non-negative real number associated with any metric space. The Hausdorff dimension of an n-dimensional inner product space equals n. This means that the Hausdorff dimension of a point is zero, the Hausdorff dimension of a line is one and the Hausdorff dimension of the plane is two [14]. A number of works describe the use of fractal geometry to describe contours and surfaces in disciplines as diverse as biology, geology, physics, etc., to describe or analyse hydrological systems [15], buildings [22], landscapes [23], etc. Euclidean geometry, typically used for 3D representation of manmade objects (buildings, rooms, etc.), is based on the measurement of elements such as points, lines, planes and volumes that combine to form specific figures or shapes [17]. 3D modelling can represent coordinates forming meshed structures wrapped by a texture. More complex objects are

D=[log(Nn+1/Nn)]/[log(rn/rn+1)]

(1)

where D is the fractal dimension, Nn is the number of fragments of size rn (the scale). If the fractal is definite, the length of the line approaches infinity while its area continues to be 0. The Hausdorff dimension for the Koch curve is D = log(4)/log(3)=1.26185, as it is self-similar, with 4 parts similar to the total on the scale 1/3.

Figure 1. Koch curve generation process. Source: The authors

58


Rosario-Amado et al/ DYNA 81 (186), pp. 57-64. August, 2014.

Figure 2. Cantor set Source: www.dma.fi.upm.es

Figure 4. The Barnsley fern. Source: Barnsley, 1986

Undoubtedly, the most famous fractal is the Mandelbrot set M, defined as the set of complex numbers c of the complex plane C, for which the associated Julia set of fc is connected (Figure 5). Small perturbation of Julia set values, can cause drastic changes in the sequence of iterated function values. The escape-time algorithm is the tool used to computationally apply fractals. To obtain computer images of the Mandelbrot set, considered is a number N of order 100. For each c of the window to be drawn — choosing increasingly smaller windows with greater zoom, as shown in Figure 6 — the terms of the sequence fck (0) are computed. If the N first terms all confirm that |fck(0)|<2, i.e. they do not leave the circle with center 0 and radius 2, then c belongs to the Mandelbrot set and is painted black. If, however, there exists k≤N with |fck(0)|>2, then the computation is halted for this c as it is outside the

Figure 3. Sierpinski triangle generation. Source: www.dma.fi.upm.es

The Cantor set (Figure 2) is a subset of points in the interval [0, 1]. Removed from the unit interval Io is the central open interval of length 1/3, where the intervals are I11=[0,1/3] and I21=[2/3,1], and so on successively, until, in the nth step we have 2n intervals I1n, I2n,..., I2nn of length 1/3n. Reducing the Cantor set by the factor r=1/3 leaves just two equal parts, each measuring 1/2 of the measurement of the Cantor set. The dimension D of a combined set on the scale 1/3 is the number that holds that 1/3D=1/2, i.e. the dimension of similarity (and also the Hausdorff dimension) of the Cantor set is D= log (2)/log(3)=0.6309297. Another example is the Sierpinski triangle (Figure 3). Removed from an equilateral triangle T is a (borderless) triangle resulting from joining the midpoints of the sides of the original triangle. In this first step three new triangles T1, T2 and T3 are obtained, each of which undergoes the same process. Thus, obtained successively are 3, 9, 27, 81, etc. triangles, each a copy at scale 1/2 of the previous stage’s triangle, with D=log(3)/log(2)=1.584962. By varying, in each iteration, the points of approximation, the distance (not necessarily 1/2) and the assigned probability in order to choose the apex, different fractals can be obtained, such as the Barnsley fern shown in Figure 4 [2]. It could be said that fractal geometry is the language of nature. Through the repetition of simple instructions (squeezing, stretching, removing, folding, etc.) complex forms and structures are generated whose dimensions do not have to be integers [9,10].

Figure 5. Representation of the Mandelbrot set. Source: www.dma.fi.upm.es 59


Rosario-Amado et al/ DYNA 81 (186), pp. 57-64. August, 2014.

This operation produces 5 new intersections, each assigned a random perturbance over the initial zero height (Figure 7). The process is iterated until a total of LxL squares is obtained (Figure 8). For each iteration the absolute value of the perturbance over the newly generated points is reduced. This is the factor that regulates terrain roughness; thus, larger reduction factors produce smoother surfaces and smaller reduction factors produce rougher surfaces. It is normal practice in landscape generation programs to set a threshold (sea level). The aim of this research was to determine whether this new modelling technique could represent an effective alternative to conventional 3D modelling for mining environments, in terms both of the realism of the simulation and the time investment. For this purpose, we performed fractal simulations of the restoration of a mined-out open pit.

Figure 6. Enlarged Mandelbrot set. Source: www.dma.fi.upm.es

2. Methodology

Figure 7. First steps in generating an artificial terrain. Source: www.dma.fi.upm.es

The goal was to visualize the restoration of a mined-out open-pit mine and to verify whether the restoration would suit the terrain and flora of the surroundings and minimize impact on both the environment and the people living in the vicinity. For this purpose, the topographical map of the open-pit mine in .dwg format (Autodesk) was used. Using the AutoCAD Civil computer code we created a 3D surface bounded by the outer limits of the .dwg topographical map and configuring a square mesh. With the UTM coordinates of the surface correctly georeferenced and scaled, the points of the surface were extracted in a mesh with a stipulated distance between contour lines, in this case 5 m, and an angle between lines of 3.125o. The procedure is described below for Autocad Civil 2010 and summarized in chart form in Figure 11. 1. Topographic map: Start with the contour lines (.dwg) for the mined area in UTM coordinates (x,y,z). 2. Generate the surface: a) Extract contour line points in ASCII code using the “ExtractPoints” tool. b) Increase the number of contours by linear interpolation. c) Save the set of points representing the surface mesh (Figure 9) as an ENZ formatted file.

Mandelbrot set, i.e. it has "escaped" from the previous circle. If each number K between 0 and N is assigned a colour and if each number c is represented in the colour corresponding to the first K such that |fck(0)|>2 — i.e. the moment of escape from the enclosed area — then we obtain the typical images of the Mandelbrot set. The escape‐time algorithm is used in the fractal image generation [31]. Random fractals also exist, characterized by the random elements involved in their construction [25]. This kind of fractal enables simulation of natural phenomena. A fractal landscape is a representation of a real or imagined landscape produced by fractals [1]. Several approaches can be used to build this type of landscape, but one of the easiest is basically to divide the square where the landscape will be restored into 4 equal parts and then randomly displace the shared central point. This process is repeated recursively in each square until the desired level of detail is obtained.

Figure 8. Grid of LxL squares (32x32). Source: www.dma.fi.upm.es

Figure 9. Appearance of the mesh of points representing the surface. Source: The authors 60


Rosario-Amado et al/ DYNA 81 (186), pp. 57-64. August, 2014.

application meshes that could be modified in terms of plant size and density. These objects had certain textures and colours characteristic of the vegetation they represented, so the layer of base colours (called shaders) was not modified. All the flora was taken from the Xfrog library [27] which has an extensive range of trees, plants and flowers that can be uploaded to Terragen. The native species Betula lenta, Abies grandis and Galium aparin were the main species chosen. The slopes of the pit were also planted with native species to improve integration with the landscape. Atmosphere To define the atmosphere visual field parameters can be added referring to fog density and height, sky line height and ambient light. Obtaining meteorological parameters for a particular period in the past (year, month, day, hour) enables the atmosphere for that particular day to be reproduced. The atmosphere introduced in our case was fog and, in another simulation, altocumulus. Lighting For lighting, which depends directly on the position of the sun, defined were the sun’s declination for day d and elevation with respect to the zenith for hour h. Water The water behaviour parameters are level, light effects, relative depth, penetrating light attenuation, roughness and wave effect. Given the characteristics of the mined-out pit, a convenient restoration solution from technical, environmental and socioeconomic perspectives was to create a lake, as water table characteristics permitted this quick restoration solution for a very small investment while equipping the area with a recreational facility: • Water level 250 m • Maximum radius: 300 m • Reflections: 75% • Transparency 10% Once all the environmental variables and objects were introduced, a point of view was selected so as to render and create the image of the terrain from that point.

1. Convert to .txt format: Applying a geostatistical code, process the ENZ file further to improve surface definition using an algorithm for matrix smoothing between the points, with a number n (with a value between 0 and 100) inserted between points. 2. Transform from .txt to .ter format using Global Mapper software, so as to be able to work with fractal mathematics in Terragen 2 Deep Edition (Figure 10).

Figure 10. Uploaded .ter file in Terragen. Source: The authors

3. Results

Figure 11. Simplified diagram of the process. Source: The authors

Processing in Terragen started with the loading of the terrain data (.ter) in the workspace. The “node network” tool lists environment variables as follows: • Terrain height, colour and texture of vegetation cover. • Terrain slope: stony, angles of over 75 degrees, gneiss hue and texture. • Shading: moss shades and textures depending on terrain orientation and slope. • Substrate: mechanical erosion areas with gneiss texture. • Water: behaviour based on slope and relative heights. Flora To correctly assign the flora the application meshes had to be taken into account. Populations of various types of tree, shrub and flower species were inserted through

Figure 12. View from the open-pit base on a foggy day. Source: The authors 61


Rosario-Amado et al/ DYNA 81 (186), pp. 57-64. August, 2014.

Figure 13. Simulation of the unrestored mined-out pit. Note the grass and moss beginning to grow in the base and on the berms. Source: The authors

Figure 16. Simulation of a completed restoration with vegetation in the open-pit base. Source: The authors

The renderings resulted in a high degree of realism in the simulations. Furthermore, starting with just the contour lines for the mined-out open pit, the time required was under 30 minutes, including a rendering time of 6 minutes (Pentium (R) Dual-Core CPU T4500 2.3 GHzRAM 3GB and Terragen 2.0 software). Different simulations of the restoration are reproduced below: a foggy day (Figure 12); if left abandoned (Figures 13 and 14); with a lake (Figure 15); with vegetation at the base (Figure 16). The last two alternatives offered the best landscape integration. 4. Discussion Figure 14. Simulation of the unrestored mined-out pit after several months. The water level has risen to create a lake. Source: The authors

The main advantages of fractal versus 3D modelling are summarizes as follows: 1. Rendering time is shorter. 2. Natural objects are better represented. 3. Recursive procedures rather than equations are used to model fractal objects. 4. Detail is good for all scales of observation. 5. Models are easily generated with computers. 6. Numerous parameters can be entered and varied rapidly and easily: • Terrain: roughness, colour, texture etc. • Water: level, roughness, wave effect, transparency, etc. • Clouds: size, distribution, density, etc. • Atmosphere: decay, colour, mean density, etc. • Lighting: direction, intensity, position of the sun, height, colour, etc. • Colour (for any variable). 1. Photorealism or hyperrealism is achieved, provided all the parameters are well combined.

Figure 15. Simulation of a completed restoration with lake. Source: The authors

5. Conclusions

Specific weather and environmental conditions were simulated according to different sets of initial parameters.

Fractals are apparently complicated geometrical sets but actually require very little information for their description, 62


Rosario-Amado et al/ DYNA 81 (186), pp. 57-64. August, 2014.

construction and exploration. The main characteristic of fractal structures is the infinite iteration of a simple process to create an object. They are usually viewed as similar at all levels of magnification, whereas natural objects like clouds, mountains, lightning, shorelines, tree branches, etc. approximate fractals. Fractal mathematics applied using computer software can be used to simulate different mining environments rapidly and easily. The software allows many variables to be added to the model, resulting in high-resolution images that preserve the real forms of the terrain. This kind of simulation would not be feasible with 3D modelling due to the time required to introduce variables and the lower realism resulting from geometric shapes. Fractal geometry offers an effective and promising way to model quarries, open-pit mines and other mining environments and restored landscapes.

[13] Lennartz, S. and Bunde, A., Distribution of natural trends in longterm correlated records, A scaling approach. Physical Review E 84, 021129, 2011. [14] Li, J-J., Wang, X-R., Wang, X-J., Ma, W-C. and Zhang, H., Remote sensing evaluation of urban heat island and its spatial pattern of the Shangai metropolitan area, China. Ecological Complexity, 6 (4), pp. 413-420, 2009. [15] Livina, V., Kizner, Z., Braun, P., Molnar, T., Bunde, A. and Havlin, S. Temporal scaling comparison of real hydrological data and model runoff records. Journal of Hydrology, vol. 336, pp. 186-198, 2007. [16] Mandelbrot, B.B., The fractal geometry of nature. W.H. Freman and Co. 1977. [17] Mandelbrot, B.B., Gefen, Y., Aharony, A. and Peyriere, J., Fractals, their transfer matrices and their eigen-dimensional sequences. Journal of Physics A, Mathematical and General, 18 (2), pp. 335354, 1985. [18] Marí-Costa, V., Ecohistory of the agrarian landscape. An application for the Pituso field, pp. 240-250, 2003.

Acknowledgments

[19] Martínez, S., Ramil, P. and Chuvieco, E., Monitoring loss of biodiversity in cultural landscapes. New methodology based on satellite data. Landscape and Urban Planning, 94, pp. 127-140, 2010.

José Santiago Pozo wants to thank to University of Vigo for the financial support given. References

[20] Pacina, J., Novák, K. and Weiss, L., 3D modeling as a tool for landscape restoration and analysis, IFIP Advances in Information and Communication Technology, 359 AICT, pp. 123-138, 2011.

[1]

[21] Skãlos J. and Käsparova, I., Landscape memory and landscape change in relation to mining, Ecological Engineering, 43, pp. 60-69.

Anhaia, T.R.S., Luiz, A.M.E., Leitão, K. and Moro, R.S., Pitagui´s river upper course landscape in the Parana first Plateau, Brazil. RA´E GA-O Espaco Geografico en Analise, 24, pp. 134-148, 2012.

[2]

Barnsley, M.F., Fractal functions and interpolation. Constructive Approximation, 2 (1), pp. 303-329, 1986.

[22] Taketomi, T., Sato, T. and Yokoya, N., Real-time and accurate extrinsic camera parameter estimation using feature landmark database for augmented reality, Computer and Graphics, 35, pp. 768-777, 2011.

[3]

Barnsley, M.F., Massopust, P., Strickland, H. and Sloan, A.D., Fractal modeling of biological structures. Annals of the New York, Academy of Sciences, 504, pp. 179-194, 1987.

[23] Tannier, C., Foltête, J.C. and Girardet, X., Assessing the capacity of different urban forms to preserve the connectivity of ecological habitats, Landscape and Urban Planning, 105, pp. 128-139, 2012.

[4]

Bogachev, M.I., Eichner, J.F. and Bunde, A., Effect of nonlinear correlations on the statics of return intervals in multifractal data sets. Physical Review Letters, 99 (24), pp. 1-4, 2007.

[24]

[5]

Bunde, A. and Havlin, S., A brief introduction of fractal geometry, Fractals in science. Springer Verlag, 1994.

[6]

Chrabra, A., Geist, H.J., Houghton, R.A., Haberl, H., Braimoh, A.K. and Vlek, P.I., Multiple impacts of land-use/cover change. In: Lambin, E.F. and Geist, H.J., Land-use and land-cover change. Local Processes and Global Impacts, Berlin, Sringer-Verlag, 2006, pp. 71-116.

[25] Vlad, M.O., Schönfish, B. and Mackey, M.C., Self-similar potentials in random media, fractal evolutionary landscapes and Kimura’s neutral theory of molecular evolution, Physica A, 229, pp. 343-364, 1996.

[7]

Dirzo, R. and Raven, P.H., Global state of biodiversity and loss. Annual Review of Environmental and Resources, 28, pp. 137-167, 2003.

[8]

Fadda, S., Fiori, M. and Matzuzzi, C., Developing rehabilitation design for the abandoned mine excavations in central Sardinia. International Journal of Mining, Reclamation and Environment, 24 (4), pp. 286-306, 2010.

[9]

Thomas, I., Frankhauser, P. and Biernacki, C., The morphology of built-up landscapes in Wallonia (Belgium). A classification using fractal indices, Landscape and Urban Planning, 84, pp. 99-115, 2008.

[26] Déjeant-Pons, M., The European landscape convention. Spatial Planning and Landscape Division, Council of Europe, Europe, France, Landscape Research, 31 (4), pp. 363-384, 2006. [27] Xfrog. Manual. Xfrog Corporation, 2011. [28] Yue, Y. and Jia, J., Computing offsets of NURBS curve and surface. In: Tan,R., Sun, J. and Liu, Q., Automatic Manufacturing Systems II, Advanced Materials Research, 542-543, pp. 537-540, 2012. [29] Zhang, D., Qu, S. and Kang, B., A new digital image hiding approach using multi-image fusion, Proceedings 1st International Workshop on Knowledge Discovery and Data Mining, WKDD, Art. No. 4470458, pp. 553-557, 2008.

Falconer, K.J., The Hausdorff dimension of some fractals and attractors of overlapping construction. Journal of Statistical Physics, . 47 (1-2), pp. 123-132, 1987.

[30] Zhang, L-L., Estimation of box dimension for fractal image based on escape time algorithm. Fangzhi Gaoxiao Jichukexue Xuebao, vol. 21 (3), pp. 364-367, 2008.

[10] Falconer, K.J. and Howroyd, J.D., Packing dimensions of projections and dimension profiles. Mathematical Proceedings of the Cambridge Philosophical Society, 121 (2), pp. 269-286, 1997.

[31]

[11] Falconer, K.J. and Hu, J., Nonlinear diffusion equations on unbounded fractal domains. Journal of Mathematical Analysis and Applications, 256 (2), pp. 606-624, 2001.

Zhang, G., Lu, J., Song, K., Zhan, S. and Liang, Y., The change of landscape pattern in Zhenlai Xian, Jilin Province in recent ten years, Shengtai Xuebao/ Acta Ecologica Sinica, 32 (12), pp. 3958-3965, 2012.

[32] Rojas-Sola, J.I., Montalvo-Gil, J.M. and Castro-García, M., 3D modelling and functional analysis of a head frame for mineral extraction. DYNA, 80 (181), pp. 118-125, 2013.

[12] Farina, A. and Bergrano, A., The eco-field hypothesis, toward a cognitive landscape. Landscape Ecology 21, pp. 5-17, 2005. 63


Rosario-Amado et al/ DYNA 81 (186), pp. 57-64. August, 2014. I. De Rosario-Amado, received a Bs. Eng in Mining in 2009, a MSc. degree in Environmental Technology in 2011, all of them from the University of Vigo, Espa単a. From 2012 to 2013, he worked in the Department of Natural Resources Engineering and Environment in University of Vigo in several projects related with mining and Conservation and Restoration of Built Heritage.

developing european projects over security in mines of Finland, Italy and Spain. From 2011 to actually, he is Technical Lead of quarries and concrete plants in General de Hormigones, S.A. (Masaveu Corporation Spain). His research interest include: photorealistic simulation, landscape design and environmental restoration and conservation in mining. J. Feijoo-Conde, finished his university studies in Mining Engineering in 2008, and later a MSc. degree in Environmental Technology in 2011, all of them from the University of Vigo (Espa単a), University in which currently he is developing his PhD. degree in Environmental Technology. From 2009 to present day, he works in the Department of Natural Resources Engineering and Environment in University of Vigo in several projects related with mining and Conservation and Restoration of Built Heritage. Currently he is doing a research stay in the Technical University of Denmark (DTU). His research interests include: cultural built heritage, mining techniques, landscape management and landscape assessment.

S. Pozo-Antonio, received a Bs. Eng in Mining in 2009, a MSc. degree in Environmental Technology in 2010, and his PhD. degree in Environmental Technology in 2013, all of them from the University of Vigo, Espa単a. From 2010 to 2013, he worked in the Department of Natural Resources Engineering and Environment in University of Vigo in several projects related with mining and Conservation and Restoration of Built Heritage. From 2013-2014 he got an internship in Getty Conservation Institute in Los Angeles (USA). His research interests include: cultural built heritage, mining techniques, landscape management and landscape assessment. G. Lorenzo-Salgueiro, received a Bs. Eng. in Mining in 2009, a MSc. degree in Environmental Technology, all of them from the University of Vigo, Pontevedra, Spain. In 2007 he presented the first photorealistic simulation modelling process with fractals technology in Vigo's University. From 2009 to 2010, he worked in Explotaciones Mineras del Morrazo, S.L (Spain) on developing environmental projects in opencast mines applying fractal mathematics in 3D designs. In 2010, he worked in a consultory

J. Taboada-Castro, received in 1993 the PhD. degree in Mining Engineering from the University of Oviedo, Spain, for a thesis on the design of underground coal mines. After working in the petroleum and the slates sectors, in 1993 he started working at the University of Vigo, where he is currently a professor. He has more than 60 articles in JCR journals and more than 50 international congresses.

64


Estimation of land use conflicts due to the dynamic of african Palm cultivation using remote sensing in Cesar, Colombia Angie López-Duque a & Verónica Botero-Fernández b b

a Universidad Nacional de Colombia, Colombia. alduque06@gmail.com Departamento de Geociencias y Medio Ambiente, Facultad de Minas, Universidad Nacional de Colombia, Colombia. vbotero@unal.edu.co

Received: May 6th, 2013. Received in revised form: November 8th, 2013. Accepted: July 23th, 2014

Abstract Evaluation methods are presented to identify land use conflicts in Cesar, Colombia, due to African Palm crops. The seeding dynamics of palm are evaluated over several periods to determine if it has displaced more suitable land uses, occupied protected areas, or substituted forest ecosystems. The main intention is to resolve any doubts and corroborate declarations about the establishment of this species. The localization, extension, and growth of palm crops were determined through remote sensing and spatial analysis, as well as the land use conflicts. Recommendations are given to the scientific community and to palm growers. Although minimal, unsuitable land uses due to seeding of palm mainly present conflicts with the underutilization of moderately fertile land and the invasion of water protection areas. Keywords: remote sensing, african Palm, seeding dynamics, land use, GIS.

Estimación de conflictos de uso de la tierra por la dinámica de cultivo de Palma africana usando sensores remotos en el Cesar, Colombia Resumen Se presentan métodos de evaluación del conflicto por uso de la tierra en el departamento del Cesar, debido al cultivo de Palma africana. Se evaluó si la dinámica de cultivo de palma en distintas épocas, ha incluido desplazamiento de usos más adecuados de la tierra, ocupación de áreas protegidas, o sustitución de ecosistemas boscosos, para resolver algunos supuestos y corroborar declaraciones sobre el establecimiento de esta especie. Se determinó la ubicación, extensión y crecimiento del área de las plantaciones de palma y los conflictos de uso de la tierra por expansión de su cultivo, con base en análisis espaciales. Se hacen recomendaciones a la comunidad científica y a los palmicultores, considerando que aunque son mínimos los usos inadecuados de la tierra por la siembra de palma, principalmente se presentan conflictos por subutilización de tierras moderadamente fértiles, así como la invasión de áreas de retiros a corrientes hídricas y nacimientos de agua. Palabras clave: imagen satelital, Palma africana, dinámica espacial de cultivo, uso de la tierra, SIG.

1. Introducción Durante el establecimiento y manejo de las plantaciones de Palma africana en Colombia, se han presentado conflictos de tipo social y también ambiental como la destrucción de bosques nativos protectores en el Chocó biogeográfico y deforestación de 456 ha de selva por tala rasa en el municipio de Tumaco [1], así como alteración de suelos y ciclos del agua en épocas de sequía en las Regiones Orinoquía y Caribe [2]. Estas situaciones existen a pesar de que en el país, la producción de biodiesel todavía no supera la etapa de planta piloto [3].

Pero también se han reportado beneficios económicos, sociales y ambientales en los países donde se fomenta el cultivo de la palma, sin necesidad de acabar con una sola hectárea de bosque natural [4], situación acogida por el Gobierno Colombiano para incluir el cultivo en los Planes de Desarrollo Nacional [5]. Pero las notorias contradicciones son la razón para cuestionar si la ubicación de las plantaciones de palma no desplaza las coberturas y usos adecuados de la tierra. Las quejas de tipo social y ambiental no han sido

© The author; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 65-72. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


López-Duque & Botero-Fernández / DYNA 81 (186), pp. 65-72. August, 2014. Tabla 1. Identificación de imágenes satelitales Imagen satelital Fecha Path/Row Norte del Cesar Enero 7 1977 008/053 Sur del Cesar Enero 7 1977 008/054 Norte del Cesar Diciembre 30 1990 008/054 Sur del Cesar Agosto 14 1991 008/054 Sur del Cesar Agosto 14 1991 008/055 Norte del Cesar Octubre 4 2001 008/053 Sur del Cesar Agosto 1 2001 008/054 Sur del Cesar Febrero 6 2001 008/055 Norte del Cesar Enero 6 2007 008/053 Sur del Cesar Enero 9 2007 008/054 Fuente: Global Land Cover Facility. Sistema de proyección UTM 1984 Z 18N [7]

suficientes para reconsiderar el modelo expansionista del cultivo en Colombia. Según las cifras que muestra FEDEPALMA el cultivo de la palma en el país creció entre el 3% y 8% de 2006 a 2007, fomentado por la inversión y los subsidios [6]. En torno al tema no se han realizado estudios amplios sobre las implicaciones ambientales del cultivo en el país, a excepción de las investigaciones de tipo socioambiental en las zonas plantadas con palma en el Chocó biogeográfico. Esta investigación pretende evaluar si los cultivos de Palma africana en Colombia están ubicados de acuerdo con las normas que protegen el medio ambiente y que evitan su deterioro, estimando los conflictos de uso de la tierra por la propagación de los cultivos, usando herramientas tecnológicas para el procesamiento de imágenes y herramientas de análisis espacial. El estudio se realiza en el departamento del Cesar, facilitado por la disponibilidad y gratuidad de imágenes satelitales en escala adecuada con cobertura nubosa mínima, por el incremento del cultivo de la palma y la falta de estudios sobre los cambios en las coberturas de la tierra por la implementación del mismo.

Figura 1. Localización de las zonas de estudio. Fuentes: [9 - 10]

2. Materiales y métodos

Figura 2. Metodología General. Fuentes: [11 - 12]

2.1. Datos específicos para los análisis Con análisis espaciales se identifican los conflictos de uso de la tierra por establecimiento de Palma africana, el desplazamiento ejercido por estos cultivos y el efecto en la fragmentación sobre coberturas de bosques primarios y secundarios, además de la ubicación de los cultivos en áreas de protección del recurso hídrico (Fig. 2).

Para la realización del proceso metodológico, se hallaron imágenes Landsat MSS de 1977 con resolución espacial de 80m, Landsat TM de 1991 y Landsat ETM de 2001 y 2007 con resoluciones espaciales entre 28,5m y 30m (Tabla 1). 2.2. Zona de studio

2.3. Análisis de coberturas vegetales usando índices de vegetación

La Palma se ha establecido en las zonas planas donde los procesos de desarrollo se han enfocado principalmente a la actividad agropecuaria, acompañada por el auge de la agroindustria y la minería. La fertilidad de los suelos de estos municipios, entre moderada y alta, ha permitido por décadas la implementación de cultivos de arroz, Palma africana, pastos para la ganadería, algodón, plátano y maíz [8]. El cultivo de palma ingresó al Departamento en el año 1957 [6] y tuvo su mayor auge entre las décadas de 1970 a 1990.

Los Índices de Vegetación (IV) combinan la reflexión de la luz de una superficie en dos o más longitudes de onda y son diseñados para resaltar una propiedad particular de la vegetación [13]. El Índice de Diferencia Normalizada del Infrarrojo (NDII) relaciona las longitudes de onda del infrarrojo medio donde la absorción de humedad de las hojas es la mayor, y el infrarrojo cercano donde esta medida 66


López-Duque & Botero-Fernández / DYNA 81 (186), pp. 65-72. August, 2014.

es moderada (eq. 1). Según Melo y Camacho (2005), éste es el índice que resalta más los cultivos de Palma, bosques y cuerpos de agua [14]. ρ819

ρ1649 / ρ819

ρ1649

Análisis de precisión de las clasificaciones Año Grupo Zona Precisión Promedio (%) 1

(1)

1977 2

ρ1649: Valores digitales de la banda del espectro óptico (longitud de onda del infrarrojo medio, en la fracción de 1649 nanómetros). ρ819: Valores digitales de la banda del espectro óptico (longitud de onda del infrarrojo cercano, en la fracción de 819 nanómetros).

1 1991 2 1

2.4. Clasificación de las imágenes satelitales 2001

Para obtener las coberturas de la tierra, la imagen satelital se separa en dos grupos con el fin de aumentar la precisión en la clasificación. El primero se origina con la aplicación del NDII, que sirve para clasificar los bosques, cultivos de palma y cuerpos de agua. El segundo grupo es el resto de la imagen, donde se clasifican pastos, demás cultivos, rastrojos, zonas eriales. En cada grupo se identifican los tipos de coberturas a partir de campos de entrenamiento, cuyo trazado y tamaño varía con el área de las coberturas consideradas, y que fueron definidos por puntos de control georreferenciados y por la calibración de valores espectrales de cada cobertura, obtenidos con espectrómetro durante un reconocimiento en campo. Estos campos poseen las unidades de radiancia de cada cobertura que el intérprete considera [15]. Se elige el método de clasificación Maximum Likelihood (eq. 2), explicado por Schowengerdt [15], éste método a diferencia de Minimum Distance y Mahalanobis Distance, arrojó los mayores valores de precisión. gi x

ln p wi ½ ln |Σi| ½ x mi t Σi 1 x mi

2 1 2007 2

Norte Sur Sur Norte Sur Sur Norte Sur Extremo Sur Norte Sur Sur Edge Norte Sur Extremo Sur Norte Sur Extremo Sur Norte Sur Norte Sur

74,15 84,18 83,39 87,3 94,39 79,6 90,47 96,2 95,22 97,42 99,71 97,08 80,47 92,5 78,02 94,76 89,77 89,83 66,62 82,15 85,24 90,8

Coeficiente de Kappa 0,67 0,79 0,79 0,82 0,9 0,73 0,87 0,94 0,92 0,96 0,99 0,94 0,75 0,9 0,72 0,93 0,86 0,86 0,59 0,77 0,8 0,88

Fuente: Data come from this research

menor precisión y 1 la mejor, arrojó valores cercanos a 1. Sin embargo los valores que no estuvieron muy cercanos a 100% o a 1, indican algún grado de confusión, específicamente entre las coberturas de palma joven y rastrojo. En estas zonas se corrigió la clasificación de forma manual, con la modificación de los polígonos con base en las imágenes naturales y en composición en falso color. 2.5. Análisis Multitemporal de imágenes satelitales Previo a la clasificación de las imágenes satelitales y a su análisis multitemporal, se realizó una corrección atmosférica de dichas imágenes con el método Dark Object Subtraction [15]. Con el análisis de detección de cambios que ofrece el software ENVI, se realiza una comparación matricial que permite identificar, describir y cuantificar las diferencias entre dos imágenes clasificadas de una misma zona en diferentes fechas, generando una tabla multitemporal de cambios [15]. La información matricial genera estadísticas para la estimación del crecimiento de las categorías clasificadas en la imagen, así como las unidades de áreas reemplazadas por las demás categorías. Los resultados más relevantes son los que hacen alusión al reemplazo de otras coberturas por el cultivo de palma, así como el crecimiento o disminución de estos cultivos.

(2)

i: Clase (1, …., m con m el número de regiones de interés). x = valor digital de n dimensiones (vector donde n es el número de bandas). p(wi) = probabilidad de que la clase correcta para un pixel X sea wi. |Σi| = determinante de la matriz de covarianza de los datos en la clase wi. Σi-1 = es la matriz inversa. mi = vector de la media. Para realizar la clasificación se consideran los siguientes tipos de coberturas de la tierra, de acuerdo con las recomendaciones de DANE, IGAC y la Corporación Colombiana de Investigación Agropecuaria [16]: cultivos de Palma africana, bosques, rastrojos altos y bajos, pastos, otros cultivos, ríos y cuerpos de agua, áreas urbanas, eriales y suelos desnudos. A continuación se presenta el análisis de precisión de las clasificaciones por matriz de confusión (Tabla 2). Los niveles de precisión resultaron con valores adecuados (cercanos al 100%). El Coeficiente de Kappa, índice que mide la precisión de la clasificación, siendo 0 la

2.6. Análisis de conflictos de uso de la tierra debido al cultivo de Palma africana Los usos actuales de la tierra se definieron con base en las coberturas clasificadas y con ayuda de la guía para la elaboración de Planes Agropecuarios Municipales [17]. La superposición de los mapas de uso actual de la tierra (por municipio de interés) y áreas protegidas (escala 1:500.000) generaron las áreas en conflicto de uso en áreas protegidas. La superposición de los mapas de uso actual (por municipio de interés) y vocación de uso de la tierra (escala 1:500.000) generaron las áreas en conflicto de uso (excluyendo las áreas

Tabla 2. 67


López-Duque & Botero-Fernández / DYNA 81 (186), pp. 65-72. August, 2014.

protegidas ya evaluadas). 2.7. Índices de fragmentación de bosques y rastrojos Este análisis se realiza con el software Fragstats 3.3 de McGarigal y Marks (1995) y se calculan: área promedio de parches, densidad de parches, índice del parche mayor e índice de conectividad [18]. Este análisis sirvió de complemento al análisis de conflictos de uso de la tierra en el territorio, en las zonas donde se cultiva Palma africana. 2.8. Análisis de invasión de áreas de retiros a nacimientos y corrientes hídricas El Decreto 1449 de 1977 expresa que no se permite el establecimiento de actividades agropecuarias, urbanas, industriales ni comerciales en una franja de 30 metros en las corrientes hídricas y 100 metros a la redonda de los nacimientos de agua [19]. Así también la Ley 99 de 1993 exhorta al respeto de los retiros de las corrientes hídricas y sus nacimientos [20]. Por lo tanto se realiza un análisis con base en la cartografía básica a escala 1:100.000 de la red hidrográfica de los municipios del Cesar donde existen cultivos de Palma africana. Se logra superponiendo un mapa de buffer o barrera de 30m en las corrientes hídricas y de 100m alrededor de los nacimientos, con los mapas de coberturas de la tierra obtenidos en el proceso de clasificación de imágenes satelitales, considerando especialmente el cultivo de palma. 3. Resultados 3.1.

Dinámica de cultivo de Palma Africana en el departamento del Cesar

Figura 3. Mapas de la dinámica de cultivo de palma en el Cesar. Fuente: Instituto geográfico Agustín Codazzi - Igac

Los mayores incrementos en cultivos de palma se dieron en El Copey, San Martín y San Alberto en el año 1991 y en La dinámica de cultivo de palma es el resultado de la clasificación de las imágenes satelitales, identificando las áreas cubiertas por dichos cultivos en diferentes años. Los resultados para cada fecha se muestran en la Fig. 3. Becerril y Agustín Codazzi en 2001, con crecimientos superiores al 100%. El incremento al año 2007 fue mayor en Becerril (63,8%), Valledupar (48,5%), El Copey (24,7%) y Río de Oro (10,9%). Entre 1977 y 1991 los rastrojos altos y bajos sufrieron mayor desplazamiento por el cultivo de palma en San Alberto (20,9%) y en El Copey (5%). También remplazó áreas de pastos (>7%) en El Copey y San Alberto en el año 1991, así como en San Alberto en 2001. Aunque los bosques maduros no han sufrido efectos significativos, el 3% de éstos fueron desplazados en El Copey en el año 1991 y el 2% en Río de Oro en 2001.

resultante de esta investigación. En la Fig. 4 se presentan los conflictos de uso de la tierra por el establecimiento de palma en el Cesar.  Uso Adecuado. Áreas donde el uso actual de la tierra coincide con la vocación de uso.  Uso Inadecuado. El uso actual de la tierra es más intenso que el uso vocacional.  Uso Muy Inadecuado. El uso actual de la tierra es más intenso y deteriora la tierra en comparación con el uso vocacional.  Área Subutilizada. Cuando el uso actual ejerce una menor intensidad de uso que la que ejercería el uso vocacional.  Área Muy Subutilizada. Cuando el uso actual ejerce una menor intensidad de uso que el uso vocacional, este último permitiría una labranza más intensa de los suelos y un mayor uso de agroquímicos. Los principales conflictos se dan por subutilización de la tierra, al establecer cultivos de palma en áreas aptas para usos agrícolas más intensivos, especialmente en San Alberto (12%), El Copey (6,6%) y San Martín (4,5%), donde las áreas están subutilizadas y a la vez ocupadas con palma. El uso inadecuado de la tierra por cultivo de palma se dio por su establecimiento en zonas de Reserva Forestal. Alrededor del 10% del área de los cultivos de palma en el municipio de El Copey se encontraban en estas áreas en el año 2007. El uso

3.2. Conflictos de uso de la tierra en torno al cultivo de Palma africana A continuación se expresan las categorías de conflicto [17], que resultan de la confrontación entre la vocación de uso correspondiente a un mapa tomado del IGAC [21], y el uso actual de la tierra que es el mapa de coberturas

68


López-Duque & Botero-Fernández / DYNA 81 (186), pp. 65-72. August, 2014.

muy inadecuado de la tierra fue más significativo en el municipio de La Paz (1% de su área), por la presencia del cultivo de palma en zonas que deberían estar dedicadas a la conservación. 3.3. Fragmentación de bosques maduros y secundarios y repercusiones del establecimiento del cultivo de Palma africana La información del análisis de fragmentación de bosques y rastrojos sirvió para complementar el estudio de conflictos de uso de la tierra por el establecimiento de palma, considerando si el cultivo influyó en la fragmentación de dichas coberturas. La mayor fragmentación de los bosques se presenta en La Paz, San Martín y El Copey. En estos municipios el número de parches de bosque por cada 100 ha son mayores, con valores de 12,4 7,7 y 6,2 respectivamente; los parches más grandes sólo ocupan entre el 0,8% 0,9% y 0,7% de las áreas de estos municipios, respectivamente; y la probabilidad de que se encuentren juntos más de dos parches a una distancia de 100 metros es más pequeña en estos tres municipios (0,12%, 0,35% y 0,34% respectivamente). Los mayores valores de fragmentación de rastrojos altos y bajos se presentan en los municipios de San Martín y San Alberto. En estos municipios el número de parches por cada 100 ha son mayores, con valores de 17 y 10,3 parches respectivamente; los parches más grandes sólo ocupan entre el 0,1% y 0,06% de las áreas de estos municipios, respectivamente; y la posibilidad de que se encuentren juntos más de dos parches de rastrojo a una distancia de 100 metros es más pequeña en estos dos municipios (0,41% y 0,27% respectivamente). Los procesos de fragmentación de los bosques no han sido inducidos de forma significativa por el cultivo de palma, porque éste ha reemplazado pequeñas porciones de bosque, sin embargo su efecto es más considerable en el municipio de El Copey debido a que allí se ha presentado el mayor desplazamiento de la cobertura por palma. Las coberturas de rastrojo del municipio de San Alberto, que son de gran importancia ecosistémica para el crecimiento de la vegetación nativa y para la protección de suelos y cauces de agua, han sufrido procesos de fragmentación inducidos en forma significativa por el desplazamiento de dicha cobertura con cultivos de palma. 3.4.

Figura 4. Localización de conflictos de uso de la tierra por cultivo de palma Fuentes: Mapa de uso de la tierra, año 2007 (clasificación de las imágenes satelitales) y Mapa de vocación de uso de la tierra en Colombia, Escala 1:500.000 [21].

Este análisis tuvo en cuenta la superposición de la cobertura cultivos de Palma, con un mapa de zonas de retiro a corrientes hídricas y a nacimientos. Dicho análisis se realizó en ArcGis 9.2 con las funciones: selección por atributos y selección por ubicación. Para la delimitación de las zonas de retiro, se utilizó un buffer o barrera de 30 m en las corrientes hídricas y de 100 m alrededor de los nacimientos de estas corrientes, a partir de la red hídrica de cartografía básica. En la Fig. 5 se presenta la ubicación de los cultivos de palma según la zona de humedad climática. Como se observa en la Fig. 5, los cultivos de palma se ubican en zonas secas en los municipios de Valledupar, El Copey, La Paz y Agustín Codazzi, pero también en zonas húmedas en los municipios de Becerril, Río de Oro, San Martín y San Alberto. En la Fig. 6 se indica la invasión de los retiros a corrientes naturales de agua y sus nacimientos, con cultivos de Palma Africana.

Invasión de áreas de retiros a nacimientos y corrientes hídricas con cultivos de Palma africana

Este análisis se realiza para complementar los resultados de conflictos de uso de la tierra, y por razones consideradas en la legislación ambiental colombiana. Principalmente el Decreto 1449 de 1977 expresa que no se permite el establecimiento de actividades agropecuarias, urbanas, industriales ni comerciales en una franja de 30 metros en las corrientes hídricas y 100 metros a la redonda de los nacimientos de agua [19]. Así también la Ley 99 de 1993 exhorta al respeto de los retiros de las corrientes hídricas y sus nacimientos [20].

69


López-Duque & Botero-Fernández / DYNA 81 (186), pp. 65-72. August, 2014.

Figura 5. Mapa de humedad climática del Cesar y ubicación de cultivos de palma. Fuente: Malagón et. al. (1995), tomado de Jaramillo, Escala 1:500.000 [22].

Entre los años 2001 y 2007 el cultivo de palma se ubicaba en los retiros de fuentes hídricas en la zona de estudio correspondiente al Río Tucuy en Becerril, Río Fernambuco y afluentes del Río Sicarare y Casacará en Agustín Codazzi, Arroyo Fernández y retiro del Río Ariguaní en El Copey, Río Fernambuco y afluentes del Río Cesar en La Paz, Río San Alberto en San Alberto, Río Ovejas y Badillo en Valledupar y otros caños. Además el cultivo ocupaba áreas de retiro de los nacimientos de fuentes hídricas en los municipios de San Alberto y San Martín en el año 2001 (Fig. 6).

Figura 6. Invasión de retiros a Corrientes hídricas y sus nacimientos con cultivo de Palma africana. Fuente: Mapa de uso de la tierra, año 2007 (clasificación de las imágenes satelitales) e hidrografía del Cesar, Escala 1:100.000 [9]

4. Discusión de Resultados  El manejo de datos provenientes de sensores remotos con la aplicación de un SIG, resultó una herramienta útil para la Gestión Ambiental en este estudio territorial. Con investigaciones de este tipo es posible interpretar aspectos del desarrollo en un territorio, indicando los puntos a favor o en contra de una actividad económica, en un espacio común tanto para quienes obtienen beneficios de ella como para los que hacen parte de los medios natural y humano que los rodean.  El cultivo de palma tuvo su mayor incremento (mayor al 100% de su área inicial) entre 1977 y 1991, en los municipios de El Copey, San Martín y San Alberto. Época coincidente con una mayor inversión e incentivos económicos para la plantación de esta especie en el país.  El cultivo de palma desplazó significativamente coberturas de rastrojo en el municipio de San Alberto (alrededor del 20% de su área). Los pastos y zonas

 destinadas a cultivos transitorios, permanentes y otros pastos, fueron remplazados en menor proporción con valores superiores al 7% del área total de cada cobertura. Los bosques padecieron en un grado mínimo esta situación (1% - 2% de su área).  El principal conflicto por uso de la tierra que el cultivo de palma ha generado en el departamento del Cesar, es la subutilización de algunas áreas productivas o con vocación para usos agrícolas más intensos, que presentan principalmente niveles moderado y alto de fertilidad de los suelos. Debido a este conflicto, la población asentada puede ver vulnerada su seguridad alimentaria si no están protegidos por algún tipo de mercado externo.  La plantación de Palma africana ha producido un mínimo conflicto por uso inadecuado de la tierra en los municipios de La Paz, San Martín y Agustín Codazzi. Esto ha sido posible debido a la labranza de la tierra, necesaria instauración de sistemas de riego y explotación del recurso hídrico, en zonas de vocación para la conservación.  El efecto del cultivo de palma en la fragmentación del 70


López-Duque & Botero-Fernández / DYNA 81 (186), pp. 65-72. August, 2014.

bosque es mayor en el municipio de El Copey. Allí el cultivo ha creado conflicto por uso inadecuado de la tierra en áreas para la conservación y los relictos de bosque están más expuestos a los efectos de la actividad productiva de los cultivos de palma.  El cultivo de palma en el departamento del Cesar en algunos casos no tiene en cuenta normas que especifican que las áreas de retiro a corrientes hídricas y nacimientos deben ser respetadas. Además, en el año 2007, los cultivos de palma de los municipios de Agustín Codazzi, Valledupar y La Paz que invadían áreas de retiros a las corrientes hídricas y nacimientos, lo estaban haciendo en zonas secas de dichos municipios.

J. Forero y C. Durana, Universidad Javeriana e Instituto Mayor Campesino CIPAV, Villavicencio, 1997, pp. 85 - 95.

5. Conclusiones y recomendaciones 5.1. Conclusiones  El establecimiento de palma africana se encuentra en expansión, convirtiendo al cultivo en uno de los principales renglones económicos de la región y del país.  Los cultivos de palma ocupan medianamente zonas con vocación agropecuaria intensiva de la región del Cesar.  Algunas zonas de retiro a corrientes hídricas y nacimientos son ocupadas por cultivos de palma.  Los cultivos de palma no participan significativamente en la ocupación de áreas conservadas y/o áreas protegidas, por lo tanto no incrementan la fragmentación de los bosques nativos.

Prada, A., La razón de ser del instituto de la Orinoquía, en: Sabanas, vegas y palmares, el uso del agua en la Orinoquía Colombiana, Eds.

Henson, I., ¿Puede la palma de aceite sustituir el bosque húmedo tropical?, Palmas, 25 (1), pp. 95–105, 2004.

[5]

Colombia. Presidencia de la República de Colombia. Decreto 2629 de 2007. Santafé de Bogotá D.C., 2007.

[6]

Federación nacional de cultivadores de palma de aceite - Fedepalma, La agroindustria de la Palma de Aceite en Colombia y el mundo 2003 – 2007, Publicaciones Fedepalma - Oficina de Comunicaciones, Santafé de Bogotá D.C., 2008.

[7]

Global land cover facility, Landsat Imagery. Imagery from Earth Science Data Interface (ESDI) [Online], 1997 [date of reference December 1st of 2009]. Available at: http://www.landcover.org/

[8]

González, A. y Cortés A., Estudio general de suelos de los municipios de Codazzi, Manaure, La Paz, San Diego y Becerril, Ministerio de Hacienda y Crédito Público e Instituto Geográfico Agustín Codazzi - Subdirección Agrológica, Santafé de Bogotá D.C., 1982.

[9]

Instituto Geográfico Agustín Codazzi – IGAC. Geoportal de mapas de Colombia. Mapa físico político del Departamento del Cesar [Online], 2003 [date of reference December 1st of 2012]. Available at: http://www.igac.gov.co

[12] Van Der Hammen, T. y Andrade, G., Estructura ecológica principal de Colombia: Primera aproximación, Instituto de Hidrología, Meteorología y Estudios Ambientales – IDEAM y Ministerio de Ambiente, Vivienda y Desarrollo Territorial, Santafé de Bogotá D.C., 2003. [13] ITT Corporation, Tutorial of Environment for visualizing images (ENVI), United States, 2006. [14] Melo, L. y Camacho, M., Interpretación visual de imágenes de sensores remotos y su aplicación en levantamientos de cobertura y uso de la Tierra, Centro de investigación y desarrollo de información geográfica, Santafé de Bogotá, 2005. [15] Schowengerdt, R., Remote sensing: Models and methods for image processing, Academic Press, Tucson – Arizona, 1997. [16] Departamento Administrativo Nacional de Estadística – DANE, IGAC y Corporación Colombiana de Investigación Agropecuaria, Zonificación de los conflictos de uso de las tierras en Colombia. Bogotá, D.C., 2002. [17] Ríos, E., Velásquez, J., Álvarez, E., López, L., Salazar, C., et al., Metodología para la elaboración del programa agropecuario municipal, Ediciones Gráficas Ltda., Medellín, 1993.

Referencias

[2]

[4]

[11] Garzón, E., Botón, J. y Siachoque, R., Uso adecuado y conflictos de uso de las tierras en Colombia, en: Zonificación de los conflictos de uso de las tierras en Colombia, Eds. Gutiérrez, M.S., Devia, G.E. y Ávila, E.A., Cap. IV, Santafé de Bogotá D.C., 2002, pp. 1 – 106.

 La Corporación Autónoma Regional del Cesar, debe ser estricta en la aplicación de medidas correctivas para que los propietarios de predios donde se cultiva palma, modifiquen el área de los cultivos que invaden áreas de manejo especial como los retiros a las corrientes hídricas y sus nacimientos, que como tales deben estar declarados o propuestos en los Planes de Ordenamiento Territorial de los municipios como Suelos de Protección.  Es necesario replicar este estudio con fotografías aéreas anteriores al año 1977 para investigar si el cultivo de palma ha remplazado coberturas importantes de bosque y así concluir en mayor profundidad sobre las implicaciones del cultivo en la fragmentación actual de bosques y sus repercusiones.  Es ideal aplicar esta investigación para todo el país, así como la realización de una modelación de la expansión del cultivo por el incremento en producción de biodiesel. Para esto se deberá contar con imágenes de alta resolución como Ikonos o QuickBird y/o cartografía de mayor detalle.

Le Du, H., Minelli, F. y Mingorance, F., El Cultivo de la Palma africana en el Chocó, legalidad ambiental, territorial y derechos humanos, Editorial Códice, Quibdó, Colombia, 2004.

Zapata, C., Martínez, I., Castiblanco, E. y Henao, C., Producción de biodiesel a partir de aceite crudo de palma: Diseño y simulación de dos procesos continuos, DYNA, 74 (151), pp. 71-82, 2007.

[10] Ministerio de Ambiente, Vivienda y Desarrollo Territorial; Corporaciones autónomas regionales del Magdalena, Cesar y La Guajira y Fundación Pro-Sierra Nevada de Santa Marta, Mapa de Áreas protegidas escala 1:500.000, [Online], 2008 [date of reference December 1st 2009]. Available at: http://www.prosierra.org

5.2. Recomendaciones

[1]

[3]

[18] MCgarigal, K. and Marks, B., Spatial pattern analysis program for quantifying landscape structure: Software fragstats 3.3, U.S. Department of Agriculture, Forest Service and Pacific Northwest Research Station, Portland, 1995. [19] Colombia. Presidencia de la República de Colombia. Decreto 1449 de 1977. Santafé de Bogotá D.C., 1977.

71


López-Duque & Botero-Fernández / DYNA 81 (186), pp. 65-72. August, 2014. [20] Colombia. Congreso de la República de Colombia. Ley General Ambiental de Colombia. Ley 99 de 1993. Santafé de Bogotá, D.C., 1993.

V. Botero-Fernández, título de Ing. Civil de la Universidad EAFIT, Colombia en 1994. En 1997 obtuvo título de MSc. en Estudios Geológicos del Instituto Internacional para Ciencia de Geo-Información y Observación de la Tierra, en Enschede, Holanda. En 2009 obtuvo su PhD de la Universidad de Utrecht Holanda, con una disertación titulada “Geoinformación para la evaluación de la vulnerabilidad sísmica: Una aproximación a la determinación de la aptitud para el uso”. De 1994 hasta 1995 trabajó como Ingeniera Geotécnica para Integral S.A. En 1997, luego de obtener su M.Sc. retornó a Colombia para trabajar en la misma compañía de consultoría, como analista de geo-información y participó en proyectos nacionales e internacionales en Colombia, Venezuela y México. Ha sido profesora de medio tiempo en varias universidades en Colombia y desde 2001 es profesora de tiempo completo en la Facultad de Minas de la Universidad Nacional de Colombia, actualmente es Profesora Asociada del Departamento de Geociencias y Medio Ambiente en las áreas de ciencias de geo-información y procesamiento digital de imágenes. También ha participado en varios proyectos de investigación que han involucrado el uso de la geo-información para planeación urbana y rural y manejo de desastres. Sus intereses de investigación actualmente son la geo-información para la modelación y planeación urbana, infraestructuras de datos espaciales, geoservicios y geo-información para el manejo de desastres. ORCID: 0000-0002-6964-239

[21] Instituto Geográfico Agustín Codazzi – IGAC. Mapa de Vocación de Uso de las Tierras en Colombia escala 1:500.000, Santafé de Bogotá, 2002. [22] Jaramillo, D., El recurso suelo y la competitividad del sector agrario Colombiano, Cátedra Pedro Nel Gómez, Universidad Nacional de Colombia, Medellín, Colombia, 2004. A. López-Duque, Ing. Forestal de 2006 y MSc en Medio Ambiente y Desarrollo de 2010, ambos de la Universidad Nacional de Colombia. Medellín, Colombia. Trabajó en una Compañía regional en el mantenimiento de plantaciones forestales en 2007, desde 2009 hasta 2014 trabajó para compañías consultoras en planeación territorial. Actualmente trabaja como Profesional Junior elaborando cartografía sobre amenazas y riesgos naturales, en la Universidad EAFIT. Sus intereses en investigación incluyen: simulación, modelación y predicción de amenazas y riesgos naturales, planeación territorial y protección y control de suelos. ORCID: 0000-0001-5289-3988

72


Techniques to correct and prevent acid mine drainage: A review Santiago Pozo-Antonio a, Iván Puente-Luna b, Susana Lagüela-López c & María Veiga-Ríos d a Departamento de Ingeniería de los Recursos Naturales y Medio Ambiente, Universidad de Vigo, España. ipozo@uvigo.es Departamento de Ingeniería de los Recursos Naturales y Medio Ambiente, Universidad de Vigo, España.. ipuente@uvigo.es c Departamento de Ingeniería de los Recursos Naturales y Medio Ambiente, Universidad de Vigo, España. susiminas@uvigo.es d Departamento de Ingeniería de los Recursos Naturales y Medio Ambiente, Universidad de Vigo, España. mveigarios@gmail.com b

Received: June 14th, de 2013. Received in revised form: March 10th, 2014. Accepted: March 31th, 2014

Abstract Acid mine drainage (AMD) from mining wastes is one of the current environmental problems in the field of mining pollution that requires most action measures. This term describes the drainage generated by natural oxidation of sulfide minerals when they are exposed to the combined action of water and atmospheric oxygen. AMD is characterized by acidic effluents with a high content of sulfate and heavy metal ions in solution, which can contaminate both groundwater and surface water. Minerals responsible for AMD generation are iron sulfides (pyrite, FeS2, and to a lesser extent pyrrhotite, Fe1-XS), which are stable and insoluble while not in contact with water and atmospheric oxygen. However, as a result of mining activities, both sulfides are exposed to oxidizing ambient conditions. In order to prevent AMD formation, a great number of extensive research studies have been devoted to the mechanisms of oxidation and its prevention. In this work, we present an explanation and theoretical valuation of the pyrite oxidation process and a compendium on the measures most frequently employed for its prevention and correction. Keywords: Acid Mine Drainage, mining, oxidation, pyrite, prevention, pollution.

Técnicas correctoras y preventivas de las aguas ácidas de mina: Una revisión Resumen En la actualidad uno de los problemas medioambientales con mayor necesidad de actuación es la contaminación por la formación de drenajes ácidos de mina (AMD: “Acid Mine Drainage”) procedentes de estériles de mina. Este es el término utilizado para describir el drenaje generado por la oxidación natural de sulfuros minerales que son expuestos a la acción combinada de agua y oxígeno atmosférico. Los minerales responsables de la generación de AMD son los sulfuros de hierro (pirita, FeS2 y en menor medida la pirrotita, Fe1-XS), los cuales son estables e insolubles mientras no se encuentren en contacto con agua y oxígeno atmosférico. Sin embargo, como consecuencia de la actividad minera, estos dos sulfuros son expuestos a condiciones ambientales oxidantes. La necesidad de prevenir la formación de AMD ha desarrollado numerosas investigaciones sobre los mecanismos de oxidación y su prevención. En el presente trabajo además de realizar una explicación y valoración teórica del proceso de oxidación de la pirita también se realiza un compendio de las medidas preventivas y correctoras más empleadas. Palabras clave: Aguas Ácidas de Mina; minería; oxidación; pirita; prevención; contaminación.

1. Introduction Acid mine drainage (AMD) formation has been widely recognized as one of the major environmental problems caused by mining worldwide, as evidenced by numerous studies [1-6]. Minerals responsible for the generation of AMD are iron sulfides (pyrite, FeS2, and pyrrhotite, Fe1-XS), which are stable and insoluble while not in contact with water and

atmospheric oxygen [7]. Effective AMD management and correction of its impacts can be achieved only if the processes that influence the release and transport of trace metals are known [8]. Contamination occurs when these acidic waters reach surface or ground water systems used for human or industrial consumption [9] and as a result, many river courses worldwide have metal contamination from sulfide oxidation processes taking place in surface mining.

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (184), pp. 73-80. April, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Pozo-Antonio et al / DYNA 81 (186), pp. 73-80. August, 2014.

concentrations increase. Furthermore, the temperature has a great influence on the oxidation rate as its value doubles every 10째C increase. 2nd) Oxygen replacement by the ferric ion, Eq. (2):

The need to prevent AMD formation has led to the development of numerous studies on the oxidation mechanisms and their prevention [9]. Notwithstanding the wide variety of existing studies, sulfides oxidation is very complex and its effects vary greatly between different places and conditions, so a proper AMD management requires the understanding of the various processes that control spatio-temporal variations in the sulfide oxidation. Most oxidation processes that occur in natural environments produce a simultaneous modification of the acid-base properties of the system, generally increasing acidity [6]. As a first approximation, steps that give rise to degradation of water quality by introducing dissolved heavy metals are [1-10]: a) Oxidation of pyrite, in oxidizing atmosphere conditions, when active mining. b) Oxidation of the remaining sulfides, with a lower susceptibility to oxidation than that of the pyrite. c) Leaching of clays, carbonates and feldspars of the host rock due to the action of the acid waters formed. d) Deposition of the dissolved ions as sulfates resulting Epsom salt crusts (magnesium), gypsum (calcium), melanterite (iron), jarosite (iron and potassium), alunite (sodium) and others. These sulfates are re-dissolved when AMD penetrate the floor or when pure water input occurs. In the latter, water soon becomes contaminated. The final acidic water has a high concentration of sulfates, alkali cations and both heavy and transition metals. The oxidation of metal sulfides is a complex process, that includes various types of reactions (oxidationreduction, hydrolysis, ionic complex formation, solution, precipitation, etc.) giving rise to some oxidized iron forms, sulfate anions and a strong acidity. The acid production is greatly favored by the pyrite grain fineness and influenced by temperature, porosity that allows oxygen penetration, moisture, hydrogeological characteristics of the site, etc. There are two mechanisms of oxidation [11-13]: 1st) Direct reaction of oxygen with the pyrite to produce sulfate ions and acidity, Eq. (1). FeS2 + H2O + 7/2 O2 Fe2+

+ 2H+ +2SO4

FeS2 + 14 Fe3+ + 8 H2O

15 Fe2+ + 16H++2SO42- (2)

In this inorganic mechanism, Fe3+ acts as the oxidizing agent. The concentration of Fe3+ depends on the reduction potential Eh, pH and the nature of the most soluble phase of the system that, below pH = 4.5, is the amorphous Fe(OH)3. Although this is not the most stable phase, it seems that this product controls the concentration of Fe3+ because, as it has been demonstrated experimentally, this product is formed in the initial stages of oxidation [16]. The pH has a dual effect: on the one hand, the solubility of the iron solid phase depends strongly on this parameter, increasing around one thousand times per each unit that the pH decreases, and on the other hand, when the pH is greater than 4, the concentration of Fe3+ in solution becomes too low (less than 10-8M when considering the balance with the amorphous Fe(OH)3). For this reaction to occur, the prior oxidation of the ferrous ion in situ, Eq. (3), is necessary: 14 Fe2+ + 7/2 O2 + 14 H+

14 Fe3+ + 7 H2O

(3)

The oxidation of ferrous ion to ferric is an essential step in triggering the formation of AMD, which occurs at a low speed in normal conditions. Some bacteria act as catalysts, accelerating this reaction from 4 to 50 times, consequently increasing water acidity [10]. Thus, this is a pH- and Ehdependent mechanism that is performed by acidophilic chemolithotrophic bacteria populations of the genus Thiobacillus, although other groups such as Metallogeniun and Sulfolobus can also contribute [17]. Bacteria population of the genus Metallgenium (an acid tolerant filamentous bacteria) were found at pH values between 3.5 and 4.5, and these bacteria carry the pH to values below 4. That is when the bacteria of the genus Thiobacillus ferrooxidans perform their catalytic works. Sphaerotilus natans and Gallionella ferruginea bacteria species were isolated at pH between 6 and 9 [18]. Although in this case the bacterial oxidation is unclear, the inorganic oxidation contribution is high. Even though the oxidation of the ferrous ion is a thermodynamically favorable process, the kinetics is very slow at pH values of about 4 or greater. However, the Thiobacillus ferrooxidans oxidizing bacteria can significantly increase the rate of oxidation by providing a mechanism involving a different transition state and lower activation energy to achieve the oxidation. Due to the complexity of the process, the predominant reaction per pH is not clearly known, which are the reactants and products and how they evolve, therein lies the difficulty to perform kinetic studies and the variability in the data found [19]. Oxidation of a pyrite fragment depends both on the kinetics of the chemical reaction and on the diffusion of the oxidant (either Fe3+ or O2) and the products. As a result of oxidation, a number of precipitates with different crystallinity are obtained; these are combinations

(1)

This is an inorganic mechanism, where oxygen acts as the oxidizing agent. This reaction is clearly limited by the oxygen availability, which is usually low due to the difficulties to diffuse presented by this element, and its kinetics is dependent on the speed at which molecular oxygen reduces [14]. Thus, no reaction takes place when the O2 concentration in the medium is low (Eh<300 mV). The diffusion rate depends on the physical relationships between the solid and fluid phases, mainly on the solid porosity and liquid water content. Bornstein et al. observed that the diffusion rate in soil, subsoil and sand was a maximum for water content between 10 and 20%, relative to dry weight, and percentages of air filled pores between 30 and to 70% [15]. Moreover, the H+, Fe2+ and SO42- concentrations also affect the speed of the reaction, which decreases as these 74


Pozo-Antonio et al / DYNA 81 (186), pp. 73-80. August, 2014.

of iron with oxygen or sulfate. Sulfates can evolve by dehydration and oxidation towards ferrihydrite or goethite, which are the most stable compounds in most natural environments. Jarosite is only stable in strongly acidic media (pH less than 4) and very high reduction potential (Eh), with high sulfate concentrations [20]. Throughout the entire pyrite oxidation process, the acid production is continuous, albeit its amount varies depending on the iron oxidation degree, the oxidation mechanism and the reaction products [21,22].

2.1.2. Soil compaction Compaction of the mining wastes decreases their permeability. This compaction achieves on the one hand the reduction of water flow, which remains longer in the tailings, hindering the oxidation of the materials and therefore the rate of acid production, and on the other, the decrease of oxygen diffusion, which slows down pyrite oxidation and makes the tailings less habitable for ferrooxidant bacteria. A decrease of the porosity means a decrease of both the hydraulic conductivity and oxygen diffusion. Thus, the oxygen diffusion decreases by 3 to 4 orders of magnitude when the degree of saturation, i.e. water content, reaches 85% [25]. Although this is not itself a restoration method, it works effectively with any other put in practice.

2. Preventive and corrective techniques of acid mine drainage Preventive techniques are those whose objective is to prevent the production of acid effluents from the mine. On the other hand, corrective techniques are designed to treat the acidic waters produced by mining, so that they stop being a threat to the environment [10]. It is easy to understand that when planning the mine abandonment, priority should be given to suitable preventive techniques. The use of corrective techniques is only justified for the most serious and unforeseen cases of acid water pollution. Therefore, the mine waste treatment must be included in the mining project in order to minimize the exposure of these materials to inclement weather and to reduce the mine waste volume to be processed and stored [19].

2.1.3. Dry covers The application of dry covers can be done with the aim at different objectives: (1) mining waste stabilization to prevent erosion by wind and water, (2) aesthetic appearance improvement and (3) both prevention and inhibition of pollutant release. The latter can be achieved with methods that prevent waste penetration by oxygen and water (Fig. 1). Without oxygen, chemical and microbial oxidation of sulfide minerals decreases. A minimized water flow causes a reduction in the drainage water production so that the metals are spread very slowly, resulting in a "dilution with time" [26]. There are a multitude of cover designs that cover the waste with soil or rock and use cementitious materials to form a crust. The effectiveness of the method increases when choosing a high and dry location for the dump. The cover should be stable and provide long-term protection. This generally requires at least two layers of different materials, as it is rare that the required properties are found together in the same material. First, a bottom sealing layer with low-permeability is required to decrease the oxygen diffusion and to hold large amounts of water, acting as a barrier to oxygen. Suitable materials for this layer are clays, especially bentonite. However, these clay barriers are particularly prone to breaking during dry conditions letting in oxygen and water. Organic materials may be a good substitute to clay provided that the layer is

2.1. Preventive techniques for acid mine drainage In mining areas with high concentrations of pollutants, AMD treatment costs can have a significant impact on the economic performance, even to compromise the project viability, so that, AMD formation should be prevented. Preventive techniques act on any of the three elements that are essential in the formation of acidic waters: oxygen, water and Thiobacillus ferrooxidans bacteria. Next subsections show the currently employed techniques and some still in development. 2.1.1. Surface water diversion This technique tries to reduce the water supply to those potentially acid-generating materials, by using safeguarding channels, pipes, waterproofed channels, slope changes around the material area, etc. The application of this technique should be preceded by accurate hydrological and hydrogeological studies, and it is precisely the lack of these which sometimes causes the unsuccessful application of this method [23,24]. The systematic application of this technique can be erroneous, because an effort (which can be costly in time and money) to divert the surface water to reduce large masses of water supply to areas where subsequent acid production is not extremely high, can lead to the reduction of the quantities of water entering areas that a priori are most dangerous as they can have an extremely high production of acid. Even so, this is a cheap technique, easy to apply and that works well in conjunction with other techniques.

Figure 1. Dry cover preventing the penetration of oxygen and water. Source: Ledin and Pedersen, 1996 [27]. 75


Pozo-Antonio et al / DYNA 81 (186), pp. 73-80. August, 2014.

Furthermore, a protective layer composed of tree bark waste overlaps on the layers of sludge. Other studies have highlighted the importance of sludge use on roof tops or directly on the tailings to improve the establishment of vegetation. Studies have been conducted in different lithology dumps and even in areas devastated by toxic gases [32]. The use of sludge is often combined with lime supplements to increase the pH [33-34]. In most cases, productivity and fertility of the soil disturbed by mining have been substantially improved by sludge applications and the yields are generally higher than when using inorganic fertilizers. The use of sewage sludge to recover a coal mine spoil in Colorado resulted in significant increases in biomass of the soil surface layer [35]. This treatment gave better results than any other treatment with inorganic fertilizers (nitrogen, phosphorus). Recovery of places using chemical fertilizers and lime can produce the initial establishment of vegetation, but later the vegetation cover deteriorates due to poor physical conditions [4]. Covering with sludge improves some of the soil properties which help the establishment of life on the ground. The most important factor is the content of organic matter that improves the physical conditions of landfills, as it is an energy source for soil microorganisms [36]. The sludge contains nutrients and neutralizing components that increase the landfill pH and improve its fertility. Sometimes, a considerable extra input of nitrogen and phosphorus is required, but rarely potassium, while the need for additional calcium, magnesium and sulfur changes with the sludge composition. In brief, mine waste covers can decrease oxygen and water penetration, and thus reduce the oxidation of sulfide minerals and/or the transport of hazardous compounds. Inorganic covers can be combined with sludges to improve sealing properties and soil physical conditions and to promote vegetation cover, which is essential to prevent erosion and to improve the aesthetic appearance of the area [31].

Table 1. Advantages and disadvantages of different materials used for dry covers. Material Advantages Disadvantages Capable of boring Completely Relatively PVC sheet impermeable expensive Low installation costs Susceptible to weathering Lower price Grout Undefined Low installation costs compaction/permea bility rate Undefined compaction/permea bility rate Durable Clays (Bentonite) Dry conditions Cheap and available required for application Expensive material High installation Asphalt Fully impermeable costs Liable to deformation Source: Fernรกndez-Rubio and Lorca, 1993 [23].

thick enough. Covers rich in organic materials have been used to act as a radon barrier [28]. Some artificial materials, as plastic membranes, have higher impenetrability than natural materials. However, care must be taken to prevent membranes from physical damage. There are also doubts about how long it will last before the chemical and microbial degradation appears [29]. Above the low permeability layer, a drainage layer can be placed to protect it from destruction by erosion, drying, freezing, influence of man, animals and plants and microbial destruction [26]. This drainage layer can also act to prevent the upward capillary migration of metals and salts. Additionally to this physical cover, there are chemical covers where materials that react with small-sized minerals are added to form an impermeable crust. Furthermore, additional measures can be taken to increase the reduction in the flow of oxygen as the addition of oxygen consuming microorganisms or the compaction of the mining wastes [30]. The typical sequence of operations starts with the flattening and leveling of the site, creating a backup channel to prevent the runoff effects on the dump. Later, the surface is compacted and the impermeable material extended and compacted if necessary. Above this, a layer of permeable material with at least 50 cm width is placed, and on top of it the soil is extended to sow. The plants selection must be done taking into account the potential threat that deeprooted vegetation poses especially in the long term. Table 1 shows the materials that nowadays are used and their advantages and disadvantages [23].

2.1.5. Sealing with clay Often, mining transfer acidity is produced through groundwater discharge slopes. Then it is convenient to coat them with clay as the mine hole is filled, thereby reducing the water input through the mining wastes. This is a very common phenomenon in abandoned mine pits where an inland lake can be formed, if this circumstance were not taken into account. This lake becomes an acidic water reservoir, therefore, it is also desirable to seal the abandoned mine workings. 2.1.6. Handling tailings

2.1.4. Covers with sludge Material stacking order in the dump has a fundamental influence on the generated acidity, this being maximal when sulfides are situated on the top and minimum if a layer of neutralizing materials, such as carbonates, is placed on top above the pyrite [19]. Sometimes there are some materials with a particularly high potential to generate acidity within the tailings, so if

Sludge as a cover insulating material has been studied in Sweden since 1989 [31]. In this study, the mud used to cover the residue from a treatment plant in a nearby factory, was stabilized by the addition of fly ash produced by the combustion of coal and wood from factories. As fly ash contains calcium oxide, it can therefore increase the pH. 76


Pozo-Antonio et al / DYNA 81 (186), pp. 73-80. August, 2014.

they can be stored in a waterproof trap, the amount of drained acidic water will be considerably reduced. This is precisely the basis of this technique that, while expensive mainly due to the large number of analyses to be performed prior to the preparation of the waste, usually gives very good results [23]. To properly isolate the materials with higher acid generation rates, they should be located well below the surface but always above the water table in the area. They must also have a sufficiently compacted waterproof coverage (usually clay or plastic) that must be umbrella shaped to prevent water from coming in contact with the mining wastes.

iron in the dump. The removal of iron from solution by precipitation is achieved by applying neutral ores or siliceous materials such as fly ash, blast furnace slag and Portland cement or by the complexation of iron either in active or reactive form, which inhibits oxidation. (Fe3(PO4)2 and FePO4) which diminish the amount of ferric iron that can react with pyrite. Subsequent laboratory Furthermore, phosphate and phosphate clay inhibit pyrite oxidation by creating a cover around sulfuric mineral grains. The actuation mechanism goes through the formation of relatively insoluble iron phosphates studies showed that the addition of crushed apatite (Ca5(OH, F)(PO4)3) reduced the production of acidic water by 96% at doses below 3 ppt [44]. A field experiment subsequently performed by the same authors indicated that the addition of a 3 ppt amount of phosphate slowed the acid production from materials such as coal and slate for around a year from when they were added, but this inhibitory effect seemed to decrease in the second year [38]. Meanwhile, organic material is a suitable pH buffer that can eliminate iron chelation. A specific technique is called alkaline injection. In any mine dump, AMD flows through specific areas. If they can be neutralized by injecting some bases such as soda, lime or sodium carbonate where the waters circulate, then more restoration work on the surface of the waste can be avoided, while reducing costs [1]. Among others, the injection advantages would be the pH increase, which leads some metals to precipitate over the pyrite inside the mine tailings, stopping the pyrite oxidation, and the alkalization of the medium, which inhibits oxidizing bacteria and thus contributes to the improvement of water quality. Moreover, as a temporary technique it can be very suitable for abandoned tailings.

2.1.7. Application of chemicals Addition of chemicals that interact with the tailings reduces the release of acid, iron and other heavy metals into the reservoir since their solubility decreases as the pH increases (Fig. 2). There are some accessible and inexpensive alkaline chemicals that can be added to the mining wastes to neutralize the acid pH in the drainage. However, this method does not always prevent the reacidification after a few years [26]. Placing a lime layer near the surface allows achieving an alkaline environment which inhibits bacteria proliferation and that neutralizes partly the generated acid. Because of this and its low cost, it has become a common practice in almost all restorations of tailings potentially generating acidic waters. Several studies and case studies have concluded that this is an effective method to prevent acidic water in non-established systems, i.e., those that have not yet generated acidic water, while in established systems the improvement is temporary and insignificant, so another restitution method must be found. This phenomenon is due to the low neutralizing power of the lime as it is interrupted, in the case of very acidic water, once a layer of iron hydroxide that inhibits neutralization is deposited on its surface [1]. Frequently, requirements are both very large amounts of lime that can cause an imbalance in Ca/Mg ratio, and phosphate availability, with the consequent impairment of plant growth in the area. Liming is often used in combination with other methods, like another covering method. Due to the key role played by iron in leaching, some chemical treatments seek to interfere with the chemistry of

2.2 Corrective techniques for acid mine drainage

These are techniques that can be used to purify the acidic waters produced by a mine. They are conceptually opposed to the preventive techniques whose main objective is to avoid the formation of those acid waters. Corrective techniques are applied without distinction to underground or surface mines. Many developed countries have recently enacted the adoption of some type of environmental legislation, which has led mining to install treatment plants for their effluents. This creates serious problems for the operating companies, but they often become critical when planning mine abandonment. In countries with the most restrictive laws, mining operators face the dilemma of implementing effective preventive measures or being forced to pay the effluent’s treatment for years, after the mine is abandoned. The most prevalent method for treating AMD contamination is the addition of alkaline reagents such as lime, limestone, sodium carbonate or sodium hydroxide. This treatment aims at neutralizing acidic water and the precipitation of heavy metals. However, maintenance requirements are high and large sludge amounts are produced that are mainly composed of calcium sulfate and some metal hydroxides. In an oxidizing environment, limestone is coated with reaction products until it becomes ineffective. This

Figure 2. Application of chemicals. Source: Ledin and Pedersen, 1996 [27].

77


Pozo-Antonio et al / DYNA 81 (186), pp. 73-80. August, 2014.

2.2.3. Treatment plants by ion exchange This technology is based on the property of certain substances to make reversible ion exchanges within saturated solutions. These substances may be different in nature, synthetic resins with high molecular weight being the most commonly used. This method is applicable to the acid mine drainage treatment with metal ions according to the reaction expressed in Eq. 8 [23]: (Fe, Mn, Mg, Ca) Resin-SO4 + (HCO3)2 → (Fe, Mn, Mg, Ca) (HCO3)2 + Resin-SO4 (8)

Figure 3. Acid neutralization phase. Source: Ledin and Pedersen, 1996 [27].

Subsequently, the resin is regenerated using alkaline solutions and then it is reused. Among the main advantages of this method are, according to Fernández-Rubio and Lorca, the sludge susceptibility to be dried, the low hardness and amount of the dissolved solids in the final effluents and the low lime consumption [23]. The greatest disadvantages are the handling difficulty and toxicity of the sludge obtained. Nowadays there are several systems to perform this technique such as: the continuous upward washing system in multi-chamber adsorption columns, the continuous descending washing system in mobile packed bed adsorption columns, upward washing in open tank adsorption columns, etc. [42]. Further studies have been conducted where separation techniques were designed for copper and zinc in the Iberian pyritic belt. These studies showed the possibility to apply resins with carboxyl groups for the selective separation of both metals [43].

problem is solved by using passive anoxic limestone drains (ALDs) [39], which consist of shallow sealed trenches excavated in the spoil and filled with limestone. The most used techniques will be described in the next sections. 2.2.1. Chemical neutralization plants In these plants, the water recovery takes place in three phases: neutralization, oxidation and precipitation, as follows [1]: • Acid neutralization with lime, (Eq. 4) limestone (Eq. 5) or other bases: H2SO4 + Ca (OH)2 → CaSO4 + 2 H2O

(4)

CaCO3 + H2SO4 → CaSO4 + H2O + CO2

(5)

• Oxidation from ferrous to ferric in aeration tanks (Eq. 6, 7), the latter being easier to precipitate: Fe2(SO4)3 + 3 Ca(OH)2 → 2 Fe(OH)3 + 3 CaSO4

(6)

Fe2(SO4)3 + 3 CaCO3 → 2 Fe(OH)3 + 3 CaSO4 CO2

(7)

2.2.4. Neutralization plants by reverse osmosis This technique employs semipermeable membranes that allow the passage of water while retaining dissolved or suspended particles. The typical membranes, spongy and porous, have a 100 microns thickness, are made of modified cellulose acetate with one side covered with a dense layer [23]. One of the most important consequences of the experiments performed so far is the ease with which the membranes become obstructed, however, this is easy to fix by using sodium thiosulfate. Although recoveries of up to 80% are obtained, this is an expensive method.

• Precipitation (Fig. 3). 2.2.2. “In-line system” plants They are based on a simple and low maintenance method that simultaneously neutralizes and aerates the water, using the energy of water impulsed by two parallel injection pumps and a static mixer [40]. Injection pumps suck in air while collecting the mine acid waters, causing water aeration. After leaving the pump, the water goes to a static mixer consisting of a series of propylene resin tubes where liquid is kept in a turbulent regime by using a propeller that promote mixing and reactivity. In-line system plants have been successfully tested to treat effluents with an input content of 200 mgl-1 Fe+2, which were reduced to an output concentration of around 3 mgl-1. At an industry level, in-line system plants are cheaper than conventional ones, and as they have no moving parts, their maintenance is simpler and more economical [41].

2.2.5. Natural neutralization with river waters. "Synergistic" solutions Synergistic solutions are very attractive and low cost methods to easily neutralize acidic waters. The entire development that will be exposed below is based on a description of the particular case of the "Dober Mine" using the "Iron" river waters in Michigan (USA), summarized and generalized by Fernández-Rubio and Lorca [23]. The method uses the neutralizing capacity of a river, so that if the river flow is much larger than the strictly necessary to neutralize the mining acid drainage of the area, 78


Pozo-Antonio et al / DYNA 81 (186), pp. 73-80. August, 2014.

Ministries of Economy and Competitiveness, Education, Culture and Sport and University of Vigo for the financial support given; Human Resources programs (BES-2010034106 and FPU AP2009-1144) and project BIA200908012.

a portion of the flow can be diverted into a branch constituted by a set of ponds arranged in series to occur the precipitation of the metals and the subsequent neutralization of the water in a controlled manner. The process then consists in driving the acidic water coming from the mine to a circuit of staggered settling ponds, through which water circulates by gravity. In these ponds, if the flow is slow enough, the iron sulfate will precipitate and a slow increase of the water pH will gradually take place. The system is designed so that water is clean and properly neutral in the pond before its discharge to the river (located downstream of the inlet), so that the riverbed will remain untainted in its entire course. This is not a universally applicable technique, being this perhaps its most important limitation, as there are many drawbacks that prevent its application in many cases. The necessary conditions for the application of this method are: • River flow must be large enough to withstand the diversion of a portion of it in order to neutralize the acid drainage. • Materials and slope of the terrain must be appropriate for the construction of the settling basins. • Ponds should be designed so that there is no imbalance depending of maximum and minimum periods of precipitation and/or temperature, since the first of them definitely influences on the flow, and low temperatures make neutralization less effective. • Another constraint is the size of the mine to deposit the deposed metal hydroxides, which should be removed from the ponds periodically so that the system remains effective. In any case, the conclusions to be drawn are not for a particular case but they depend on the specific problem that occurs. Therefore, the natural neutralizing action of river waters can help and even resolve the problem of the acidic water if the control of some key parameters is achieved and the initial conditions are adequate.

References [1] Kalin, M., Fyson, A. and Wheeler, W.N. The chemistry of conventional and alternative systems for the neutralization of acid mine drainage. The Science of the Total Environment, 366 (2-3), pp.395-408, 2006. [2] Klapper, H. and Geller, W., Water quality management of mining lakes- a new field of applied hydrobiology. Acta Hydroch. Hydrob, 29, pp. 363-374, 2002. [3] Doupé, R.G. and Lymbery, A.J., Environmental risks associated with beneficial end uses of mine lakes in southwestern Australia. Mine Water and the Environment, 24 (3), pp. 134-138, 2005. [4] McCullough, C.D. and Lund, M.A., Opportunities for sustainable mining pit lakes in Australia. Mine Water Environ, 25, pp. 220-226, 2006. [5] McDonald, D.M., Webb, J.A. and Taylor, J., Chemical stability of acid rock drainage treatment sludge and implications for sludge management. Environ. Sci. Technol. 40 (6), pp. 1984-1990, 2006. [6] Saarinen, T., Mohämmadighävam, S., Marttila, H. and Klove, B., Impact of peatland forestry on runnof water quality in areas with sulphidebering sediments: How to prevent acid surges. Forest Ecology and Management, 293, pp. 17-28, 2013. [7] Cruz, R. and Monroy, M., Evaluation of the reactivity of iron sulfides and mining wastes. A methodology based on the application of cyclic voltammetry. Quim. Nova, 29 (3), pp.510-519, 2006. [8] Monterroso, C. and Macías, F., Drainage waters affected by pyrite oxidation in a coal mine in Galicia (NW Spain): Composition and mineral stability. Science of the Total Environment, 216 (1), pp.121-132, 1998. [9] Younger, P.L., Coulton, R.H. and Froggatt, E.C., The contribution of science to risk-based decision-making: lessons from the development of full-scale treatment measures for acid mine waters at Wheal Jane, UK. Science of the Total Environment, 338, pp.137-154, 2005. [10] Johnson, D.B. and Hallberg, K.B., Acid mine drainage remediation options: a review. Science of the Total Environment, 338 (1-2), pp. 3-14, 2005.

3. Conclusions

[11] Nordstrom, D.K., Mine waters: Acidic to circumneutral. Elements, 7 (6), pp. 393-398, 2011.

(1) Acid mine drainage (AMD) greatly influences water quality and has high environmental and ecological impacts. It is therefore required to solve this worldwide problem at the earliest opportunity. (2) There are several preventive techniques to avoid the generation of AMD, each of them effective for a different situation. Among them, dry covers and covers with sludge are the more general ones, applicable to most situations. (3) Although it would be perfect to prevent the generation of AMD, many times it is not completely possible, requiring corrective techniques to reduce or remove contamination from water. In this case, “in-line systems” plants are the most effective solution, both in economic and recovery percentage aspects, in contrast with highly effective but expensive techniques such as treatment plants by ion exchange of by reverse osmosis.

[12] Stumm, W. and Morgan, J.J., Aquatic chemistry: An introduction emphasizing chemical equilibria in natural waters. NY, Wiley-Interscience; 1981. [13] Urrutia, M., Graña, J., García-Rodeja, E. and Macías, F., Pyrite oxidation processes in surface systems: Acidifying potential and its interest in minesoils reclamation). Caderno do Laboratorio Xeolóxico de Laxe, 1987. [14] Sáez-Navarrete, C., Rodríguez-Córdova, L., Baraza, X., Gelmi, C. and Herrera, L., Hydrogen kinetics limitation of an autotrophic sulphate reduction reactor, DYNA, 172, pp. 126-132, 2012. [15] Bornstein, J., Hedstrom, W.E and Scott, F.R., Oxygen diffusion rate relationships under three soil conditions. Life Sciences and agriculture experiment station technical bulletin 98. 1980 [16] Wiegand, U., Schreck, P., Schreiter, P., Lerche, I. and Glaesser, W., Restoration of open pit lignite mining in the former GDR: Lessons to be learnt from Zwenkau. Energy and Environment, 14 (4), pp.437-449, 2003.

Acknowledgments

[17] Nancucheo, I. and Johnson, D.B., Selective removal of transition metals from acidic mine waters by novel consortia of acidophilic sulfidogenic bacteria. Microbial Biotechnology, 5 (1), pp.34-44, 2012.

The authors want to give thanks to the Spanish 79


Pozo-Antonio et al / DYNA 81 (186), pp. 73-80. August, 2014. [18] Umrania, V.V., Role of acidothermophilic autrotrophs in bioleaching of mineral sulphides ores. Indian Journal of Biotechnology, 2 (3), pp. 451464, 2003.

[36] Peppas, A., Komnitsas, K. and Halikia, I., Use of organic covers for acid mine drainage control. Minerals Engineering, 13 (5), pp. 563-574, 2000.

[19] Kontopoulos, A., Acid Mine Drainage Control. In: Castro, S.H., Vergara, F., Sánchez, M.A. (Eds.), Effluent treatment in the mining industry. University of Concepción, 1998, pp. 57-118.

[37] Coulton, R., Bullen, C. and Hallett, C., The design and optimisation of active mine water treatment plants. Land Contamination and Reclamation, 11 (2), pp. 273-280, 2003.

[20] Silva, L.F.O., Fdez-Ortiz de Vallejuelo, S., Martínez-Arkarazo, I., Castro, K., (…), Madariaga, J.M. Study of environmental pollution and mineralogical characterization of sediment rivers from Brazilian coal mining acid drainage. Science of the Total Environment, 447, pp.169-178, 2013.

[38] Kleinmann, R., At-source control of acid mine drainage. International Journal of Mine Water, 9 (1-4), pp.85-96, 1990.

[21] Millero, F.J. and Pierrot, D., A chemical equilibrium model for natural waters. Aquatic Geochemistry, 4 (1), pp.153-199, 1998.

[39] Brodie, G.A., Staged, aerobic constructed wetlands to treat acid drainage: Case history of Fabius Impoundment 1 and overview of the Tennessee Valley Authority’s program. In Moshiri G.A., Constructed Wetlands for Water Quality Improvement, Boca Raton, FL: Lewis Publishers, 1993, pp.157-165.

[22] Christov, C. and Moller, N., A chemical equilibrium model of solution behavior and solubility in the H-Na-K-Ca-OH-Cl-HSO4-SO4-H2O system to high concentration and temperature. Geochimica et Cosmochimica Acta, 68 (18), pp.3717-3739, 2004.

[40] Bott, T.L., Jackson, J.K., Mctammany, M.E., Newbold, J.D., Rier, S.T., Sweeney, B.W. and Battle, J.M., Abandoned coal mine drainage and its remediation: Impacts on stream ecosystem structure and function. Ecological Applications, 22 (8), pp. 2144-2163, 2012.

[23] Fernández-Rubio, R. and Lorca, D.F., Mine water drainage. Mine Water and the Environment, 12, pp.107-130, 1993.

[41] Ackman T. and Erickson, P., In-Line Aeration and Neutralization (ILS)-Summary of Eight Field Tests. In AIME/SME/TMS 115th Annual Meeting. New Orleans, LA., 1986. 34 P.

[24] Grande, J.A., Impact of AMD processes on the public water supply: Hydrochemical variations and application of a classification model to a river in the Iberian Pyritic Belt, SW Spain. Hydrology Research, 42 (6), pp.472-478, 2011.

[42] Himsley, A. and Bennett, JA., New continuous packed-bed ion exchange system applied to treatment of mine water. Ion Exch Technol 1984, pp.144-152.

[25] Molson, J.W., Fala, O., Aubertin, M. and Bussière, B., Numerical simulations of pyrite oxidation and acid mine drainage in unsaturated waste rock piles. Journal of Contaminant Hydrology, 78 (4), pp.343-371, 2005.

[43] Valiente, M., Diez, S., Masana, A., Frías, C. and Muhammed, M., Separation of copper and zinc from waste acidic mine effluents of Río Tinto area. Mine Water and the Environment, 10 (1), pp.17-27, 1991.

[26] Swedish Environmental Protection Agency, SNV PM 4202, Solna, Sweden, 1993.

[44] Egiebor, N.O., Oni, B., Acid rock drainage formation and treatment: A review, Asia-Pacific Journal of Chemical Engineering, 2 (1), pp. 47-62, 2007.

[27] Ledin, M. and Pedersen K., The environmental impact of mine wastes - Roles of microorganisms and their significance in treatment of mine wastes. Earth-Science Reviews, 41, pp. 67-108, 1996.

Santiago Pozo-Antonio received a Bs. Eng in Mining in 2009, an MSc degree in Environmental Technology in 2010, and a PhD degree in Environmental Technology in 2013, all of them from the University of Vigo, España. From 2010 to 2013, he worked in the Department of Natural Resources Engineering and Environment in the University of Vigo in several projects related with Mining and Conservation and Restoration of Built Heritage. From 2013-2014 he received an internship in the Getty Conservation Institute in Los Angeles (USA). His research interests include: cultural built heritage, mining techniques, landscape management and landscape assessment.

[28] Landa, E.R., Microbial biogeochemistry of uranium mill tailings, Advances in Applied Microbiology, 57, pp.113-130, 2005. [29] Palmer, C. and Young, P.J., Protecting water resources from the effects of landfill sites: Foxhall landfill site. Water and Environmental, 5 (6), pp.682-696, 1991. [30] Pulford, I.D., A review of methods to control acid generation of pyritic coal mine waste, In Davies MCR, Land Reclamation: an end to dereliction? Elsevier, London, 1991. pp.269-278.

Iván Puente-Luna graduated in 2009 in Mining Engineering from the University of Vigo, and received his MSc. in Environmental Technology in 2010. Soon afterwards, he joined the Applied Geotechnologies research group, where he is currently enrolled in a PhD program about the applications of terrestrial and mobile LiDAR technology to infrastructure inspection and management. He was a visiting researcher in Carnegie Mellon University (USA, 2012) and Delft University of Technology (The Netherlands, 2013).

[31] Broman, P.G, Haglund, P. and Mattson, E., Use of sludge for sealing purposes in dry covers- development and field experiences, In Proc. 2nd Int. Conf. Abatement of Acidic Drainage, Ottawa, Canada, 1991. pp. 515527. [32] Neculita, C.M., Zagury, G.J. and Bussière, B., Passive treatment of acid mine drainage in bioreactors using sulfate-reducing bacteria: Critical review and research needs. Journal of Environmental Quality, 36, pp. 1-16, 2007.

Susana Lagüela-López. PhD in 3D thermography in 2014 from the University of Vigo, during which she had research stays at the University of California Berkeley and the ITC-CNR in Italy. She is author of more than 15 papers, and received the Prize for Young Researchers in New Technologies from the Council of Pontevedra, Spain (2011), and the Prize “Ermanno Grinzato” to Researchers under 30 from the International Conference in Thermography, AITA2013. Her research interests are the combination of thermography with geometry obtained with geomatic techniques for applications such as evaluation of energy efficiency in buildings, water management, land uses.

[33] Beauchemin, S., Fiset, J.F., Poirier, G. and Ablett, J.M., Arsenic in an alkaline AMD treatment sludge: Characterization and stability under prolonged anoxic conditions, Applied Geochemistry, 25 (10), pp.14871499, 2012. [34] Kuyucak, N., Effective passive water treatment systems in extremely cold Canadian climatic conditions, SME Annual Meeting and Exhibit, 2010, pp. 50-54. [35] Paschke, S.S., Banta, E.R., Dupree, J.A. and Capesius, J.P., Introduction, conceptual model, hydrogeologic framework, and predevelopment groundwater availability of the Denver Basin aquifer system, Colorado, US Geological Survey Professional Paper 2011, pp. 193.

María Veiga-Ríos received a Bs. Eng in Mining in 2009, an MSc degree in Environmental Technology in 2010, and a PhD degree in Environmental Technology in 2011, all of them from the University of Vigo. Her research interests include: rock science, mining techniques, landscape management and landscape assessment.

80


The influence of osmotic pretreatments on melon (Cucumis melo L.) quality during frozen storage Alfredo Ayala-Aponte a & Martha Isabel Cadena-G.b a

Escuela de Ingeniería de Alimentos Universidad del Valle Cali, Colombia, alfredo.ayala@correounivalle.edu.co b Universidad del Valle sede Zarzal, Colombia, martha.cadena@correounivalle.edu.co Received: July 10th, de 2013. Received in revised form: September 20th, 2013. Accepted: October 22th, 2013

Abstract The aim of work was to evaluate the influence of using osmotic dehydration (OD) on drip loss (DL), volume (V), total color change (ΔE), and firmness of Cucumis melo L. samples (Cantaloupe variety), stored under freezing conditions. The samples were dehydrated up to two humidity levels (75 and 85%, w.b.), using an osmotic sucrose solution with 55ºBrix, at 27± 0.2ºC. The dehydrated samples were frozen at -40ºC and then stored at -18ºC for 1, 15 and 30 days. Fresh fruit samples (non-osmotic treatment) were used as control duringthe frozen storage time. The results showed that the treated samples had significantly (p<0.05) lower DL, V, and ΔE, compared to the untreated ones along the freezing process. The firmness was significantly (p<0.05) greater in treated samples. The quality of osmotictreated samples was higher than non-treated ones. However, treated samples with a lower content of humidity (75%, w.b.) showed greater firmness and lower loss in color and volume. Keywords: Freezing, Osmotic dehydration; Cantaloupe melon; osmodehydrofreezing.

Influencia de pretratamientos osmóticos sobre la calidad de muestras de melón (Cucumis melo L.) durante almacenamiento en congelación Resumen El objetivo de este trabajo fue evaluar la influencia de la aplicación de deshidratación osmótica (OD) previa a la congelación sobre la pérdida de fase líquida (DL), volumen (V), cambio total de color (ΔE) y firmeza de muestras de melón (variedad Cantaloupe) almacenado en congelación. Las muestras fueron deshidratadas hasta dos niveles de humedad (85 y 75%, w.b) empleando solución osmótica de sacarosa con 55ºBrix a 27+0.2ºC. Las muestras deshidratadas fueron congeladas a -40ºC y posteriormente almacenadas a -18ºC durante 1, 15 y 30 días. Fruta fresca (no tratada osmóticamente) fue empleada como muestra control durante el almacenamiento en congelación. Los resultados mostraron significativamente (p<0.05) que las muestras tratadas presentaron menores DL, V y ΔE respecto a las muestras no tratadas durante el almacenamiento en congelación. La firmeza fue significativamente (p<0.05) mayor en las muestras tratadas. Sin embargo, las muestras tratadas hasta el menor contenido de humedad (75%. w.b.) presentaron mayor firmeza y menor pérdida de color y de volumen. Palabras clave: Congelación; deshidratación osmótica; melón Cantaloupe; osmocongelación.

1. Introduction Melon (Cucumis melo L.) is a creeping-stem herbaceous plant, whose fruit can have an oval, elliptical, or round shape. It bears a rough skin with orange, sweet pulp. This fruit basically is composed of water, at its maturity has a soluble solids content between 7 and 12ºBrix. Several varieties exist, including the Spanish, the Yellow, the Written or Reticular, the Frog-like skin, and the Cantaloupe varieties, among others. The most representative variety in Colombia, in terms of production and commercialization (national and international), is

Cantaloupe [1]. Cantaloupe melon production is growing in national and international markets; in Colombia the production has increased from 20.1 tonnes in 2001 to 43.8 tonnes in 2011, while international production grew in 2100 tonnes during this period [2]. Like any other fruit, melon is highly perishable, due to its high moisture content (MC). Therefore, it is important to seek alternative ways to preserve and store it. Freezing is one the most commonly used food preservation processes and it is considered one of the best food conservation methods. According to Wu et al., [3] freezing helps keep

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 81-86. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Ayala-Aponte & Cadena-G / DYNA 81 (186), pp. 81-86. August, 2014.

food taste, and nutritional value, better than any other conservation technology. However, after freezing-thawing, food presents some drastic changes and cumulative, gradual, and irreversible quality loss, mainly shown in drip loss (which is due to cell damage) [4], texture alteration (loss of turgor during thawing, thus resulting in flaccidity and shrinking) [5,6], lower volume [7] and, in some cases, change in color [4], taste and aroma [8]. During freezing, part of the aqueous content is frozen, thus creating ice crystals which damage cell tissues. As a result, the structure of the cell membrane weakens causing the cells to lose their osmotic state and their semi-permeability [9]. Osmodehydrofreezing (ODF) is considered an alternative technique to avoid substantial quality loss in fruit and vegetables during frozen storage. It minimizes texture loss [6], structural collapse, and drip loss [10], among other benefits. ODF consists in osmotic dehydration (OD) of the product, prior to the freezing process [9]. This technique has been reported as a tool in fruit conservation, mainly due to the reduction of freezable water content [11]. Partial reduction of the product's freezable water results in fewer ice crystals duringthe freezing time [8]. Therefore, using OD reduces the content of freezable water in the product, a process consisting in the extraction of water in the product, by submerging it in a hyper-tonic osmotic solution (OS), along a specific time period and temperature rate [12]. This OS must be a highlyconcentrated solute, like salt or sugar [4]. OD has been used with different fruits and vegetables, including apples [4, 9], kiwis [4,6], pears [4], eggplant [3], and carrots [13]. Research on melon is scarce [14,15], with a few studies on varieties others than Cantaloupe, using sucrose concentrations different from the ones reported here (55ºBrix). The objective of this work was to study the effect of osmotic pre-treatment on the drip loss (DL), volume change (ΔV), total color change (ΔE), and texture of melon (Cucumismelo L.) tissue, stored under freezing for 1, 15 and 30 days.

guarantee the OS concentration along OD [17-20] and avoid reduction of the impulse force during the process [21]. At two time periods of OD 35 and 98 min, samples were taken out of the OS so as to achieve two MC levels of 85.00+0.18 and 75.00+0.21% (w.b.) respectively. The times required to reach MC levels were previously calculated in melon OD kinetics [22]. These MC levels were chosen in order to reduce the content of freezable water melon. The osmodehydrated samples were placed on humid paper towels to eliminate OS excess on their surface. The MC of the treated and non-treated samples was determined by using the 934.06 Method of the AOAC [23] and the MC of the soluble solids (°Brix) was calculated by means of a refractometer (Abbe Atago 1T, Zeiss, thermostated at 20ºC). 2.3. Freezing, storage and thawing Both the treated and non-treated samples were stored in resealable plastic bag sin a commercial freezer at 8ºC for 12 hours, in order to enhance the internal equilibrium of the concentration [6, 24]. Then, the samples were frozen at – 40ºC (Revco, USA) at a rate of 1.3ºC/min and stored in a commercial freezer at -18ºC, along 1, 15 and 30 days. For each storage time, the samples were thawed at 8ºC in a commercial freezer, for 14 hours to ensure complete thawing [8,25,26]. The physical properties (DL, V, color, and texture) of the samples were measured after thawing. 2.4. Physical properties DL was calculated considering the weight differences of the samples before and after the freezing-thawing process [6, 26], using an analytic balance (Mettler Toledo AE200, Switzerland), with a 0.001g precision. DL was calculated using eq. (1).

DL =

2. Materials and methods 2.1. Sample preparation

m f − mo mo

(1)

Where mo and mf correspond to the weight of the sample before and after freezing-thawing respectively. The volume of each sample before and after freezingthawing was calculated by measuring its diameter and height at three 120º separate points on one of the cylinder’s circular sides, using a digital caliper (Bull Tols, USA). The ΔV or shrinking was calculated with eq. (2).

Melons having similar ripeness degree 7.75±0.7ºBrix, moisture content (MC) of 92.5+0.5% (w.b), and bearing the extra category, according to NTC 5207 standards [16] were used. The fruit was purchased at a local store in Cali, Colombia. Fruits were washed, peeled (using a stainless steel knife) and cut in halves, in order to remove these eds. Each half was cut into 20mm-high and 15mm-diameter cylinders, using a stainless cylindrical steel hollow punch. 2.2. Osmotic pretreatment The samples were submerged in a commercial sucrose OS at 55% w/w, in a plastic container. The OS was kept at 27.0+0.2ºC and constantly stirred at 1000 rpm, using a mechanical stirrer (Kika Labor Technik Pol Col, US), in order to avoid crusting resulting from the presence of sugar on the samples' surface. The OS to fruit ratio was 1:20 (w/w), in order to

Where Vo and Vf are volume of the sample before and after freezing, respectively. The color coordinates CIEL*a*b* were calculated between 400-700 nm, based on the reflexion spectra of the samples, using a spectrocolorimeter (Hunterlab Reston, Virginia USA). Illuminant D65 and Observer 10º were used as referents. Total color change (ΔE) was calculated 82


Ayala-Aponte & Cadena-G / DYNA 81 (186), pp. 81-86. August, 2014.

with eq. (3).

∆E = ∆L *2 + ∆a *2 + ∆b *2

(3)

Where: L*: Lightness a*: Green – red color axis b*: Blue – yellow color axis ΔL*, Δa* y Δb* were calculated following: ΔL*=L*at–L*bf, Δa*=a*at–a*bf, Δb*=b*at–b*bf Where: at: after freezing-thawing bf: before freezing The texture (in terms of firmness, N) of the treated and non-treated samples was evaluated by using a uniaxial compression test. A texturometer (EZ-Test model, Shimadzu, Somerset, New Jersey), adapted with a 40mm diameter cylindrical plate was used for this purpose. The plate was lubricated, in order to avoid sample-plate friction [27]. The samples were compressed to 75% of their initial height, at 30mm/min speed. The firmness was calculated by means of the maximum force peak.

Figure 1. Drip Loss in treated and non-treated melon samples during the freezing – thawing process Source: The authors

1

15

30

0,0

∆V

-0,1

2.5. Experimental design

-0,2 -0,3 -0,4

A factor 3x3 design was used, with two factors chosen at random: Humidity content of the fruit at three levels: 92% (fresh), 85% (OD) and 75% (OD), and frozen storage time: 1, 15 and 30 days. Each treatment was carried out in triplicate. The results were analyzed using analysis of variance (ANOVA), with a confidence level of 95%, using Minitab 16 (Minitab, Inc., State College, Pennsylvania, 2009).

-0,5

Storage Time (Days)

Non-treated Treated 85 Treated 75

Figure 2.Volume change in osmo-dehydrofreezing treated and non-treated melon samples during frozenstorage Source: The authors

ice recrystallization because of less freezable water content, which leads to less structural collapse. A similar behavior has been found for Kiwi [6]. ANOVA showed a significant (p<0.05) effect of the factors frozen storage time and WC level on the DL of cantaloupe samples.

3. Results and discussion 3.1. Drip loss evaluation Drip loss of the treated and non-treated samples are shown in Fig.1. It can be noticed that in all the treatments (treated and non-treated samples) DL of the samples increases as the storage time period increases, which may be due to ice recrystallization during the storage period, thus resulting in loss of cell content and loss of cell water retention capacity [28]. Recrystallization is the change in size, shape and number of ice crystals during frozen storage [29,30]. These findings are similar to those reported for kiwi [29,30], strawberry [25], apple, and pear [4]. It can also be noticed that during frozen storage, treated samples show lower DL than non-treated samples. This is an indication of the cryoprotecting effect of osmotic treatment, previous to the freezing process. Similar findings have been reported for different fruits and vegetables [4,13]. As to the humidity levels in the treated samples, the treatment with lower MC level (75%) showed lower DL value in each storage time period (23.02+0.32, 26.68 + 0.13 and 30.36+0.14 % for 1, 15 and 30 days, respectively). This may be due to lower

3.2. Volume loss Fig. 2 shows the volume loss (ΔV) for treated and nontreated samples during frozen storage. It can be noticed that in all the treatments there was ΔV along the freezing storing time period. However, the non-treated samples show higher ΔV, with 37.80+0.21, 42.90+0.43 and 43.80+0.29% for 1, 15 and 30 days, respectively. As to the treated samples, those with lower MC (75%) show lower ΔV, with 29.6+0.40, 34.8+0.18 and 37.3+0.26% for days 1, 15 and 30, respectively. These higher ΔV in non-treated samples are associated with higher drip loss in the freezing-thawing process, due to higher freezable water content. According to Koc and Eren[31], water loss in food leads to structural damage, which causes shrinking and microstructure changes in the product. The statistical analysis (ANOVA) showed significant differences (p<0.05) for the storing time period and for the MC in connection with the volume of the samples.

83


Ayala-Aponte & Cadena-G / DYNA 81 (186), pp. 81-86. August, 2014.

which prevents oxygen transfer to the fruit, consequently reducing enzymatic brownness [33, 34]. These findings are similar to those reported in research studies dealing with kiwi, apple [4] and eggplant [3].

3.2. Color change Fig. 3 shows the total color change (ΔE) for the different treatments during frozen storage. High ΔE values indicate greater color changes. Total color change increased in all the treatments during the freezing time. However, the osmodehydrated samples show significantly (p<0.05) less color changes (values lower than 10). There were no significant (p>0.05) ΔE in the osmo-dehydrated samples in the two MC levels (75 and 85%). These ΔE were mainly influenced by L* coordinate, which indicates clarity or luminosity in the color space, and is indicative of the degree of browning of the food [3,32]. The non-treated samples showed greater ΔL* (%) during the storing time period (from day 1 to 30 day), varying from13.92+0.88 to 16.39+0.93%, while the osmo-dehydrated samples (75 y 85%) varied from 4.32+0.22 to 6.33+0.37% and from 8.53+0.39 to 10.15+0.76%, respectively. These results indicate that non-treated samples experienced greater brownness, compared to that of the osmo-dehydrated samples. These findings further explain the cryoprotecting effect of osmotic treatments in frozen fruit color. This effect may be due to lower freezable water content, which plays a role in the decrease of the number of reactions leading to the brownness of the fruit tissues [3]. Another explanation may be the presence of sugar on the surface of the treated samples, Non-Treated

Treated 85

3.4. Firmness Fig. 4 shows the values for texture of treated and nontreated melon samples. It can be noticed that in both types of treatments the fruit's firmness significantly (p<0.05) decreased during the storage time period, possibly due to ice crystal formation during storage, which can cause structural cell damage in the fruit. However, the treated samples (75% and 85%) showed significantly (p<0.05) higher compression force values (higher firmness) when compared to the nontreated samples, which may be a result of less structural damage, since they contain less freezable water. This result is in accordance the ones found in mango [24] and tomato [35]. Thus, the cryoprotecting effect of OD on the fruit texture during frozen storage is evident. When comparing the texture of the treated samples (75 y 85%), it was noticed that the treatment with lower water volume (75%) showed the highest firmness values, that is, 5.7±0.8, 4.1±0.6 y 3.8±1.8 N, for 1, 15 and 30 days, respectively. Similar results were found for papaya osmodehydrofreezing treatment [36]. A possible reason for this is that the most dehydrated cell structure (less freezable water content) was least affected, because of lower ice recrystallization [13]. According to Moncayo et al., [35], an OD time period increment (lower humidity content) results into greater firmness of the osmo-dehydrated product, a consequence of its solids gain and water loss.

Treated 75

ΔE

15

10

4. Conclusions

5

1

15

The use of the osmo-dehydrofreezing technique, before the freezing of melon samples had a cryoprotecting effect (drip loss, color, volume and firmness reduction), compared to non-treated samples during frozen storage. In the first case, the treatment using lower humidity level (75%) showed lower quality loss (higher firmness, lower DL, ΔV and ΔE) than the non-treated samples, probably because of their lower freezable water content and, consequently, lower cell damage in the product. The frozen storage time period significantly (p<0.05) influenced the fruit's quality loss, perhaps because of ice recrystallization during storage, which led to cell content loss. These results show that the osmo-dehydrofreezing technique is effective in reducing quality loss in melon samples during frozen storage.

30

Storage Time (Days) Figure 3. Color change in osmodehydrofreezing treated and non-treated melon samples during frozen storage Source: The authors

Non-trated

Treated 85

Treated 75

F (N)

6

4

References 2

0

1

15

1,000

30

[1]

CCI. Corporación Colombiana Internacional. Cómo apostarle al melón. Sembramos, 2. pp. 4-7, 2007.

[2]

FAO. Food and Agriculture Organization of the United Nations.Roma, Italia. Available: http://faostat3.fao.org/faostatgateway/go/to/download/ Q/QC/S [Citado 10 de Octubre de 2013].

[3]

Wu, L., Orikasa, T., Tokuyasu, K., Shiina, T. and Tagawa, A., Applicability of vacuum-dehydrofreezing technique for the longterm preservation of fresh-cuteggplant: Effects of process conditions

Storage Time (Days) Figure 4. Firmness change of osmodehydrofreezing treated and non-treated melon samples during frozen storage Source: The authors 84


Ayala-Aponte & Cadena-G / DYNA 81 (186), pp. 81-86. August, 2014.

on the quality attribute of the samples. Journal of Food Engineering, 91 (4), pp. 560-565, 2009. [4]

[5]

[6]

Marani, C. M., Agnelli, M. E. and Mascheroni, R. H., Osmofrozenfruits: Mass transfer and quality evaluation. Journal of Food Engineering, 79 (4), pp. 1122-1130, 2007.

[21] Ayşe, İ. and İnci, T., Osmotic dehydration of apricot: Kinetics and the effect of process parameters. Chemical Engineering Research and Design, 87 (2), pp. 166-180, 2009.

Chassagne-Berces, S., Poirier, C., Devaux, M. F., Fonseca, F., Lahaye, M., Pigorini, G., Girault, C., Marin, M. and Guilon, F., Changes in texture, cellular structure and cell wall composition in apple tissue as a result of freezing. Food Research International, 42 (7), pp. 788-797, 2009.

[22] Cadena-Gómez, M. I., Aplicación de la técnica de osmo-congelación en la conservación de melón Cantaloupe (Cucumis melo L.) MSc. Thesis, Escuela de Ingeniería de Alimentos, Universidad del Valle, Cali, Colombia, 2012.

Talens, P., Martínez, N., Fito, P. and Chiralt, A., Changes in optical and mechanical properties during osmodehydrofreezing of kiwi fruit. Innovative Food Science & Emerging Technologies, 3 (2), pp. 191– 199, 2002.

[7]

Koç, B, Eren, I., Kaymak, Ertekin F., Modelling bulk density, porosity and shrinkage of quince during drying: The effect of drying method. Journal of Food Engineering, 85 (3), pp. 340–349, 2008.

[8]

Talens, P., Escriche, I., Martinez, N. and Chiralt, A., Influence of osmotic dehydration and freezing on the volatile profile of kiwi fruit. Food Research International, 36 (6), pp. 635-642, 2003.

[9]

[20] Rózek, A., Achaerandio, I., Güell, C., López, F. and Ferrando, M., Grape phenolic impregnation by osmotic treatment: Influence of osmotic agent on mass transfer and product characteristics. Journal of Food Engineering, 94 (1), pp. 59-68, 2009.

[23] AOAC, Official methods of analysis of the Association of Official Analytical Chemists International. Moisture in dried fruits. Method 934.06. Airlington, USA. 1990, pp. 911-912. [24]

Chiralt, A., Martínez-Navarrete, N., Martínez-Monzó, J., Talens, P., Moraga, G., Ayala, A. and Fito, P., Changes in mechanical properties throughout osmotic processes: Cryoprotectant effect. Journal Food Engineering, 49 (2-3), pp. 129-135, 2001.

[25] Moraga, G., Martínez-Navarrete, N. and Chiralt, A., Compositional changes of strawberry due to dehydration, cold storage and freezingthawing processes, Journal of Food Processing and Preservation, 30 (4), pp. 458-474, 2006.

Tregunno, N. B. and Goff, H. D., Osmodehy-drofreezing of apples: Structural and textural effects. Food Research International, 29 (56), pp. 471-479, 1996.

[26] Sriwimon, W. and Boonsupthip, W., Utilization of partially ripe mangoes for freezing preservation by impregnation of mango juice and sugars. LWT Food Science and Technology, 44 (2), pp. 375383, 2011.

[10] Forni, E., Torreggiani, D., Crivelli, G., Maestrelli, A., Bertolo, G. and Santelli F., Influence of osmosis time on the quality of dehydrofrozen kiwi fruit. Acta Horticulturae. 282, pp. 425-434, 1990.

[27] Rao, V. N. M., Classification, description and measurement of viscoelastic properties of solid foods. En Rao, M. & J. F Steffe. Viscoelastic properties of foods, 1a ed., London, Elsevier Applied Science, 1992. pp. 3-47. 3-47.

[11] Crowe J. H., Clegg J. S. and Crowe L. M. Ž., Anhydrobiosis: The water replacement hypothesis. En David S.R. The properties of water in foods ISOPOW 6. 1a ed., London, 1998. pp. 440-453.

[28]

[12] Ayala-Aponte, A. A., Serna-Cock, L. y Giraldo-Cuartas, C. J., Efecto de la agitación sobre la deshidratación osmótica de pitahaya amarilla (Selenicereus Megalanthus S.) empleando soluciones de sacarosa. Interciencia, 34 (7), pp. 492-496, 2009.

Goncalves, E. M., Abreu, M., Brandao, T. R. and Silva, C. L., Degradation kinetics of colour, vitamin C and drip loss in frozen broccoli (Brassica oleraceaL.ssp.) during storage at isothermal and nonisothermal conditions. International Journal of Refrigeration, 34 (8), pp. 2136-2144, 2011.

[13] Van-Buggenhout, S., Lille, M., Messagie, I., Van-Loey, A. and Hendricks, M., Impact of pretreatment and freezing conditions on the microstructure of frozen carrots: qualification and relation to texture loss. European Food Research and Technology, 222 (5-6), pp. 543-553, 2006.

[29] Fennema, O. R., Nature of the freezing process. In: Low temperature preservation of foods and living matter. Citado por: Hagiwara T., Wang H., Suzuki T., Takai R., Fractal analysis of ice Crystals in Frozen Food. Journal of Agricultural and Food Chemistry, 50 (11), pp. 3085-3089, 2002.

[14] Maestrelli, A., Lo-Scalzo, R., Lupi, D., Bertolo, G. and Torreggiani, D., Partial removal of water before freezing: Cultivar and pretreatments as quality factors of frozen muskmelon (Cucumis melo, cv reticulates Naud). Journal of Food Engineering, 49 (2-3), pp. 255-260, 2001.

[30] Sutton, R. L. and Wilcox, J., Recrystallization in model ice cream solutions as affected by stabilizer concentration. Journal of Food Science, 63 (2), pp. 9-11, 1998. [31] Koç, B., Eren, I. and Kaymak, Ertekin F., Modelling bulk density, porosity and shrinkage of quince during drying: The effect of drying method, Journal of Food Engineering, 85 (3), pp. 340 – 349, 2008.

[15] Bianchi, M., Guamaschelli, A. y Milisenda, P., Dehidrocongelación de frutas: Estudio de los parámetros de calidad. INVENIO, 14 (26), pp. 117-132, 2011.

[32]

Moreno, A., Leon, D., Giraldo, G. y Ríos, E., Estudio de la cinética fisicoquímica del mango. (Mangifera indica L. Var. Tommy Atkins) tratado por métodos combinados de secado. Dyna, 77 (162), pp. 75-84, 2010.

[33]

Lenart, A., Osmo-convective drying of fruits and vegetables: Technology and application. Drying Technology, 14 (2), pp. 391–413, 1996.

[34]

Krokida, M. and Maroulis, Z., Quality changes during drying of foods materials. En Mujumdar A.S. Drying Technology in Agricultural and Food Sciences, 1ra Ed., India, 2001. 61 P.

[16] ICONTEC, NTC 5207, Frutas frescas, Melón variedad Cantaloupe. Especificaciones. Instituto Colombiano de NormasTécnicas y Certificación, 2003. [17]

Corzo, O. and Gómez, E. R., Optimization of osmotic dehydration of cantaloupe using desired function methodology, Journal of Food Engineering, 2 (2), pp. 213-219, 2004.

[18] Derossi, A., De Pilli, T., Severini, C. and McCarthy, M. J., Mass transfer during osmotic dehydration of apples, Journal of Food Engineering, 86 (4), pp. 519-528, 2008.

[35] Olatidoye, O. P., Sobowale, S. S. and Akinlua, O., Effect of osmodehydrofreezing on the quality attributes of frozen tomato. Electronic Journal of Environmental, Agricultural and Food Chemistry [Online]. 9(4), 2010. [date of reference March 2013]. Available at:

[19] Mayor, L., Cunha, R. L. and Sereno, A. M., Relation between mechanical properties and structural changes during osmotic dehydration of pumpkin, Food Research International, 40 (4), pp. 448-460, 2007.

85


Ayala-Aponte & Cadena-G / DYNA 81 (186), pp. 81-86. August, 2014.

http://cabdirect.org/abstracts/20103324179.html;jsessionid=73175B A291D4BCC7F3904941ECAA1541. [36]

Science and Food Technology in 2011 (Universidad Politécnica de Valencia, España). He is a professor in the area of Food Technology and Engineering, Universidad del Valle. His research interests include: preservation and food processing.

Moyano, P. C., Vega, R. E., Bunger, A., Garretón, J. and Osorio, F. A., Effect of combined processes of osmotic dehydration and freezing on papaya preservation. Food Science and Technology International, 8 (5), pp. 295–301, 2002.

Martha Isabel Cadena-Gómez., received the Bs. Eng in Food Engineering in 2005 (UNAD, CEAD Palmira, Colombia), the MSc degree in Food Engineering in 2012 (Universidad del Valle, Cali, Colombia). She is a professor in the area of Food Technology, Universidad del Valle. Her research interests include: Food preservation and functional foods.

Alfredo Ayala-Aponte., received the Bs. Eng in Agricultural Engineering in 1993 (Universidad del Valle, Cali, Colombia), and the PhD degree in

86


Coal acid mine drainage treatment using cement kiln dust Edgar Alberto Martínez a, Jorge Iván Tobón b & Juan Guillermo Morales c b

a Research and Development, Cementos Argos S.A Colombia. emartinez@argos.com.co Grupo del Cemento y Materiales de Construcción, Facultad de Minas, Universidad Nacional de Colombia. jitobon@unal.edu.co c Research and Development, Cementos Argos S.A., Colombia. jmorales@argos.com.co

Received: July 19th, de 2013. Received in revised form: February 2th, 2014. Accepted: February 28th, 2014

Abstract Sulphurs are present in different rocks. During mining activities and the sulphur removal processes Acid Mine Drainage (AMD) may be produced, by sulphate ions (SO42-) in solution. AMDs are the main source of pollution from mining operations and in Colombia their discharge into natural bodies of water must comply with national environmental regulations (pH between 5 and 9). Cement Kiln Dust (CKD), with calcium carbonate as its main component, from a Cementos Argos S.A. plant was used to neutralize an AMD generated through a coal bio-desulphurization process. Neutralized AMDs had pH values between 7.72 – 8.05 and the sulphates removal ranged from 67% to 70%. Precipitated sludge was dried and analyzed in order to determine its chemical and mineralogical composition. Moisture content was between 69% and 81%; this precipitated material was composed of gypsum with approximately 50% purity, as well as calcium carbonate. This composition makes it suitable for use in cement production. Keywords: Acid Mine Drainage; Sulphate Removal; Cement Kiln Dust; Synthetic Gypsum.

Tratamiento de drenaje ácido de minería de carbón usando polvo de horno de cemento Resumen Los sulfuros están presentes en distintas rocas. Durante las actividades mineras y el proceso de remoción de sulfuros se pueden producir Drenajes Ácidos de Minería (DAM), con iones de sulfato (SO4-2). Los DAMs son fuente de polución en las actividades mineras y en Colombia su descarga en los cuerpos de agua debe cumplir las regulaciones nacionales (pH entre 5 y 9). Polvo de horno cementero (CKD), con carbonato de calcio principalmente, de una planta de Cementos Argos S.A. fue usado para neutralizar un DAM generado en la biodesulfurización de carbón. Los DAMs neutralizados tuvieron pHs entre 7,72 y 8,05 y la eliminación de sulfatos entre 67% a 70%. El precipitado se secó y analizó para determinar su composición química y mineralógica. Se encontró humedad entre 69% y 81%; yeso con un 50% de pureza aproximadamente y carbonato de calcio. Esta composición lo hace adecuado para uso en la producción de cemento. Palabras clave: Drenaje Ácido de Minería; Remoción de Sulfatos; Polvo de Horno de Cemento; Yeso Sintético.

1. Introduction Acid Mine Drainage (AMD) generated during coal mining operations is normally the result of the oxidation of metallic sulphur compounds, such as pyrite, which are present as impurities in coal [1]. This process may occur naturally when coal comes into contact with water and oxygen or through anthropogenic processes, i.e. desulphurization [2, 3], and can affect different parties as stated by Rahmatian [4] such as: life in water sources, the possibility of using water for human and animal consumption or irrigation, recreation, and the coal industry itself to be increased taxes to pay.

High sulphur content in coal and limestone can lead to undesirable issues in the cement production process, such as the formation of rings inside the clinker kiln [5]. Moreover after combustion it may be transformed into sulphur dioxide (SO2), which is itself an acid rain precursor gas [6]. In a research project conducted by Cementos Argos S.A. (in cooperation with Universidad Nacional de Colombia – Sede Medellín and Servicio Nacional de Aprendizaje, SENA) which aimed to bio-desulphurize coal with high sulphur content, it was discovered that the leachates that were generated had high sulphate content and low pH values, and will require treatment before being discharged into any body of water.

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 87-93. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Martínez et al / DYNA 81 (186), pp. 87-93. August, 2014.

material and the CKD, such as X-Ray Diffraction (XRD), which was carried out using a PANalytical X’Pert PRO equipment, in a 2θ interval between 4° and 70° with a step of 0.02 ° and an accumulation time of 30 s to room temperature, with copper lamp. Fourier Transform Infra-Red Spectroscopy was carried out using a Shimadzu 8400S. X-Ray Fluorescence was carried out using a Philips XCEM 1660. Scanning Electronic Microscopy with Energy Dispersive X-Ray Spectroscopy was carried out using a JEOL JSM 5910LV to 15kV, and Thermo Gravimetric Analysis (TGA) that was carried out using a Hi-Res TGA 2950 Netchz equipment, using an alumina crucible, N2 atmosphere and a heating rate of 20 °C/min up to 950 °C. The ASTM standard ASTM C 150 / C150M – 12 [15] was followed in order to compare cement samples that had been prepared at the laboratory level, using the precipitated material to assess the behavior of the cement.

The search for adequate AMD treatment methods has been the subject of various research initiatives. The results of this research demonstrated that limestone and/or quicklime can be used to neutralize the AMD, while removing sulphates and precipitating synthetic gypsum (CaSO4. 2H2O) [7-9] at a low cost. Most recently, some researchers have started using microorganisms to treat AMD, alkaline by-products from coal combustion [10-11] and natural zeolites [12]. Yet quicklime still remains as the most popular neutralizer, however its use comes at a high environmental cost as CO2 is released during the production process. Cement kiln dust (CKD) is a powder collected in electrostatic precipitators after the clinkerization process. In many cement plants it is considered to be a waste material, as its reintroduction to the kiln can increase the alkali content of cement. Furthermore such re-introduction can lead to rheological changes inside the kiln, which can have an adverse effect on the clinker burning process [5]. Due to these limitations the CKD is often disposed of in abandoned mines, open pits or landfills. The large volumes produced, as well as its fine particle size, make it difficult to handle. Over the years different methods have been proposed for the use of CKD, the most common of which include soil stabilization, its use as an additive for blended cement and as fertilizer, the solidification/stabilization of hazardous wastes and municipal bio-solids and, as a raw material used in the production of calcium hydroxide (Ca(OH)2) slurries to be used as neutralizer in the treatment of acidic wastewater [13]. In many of these applications, it has been found that sulphate ions contained in the CKD have the potential to negatively affect its performance by reacting with the calcium contained within it [14]. The current research focuses primarily on solving two environmental problems: neutralizing AMDs and reusing CKDs. In addition, potential ways of utilizing gypsum precipitated during the neutralization process were also explored.

2.3. Bench-scale experiments Tests to neutralize the AMD with CKD were conducted based on an experimental design (two level fractional factorial design 24-1 with a central point) [16] that included four factors in two levels each: rapid mix (800-1000 rpm), slow mix at 40 rpm (10-20 min), temperature (25-35 °C), and amount of CKD (20-55 g). The experimental plan was composed of nine tests to assess the sulphates’ concentration in the AMD, which had been treated with CKD (Table 1). Initially AMD samples were homogenized in the magnetic stirrer, followed by measurements of pH values and sulphate content to establish the baseline parameters. Subsequently, 500 mL of the sample were placed in each of nine beakers before neutralization. Every beaker was then placed on the magnetic stirrer for one minute on rapid mix cycle (800-1000 rpm) to mix the CKD according to the experimental design. A slow mix at 40 rpm was then held for 10 or 20 minutes, depending on each test, in order to allow the material resulting from the neutralization process to precipitate. The beakers were covered with a plastic film to prevent dust from entering and pH was measured twice during the test: once at the end of the slow mixing cycle and once again after 192 hours. At this point two phases were clearly identifiable in each beaker: precipitated and clarified. Sulphates and pH where measured in the clarified water after being drained from each beaker, and the excess water from the precipitated

2. Materials and methods 2.1. Materials used Several samples of a clear, unfiltered AMD were obtained from the coal bio-desulphurization process. A CKD sample from an Argos Cement plant located in the north of the Colombia was also obtained. A clinker sample from the same cement plant, gypsum mined in the Dominican Republic (YD), water and normalized Ottawa sand were also used.

Table 1. Experimental design

2.2. Analytical methods

Test

A pH meter was employed to determine the pH of the AMD and the neutralized samples (Schott Handylab pH 11). Neutralization tests were conducted using a magnetic stirrer with heating elements and thermocouple temperature control (Corning PC-420D). A spectrophotometer (Thermo Genesis 10 UV) was used to measure the sulphates’ concentration in AMD before and after the treatment. An analytical balance (Lexus Mix-H) was used to measure the weight of the samples. Different techniques were used to determine the chemical and mineralogical composition of the precipitated

Rapid mix (rpm)

1 1000 2 800 3 800 4 1000 5 1000 6 900 7 1000 8 800 9 800 Source: The authors

88

Slow mix 40 rpm (min)

Temperature (ºC)

CKD (g)

10 20 10 10 20 15 20 20 10

35 25 35 25 25 30 35 35 25

20 55 55 55 20 37.5 55 20 20


Martínez et al / DYNA 81 (186), pp. 87-93. August, 2014.

sludge was evaporated at a temperature of 45 °C, so as to avoid mineralogical changes in the precipitated material [17-18], until its weight remained constant (less than 0.1% weight variation), in order to determine the moisture of the precipitated material. This material was then characterized following the methods mentioned in section 2.2. Finally, two types of cement were prepared in the laboratory (one with the precipitate and the other using Dominican gypsum) in order to compare them and to preliminarily assess their performance based on the ASTM standards mentioned before. 3. Results and discussion 3.1. CKD composition Figure 1. Infrared spectrum of the CKD (Transmittance) Source: The authors

The chemical characterization of CKD by XRF showed that the highest weight percentage in the sample was found in calcium oxide (CaO), which falls within the range reported by Mackie et al. [14]. Loss on ignition (LOI) is related to the CO2 that is released and, taking into account that CKD was dry, it may be deduced that this material still contains unreacted limestone (CaCO3) after leaving the clinker kiln, which in turn indicates that this material has neutralizing potential (Table 2). The FTIR analysis of the CKD is shown in Fig.1. The most representative bands correspond to carbonate vibrations (labeled as CO3). The strongest of these bands is over 1400 cm-1, and there is also a narrow band around of 873 cm-1, as well as a weak band with two peaks between 2875 cm-1 and 2990 cm-1. These values are similar to those reported by different authors [19-21]. A small amount of sulphur, represented by sulphate bands (labeled as SO4) and a minor quantity of quartz (labeled as Qz) were also found. The semi-qualitative XRD result, based on a comparative analysis with X’Pert HighScore® database (Fig. 2), confirmed that calcium carbonate was the main component of the CKD (shown as calcite). Two small quartz peaks are also visible in the XRD pattern, however, there were no peaks detected for minerals containing sulphates, which may have been masked by the major peaks, especially, if they are at low percentages (1 to 3%). The TG-DTG curves are shown in Fig. 3. In the TG curve a mass loss between 600 °C and 800 °C can be observed, whereas in the DTG curve a peak representing a maximum of 771.86 °C can be seen. It is approximately at this temperature that carbon dioxide is volatilized from the calcium carbonate sample [18]. Therefore, using loss percentages, calcium carbonate content was calculated, confirming that it is a main component of the CKD. Table 2. Chemical characterization of CKD by XRF. Oxide SiO2 Al2O3 Fe2O3 CaO MgO SO3 K 2O Na2O LOI Source: The authors

Figure 2. XRD pattern of the CKD. Source: The authors

Figure 3. TG-DTG Curves of the CKD. Source: The authors Content (%) 7.8 3.2 2.8 48.2 0.4 0.4 0.2 0.0 36.5

3.2. AMD neutralization After the mixing stage, and before the addition of CKD, sulphate concentrations were measured in the initial AMD samples. The concentration obtained in each beaker was used to calculate the removal of sulphates (Table 3), along with the corresponding pH values, which were measured 89


Martínez et al / DYNA 81 (186), pp. 87-93. August, 2014.

before and after neutralization. After 192 hours the pH remained within the permissible range (5 - 9 units), as dictated by Colombian environmental regulations. There was sulphate removal of over 67% in all samples. Samples 3 and 5 had higher removal (72%) and sample 5 was closer than sample 3 to the neutral pH values. Sample 5 was chosen to be characterized along with the original AMD in an external laboratory in order to determine additional environmental parameters, such as conductivity, acidity, solid content and the presence of iron, manganese and zinc (Table 4). Conductivity decreased after neutralization, which could be related to the removal of solids and metals from the AMD. As can be seen in Table 3, the biggest fraction of the Total Solids corresponded to Dissolved Solids, before and after neutralization. There was more than 93% precipitation in manganese, zinc and iron, which is similar to the findings of Mackie and Walsh [22].

Figure 4. XRD patterns for precipitated sludge, CKD and YD. (Y axis scale is variable. Gy: di-hydrated gypsum tag, Ca: calcium carbonate tag). Source: The authors

3.3.1. Moisture content After dehydration at 45°C the moisture content of precipitated sludge ranged between 69% and 81%. According to Aubé’s findings [7] these percentages may vary between approximately 70% and 99%, which is consistent with the findings of this research.

3.3. Precipitate composition The hypothesis of this research aimed to demonstrate that precipitated material could be considered synthetic gypsum, since the reaction occurred in an aqueous solution. Thus the analyses of properties such as Moisture content, XRD, TG, FTIR, XRF and SEM were conducted to verify this claim.

3.3.2. X Ray Diffraction (XRD) Fig. 4 shows diffraction patterns (XRD) for the nine samples, previously sieved between -200 and +325 meshes. CKD and Dominican gypsum (YD) patterns were also included in order to compare the representative peaks of the gypsum and calcium with the peaks of the precipitate. Dominican gypsum (YD) showed four main peaks on the 2θ axis. The position of these peaks was similar to those reported in the X'Pert HighScore® software database for di-hydrated gypsum. Diffraction patterns for the nine samples matched the positions of the di-hydrated gypsum, and calcium carbonate peaks were also found to match the positions reported in the literature [23]. The precipitated samples showed two double peaks at the gypsum and calcium carbonate positions, one smaller between 23° and 24° 2θ positions and the more representative pair between 29° and 30° 2θ positions. This demonstrates that gypsum was produced but there is still some unreacted calcium carbonate. From Fig. 4 it can be deduced that the highest peaks of gypsum are related to the lowest peaks of calcite in the precipitated material (samples 1, 5, 8 and 9). After comparing each sample against the X’Pert HighScore® database, it was discovered that samples 5 and 9 had the highest percentage of gypsum, however the difference between them was the absence of quartz in sample 5.

Table 3. Removal of sulphates and change in pH after neutralization of AMD with CKD. Clarified Test AMD AMD Clarified Sulphate Water Sulphates pH Water Removal Sulphates Concentration pH (%) Concentration (mg/L) (after (mg/L) 192 hours) 1 30204.62 10092.41 67 1.75 8.03 2 30204.62 9075.91 70 1.75 7.93 3 30204.62 8495.05 72 1.75 8.05 4 30204.62 8930.69 70 1.75 7.86 5 30204.62 8495.05 72 1.75 7.77 6 30204.62 8858.09 71 1.75 7.84 7 30204.62 8930.69 70 1.75 8.00 8 30204.62 9366.34 69 1.75 7.89 9 30204.62 8640.26 71 1.75 7.72 Source: The authors

Table 4. Characterization of sample 5 before and after neutralization. Parameter (units) AMD Neutralized AMD 25250 10230 Conductivity (µS/cm)

Removal (%) 59.49

Total Acidity (mg CaCO3/L)

11850

34

99.71

Total Iron (mg Fe/L)

2530

<0.050

100.00

Total Manganese (mg Mn/L)

14.30

0.868

93.93

Total Zinc (mg Zn/L)

3.93

0.015

99.62

Total Dissolved Solids (mg/L)

27422

12548

54.24

Total Solids (mg/L)

27510

12602

54.19

3.3.3. X Ray Fluorescence (XRF) Results obtained by XRF showed that samples 1, 5, 8 and 9 had the higher sulphur percentages, shown in Table 5 as SO3, which confirms the information obtained through XRD analysis. Compared to CKD the precipitated samples showed an increase in SO3 percentage and a decrease in

Source: The authors

90


Martínez et al / DYNA 81 (186), pp. 87-93. August, 2014.

CaO, which could indicate that sulphur reacted with calcium and in turn precipitated as gypsum. There was an increase in iron and magnesium oxide content in the precipitated material after the neutralization process, affirming that the metals were removed with the addition of CKD.

there is an initial mass loss of 15% close to 150° C. There is then a mass loss of 5% in the dehydration of the hemihydrate at around 200° C [24]. Dominican gypsum showed a mass loss of 15.68% around 150° C and precipitated samples 1, 5, 8 and 9 presented close to a 10% mass loss at that temperature. The other samples exhibited a loss in mass of less than 6%. At around 750° C there was further loss of mass when carbon dioxide is released through volatilization, thus confirming the presence of Calcium Carbonate after neutralization in the precipitated material (Table 6).

3.3.4 Thermo Gravimetric Analysis (TG) This method was used to determine the percentage of gypsum in the precipitated material. Previous studies have demonstrated that when gypsum is dehydrated to hemihydrate

Table 5. XRF analysis of samples. Sample SiO2 YD 4.29 CKD 7.88 Sample 1 5.57 Sample 2 7.05 Sample 3 6.95 Sample 4 7.20 Sample 5 5.98 Sample 6 6.62 Sample 7 7.13 Sample 8 5.58 Sample 9 5.59 Source: Source: The authors

Al2O3 0.96 3.21 3.25 3.17 3.15 3.23 3.39 3.24 3.15 3.22 3.28

Fe2O3 0.68 2.80 6.56 4.05 3.82 3.91 6.36 4.80 3.90 6.50 6.49

Cao 29.81 48.23 32.22 40.09 39.83 40.78 33.55 38.02 40.58 32.71 32.84

Oxide Content (%) MgO 2.06 0.49 1.36 1.16 1.54 1.27 1.28 1.28 1.35 1.27 1.27

SO3 41.41 0.44 24.05 12.99 13.63 12.25 22.49 16.42 12.35 23.88 23.59

K 2O 0.14 0.20 0.24 0.25 0.27 0.25 0.24 0.25 0.26 0.24 0.24

Na2O 0.04 0.00 0.12 0.10 0.16 0.10 0.13 0.12 0.11 0.13 0.11

LOI 20.61 36.53 26.63 31.15 30.65 31.01 26.59 29.25 31.18 26.48 26.59

that could match the description of crystal twinning (simple

Table 6. Gypsum and calcium carbonate content in the samples. Sample Gypsum content (%) Calcium carbonate content (%) YD 75 13 CKD 0 76 1 50 28 2 30 68 3 25 56 4 25 56 5 48 32 6 32 48 7 25 56 8 50 29 9 51 29 Source: The authors

Figure 5. FTIR spectrum precipitated sample 5. Source: The authors

3.3.5. Fourier Transform Infrared Spectrometry (FTIR) twin), as described by Nesse [17]. One can observe in the enlarged image how gypsum accumulates on the same crystal to increase its size. With regards to size, synthetic gypsum crystals were smaller than those in mined gypsum, which may be related to their origin.

This technique was used to qualitatively complement the XRD, XRF and TG analyses. Precipitated samples 1, 5, 8 and 9 showed representative bands in the vibration spectrum in the normal positions for carbonates, sulphates and quartz. These bands were labeled as follows: calcium carbonate vibrations as CO3, di-hydrated gypsum vibrations as SO4, di-hydrated gypsum water molecule vibrations as H2O and quartz vibrations as Qz. Fig. 5 shows the spectrum obtained for precipitated sample 5.

3.3.7. Clinker blended with synthetic gypsum Table 7 shows the time of setting for the two cement types prepared in the laboratory, the first using clinker and Dominican gypsum (control cement) and the second using clinker and synthetic gypsum. These results complied with ASTM C 150/C 150M-12 minimum and maximum time of setting standards for Type I cement.

3.3.6. Scanning Electron Microscopy (SEM) As can be seen in Fig. 6, precipitated samples showed mainly crystals with a tabular habit, and there is also a crystal 91


Martínez et al / DYNA 81 (186), pp. 87-93. August, 2014.

quantities are not a definitive recipe, as they correspond to the specific conditions of this research. It is possible that CKD can also be used to treat acid effluents from other industrial processes in an economically efficient way. Although acidity removal and pH increase to neutral values proved to be effective, it is recommended that a combination of CKD and lime could be tested in future researches, and which could potentially improve AMD neutralization. Results showed that synthetic gypsum obtained under these research conditions can be used to produce cement, and the values found for time of setting and compressive strength complied with ASTM standard specifications. As a general conclusion to this research, it can be stated that there are many possibilities to prevent environmental pollution through the manipulation and optimization of industrial processes, in order to find new uses for the byproducts and residues from the intermediate and end stages.

Figure 6. Sample 5 SEM Image. Source: The authors

Table 7. Time of setting.

Cement type Control cement Synthetic gypsum cement ASTM C-150/C 150M-12 (type I cement)

Initial time of setting (min) 128 139 45

Final time of setting (min) 170 200 375

Acknowledgements

Source: The authors

The authors would like to thank Cementos Argos S.A. for funding this project. Table 8. Compressive strength.

Curing time (days) 3 7 28

Control cement (MPa) 15.9 22.7 35.0

References Synthetic gypsum cement (MPa) 14.5 22.3 28.7

ASTM C-150/C 150M-11 (type I cement) 12 19 ---

Source: The authors

Table 8 shows the compressive strength found in mortars that were prepared with the two cements. The standards are the minimum permitted values. Synthetic gypsum caused a slight delay in both times of setting and developed very similar values for compressive strength. This could be related to its reactivity and also to the effect of contaminants that precipitated with it. The delay could also allow a time increase for workability. We can therefore say that the synthetic gypsum obtained in this process can be used in the manufacture of Portland cement, replacing gypsum obtained through mining activities.

[1]

Marcello, R.R., Galato, S., Peterson, M., Riella, H.G. and Bernardin, A.M., Inorganic pigments made from the recycling of coal mine drainage treatment sludge. Journal of environmental management, 88, pp. 1280–1284, 2008.

[2]

Cara, J., The biodesulphurization of a semianthracite coal in a packed-bed system. Fuel, 82, pp. 2065–2068, 2003.

[3]

Evangelou, V., Pyrite microencapsulation technologies: Principles and potential field application. Ecological Engineering, 17, pp. 165– 178, 2001.

[4]

Rahmatian, M., The incidence of environmental degradation: A case study of acid mine drainage. Journal of environmental management, 30, pp. 145–155, 1990.

[5]

Peray, K.E., The Rotary Cement Kiln, Second. Ed. Chemical Publishing Co., Inc., New York, USA, 1986.

[6]

Doménech, X., Química atmosférica, origen y efectos de la contaminación. Miraguano ediciones, Madrid, España, 1991.

[7]

Aubé, B. and Zinck, J., Lime Treatment of Acid Mine Drainage in Canadá, in: Brazil-Canada Seminar on Mine Rehabilitation. BrazilCanada Seminar on Mine Rehabilitation, Florianópolis, 2003, pp. 1– 12.

[8]

Cravotta III, C., Limestone drains to increase pH and remove dissolved metals from acidic mine drainage. Applied Geochemistry, 14, pp. 581–606, 1999.

[9]

Kalin, M. and Harris, B., Chemical precipitation within pyritic waste rock. Hydrometallurgy 78, 209–225, 2005.

4. Conclusions Characterization by XRF, FTIR, XRD, and TG-DTG showed that CaO and CaCO3 were the main components in CKD, which indicates that this material has neutralizing potential and can be used to treat AMD. This confirms earlier studies in which this material is proposed for the treatment of acidic waste water, including metals such as Iron and Zinc. It was confirmed that higher turbulence improves the neutralization reaction between AMD and CKD and, consequently, the precipitation of synthetic gypsum can occur. Under the conditions of this project, approximately 1.5 g of CKD were required to react with 1.0 g of sulphates in an AMD sample, producing synthetic gypsum that can be exploited industrially. It is important to highlight that these

[10] Bulusu, S., Aydilek, A.H. and Rustagi, N., CCB-based encapsulation of pyrite for remediation of acid mine drainage. Journal of hazardous materials, 143, pp. 609–619, 2007. [11] Sheoran, A.S. and Sheoran, V., C.R.P. Bioremediation of acid-rock drainage by sulphate-reducing prokaryotes: A review. Minerals Engineering, 23, pp. 1073–1100, 2010. [12] Calvo, B., Canoira, L., Morante, F., Martínez-Bedia, J.M., Vinagre, C., García-González, J.E., Elsen, J. and Alcantara, R., Continuous

92


Martínez et al / DYNA 81 (186), pp. 87-93. August, 2014. E. A. Martínez-Londoño, received the Bs. Eng. in Sanitary Engineering in 2000 from Universidad de Antioquia (Colombia), a MSc degree in Management and Environmental Audits in 2006 from Universidad de Las Palmas de Gran Canaria (Spain), and a MSc degree in Engineering – Materials and Processes in 2010 from Universidad Nacional de Colombia (Colombia). From 2001 to 2003, he worked for a consulting company as a Field Engineer in the oil extraction sector and since 2003 for Cementos Argos. Currently, he is a Projects Leader in the Research and Development Department in Cementos Argos. His research interests include: sustainable processes, alternative fuels, bioenergy, energy crops, climate change and life cycle assessment.

elimination of Pb2+, Cu2+, Zn2+, H+ and NH4+ from acidic waters by ionic exchange on natural zeolites. Journal of hazardous materials, 166, pp. 619–627, 2009. [13] Bhatty, J.I., Alternative Uses of Cement Kiln Dust. 1995. [14] Mackie, A., Boilard, S., Walsh, M.E. and Lake, C.B., Physicochemical characterization of cement kiln dust for potential reuse in acidic wastewater treatment. Journal of hazardous materials, 173, pp. 283–291, 2010. [15] ASTM International. ASTM C 150 / C150M - 12 Standard Specification for Portland Cement. USA, 2012.

J. I. Tobón, received the Bs. Eng in Geological Engineering in 1992, the MS degree in Engineering in 2003, and the PhD degree in Science and Technology of Materials in 2011, all of them from the Universidad Nacional de Colombia. Medellin, Colombia. From 1992 to 1995, he worked for different companies in mining and oil; from 1995 to 1999 he worked for Cementos Argos S.A., at the same time from 1993 to 1999 he worked for the Universidad Nacional de Colombia as part time Professor and since 1999 for the Universidad Nacional de Colombia at full time. Currently, he is a Full Professor in the Materials and Minerals Department, Facultad de Minas, Universidad Nacional de Colombia. His research interests include: industrial application of minerals and rocks, chemistry and mineralogy of cements, nanotechnology in construction materials, alternative cementitious materials, and high performance cements and concretes.

[16] Gutiérrez, H. y De La Vara, R., Análisis y diseño de experimentos, Segunda ed. McGraw-Hill/Interamericana Editores S.A. de C.V., México D.F., 2008. [17] Nesse, W.D., Introduction to mineralogy. Oxford University Press, New York, USA, 2000. [18] Ramachandran, V.S., Paroli, R.M., Beaudoin, J.J. and Delgado, A.H., Handbook of Thermal Analysis of Construction Materials. Noyes Publications/William Andrew Publishing, New York, USA, 2002. [19] Anbalagan, G., Mukundakumari, S., Murugesan, K.S. and Gunasekaran, S., Infrared, optical absorption, and EPR spectroscopic studies on natural gypsum. Vibrational Spectroscopy, 50, pp. 226–230, 2009.

J.G. Morales Rendón, received the Bs. Eng in Chemical Engineering in 1994 from the Universidad de Antioquia, the MS degree in Engineering Science and Technology of Materials and Process in 2007 from the Universidad Nacional de Colombia sede Medellín. Nowadays he is a PhD (c) in the program of Engineering Science and Technology of Materials at the Universidad Nacional de Colombia sede Medellín. He has worked since 1994 in the cement company Cementos Argos S.A. where he has occupied different charges in cement production process. Currently, he is working in the R&D area as a Senior Leader of the process and technology program conducting several projects with the orientation toward the application of the knowledge in the solution of problems or new developments.

[20] Böke, H., Quantification of CaCO3-CaSO3.0,5H2O-CaSO4.2H2O mixtures by FTIR analysis and its ANN model. Materials Letters, 58, pp. 723–726, 2004. [21] Jun Chu, K., Seun Yoo, K. and Tae Kim, K., Characteristics of gypsum crystal growth over calcium-based slurry in desulfurization reactions. Materials Research Bulletin, 32, pp. 197–204, 1997. [22] Mackie, A.L. and Walsh, M.E., Bench-scale study of active mine water treatment using cement kiln dust (CKD) as a neutralization agent. Water research, 46, pp. 327–334, 2012. [23] Santagata, M., Sreekrishnavilasam, A. and King, S., Characterization of fresh and landfilled cement kiln dust for reuse in construction applications. Engineering Geology, 85, pp. 165–173, 2006. [24] Payá, J., Borrachero, M. V., Bonilla, M. and Monzó, J., The use of thermogravimetric analysis technique for the characterization of construction materials, the gypsum case. Journal of Thermal Analysis and Calorimetry, 91, pp. 503–509, 2008.

93


Carbon nitride films grown by cathodic vacuum arc for hemocompatibility applications Diana Shirley Galeano-Osorio a, Santiago Vargas a, Rogelio Ospina-Ospina b, Elisabeth Restrepo-Parra b & Pedro José Arango b b

a Facultad de Minas, Universidad Nacional de Colombia. dsgaleanoo@unal.edu.co Facultad de Ciencias Exactas y Naturales, Laboratorio de Física del Plasma Universidad Nacional de Colombia. erestrepopa@unal.edu.co

Received: July 30th, de 2013. Received in revised form: March 27th, 2014. Accepted: April 21th, 2014

Abstract Amorphous carbon nitride films have been obtained by pulsed cathodic arc at substrate temperatures of 20, 100, 150 and 200 °C. Film structure was investigated by Fourier Transformed infrared spectroscopy (FTIR) and Raman spectroscopy. Nitrile bands at approximately 2200 cm-1 were identified in all films. As the temperature increased a reduction in the concentration of sp3 bonds and a decrease in the structure disorder were observed. The relative intensity ratio of Raman D and G bands increased as the substrate temperature increased from 20 to 100°C. Nevertheless, at a critical temperature of 150°C, this trend was broken, and the film became amorphous. A peak at approximately 1610 cm-1 of films grown at 100°C, 150°C and 200 °C suggests that CNx is dominated by a relatively ordered graphite ring like glassy carbon. Moreover, the film grown at 150 °C presented the lowest roughness and the highest hardness and hemocompatibility. Keywords: Carbon nitride films; Raman spectroscopy; FTIR spectroscopy; substrate temperature.

Películas de nitruro de carbono crecidas por arco catódico en vacío para aplicaciones en hemocompatibilidad Resumen Se obtuvieron películas delgadas de nitruro de carbono amorfo empleando arco pulsado y variando la temperatura del sustrato a temperatura ambiente, 100, 150 y 200 °C. Los enlaces de las estructuras se investigaron empleando la técnica de espectroscopía infrarroja por transformada de Fourier (FTIR) y espectroscopía Raman. Se identificaron bandas de nitrilos en aproximadamente 2200 cm-1. Se observó una reducción en la concentración de los enlaces sp3 y del desorden estructural de las películas. La relación entre las intensidades de las bandas D y G aumentó con la temperatura del sustrato desde temperatura ambiente hasta 100°C; sin embargo, a una temperatura crítica de 150°C, esta tendencia desapareció y las películas se tornaron amorfas. Se observó un pico ubicado en aproximadamente 1610 cm-1 en las películas crecidas a 100°C, 150°C y 200 °C; además, las películas crecidas a 150 °C presentaron la rugosidad más baja y mayores durezas y hemocompatibilidad. Palabras clave: Películas de nitruro de carbono; Espectroscopía Raman; Espectroscopía FTIR; Temperatura del sustrato.

1. Introduction Surface coating is an effective method to improve the durability of materials used in aggressive environments [1-3]. The search for hard materials has pointed to carbon nitride films because investigations have predicted that the hardness of the βC3N4 structure is high, even comparable to that reported for diamond [4]. In fact, studies of this hard structure have been extended to amorphous carbon nitride films. Amorphous carbon nitride coatings exhibit optimal biocompatibility [5], electronic [6] and mechanical properties [7]; therefore, these films are very

attractive for many applications. Several deposition methods have been used to prepare carbon nitride (a-C:N) films, such as sputtering and arc deposition [8,9], among others. Using continuous or pulsed arc discharges, a-C:N films are easy to grow because arc discharges are an efficient way to ionize nitrogen gas to produce free N+ such that nitrides can be easily formed. One problem commonly faced when producing films by vacuum arc discharge is the generation of nanoparticles. Hakovirta et al. [10] carried out a study on carbon-based thin films with a pulsed vacuum arc system with and without particle filtering. In their final remarks, the researchers concluded that

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 94-101. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Galeano-Osorio et al / DYNA 81 (186), pp. 94-101. August, 2014.

the surface of the coatings produced with the unfiltered system is quite rough, but in many applications, the original surface of the sample is even rougher. Moreover, the high production rate and simplicity of the system without filtering relative to the characteristics of the filtered system are great advantages. On the other hand, substrate temperature, TS, is recognized as a key parameter influencing the composition of CNx films and also the bonds within such films [11]; several investigations have shown that high substrate temperatures encourage the formation of a crystalline phase, whereas low temperatures could cause amorphous structures to develop in the films. The results obtained by Chen et al. indicated that higher substrate temperatures could promote the formation of a C3N4 phase [12]. Fuge et al. observed that CNx films deposited at low TS are amorphous, and CNx films grown at higher TS tend to be increasingly nanocrystalline [11]. In general, some properties such as stress and roughness were found to be strongly dependent on the deposition temperature, changing the film structure (sp2 and sp3 bonds) above a certain transition temperature. This critical temperature normally depends on the deposition system. For instance, Zhou et al. [13,14] produced CNx coatings by the vacuum cathodic arc method varying the substrate temperature. They found that at 200°C, the films properties changed drastically. One of the main goals of this study was to find the most suitable deposition conditions, particularly the optimal substrate temperature, for producing CNx coatings with the highest sp3/sp2 bond ratio, keeping in mind further applications of these films as hard coatings or biocompatible coatings. To this end, the coating structures were analyzed as a function of substrate temperature. Spectroscopic characterization techniques such as Fourier transform infrared spectroscopy and Raman scattering can provide valuable information about the structural properties [15]. Thus, the aim of the present paper is to report the growth of a-CNx films prepared by the unfiltered pulsed vacuum cathodic arc technique. Moreover, studies on the effects of substrate temperature on the structure of carbon nitride thin films were conducted. Spectroscopic techniques were used to characterize chemical bonds and the modifications to the films’ microstructure.

Double-sided electrodes were placed in this chamber. A highpower supply designed to generate pulses with different active and passive times was used to produce an arc discharge between the electrodes. The inter-electrode pulsed voltage can be varied from 0 to 280 Vrms (root mean square voltage) with a 150 A maximum working current, depending on the experiment. In this case the work voltage used was 240 Vrms. The active time is limited by the minimum necessary value for arc ignition under given working conditions, such as target material, working gas and pressure. The inactive arc time can take any theoretical value; nevertheless, it is necessary to take into account that the minimum value is subjected to the arc extinction time under the given working conditions (mainly the target material and the working gas) [16]. The heating system was placed inside the anode to make it possible to heat the substrate in-situ. Carbon nitride films were produced using a graphite target of 99.999% purity that measured 2.00 cm in diameter and 0.250 mm in thickness. The deposition conditions were as follows: four arcs, 1 s active time, 2 s inactive time, 11.7 mm distance between electrodes. Nitrogen was used as the working gas at a pressure of 260 Pa. The substrates were 316L stainless steel disks that measured 2 mm in thickness and 12.7 mm in diameter. These substrates were previously polished using sandpaper with grit sizes ranging from 60 to 1500. Finally, acetone was used to eliminate impurities. Additionally, a KCl crystal measuring 2 mm in thickness and 12.7 in mm diameter was used as the substrate where coatings were grown to carry out the FTIR analysis. The substrate holder (anode) was heated by a resistance coil below the holder. During the deposition, the substrate temperature was maintained at RT, 100 °C, 150 °C and 200 °C. This range of temperature was chosen according to a previous work reported by our group, where at values close to these, coatings presented a good performance [17]. After deposition, a vacuum pressure up to approximately 10-2 Pa was reached, allowing the sample to cool until reaching room temperature. The system is well described in previous works [16]. IR transmission measurements were performed using a Perkin Elmer BXII FTIR spectrometer over the wave number range 400-4000 cm-1. A 4-cm-1 spectral resolution was used for all measurements under normal conditions. Raman scattering measurements were carried out using the 473-nm line of a DPSS laser operating at 5.5 mW in the 900–1900-cm-1 region with a LabRam HR800 Horiba Jobin Yvon instrument. The spectra were deconvoluted with the Grams 32 program. For structural characterization, scanning probe microscopy (SPM) was used in the atomic force microscopy (AFM) mode. For this characterization, a Park Scientific Instruments Autoprobe CP with probes made of silicon and ProScan image-processing software were used. To obtain topographic images of the films in AFM mode, a cantilever probe of silicon nitride (Si3N4) with a spring constant of 0.16 N/m was used under environmental conditions with a scanning speed of 1 Hz and image resolution of 256×256 pixels. The measurements were taken at 60% relative humidity and 24 °C. These analyses were performed by capturing five images from different sites on each coating and averaging them. The films’ hardness was also obtained with the SPM equipment. Small forces (applied over distances on the order of nanometers) with a precision of 0.2 nN were used.

2. Experimental setup The experimental setup is presented in Fig. 1. The equipment used to produce the coatings was a noncommercial reaction chamber made of stainless steel.

Figure 1. Experimental set up that includes electrical and gas systems. The reaction chamber contains the electrodes (anode and cathode). Source: The authors 95


Galeano-Osorio et al / DYNA 81 (186), pp. 94-101. August, 2014. FTIR energy bands of CNx films at various substrate temperatures. FTIR bands C≡N -N=C=N-

Figure Fig. 2

C=N Phenyls or N=C=NC-C

Fig. 3

C-N

Energy-band position (cm-1) RT

100 °C

150 °C

200 °C

2211±8

2204±6

2210±4

2203±9

2118±5

2163±4

2172±5

2167±8

1626±7

1618±7

1609±8

1584±4

1422±4

1448±5

1505±9

1432±7

1406±6

1407±8

1407±6

1408±5

1139±5

1187±7

1200±6

1252±8

C-N or C-O

1051±6

Source: The authors

between 1460 and 1500 cm-1 [20]. In order to calculate the relative concentration of sp3, sp2 and sp1 bonds from FTIR spectra, the next equation is employed. For this method Io is approximately obtained drawing a straight line between the points of lower transmission placed at each side of the maximum, and I is the intensity of the maximum [21]. Table 2 presents the relative concentration of sp2 (C=N) and sp1 (C≡N) bonds as the sp2/sp1 ratio. At low temperatures, sp1 bonds prevail over sp2(sp2/sp1<1) because the total energy of the structure after a single N substitution for sp2 formation is, on average, 1 eV higher than that for sp1 formation [22]; nevertheless, this tendency ceases at TS=150 °C, possibly because TS provides sufficient energy for sp2 formation, producing an increase in the sp2/sp1 ratio; however, at 200 °C, the sp2/sp1 ratio decreases again because the adatoms mobility increased. A great part of the energy is expended in moving the adatoms and not in forming sp2 bonds. The spectral region between 1850 and 850 cm-1 reveals C-C, C=C, C-N and C=N bond contributions. Fig. 3 shows the spectra for this region with varying TS. A Gaussian deconvolution with a linear background was carried out in this region, and the energy-band positions are listed in Table 1. Several spectral

Figure 2. 2300-2000-cm-1 region fit of CNx films’ FTIR spectra: a) 200 °C, b) 150 °C, c) 100 °C and d) RT. Source: The authors

Platelet-adhesion in vitro tests were performed on the CNx films obtained at various TS. Blood was taken from a healthy adult and collected in sodium citrate as an anticoagulant. First, the blood was centrifuged for 6 min at 5500 rpm, and approximately 1 ml of lighter substances was separated from the blood plasma. Then, the remaining material was centrifuged again for 5 min at 2400 rpm, allowing for the extraction of the platelet-rich plasma (PRP). Samples were immersed in the PRP and incubated at 37°C for 120 min; afterward, the samples were rinsed with a 0.9% NaCl solution to remove weakly adherent platelets and then fixed in 2% glutaraldehyde. Environmental scanning electron microscopy (ESEM) was used to study the quantity and morphology of the adherent platelets, after which the films’ thrombogenicity was evaluated. Photographs of the platelets were taken randomly and the thrombogenicity results were correlated with the films’ roughness and microstructure. 3. Results and Discussion

Table 2 Relative concentration ratios sp2/sp1 and sp3/sp2for CNx films at various substrate temperatures.

3.1. FTIR Analysis In Fig. 2, the FTIR spectra show bands between 2000 and 2300 cm-1. These bands were curve-fitted, and two Gaussian contributions were found. The results obtained are summarized in Table 1.

I  Log  0  3 sp  I  sp3 = 2 sp I  Log  0   I  sp2

Bonds ratio (adim.)

(1)

High-energy contributions attributed to nitrile terminal groups -C≡N [18] and low-energy vibration modes involving terminal groups such as carbodiimides, -N=C=N[19] can be seen. In addition, the low-energy vibrations also induce a stretching phase located in the spectral range Table 1

96

Energy-band ratio (adim.) RT

100 °C

150 °C

200 °C

(sp2/sp1) CC=N/CC≡N

0.33 ±0.05

0.22 ±0.04

1.15 ±0.09

0.25 ±0.02

(sp3/sp2) CC-N/CC=N

0.86 ±0.05

0.94 ±0.04

1.76 ±0.10

1.11 ±0.08

C/N From XPS

0.18 ±0.02

0.25 ±0.08

0.3 ±0.06

0.27 ±0.09

(sp2/sp1) CC=N/CC≡N

0.33 ±0.05

0.22 ±0.04

1.15 ±0.09

0.25 ±0.02

(sp3/sp2) CC-N/CC=N

0.86 ±0.05

0.94 ±0.04

1.76 ±0.10

1.11 ±0.08

C/N From XPS Source: The authors

0.18 ±0.02

0.25 ±0.08

0.3 ±0.06

0.27 ±0.09


Galeano-Osorio et al / DYNA 81 (186), pp. 94-101. August, 2014.

Figure 3. 1850-800-cm-1 region fit of FTIR spectra: a) 200 °C, b) 150 °C, c) 100 °C and d) RT. Source: The authors

differences depending on TS can be highlighted. At RT, 100 °C and 150 °C, a well-defined fit can be achieved using four Gaussian contributions. Nevertheless, for the sample grown at 200 °C, one more peak is added to attain a suitable deconvolution. The bands ranging between 1650 and 1600 cm-1 have been attributed to C=N stretching [23]. According to Hammer et al., these configurations are bonded mainly to the aromatic cluster edges [23]. They may also be associated with pyridine vibrational modes, with bands around 1620-1560 cm-1 [24]. The decrease in the energy as the temperature increases is attributed to changes in the films’ microstructure caused by the heating process. The band at approximately 1407 cm-1 may have been produced by sp3 C-C [25]. The bands ranging from 1300 to 1139 cm-1 are reported to be due to C-N simple bonds [26]. An increase in the vibrational energy as Ts increased was observed. These results are consistent with an increase in the degree of ordering of the C-N clusters [27]. For films grown at 200 °C, the band located at approximately 1050 cm-1 could be attributed to C-N vibrations [16] or C-O stretching, which can be found in the range between approximately 1160 and 1080 cm-1 [28]. Table 3 Raman parameters and intensity ratio of different satellite the a-CNxfilms at various substrate temperatures. Band Energy-band position (cm-1) RT 100 °C 150 °C G 1560±1 1563±1 1571±1 D 1359±8 1357±6 1362±7 N 1412±3 1398±4 1396±7 C=C 1603±1 1610±1 1611±1 Band broadening (cm-1) D 100.8±0.6 100.5±0.4 96.6±0.3 G 86.2±0.5 98.3±0.3 127.0±0.5 Band ratio (adim.) ID/IG 0.37±0.04 0.54±0.05 1.4±0.4 IN/IG 3.9±0.4 4.3±0.2 6±0.4 Source: The authors

Figure 4. D and G band fit Raman spectra: a) 200 °C, b) 150 °C, c) 100 °C and d) RT. Source: The authors

Moreover, an analysis of the relative concentration of sp3 (C-N) and sp2 (C=N) bonds in the films as a function of TS was carried out. These values are shown in Table 2. In this table, an increase in the concentration of sp3 C-N bonds in the case of the film grown at 150 °C was observed. At this temperature, aromatic amines and C-N bonds are formed, which are more thermodynamically favorable. This increase could explain the shift of the phenyl radical toward high energies with respect to the phenyl species in the other films. 3.2. Raman Analysis Fig. 4 shows the Raman spectra of the CNx films with varying TS. Gaussian deconvolution with a linear background for frequencies between 1000 and 1850 cm-1 was carried out. To attain a better fit, four bands were employed. The positions of the D (disorder) and G (graphite) bands, their broadening and their intensity ratio ID/IG for each film are summarized in Table 3. The increase in the ID/IG ratio as the temperature increases suggests graphitization by heating, including an increase in disorder in the ring angles and lengths. Because the shift in the G band toward higher frequencies is accompanied by an increase in the ID/IG ratio. There may have been an increase in the size or number of sp2 domains. This shift is

components for 200 °C 1583±3 1374±2 1398±6 1612±2 91.7±0.2 83.8±0.3 1.6±0.3 5.3±0.3

97


Galeano-Osorio et al / DYNA 81 (186), pp. 94-101. August, 2014.

only observed when six-fold aromatic rings are present [29]. The shift in the D toward higher frequencies suggests the densification of the sp2 ringed structure in the lattices. The increase in the ID/IG ratio, widening of the D-peak and narrowing of the G-peak are caused by increase of the graphite-like component in the amorphous carbon films [30]. Capelli [31] demonstrated that higher ID/IG ratio and narrower G are associated to the carbon configuration changes from an amorphous mixture of sp3/sp2 configuration to a locally ordered sp2 nano-graphite structure. The widening of the D band is related to the presence of more sp2 carbon bond angle distortion [32]. This behavior increases the disorder and decrease the graphite-like structure in the crystalline region of the film. The N peak is visualized between the D and G bands as shown in Fig. 4. This peak is due to N=N stretching vibrations when N is bonded to a carbon ring, particularly one of the C-N=N-C benzene type [33]. The N=N stretching frequencies vary between 1400 and 1500 cm-1 depending on the site replaced by carbon. This is also correlated with the degree of symmetry breaking [34]. An increase in the IN/IG area ratio was observed as a function of the substrate temperature, as is shown in Table 2. The N incorporation in films grown at RT, 100°C and 200°C could benefit the formation of aromatic clusters. Nevertheless, the increase in the nitrogen content of the films produced at 150°C could favor the formation of pyridine rings, which blocks cluster growth. Furthermore, an increase in the number of -C≡N nitrile bonds may occur at 150°C because as terminal groups, they prevent the growth of graphitic clusters. This assertion is supported by the relative concentration ratio CC≡N/CC=N shown in Table 2. The increase in the number of N=N bonds may indicate that the films contain large amounts of nitrogen, implying that as the substrate temperature rises, the nitrogen concentration increases. The substrate temperature favors the atomic surface migration of C and N species, accelerating chemical reactions between different species and increasing the nitrogen concentration [35]. The nitrogen concentration decreases again at 200 °C. This behavior can be attributed to the fact the C and N species can be desorbed at this TS. The subsequent drop in nitrogen content at 200°C, as shown in Table 1, may be due to an increase in the desorption of some volatile species, such as C2N2 and nitriles [35]. Moreover, higher substrate temperatures are unfavorable for the incorporation of morevolatile species such as CN [36]. The transition to a more crystalline phase as the substrate temperature increases may be caused by a relaxation process in the film structure provoked by the heating treatment. This relaxation may also be related to the desorption of N species observed in this film because the desorption of N atoms from the rings can cause C atoms to take their place, thereby stabilizing and relaxing the structure. Each spectrum contains a peak beyond1600 cm-1. This finding may be related to the D peak of glassy carbon, which corresponds to C=C stretching in aromatic rings [37], indicating that the films have a higher tendency toward graphitization. The increase in the TS caused the frequencies to shift toward higher values due to changes in the films’ microstructure because of the heat

Figure 5. XPS spectrum of the C 1s peak obtained for the coating produced at room temperature. Source: The authors

treatment. Fig. 5 shows the XPS C1s spectra of the CNx film grown at TS=150 °C, presenting several components. This spectrum was decomposed into three components fitted with Gaussian functions by approximating the background contribution using Shirley's method. The first component peaked at 284.6 eV corresponds to sp2 carbon bonds, the second one at 285.5 eV is related to sp3 carbon bonds and the fourth component at 287.5 eV comes from C–N bonds [38]. This result corroborates the presence of carbon linked nitrogen. N/C atomic percentage depending on TS was included in Table 2. Similar to Raman spectroscopy results, the nitrogen percentage increases as the substrate temperature rises. 3.3. AFM Analysis AFM images were obtained for various TS, as shown in Fig. 6. Irregular surfaces with poor uniformity and agglomerations were observed. The film thicknesses remained within the same order of magnitude (approximately 450 nm). According to Figs. 6 (a) and (c), the films grown at RT and 100 °C presented small grain sizes, in the order of 300 nm, compared with the films produced at 150 °C and 200 °C that exhibit values of around 800 nm, as is shown in Figs 6(e) and (g). Although CNxcoating morphologies characterized by small grains have been reported by several authors [39], the coatings produced in this work exhibited different behavior because the films’ morphology depends on many factors, such as the growth parameters and technique and the chemical composition. The roughness and thickness of films grown at different TS were measured and are listed in Table 4. Films grown at RT, 100 °C and 200 °C presented high roughness and low thickness, in agreement with values reported by other researchers [36]. 98


Galeano-Osorio et al / DYNA 81 (186), pp. 94-101. August, 2014.

films is determined by the existence of sp3-hybridized C bonds. The highest hardness, which was exhibited by the film grown at 150 °C, can be explained by the disorder induced by the sp3 bonds between the aromatic layers. These bonds can exist if the distance between the layers is shorter than the interplanar distance of graphite, as dictated by van der Waals interactions. These bonds produce structure densification, compaction and ultimately greater hardness [41]. 3.5. ESEM Analysis Platelet adhesion on the CNx films obtained at various TS was analyzed by the ESEM technique, as shown in Figs. 6 (b), (d), (f) and (h). On films grown at RT, 100 °C and 200 °C, the platelets showed a high degree of spreading and attained activation. They linked together and formed aggregations. However, the coating obtained at 150 °C showed poor platelet adherence. Moreover, on this coating, the platelets remained inactivated, without exhibiting pseudopodia, and they remained almost isolated. The hemocompatibility was observed to improve as the films tended toward graphitization, as shown for the film grown at 150°C (the highest ID/IG ratio and nitrogen concentration). High N content delays clotting and defers platelet activation. This film was the most blood-compatible, presenting the fewest adherent blood platelets and lowest level of platelet aggregation [42]. Among the plasma proteins, fibrinogen is regarded as the key protein that triggers platelet adhesion, activation and aggregation. Subsequently, coagulation factors are released, initiating the coagulation cascade and the eventual formation of a thrombus. In addition, the hemoglobin, platelet and a few plasma proteins in blood tend to be negatively charged. Usually the material surface with more unsaturated bonds in electronegativity has better thromboresistance according to the principle of same electric charge mutual repulsion. In the case of CNx coatings, they include sp2C\N and sp3C\N bonds at the surface and polarize the surface due to the difference in electronegativity between carbon and nitrogen [43].

Figure 6. Surface images of the CNx films grown at different temperatures (left) and SEM micrographs of films after thrombogenicity analysis (right). Source: The authors

Table 4 Roughness thickness and hardness of CNx films grown at various TS Roughness (nm) Thickness (nm) Hardness (GPa) TS (°C) RT

55.98±3.0

378±8

10.5±2.1

100 150

61.22±2.6

457±7

10.4±1.1

11±1

638±10

13.5±3.0

557±8

6.0±1.0

200 51.33±9.7 Source: The authors

4. Conclusions Studies carried out by A. Stanishevsky regarding the morphology of CNx films deposited at different pressures revealed non-uniform surfaces due to large graphitic domains and a CN polymeric component. A large polymeric component results in low roughness, whereas a greater number of graphitic clusters induce the formation of more or larger agglomerations [40].

The CNx films were obtained with the pulsed cathodic vacuum arc method at several substrate temperature. FTIR spectroscopy analysis indicated the formation of carbonnitrogen bonds with sp3, sp2 and sp1 hybridization. The results obtained from Raman spectroscopy suggest that the deposited amorphous carbon nitride films have a graphitic structure. However, at the critical substrate temperature, 150°C, the structure became more amorphous, perhaps due to the increase in the N concentration inside the lattice. At 150 °C, films exhibited the highest hardness and the highest sp3/sp2 bond ratio. The hemocompatibility was observed to improve as the films tended toward graphitization, as shown for the film grown at 150°C. This film was the most blood-compatible, showing the fewest adherent blood platelets and lowest level of platelet aggregation.

3.4. Hardness On the other hand, there is a relationship between the chemical composition and the nano-hardness of the films. The results presented in Table 4 show that the film grown at 150 °C exhibited the highest hardness and the highest sp3/sp2 bond ratio. According to the literature, the hardness of carbon-based 99


Galeano-Osorio et al / DYNA 81 (186), pp. 94-101. August, 2014. vacuum cathodic arc method, Applied Surface Science, vol. 222 (14), pp. 327-337, 2004.

Acknowledgments

The authors gratefully acknowledge the financial support of the División para la Investigación de la Universidad Nacional de Colombia Sede Manizales (DIMA).

[15] Lejeune, M., Durand-Drouhin, O., Charvet, S., Zeinert, A. and Benlahsen, M., On the induced microstructure changes of the amorphous carbon nitride films during annealing, Journal of Applied Physics, 101 (12), pp. 123501, 2007.

References

[16] Ospina R., Castillo, H.A., Benavides, V., Restrepo, E., Arango, Y.C., Arias, D.F. and Devia, A., Influence of the annealing temperature on a crystal phase of W/WC bilayers grown by pulsed arc discharge, Vacuum, 81 (3), pp. 373-377, 2006.

[1]

Ruden, A., González Carmona, J.M., Restrepo, J.S., Cano, M.F. and Sequeda, F., Tribología de recubrimientos de ZrN, CrN y TiAlN obtenidos por magnetron sputtering reactivo, DYNA, 80 (178), pp. 95-100, 2013.

[2]

Muñoz, J.E. and Coronado J.J. Análisis mecánico y tribológico de los recubrimientos Fe-Cr-Ni-C y Ni-Al-Mo, DYNA, 74 (153), pp. 111-118, 2007.

[3]

Copete H., López, E., Vargas Galvis F., Echavarría A. and Ríos T., Evaluación del comportamiento in vitro de recubrimientos de hidroxiapatita depositados mediante proyección térmica por combustión oxiacetilénica sobre un sustrato de Ti6Al4V, DYNA 80 (177), 101-107, 2013.

[4]

Liu, A.Y. and Cohen, M.L., Prediction of new low compressibility solids, Science, 245 (4920), pp. 841-842, 1989. DOI:10.1126/science.245.4920.841

[5]

Wei, S., Shao, T. and Ding, P., Study of CNx films on 316L stainless steel for orthodontic application, Diamond. and Related Materials, 19 (5-6), pp. 648-653, 2010.

[6]

Cappelli, E., Trucchi, D.M, Kaciulis, S., Orlando S., Zanza, A. and Mezzi A., Effect of deposition temperature on chemical composition and electronic properties of amorphous carbon nitride (a-CNx) thin films grown by plasma assisted pulsed laser deposition, Thin Solid Films, 519, pp. 4059-4063, 2011.

[17] Ospina R., Escobar D., Restrepo-Parra, E. Arango, P.J. and Jurado, J.F., Substrate temperature influence on W/WCNx bilayers grown by pulsed vacuum arc discharge, Applied Surface Science, 258 (12), pp. 5100-5104, 2012. [18] Chalmers, J.M., Griffiths, P.R., Eds. Handbook of vibrational spectroscopy, Vol. 1, Theory and Instrumentation, John Wiley & Sons, Inc., 2003 [19] Lejeune, M., Charvet, S., Zeinert, A. and Benlahsen, M., Optical behavior of reactive sputtered carbon nitride films during annealing, Journal Applied Physics, 103 (1), pp. 013507, 2008. [20] Bouchet-Fabre B., Marino, E., Lazar, G., Zellama, K., Clin, M., Ballutaud, D., Abel, F. and Godet C., Spectroscopic study using FTIR, Raman, XPS and NEXAFS of carbon nitride thin films deposited by RF magnetron sputtering, Thin Solid Films, 482 (1-2), pp. 167-171, 2005. [21] Segura-Giraldo, B., Restrepo-Parra, E. and Arango-Arango P.J., On the influence of a TiN interlayer on DLC coatings produced by pulsed vacuum arc discharge: Compositional and morphological study, Applied Surface Science, vol. 256 (1), pp. 136-141, 2009. [22] Bouchet-Fabre, B., Fernandez, V., Gohier, A., Parent, P., Laffon, C., Angleraud, B., Tessier, P.Y. and Minea, T.M., Temperature effect on the nitrogen insertion in carbon nitride films deposited by ECR, Diamond Related Materials, 18 (9), pp. 1091-1097, 2009.

[7]

Zhang, K., Wen, M., Meng, Q.N., Zeng, Y., Hu C.Q., Liu C. and Zheng W.T., Structure, mechanical property, and tribological behavior of c-NbN/CNx multilayers grown by magnetron sputtering, Surface and Coatings Technology, 206, pp. 4040-4045, 2012.

[8]

Mishra, S.K., Shekhar, Ch. and Rupa, P.K.P. and Pathak, L.C., Effect of pressure and substrate temperature on the deposition of nano-structured silicon–carbon–nitride superhard coatings by magnetron sputtering, Thin Solid Films, 515, pp. 4738-4744, 2007.

[24] Zhao, X.-A., Ong, C.W., Tsang, Y.C., Chan, K.F., Choy, C., Chan, P.W. and Kwok, R.W.M., Relationship between the structure and the optical and electrical properties of ion beam deposited CNx films, Thin Solid Films, 322 81-2), pp. 245-253, 1998.

[9]

Hsieh, W.-J., Shih, P.-S., Lin, Ch.-Ch., Wang, Ch.-Y. and Shih H.C., Structure and optical property of the a-C:N films synthesized by filtered cathode vacuum arc, Surface Coating Technology, 200, pp. 3175-3178, 2006.

[25] Zhang J., Liu, W., Li, X., Zhan, B., Cui, Q. and Zou, G., Wellcrystallized nitrogen-rich graphitic carbon nitride nanocrystallites prepared via solvothermal route at low temperature, Materials Research Bulleting, 44, pp. 294, 2009.

[10] Hakovirta, M., Salo, J., Lappalainen, R. and Antitila A., Correlation of carbon ion energy with sp2/sp3 ratio in amorphous diamond films produced with a mass-separated ion beam, Physics Letter A, 205 (49), pp. 287-289, 1995.

[26] Li, Z., Zhou, J., Zhang, J., Chen, T. and Yuan, J., Carbon nitrides synthesized by glow discharge method, Journal of Alloys and Compounds, 346 (1-2), pp. 230-234, 2002.

[11] Fuge, G. M., Rennick, Ch.J., Pearce, S.R.J., May, P.W., Ashfold, M.N.R., Structural characterisation of CNx thin films deposited by pulsed laser ablation, Diamond Related Materials, 12, pp. 10491054, 2003. [12] Chen, Z.Y., Zhao, J.P., Yano T., Ooie, T., and Sakakibara, M.J., Effect of temperature on carbon nitride films synthesized by ionbeam-assisted pulsed laser deposition, Journal of Applied Physics, 88, pp. 7060-7066, 2000. [13] Zhou Z., Xia L. and Sun M., Carbon nitride films prepared at various substrate temperatures by vacuum cathodic arc method, Diamond Related Material, 13 (1). pp. 14-21, 2004. [14] Zhou Z., Xia L., Sun M., The investigation of carbon nitride films deposited at various substrate temperatures and N2/Ar flow ratios by

[23] Hammer, P., Baker, M.A., Lenardi, C. and Gissler, W., Synthesis of carbon nitride films at low temperatures, Journal of Vacuum Science Technology A, 15 (1), pp. 107-112, 1997.

[27] Lazar, G., Clin, M., Charvet, S., Therasse, M., Godet, C. and Zellama, K., Effect of the RF power and deposition temperature on the electrical and vibrational properties of carbon nitride films, Diamond Related Materials, 12 (2), pp. 201-207, 2003. [28] Majumdar, A., Schäfer, J., Mishra, P., Ghose, D., Meichsner J., and Hippler R., Chemical composition and bond structure of carbonnitride films deposited by CH4/N2 dielectric barrier discharge, Surface and Coatings Technology, 201, pp. 6437-6444, 2007. [29] Kovács, G., Veres, M., Koós, M. and Radnóczi, G. Raman spectroscopic study of magnetron sputtered carbon-nickel and carbon nitride-nickel composite films: the effect of nickel on the atomic structure of the C/CNx matrix, Thin Solid Films, 516, pp. 7910-7915, 2008. [30] Wang, J., Huang, N., Pan, C.J., Kwok, S.C.H., Yang, P., Leng, Y.X., Chen, J.Y., Sun, H., Wan, G.J., Liu, Z.Y. and Chu, P.K., Bacterial

100


Galeano-Osorio et al / DYNA 81 (186), pp. 94-101. August, 2014. repellence from polyethylene terephthalate surface modified by acetylene plasma immersion ion implantation–deposition, Surface and Coatings Technology, 186 (1-2), pp. 299-304, 2004. [31] Cappelli, E., Scilletta, C., Orlando, S., Valentini, V. and Servidori, M., Laser annealing of amorphous carbon films, Applied Surface Science, 255, pp. 5620-5625, 2009. [32] Marcinauskas, L., Grigonis, A., Valatkevicius, P. and Medvid, A. Irradiation of the graphite-like carbon films by ns-laser pulse, Applied Surface Science, 261, pp. 488-492, 2012. [33] Colthup, N.B., Daly, L.H. and Wiberly, S.E., Introduction to infrared and raman spectroscopy, 3rd Ed., Academic Press, New York, 1990. [34] Chowdhury, A., Cameron, D. and Hashmi, M., Vibrational properties of carbon nitride films by Raman spectroscopy, Thin Solid Films, 332 (1-2), pp. 62-68, 1998. [35] Wang, X., Li, Z., Wu, P., Jiang, E. and Bai, H., Annealing effects on the microstructure of amorphous carbon nitride films, Applied Surface Science, 253 (4), pp. 2087-2092, 2006. [36] Sebald, T., Kaltofen, R. and Weise, G. Reactively r.f. magnetron sputtered carbon nitride films, Surface and Coatings Technology, 98 (1-3), pp. 1280-1285, 1998. [37] McCulloch, D., Prawer, S. and Hoffman, A., Structural investigation of xenon-ion-beam-irradiated glassy carbon, Physical Review B, 50, pp. 5905-5917, 1994. [38] Khun, N.W. and Liu, E., Effect of substrate temperature on corrosion performance of nitrogen doped amorphous carbon thin films in NaCl solution, Thin Solid Films, 517 (17), pp. 4762-4767, 2009. [39] Zemek, J., M. Jelinek, M., Vorlicek, V., Trchova, M., Lancok, J., Carbon nitride layers created by laser deposition combined with RF discharge, Diamond and Related Materials, vol. 9 (3), pp. 548-551, 2000. [40] Stanishevsky, A., On the surface morphology of C:N films deposited by pulsed cathodic arc discharge method, Materials Letter, 37 (3), pp. 162-167, 1998. [41] Huang, Z., Yang, B., Liu, C., Guo, L., Fan, X. and Fu, D., Effect of annealing on the composition, structure and mechanical properties of carbon nitride films deposited by middle-frequency magnetron sputtering, Materials Letter, 61 (3), pp. 3443-3445, 2007. [42] Galeano-Osorio, D.S., Vargas, S., López-Córdoba, L.M., Ospina, R., Restrepo-Parra, E., Arango, P.J., Substrate temperature influence on the trombogenicity in amorphous carbon nitride thin coatings, Applied Surface Science, 256 (24), pp. 7484, 2010.

[43]

Zhao, M.L., Li D.J., Guo, M.X., Zhang, Y.T., Gu, H.Q., Deng, X.Y., Wan, R.X., Sun, X., The different N concentrations induced cytocompatibility and hemocompatibility of MWCNTs with CNx coatings, Surface and Coatings Technology, 229, pp. 90-96, 2013.

D. S Galeano-Osorio, received a Bs. Eng in Physical Engineering in 2006, an MSc degree in Physics in 2009, and she is studying for a PhD in Engineering, science and technology of materials since 2011, all of them from the Universidad Nacional de Colombia. Her research interests include: production and characterization of materials by plasma assisted techniques for applications in hemocompatibility. S. Vargas-Giraldo, received a Bs. Eng in Physical Engineering in 2005. He has worked in several industries in Colombia dedicated to the material processing by plasma assisted techniques. He is an expert in plasma reactors instruments for industrial applications. R. Ospina-Ospina, received a Bs. Eng in Physical Engineering in 2005, an MSc degree in Physics in 2010, and a PhD degree in Engineering, science and technology of materials in 2011. Currently, he is carrying out his second posdoc in the Centro Brasileiro de Pesquisa Fisica. His research interests include: Materials processing by plasma assisted techniques, materials characterization by SEM, XRD, TEM among others and new materials production. E. Restrepo-Parra, received a Bs. Eng in Electrical Engineering in 1990 from the Universidad Tecnológica de Pereira, an MSc degree in Physics in 2000, and a PhD degree in Engineering – automation in 2009, the last two from the Universidad Nacional de Colombia, sede Manizales. From 1991 to 1995, she worked in the Colombian electrical sector and since 1996 for the Universidad Nacional de Colombia. Currently, she is a senior Professor in the Physics and Chemistry Department, Facultad de Ciencias Exactas y Naturales, Universidad Nacional de Colombia – sede Manizales. Her research interests include: simulation and modeling of materials properties by several methods; Materials processing by plasma assisted techniques and materials characterization. She is currently Director of Laboratories Sede Manizales, Universidad Nacional de Colombia. P.J. Arango-Arango, received a Bs. in Physics in 1982, an MSc degree in Physics in 1987, all of them from the Universidad de Valle, Colombia. Currently, he is a full Professor in the Physics and Chemistry Department, Facultad de Ciencias Exactas y Naturales, Universidad Nacional de Colombia – sede Manizales. His research interests include: Materials processing by plasma assisted techniques and materials characterization. He is currently Director of the Laboratorio de Física del Plasma, Universidad Nacional de Colombia.

101


Molecular dynamics simulation of nanoindentation in Cr, Al layers and Al/Cr bilayers, using a hard spherical nanoindenter Sebastián Amaya-Roncancio a, Elisabeth Restrepo-Parra b, Diana Marcela Devia-Narvaez b,c, Diego Fernando Arias- Mateus d & Mónica María Gómez-Hermida d a Universidad Nacional de San Luis , Argentina. sebastianamayaroncancio@gmail.com Universidad Nacional de Colombia-sede Manizales, Colombia. erestrepopa@unal.edu.co c Universidad Tecnológica de Pereira, Colombia. dianadevia@gmail.com Universidad Católica de Pereira, Colombia. diegomas@gmail.com, monica.gomez@ucp.edu.co b

d

Received: August 2th, de 2013. Received in revised form: March 10th, 2014. Accepted: April 4th, 2014

Abstract Three-dimensional molecular dynamics (MD) simulations of a nanoindentation technique using the hard sphere method for Cr (bcc) and Al (fcc) thin films and (Cr/Al)n (n=1,2) systems were carried out. For the model implementation, Morse interatomic potential was used for describing the single crystal interaction and the contact between Cr and Al structures. On the other hand, fixed boundary conditions were used and the repulsive radial potential was employed for modeling the spherical tip, and ideal mechanical properties at 0 K were obtained by simulating load-unload curves. Bilayers presented higher hardness and Young´s modulus than Cr and Al layers. Moreover, the region of atoms movement after the unload process shows a continuous parabolic boundary for Al and Cr layers and a discontinuous boundary for the bilayers caused by the interfaces. Keywords: Hardness; Interface; Morse potential; Nanoindentation; Young´s modulus.

Simulación del proceso de nanoindentación con dinámica molecular en capas de Cr y Al y bicapas de Al/Cr, empleando un nanoindentador esférico Resumen En este trabajo se realizaron simulaciones empleando dinámica molecular tridimensional aplicada a la técnica de nanoindentación, usando el método de la esfera dura en películas de Cr (bcc), Al (fcc) y sistemas (Cr/Al)n (n=1,2). Se empleó un potencial interatómico de Morse con el fin de describir la interacción en cada cristal y el contacto entre las estructuras de Cr y Al. Se emplearon condiciones de frontera fijas y un potencial radial repulsivo para modelar la punta esférica del indentador. Con estas condiciones se obtuvieron las propiedades mecánicas ideales a 0 K, simulando curvas de carga-descarga. Las bicapas presentaron dureza y módulo de Young altos, comparados con valores obtenidos en capas de Cr y Al. Además, la región de los átomos en movimiento después del proceso de descarga muestra un límite parabólico continuo en las capas de Al y Cr, y limites discontinuos en las bicapas, causados por las interfaces. Palabras clave: Dureza; Interfase; Modulo de Young; Nanoindentación; Potencial de Morse

1. Introduction Thin films have been widely used for improving contact surfaces’ performance for applications such as magnetic storage devices, hard coatings, microelectromagnetics mechanisms among others [1-4]. Nevertheless, there is a remarkable difference between mechanical properties of materials in bulk and thin films. This difference is higher when

films are produced as single thin films and multilayers, the latter presenting better mechanical behavior because of the interface presence. On the other hand, the most useful technique for measuring mechanical properties in systems with low dimensions such as thin films is nanoindentation, as it uses very small loads, in the order of nanonewtons (nN) [5]. This method uses an indenter with a known geometry that comes into contact in a specific place of the surface applying a load.

© The author; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 102-107. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Amaya-Roncancio et al / DYNA 81 (186), pp. 102-107. August, 2014.

For this type of tests on the nanometer scale, complex and expensive equipment and a long time for analysis are needed. One alternative for studying mechanical properties at a nanometer scale is the use of modeling and simulation techniques that allow understanding the materials behavior in a deeper way. For example, molecular dynamics (MD) is one of the most used methods for this kind of studies [6]. MD simulations are a powerful tool for studying material properties in different fields such as bioscience, chemistry and material science among others [7]. Because of the computational technological developments, now simulations including a hundred million atoms can be developed. Recently, several works employing MD for simulating the nanoindentation process for studying mechanical properties of thin films and multilayers using different interatomic potentials have been reported. For example A. Ritcher et al. [8] compared experimental and theoretical results of mechanical properties for a nanoindentation method applied to several forms of carbon materials with different mechanical properties, namely diamond, graphite and fullerite films. Molecular dynamics simulations of the indentation process have been performed. Although results were not in the same magnitude because of computing power limitations, the simulations capture the main experimental features of the nanoindentation process showing the elastic deformation that takes place in both materials. In the case of thin films, P. Peng et al. [9] investigated the nanoindentation of aluminum thin film on a silicon substrate by three-dimensional MD simulation, combined with the Lennard-Jones (LJ) potential for describing the interaction at the film-substrate interface. Results showed that the hardness of the film increased with the loading rate. A. K. Nair et al [10] studied the indentation response of Ni thin films of nanoscale thicknesses using molecular dynamics simulations with the embedded atom method (EAM) interatomic potentials. The simulation results for single crystal films show that the contact stress necessary to emit the first dislocation under the indenter is nearly independent of film thickness. In the literature, there are other works showing similar studies to those presented before [11-13]. Regarding multilayers simulation, the literature reports several works that include the influence of the interface presence. T-H Fang et al. [14] applied MD simulations combined with the tight-binding secondmoment approximation and Morse potentials for studying the effects of indention deformation, contact, and adhesion on Al, Ni, and Al/Ni multilayered films. Results show that when the indention depth of the sample increased, the maximum load, plastic energy, and adhesion increased. L. Ming-Liang et al. [15] carried out molecular dynamics simulation to investigate the nanoindentation behavior of a Cu(100)/Cu(110) bilayered thin film. It was found that at the indenting stage, the maximum indentation load of the bilayered thin film is lower than that of its constituents; however, they have nearly the same maximum indentation load. Similar studies were carried out by Y. Cao et al. [16]. In these works the indenter was assumed to be a rigid probe with a great number of carbon atoms; nevertheless, considering that the indenter does not present any deformation, it could be considered as a perfect rigid and

structureless sphere capable of repulsion of all atoms in contact with it. The spherical shape is not far from the real case, because although in experimental measurements the most used shape of indenter is a pyramid, the indenter vertex has always a finite curvature radius of several tens of nanometers; therefore, it would be reasonable to consider it a spherical indenter, taking into account the scale of MD simulations. This type of indenter has been used by A. V. Bolesta and V.M. Fomin [17] for Cu thin films using the DM code LAMMPS. Nevertheless, this method has not been used for multilayer coatings. In this work we present similarities between mechanical properties in a study of Al, Cr and Al/Cr coatings obtained by MD simulations, combined with Morse potential, and a simple indenter with a spherical shape, and experimental results. 2. Model Description Molecular dynamics simulations for carrying out nanoindentation tests were carried out for Cr, Al, Al/Cr and (Al/Cr)2 coatings. The indenter was assumed to be a totally rigid and structureless sphere of diamond with diameter of 12 nm [14]. The sample was considered to be films with well-defined atoms in thermal equilibrium at 0 K, orientation in the plane (100) and of equal thickness. The samples size was LxLxd = 20x20x8 nm3 (where L is the dimension in the x-y plane and d is the thickness of each layer). The system construction for the case of two Al/Cr bilayers is present in Fig. 1. Fixed boundary conditions were considered, but the x-y dimensions were large enough in order to avoid the edges influence on the results obtained. Movement equations combined with the Verlet algorithm with a time interval of 0.92 fs [18] were used. The maximum penetration depth of the tip is 2 nm at a speed of 4.3 m/s, in order to guarantee a The nanoindentation was carried out controlling the spherical indenter position, simulated by means of a repulsive potential with the atoms of the sample surface. The repulsive potential for the indenter is described by: time relaxation between two consecutive simulation steps. F  A(R  rI )2

(1)

Figure 1. 3D scheme for the (Al/Cr)2 sample and spherical nanoindenter employed for molecular dynamics simulations Source: The authors

103


Amaya-Roncancio et al / DYNA 81 (186), pp. 102-107. August, 2014.

Where A is a constant related to the indenter effective stiffness, R is the indenter radius and ri is the distance between the center of the indenter and the i-th atom belonging to the sample. Values used in this simulation for A and R are 44.14 eV/Å3 and 6 nm respectively. These values were taken evaluated from the work carried out by Lilleodden et al. [19]. The load acting on each individual atom was obtaining by adding two contributions: the first part considers the interaction between the atom and its neighbors; the second part represents the repulsive potential between the atom and the indenter. The Morse potential (Eq. 2) was selected for this simulation because it is computationally simpler and according to several author including Ziegenhain et al. [20] its results are similar to those obtained by using a EAM potential

U(rij )  D e

2 rij ro

 2e

 ( rij r0 )

(2)

Where D is the dimmer energy, ro is the equilibrium distance and  is the fit of the bulk material modulus and rij is the distance between two atoms in the sample. The interatomic energies for Cr-Cr, Al-Al and Cr-Al were obtained from the Lorentz-Berthelot mixing rule [21]: DAB  (DADB )1/ 2

(3)

AB  12 (A  B )1/ 2

(4)

 ro AB  ( A B )1/ 2  l n  2   AB 

(5)

 AB  ro A,B  l n  2 

(6)

1 1  S2 1  i2   E* ES Ei

(8)

Where Ei and Es are the indenter and sample Young´s moduli, i and s are Poisson coefficients of the indenter and sample respectively. The contact area, Ac, depends on the indenter radius R and the contact depth hc, and is given by (9)

AC  RhC

Where hC can be expressed as: hC  hmax  0.72

Pmax S max

(10)

hmax being the maximum penetration depth, Pmax the maximum load and Smax the maximum slope of the unload curve. The material hardness H is defined as the local resistance to the plastic deformation; then, it is determined from the indentation maximum load divided by the contact project area, according to: H

Pmax AC

(11)

3. Results and Discussion

AB

Where DAB , AB , and ro AB are the fit energy, lattice constant and equilibrium distance for A-B compound and

Fig. 3 shows the load-unload curve obtained from indentation simulations for Cr, Al Al/Cr and (Al/Cr)2 at a temperature of 0 K. the maximum load reached by the indentation depth at approximately 2 nm is 144 nN and 202 nN for Al and Cr respectively. For samples with one and two bilayers, the load was increased being 272 nN and 302 nN, respectively.

DA , DB , A , B , ro A and ro B are the same parameters for

A and B elements respectively. The Morse potential parameters for Cr and Al are listed in table 1. The reduced Young´s modulus (E*) is obtained from Eq. (7) which takes into account the combination of the tip and film elastic effects [23]. E*  S

(7)

2  AC

Where  = 1 for a spherical indenter, S is the slope o f the unload curve initial part and Ac is the projected contact area at a maximum load. The Young´s modulus of the sample Es is obtained from the expression: Table 1. Morse Potential parameters for Cr and Al. Material D (eV) Cr-Cr 0.4414 Al-Al 0.2703 Al-Cr 0.3454 Source: Adapted from [22]

 (Å-1) 1.5721 1.1650 1.3686

ro (Å) 2.754 3.253 2.990

Figure 2. Scheme of a typical load-unload curve for a nanoindentation process showing elastic and plastic deformation energies. Source: The authors 104


Amaya-Roncancio et al / DYNA 81 (186), pp. 102-107. August, 2014.

(a)

(b)

Figure 3. Load-unload curves for Cr, Al, (Al/Cr) and (Al/Cr)2 obtained by MD simulations. Source: The authors

From the load-unload curves of Fig. 3, values of hardness (H), effective Young´s modulus (E*=Es/(1-s2)), plastic deformation energy (Ep) and elastic deformation energy (Ee) were obtained. The coefficient of energy dispersion (), is calculated from the expression  = Ep /(Ee+ Ep). These values are listed in Table 2. Similar results were shown by Saraev and Miller [25]. The hardness value for Al is similar to that reported by Peng et al. [9] using MD. Experimental studies report hardness for Cr of 7 GPa [26], similar to that obtained in this work. Results show higher hardness for Cr than for Al in the case of one and two bilayers, the hardness is increased above the values obtained for single thin films, even greater than the value obtained from the mixing rule (5.41 GPa). This hardness evolution is in agreement with that reported in the literature by using nanoindentation experimental tests for Ag/Ni [27] and Cu/Ni [28] systems. There is a semi-coherent interface generated between the Al substrate and the Cr thin film due to the large mismatch of lattice parameters (fcc-bcc), and misfit dislocation networks formed at the interface accommodating this mismatch. The interface, caused by mismatch of lattice parameters, applies a repulsive force to prevent continuous dislocation slip. With successive emission of dislocations from the indented free surface, more dislocations are propagated toward the interface. It causes a pile up of dislocations on the interface, leading to significant work-hardening of Al/Cr coatings [16]. Table 2. Mechanical properties obtained for the films during the load-unload test. Ee Material H E* Ep  (nN-m) (nN-nm) (GPa) (GPa) Al 4.42 65.7 54.5 37.1 0.59 Cr 6.41 77.5 46.8 62.3 0.43 Al/Cr 8.53 114.5 49.4 78.8 0.38 (Al/Cr)2 9.51 125.6 59.3 89.1 0.40 Source: The authors

(b)

Cr

Al (d)

Cr Al Cr Al Figure 4. Cross section of the simple and nanoindenter system presenting the movement of atoms (a) Al, (b) Cr, (c) Al/Cr and (d) (Al/Cr)2 Source: The authors

The Young´s modulus of Al obtained was 70 GPa, similar to that reported by Fang et al. [6]. In the case of Cr, no reports for Young´s modulus obtained by simulation were found. In experimental tests, a value of 300 GPa was determined, different to the value obtained in our simulations, possibly because in the experimental studies the sample is polycrystalline. The value of  that is associated to the tendency for plastic deformation of the films [29], shows a greater value for Al compared to the 105


Amaya-Roncancio et al / DYNA 81 (186), pp. 102-107. August, 2014.

other films. The response to the plastic deformation is greater in single layers than in multilayers. The interface creation generates a reduction in the coefficient of energy dissipation; then, multilayer interfaces act as a barrier for the plastic deformation. In other words, interfaces are considered as zones of dissipation energy [30]. In the case of two bilayers,  is also higher than it for one bilayer, possibly because the shear modulus between the materials in contact is similar. Fig. 4 shows the movement of the atoms driven by dislocations and gliding mechanisms for different samples. The line in the images describes the boundaries of this movement. In Fig. 4 (a) and (b), the movements for Al and Cr layers are presented respectively, describing a parabolic boundary without any discontinuity. On the contrary, For Al/Cr and (Al/Cr)2 (Fig. 4 (c) and (d) respectively) the continuity of the parabola is interrupted by the presence of interfaces, indicating that the atoms’ movement decreases as the interfaces appear. The Cr atoms try to recover their positions after the unload process; nevertheless, the plastic behavior of Al produces dislocations as is shown in Fig. 4 (d). 4. Conclusions A nanoindentation study for films in single layers, (Al and Cr) and (Al/Cr and (Al/Cr)2), was carried out using molecular dynamics simulations, combined with Morse potential, and using a totally rigid and structureless spherical tip as an indenter. Mechanical properties were evaluated from the load-unload curves, determining the hardness and Young´s modulus. The influence of the interface between two different materials on mechanical properties was evaluated. The coefficient of energy dissipation is greater for Al than for other films. The region of atom movement after the unload process describes a parabolic volume for single thin films. In the case of bilayers this zone presents discontinuities caused by the interfaces. Acknowledgment The authors gratefully acknowledge the financial support of the Dirección Nacional de Investigaciones of the Universidad Nacional de Colombia, during the course of this research, under projects 18780 and 10719. This work was supported also in part by the Oficina de Investigación de la Universidad Católica de Pereira. References [1]

Nieto, J., Caicedo, J., Amaya, C., Moreno, H., Aperador, W., Tirado, L. and Bejarano, G., Evaluación de la influencia del voltaje bias sobre la resistencia a la corrosión de películas delgadas de A1-Nb-N. Dyna, 77 (162), p.p. 161-168, 2010.

[2]

Muñoz, J. E and Coronado, J. J., Análisis mecánico y tribológico de los recubrimientos Fe-Cr-Ni-C Y Ni-Al-Mo. Dyna, vol. 74 (153), p.p. 111-118, 2007.

[3]

Radhakrishnan G., Robertson R. E., Adams P. M. and Cole R. C., Integrated TiC coatings for moving MEMS, Thin Solid Films, vol. 420–421, p.p. 553-564, 2002.

[4]

Ashurst, W. R., Carraro, C., Maboudian, R. and Frey, W., Wafer Level Anti-Stiction Coatings for MEMS. Sensors Actuators A, 104, pp. 213-221, 2003.

[5]

Meza, J. M., Chaves, C. A. and Vélez, J. M., Técnicas de indentación: Medición de propiedades mecánicas en cerámicas. Dyna, 73 (149), p.p. 81-93, 2006.

[6]

Fang, T.-H. Chang, W.-J. and Weng, C.-I., Nanoindentation and nanomachining characteristics of gold and platinum thin films. Materials Science and Engineering: A, 430, p.p. 332-340, 2006.

[7]

Hale, J. M., Molecular Dynamics Simulation: Elementary Methods. Wiley-Interscience Publication, 1997.

[8]

Richter, A., Ries, R., Smith, R., Henkel, M. and Wolf, B., Nanoindentation of diamond, graphite and fullerene films. Diamond and Related Materials, 9, p.p. 170-184, 2000.

[9]

Peng, P., Liao, G., Shi, T., Tanga, Z. and Gao, Y., Molecular dynamic simulations of nanoindentation in aluminum thin film on silicon substrate. Applied Surface Science, 256, p.p. 6284-6290, 2010.

[10] Nair, A. K., Parker, E., Gaudreau, P., Farkas, D. and Kriz, R. D., Size effects in indentation response of thin films at the nanoscale: A molecular dynamics study. International Journal of Plasticity, 24, p.p. 2016-2031, 2008. [11] Gao, Y., Lu, C., Huynh, N. N., Michal, G., Zhu, H. T. and Tieu, A. K., Molecular dynamics simulation of effect of indenter shape on nanoscratch of Ni. Wear, 267, p.p. 1998-2002, 2009. [12] Shi, Y. and Falk, M. L., Simulations of nanoindentation in a thin amorphous metal film, Thin Solid Films, 515, p.p. 3179-3182, 2007. [13] Wang, C.-T., Jian, S.-R., Jang, J. S.-C., Lai, Y.-S. and Yang, P.-F., Multiscale simulation of nanoindentation on Ni (1 0 0) thin film. Applied Surface Science, 255, p.p. 3240-3250, 2008. [14] Fang, T.-H. and Wu, J.-H., Molecular dynamics simulations on nanoindentation mechanisms of multilayered films. Computational Materials Science, 43, p.p. 785-790, 2008. [15] Liao, M.-L., Weng, M.-H., Ju, S. P., Chiang, H. J., Molecular Dynamics Simulation on the Nanoindentation Behavior of a Copper Bilayered Thin Film. Chinese Journal of Catalysis, 29, p.p.11221126, 2009. [16] Cao, Y., Zhang, J., Liang, Y., Yu, F. and Sun, T., Mechanical and tribological properties of Ni/Al multilayers—A molecular dynamics study. Applied Surface Science, 257, p.p. 847-851, 2010. [17] Bolesta, A. V., Fomin, V.M., Molecular dynamics simulation of sphere indentation in a thin copper film. Physical Mesomechanics, 12, p.p. 117-123, 2009. [18] Haile, J. M., Molecular Dynamics Simulation: Elementary Methods, Wiley, New York, 1992. [19] Lilleodden, E. T., Zimmerman, J. A., Foiles, S. M. and Nix, W. D., Atomistic simulations of elastic deformation and dislocation nucleation during nanoindentation. Journal of the Mechanics and Physics of Solids, 51, p.p. 901-920, 2003. [20] Ziegenhain, G., Hartmaier, A. and Urbassek, H. M., Pair vs manybody potentials: Influence on elastic and plastic behavior in nanoindentation of fcc metals. Journal of the Mechanics and Physics of Solids, 57,p.p. 1514-1526, 2009. [21] Imafuku, M., Sasajima, Y., Yamamoto, R. and Doyama, M., Computer simulations of the structures of the metallic superlattices Au/Ni and Cu/Ni and their elastic moduli. Journal of Physics F: Metal Physics, 16, p.p. 823-829, 1986.

106


Amaya-Roncancio et al / DYNA 81 (186), pp. 102-107. August, 2014. [22] Komanduri, R., Chandrasekaran, N. and Raff, L. M., Molecular dynamics (MD) simulation of uniaxial tension of some single-crystal cubic metals at nanolevel. International Journal of Mechanical Sciences, 43, p.p. 2237-2260, 2001. [23] Oliver, W. C. and Pharr, G. M., An improved technique for determining hardness and elastic modulus using load and displacement sensing indentation experiments. Journal of Materials Research, 7, pp 1564-1583, 1992. [24] Du, J., Höschen, T., Rasinski, M. and You, J.-H., Interfacial fracture behavior of tungsten wire/tungsten matrix composites with coppercoated interfaces. Materials Science and Engineering: A, 527, p.p. 1623-1629, 2010. [25] Saraev, D. and Miller, R. E. Atomistic simulation of nanoindentation into copper multilayers. Modelling and Simulation in Materials Science and Engineering, 13, p.p. 1089–1099, 2005. [26] Romero, J., Esteve, J. and Lousa, A. Period dependence of hardness and microstructure on nanometric Cr/CrN multilayers. Surface and Coatings Technology, 188–189, p.p. 338-343, 2004. [27] Wen, S.P., Zong, R.L., Zeng, F., Guo, S. and Pan, F. Nanoindentation and nanoscratch behaviors of Ag/Ni multilayers. Applied Surface Science, 255, p.p. 4558-4562, 2009. [28] Zhu, X.Y., Liua, X.J., Zong, R.L., Zeng, F. and Pan, F., Microstructure and mechanical properties of nanoscale Cu/Ni multilayers. Materials Science and Engineering: A, 527, p.p. 12431248, 2010. [29] Kikuchi, N., Kitagawa, M., Sato, A., Kusano, E., Nanto, H. and Kinbara, A., Elastic and plastic energies in sputtered multilayered Ti– TiN films estimated by nanoindentation. Surface and Coatings Technology, 126, p.p. 131-135, 2000. [30] Stueber, M., Holleck, H., Leiste, H., Seemann, K., Ulrich, S. and Ziebert, C., Concepts for the design of advanced nanoscale PVD multilayer protective thin films. Journal of Alloys and Compounds, 483, p.p. 321-333, 2009. Sebastian Amaya-Roncancio, received a Bs. Eng. in Physical Engineering in 2007, and MSc. degree in Physics in 2011. Currently he is a PhD student in Physics at the Universidad Nacional in San Luis, and is a member of the group GEMA of the Universidad Católica de Pereira and PCM Computational Applications of the Universidad Nacional de Colombia sede

Manizales. His research interests include: simulation of mechanical properties of materials and physical chemical properties of surfaces Elisabeth Restrepo-Parra, received a Bs. Eng. in Electrical Engineering in 1990, an MSc degree in Physics in 2000, and her PhD degree in Engineering in 2010. She is a senior professor of the Physics and Chemistry Department, Universidad Nacional de Colombia Sede Manizales and member of the groups: Laboratorio de Física del Plasma and PCM Computational Applications. Her main research areas are: materials processing by plasma assisted techniques, structural, mechanical and morphological characterization of materials and modeling and simulation of physical properties of materials. Diana Marcela Devia-Narvaez, received her Bs. Eng in Physical Engineering in 2005, an MSc degree in Physics in 2010, and her PhD degree in Engineering in 2012. Currently she is a professor of mathematics in the Universidad Tecnológica de Pereira-UTP, and member of the group Laboratorio de plasma of the Universidad Nacional de Colombia sede Manizales, and Non-linear differential equations “GEDNOL” of the Universidad Tecnológica de Pereira. Her fields of work include: materials processing by plasma assisted techniques, structural, mechanical and morphological characterization of materials and modeling and simulation of physical properties of materials. Diego Fernando Arias-Mateus, received a Bs. Eng in Chemical Engineering in 1993, an MSc degree in Physics in 2003, and his PhD degree in Engineering in 2012. Currently he is a professor of chemistry, physics and mathematics at the Universidad Católica de Pereira. He is a member of the group GEMA of the Universidad Católica de Pereira and the Laboratorio de plasma of the Universidad Nacional de Colombia, sede Manizales. His fields of work include: materials processing by plasma assisted techniques, structural, mechanical and morphological characterization of materials and simulation of mechanical properties of materials. Monica Maria Gómez-Hermida, received her Bs. Eng in Physical Engineering in 2004 and MSc degree in Physics in 2009. She is a PhD student in Engineer at the Universidad Nacional de Colombia sede Medellín. Currently she is a professor of physics at the Universidad Católica de Pereira, and member of the group GEMA of the Universidad Católica de Pereira. Her main research areas are: growth of magnetic materials, education pedagogies, study of thermal properties of materials, study of magnetic properties of materials, mathematical simulation and modeling.

107


Effect of a superconducting defect on the Cooper pairs of a mesoscopic sample Sindy Jessenia Higuera-Agudelo a,b, Heli Barba-Molina c & José José Barba-Ortega d a

Departamento de Física, Universidad Nacional de Colombia, Bogotá, Colombia. sjhigueraa@unal.edu.co b Departamento de Física, Universidade Federal de Pernambuco, Recife, PE, Brasil c Universidad Cooperativa de Colombia, Bucaramanga, Colombia. heli.barba@campusucc.edu.co d Departamento de Física, Universidad Nacional de Colombia, Bogotá, Colombia. jjbarbao@unal.edu.co Received: August 6th, de 2013. Received in revised form: March 27th, 2014. Accepted: April 4th, 2014

Abstract We investigate the vortex state in a very long prism of square cross section with a central square defect in the presence of an external perpendicular magnetic field. We considered that the inner defect edge is in contact with a thin superconducting layer at higher critical temperature and/or with a dielectric material, while the outer edge of the sample is in contact with the vacuum. We have evaluated the superconducting order parameter, magnetization and vorticity as a function of the size of the defect at the first vortex penetration field. Therefore we conclude and we are able to show that circular geometry of the vortices near to the defect is mildly modified by the enhanced superconductivity at the edge of the hole. Keywords: Ginzburg-Landau; Superconducting; Mesoscopics; Square hole.

Efecto de un defecto superconductor sobre los pares de Cooper de una muestra mesoscópica Resumen Se investiga el estado de vórtices en un cilindro largo de sección transversal cuadrada con un defecto cuadrado central, en presencia de un campo magnético externo aplicado perpendicular a su superficie. Consideramos que el borde del defecto está en contacto con una pequeña capa de material superconductor, a mayor temperatura crítica y/o con un material dieléctrico, mientras que el borde externo de la muestra está en contacto con el vacio. Evaluamos el parámetro de orden superconductor, magnetización y vorticidad como función del tamaño del defecto en el campo de penetración del primer vórtice. Mostramos que la geometría circular de los vórtices cerca al defecto es levemente modificada por el aumento de la superconductividad en los bordes del defecto. Palabras clave: Ginzburg-Landau, Superconductor, Mesoscópicos, hueco cuadrado.

1. Introduction It is known that the properties of a mesoscopic superconductor are largely influenced by the boundary conditions, the geometry of the sample and by structural defects, therefore simple and complicated loop structures and networks have been theoretically [1-4] and experimentally studied [5] in some of these works, the authors found that in addition to the conventional vortex structures at the matching fields, a variety of vortex states can be stabilized by decreasing the pinning strength of the antidots, also when an antidot array is present the critical temperature is enhanced compared to a non patterned

sample and distinct cusps in the phase boundary are found for different matching fields. Also, several authors report experimental results on the synthesis, the structural characterization, the ferroelectric behavior and the electronic properties of complex high temperature superconductors, the results reveal that the perovskite used, crystallizes in a rhomboidal structure, and has a ferroelectric hysteretic behavior at room temperature [6]. Two band or multi-band mesoscopics superconductors [7-10] and fractional vortices [11], present new and very interesting topics for theoretical and experimental study. In previous works, using the Ginzburg Landau formalism, we studied the effect of trench, holes, barrier and boundary conditions

© The author; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 108-112. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Higuera-Agudelo et al / DYNA 81 (186), pp. 108-112. August, 2014.

on the vortex configurations in circular and square geometries, we found that the lower and upper critical fields are independent of the geometry of the defect, and depend strongly on the boundary conditions [12-14]. In this paper we analyze the superconducting state in a long mesoscopic square cylinder with a central square defect in presence of an external magnetic field applied perpendicularly to its surface at the first vortex penetration field. We calculate magnetization, supercurrent, order parameter and vorticity for two different internal boundary conditions đ?‘?đ?‘? < 0 (superconducting/superconducting at higher critical temperature interface) and đ?‘?đ?‘? → ∞ (superconducting/dielectric interface). We found that the first vortex penetration field does not depends on the size of the defects and that circular geometry of the vortices near to the defect is mildly modified by the enhanced superconductivity at the edge of the hole. 2. Theoretical Formalism We take the order parameter and the local magnetic field invariant along the đ?‘§đ?‘§-direction. The time evolution was incorporated into the Ginzburg Landau equations in such a manner that their gauge invariance is preserved. Superconducting state is described in the time dependent Ginzburg-Landau theory (TDGL) by the order parameter đ?›šđ?›š that describe the superconducting electron density and the potential vector A related to the magnetic induction by đ?‘Šđ?‘Š = ∇ Ă— đ?‘¨đ?‘¨. Also we take the case for electrical potential zero, the TDGL takes the form [13-15]: Ψ̇ = đ?‘Ťđ?‘Ť2 đ?›šđ?›š + (1 − đ?‘‡đ?‘‡)(|đ?›šđ?›š|2 − 1)đ?›šđ?›š

ďż˝ đ??ƒđ??ƒ đ?›šđ?›š} − đ?‘ąđ?‘ąđ?’?đ?’? đ??€đ??€Ě‡ = −(1 − đ?‘‡đ?‘‡)đ?‘…đ?‘…đ?‘…đ?‘…{đ?›šđ?›š

(1) (2)

Here, đ?‘Ťđ?‘Ť = đ?‘–đ?‘–∇ + đ?‘¨đ?‘¨, đ?‘ąđ?‘ąđ?’?đ?’? = đ?œ…đ?œ… 2 (∇ Ă— ∇ Ă— đ??€đ??€) is the normal ďż˝ đ??ƒđ??ƒ đ?›šđ?›š} is the supercurrent. Eqs. (1) current, and đ?‘ąđ?‘ąđ?’”đ?’” = −đ?‘…đ?‘…đ?‘…đ?‘…{đ?›šđ?›š and (2) were rescaled as follows: đ?›šđ?›š in units of đ?›šđ?›šâˆž (đ?‘‡đ?‘‡) lengths in units of đ?œ‰đ?œ‰(đ?‘‡đ?‘‡), the external applied magnetic field đ?‘Żđ?‘Żđ?’†đ?’† in units of đ??ťđ??ťđ?‘?đ?‘?2 (đ?‘‡đ?‘‡), đ?‘¨đ?‘¨ in units of đ??ťđ??ťđ?‘?đ?‘?2 (đ?‘‡đ?‘‡)đ?œ‰đ?œ‰(đ?‘‡đ?‘‡), temperatures in units of đ?‘‡đ?‘‡đ?‘?đ?‘? . The dynamical equations are complemented with the appropriate boundary conditions for the order parameter: ďż˝ ∙ đ?‘Ťđ?‘ŤÎ¨ = −đ?‘–đ?‘–â„?Ψâ „đ?‘?đ?‘? đ?’?đ?’?

(3)

ďż˝ is the unity vector đ?‘?đ?‘? is the de Gennes parameter and đ?’?đ?’? perpendicular to the surface of the superconductor. In this paper we analyze the superconducting state of a long mesoscopic cylinder of square transverse section of area đ?‘†đ?‘†đ?‘†đ?‘† = 36đ?œ‰đ?œ‰(đ?‘‡đ?‘‡)đ?‘‹đ?‘‹36đ?œ‰đ?œ‰(đ?‘‡đ?‘‡) with a central square defect of area đ?‘†đ?‘†đ?‘†đ?‘† in presence of an external magnetic field đ?‘Żđ?‘Żđ?‘Żđ?‘Ż applied perpendicular to its surface. We considered đ?‘†đ?‘†đ?‘†đ?‘† = 18đ?œ‰đ?œ‰(đ?‘‡đ?‘‡)đ?‘‹đ?‘‹18đ?œ‰đ?œ‰(đ?‘‡đ?‘‡), 12đ?œ‰đ?œ‰(đ?‘‡đ?‘‡)đ?‘‹đ?‘‹12đ?œ‰đ?œ‰(đ?‘‡đ?‘‡), 6đ?œ‰đ?œ‰(đ?‘‡đ?‘‡)đ?‘‹đ?‘‹6đ?œ‰đ?œ‰(đ?‘‡đ?‘‡), 3đ?œ‰đ?œ‰(đ?‘‡đ?‘‡)đ?‘‹đ?‘‹3đ?œ‰đ?œ‰(đ?‘‡đ?‘‡) and đ?‘†đ?‘†đ?‘†đ?‘† = 0, for two different internal boundary conditions đ?‘?đ?‘? = −2đ?œ‰đ?œ‰(đ?‘‡đ?‘‡) and đ?‘?đ?‘? → ∞. The parameters used in our numerical solution were: grid spacing đ?‘Žđ?‘Žđ?‘Ľđ?‘Ľ = đ?‘Žđ?‘Žđ?‘Śđ?‘Ś = 0.3 Ă— 0.3, đ?‘ đ?‘ đ?‘Ľđ?‘Ľ = đ?‘ đ?‘ đ?‘Śđ?‘Ś = đ?‘†đ?‘†đ?‘?đ?‘? â „đ?‘Žđ?‘Žđ?‘Ľđ?‘Ľ,đ?‘Śđ?‘Ś = 120đ?œ‰đ?œ‰(đ?‘‡đ?‘‡) Ă— 120đ?œ‰đ?œ‰(đ?‘‡đ?‘‡) for the computational mesh, constant temperature đ?‘‡đ?‘‡ = 0.53 and Ginzburg-Landau parameter đ?œ…đ?œ… = 5. We ramp up the applied magnetic field adiabatically,

typically in steps of ∆đ??ťđ??ť = 10−5 . Also, we use the following criterion to obtain the stationary state: if the highest difference âˆĽ Ψ(đ?‘Ąđ?‘Ąđ?‘šđ?‘š ) − Ψ(đ?‘Ąđ?‘Ąđ?‘›đ?‘› ) âˆĽ, for any vertex point in the mesh, is smaller than a certain precision đ?œ€đ?œ€, then we go over the next field; usually, this test is made over some thousands of times steps, i.e., đ?‘šđ?‘š − đ?‘›đ?‘›~10−3 . We have worked with a precision đ?œ€đ?œ€ = 10−9 . Although the time dependent Ginzburglandau equations can provide all the metastable states of a fixed field, in the present work we studied only the stationary state at the first vortex penetration field đ??ťđ??ť1 . The magnetization, −4đ?œ‹đ?œ‹đ?‘´đ?‘´đ?’?đ?’? = đ?‘Šđ?‘Š − đ?‘Żđ?‘Żđ?’†đ?’† , where đ?‘Šđ?‘Š is the induction (the spatial average of the local magnetic field) is: −4đ?œ‹đ?œ‹đ?‘€đ?‘€đ?‘›đ?‘› =

1

đ?‘ đ?‘ đ?‘Ľđ?‘Ľ đ?‘ đ?‘ đ?‘Śđ?‘Ś

đ?‘ đ?‘

đ?‘ đ?‘ đ?‘Ľđ?‘Ľ đ?‘Śđ?‘Ś đ?‘›đ?‘› ∑đ?‘–đ?‘–=1 ∑đ?‘—đ?‘—=1 â„Žđ?‘§đ?‘§,đ?‘–đ?‘–,đ?‘—đ?‘— − đ??ťđ??ťđ?‘’đ?‘’

(4)

The number of vortices can be found integrating the supercurrent đ?‘ąđ?‘ąđ?‘ąđ?‘ą along a rectangle containing the superconductor. This leads us to: 1

ďż˝ đ??ƒđ??ƒ Ψ] ∙ đ?‘‘đ?‘‘đ?’“đ?’“ = 2đ?œ‹đ?œ‹đ?‘ľđ?‘ľ − ÎŚ ∎ |Ψ|2 â„œ[Ψ

(5)

Where N is the vorticity or number of vortices and ÎŚ is the total penetration flux. 3. Results

In Fig. 1 we plot (a) Magnetization curve -4đ?œ‹đ?œ‹đ?œ‹đ?œ‹ and (b) Vorticity đ?‘ đ?‘ as a function of the magnetic field, for a square sample with a central hole of area đ?‘†đ?‘†đ?‘†đ?‘† = 36,144,324 in contact with different materials characterized by đ?‘?đ?‘? → ∞ (top) and đ?‘?đ?‘? = −2đ?œ‰đ?œ‰(đ?‘‡đ?‘‡) (bottom). We can notice that the presence of the defect causes a noticeable drop of the first penetration field and leads to a qualitative change of the magnetization and vorticity curves. In the Meissner state the magnetization is a linear function of the applied field and in the Abrikosov state it has a series of jumps which indicate the nucleation of one or more vortices. In Fig. 1(b) (top) we included (a) the superconducting electron density |Ψ| (b) the phase of order parameter Δđ?œ™đ?œ™ and (c) the supercurrent density Js for a square sample at đ??ťđ??ť1 = 0.07. We found a typical vortex configuration with đ?‘ đ?‘ = 4 vortices, they are arranged symmetrically, but it is not a stationary state, as it is well known, increasing the magnetic field the vortices goes to corners to the sample due to mutual repulsive force, forming configurations to minimize the internal energy of the system. We note also that the magnetic field for the first arrival vortices is đ??ťđ??ť ≈ 0.10 for all the samples with the defect. In Fig. 2 we plotted the superconducting electron density |Ψ| for a square sample with the inner defect edge in contact with (top) a superconducting material at higher critical temperature and (bottom) a dielectric material đ?‘?đ?‘? → ∞ of area (left to right) đ?‘†đ?‘†đ?‘†đ?‘† = 9đ?œ‰đ?œ‰ 2 (đ?‘‡đ?‘‡) ,36đ?œ‰đ?œ‰ 2 (đ?‘‡đ?‘‡) ,144đ?œ‰đ?œ‰ 2 (đ?‘‡đ?‘‡), 324đ?œ‰đ?œ‰ 2 (đ?‘‡đ?‘‡) at đ??ťđ??ť1 , đ?‘ đ?‘ đ?‘‘đ?‘‘ represent the vorticity in the hole. Forđ?‘†đ?‘†đ?‘†đ?‘† = 0, 9đ?œ‰đ?œ‰ 2 (đ?‘‡đ?‘‡), 36đ?œ‰đ?œ‰ 2 (đ?‘‡đ?‘‡), we found that the first entry of vortices occurs for đ?‘ đ?‘ = 4 at đ??ťđ??ť ≈ 0.10 for all cases. When we analyze for defects with đ?‘†đ?‘†đ?‘†đ?‘† = 144đ?œ‰đ?œ‰ 2 (đ?‘‡đ?‘‡) , 324đ?œ‰đ?œ‰ 2 (đ?‘‡đ?‘‡), we have a square vortex configuration due to the geometry of the sample, with a small increase of the magnetic field, four first vortices

109


Higuera-Agudelo et al / DYNA 81 (186), pp. 108-112. August, 2014.

are attracted quickly towards to the dielectric defect center forming a giant vortex with vorticity đ?‘ đ?‘ = 4 increasing the magnetic field, then four more vortices enter the sample, four sit in the hole and the other four sit in the superconductor region, although they are not visible in the contour plot of the magnitude of order parameter, also there is a change in the phase around the hole equal to Δđ?œ™đ?œ™ = 8đ?œ‹đ?œ‹ (Fig. 3 (top)). The vortices inside the hole repel the vortices in the superconductor region, repulsion increases with the increase of đ?‘†đ?‘†đ?‘†đ?‘† for a constant magnetic field đ??ťđ??ťđ?‘’đ?‘’ , đ??ťđ??ť1 = 0.1, 0.098 for đ?‘†đ?‘†đ?‘†đ?‘† = 144 and đ?‘†đ?‘†đ?‘†đ?‘† = 324 respectively. It is interesting to note that the presence of the superconducting layer in the defect acts with a repulsion force and repels the vortices deforming its own

Figure 1. (Color online) (a) Magnetization curve −4đ?œ‹đ?œ‹M and (b) Vorticity N as function of the magnetic field, for a square sample with a central hole of area đ?‘†đ?‘†đ?‘†đ?‘† and (top) đ?‘?đ?‘? → ∞ and (bottom) đ?‘?đ?‘? = −2. Dark and bright regions in the inset represent values of the modulus of the order parameter |Ψ| = 1(0) , superconducting (normal) state (as well as Δđ?œ™đ?œ™/2đ?œ‹đ?œ‹, from 0 to 1). Source: The authors

(top)). It is possible to include a new internal surface energy circular geometry for a distance of ~8% of the sample side for đ?‘†đ?‘†đ?‘†đ?‘† = 9 and ~5% for đ?‘†đ?‘†đ?‘†đ?‘† = 36,144,324 (green line in Fig. 2 barrier due to the presence of the defect with đ?‘?đ?‘? < 0, this barrier will be greater for smaller values of |đ?‘?đ?‘?|. This small vortex deformation is not present in a sample with a central hole in contact with a dielectric material, even when inside the defect there are vortices (Fig. 2 (bottom)).

Figure 2. (Color online) Superconducting electron density |Ψ|for đ?‘?đ?‘? = −2 case (top) and đ?‘?đ?‘? → ∞ (bottom for area (left to right) đ?‘†đ?‘†đ?‘†đ?‘† = 9, 36, 144, 324 at đ??ťđ??ť1 = 0.1 đ?‘ đ?‘ đ?‘ đ?‘ represent the vorticity in the hole. Source: The authors

110


Higuera-Agudelo et al / DYNA 81 (186), pp. 108-112. August, 2014.

boundary condition. For these samples the presence of the superconducting material inside the defect acts like an antipinning center. The repulsive force of the antipinning center mildly changes the circular geometry of the vortices for a distance of ~8% of the sample side. If the inner defect edge is in contact with a thin superconducting layer at a higher critical temperature, the first critical field đ??ťđ??ť1 increases with the presence of the defect and the diamagnetism of the sample increases and will be more pronounced for smaller values of the deGennes length |đ?‘?đ?‘?|. In our opinion these findings are important for the groups exploring the superconducting state in nano-engineered materials. Acknowledgement The authors would like to thank Edson Sardella UNESP Bauru - Brazil and Cesar Barba for their very useful discussions. References

Figure 3. (Color online) Superconducting order parameter phase Δđ?œ™đ?œ™ and supercurrent density đ??˝đ??˝đ??˝đ??˝, đ?‘?đ?‘? = −2 (up) and đ?‘?đ?‘? → ∞ (down) and area đ?‘†đ?‘†đ?‘†đ?‘† = 9, 36, 324 (left to right) at đ??ťđ??ť1 . Dark and bright regions represent values of the phase Δđ?œ™đ?œ™/2đ?œ‹đ?œ‹, from 0 to 1. Source: The authors

In Fig. 3 we plot the phase of the order parameter Δđ?œ™đ?œ™ and supercurrent density đ?‘ąđ?‘ąđ?’”đ?’” , for two cases: đ?‘?đ?‘? = −2 (up) and đ?‘?đ?‘? → ∞ (down) with area of the defect đ?‘†đ?‘†đ?‘†đ?‘† = 9, 36, 324 (left to right) respectively. For đ?‘†đ?‘†đ?‘†đ?‘† = 9, 36 we found đ??ťđ??ť1 = 0.99, 0.101, đ??ťđ??ť1 increases slowly with the defect size. Four vortices sit in the superconducting area, there is a change in the phase around the sample equal to Δđ?œ™đ?œ™ = 8đ?œ‹đ?œ‹ and around the hole equal to Δđ?œ™đ?œ™ = 0.

[1]

Moshchalkov, V. V., Gielen, L., Strunk, C., Jonckheere, R., Qiu, X., Haesendonck, C. and Bruynseraede, Y., Effect of sample topology on the critical fields of mesoscopic superconductors. Nature, 373 pp. 319-322, 1995.

[2]

Berdiyorov, G. R., Yu, S. H., Xiao, X. L., Peeters, F. M., Hua, J., Imre, A., and Kwok, W. K., Effect of sample geometry on the phase boundary of a mesoscopic superconducting loop. Physical Review B, 80, 064511, 2009.

[3]

Berdiyorov, G. R., Milosevic, B. J. and Peeters F. M., Stability and transition between vortex configurations in square mesoscopic samples with antidots. Physical Review B, 68, 174521, 2003.

[4]

Zha, G. Q., Milosevic, M. V., Zhou, S. and Peeters F. M., Influence of impurities and surface defects on the flux-induced current in mesoscopic d-wave superconducting loops. Physical Review B, 84, 132501, 2011.

[5]

Van de Vondel, J., Silhanek, A. V., Metlushko, V., Vavassori, P., Ilic, B. and Moshchalkov., V. V. Self-organized mode-locking effect in superconductor/ferromagnet hybrids. Physical Review B, 79, 054527, 2009.

[6]

Landinez, D. A., Deluque, C. E. and Roa, J., Electronic, structural and ferroelectric properties of the đ??ľđ??ľđ??ľđ??ľ2 đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘‚đ?‘‚6 double perovskite. DYNA, 81, (183), pp. 126-131, 2014.

[7]

[8]

Vakaryuk, V., Stanev, V., Lee, W. C. and Levchenko, A., Fractional Quantization of the Magnetic Flux in Cylindrical Unconventional Superconductors. Physical Review Letters 111, 04700, 2013.

[9]

Renosto, S. T., Consoline, H., Dos Santos, C. A. M., Aguiar, J. A., Jung, S., Vanacken, J., Moshchalkov, V .V., Fisk, Z. and Machado, A. J. S., Evidence of multiband behavior in the superconducting alloy đ?‘?đ?‘?đ?‘?đ?‘?0.96 đ?‘‰đ?‘‰0.04 đ??ľđ??ľ2 . Physical Review B, 87, 174502, 2013.

4. Conclusions

We studied the effect of a central square defect on the thermodynamical properties of a mesoscopic superconducting cylinder solving the time dependent Ginzburg-Landau equations. Our results have shown that the lower thermodynamic field đ??ťđ??ť1 varies slowly depending on the size of the defects, and is independent of the

Geurts, R., Milosevic, M. V. and Peeters. F. M., Vortex matter in mesoscopic two-gap superconducting disks: Influence of Josephson and magnetic coupling. Physical Review B, 81, 214514, 2012.

[10] Geurts, R., Milosevic, M. V., Aguiar, J. A., and Peeters, F. M., Enhanced stability of vortex-antivortex states in two-component mesoscopic superconductors. Physical Review B, 87, 024501, 2013. [11] Loder, F., Kampf, A. p. and Kopp, T., Topological defect-phase soliton and the pairing symmetry of a two-band superconductor: Role of the proximity effect Physical Review Letters, 109, 227003, 2012.

111


Higuera-Agudelo et al / DYNA 81 (186), pp. 108-112. August, 2014. [12] Barba, J. J., Gonzalez J. D. and Sardella E., Superconducting State of a Disk with a Pentagonal/Hexagonal Trench/Barrier. Journal of Low Temperature Physics, 174, pp 96-113, 2014. [13] Barba, J. J., Confinement effects on mixed state in superconducting prisms. DYNA, 78, (168), pp. 158-163, 2011. [14] Barba, J. J., Sardella E. and Aguiar, J. A., Superconducting boundary conditions for mesoscopic circular samples Superconductor Science and Technology, 24, 015001, 2011. S. J. Higuera-Agudelo. Received a BSc. Physics in 2009, from the Universidad Pedag贸gica y Tecnol贸gica de Tunja, Colombia, and an MSc degree in Physics in 2014, from the Universidad Nacional de Colombia, Bogot谩, Colombia. Currently, she is a PhD candidate in Physics in the Universidade Federal de Pernambuco, Recife, Brasil. Her research interests include computational simulations in one and two band superconducting mesoscopic systems.

H. Barba-Molina. Received a BSc. Veterinary and Zootechnician surgeon in 1975, from the Universidad Nacional de Cordoba, Monteria, Colombia, a vocational guidance and occupational specialist degree in 2009 from the Universidad Francisco de Paula Santander, Cucuta, Colombia. Currently, he is a Full Professor in Veterinary and Zootechnic Faculty in the Universidad Cooperativa de Colombia, Bucaramanga. His research interests include nonconventional productions, production in minor species. J. J. Barba-Ortega. Received a BSc. Physics in 2000 and an MSc degree in Physics in 2003, from the Universidad Industrial de Santander, Bucaramanga, Colombia. He reveived his PhD degree in Physics in 2007 and from 2007 to 2009, he obtained Post-doctoral experience from the Universidade Federal de Pernambuco, Recife, Brasil. Currently, he is a Full Professor in the Physics Department in the Universidad Nacional de Colombia, Bogot谩. His research interests include computational simulations in superconducting mesoscopics and low dimension semiconducting systems including numerical methods.

112


Applying TOC Heuristics to Job Scheduling in a Hybrid Flexible Flow Shop Jaime Antero Arango-Marín a, Jaime Alberto Giraldo-García b & Omar Danilo Castrillón-Gómez c a

Facultad de Ingeniería y Arquitectura, Universidad Nacional de Colombia; Universidad Católica de Manizales, Colombia. jaarangom@unal.edu.co b Facultad de Ingeniería y Arquitectura, Universidad Nacional de Colombia, Colombia. jaiagiraldog@unal.edu.co c Facultad de Ingeniería y Arquitectura, Universidad Nacional de Colombia, Colombia.odcastrillong@unal.edu.co

Received: August 11th, de 2013. Received in revised form: March 10th, 2014. Accepted: April 24th, 2014 Abstract This paper introduces an application of the Theory of Constraints product mix heuristic to job scheduling in a Hybrid Flexible Flow Shop. The general heuristic is adapted for unrelated parallel machines and the algorithm is implemented as a job detailed scheduling tool based on the principle of the Theory of Constraints to schedule the production based in the bottleneck resource. The adaptation of the methodology to a flexible hybrid context, where there is parallelism in the bottleneck stage, and its application in a textile plant, helps to assign capacity based on the contribution margin. The result is a viable job scheduling focused on the profitability unit. Although the results do not reach the global optimum of this type of problems, they represent a fast and effective job scheduling alternative in the contexts under study. Keywords: Theory of Constraints; Flow Shop; job scheduling; heuristics

Aplicando la Heurística TOC a la Secuenciación de Trabajos en un Flow Shop Híbrido Flexible Resumen Este artículo presenta una aplicación de la heurística para la mezcla de productos de la Teoría de Restricciones, a la planificación de tareas en un Flow Shop híbrido flexible. La heurística general se adapta para el caso de máquinas paralelas no relacionadas y el algoritmo se implementa como una herramienta de programación detallada de trabajos, basada en el principio de la Teoría de Restricciones de subordinar toda la programación al recurso cuello de botella. La adaptación de la metodología a un contexto híbrido flexible, donde hay paralelismo en la etapa cuello de botella y su aplicación en una planta textil contribuye a asignar la capacidad con base en el margen de contribución. El resultado es una programación de trabajos viable enfocada en la utilidad unitaria. Aunque los resultados no alcanzan el óptimo global para este tipo de problemas, sí representan una alternativa de programación de trabajos rápida y eficaz en los contextos estudiados. Palabras clave: Teoría de Restricciones; flow shop; secuenciación de trabajos; heurística.

1. Introduction

Production scheduling is the stage that defines the assigning of specific jobs on a machine or set of machines and the sequence or order in which the pending jobs will be processed. Efficient production programs can lead to substantial improvements in productivity and cost reduction. [1] Each production environment has its own restrictions and particularities that require the application of appropriate techniques to ensure efficient scheduling. The hybrid Flow Shop is a production line process in which at least one of the stages includes parallel machines. In a flexible Hybrid Flow Shop, some products might be

processed without going through one or more of the stages. [2] A classic example of such a process is in the textile industry. The Scheduling in the Hybrid Flow Shop has been approached by dozens of researchers using different techniques. Some of the more recent contributions are those of Qiao and Sun, [3](2011), Yue-Wen et al. [4](2011) and Yalaoui et al. [5](2011) who applied intelligent particles, and Hidri and Haouari [6] (2011) who applied limitation strategies. One of the main features in the flexible hybrid Flow Shop is parallelism in at least one stage of the production process. The most general and most common case in the

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 113-119. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Arango-Marín et al / DYNA 81 (186), pp. 113-119. August, 2014.

Step 1: Identify the system constraints: Calculate the required load on each resource to manufacture all the products. The constraint or bottleneck (BN) is the resource in which demand exceeds capacity. Step 2: Decide how to exploit the system constraints: (a) Calculate the contribution margin (CM) of each product such as the selling price minus costs of raw materials (RM). (b) Calculate the relation between the contribution margin of the products and the processing time at the bottleneck resource (CM/BN). (c) Reserve the capacity of the bottleneck resource, by sorting the products in descending order according to the relation CM/BN. The classical approach of the Theory of Constraints assumes a sequential production line in which there is only one item of each resource type, and the products can have alternative process routes by varying the order on the same resources. Industrial processes classified as "Hybrid Flexible Flow Shop", such as in the case of textile production, count on several similar resources in parallel with similar process routes for all the products regarding the order in which these go through the transformation processes. The issue is to find out how to distribute each job in the different resources with the aim to favor contribution to the business profits. The following steps are proposed to determine the optimal product mix in a Flexible Hybrid Flow Shop according to the Theory of Constraints: Step 1: Identify the system constraints: Data Envelopment Analysis (DEA) is applied to determine the main constraint of the system. DEA is a mathematic technique that allow the construction of an efficient border, or empirical production function from data of a set of studied units, where the units which are into the border are called “efficient units” and the other are called “inefficient units”. DEA allows one to evaluate the relative efficiency of each unit in the study. [27] Figure 1 shows the efficiency of the processes of the textile production plant evaluated by using DEA. The units in the figure are the ratio of efficiency of each process with respect to those belonging to the efficiency frontier (most efficient). Efficiency Looms Preparing yarn

DMU

real world [7][8] is that of unrelated parallel machines These are, machines with different production rates and different job scheduling possibilities. Some recent work on parallel machines scheduling includes: Zhank and Van de Velde [9](2012) who proposed an approximation algorithm, Driessel and Monch [10](2011) and James and AlmadaLobo [11](2011) with Variable neighborhood search, Lin et al. [12](2011) who applied a greedy algorithm, while Chang and Chen [13](2011) and Arango et al. [14](2013) adapted genetic algorithms. It is common to find the use of heuristics. In the most general sense heuristics refer to those smart technical methods or procedures required to perform a task. Heuristics is the result of the knowledge of an expert and does not come from a rigorous formal analysis. The optimal "product-mix" of the Theory of Constraints is obtained using a heuristic known as TOC, which was developed based on the five steps proposed by Goldratt [16] (1984). (Find the constraint, exploit the constraint, subordinate the system to the constraint, elevate the constraint and when the constraint is overcome, find a new one and repeat the process).[16] Several researchers have taken into consideration this algorithm: (Fredendall and Lea [17] 1997; Lee and Plenert [18], 1993), who discussed the capacity of TOC compared to LP or ILP models (Lea and Fredendall [19] 2002; Mabin and Davies [20], 2003; Aryanezhad and Komijan [21], 2004; Souren, Ahn and Schmitz [22](2005). Metaheuristics have also been applied to the problem of the optimal mix under study using the Theory of Constraints: Onwubolu [23](2001) proposed an algorithm based on tabu search; Mishra, Prakash, Tiwari, Shankar, and Chan [24] (2005) presented a hybrid algorithm of tabu search and simulated annealing; and Onwubolu and Mutingi [25] (2001) developed a genetic algorithm. The aim of this paper is to present an adaptation of the optimal product mix of the Theory of Constraints in the case where parallelism takes place in the bottleneck of the process and use it as a scheduling tool in production in this kind of environments. Different from most papers that address problems using this approach, this paper will take into account the capacity constraints and also the constraints in market size and the availability of the supplies. The test data are based on a producer of textiles for industrial use. The model is solved using a heuristic adapted from the original TOC proposal which provides load assignation and a sequencing of jobs on the machines. The results obtained will be compared to those obtained using the optimal mix according to the classical view of integer linear programming. The heuristic is proposed as a viable solution, due to the combinatorial nature of the problem, and the long computational time of exact methods, not appropriated for the habitual use in real production environments.

Warping Drawing in Finishing

2. Methodology

0

Linares (2009) [26] summarizes the first two steps of the TOC heuristic corresponding to the quantitative part:

0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9

1

Figure 1. DEA analysis (Data Envelopment Analysis) Textile Process. Source: Authors ´contribution

114


Arango-Marín et al / DYNA 81 (186), pp. 113-119. August, 2014.

The figure shows that the process of looms, with an indicator of 0.754, is the least efficient of all and the furthest away from the efficiency frontier. Therefore, it is determined that the process of looms is the bottleneck of the system. Step 2: Decide how to exploit the system constraints: Calculate the contribution margin (CM) of each product, the selling price minus costs of raw materials (RM). The throughput (contribution margin), as stated by the procedure, ignores the processing costs which can have, in many cases, a high impact on total cost. The difference in profitability of different products, depending on technical characteristics and the required processes, can also be established. Therefore, it is proposed to calculate the contribution margin as the difference between the sales price and manufacturing costs with the objective to arrive at a model. This model might be considered when making scheduling and production decisions at the operational and strategic levels, and might also be used to obtain results comparable with the determination of the optimal product mix using the traditional methodology of operations research focused on the strategic level.

1000 for the consistency between grams of gmi and kilograms of (SPi – UCi). The the capacity of the bottleneck resource must be reserved sorting the products in descending order according to the relation CM/BN, until capacity is depleted. In this step, a ranking of profitability per unit of time of the different products must be established until the capacity of the bottleneck resource is depleted, in descending order, starting with the product with the highest contribution margin. The problem is compounded when, as happens in textile weaving, there are multiple parallel machines with different capacities, and product differentiation depends on the technical specifications of the loom on which textiles are weaved. It must then be considered that the parallel machines as unrelated. The decision, therefore, is not only related to the distribution of productive capacity among a set of jobs waiting to be processed on a resource. An optimal distribution of work is required, that meets the criterion of maximizing total contribution margin, and the scheduling of resources according to technical features taking into account the limitations of the market and the availability of raw materials. The optimization model is thus formulated: s

In this way:

Maximize

CM i = SPi − UC i

Where: CMi = Contribution margin per kilogram of product i. SPi = Selling price per kilogram of product i. UCi = Manufacturing Unit Cost per kilogram of product i. Calculate the relation between the contribution margins of the products per processing time at the bottleneck resource (CM/BN). The formula below might be used to get the contribution margin per unit of time in the bottleneck resource, taking into account the description of the problem and using some of the considerations presented in [28] regarding the numerical relations to calculate the capacity of a weaving (the Looms process):

(CM / BN )i =

( SPi − UCi ) gmi rpmi eliloi 100000dwi

(3)

l =1 i =1

Subject to:

(1)

n

z = ∑ ∑ (CM / BN ) i y il

Capacity constraints: Assuming a month of thirty working days, 24 hours a day, 60 minutes per hour:

(2)

n

∑y i =1

dwi = Density in wefts/centimeters in product i.

The constant 100000 corresponds to the conversion of units: 100 match centimeters of dwi to the meters of gmi and 115

≤ 60.24.30 l = 1,2,..., s

(4)

Market constraints:

gmi rpmi eliloi

s

∑ 100000dw sr l =1

i

yil ≤ U i

i

(5)

Raw material constraints: n

Where: (CM/BN)i = Contribution margin of product i per unit of time in the bottleneck resource. gmi = Weight in grams per meter of product i rpmi = Average speed in revolutions per minute of the looms on which product i is processed. eli = Efficiency in the loom of product i loi = Loom simultaneous outputs when product i is processed.

il

s

gmi rpmi eliloi

∑∑ 100000dw sr r i =1 l =1

i

i

ik

yil ≤ Rk

(6)

Non-negativity condition:

yil ≥ 0 i = 1,2,..., n l = 1,2,..., s

(7)

Where: z = Total contribution margin (CM/BN)i = Contribution margin of product i per every minute of work in the loom. yil = Minutes for product i on loom l.


Arango-MarĂ­n et al / DYNA 81 (186), pp. 113-119. August, 2014.

i = Product. n = Total amount of products. dwi = Density in wefts/centimeters of product i. sri = Size of roll of product i (kilograms). gmi = Linear weight of product i (grams/meters). eli = Efficiency in looms of product i (ratio of 0 (not efficient) and 1 (fully efficient)). loi = Number of loom outputs used simultaneously on a loom to make product i. rpml = Loom speed l (revolutions per minute). l = Loom. s = Total number of looms. Ui = Maximum demand of product i. (rolls). rik = Demand of raw material k in kilograms per roll of product i. Rk = Available kilograms of raw material k. k = Raw material. q = Total amount of raw material. This model, according to the initial philosophy of TOC heuristics, must be resolved by sorting products from the highest to the lowest contribution margin. The proposed algorithm includes a flexibility indicator of the loom as a criterion for job assignation. The total of minutes required by each process is distributed among the looms to complete the maximum rolls of each product, taking into account technical constraints: Step 1: Sort products from the highest to the lowest value of CM / BN. Step 2: Calculate the flexibility indicator in each loom. This is calculated as the result of dividing the number of groups in which the loom is scheduled by the lower number of looms among all the groups where the loom belongs. For example the flexibility indicator of a loom that belongs to a group of 6 looms and a group of 3, will be 2/3. And the flexibility indicator of another loom that belongs to two groups of 4 and a 5 looms, will be 3/4. Step 3: Sort in ascending order the looms according to the flexibility indicator calculated in step 2. In the above example the first loom is better sorted (indicator = 2/3) than the second loom (indicator = 3/4). This rule favors products that can be manufactured in very few looms and these looms should be scheduled only as needed. Similarly, the looms with the highest flexibility are assigned at the end thereby facilitating the scheduling of more products. Step 4: Assign the first product of the current list to the first of the available looms with capacity to manufacture. The assignment corresponds to the lower value in rolls equal to the available capacity on the loom, the maximum demand of the unscheduled product, and the availability of raw material for this product. Then subtract the assigned value from the available capacity of the loom, from the maximum product demand and from the availability of raw materials.

yil = min(capl , demi , rmk )

Where: yil = Job assignment i to loom l capl = Available capacity in loom l demi = Maximum demand of product i rmk = Raw materials k

(8)

loom, continue to the next loom. When maximum demand is covered, the product should be removed from the list and return to step 4. Continue until the list of products is exhausted. At the end, a detailed product assignation of each of the productive resources must be obtained considering market constraints, raw materials and machine capacities. The algorithm is based on the original TOC heuristics and tries to respect its main premises. A general integer optimization algorithm might be applied based on the model presented in expressions (3) a (7) (such as the hybrid genetic simplex introduced in [28]).

Thus, it is necessary to depart from the standard procedure of the Theory of Constraints to achieve the optimal product mix, following strategies such as those by different authors who have proposed modifications to the model and to the algorithm; among which are worth mentioning: Lee and Plenert (1993) [18], Hsu and Chung (1998) [29], Onwubolu (2001) [23], Onwubolu and Mutingi (2001) [25], Vasant (2004) [29], Mishra, Prakash, Tiwari, Shankar, and Chan (2005) [24], Bhattacharya and Vasant (2007) [30] and Linhares (2009) [26].

As noted at the beginning, works about the optimal product mix under the Theory of Constraints require different working conditions in the textile industry. So, an application of some of the findings made by the authors to the problem under study must be reviewed and adapted to the particularities of the production of textiles. It is also worth noting that the theory of constraints in general and its method of determining the optimal product mix in particular are aimed at the operation of production rather than the strategic direction of the company. Thus, its philosophy, although it has been extended to the entire business context, does not correspond at all with the objective of directing the marketing policy, but to improve productivity in the operation plant. 3. Numerical Example

The following tables summarize an example of the application of the algorithm to a case in the textile industry. Table 1. Product information Product

V

W

X

Y

Z

Looms group

B

A

C

E

D

Fill Yarns / cm.

10.4

24.4

15

15

5.83

Actual Efficiency (%)

40.9

48.3

57.1

57.1

45.7

1

1

2

2

1

Outputs 1st Raw Material (code) x100 kg 1st Raw Material / roll

3

4

4

2

1

0.9

1

3.3

5

5

0.4

0.5

18

25

2nd Raw Material (code) x100 kg 2nd Raw Material / roll Max Sales (rolls)

Step 5: When maximum demand is not covered with one

1 1.2

8

89

Profit / roll

19.8

30.5

11

21.5

20.5

Roll length (mts) Source: Authors’ contribution Table 2 Machines information

200

300

300

700

1,025

116

59


Arango-Marín et al / DYNA 81 (186), pp. 113-119. August, 2014. Looms Group Looms in group Production / month A 1 11.23 B 1, 2, 4, 5, 6 56.16 C 1, 3, 8 34.13 D 3, 10 23.33 E 1, 3, 7, 8, 9 56.59 All 1,2,3,4,5,6,7,8,9,10 113.18 Source: Authors´ contribution

≤ 20,000 0.068161(Y53+Y510) 0.060157(Y31+Y33+Y38)+0,066842(Y41+Y43+Y47+Y48+Y49) ≤ 20,000 0.011400(Y31+Y33+Y38)+0,014249(Y41+Y43+Y47+Y48+Y49) ≤ 20,000

Table 3 Raw Material Information Raw Material 1 2 3 4 5 Source: Authors ´contribution

Following the procedure introduced in this paper, where products are sorted by their contribution margin per unit of time in the bottleneck resource and machines are assigned in order of flexibility index (FI) calculated as explained in the Methodology section, as is shown in Table 4. Shadowed cells are the minor group of looms for each loom. The final solution of the example is presented in Table 5.

Y11,Y12,Y14,,Y15,Y16,Y21,Y31,Y33,Y38,Y41,Y43,Y47,Y48,Y49,Y53,Y510, ≥ 0 and integers

Availability (ton) 20 20 20 20 20

Table 1 summarizes the technical information of the products, including the group of looms (to compare to Table 2), the density of the fabric in wefts per centimeter (important for speed), the actual efficiency of the product in the machines, the simultaneous product outputs on the looms, raw materials (to compare with Table 3), amount of raw material in a roll of fabric, market restrictions in rolls, the profit per unit and the length of the fabric roll in meters. Table 2 describes the group of looms, identifying both the looms included in each group and its total production capacity in millions of wefts Table 3 summarizes the availability of Raw Material. It is an important constraint in industries such as technical textiles where suppliers are in distant countries and immediate availability is required to improve response times. The exact mathematical model would be as follows: Max W = 0.024676(Y11+Y12+Y14+Y15+Y16) + 0.010833(Y21) + 0.006430(Y31+Y33+Y38) + 0.005373(Y41+Y43+Y47+Y48+Y49) + 0.009277(Y53+Y510)

Subject to: Y11+Y21+Y31+Y41 Y12 Y33 +Y43+Y53 Y14 Y15 Y16 Y47 Y38+Y48 Y49 Y510 0.000511(Y11+Y12+Y14+Y15+Y16 ) 0.000172(Y21) 0.000668(Y31+Y33+Y38) 0.000285(Y41+Y43+Y47+Y48+Y49) 0.009277(Y53+Y510) 0.61306(Y11+Y12+Y14+Y15+Y16) 0.17153(Y21)

≤ ≤ ≤ ≤ ≤ ≤ ≤ ≤ ≤ ≤ ≤ ≤ ≤ ≤ ≤ ≤ ≤

43,200 43,200 43,200 43,200 43,200 43,200 43,200 43,200 43,200 43,200 8 89 18 25 59 20,000 20,000

Table 4 Flexibility Index Calculation Groups Loom A B C D 2 1 4 1 5 1 6 1 7 9 10 8 1 3 1 1 1 1 1 Looms 1 5 3 /Group Source: Authors´ contribution

All

E

1

1 1 1

1 1 1 1 1 1 1 1 1 1

2

5

10

1

Table 5. TOC Heuristic solution. Product V W Variable x1 x2 Profit $ / minute 0.025 0.011 min / roll 1,957 5,830 Sales (rolls) 8 89 min/month loom F I Rolls Rolls 43200 7 0.2 43200 9 0.2 43200 2 0.2 8 43200 4 0.2 0 43200 5 0.2 0 43200 6 0.2 0 43200 10 0.5 43200 8 0.7 43200 3 1.5 43200 1 4 0 7 Total 8 7 Total Profit 158.1 213.7 Source: Authors ´contribution

1 1

Groups /Loom Numerator 1 1 1 1 1 1 1 2 3 4

8 18 0 0 16 18 328.5 197.6

1 0 0 25 538

Table 6. Benchmarking Heuristic TOC versus Branch and Bound. 117

0,2 0,2 0,2 0,2 0,2 0,2 0,5 0,7 1,5 4

Denominator

Z X Y x5 x3 x4 0.009 0.006 0.005 4,842 1,496 3,509 59 18 25 Rolls Rolls Rolls 12 12

8

FI

Total

42,107 42,107 15,659 0 0 0 38,732 30,438 38,732 40,810 1,436


Arango-Marín et al / DYNA 81 (186), pp. 113-119. August, 2014. Problem Variables (Products) Constraints Time B&B (secs) Time TOCh (secs) Óptimal TOCh Óptimal B&B TOCh/B&B Source: Authors ´contribution

2 43 100 243 <1 953.6 1,039.4 91.74%

3 44 100 124287 <1 276.1 287.1 96.16%

4 15 41 488 <1 4,218.4 4,406.1 95.74%

4. Results Besides the example presented, different tests were made with heuristics based on the Theory of Constraints for an optimal product mix. The heuristic is used actually by a real textile company to make its aggregated planning. To test the utility of the heuristic in real environments, it three examples with real data were taken. The results are compared against the same cases using integer linear scheduling and solved by the Branch and Bound algorithm. The examples, from a real textile factory, can be downloaded in text format from https://db.tt/4EMzWnmk. The TOC Heuristic was implemented in Visual Fox Pro[32]. For the benchmark with Branch and Bound the LP-ILP 2.0 module from WinQSB [32]was used. Both programs were executed on the same computer. A detailed description of the tested cases can be downloaded from https://db.tt/8xcpBTRd. Table 6 summarizes the results. It can be seen that the TOC heuristics gets results slightly below than the ones obtained with the Branch and Bound method. However, when compared to the detailed results of the Branch and Bound method, it is observed that the same values are achieved in many variables, especially in the first of the sorted list of references in descending order of contribution margin per minute. However, it is disconcerting to see that high values are assigned to some references that are at the bottom of that list. This behavior has been studied in the scientific literature which states that TOC heuristics reaches the absolute optimum only when there is a constraint that falls far apart from other productive resources in performance [24]. Heuristic generates an array of products depending on their profitability per unit of time, which may be useful as prioritization criteria in trade policy and in infrastructure investment. This procedure is implemented in planning, scheduling and production control software in a textile company and it is used as complementary criteria to prioritize deliveries and sales effort. 5. Conclusions

TOC heuristics is a planning tool of low computational cost with a good performance level that can be used for detailed production scheduling in different contexts. TOC heuristic requires adaptations for a Flexible Hybrid Flow Shop, and in particular for the textile industry, especially for the parallelism conditions of the machines in

the bottleneck stage. The flexibility index introduced in this paper is a measure of the machine capacity to process different products that must be used to reserve the most flexible resources for specialized products without sacrificing productivity. It is suggested to calculate the throughput as the difference between the selling price and the cost of processing instead of using Goldratt's formula which takes into account only the cost of raw materials. Although the heuristic of the Theory of Constraints does not get close enough to the global optimum of the optimal product mix problem, it provides an overview of the classification of the products in ascendant order of profits. This overview might be useful in strategic market direction and capacity expansion projects. When considering the details of scheduling in the plant, TOC heuristics are more specific and operational than models of linear programming. In addition, TOC heuristics are easy to implement since they do not involve complex calculations. 6. Acknowledgments The authors wish to acknowledge the Universidad Nacional de Colombia for supporting the development of this research (Call to support graduate thesis-DIMA 2012. Project: “Mejora de tiempos de entrega en un Flow Shop Híbrido Flexible usando técnicas inteligentes. Aplicación en la industria de tejidos técnicos“, código Hermes 15917). This work is part of the doctoral thesis of Jaime Antero Arango Marín. References [1]

Montoya-Torres, J. R.; Soto-Ferrari, M.; Gonzalez-Solano, F. Production Scheduling with Sequence­Dependent Setups and Job Release Times. Dyna, 77 (163), pp. 260­269, 2010.

[2]

Zandieh, M.; Karimi, N. An Adaptive Multi-Population Genetic Algorithm to Solve the Multi-Objective Group Scheduling Problem in Hybrid Flexible Flowshop with Sequence-Dependent Setup Times. J Intell Manuf. 22(6), Pp 979-989, 2010.

[3]

Qiao, P.; Sun, C. Research On Hybrid Flow Shop Scheduling Problem Based On Improved Immune Particle Swarm Optimization. In: 2nd International Conference on Artificial Intelligence, Management Science and Electronic Commerce (Aimsec), Pp 42404243, 2011.

[4]

Yue-Wen, F.; Feng-Xing, Z.; Xiao-Hong, X.; Qing-Zhu, C.; JiaHua, W. Hybrid Flow Shop Scheduling Method Based on Multiagent Particle Swarm Optimization. In: International Conference on Information and Automation, Pp 755-759, 2011.

[5]

Yalaoui, N.; Mahdi, H.; Amodeo, L.; Yalaoui, F. A Particle Swarm Optimization under Fuzzy Logic Controller to Solve a Scheduling Problem. In: International Conference on Communications, Computing and Control Applications (Ccca), 2011, Pp 1-6, 2011.

[6]

Hidri, L.; Haouari, M. Bounding Strategies for the Hybrid Flow Shop Scheduling Problem. Applied Mathematics and Computation, 217, Pp 8248-8263, 2011.

[7]

Gómez Gasquet, P. (2010). Programación de la Producción en un Taller de Flujo Híbrido Sujeto a Incertidumbre: Arquitectura y Algoritmos. Aplicación a La Industria Cerámica. Tesis Doctoral.

118


Arango-Marín et al / DYNA 81 (186), pp. 113-119. August, 2014. Universidad Politécnica de Valencia. Departamento de Organización de Empresas. 988 p., 2010. [8]

[9]

Guinet, A. Textile Production Systems: A Succession of NonIdentical Parallel Processor Shops. The Journal of the Operational Research Society, 42 (8), Pp. 655-671, 1991. Zhang, X.; Van De Velde, S. Approximation Algorithms for the Parallel Flow Shop Problem. European Journal of Operational Research, 216, Pp 544-552, 2012.

[10] Driessel, R.; Mönch, L. Variable Neighborhood Search Approaches for Scheduling Jobs on Parallel Machines with Sequence-Dependent Setup Times, Precedence Constraints, and Ready Times. Computers and Industrial Engineering, 61, Pp 336-345, 2011. [11] James, R. J. W.; Almada-Lobo, B. Single and Parallel Machine Capacitated Lotsizing and Scheduling: New Iterative Mip-Based Neighborhood Search Heuristics. Computers and Operations Research, 28, Pp 1816-1825, 2011. [12] Lin, S-W; Lee, Z-J; Ying, K-C; Lu, C-C. Minimization of Maximum Lateness on Parallel Machines with Sequence-Dependent Setup Times and Job Release Dates. Computers and Operations Research, 38, Pp 809-815, 2011. [13] Chang, P-C; Chen, S-H. Integrating Dominance Properties with Genetic Algorithms for Parallel Machine Scheduling Problems with Setup Times. Applied Soft Computing, 11, Pp 1263-1274, 2011. [14] Arango, J. A; Giraldo, J. A.; Castrillón, O. D. Programación de Máquinas Paralelas no Relacionadas con Tiempos de Montaje Dependientes de la Secuencia y Entrada Dinámica usando Algoritmos Genéticos. Revista Información Tecnológica 24(3), pp. 73-84, 2013. [15] Castrillón, O. D.; Sarache, W.; Giraldo, J. A. Job Shop Methodology Based on an Ant Colony. Dyna, 76(159), pp. 177-184, 2009. [16] Goldratt, E. M. The Goal. North River Press, 1984. [17] Fredendall, L. D.; LEA, B-R. Improving the product mix heuristic in the theory of constraints. International Journal of Production Research, 35(6), 1997. [18] Lee, T. N.; Plenert, G. Optimizing theory of constraints when new product alternatives exist. Production and Inventory Management Journal, 1993. [19] Lea, B-R; Fredendall, L. D. The impact of management accounting, product structure, product mix algorithm, and planning horizon on manufacturing performance. International Journal of Production Economics, 79, 2002 [20] Mabin, V. J.; Davies, J. Framework for understanding the complementary nature of TOC frames: insights from the product mix dilemma. International Journal of Production Research, 2003. [21] Aryanezhad, M. B.; Komijan, A. R. An improved algorithm for optimizing product mix under the theory of constraints. International Journal of Production Research, 42(20), 2004. [22] Souren, R.; Ahn, H.; Schmitz, C. Optimal product mix decisions based on the Theory of Constraints? Exposing rarely emphasized premises of Throughput Accounting. International Journal of Production Research, 43(2), 2005.

[24] Mishra, N.; Prakash; Tiwari, M. K.; Shankar, R.; Chan F. T. S. Hybrid tabu-simulated annealing based approach to solve multiconstraint product mix decision problem. Expert Systems with Applications 29, 2005. [25] Onwubolu, G. C.; Mutingi, M. Optimizing the multiple constrained resources product mix problem using genetic algorithms. Production Planning and Control. 12(1), 2001. [26] Linhares, A. Theory of constraints and the combinatorial complexity of the product-mix decision. International Journal of Production Economics, 2009. [27] Coll, V.; Blasco, O. M. Evaluación de la eficiencia mediante el análisis envolvente de datos. Juan Carlos Martínez Coll, 2006. [28] Arango M., J. A. Determinación de la Mezcla Óptima de Productos para una Tejeduría Textil. Revista Scientia Et Technica, 15(42), 2009. [29] Hsu, T.-C.; Chung, S.-H. The TOC-based algorithm for solving product mix problems. En: Production Planning and Control, 9(1), 1998. [30] Vasant, P. Optimization in Product Mix Problem Using Fuzzy Linear Programming, 2004. On line. Date of consult: May, 2013. Available on: http://www.generation5.org/content/2004/data/productMix.pdf [31] Bhattacharya, A; Vasant, P. Soft-sensing of level of satisfaction in TOC product-mix decision heuristic using robust fuzzy-LP. European Journal of Operational Research, 177, 2007. [32] Microsoft. Visual FoxPro 9.0. Microsoft Corporation, 2004 [33] Chang, Y-L. Winqsb: decision support software for MS/OM. John Wiley & Sons Inc, 1998. J. A. Arango-Marín, is an Industrial Engineer from the Universidad Tecnológica de Pereira (1986) and Magister in Operational Research and Statistics also from Universidad Tecnológica de Pereira. Currently he is a PhD candidate in Engineering at the Universidad Nacional de Colombia. From 1987 to 2007, he worked in several companies in the industrial, services, educational and government fields. Since 2008 he is an Associated Professor in the Industrial Engineering Department at the Engineering and Architecture Faculty in the Universidad Nacional de Colombia in Manizales. His research interests include Scheduling, Metaheuristics, Inventory Models, Logistics and Production Management. J. A Giraldo García, is an Industrial Engineer from the Universidad Nacional de Colombia and has a PhD in Engineering at the Universidad Nacional de Colombia. Since 1983, he works as a Professor at the Industrial Engineering Department of the Engineering and Architecture Faculty in the Universidad Nacional de Colombia at Manizales. His research interests include Scheduling, Metaheuristics, Simulation and Software Development O. D. Castrillón-Gómez, Is a Systems Engineer with specializations in Management and Quality and a PhD in Bioengineering. Since 2005, he works as a professor at Industrial Engineering Department of the Engineering and Architecture Faculty in the Universidad Nacional de Colombia at Manizales. His research interests include Scheduling, Metaheuristics, Simulation and Mathematical Modeling.

[23] Onwubolu, G. C. Tabu search-based algorithm for the TOC product mix decision. International Journal of Production Research, 39(10), 2001.

119


Apparent molar volume and modeling of volumetric properties of ionic liquid aqueous solutions 1-butyl-3-metilmidazolium chloride [Bmim+][Cl-] at various temperatures Manuel PĂĄez-Mezaa, Omar PĂŠrez-Sierrab & Yeris Cuello-Delgadoc a Facultad de Ciencias, Universidad de CĂłrdoba, Colombia. mspaezm@gmail.com Facultad de IngenierĂ­a, Universidad de CĂłrdoba, Colombia. omiel25@hotmail.com c Facultad de Ciencias, Universidad de CĂłrdoba, Colombia. yeriscuello@gmail.com

b

Received: August 20th, de 2013. Received in revised form: May 5th, 2014. Accepted: May 26th, 2014

Abstract Densities of the aqueous solutions of ionic liquid 1-butyl-3 metilmidazolium chloride [Bmim+][Cl-] were determined using a vibrating tube densitometer Anton Paar DMA 5000 at a temperature range between (283.15 - 218.15) K. The apparent molar volumes đ?‘‰đ?‘‰đ?œ™đ?œ™ of aqueous chloride1-butyl-3-methylimidazolium were calculated and adjusted to the Pitzer ion interaction model, obtaining the limiting apparent molar (0)đ?‘‰đ?‘‰ (1)đ?‘‰đ?‘‰ đ?‘‰đ?‘‰ volumes đ?‘‰đ?‘‰đ?œ™đ?œ™ and Pitzer volumetric parameters đ?›˝đ?›˝đ?‘€đ?‘€đ?‘€đ?‘€ , đ?›˝đ?›˝đ?‘€đ?‘€đ?‘€đ?‘€ , đ??śđ??śđ?‘€đ?‘€đ?‘€đ?‘€ at temperatures of 283.15, 288.15, 293.15, 298.15, 303.15, 313.15 and 318.15K, proving that this model adequately represents the experimental volumetric data below an ionic strength of 0.6018 mol / kg. Finally the limiting apparent molar expansibilities đ?œ™đ?œ™đ??¸đ??¸0 were calculated from the limiting apparent molar volumes at various temperatures and the results are discussed in terms of the interactions occurring in solution. Keywords: apparent molar volume, Pitzer parameters, density, limiting expansibilities, ionic liquid.

Volumen molar aparente y modelamiento de propiedades volumĂŠtricas de soluciones acuosas del lĂ­quido iĂłnico cloruro de 1butil-3-metilmidazolio [Bmim+][Cl-] a varias temperaturas Resumen Se determinaron las densidades de las soluciones acuosas del lĂ­quido iĂłnico Cloruro 1-butil-3 metilmidazolio [Bmim+][Cl-] utilizando un densĂ­metro de tubo vibrador Anton Paar DMA 5000 entre 283,15 y 218,15 K. Se calcularon y ajustaron los volĂşmenes molares aparentes đ?‘‰đ?‘‰đ?œ™đ?œ™ del cloruro de 1-butil-3-metilimidazolio acuoso al modelo de interacciĂłn iĂłnica de Pitzer y se obtuvieron los volĂşmenes molares aparentes (0)đ?‘‰đ?‘‰ (1)đ?‘‰đ?‘‰ đ?‘‰đ?‘‰ lĂ­mites đ?‘‰đ?‘‰đ?œ™đ?œ™0 y los parĂĄmetros volumĂŠtricos de Pitzer đ?›˝đ?›˝đ?‘€đ?‘€đ?‘€đ?‘€ , đ?›˝đ?›˝đ?‘€đ?‘€đ?‘€đ?‘€ , đ??śđ??śđ?‘€đ?‘€đ?‘€đ?‘€ a las temperaturas de (283.15, 288.15, 293.15, 298.15, 303.15, 313.15 y 318.15)K; comprobĂĄndose que este modelo representa adecuadamente los datos volumĂŠtricos experimentales por debajo de una fuerza iĂłnica de 0,6018 mol/kg. Finalmente a partir del volumen molar aparente lĂ­mite determinado a varias temperaturas, se calcularon las expansibilidades molares aparentes lĂ­mites đ?œ™đ?œ™đ??¸đ??¸0 y los resultados se discutieron en tĂŠrminos de las interacciones que ocurren en soluciĂłn. Palabras clave: Volumen molar aparente, parĂĄmetros de Pitzer, densidad, expansibilidades lĂ­mites, liquido iĂłnico.

1. Introduction Although the scientific literature and patents reserve the term “Ionic Liquidâ€? to designate the compounds that are exclusively composed of ions that are liquid at moderate temperatures (e.g. lower than 100°C) [1], some of them, as is

the case of 1-butyl-3-metilimidazolium chloride [Bmim+] [Cl-], are solid at room temperature. It is well known that the liquid mixtures of different compounds form solutions that do not usually behave ideally. The interpretation of no ideality is a very interesting topic, therefore, nowadays a large number of contributions have been

Š The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 120-125. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


PĂĄez-Mezaa et al / DYNA 81 (186), pp. 120-125. August, 2014.

made, especially related to the modeling of volumetric properties. However, there is a compelling reason for studying mixed ionic liquids, this is due to the fact that these individual compounds tend not to show, at the same time, a greater selectivity and extraction capacity compared to that of conventional organic solvents [2-7] in several processes such as: The recovery of solvents (acetone, ethanol, and butanol) from fermentation broth [2-4], the extraction of antibiotics [2-5], and the elimination of organic pollutants from aqueous waste streams [5]. It has been established that the volumetric behavior of solutions of electrolytes and non-electrolytes may provide useful information about the solute-solvent and solute–solute interactions. In this sense and because ionic liquids can be considered ionic compounds; since they exhibit a similar behavior to the inorganic salts in aqueous solutions, they dissociate partially or completely in water, and are exclusively formed by hydrophobic or hydrophilic ions depending on the structure of the cation and/or anion; their mixtures with other substances are attractive systems for such analysis. That is why expansibilities of solute, partial molar volumes and apparent molar volumes have shown to be very useful tools in the interpretation of molecular interactions occurring in solution [8]. On the other hand, it is well known that due to their structure and ionic interactions, ionic liquids and their mixtures exhibit unique properties. Strong ion-ion interactions present in ionic liquids lead to highly organized three-dimensional supramolecular polymer networks of cations and anions joined by hydrogen bonds and/or Coulomb interactions; where the force of ion-ion interaction depends on the structure of ionic liquid and can greatly affect the ability of the individual components (anions or cations) to interact with dissolved species [9]. However, despite its interest and importance, the information about the physico-chemical properties of mixtures of ionic liquids with molecular solvents is very limited, even though this information is extremely important for different technological processes, such as the design of solvents and other processes previously mentioned in the preceding paragraphs [10]. The present work is oriented towards obtaining a set of precise measurements of density and apparent molar volumes of [Bmim +] [Cl-] in an aqueous environment, the allowable range of solubility and the range of temperature (283.15-318.15) K every 5 degrees. At the same time we seek to predict and correlate these volumes with the model of the Pitzer ion interaction.

estimate for the molalities was Âą 0.0002. Experimental densities in the diluted region of aqueous solutions of [Bmim+][Cl-] were measured using a vibrating tube digital densimeter Anton Paar DMA 5000, in the range of temperature (283.15-318.15) K and at an atmospheric pressure of 0.10 MPa. The cell of the DMA was calibrated with dry air and ultra-pure water at atmospheric pressure. The samples were thermostated and controlled at Âą 0.001 K. The uncertainty values of certain densities were Âą 0.2 x 10-5 g/cm3. Since the [Bmim+][Cl-] is a solid at the conditions of temperature and pressure in which the data were taken, it was impossible to obtain densities and viscosity information about this pure IL. Therefore densities of the binary mixtures [Bmim+][Cl-] + H2O at 308.15 K were compared to the density data previously reported in literature [13], which showed to be similar, as shown in Fig. 1. 3. Results and discussion The experimental values of densities, Ď (.cm-3 g), measured at different temperatures and molalities, (mol â‹… kg-1), are shown in Table 1. The values obtained for the đ?‘‰đ?‘‰đ?œ™đ?œ™ apparent molar volumes and molal concentrations ( m ) [Bmim+] [Cl-] ranging from 283.15 to 318.15 K are shown in Table 2. The apparent molar volume đ?‘‰đ?‘‰đ?œ™đ?œ™ (cm3. mol-1) of a solute with molar mass, M2 (gâ‹…mol-1), is given by đ?‘‰đ?‘‰Ď† =

đ?‘€đ?‘€2 đ?œŒđ?œŒ

+

1000(đ?œŒđ?œŒ0 −đ?œŒđ?œŒ)

(1)

đ?œŒđ?œŒ0 đ?œŒđ?œŒđ?‘šđ?‘š2

Where Ď 0 is the density of pure water and m is the molality of [Bmim+][Cl-] in (molâ‹…kg-1) The apparent molar volume of [ Bmim +][Cl-] in an aqueous solution, can be expressed by the Pitzer ion interaction model, which is an extension of the theory limit of Debye-HĂźckel which applies to very low concentrations; according to this model, ions of the same charge tend to stay away from each other and therefore short range forces would have very few consequences. Contrary to ions of opposite charge, which approach as close as possible, being affected by short range forces. This model is described by the following equations. [14-17] đ?‘‰đ?‘‰Ď† = đ?‘‰đ?‘‰ďż˝đ??ľđ??ľ0 + ν|đ?‘§đ?‘§đ?‘€đ?‘€ đ?‘§đ?‘§đ?‘‹đ?‘‹ | ďż˝

đ??´đ??´đ?‘‰đ?‘‰ ďż˝ đ?‘™đ?‘™đ?‘™đ?‘™ďż˝1 + đ?‘?đ?‘?√đ??źđ??źďż˝ + 2đ?‘?đ?‘?

! ! ] (2νđ?‘‹đ?‘‹ νđ?‘€đ?‘€ đ?‘…đ?‘…đ?‘…đ?‘…)[đ??ľđ??ľđ?‘€đ?‘€đ?‘€đ?‘€ + (νđ?‘€đ?‘€ đ?‘§đ?‘§đ?‘€đ?‘€ )đ?‘šđ?‘š2 đ??śđ??śđ?‘€đ?‘€đ?‘€đ?‘€

(2)

1.08000

2. Experimental part Reagents used were: 1-butyl-3-methylimidazolium chloride (fraction of mass>0.99), purchased from the trading house Across Organic (99% purity) and doubly distilled and deionized water (conductivity less than 2ÂľS) in accordance with the recommendations of the literature [11, 12]. The solutions were prepared gravimetrically using a balance (OHAUS Explorer model) with a sensitivity of Âą1x104 g, in tightly closed bottles to prevent loss by evaporation of some of the components. The experimental uncertainty

Ď / g.cm-3

1.06000 1.04000 1.02000 1.00000

This work Literature [13]

0.98000 0.00

10.00

20.00

30.00

40.00

m / mol.kg-1

Figure 1. Comparison of experimental densities [Bmim+][Cl-] + H2O in (g cm−3) with densities reported in literature [13] to 308.15 K Fuente: Los autores

121


PĂĄez-Mezaa et al / DYNA 81 (186), pp. 120-125. August, 2014.

Table 1. Values of the experimental densities in Ď (g. cm−3) solutions [Bmim+][Cl-] + H2O from 283.15 to 318.15 K T/K 283.15 288.15 293.15 298.15 303.15 Ď /g ¡cm-3 mLI 0.0099 0.0198 0.0305 0.0500 0.0795 0.1006 0.2005 0.3002 0.4065 0.5053 0.6018

0.99991 1.00005 1.00020 1.00047 1.00089 1.00119 1.00260 1.00403 1.00555 1.00695 1.00831

0.99931 0.99942 0.99955 0.99979 1.00015 1.00042 1.00174 1.00314 1.00463 1.00602 1.00738

0.99840 0.99851 0.99863 0.99885 0.99919 0.99944 1.00070 1.00204 1.00350 1.00488 1.00623

0.99723 0.99733 0.99744 0.99765 0.99798 0.99822 0.99944 1.00078 1.00218 1.00350 1.00482

0.99581 0.99590 0.99601 0.99621 0.99652 0.99675 0.99792 0.99920 1.00059 1.00187 1.00312

308.15

313.15

318.15

0.99401 0.99410 0.99420 0.99439 0.99469 0.99491 0.99606 0.99733 0.99867 0.99988 1.00106

0.99240 0.99249 0.99259 0.99278 0.99306 0.99328 0.99437 0.99557 0.99678 0.99789 0.99897

0.99030 0.99039 0.99048 0.99066 0.99094 0.99114 0.99221 0.99339 0.99462 0.99575 0.99683

313.15

318.15

167.70 167.37 167.00 166.51 165.85 165.60 164.86 164.45 164.11 163.88 163.68

167.92 167.75 167.56 167.27 166.91 166.69 165.74 165.09 164.62 164.32 164.10

Fuente: Los autores

Table2. Values of the apparent molar volumes Vφ/ cm3.mol−1 solutions [Bmim+][Cl-] + H2O between 283.15 to 318.15 K T/K 283.15 288.15 293.15 298.15 303.15 308.15 m /mol.kg-1 Vf /cm3.mol-1 0.0099 0.0198 0.0305 0.0500 0.0795 0.1006 0.2005 0.3002 0.4065 0.5053 0.6018

160.63 160.67 160.62 160.55 160.46 160.38 160.13 159.82 159.57 159.36 159.15

163.11 163.00 162.92 162.77 162.53 162.35 161.43 160.99 160.53 160.17 159.88

164.03 163.97 163.87 163.68 163.46 163.32 162.50 161.84 161.26 160.81 160.46

165.00 164.88 164.75 164.56 164.28 164.10 162.93 162.43 161.86 161.45 161.09

165.85 165.71 165.60 165.35 165.01 164.79 163.70 163.11 162.52 162.12 161.79

166.42 166.35 166.25 166.03 165.72 165.50 164.42 163.68 163.13 162.82 162.55

Fuente: Los autores

! đ??ľđ??ľđ?‘€đ?‘€đ?‘€đ?‘€ =ďż˝

đ?œ•đ?œ•đ??ľđ??ľđ??¸đ??¸đ??¸đ??¸

(0)�� ������

=ďż˝

(1)�� ������

=ďż˝

đ?œ•đ?œ•đ?œ•đ?œ•

ďż˝

(0)��

= ������ +

đ?‘‡đ?‘‡,đ??źđ??ź

(0)��

đ?œ•đ?œ•đ?›˝đ?›˝đ?‘€đ?‘€đ?‘€đ?‘€ đ?œ•đ?œ•đ?œ•đ?œ•

(1)��

đ?œ•đ?œ•đ?›˝đ?›˝đ?‘€đ?‘€đ?‘€đ?‘€ đ?œ•đ?œ•đ?œ•đ?œ•

ďż˝

đ?‘‡đ?‘‡,đ??źđ??ź

ďż˝

đ?‘‡đ?‘‡,đ??źđ??ź

(1)��

2đ?›˝đ?›˝đ?‘€đ?‘€đ?‘€đ?‘€ đ?›źđ?›ź2 đ??źđ??ź

φ ��

đ??śđ??śđ?‘€đ?‘€đ?‘€đ?‘€ = ďż˝

φ ��

đ?œ•đ?œ•đ??śđ??śđ?‘€đ?‘€đ?‘€đ?‘€ đ?œ•đ?œ•đ?œ•đ?œ•

ďż˝

(1)��

(3)

đ?‘Œđ?‘Œ =

(5)

đ?œ•đ?œ•đ?œ•đ?œ•đ?œ•đ?œ•đ?‘‰đ?‘‰Ď†0 đ?œ•đ?œ•đ?œ•đ?œ•đ?œ•đ?œ•đ?œ•đ?œ• đ??´đ??´đ?‘‰đ?‘‰ = 2đ??´đ??´Ď† đ?‘…đ?‘…đ?‘…đ?‘… ďż˝3 +ďż˝ ďż˝ ďż˝ đ?œ•đ?œ•đ?œ•đ?œ• đ?œ•đ?œ•đ?œ•đ?œ• đ?‘‡đ?‘‡

(0)��

(9)

2đ?‘…đ?‘…đ?‘…đ?‘…

đ??´đ??´

ďż˝đ?‘‰đ?‘‰Ď†,đ?‘€đ?‘€đ?‘€đ?‘€ + ďż˝ đ?‘‰đ?‘‰ ďż˝ đ?‘™đ?‘™đ?‘™đ?‘™ďż˝1 + 1.2√đ??źđ??źďż˝ďż˝ = (1)đ?‘‰đ?‘‰

đ?‘šđ?‘šđ?›˝đ?›˝đ?‘€đ?‘€đ?‘€đ?‘€ 2đ??źđ??ź

1.2

0 ����� ��

2đ?‘…đ?‘…đ?‘…đ?‘…

+

đ?‘‰đ?‘‰ ďż˝1 − ďż˝1 + 2√đ??źđ??źďż˝đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’ďż˝âˆ’2√đ??źđ??źďż˝ďż˝ + đ?‘šđ?‘š2 đ??śđ??śđ?‘€đ?‘€đ?‘€đ?‘€

(10)

Or by the following way

(7)

��

1

�������� +

(6)

đ?‘‡đ?‘‡,đ??źđ??ź

1

2đ??źđ??ź

Rearranging the equation above, we obtain the right work equation for the system under study.

(4)

φ ��

(0)��

1.2

đ?‘‰đ?‘‰ đ?›˝đ?›˝đ?‘€đ?‘€đ?‘€đ?‘€ ďż˝ ďż˝ ďż˝1 − ďż˝1 + 2√đ??źđ??źďż˝đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’ďż˝âˆ’2√đ??źđ??źďż˝ďż˝ + đ?‘šđ?‘šđ??śđ??śđ?‘€đ?‘€đ?‘€đ?‘€ ďż˝

ďż˝1 − ďż˝1 + đ?›źđ?›źâˆšđ??źđ??źďż˝ďż˝

đ?‘‰đ?‘‰ đ??śđ??śđ?‘€đ?‘€đ?‘€đ?‘€ = (đ?‘§đ?‘§đ?‘€đ?‘€ đ?‘§đ?‘§đ?‘‹đ?‘‹ )−1/2 đ??śđ??śđ?‘€đ?‘€đ?‘€đ?‘€

đ??´đ??´

0 đ?‘‰đ?‘‰Ď†,đ?‘€đ?‘€đ?‘€đ?‘€ = đ?‘‰đ?‘‰ďż˝đ?‘€đ?‘€đ?‘€đ?‘€ + ďż˝ đ?‘‰đ?‘‰ ďż˝ đ?‘™đ?‘™đ?‘™đ?‘™ďż˝1 + 1.2√đ??źđ??źďż˝ + 2đ?‘…đ?‘…đ?‘…đ?‘…đ?‘…đ?‘… ďż˝đ?›˝đ?›˝đ?‘€đ?‘€đ?‘€đ?‘€ +

Where the Ionic interaction parameters, are given by

đ?‘Œđ?‘Œ =

(8)

(0)��

The numerical values recommended for coefficients b and Îą are as follows: b=1.2 kg½ mol-1/2 for electrolytes of all types of charge; Îą1=2.0 kg½ mol-1/2 type 1:1 1:2 and 2:1 electrolytes; Îą1=1.4 kg½ mol-1/2 y Îą2=12 kg½ mol-1/2 (2)đ?‘‰đ?‘‰ for type 2:2 electrolytes; the coefficient đ?›˝đ?›˝đ?‘€đ?‘€đ?‘€đ?‘€ is assumed to be equal to zero for electrolytes of all charges, except type 2:2 electrolytes. The coefficients Îą1, Îą2 y b, are accepted as independent of temperature, which leads to equation 2 to be expressed in the following way for the [Bmim+][Cl-].

1

2đ?‘…đ?‘…đ?‘…đ?‘…

đ??´đ??´

ďż˝đ?‘‰đ?‘‰Ď†,đ?‘€đ?‘€đ?‘€đ?‘€ + ďż˝ đ?‘‰đ?‘‰ ďż˝ đ?‘™đ?‘™đ?‘™đ?‘™ďż˝1 + 1.2√đ??źđ??źďż˝ďż˝ = đ?‘Žđ?‘Ž0 + (1)đ?‘‰đ?‘‰

1.2

đ?‘‰đ?‘‰ đ?‘šđ?‘šđ?›˝đ?›˝đ?‘€đ?‘€đ?‘€đ?‘€ + đ?‘šđ?‘šđ?‘Śđ?‘Ś ! đ?›˝đ?›˝đ?‘€đ?‘€đ?‘€đ?‘€ + đ?‘šđ?‘š2 đ??śđ??śđ?‘€đ?‘€đ?‘€đ?‘€

(11)

Where Y is the function to correlate from experimental data, and it is given by: đ?‘Śđ?‘Ś ! = ďż˝1 − ďż˝1 + 2√đ??źđ??źďż˝đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’ďż˝âˆ’2√đ??źđ??źďż˝ďż˝/2đ??źđ??ź (12)

122

and đ?‘Žđ?‘Ž0 by đ?‘Žđ?‘Ž0 =

0 ����� ��

2đ?‘…đ?‘…đ?‘…đ?‘…

(13)


PĂĄez-Mezaa et al / DYNA 81 (186), pp. 120-125. August, 2014.

Table 3. Pitzer ion interaction parameters values a0, βMX(0)V, βMX(1)V, CMXV , and standard deviation, which are obtained by the equation 11 fixing from 283.15 to 318.15 K

a0 bar.cm3.mol-1 3.41E-03 3.40E-03 3.36E-03 3.33E-03 3.29E-03 3.25E-03 3.21E-03 3.17E-03

T/K 283.15 288.15 293.15 298.15 303.15 308.15 313.15 318.15

βMX(0)V

βMX(1)V

kg.bar-1.mol-1 -3.81E-05 -1.32E-04 -1.26E-04 -1.42E-04 -1.92E-04 -1.46E-04 -1.69E-04 -1.50E-04

kg2.bar-1.mol-1 -1.48E-04 -2.33E-04 -2.28E-04 -2.81E-04 -2.14E-04 -2.67E-04 -3.54E-04 -3.05E-04

CMXV bar-1 3.04E-06 1.12E-04 7.77E-05 1.22E-04 1.64E-04 1.20E-04 2.43E-04 1.66E-04

Ďƒ 3.76E-07 4.89E-07 1.58E-07 6.16E-07 5.37E-07 5.32E-07 2.35E-06 6.45E-07

Fuente: Los autores

Table 4. Apparent residual molar volumes ∆Vφ at various temperatures.

T/K m /mol.kg-1 0.0099 0.0198 0.0305 0.0500 0.0795 0.1006 0.2005 0.3002 0.4065 0.5053 0.6018

283.15

288.15

293.15

0.05 0.08 0.03 -0.01 -0.03 -0.06 -0.02 -0.06 -0.03 0.01 0.02

0.04 -0.01 0.00 0.00 0.01 0.02 -0.14 0.03 0.08 0.05 -0.05

0.03 0.01 0.00 -0.04 -0.01 0.03 -0.01 -0.01 0.01 0.01 0.00

298.15 303.15 ∆Vφ /cm3.mol-1 0.05 0.08 0.00 0.02 -0.02 0.02 -0.01 -0.01 0.02 -0.04 0.06 -0.02 -0.19 -0.14 0.04 0.05 0.07 0.08 0.06 0.05 -0.06 -0.07

308.15

313.15

318.15

0.04 0.04 0.04 0.02 0.02 0.02 -0.14 -0.12 -0.04 0.06 0.06

0.48 0.26 0.03 -0.19 -0.44 -0.43 -0.09 0.22 0.30 0.15 -0.26

0.15 0.07 -0.01 -0.08 -0.10 -0.08 -0.05 0.04 0.10 0.07 -0.08

Fuente: Los autores

According to this model, it is clear that the molar volume apparent pressure and constant temperature of each Ionic liquid in diluted solutions will depend only on the properties of the solvent and of the total concentration or the ionic strength of the solution. Parameters, carry out a similar role to the first, second and third virial coefficients, that is why they characterize the forces of interaction of short range between the anion and cation of the ionic liquid. Both parameters of the molar volume of apparent limit shown in Table 3, were obtained by minimization of the function. đ?œŽđ?œŽ = ďż˝âˆ‘đ?‘šđ?‘š đ?‘–đ?‘–

ďż˝đ?‘Œđ?‘Œđ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’,đ?‘–đ?‘– −đ?‘Œđ?‘Œđ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?,đ?‘–đ?‘– ďż˝ đ?‘›đ?‘›âˆ’đ?‘?đ?‘?

1/2

ďż˝

(14)

The partial molar expansibilities limits are obtained by differentiation of the above equation with respect to temperature đ?œ•đ?œ•đ?‘‰đ?‘‰ 0

φ0đ??¸đ??¸ = ďż˝ đ?œ•đ?œ•đ?œ•đ?œ•Ď† ďż˝ = đ?‘?đ?‘?đ?‘?đ?‘? + 2đ?‘?đ?‘?đ?‘?đ?‘? đ?‘?đ?‘?

(16)

In Table 5, the values of limiting apparent molar volumes đ?‘‰đ?‘‰Ď†0 obtained by the methods of Redlich Meyer and Pitzer were reported: Where the first ones were obtained by correlating the defined term using the relation đ?‘‰đ?‘‰Ď† − đ?‘†đ?‘†đ?‘‰đ?‘‰ √đ?‘šđ?‘š2 in function of m2, which is in accordance with the equation of Redlich Mayer.

Where n is the number of experimental points and p is the number of adjustable parameters. The correlated and predicted results from experimental data measured in this study are presented as the residual, ∆Vφ = Vφexp-Vφcal in Table 4. An example of the behavior is illustrated in Fig. 2, the correlated and predicted results at temperature of 288.15 K. As previously observed, both results agree presenting a good precision. đ?‘‰đ?‘‰Ď†0 = đ?‘Žđ?‘Ž + đ?‘?đ?‘?đ?‘?đ?‘? + đ?‘?đ?‘?đ?‘‡đ?‘‡ 2

(15)

Where T is the temperature in Kelvin degrees, and where a, b, and c are empirical constants dependent on the solute and solvent.

Figure 2. Apparent molar volumes of [Bmim+][Cl-] experimental and calculated using the Pitzer ion interaction model, at 288.15 K. Fuente: Los autores

123


PĂĄez-Mezaa et al / DYNA 81 (186), pp. 120-125. August, 2014.

Table 5. The molar volumes apparent limits and molar expansibilities apparent limit values φ0đ??¸đ??¸ at various temperatures

T/K

283.15 288.15 293.15 298.15 303.15 308.15 313.15 318.15

��φ0 / cm3.mol-1 Redlich Mayer 160.44 162.88 163.91 164.89 165.71 166.33 167.70 167.81

Pitzer 160.43 162.99 163.92 164.89 165.69 166.30 167.18 167.68

φ0đ??¸đ??¸ /cm3.mol-1.K-1 0.3021 0.2621 0.2221 0.1821 0.1421 0.1021 0.0621 0.0221

Fuente: Los autores

đ?‘‰đ?‘‰Ď† − đ?‘†đ?‘†đ?‘‰đ?‘‰ √đ?‘šđ?‘š2 = đ?‘‰đ?‘‰Ď†0 − đ?‘?đ?‘?đ?‘‰đ?‘‰ đ?‘šđ?‘š2

(17)

Here bV is an empirical parameter characteristic of ionic liquid and m2 is the molality of the ionic liquid and SV is the theoretical slope limit of Debye HĂźckel, which depending on the temperature t (°C) is given by the expression [18]. đ?‘†đ?‘†đ?‘‰đ?‘‰ = 1.4447 + 1.6799 Ă— 10−2 đ?‘Ąđ?‘Ą − 8.4055 Ă— 10−6 đ?‘Ąđ?‘Ą 2 + 5.5153 Ă— 10−7 đ?‘Ąđ?‘Ą 3 (18)

The reason for using the equation of Redlich-Mayer is essentially the same one that the Pitzer ion interaction model used, i.e., it is applied to analyze volumetric data of diluted electrolyte solutions. While the second ones are obtained as a result of the correlation of the Pitzer ion interaction model, which are implicitly contained in the setting parameter ao, previously determined by this model. The analysis of the results displayed in Table 5 shows that both results are very similar; the reason for this is possibly due to the fact that the SV term of the Redlich Mayer equation depends on a variable of the Debye HĂźckel limiting law, which is characteristic of aqueous solvents and is also contained in the Pitzer ion interaction model, this makes both methods to converge at the same limit. It can be verified that the values of the apparent ionic liquid φ0đ??¸đ??¸ limiting expansibility coefficient [[Bmim+][Cl-] according to Table 5, decrease linearly with the increase of temperature with a slope equal to, đ?œ•đ?œ•Ď†0 đ??¸đ??¸ đ?œ•đ?œ•đ?‘‡đ?‘‡

= −0.008

DMA 5000 at temperatures of K (283.15, 288.15, 293.15, 298.15, 303.15, 313.15, and 318.15). The experimental data were correlated and predicted through the use of the Pitzer ion interaction model. A good correlation can be observed between the predicted values and those measured experimentally in working conditions. Small standard deviations, Ďƒ, show that the Pitzer ion interaction model is appropriate for the representation of the volumetric properties of aqueous solutions of ionic liquids. Acknowledgments The authors thank the Universidad de CĂłrdoba for the support provided for the realization of this work. References

(19)

The fact that φ0đ??¸đ??¸ linearly decreases with a temperature increase means that the second derivative of đ?‘‰đ?‘‰Ď†0 with respect to temperature is also negative. In concordance with Hepler [18], it is evident that the studied ionic liquid behaves as a substance capable of disrupting the three-dimensional structure of water in the studied temperature range.

[1]

Romero, A. S., Ionic Liquids at environmental temperature: A new solution for chemical reactions. (Esp) Rev.r.acad.cienc.exact.fis.nat., 102, pp. 79-90, 2008.

[2]

Smirnova, V. S., Torocheshnikova, I. I., Formanovsky, A. A. and Pletnev, I., Solvent extraction of amino acids into a room temperature ionic liquid with dicyclohexano-18-crown-6. V, Anal. Bioanal. Chem., 378, pp. 1369-1375, 2004.

[3]

Huddleston, J. G., Willauer, H. D., Swatloski, R. P., Visser, A. E. and Rogers, R. D., Room Temperature Ionic Liquids as Novel Media for 'Clean' Liquid-Liquid Extraction. Chem. Commun., 16, pp. 17651766, 1998.

[4]

Fadeev, A. G. and Meagher, M. M., Opportunities for ionic liquids in recovery of biofuels. Chem. Commun., pp. 295-296, 2001.

[5]

McFarlane, J., Ridenour, W. B; Luo, H., Hunt, R. D., DePaoli, D. W. and Ren, R. X., Room temperature ionic liquids for separating organics from produd water. Sep. Sci. Technol., 40, pp. 1245-1265, 2005.

[6]

Soto, A., Arce, A. and Khoskbarchi, M. K., Partitioning of antibiotics in a two-liquid phase system formed by water and a room temperature ionic liquid. Sep. Purif. Technol., 44, pp. 242-246, 2005.

[7]

Ventura, S. P. M., Neves, C. M. S. S., Freire, M. G., Marrucho, I. M., Oliveira, J. and Coutinho, J. A. P., Evaluation of Anion influence on the formation and extraction capacity of Ionic-LiquidBased Aqueous biphasic systems. J. Phys. Chem B., 113, pp. 93049310, 2009.

[8]

Cveto, K., Jaka, H., and Darja, Rudan-T., Apparent Molar volume and Apparent molar expansibility of sodium saccharin, potassium

4. Conclusions Densities of the binary system [Bmim+][Cl-] + H2O were determined using a vibrating tube densitometer Anton Paar 124


Páez-Mezaa et al / DYNA 81 (186), pp. 120-125. August, 2014. Acesulfame and aspartame, Acta Chim. Slov., 53, pp. 274–283, 2006. [9]

Chiappe, C., Malvaldi, M., and Pomelli, C. S., Ionic liquids: Solvation ability and polarity. Pure Appl. Chem., 81, pp. 767–776, 2009.

[10] Vercher, E., Orchille´s, A. V., Miguel P. J., and Martínez, A., Volumetric and Ultrasonic studies of 1-Ethyl-3 methylimidazolium Trifluoromethanesulfonate Ionic liquid with methanol, ethanol, 1propanol, and water at several temperaturas. J. Chem. Eng. Data., 52, pp. 1468-1482, 2007. [11] Weissberger A., Tecniques of Chemistry, Vol I, Parte 4: Methods of Chemistry, Wiley Intercience New York. [12] Weissberg, A., Rositer, B., Physical Methods of Chemistry. New York: Willey – Interscience, 1957. [13] Yang, Q., Zhang, Hai., Su, B., Yang, Y., Ren, Qilong., and Xing, H., Volumetric properties of binary mixtures of 1-butyl-3methylimidazolium Chloride + water or hydrophilic solvents at different temperatures. J. Chem. Eng. Data., 55, pp. 1750–1754, 2010. [14] Yang, J., Tong, Jing., Li J., Study of the Volumetric properties of the aqueous ionic liquid 1-methyl-3-pentylimidazolium Tetrafluoroborate. J Solution Chem., 36, pp. 573–582, 2007. [15] Song, G. J., Properties of room temperature ionic liquid 3–ethyl-1methylimidazolium ethyl sulfate, ЖУРНАЛ ФИЗИЧЕСКОЙ ХИМИИ., 84, pp. 859–864, 2010. [16] Kenneth, S., Pitzer, J,. Peiper C., and Busey, R. H., Thermodynamic Properties of aqueous sodium chloride solutions. J. Phys. Chem. 13(1), 1984.

[18] Hepler, L. G., Thermal expansion and structure in water and aqueous solutions. Can. J. Chem., 47, pp. 4613-4617, 1969.

M. S. Páez-Meza, graduated in 1987 with a Bs in Chemistry from the Universidad de Córdoba, Colombia. In 1996 he graduated as Sp. in Physical Sciences; in 2001 he graduated as a MSc in Chemical Sciences; in 2007 he graduated with a Dr. in Chemical Sciences from the Universidad Nacional de Colombia. Since 1996, he serves as a full professor at the Universidad de Córdoba, in both: undergraduate and postgraduate programs. He also serves as leader of the research group: Physical Chemistry of Mixed Liquids in the Universidad de Córdoba, Colombia. Y. Del C. Cuello-Delgado, graduated in 2007 in Chemistry and received a MSc in Chemical Sciences in 2013, both titles from the Universidad de Córdoba, Colombia. She is currently teaching at the Universidad de Córdoba, in undergraduate programs. Also she serves as a student researcher in the study group: Physical Chemistry of Mixed Liquid in the Universidad de Córdoba, Colombia. O. A. Pérez-Sierra, graduated a Bs. Eng in Chemical Engineering in 1994 from the Universidad de Atlántico, in Barranquilla, Colombia, obtained a MSc in Chemical Engineering in 1997 from the Universidad Industrial de Santander (UIS), in Bucaramanga, Colombia, and a Dr. of Science and Food Technology from the Federal University of Viçosa, in Viçosa, Brazil. He has been part of the Universidad de Córdoba teaching staff since 1997. He is a full professor in the Department of Food Engineering of the Universidad de Córdoba. His research interests include: Modeling and simulation of processes, bio-separations and unit operations.

[17] Krumgalz, B. S., Pogorelskii, R., Sokolov, A. and Pitzer K.S., Volumetric ion interaction parameters for single- solute aqueous electrolyte solutions at various temperatures. J. Phys. Chem., 29 (5), 2000.

125


A framework for consistences in association relations between classes in UML Javier Dario Fernández-Ledesma a a

Facultad de Ingenierías, Universidad Cooperativa de Colombia. javier.fernandez@ucc.edu.co

Received: September 2th, 2013. Received in revised form: May 9th, 2014. Accepted: May 28th, 2014.

Abstract The following article shows the process of building and validating a framework for the management of consistencies in class diagrams in UML, operating specifically on class diagrams, through the application of transformation rules, using both graph grammar and OCL (Object Constraint Language). The proposed framework, after examining the techniques of consistency management, operates on a class diagram, since this constitutes a structural diagram. This is even more important when modeling, and it facilitates the application of rules based on the treated techniques, thus contributing to provide the community of analysts and modelers with a support tool for the refinement and quality improvement of the diagrams. It also operates on a typical case of application to show the tool’s advantages, thus making it easier to comprehend and understand. Keywords: Consistence, Framework, UML.

Un framework para consistencias en relaciones de asociación entre clases en UML Resumen El siguiente articulo muestra el proceso de construcción y validación de un framework para el manejo de consistencias en diagramas de clases de UML, específicamente opera sobre los diagramas de clase, mediante la aplicación de reglas de transformación, usando tanto la gramática de grafos como el OCL (Object Constraint Language). El framework propuesto, luego de un recorrido sobre las técnicas de manejo de consistencias, opera sobre el diagrama de clase toda vez que este constituye el diagrama estructural, si se quiere, más importante, a la hora de modelar, y facilita la aplicación de reglas desde las técnicas tratadas, contribuyendo con ello a dotar a la comunidad de analistas y modeladores de una herramienta soporte para el refinamiento y mejoramiento de la calidad de los diagramas, opera así mismo, sobre un caso típico de aplicación para mostrar las bondades de la herramienta, lo cual facilita su comprensión y entendimiento. Palabras clave: Consistencia, Framework, UML.

1. Introducción Este articulo constituye un aporte a las metodologías de desarrollo de software orientado a modelos (MDA) por tanto se centra en el manejo de los modelos independiente de las plataformas de modelado y permite ahondar en las problemáticas aún abiertas que existen para el desarrollo de software desde las etapas tempranas con técnicas, métodos y metodologías que provean a la industria de software de productos de alta calidad. Por otro lado, es el resultado del proceso de construcción de un framework base para la implementación de un método usado en la traducción y la validación de diagramas de UML, en específico, el diagrama de clases.

En la primera parte se define el marco conceptual y el estado del arte sobre los componentes de la propuesta, seguidamente se muestra la metodología general desarrollada en la construcción del framework y se termina con el análisis, diseño, programación y resultados de implementación del framework propuesto en un caso de estudio. 2. Antecedentes 2.1. Antecedentes conceptuales El UML (Lenguaje Unificado de Modelado) se ha definido como un lenguaje gráfico para visualizar, especificar, construir y documentar los elementos de un

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 126-131. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Fernández-Ledesma / DYNA 81 (186), pp. 126-131. August, 2014.

sistema con gran cantidad de software [1], la evolución natural del UML ha llevado al desarrollo de nuevas metodologías como es el caso de MDA (Arquitectura Dirigida por Modelos), la cual propone basar el desarrollo de software en modelos especificados utilizando Metalenguajes como UML, a partir de los cuales se realicen trasformaciones que generen código u otros modelos, con características de una tecnología particular (o con menor nivel de abstracción). Por lo tanto MDA define un entorno de trabajo para procesar y relacionar modelos. Enmarcado entonces en este esquema de trabajo y con UML como metalenguaje para el metamodelado, se encuentran los diagramas de clase como un tipo particular de diagramas donde se muestra la estructura del sistema en términos de clases, interfaces, colaboraciones y relaciones [1], el diagrama de clases es un grafo, donde los nodos son elementos del tipo clasificador y los arcos son las distintas relaciones estáticas que existen entre elementos. En este diagrama se especifican los elementos del sistema, que serán referenciados por el resto de los diagramas, lo cual lo convierte en el diagrama central de un modelo. Las clases son representadas en la forma de una caja rectangular, como se muestra en la siguiente Fig.1.

Figura 1. Representación de una Clase

Una clase representa un concepto del sistema que está siendo modelado y define la estructura (atributos) y comportamiento (métodos) de los objetos que la instancian. Las relaciones que existen entre clases son: asociación, agregación, composición y generalización. La relación más básica entre clases es asociación, representada por una línea. El caso más común es una asociación binaria, pero se permite la modulación de relaciones entre N clases. Cada extremo de una asociación debería llevar un nombre y una multiplicidad. Este tipo de relaciones entre clases permite visualizar el manejo de reglas de consistencia a partir de técnicas como: OCL (Lenguaje de Especificación de Objetos), el cual es un lenguaje formal para expresar restricciones libres de efectos colaterales. El OCL permite especificar restricciones y otras expresiones incluidas en sus modelos. El componente central construido por este lenguaje es la expresión, que se manipula a través de operaciones las cuales garantizan la transparencia referencial. Así, toda expresión válida para el lenguaje OCL debe tener asociado un tipo de datos. Las expresiones se pueden mapear fácilmente al concepto de objetos, ya que cada tipo básico no predefinido se puede vincular a una clase del diagrama, y algunas de las operaciones de un tipo básico no predefinido se modelan como atributos y métodos/responsabilidades de la clase original. En cada definición de OCL se describe cada restricción semántica del diagrama de clases, junto a otras propiedades también descritas con expresiones. Cada definición en OCL se aplica a lo que se llama un contexto, que representa el destinatario del diagrama de clases sobre quien se aplica esa definición. Otro enfoque sobre la transformación para la consistencia de modelos lo provee la gramática de grafos, la cual se compone de una serie de reglas, cada regla define su parte izquierda un sub-grafo patrón y en su parte derecha un sub-grafo sustitución, donde la parte izquierda y derecha (pre- y post- condiciones) se encuentran en los grafos que definen el modelo. Así, cuando se aplica una gramática a un grafo, las ocurrencias de los patrones de las reglas de la parte izquierda son sustituidas por las reglas de la parte derecha, de este modo el grafo se va transformando. Las reglas pueden contener también una condición, que debe ser satisfecha para que se pueda aplicar, así como acciones que se ejecutan si la regla es aplicada. Algunos enfoques ofrecen también especificaciones para el control de flujo en la ejecución de las reglas. Por otra parte, el uso de un modelo (en forma de gramáticas de grafo) para representar manipulaciones de modelos tiene ciertas ventajas sobre una representación implícita (es decir, representando la computación que realiza la transformación en un programa textual). Por ejemplo, las gramáticas de grafos son una representación gráfica, abstracta, formal, declarativa y de alto nivel de las computaciones. Además, los fundamentos teóricos de los sistemas de reescritura de grafos pueden ayudar a probar propiedades de la transformación, como la corrección y la convergencia (terminación). 2.2. Antecedentes investigativos

Figura 2. Representación de una Asociación Fuente: El autor

Algunos de los problemas que se suelen presentar en el manejo de la consistencia en diagramas de clase de UML 127


Fernández-Ledesma / DYNA 81 (186), pp. 126-131. August, 2014.

están referenciados en [2], como problemas inherentes a la: ambigüedad, inconsistencia, suficiencia y dirección cognoscitiva errada. Siendo los trabajos más representativos sobre estos problemas los desarrollados por [3] y [4]. [4] Específica en su trabajo, los aspectos de la asociación en UML que deben ser clarificados, en términos de la concepción estática de la asociación frente a la concepción dinámica, es decir, si la asociación expresa el estado de la información del sistema (estructura de datos), si expresa el dinamismo de las interacciones dentro del sistema (intercambio de mensajes), o bien si, tal vez, representa ambos aspectos a la vez. La “cosificación” de la asociación, que permite que cada instancia de una asociación (denominada “enlace”) tenga identidad, propiedades y comportamiento propio. La multiplicidad de la asociación, especialmente en el caso de asociaciones ternarias y de grado superior. La navegabilidad de la asociación, sus implicaciones sobre la comunicación mediante mensajes. La visibilidad de las asociaciones en relación con el concepto de “interfaz” y finalmente, la implementación de las asociaciones en lenguajes de programación orientados a objetos. [4] y [3] Específicamente abordan los problemas de la asociación desde el punto de vista de las propiedades: multiplicidad, navegabilidad y visibilidad. Y es en este contexto donde aparecen los trabajos más sobresalientes hasta el momento relacionados con la implementación de asociaciones en diagramas de clases de UML y que proponen técnicas, métodos y metodologías para la solución de problemas, estos trabajos son: En 2000, en la Universidad de Nantes en Francia [5], se pretende introducir semántica formal para UML basada en tipos de datos abstractos, utilizando una herramienta llamada probador Larch, que es un asistente de prueba, el cual permite definir especificaciones algebraicas y es capaz de soportar pruebas sobre diagramas UML. Este trabajo tiene en cuenta las características de multiplicidad y navegabilidad de las asociaciones y aunque los autores reconocen que está aún lejos de una estrategia para chequear inconsistencias, ya que los resultados dependen de la forma de los axiomas y las propiedades conocidas por el sistema, que se consideran aún en un estado muy incipiente, su gran fortaleza reside en la utilización en primera instancia de un lenguaje de especificación formal. Luego, en 2003 en la Universidad Carlos III de Madrid [4], se desarrolla una tesis doctoral que establece una serie de principios de diseño y plantillas de código para guiar a los desarrolladores en la implementación de las asociaciones en un lenguaje de programación orientado a objetos, a partir de un análisis de los aspectos: multiplicidad, navegabilidad y visibilidad de las asociaciones en UML. Estos principios son aplicados en una herramienta llamada JUMLA (Java code generator for UML Associations), que genera automáticamente código para implementar las asociaciones del UML. La herramienta lee un modelo almacenado en formato XMI y crea archivos de salida java para las clases implicadas, insertando en ellos el código para las asociaciones. El aporte más importante de este trabajo es que analiza deficiencias semánticas relacionadas con las asociaciones, las cuales en su mayoría son tratadas en [3] y

propone las soluciones respectivas; además produce la transformación directamente del PIM (modelo independiente de la plataforma) a código fuente, sin pasar por el PSM (modelo específico de la plataforma). Por su parte, [6] plantea el uso del DL (Description Logic) como lenguaje formal para codificar los diagramas de clase, estas deben ser representadas por conceptos y los atributos y roles de asociación deben ser representados por elementos descriptivos del lenguaje. Así, cada parte de los diagramas es codificado por la adecuada inclusión de aserciones. Luego, [7] establecen que las dificultades más importantes que aparecen en la implementación de las relaciones de asociación, son: Una relación de asociación tiene semántica propia, adicional a la semántica de las clases participantes en la relación y los objetos de las clases participantes tienen un comportamiento y una estructura adicional a la especificada por su clase de dominio (por participar en una relación de asociación). Para lo cual propone un framework basado en patrones de diseño para la implementación de relaciones de asociación, agregación y composición. Para ello se presenta una interpretación semántica de estos conceptos que permite eliminar ambigüedades introducidas por UML y que se logra a través de un conjunto de propiedades que permiten caracterizar estas relaciones. Los patrones de diseño utilizados en el framework son: Decorator, para representar el comportamiento y propiedades de los objetos de las clases participantes en las relaciones, adicionales a las propias, inherentes de la clase, Mediator para representar las propiedades especificadas sobre la relación, y Template Method para definir la estrategia común de la creación de objetos. Con la utilización de estos patrones de diseño la implementación de cada uno de los elementos de una relación de asociación se centraliza, lo que facilita el mantenimiento del código y beneficia la reusabilidad de los distintos elementos participantes en la relación, así el framework propuesto proporciona una implementación natural de las propiedades del marco conceptual definido, cumpliendo los requisitos intrínsecos de las relaciones y generando una solución software sencilla, con elementos reusables y de fácil mantenimiento. Adicional a esto, [8] presentan un enfoque metodológico para la definición de transformaciones entre modelos. Este enfoque propone el uso de gramáticas de grafos para realizar una descripción precisa y operativa de las transformaciones entre modelos. En [8] proponen la utilización de gramática de grafos concretamente para la conversión de relaciones de asociación expresadas en modelos de análisis (PIM) hacia un modelo de diseño elaborado en términos de un lenguaje orientado a objetos (PSM). Para especificar sin ambigüedad los elementos que forman parte de estos modelos se utilizan metamodelos. La gramática propuesta está formada por 11 reglas que reflejan la estrategia de implementación, y utiliza los patrones de diseño y los fundamentos del framework propuesto en [7]. Esta técnica tiene varias ventajas sobre otras, como que cuenta con una sólida base matemática, permite una representación gráfica, facilitando la comprensión de las transformaciones, y ya existen algoritmos y herramientas

128


Fernández-Ledesma / DYNA 81 (186), pp. 126-131. August, 2014.

para su aplicación. Los problemas encontrados en estas transformaciones consisten entre otros en que no soportan herencia en la definición de los metamodelos y en que en la aplicación de la gramática de grafos, el modelo debe validar siempre uno de los metamodelos propuestos. Hacia el año 2005, se presentan una serie de fundamentos para la transformación de herramientas basadas en UML como es el caso de los trabajos de [9], quien utiliza el lenguaje algebraico NEREUS para traducir el metamodelo UML y las restricciones expresadas en OCL. Así, las expresiones NEREUS a su vez se traducen a EIFFEL, un lenguaje orientado a objetos. Estas transformaciones son soportadas por una librería de componentes reusables y por un sistema de reglas de transformación, que posibilitan las dos traducciones. NEREUS consiste de varias construcciones para expresar clases, asociaciones y paquetes. El texto de la especificación NEREUS se completa gradualmente; primero se obtienen los axiomas y luego se transforman las asociaciones, instanciando componentes reusables que existen en este lenguaje. Finalmente, las especificaciones OCL son transformadas usando un conjunto de reglas de transformación. Por su parte los trabajos de [10], tratan el problema de consistencia entre diagramas definidos en modelos UML mediante el uso de un formalismo para representar los diagramas y modelos que permita la investigación y manipulación de la semántica de los modelos elaborados por el usuario. [10] propone los sistemas de representación del conocimiento (SRC) los cuales permiten a través de definiciones de alto nivel, la representación sistematizada de dominios, mientras que situaciones específicas se traducen como los individuos que representan a los conceptos definidos. De esta forma, las consecuencias implícitas asociadas al conocimiento explícitamente representado pueden ser descubiertas a través del uso de bases de conocimiento. El resultado de este trabajo es una aplicación denominada Model Consistency Checker (MCC) implementada en Java y el formalismo que utiliza es Description Logics (DL), dado que experimentos anteriores probaron que este formalismo podría servir de base para la detección y resolución de un conjunto amplio de problemas de consistencia. Finalmente, propone un entorno llamado Racer, el cual es un motor de inferencia para DL que es completo y eficiente y brinda los servicios de razonamientos usados por MCC. La interfaz gráfica del sistema está integrada como plug-in a Poseidón, una herramienta CASE para UML. Posteriormente, se desarrolló en la Universidad Vrije Universiteit Brusel [11] una tesis doctoral, cuyo resultado es un prototipo en Java que permite al desarrollador de software hacer la transición del nivel de diseño al nivel de implementación con seguridad respecto a las restricciones de las clases especificadas en el modelo. En él se hace una clasificación de las restricciones en seis categorías, siendo una de ellas las correspondientes a asociación entre dos clases. El prototipo desarrollado está basado en la herramienta CASE Argo/UML. La lectura del modelo se hace desde

archivos XMI, generados a partir de los diagramas UML. Las restricciones están expresadas en OCL y son traducidas dentro de declaraciones ejecutables Java a través de un módulo normalizador y cada restricción es representada por una clase. El analizador de puntos de inserción, evalúa expresiones OCL y sugiere puntos en el código de aplicación donde las restricciones podrían ser violadas, permitiéndose la interacción del usuario para borrar y agregar puntos. Esta propuesta no analiza las deficiencias semánticas del estándar UML. Finalmente, los trabajos de [12] y [13], proponen un modelo para las asociaciones, basado en un marco conceptual que identifica las propiedades más relevantes de la asociación como: Dinamicidad, Mutabilidad, Multiplicidad, Propagación de Borrado, Navegabilidad, Proyección de Identificación, Reflexividad, Simetría y Transitividad. Bajo el desarrollo y conocimiento de estos trabajos previos se propuso la construcción de un Framework que permitiera el manejo de la consistencia en diagramas de clase de UML como un aporte a la solución de los problemas encontrados y enunciados en los trabajos previos y como un aporte a la industria del software con herramientas de apoyo para la construcción de modelos que cumplan con altos estándares de calidad para la correcta y eficiente construcción de sistemas de software. 3. Metodología En la construcción del framework para el manejo de consistencias en diagramas de UML a partir de reglas de transformación se ha construido un modelo general haciendo uso del UML como lenguaje de metamodelado y a continuación se muestran tanto el diagrama de Casos de Uso en la Fig. 3 como el diagrama de clases, en la Fig. 4, del framework. El framework permite validar reglas de consistencias definidas por el usuario en el módulo de definición de reglas, de donde el analizador de consistencias que constituye otro módulo del aplicativo toma información para validar si los diagramas creados o importados a la interfaz del aplicativo por medio del módulo de diagramas cumple o no con la reglas definidas y generar entonces en el módulo de reportes un informe de inconsistencias presentes en el modelo. El framework consiste de tres módulos funcionales fundamentalmente: el módulo de diagramas, allí se crean, modifican e importan los diagramas que desean ser validados y se guardan como documentos XML; el módulo de reglas, allí se crean, modifican y se almacenan las reglas de definición de consistencia en los modelos y el módulo de validación, en el cual se cruza la información contenida en los diagramas a analizar y se confronta con la definición de las reglas que se utilizarán en la validación, las cuales han sido especificadas y formadas con OCL y con DL, generando un informe sobre inconsistencias detectadas en el diagrama. La interfaz del framework se ha construido en el lenguaje Java, para soportar la importación de modelos que requieren el uso de Api’s específicas, como se puede apreciar en la Fig. 5, la cual muestra el módulo de diagramas para la creación de relaciones de asociación entre clases.

129


Fernández-Ledesma / DYNA 81 (186), pp. 126-131. August, 2014.

ered Trial Version EA 6.5 Unregistered Trial Version EA 6.5 Unregis uc Use Case Model

ered Trial Version EA 6.5 Unregistered TrialDEVersion EA 6.5 Unregis DIAGRAMA DE CASOS USO ered Trial Version EA 6.5 Unregistered Trial Version EA 6.5 Unregis Crear Diagrama

ered Trial Version EA 6.5 Unregistered Trial Version EA 6.5 Unregis «include»

ered Trial Version EA 6.5 Unregistered Trial Version EA 6.5 Unregis Cargar Diagrama ered Trial Version EA 6.5 Unregistered Trial Version EA 6.5 Unregis «include» Diagrama ered Trial Version Modificar EA 6.5 Unregistered «include» Trial Version EA 6.5 Unregis MODELADOR

ered Trial Version EA 6.5 Unregistered Trial Version EA 6.5 Unregis Validar Diagrama

ered Trial Version EA 6.5 Unregistered Trial Version EA 6.5 Unregis APLICATIVO CONSISTENCIA

ered Trial Version EA 6.5 Unregistered Trial Version EA 6.5 Unregis Crear Regla ReglaUnregistered ered Trial Version Modificar EA 6.5 Trial Version EA 6.5 Unregis «include»

ered Trial Version EA 6.5 Unregistered Trial Version EA 6.5 Unregis

Figura 5. Módulo de Diagramas del Framework Fuente: El autor

4. Resultados

«include»

ered Trial Version EA 6.5 Unregistered Trial Version EA 6.5 Unregis ered Trial Version Cargar EA Regla6.5 Unregistered Trial Version EA 6.5 Unregis Generar Reporte ered Trial Version EA 6.5 Unregistered Trial Version EA 6.5 Unregis Inconsistencia

ered Trial Version EA 6.5 Unregistered Trial Version EA 6.5 Unregis «include»

Solicitar Reporte Inconsistencia

ered Trial Version EA 6.5 Unregistered Trial Version EA 6.5 Unregis dT i lV

i

EA 6 5 U

i t

dT i lV

i

EA 6 5 U

i

Figura 3. Casos de Uso del Framework Fuente: El autor class Class Model Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistered Trial Versio DE CLASES EA 6.5 Unregistered Trial Versio Version EA 6.5 UnregisteredDIAGRAMA Trial Version

Para la validación del framework se ha definido un caso típico consistente en el proceso de préstamo bibliotecario, en el cual el usuario para pedir el préstamo de un libro debe de identificarse ante el bibliotecario y solicitar el libro deseado, y poder efectuar el préstamo, el libro debe de estar disponible y el usuario debe de estar a paz y salvo con la biblioteca, en caso de tener alguna deuda pendiente el usuario debe de cancelarla para poder retirar el libro. Después de haber cumplido estas condiciones el bibliotecario asigna una fecha de devolución para el libro y lo entrega al usuario. Así mismo en el momento de la devolución el usuario debe saldar la deuda para poder proceder a la devolución, en el momento en el cual el bibliotecario recibe el libro, éste verifica que la devolución se esté efectuando dentro del

Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistered Trial Versio Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistered Trial Versio MODELADOR

+ + 1 + + +

UTILIZAR

DIAGRAMA

al Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistere al Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistere

1 Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistered Trial Versio + + + +

Crear() : void Definir_Reglas() : void Solicitar_Reporte() : void Utilizar_Diagrama() : void 1

DIAGRAMA DE CLASES

Fecha_Creación: int Fecha_Modificación: int Id: int Modelo_Diagrama: char Objeto: char

Version EA 6.5 + Contraseña: int Unregistered Trial Version EA 6.5 Unregistered Trial Versio + Fecha_Creación: int + Id: int

class Class Model

al Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistere

Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistered Trial: voidVersio + Guardar_Diagrama() + Modificar_Diagrama() : void 1 + Mostrar_Diagrama() : void

1 Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistered Trial Versio 1

USUARIO

+ + + +

PIDE PRESTAMO al Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistere 1..*

1

+ Pagar_Deuda() : void

Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistered 1 Trial Versio REPORTE DE INCONSISTENCIA

1

1

al Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistere

1..*

+ + + + 1 +

Cod_diagrama: int Cod_Regla: int Descripción: char Fecha_Reporte: int Id: int

+ Descripción: char Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistered Trial Versio UTILIZAR + Fecha_Creación: int + Fecha_Modificación: int 1..* + Id: int + Modelo_Ref: char

Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistered Trial Versio + Mostrar_Inconsistencia() : void + Validar_Diagrama() : void

+ Utilizar_Reglas() : void

Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistered Trial Versio Figura 4. Diagrama de Clases del Framework Fuente: El autor

VERIFICA

PRESTA

al Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistere

1..* Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistered Trial Versio REGLAS

+ Id: int + Nombre: int

+ Verificar_Devolución() : void al Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistere + Verificar_Disponibilidad() : void

SOLICITAR

MUESTRA Trial Versio Version EA 6.5 Unregistered Trial VALIDAR Version EA 6.5 Unregistered DEFINE

1..*

BIBLIOTECARIO

Cod_Libro: int Deuda: int Id_Usuario: int Nom_Usuario: int

1..*

1..*

al Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistere LIBRO

+ + + +

Cod_Libro: int Disponibilidad: int Fecha_Devolución: int Fecha_Prestamo: int

al Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistere al Version EA 6.5 Unregistered Trial Version EA 6.5 Unregistere Figura 6. Diagrama de Clases Caso: Préstamo Bibliotecario Fuente: El autor 130


Fernández-Ledesma / DYNA 81 (186), pp. 126-131. August, 2014.

software. Integridad en el manejo de los modelos de software. Así mismo, tanto las herramientas de diseño utilizadas como las de programación han resultado adecuadas a los propósitos planteados en la construcción de este framework, a un bajo costo, flexible y adaptable.

Referencias

Figura 7. Implementación de caso de estudio en el Framework propuesto Fuente: El autor

periodo de tiempo determinado, en ese tiempo el libro se acepta y el usuario se retira. Si la fecha de devolución no es la asignada en el momento de realizar el préstamo, se calcula un pago en función de los días de retraso y se le acredita como una deuda del usuario. La deuda debe de cancelarse en su totalidad; de lo contrario, la no cancelación de esta imposibilita al usuario el préstamo y devolución de libros. El siguiente es el diagrama de clases que representa el caso de estudio utilizando una herramienta Case comercial de UML: Luego, se procedió a construir el Diagrama de Clases del caso de estudio como se muestra en la Fig. 7, en el framework propuesto, donde se ha validado automáticamente con las reglas de consistencia propuestas en el mismo. Este diagrama se ha chequeado automáticamente con el fin de permitir su presentación final y almacenamiento en el framework.

[1]

Booch, G., The Unified modelling language, User guide. 1a ed., México, Addison-Wesley, 1999.

[2]

Simons, C., CMP: A UML context modeling profile for mobile distributed systems, en 40th Annual Hawaii International Conference in System Sciences, Hawaii, EEUU, pp. 289b-289b, 2007.

[3]

Stevens, P., Small-scale XMI programming: a revolution in UML tool use?. Automated Software Engineering, 10(1), pp 7-21, 2003.

[4]

Génova, G., Entrelazamiento de los aspectos estático y dinámico en las asociaciones UML, Tesis de Doctorado en ingeniería informática, Universidad Carlos III de Madrid, España, 2003, 234 P.

[5]

André, P., Romanczuk, A., Royer, J. C. and Vasconcelos, A., Checking the consistency of UML class diagrams using larch prover, en: Rigorous Object-Oriented methods, Nantes, Francia, 2000, pp. 116.

[6]

Calvanese, D. and De Giacomo, G., Description logics for conceptual data modeling in UML, en 15th European summer school in logic language and information, Vienna, Austria, 2003, pp. 18-29.

[7]

Ruiz, M., Manoli, A., Torres, V. and Pelechano, V., Un Framework para la implementación de relaciones de asociación, agregación y composición en UML, en Workshop Iberoamericano de Ingenieria de Requisitos y Ambientes Software, España, 2004, pp. 245-256.

[8]

Muñoz, J., Manoli, A., Ruiz, M. and Pelechano, V., Transformación de relaciones de asociación mediante gramáticas de grafos aplicando MDA, en 1er Taller sobre Desarrollo de Software Dirigido por Modelos, Málaga, España, 2004, pp. 43 - 56.

[9]

Favre L., Foundations for MDA-based forward engineering. Journal of Object Technology, 4 (1), pp. 129-153.

5. Conclusiones El framework para el Manejo de Consistencias en Diagramas de Clase de UML, permite, entre otros aspectos: • Coadyuvar en los procesos de diseño de software mediante la verificación de reglas de consistencia sobre diagramas de clase de UML. • Permitir el uso de un framework para la verificación de modelos existentes y modelos creados en la herramienta con altos criterios de calidad. • Dotar de un sistema integral, flexible y seguro para la gestión de la consistencia en modelos de UML para el diseño de software. • Aumento de la productividad en los índices de gestión y control de los procesos de desarrollo de software mediante la reducción de ocurrencia de errores en las fases de análisis y diseño de software. • Disminuir los tiempos de modelado de software. Por lo pronto, el framework ha permitido el mejoramiento de los siguientes indicadores en los contextos de construcción de software donde se ha implementado: • Mejoramiento en la calidad y la productividad en los procesos de desarrollo de software. • Disminución hasta de un 20% en la ocurrencia de errores en las fases de análisis y diseño de software. • Aumento en los niveles de calidad de los modelos de

[10] Wagemann, J. P. S., Un framework para el manejo de consistencia en diseños UML 2.0, Tesis de Doctorado en Ciencias de la Computación, Universidad de Chile, Chile, 2005, 70 P. [11] Vanderperren, W., Suvée, D., Verheecke, B., Cibrán, M. A. and Jonckers, V., Adaptive programming, en 4th International conference on Aspect-oriented software development, Chicago, EEUU, 2005, pp. 75-86. [12] Albiol, M. A., Tratamiento de relaciones de asociación en entornos de producción automática de código, Tesis de Doctorado en Informática, Universidad Politécnica de Valencia, España, 2006, 309 P. [13] Arango F., Gómez M. and Zapata C., Transformación del modelo de clases UML a Oracle9i® bajo la directiva MDA: Un caso de estudio, DYNA, 73 (149), pp. 165-179, 2006. J. D. Fernández-Ledesma, recibió su grado de Ing. Industrial en el 2000 en la Universidad de Antioquia, su grado de Esp. en Ingeniería de Software en 2002 en la Universidad Nacional de Colombia Medellín, su grado de MSc. en Ingeniería en 2007 en la Universidad de Antioquia Medellín, Colombia. Desde el año 2005 trabaja como docente investigador de la Universidad Cooperativa de Colombia, Medellín. Actualmente trabaja como profesor asociado en la Facultad de Ingeniería Industrial de la Universidad Pontificia Bolivariana y como docente e investigador de la Facultad de Ingenierías de la Universidad Cooperativa de Colombia. Sus áreas de interés son: simulación discreta, optimización e ingeniería y desarrollo de software.

131


Test effort: A pre-conceptual-schema-based representation Carlos Mario Zapata-Jaramillo a & Diana María Torres-Ricaurte b Facultad de Minas, Universidad Nacional de Colombia, Colombia. cmzapata@unal.edu.co Facultad de Minas, Universidad Nacional de Colombia, Colombia. dimtorresri@unal.edu.co

a b

Received: September 2th, 2013. Received in revised form: March 21th, 2014. Accepted: June 25th, 2014.

Abstract Software testing is intended to guarantee the quality of software products. By executing a test suite, we can identify and correct defects in software products. Several methods are used to estimate the effort invested in testing. Each method comprises many concepts in determining the test effort. However, the graphical representations of such methods barely represent the different concepts involved. Specifically, some formulas are missing, avoiding the possibility of performing test effort calculations. In this paper, we identify the concepts involved in measuring the test effort. The concepts are obtained from a state-of-the-art review. Finally, we propose a representation for integrating such concepts by using pre-conceptual schemas, a kind of diagram devoted to the domain knowledge representation in a natural-like language. Keywords: testing; effort; factor; pre-conceptual schemas.

El esfuerzo en pruebas: Una representación basada en esquemas preconceptuales Resumen Las pruebas garantizan la calidad en los productos de software. Mediante la ejecución de un conjunto de pruebas se pueden identificar y corregir defectos presentes en los productos de software. Existen diferentes métodos que estiman el esfuerzo invertido en las pruebas. Cada método valora distintos conceptos en sus estimaciones. Sin embargo, las representaciones graficas de estos métodos muestran los conceptos particulares sin incluir mayor detalle. Específicamente, algunas de las fórmulas usadas para obtener la medida del esfuerzo se pierden en estas representaciones, por lo que no es posible calcular el esfuerzo solo con la información dispuesta en estos gráficos. En este artículo se identifican los conceptos presentes en la medición del esfuerzo de pruebas, que se obtienen de la revisión de varios métodos. Finalmente, se propone una representación que integre estos conceptos mediante esquemas preconceptuales, que constituyen un tipo de diagramas para la representación del conocimiento de un dominio en un lenguaje cercano al natural. Palabras clave: pruebas, esfuerzo, factor, esquemas preconceptuales.

1. Introduction Software testing is an intermediate process of the software development lifecycle. This process is intended to find defects of the software product, ensure software quality, and convince the customer that the product fulfills the specifications and functionality specified [1]. Test coordinators use the test effort estimation to plan their resources and schedules [2]. By using this estimation, test coordinators can suggest strategies for optimally allocating resources and minimizing execution times [3]. The test effort estimation is measured in man-per-time units, where time is necessary to execute a test suite. Several test effort estimation methods have been proposed. Most of them are based on concepts involved in

measuring the test process effort. However, there is no common agreement about the concepts to-be-included in the methods for estimating the test effort. In order to integrate the concepts involved in measuring the test process effort, in this paper, first, we present the more representative concepts of test effort estimation methods obtained from the state of the art. Then, we propose a knowledge representation about the test process effort, in which we summarize the concepts and their relationship by using the so-called pre-conceptual schemas [4]. The remainder of this paper is organized as follows: in Section 2 we present the conceptualization of the test process effort, software measurement, and the preconceptual-schema-based representation. The graphical

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 132-137. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Zapata-Jaramillo & Torres-Ricaurte / DYNA 81 (186), pp. 132-137. August, 2014.

Figure 1. Generic testing process. Source: [5]

representation about test effort estimation is presented in Section 3. Then, in Section 4 we propose a pre-conceptual schema related to the concepts and relationships belonging to the test effort estimation. Finally, we present conclusions and future work. 2. Related work 2.1. Test process The main goal of the test process is ensuring the software product is defect-free [1]. The main activities of this process are the execution of software and the observation of its behavior [5]. Once a failure is observed, the execution record is analyzed in order to locate the failure and its causes. These and other activities are illustrated in Fig. 1. Test planning and preparation is the initial phase of the entire process. Test execution includes activities related to the observation and measurement of the software product. Test analysis and follow up include activities related to checking and analyzing failures and follow up about reviewing and removing such failures. 2.2. Software measurement and estimation Software measurement has become a key aspect of the software engineering quality practices. Specifically, a measure is the number or symbol assigned to an entity. Each entity is characterized through an attribute according to an unambiguous rule [6]. Fig. 2 shows the activities to plan, implement, and improve a software measurement process. Specifically, a metric is a quantifiable, directly observed software measurement. Such a measurement can be either calculated or predicted. A software quality metric is a function with software data inputs and numerical outputs. Such outputs represent to what extent a quality feature is present in the software development process [7]. Software metrics are mainly used with two purposes in mind: software measurement and estimation. Estimation is the process of predicting information about the software application based on incomplete, uncertain, and fuzzy input [8]. Test effort estimation is concerned with the test phase activities [6]. The test estimation process demands competence for software test manager in order to design

Figure 2. Software measurement process. Source: [6]

and assess a cost-effective test strategy [9]. Test effort estimation includes the amount of resources, in terms of the man-per-time unit. Test effort estimation is obtained with the factors affecting the effort spent on testing; some such factors are: software size, testing team experience, software complexity, etc. 2.3. Pre-conceptual schema representation Knowledge representation emerged as an area of artificial intelligence for representing concepts about a particular domain. The aim of knowledge representation is specifying and analyzing reasoning about represented knowledge [10]. Pre-conceptual schemas [4] are intermediate knowledge representations between formal logic and natural language. The main symbols of pre-conceptual schemas are presented in the Fig. 3. Concepts are employed to represent nouns and nouns phrases; structural relationships are used to represent the verbs “be” and “have;” dynamic relationships include the so-called verbs “of activity or operation;” annotations or instances are possible values of the concepts; connections are used to link concepts to either a dynamic or structural relationship or vice versa; implications are cause-and-effect relationships; connectors annotations are used to link a set of instances; references include numbers that are used to link distant elements in the same schema [11]. 3. Graphical representations of test effort estimation During the past decades, some models and graphical representations of these models were created for estimating test effort. Here, we summarize the graphical representation related to either test effort models or techniques. 3.1. Software-size-based estimation These approaches assume that the test effort estimation is directly proportional to the software size.

133


Zapata-Jaramillo & Torres-Ricaurte / DYNA 81 (186), pp. 132-137. August, 2014.

Figure 3. The main symbols of pre-conceptual schema. Source: [11]

Figure 5. The V-Model. Source: [13]

for executing the test suite [2]. The test suite is defined in a controlled language. In Fig. 6 the estimation process is summarized. 3.2. Test-case-enumeration-based estimation

Figure 4. Overview of test point analysis procedure. Source: [12]

3.1.1. Test point analysis Primary test hours are obtained from three factors: number of test points, environmental factor, and productivity factor [12]. The number of test points is calculated by using the amount of function points (FP) for each individual function. Total number of the test hours is the sum of primary test hours plus secondary test hours. Total number of the test hours represents total time needed to complete a set of the testing activities. In the Fig. 4 an overview about the test point analysis is shown. The figure represents the flow of information needed for the test-point-based estimation. However, the way to obtain the factors is uncertain. Since the arrow syntax is intuitive, the graph representation appears incomplete because the concepts and their relationships can not be obtained. 3.1.2. Use-case-based estimation (test point analysis) The number of tests cases is obtained by mapping the uses case specifications into the test process [13]. Each scenario and its exception flows for each use cases are inputs for test cases. After that, the effort estimation is calculated. In the Fig. 5, the project lifecycle model used is illustrated, but the graphical representation describing the test point method for test effort estimation is not presented. First the test cases are enumerated, next different scenarios are evaluated for each test case and the effort is calculated. 3.2.1. Test-specification-based estimation Input for the approach is a test suite and the output is a number which represents the effort in man-hours required

Figure 6. Estimation process with test specifications. Source: [2]

134


Zapata-Jaramillo & Torres-Ricaurte / DYNA 81 (186), pp. 132-137. August, 2014.

The two graphics describe the procedure of the method, however, the syntax is not defined; the ordinal scale is not defined; the origin of some values is not known and the format of such values are not standardized, finally, the concepts in two graphics are not connected. 3.2.2. Test-suite-execution-vector-based estimation This approach is based on the fact that: “Similar tests have similar cost� [14]. First, test suite should be categorized by its attributes. Then, the similarity between a candidate and a definite test suite execution vector in the historical database is determined. After that, the estimation effort is changed to reflect an algorithm to predict the effort value for a given vector. Fig. 7 shows the tester rank model used in the approach and the Fig. 8 shows a big picture of the approach. The graph uses the standard representation for its elements, but it is so general and a computational representation is difficult because all the information needed to estimate the effort is not present. Figure 9. Architecture of the proposed system. Source: [15]

3.3. Testing-activity-based estimation In this approach, we understand the project as a set of activities to be executed in the software development process. 3.3.1. Pre-coding- and post-coding-based estimation

Figure 7. Tester rank. Source: [14]

The architecture of the model involves two components: pre- and post-effort estimation components and a learning rule, which is used as back propagation algorithm [15]. In Fig. 9 this approach is shown. The graphical representation is close to the controlled language because the structure is similar to the block diagram. However, the syntax used is not defined, the symbols are used in others context but the interpretation cannot be made directly for this context, and the concepts in the boxes are not specified. 3.3.2. Three-phase-based estimation The testing effort needed to assure the permissible number of field defects is estimated from effort needed for design and review activities in three phases: investigation of the effect of the number of field defects on effort, construction of a regression model for the number of field defects, and estimation of testing effort to assure field quality [16]. Fig. 10 shows a schema for defect injection and defect removal. Such a schema shows the defect evolution according to each phase, but the interpretation is difficult because the syntax is not present. The main concepts proposed in the method and their relationships are not present. The representation fails to clarify the estimation of the testing effort.

Figure 8. TSEV approach. Source: [14] 135


Zapata-Jaramillo & Torres-Ricaurte / DYNA 81 (186), pp. 132-137. August, 2014.

4. Knowledge representation of the process of estimation effort A state-of-the-art review of graphical representations of the testing effort estimation process was presented in Section 3. Based on this review, we can determine the different methods for estimating test effort and introduce several concepts affecting the measure. Several concepts introduced for the test effort process increases complexity of the representation of such concepts. Additionally, the scope of the graphical representations presented is broad with low specificity or so specific so that it is not possible to determine the relationship between the test effort process with actors, artifacts or any concept involved. In this Section, we integrate the concepts of the effort estimation methods previously studied. The representation is created by using a pre-conceptual schema. We aim to express the concepts in a formal way but maintaining proximity with natural language.

Figure 10. Defects injected and removed process. Source: [16]

Figure 11. Knowledge representation about testing effort in pre-conceptual schemas. Source: the authors.

In the knowledge related to the test effort process estimation, we identify the following elements from the state of the art: • The effort estimation methods are based on some specification: use case, requirements specifications, or test specification. • The factors represent the attributes of the conceptrelated specifications. Each factor is associated with 136

a direct metric. • Some methods can use the same factor of the same specification, but the way to measure it makes differences between methods. For example, test execution complexity is a factor in test-specificationbased estimation; such a factor represents the difficulty of interaction between the tester and the tested product [17]. Test execution is a factor in test-


Zapata-Jaramillo & Torres-Ricaurte / DYNA 81 (186), pp. 132-137. August, 2014.

suite-execution-vector-based estimation also, but in this approach it is inherent for a test suite in a specific environment and time [14]. • Some methods can use the factors with a different name, but the direct metric to value is the same one. For example, technical complexity factor is a list of the technical and environmental factors in use case based estimation [13]. Complexity factor is a list of the factors which can impact the time for executing a test [14]. Finally, environmental factor is a list of variables that indicate the degree to which the environment influences the text activities [12]. • Test roles have different names. We decide on using two roles: test manager and tester. • Technical complexity factor, environmental factor, and complexity factor seems to be the same concept, because they contain a similar list of attributes. We select the second one as the name of the concept. • There is no uniform treatment of some concepts involved in testing: test, test case, test suite, test specification and test plan are used with the same purpose. We propose the pre-conceptual schema of the Fig. 11 as a representation of the domain about the test effort process estimation. 5. Conclusions and future work In this paper we proposed a pre-conceptual schema related to the most representative concepts about the test effort and its relationships. This representation helps to clarify the test effort estimation process because it summarizes the common elements from the methods and presents them in a general way. Such a representation form allows understanding the basis of the test effort estimation, also identifying the main factors and its attributes. The pre-conceptual schema can be used by either software managers or test managers to evaluate the test effort and to design testing effort estimation methods. As future work, we propose the extension of the schema to account for most of the concepts in order to provide a complete schema for test effort estimation. Also, we propose the construction of an automated pre-conceptual schema as a tool for making decisions about software testing. References [1]

TEC Technology Evaluation Centers [en línea], Revisión sistemática, Montreal, Canada [consulta, 24 de Marzo de 2013]. Available at: http://whitepapers.technologyevaluation.com.

[2]

Aranha, E. and Borba, P., An Estimation Model for test execution effort, Proceedings of the First International Symposium on Empirical Software Engineering and Measurement, 2007, pp. 107116.

[3]

De Almeida, E., De Abreu, B. and Moraes, R., An alternative approach to test effort estimation base on use cases, Proceedings of the International Conference on Software Testing Verification and Validation, 2009, pp. 279-288.

[4]

Zapata, C. M. and Arango, F., Un ambiente para la obtención automática de diagramas UML a partir de un lenguaje controlado. DYNA, 74(153), pp. 223-236, 2007.

[5]

Tian, J., Software quality engineering: Testing, Quality Assurance, and Quantifiable Improvement. Los Alamitos: Wiley-IEEE Press, 2005.

[6]

Farooq, S. U., Quadri, M. K., and Ahmad, N., Software measurement and metrics role in effective software testing, International Journal of Engineering Science and Technology, 3, pp. 671-680, 2011.

[7]

IEEE Std 1061-1998, Standard for a Software Quality Metrics Methodology, IEEE, 1998.

[8]

Jones, C., Applied software measurement: Global analysis of productivity and quality, New York: Mc Graw Hill Professional, 2008.

[9]

Nirpal, P. B. and Kale, K.V., A brief overview of software testing metrics. International Journal on Computer Science and Engineering, 3, pp. 204-211, 2011.

[10] Lakemeyer, G. and Nebel, B., Foundations of knowledge representation and reasoning. Berlin: Springer-Verlag, 1994. [11] Zapata, C. M., Ocampo, C. A. and Giraldo, G. L., Representación del conocimiento en currículo mediante esquemas preconceptuales, Pedagogía y Saberes, 31, pp. 78-88, 2009. [12] Veenendaal, E. V., Dekkers, T., Test point analysis: A Method for test estimation, en Kusters, R. J., Cowderoy, A., Heemstra, F. J., and Veenendaal, E., Project Control for Software Quality, Maastricht, Shaker Publishing BV, 1999, pp.45-59. [13] Nageswaran, S., Test effort estimation using use case points, Proceedings of the Quality Week, pp. 1-6, 2001. [14] Xiaochum, Z., Li, H., Junbo, C., and Lu, C., An experience-based approach for test execution effort estimation, Proceedings of The 9th International Conference for Young Computer Scientist, 2008, pp. 1193-1198. [15] Abhishek, C., Kumar, V.P., Vitta, H., and Srivastava, P.R., Test effort estimation using neuronal network, Journal of Software Engineering and Applications, 3, pp. 331-340, 2010. [16] Mizuno, O., Shigematsu, E., Takagi, Y. and Kikuno, T., On estimating testing effort needed to assure field quality in software development, Proceedings of the 13th International Symposium on Software Reliability Engineering, 2002, pp. 139-146. [17] Aranha, E. and Borba, P., Estimating manual test execution effort and capacity based on execution points, International Journal of Computers and Applications, 31, pp. 167-172, 2009. C. M. Zapata-Jaramillo, currently he is Associate Professor in the Computer and Desicion Sciences Department, at the Faculty of Mines, at Universidad Nacional de Colombia, Medellín Campus. He holds a degree in Civil Engineering, a Specialization in Information System Management, a MSc. in Systems Engineering, and a PhD. in Engineering (focused on Information Systems); all his titles are from the Universidad Nacional de Colombia. His research areas include: Software Engineering, Natural Language Processing, Computational Linguistics, and Pedagogical strategies for teaching Engineering. ORCID: http://orcid.org/0000-0002-0628-4097 D. M. Torres-Ricaurte, received the Bs. Eng in Systems from Universidad del Valle, and MSc. degree in Systems Engineering from Universidad Nacional de Colombia, Medellín Campus. Her research areas include: software quality and software testing.

137


Model for a vehicle dynamics through a sequence of traffic lights Mónica Mesa-Mazo a, Johnny Valencia-Calvo b & Gerard Olivar-Tost c a b

Departamento de Ingeniería Eléctrica, Electrónica y Computación, Universidad Nacional de Colombia, mjmesam@unal.edu.co Departamento de Ciencias de la Computación y de la Decisión, Universidad Nacional de Colombia, jovalenciacal@unal.edu.co c Departamento de Ingeniería Eléctrica, Electrónica y Computación, Universidad Nacional de Colombia, golivart@unal.edu.co Received: September 3th, 2013. Received in revised form: March 17th, 2014. Accepted: May 15th, 2014

Abstract In this paper we present an overview of a vehicular traffic model and its simulation, this model is characterized by a single vehicle traveling through a sequence of traffic lights that turn on and off with a specific frequency. The model includes three main dynamical modes, accelerated, decelerated and null state. We will show the description of the mathematical modeling used to simulate the system. The simulation was developed under an event driven strategy and implemented in Matlab. Regarding to the numerical analysis, we built a bifurcation diagram where the parameter under variation is the cycle of traffic lights. As a principal result, we evidence the effects of the cycle of traffic lights in the dynamical behavior of the system. Keywords: dynamical systems; vehicular traffic; bifurcations; chaos.

Modelo para la dinámica de un vehículo a través de una secuencia de semáforos Resumen En este trabajo se presenta una visión general y simulación de un modelo de tráfico vehicular, éste describe la dinámica de un solo vehículo que se desplaza a través de una secuencia de semáforos que se enciende y se apaga con una frecuencia específica. El modelo incluye tres modos dinámicos: acelerado, desacelerado y nulo. Además se muestra la descripción del modelo matemático utilizado para simular el sistema. La simulación se desarrolló bajo un esquema basado en eventos e implementado en Matlab. En cuanto al análisis numérico, se construyó un diagrama de bifurcación variando el ciclo del semáforo. Como principal resultado se evidencian los efectos del ciclo del semáforo en el comportamiento dinámico del sistema. Palabras clave: sistema dinámico; tráfico vehicular; bifurcaciones; caos.

1. Introducción De cada seis seres humanos que habitan en el planeta, tres viven en ciudades y dos de ellos pertenecen a países en desarrollo, la población urbana total se estima en 3.100 millones (1.000 millones en 1960 y 2000 en 1985), según estimaciones de las Naciones Unidas la tasa de crecimiento de la población urbana total es de 1.9 por ciento anual. El continuo crecimiento de las ciudades, origina demandas crecientes sobre la infraestructura social que permitan atender las necesidades comunes. La disponibilidad de una adecuada infraestructura de transporte urbano, que permita movilizar a personas y bienes de modo digno, económico y rápido se integra en el grupo de necesidades básicas. Este problema de movilidad es compartido por casi todas las ciudades del mundo, dado que la creciente motorización y extensión del

uso de automóvil privado genera dificultades en la movilización en las ciudades, así como costos sociales en el campo ambiental y de accidentalidad, por ejemplo a nivel mundial se estima que hacia el 2015 las zonas urbanizadas causarán el 80 por ciento de la emisiones de CO2 [2]. Movilizarse en algunas ciudades no es tarea fácil, debido a que la oferta de la infraestructura no cubre las necesidades de la gran demanda hacia dicha oferta, esa desigualdad produce los efectos que están padeciendo hoy en día las ciudades. Las consecuencias más graves de la congestión vehicular son la reducción de la movilidad, el aumento del consumo de energía y de la contaminación, además de la pérdida de tiempo. Las principales causas de esta congestión son la falta de sincronización de los vehículos y la frecuencia de cambio de los semáforos [1]. Uno de los causantes de que el tráfico no esté totalmente

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (184), pp. 138-145. April, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Pozo-Antonio et al / DYNA 81 (186), pp. 138-145. August, 2014.

sincronizado, es el sistema de semaforización, por lo tanto es importante plantear estrategias basadas en la configuración de los semáforos, que permitan optimizar el tiempo de desplazamiento en la ciudad. La población y el parque automotor en las ciudades de Colombia está en constante crecimiento y por esta razón, manejar en casi cualquier ciudad se ha convertido en un problema de grandes dimensiones. Se puede afirmar que la infraestructura vial de una ciudad debe ser directamente proporcional al tamaño de su parque automotriz, pero debido a las dificultades económicas en Colombia esto no siempre se cumple. Cuando un área urbana contiene una gran densidad vehicular, disminuye las condiciones favorables de vida en general de sus ciudadanos. En una ciudad con problemáticas en movilidad, se aumentará el nivel de estrés de los conductores y de los peatones, además del incremento en los índices de contaminación; por ejemplo si una avenida sin intersecciones mueve x carros en un lapso de tiempo, la contaminación en promedio será proporcional a x, pero si sobre dicha avenida se construye una intersección con semáforos, por la cual cruzan igualmente x vehículos en el mismo tiempo, la contaminación en la zona no será proporcional a 2x, sino mucho mayor, ya que detener los autos en los semáforos, implica mayor consumo de combustible, cada vez que un vehículo se detiene y se pone en marcha de nuevo. Por lo anterior, antes de considerar los semáforos como una solución a la movilidad, se debe también tener en cuenta que una inadecuada ubicación y/o configuración podrían acrecentar la problemática en discusión [1]. Existen diversos estudios realizados en modelación de tráfico vehicular, algunos estudios se mencionan a continuación: En la referencia [3], Toledo construye un modelo en el cual se considera un solo vehículo moviéndose a través de una secuencia de semáforos de dos tiempos, con un período específico, la contribución más relevante de este trabajo, es que la dinámica no trivial depende de la aceleración finita y de la capacidad de frenado de los vehículos para un conjunto de parámetros. En un trabajo posterior, Toledo plantea en [4] estrategias de control, basadas en la sincronización de los semáforos, las cuales permitieron mejorar el flujo vehicular, además en este trabajo se estudió la resonancia en términos del tiempo de viaje, la velocidad y el consumo de combustible. Un resultado importante del modelo de Toledo aplicando las estrategias de control es que el comportamiento cercano a la resonancia no depende de la aceleración finita y la capacidad de frenado del vehículo. Además en este modelo determinista, se demostró que la resonancia era un comportamiento universal independiente de la geometría del sistema para el caso de la estrategia de la ola verde. En el 2009, Varas investigo si el comportamiento universal cercano a la resonancia persiste, cuando varios carros interactúan sobre una misma vía. Para conocer el comportamiento de esta dinámica, hicieron uso de un modelo autómata celular [6]. En la referencia [7], una nueva exploración, se hace al comportamiento caótico y no trivial del modelo propuesto por Toledo, y se muestra que el comportamiento no trivial surge incluso en la región no caótica debido a la existencia de trayectorias periódicas que tienen múltiple periodo, esta

dinámica microscópica no puede ser observada en un modelo autómata celular tradicional. Para realizar el análisis del comportamiento caótico y de la dinámica no trivial, encontraron la región caótica, la cual se define como la región del diagrama de bifurcación donde se puede estimar un exponente de Lyapunov positivo; para caracterizar la región del modelo propuesto en Toledo, encontraron los límites de la región, en la cual ocurre el comportamiento caótico y la dinámica no trivial, calculando numéricamente los exponentes de Lyapunov. Bajo esta metodología concluyeron que cuando se incrementa la capacidad de frenado, la región caótica aumenta, y cuando se incrementa la capacidad de frenado tres veces o más que la capacidad de aceleración se obtiene caos. Espinosa en la referencia [8] desarrollo un controlador de tráfico difuso, que dispone de un algoritmo de visión artificial, el cual contabiliza el número de automóviles presentes en imágenes, captadas por cámaras que están ubicadas estratégicamente y en respuesta, proporciona la secuencia de acciones que optimizan el flujo vehicular, haciendo que opere de manera autónoma, centralizada y eficiente. Cabe destacar, que en la aplicación del algoritmo, obtuvieron una disminución del 20 por ciento en los tiempos de retraso para cada vehículo, además de demostrar su rápida adaptabilidad y eficiencia a los cambios propios del tráfico vehicular. Dadas las condiciones actuales de la problemática global, nace la necesidad de realizar estudios teóricos que brinden fundamentos científicos a las posibles estrategias implementadas por las entidades gubernamentales para el mejoramiento de la movilidad en las ciudades. Entonces, este documento propone modelar el comportamiento de un vehículo con base en el modelo de Toledo [3], y realizar un análisis cualitativo de la dinámica de este vehículo cuando viaja a través de una secuencia de semáforos, y de esta manera determinar la influencia de la configuración de los semáforos en la dinámica del vehículo. Este documento se encuentra organizado de la siguiente manera, en la sección dos se encuentra la descripción del modelo matemático y el esquema de simulación utilizado, en la sección tres se muestran algunos resultados obtenidos bajo el esquema de simulación planteado y finalmente las conclusiones. 2. Modelado y Simulación Para realizar este artículo y comprender el comportamiento complejo de interacción entre varios vehículos, es necesario conocer la dinámica de un solo vehículo. Por este motivo se hace uso del modelo microscópico unidimensional de tráfico vehicular de Toledo [3]. Este modelo ideal se basa en el comportamiento cinemático de un solo vehículo que viaja a través de una secuencia de n semáforos, los cuales presentan dos estados (rojo y verde) y están separados entre sí una distancia Ln. El modelo unidimensional de Toledo [3], supone que un automóvil viaja a través de una secuencia de semáforos, como se observa en la Fig. 1, presentando los siguientes comportamientos: Aceleración positiva a+ hasta alcanzar la velocidad de crucero o velocidad máxima vmax .

139


Pozo-Antonio et al / DYNA 81 (186), pp. 138-145. August, 2014.

Bajo las condiciones anteriores y por (1), el mĂłvil se desplaza sobre una trayectoria recta estando sometido a una aceleraciĂłn constante o desaceleraciĂłn constante. Luego, haciendo uso de las ecuaciones del movimiento rectilĂ­neo uniformemente acelerado (MRUA), se tiene: Figura 1. Secuencia de semĂĄforos Fuente: Los autores

• Velocidad constante vmax , cuando la aceleración es

cero. • DesaceleraciĂłn −a− hasta detenerse. • Ampliando la descripciĂłn presentada por Toledo [3], se consideran dos estados mĂĄs, como sigue: • Detenido en el semĂĄforo, cuando ĂŠste se encuentre en rojo. • DesaceleraciĂłn −a− sin detenerse y acelerar de nuevo.

v

đ?‘šđ?‘š =

0, si �� < 0 1, si �� ≼ 0

−đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š đ??żđ??żâˆ’đ?‘‘đ?‘‘đ?‘&#x;đ?‘&#x;

=

(1)

(3)

đ?‘‘đ?‘‘đ?‘ đ?‘

AdemĂĄs la ecuaciĂłn de dicha recta es: (4)

đ?‘Łđ?‘Ł = đ?‘šđ?‘š(đ?‘‘đ?‘‘ − đ??żđ??ż)

que si

AdemĂĄs se considera que el n-ĂŠsimo semĂĄforo se encontrarĂĄ en verde, si la funciĂłn sen(ωnt+ φn) > 0, y en rojo si sen(ωnt+φn) ≤ 0, donde ωn y φn son la frecuencia de cambio y el desfase del n-ĂŠsimo semĂĄforo respectivamente. Estos parĂĄmetros controlan el flujo vehicular. Cuando el vehĂ­culo se aproxime al n-ĂŠsimo semĂĄforo con velocidad v, el conductor debe tomar la decisiĂłn de frenar o no, dependiendo de la seĂąal del semĂĄforo siguiente. Haciendo uso de la Fig. 2, se define la distancia de seguridad como ds = L − dr, la cual garantiza que cuando el conductor frena el auto llegue al semĂĄforo con velocidad cero, donde L es la distancia entre dos semĂĄforos consecutivos y dr es la distancia recorrida que lleva el vehĂ­culo hasta que decide frenar.

đ?‘Łđ?‘Ł 2 đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š 2đ?‘Žđ?‘Ž+

+

đ?‘Łđ?‘Ł 2 đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š 2đ?‘Žđ?‘Žâˆ’

< đ??żđ??ż entonces el auto alcanza la

velocidad mĂĄxima o crucero antes del punto de seguridad (dr, vmax). AdemĂĄs, con el propĂłsito de que el semĂĄforo no conmute tan rĂĄpido debe cumplirse que el perĂ­odo o ciclo del semĂĄforo satisfaga la desigualdad: 2đ?œ‹đ?œ‹ đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š > max ďż˝ , ďż˝ đ?œ”đ?œ”đ?‘›đ?‘› đ?‘Žđ?‘Ž+ đ?‘Žđ?‘Žâˆ’

(5)

2.1. Normalización del modelo Con base en los trabajos de Toledo [3] y Villalobos [7], el primer propósito es comprender el comportamiento de un vehículo cuando se considera que todos los semåforos presentan distancias fijas, y tienen la misma frecuencia de cambio con un desfase nulo; es decir, Ln = L, ωn = ω, ϕ = 0 respectivamente. Tabla 1. Variables normalizadas Velocidad Distancia Tiempo

Figura 2. Comportamiento del vehĂ­culo entre dos semĂĄforos Fuente: Los autores

−đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š

Donde v y d son la velocidad y la distancia del automĂłvil respectivamente. Haciendo uso de las ecuaciones del MRUA se cumple

Donde θ(v) es la funciĂłn de Heaviside, la cual impide que la velocidad del mĂłvil sea superior a la mĂĄxima e inferior a cero. đ?œƒđ?œƒ(đ?‘Łđ?‘Ł) = ďż˝

(2)

2đ?‘Žđ?‘Žâˆ’

ObsĂŠrvese el punto (dr,vmax), en la Fig. 2, que significa, que el vehĂ­culo lleva una velocidad mĂĄxima vmax cuando ĂŠste alcanza la posiciĂłn dr, este punto serĂĄ llamado punto de seguridad. AdemĂĄs el punto (L, 0) indica que el vehĂ­culo tiene una velocidad nula cuando se encuentra junto al semĂĄforo, el cual estĂĄ ubicado en la posiciĂłn L. Haciendo uso de estos puntos se calcula la pendiente de la recta que pasa por ellos, es decir,

Es de notar que max , a+ y a− son positivas y que se utilizan a+ y a− para denotar los estados de aceleraciĂłn y desaceleraciĂłn respectivamente, teniendo en cuenta que pueden presentar diferentes valores; es decir, a+ ≠a−. Bajo estas condiciones, la dinĂĄmica para el automĂłvil se representa por las siguientes ecuaciones: đ?‘Žđ?‘Ž+ đ?œƒđ?œƒ(đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š − đ?‘Łđ?‘Ł), si acelera đ?‘‘đ?‘‘đ?‘‘đ?‘‘ = ďż˝âˆ’đ?‘Žđ?‘Žâˆ’ đ?œƒđ?œƒ(đ?‘Łđ?‘Ł), si desacelera đ?‘‘đ?‘‘đ?‘‘đ?‘‘ 0, si đ?‘Łđ?‘Ł = 0 Ăł đ?‘Łđ?‘Ł = đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š

đ?‘Łđ?‘Ł 2 đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š

đ?‘‘đ?‘‘đ?‘ đ?‘ =

Tiempo crucero Fuente: Los autores 140

�� =

đ?‘Łđ?‘Ł đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š

đ?‘Śđ?‘Ś =

đ?œ?đ?œ? =

đ?‘‡đ?‘‡đ?‘?đ?‘? =

đ?‘‘đ?‘‘ đ??żđ??ż

đ?‘Ąđ?‘Ą đ?‘‡đ?‘‡đ?‘?đ?‘?

đ??żđ??ż đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š


Pozo-Antonio et al / DYNA 81 (186), pp. 138-145. August, 2014.

Para alcanzar dicho propĂłsito, es necesario realizar la normalizaciĂłn del modelo de la secciĂłn anterior, con el fin de facilitar los cĂĄlculos. Para encontrar una versiĂłn normalizada del modelo presentado en (1), se definen las variables normalizadas de la siguiente manera: haciendo uso de las nuevas variables presentadas en la Tabla (1) se obtiene el modelo normalizado que se muestra en (6). đ??´đ??´+đ?œƒđ?œƒ(1 − đ?‘˘đ?‘˘), si acelera đ?‘‘đ?‘‘đ?‘‘đ?‘‘ = ďż˝âˆ’đ??´đ??´âˆ’đ?œƒđ?œƒ(đ?‘˘đ?‘˘), si desacelera đ?‘‘đ?‘‘đ?‘‘đ?‘‘ 0, si đ?‘˘đ?‘˘ nula o mĂĄxima đ?‘Žđ?‘Ž+ đ??żđ??ż

đ?‘Łđ?‘Ł 2 đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š

, đ??´đ??´âˆ’ =

đ?‘Žđ?‘Žâˆ’ đ??żđ??ż

(7)

đ?‘Łđ?‘Ł 2 đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š

Usando las desigualdades de la secciĂłn anterior, se tiene que: đ?‘Łđ?‘Ł 2 đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š

Si

2đ?‘Žđ?‘Ž+

đ??żđ??ż

+

đ?‘Łđ?‘Ł 2 đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š

entonces

2đ?‘Žđ?‘Žâˆ’

đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š ďż˝

đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š đ?‘Žđ?‘Ž+

donde

2đ?œ‹đ?œ‹

đ?œ”đ?œ”đ?‘›đ?‘› đ?‘‡đ?‘‡đ?‘?đ?‘?

2đ?‘Žđ?‘Žâˆ’

,

đ?‘Žđ?‘Žâˆ’

đ?‘Žđ?‘Ž+

> đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š ďż˝

1

1

đ??´đ??´+

ďż˝,

đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š

= ,

< đ??żđ??ż, donde

đ??żđ??ż

+

đ??´đ??´+ đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š

1

đ??´đ??´+ đ??´đ??´âˆ’

ďż˝.

1

đ??´đ??´+

đ?‘Łđ?‘Ł 2 đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š

< 2.

đ?‘Śđ?‘Ś

2đ?‘Žđ?‘Ž+

đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š đ?‘Žđ?‘Žâˆ’

=

đ??żđ??ż

2đ?‘Žđ?‘Ž+

AdemĂĄs

=

đ??żđ??ż

đ??´đ??´âˆ’ đ?‘Łđ?‘Łđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š

,

đ?‘Śđ?‘Ś

si

(8)

La constante A se encontrarĂĄ en tĂŠrminos de la aceleraciĂłn, como lo indica (7), la cual cambiarĂĄ dependiendo en quĂŠ estado se encuentre el vehĂ­culo. Haciendo uso del sistema (8), se tiene que cada estado dinĂĄmico puede expresarse de la siguiente manera. 2.2.1. Estado acelerado

(6)

Donde θ(u) es la funciĂłn de Heaviside y đ??´đ??´+ =

đ?‘Ľđ?‘ĽĚ‡ = đ?‘Ľđ?‘Ľ2 ďż˝ 1 đ?‘Ľđ?‘ĽĚ‡ 2 = đ??´đ??´

đ?‘Łđ?‘Ł 2 đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š 2đ?‘Žđ?‘Žâˆ’

2đ?œ‹đ?œ‹

đ?œ”đ?œ”đ?‘›đ?‘›

=

>

Este estado se da cuando el conductor aumenta su velocidad de forma constante; es decir, el automĂłvil tiene una aceleraciĂłn constante y positiva hasta que alcanza la velocidad mĂĄxima permitida sobre la vĂ­a. De esta manera el sistema queda como sigue: đ?‘Ľđ?‘ĽĚ‡1 = đ?‘Ľđ?‘Ľ2 đ?‘Ľđ?‘ĽĚ‡ 2 = đ??´đ??´+đ?œƒđ?œƒ(1 − đ?‘Ľđ?‘Ľ2 )

ďż˝

2.2.2. Estado nulo

Este modo se puede presentar en dos situaciones; la primera, cuando el vehĂ­culo alcanza la velocidad mĂĄxima permitida en la vĂ­a. Por esta razĂłn se debe mantener en esta velocidad; es decir, que su aceleraciĂłn es nula. Luego el sistema de ecuaciones queda determinado asĂ­:

entonces ďż˝

Por lo tanto, al cumplirse las desigualdades anteriores se tiene que el automĂłvil alcanzarĂĄ la velocidad mĂĄxima đ?‘˘đ?‘˘ = 1 antes del punto de seguridad y los semĂĄforos no conmutarĂĄn rĂĄpido. AdemĂĄs, se considera que el n-ĂŠsimo semĂĄforo cumple las siguientes condiciones: Se encontrarĂĄ en verde, si la funciĂłn đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ (đ?‘‡đ?‘‡đ?‘ đ?‘ đ?‘ đ?‘ đ?œ?đ?œ? + đ?œ‘đ?œ‘) > 0. Se encontrarĂĄ en rojo, si đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ (đ?‘‡đ?‘‡đ?‘ đ?‘ đ?‘ đ?‘ đ?œ?đ?œ? + đ?œ‘đ?œ‘) ≤ 0.Donde đ?‘‡đ?‘‡đ?‘ đ?‘ đ?‘ đ?‘ = đ?œ”đ?œ”đ?‘›đ?‘› đ?‘‡đ?‘‡đ?‘?đ?‘? , es el ciclo normalizado del n-ĂŠsimo semĂĄforo y đ?œ”đ?œ”đ?‘›đ?‘› = 2đ?œ‹đ?œ‹đ?‘‡đ?‘‡đ?‘›đ?‘› , siendo đ?‘‡đ?‘‡đ?‘›đ?‘› el ciclo del n-ĂŠsimo semĂĄforo. Es importante, resaltar la importancia de la ecuaciĂłn: đ?‘‡đ?‘‡đ?‘›đ?‘› = 2đ?œ‹đ?œ‹ đ??żđ??żďż˝đ?‘‡đ?‘‡ đ?‘Łđ?‘Ł la cual permitirĂĄ obtener el ciclo del n-ĂŠsimo đ?‘ đ?‘ đ?‘ đ?‘ đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š semĂĄforo en unidades de tiempo. 2.2. DescripciĂłn de cada estado del vehĂ­culo

Como se ha visto en (6), en el modelo se presentan tres situaciones, las cuales dependen de la aceleración; es decir, estado acelerado, estado nulo con velocidad nula ó velocidad måxima y estado desacelerado. Para realizar una descripción adecuada de cada evento o estado, partiendo de (6), se realiza un cambio de variable, representando el sistema en variables de estado ��1 = �� ��2 = �� donde y y u son la posición y la velocidad normalizadas del vehículo respectivamente en un tiempo τ. De esta manera se define el siguiente sistema, que va a cambiar dependiendo de quÊ condiciones se cumplan.

(9)

��̇1 = 1 ��̇ 2 = 0

(10)

El segundo caso es cuando el vehĂ­culo se encuentra en reposo en la posiciĂłn de un semĂĄforo, esperando a que ĂŠste cambie a verde. Bajo estas condiciones se tiene que la representaciĂłn en el espacio de estados estĂĄ dado por: ďż˝

��̇1 = 0 ��̇ 2 = 0

(11)

2.2.3. Estado desacelerado Cuando la evoluciĂłn del sistema estĂŠ en modo desacelerado, es porque el vehĂ­culo se ve forzado a disminuir su velocidad de forma constante, debido a que el semĂĄforo se encuentra en rojo. Es decir, el vehĂ­culo presenta una aceleraciĂłn negativa. Luego las ecuaciones asociadas a este estado son: ďż˝

đ?‘Ľđ?‘ĽĚ‡ 1 = đ?‘Ľđ?‘Ľ2 đ?‘Ľđ?‘ĽĚ‡ 2 = −đ??´đ??´âˆ’đ?œƒđ?œƒ(1 − đ?‘Ľđ?‘Ľ2 )

(12)

2.3. Esquema numĂŠrico Las principales estrategias para integraciĂłn numĂŠrica de soluciones de sistemas con las caracterĂ­sticas anteriores son los esquemas basados en eventos [5] y los de paso de tiempo fijo. El primero se basa en una formulaciĂłn hĂ­brida, mientras que el segundo se inspira en la soluciĂłn de problemas con

141


Pozo-Antonio et al / DYNA 81 (186), pp. 138-145. August, 2014. Tabla 3. Variables y parĂĄmetros

ω=

Desfase Distancia entre semĂĄforos

Ď•n = 0 L = 200m

Velocidad mĂĄxima

vmax =

AceleraciĂłn positiva AceleraciĂłn negativa

Figura 3. Diagrama de transiciĂłn de estados Fuente: Los autores

Tabla 2. Estados Estado inicial

Estado nulo

Si So : cuando la velocidad es cero. So : cuando la velocidad es mĂĄxima.

Estado acelerado

S+

Estado desacelerado

S−

CondiciĂłn no valida

Non valid

Fuente: Los autores

variables complementarias. Para el esquema basado en eventos, bajo el cual se realiza la integraciĂłn numĂŠrica para este caso de estudio, se tienen tres estados dinĂĄmicos principales. A continuaciĂłn se muestra la descripciĂłn del algoritmo y las condiciones necesarias que se tienen en cuenta para simular el sistema. En la Fig. 3 se muestra una descripciĂłn del diagrama de transiciĂłn de estados DTE. Donde cada estado se denota como en la Tabla 2. AdemĂĄs se expresan las condiciones de cambio como đ??śđ??śđ?‘˜đ?‘˜đ?‘˜đ?‘˜ , donde k y j representan las transiciones entre estados, las cuales se encuentran usando (4) y Fig. (3).

14m s 2m a+ = 2 s 6m a− = 2 s

De la ecuaciĂłn (7) y usando los valores de la Tabla (3) se tiene que đ??´đ??´+ = 100ďż˝49 đ?‘Śđ?‘Ś đ??´đ??´âˆ’ = 300ďż˝49. En la Fig. 4 se tiene como parĂĄmetro de bifurcaciĂłn el ciclo normalizado đ?‘‡đ?‘‡đ?‘ đ?‘ del semĂĄforo el cual se grafica a lo largo del eje horizontal y, en el eje vertical, se muestra la posiciĂłn del automĂłvil en los diferentes ciclos del semĂĄforo. En este diagrama se observan diferentes fenĂłmenos, que indican la riqueza dinĂĄmica del sistema; tales como fractalidad, perĂ­odos mĂşltiples, doblamientos de perĂ­odo, caos, entre otros. En la Fig. 4, cuando Ts toma valores entre 0.7 y 1 se observan unas lĂ­neas que se van acumulando a medida que Ts se acerca al valor de uno, y se observan mĂşltiples perĂ­odos. Luego, cuando Ts va incrementĂĄndose presenta un doblamiento de perĂ­odo hacia el caos, donde este comportamiento caĂłtico es truncado y aparece nuevamente una Ăłrbita de perĂ­odo dos y finalmente una Ăłrbita de perĂ­odo uno. La Fig. 5 se obtuvieron cuando el ciclo normalizado es Ts = 1.4 y usando Ts = 2Ď€ Lďż˝Tv se obtiene el ciclo de max los semĂĄforos el cual es T ≈ 64,11seg, el cual indica que el semĂĄforo se encontrarĂĄ 32,05seg en verde y 32,05seg en rojo. En la parte a) de la Fig. 5 se encuentra el retrato de fase de la velocidad normalizada vs la posiciĂłn normalizada del automĂłvil, cuando el ciclo del semĂĄforo es Ts = 1.4. La interpretaciĂłn de este retrato se debe hacer en contra de las manecillas del reloj, donde la velocidad del vehĂ­culo se grafica a lo largo del eje horizontal y, la posiciĂłn, en el eje vertical. La Fig. 5 b) muestra la evoluciĂłn en el tiempo de las variables de estado donde la velocidad normalizada se representa con la lĂ­nea continua gruesa, la posiciĂłn normalizada con la lĂ­nea discontinua y la seĂąal del semĂĄforo con la lĂ­nea continua delgada, ademĂĄs los cĂ­rculos indican la posiciĂłn del vehĂ­culo en el instante que el semĂĄforo cambia de verde a rojo.

3. Resultados

En esta sección se mostrarån una serie de simulaciones numÊricas del modelo normalizado (6), suponiendo que todos los semåforos tienen la misma frecuencia de cambio, es decir ωn = ω, de esta manera todos los semåforos tienen el mismo ciclo normalizado, es decir, Tsn = Ts . Con el propósito de describir y entender la dinåmica de un vehículo cuando Ts , ciclo normalizado del semåforo, va variando y los demås paråmetros son fijos. Estos valores fueron tomados de fuentes secundarias [9] y son mostrados en la siguiente tabla.

2Ď€ TS

Frecuencia de cambio

Figura 4. Diagrama de bifurcaciĂłn Fuente: Los autores

142


Pozo-Antonio et al / DYNA 81 (186), pp. 138-145. August, 2014.

Figura 5. đ?‘‡đ?‘‡đ?‘ đ?‘ = 1.4 Fuente: Los autores

Comparando el diagrama de bifurcaciĂłn de la Fig. 4 con la Fig. 5, se tiene que cuando Ts = 1.4 se observa una Ăłrbita de perĂ­odo uno. En la Fig. 5 parte b), con ayuda del cĂ­rculo, se visualiza la posiciĂłn normalizada del vehĂ­culo en el instante que el semĂĄforo conmuta. Importante destacar, que la posiciĂłn siempre es la misma en cada semĂĄforo. En el retrato de fase se observa un ciclo lĂ­mite, donde la trayectoria se cierra en el trayecto de viaje de un semĂĄforo a otro. Al ubicarse en la condiciĂłn X0 = (0, 0) en el retrato de fase Fig. 5 parte a) se tiene que el vehĂ­culo se encuentra justo en el semĂĄforo con velocidad normalizada x2 = 0 y posiciĂłn normalizada x1 = 0. Luego, la posiciĂłn se va incremento a medida que la velocidad alcanza su valor mĂĄximo x2 = 1. Un comportamiento similar se presenta en la Fig. 5 parte b), el vehĂ­culo se encuentra con velocidad x2 = 0 y posiciĂłn x1 = 0. En el instante en que el semĂĄforo pasa a verde, el auto inicia su recorrido. A medida que el tiempo se va incrementando, la velocidad y la posiciĂłn lo hacen tambiĂŠn, hasta alcanzar el valor mĂĄximo de la velocidad. Esta variable de estado permanece en este valor mĂĄximo durante determinado tiempo mientras la posiciĂłn va aumentando; este Ăşltimo comportamiento se observa en el segmento de recta vertical del retrato de fase debido a que

la coordenada en el eje horizontal permanece fija en x2 = 1. Continuando con el recorrido en la Fig. 5 parte a) la velocidad empieza a disminuir mientras que la posiciĂłn se aproxima a su valor mĂĄximo x1 = 1. Esto indica que el vehĂ­culo se estĂĄ acercando al semĂĄforo siguiente, pero la velocidad decrece rĂĄpidamente a cero lo cual muestra que ha llegado al semĂĄforo y se encuentra en rojo. En el esquema de evoluciĂłn temporal se aprecia un comportamiento similar debido a que el vehĂ­culo disminuye su velocidad ya que la funciĂłn đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ (đ?‘‡đ?‘‡đ?‘ đ?‘ đ?œ?đ?œ? + đ?œ‘đ?œ‘) < 0. Pero el auto se ve forzado a detenerse porque el semĂĄforo permanece en rojo y por esa razĂłn la posiciĂłn decrece rĂĄpidamente del valor mĂĄximo al valor mĂ­nimo indicando que el auto se encuentra en un nuevo semĂĄforo. Lo anterior confirma la existencia de la Ăłrbita periĂłdica para el parĂĄmetro de bifurcaciĂłn en đ?‘‡đ?‘‡đ?‘ đ?‘ = 1.4. AdemĂĄs, se aprecia, en el retrato de fase, que la trayectoria se cierra en un solo perĂ­odo como lo ilustra la Fig. 5 parte b). De manera similar que al caso anterior se harĂĄ una comparaciĂłn entre el diagrama de bifurcaciĂłn de la Fig. 4 y la Fig. 6. En la Fig. 4, cuando el ciclo del semĂĄforo toma el valor de Ts = 1.2, se tiene que el ciclo de todos los semĂĄforos es de T ≈ 74,798 seg, para este valor del parĂĄmetro se observa una Ăłrbita de perĂ­odo dos. En la Fig. 6, los cĂ­rculos muestran la posiciĂłn del vehĂ­culo en el instante en que el semĂĄforo cambia de verde a rojo, y ĂŠsta coincide cada dos semĂĄforos, lo cual es una evidencia de la existencia de la Ăłrbita de perĂ­odo dos. AdemĂĄs se aprecia que el vehĂ­culo inicia su recorrido hasta alcanzar la velocidad mĂĄxima permitida como lo ilustra la lĂ­nea continua gruesa, permanece en ese estado durante un tiempo, despuĂŠs se ve forzado a disminuir la velocidad debido a que el semĂĄforo estĂĄ en rojo, y el automĂłvil estĂĄ prĂłximo al semĂĄforo dado que la lĂ­nea discontinua, que es la posiciĂłn, se estĂĄ aproximando a su valor mĂĄximo. Pero este comportamiento es interrumpido debido a que el semĂĄforo conmuta y por esa razĂłn el conductor acelera de nuevo hasta alcanzar la velocidad mĂĄxima. Un comportamiento similar ocurre al acercarse al siguiente semĂĄforo pero aquĂ­ sĂ­ se ve forzado a detenerse, dado que el vehĂ­culo alcanzĂł el semĂĄforo y ĂŠste continuaba en rojo.

Figura 6. EvoluciĂłn en el tiempo para đ?‘‡đ?‘‡đ?‘ đ?‘ = 1.2 Fuente: Los autores

143


Pozo-Antonio et al / DYNA 81 (186), pp. 138-145. August, 2014.

Figura 7. EvoluciĂłn en el tiempo para đ?‘‡đ?‘‡đ?‘ đ?‘ = 0.95 Fuente: Los autores

Figura 10. Cantidad de paradas del vehĂ­culo variando Ts Fuente: Los autores

Figura 8. EvoluciĂłn en el tiempo para đ?‘‡đ?‘‡đ?‘ đ?‘ = 0.981 Fuente: Los autores

Al observar las Fig. 7 y Fig. 8, se aprecia el incremento del perĂ­odo a medida que el ciclo normalizado del semĂĄforo Ts se aproxima a uno. Y se observa que entre mĂĄs cercano sea Ts a uno el vehĂ­culo logra pasar mĂĄs semĂĄforos en verde con su velocidad mĂĄxima, permitiendo que el tiempo de viaje a travĂŠs de la secuencia de semĂĄforos sea menor.

Figura 9. EvoluciĂłn en el tiempo para đ?‘‡đ?‘‡đ?‘ đ?‘ = 1.0 Fuente: Los autores

En la Fig. 9, cuando Ts = 1.0, se observa que casi todo el tiempo el vehĂ­culo mantiene su velocidad mĂĄxima y logra cruzar todos los semĂĄforos en verde, este comportamiento es conocido como ola verde. La pregunta que surge ahora es: ÂżPara quĂŠ valores del ciclo del semĂĄforo đ?‘‡đ?‘‡đ?‘ đ?‘ el vehĂ­culo se detiene el menor nĂşmero de veces en las intersecciones?. En la Fig. 10 se grafica a lo largo del eje horizontal el ciclo normalizado del semĂĄforo y en el eje vertical se muestra el nĂşmero de paradas del automĂłvil durante todo el recorrido; esta grĂĄfica permite dar respuesta a la pregunta anterior. Por ejemplo, el rectĂĄngulo indica que cuando el ciclo normalizado del semĂĄforo es Ts = 1.17, el vehĂ­culo se detiene ocho veces durante el recorrido a travĂŠs de la vĂ­a. AdemĂĄs al observar el cĂ­rculo en el punto (1,0), se evidencia que el vehĂ­culo no se detuvo durante el recorrido, confirmando asĂ­, el resultado que se obtuvo en la Fig. 9. 4. Conclusiones Se ha presentado un esquema de modelado y simulaciĂłn para un sistema de trĂĄfico. Para simular este sistema es necesario conocer las ecuaciones que describen su flujo en cada estado y las condiciones en las fronteras de transiciĂłn entre los estados dinĂĄmicos. Con esta informaciĂłn y los diagramas de bifurcaciĂłn, es posible simular un amplio rango de fenĂłmenos que este tipo de sistemas exhiben. Ejemplo de ello son los comportamientos periĂłdicos, bifurcaciones suaves y no suaves e incluso caos que se reflejan en el diagrama de bifurcaciĂłn. Desde el punto de vista de la teorĂ­a de bifurcaciones, los resultados presentados en este documento son una herramienta Ăştil para mejorar el modelo, de manera que, en trabajos futuros se desarrollen estrategias de control con el propĂłsito de alcanzar dinĂĄmicas especĂ­ficas como la ola verde. Se eligiĂł un marco adecuado para modelar y simular el sistema. En donde, el ciclo del semĂĄforo es un parĂĄmetro importante como se evidencia en el diagrama de bifurcaciĂłn. Por lo anterior, cuando el ciclo del semĂĄforo es

144


Pozo-Antonio et al / DYNA 81 (186), pp. 138-145. August, 2014.

próximo a uno, la ola verde aparece, de esta manera el tiempo de viaje es menor, dado que logra recorrer toda la secuencia de semáforos en verde. De esta manera es posible implementar estrategias de optimización basadas en el ciclo del semáforo. Los beneficios para el sistema de tráfico vehicular que se discutieron en este documento, inicialmente, son la reducción en el tiempo de viaje debido a la configuración de los semáforos, bajo la condición de un ciclo de semáforo que minimice el número de paradas en un trayecto y, en investigaciones futuras, estudiar los efectos de posibles combinaciones entre los valores de los parámetros que definen el sistema. Referencias [1]

Jaramillo, D., Simulación y control de tráfico vehicular por semaforización, Tesis de Grado, Universidad Pontificia Bolivariana, Medellín, Colombia, 2005.

[2]

Lupano, R.J., Políticas de movilidad urbana e infraestructura urbana de transporte, Publicación de las Naciones Unidas, 2009.

[3]

Toledo, B.A., Muñoz V., Rogan, J., Tenreiro, C. and Valdivia, J.A, Modeling traffic through a sequence of traffic lights, Physical Review, 70 (1), 2004.

[4]

Toledo, B.A., Cerda E., Rogan, J., Muñoz, V., Tenreiro, R., Zarama, and Valdivia. J., Universal and nonuniversal features in a model of city traffic, Physical Review 75 (2), 2007.

[5]

Valencia, J. and Osorio, G., Nonlinear numerical analysis of a camfollower impacting system, Circuits and Systems (LASCAS), IEEE Second Latin American Symposium, 2011, pp.1-4.

[6]

Varas, A., Cornejo, M., Toledo, B., Muñoz, V. Rogan, J., Zarama, R. and Valdivia, J., Resonance, criticality, and emergence in city traffic investigated in cellular automaton models: Physical Review, 80 (5) 2009.

[7]

Villalobos, J., Toledo, B, Pastén, D., Muñoz, V., Rogan, J., Zarama, R., Lammoglia N. and Valdivia, J., Characterization of the nontrivial and chaotic behavior that occurs in a simple city traffic model: American Institute Physics 2010.

[8]

Espinosa, F.A., Gordillo, C.A., Jiménez, R. y Aviles O.F, Machine vision algorithms applied to dynamic traffic light control, DYNA 80 (178), pp. 132-140, 2013.

[9]

Villalobos, J., Chaos in transit systems, Tesis de Doctorado Departamento de Ingeniería Industrial, Universidad de los Andes, Bogotá, Colombia, 2010.

M.J. Mesa-Mazo, recibió el título de Matemática por la Universidad del Cauca en 2007. A partir de enero de 2007 se convirtió en estudiante de Maestría en Biomatemáticas en la Universidad del Quindío, desarrollo un proyecto de investigación sobre Efectos de la difusión de un contaminante en la dinámica y la dispersión poblacionales en un medio acuático: Modelado y aproximación. Desde 2008 se vinculó a la Universidad del Quindío, donde actualmente trabaja como profesora ocasional de tiempo completo. Actualmente se desempeña como estudiante de doctorado en la Universidad Nacional de Colombia, vinculada al grupo de investigación - Percepción y Control Inteligente PCI, bajo la dirección del Doctor Gerard Olivar Tost, desarrollando temas de investigación relacionados con sistemas de tráfico vehicular. Su experiencia en investigación la ha llevado a involucrarse en temas relacionados con el análisis dinámico y métodos numéricos, con especial atención en el modelado, simulación y experimentación. J. Valencia-Calvo, en Marzo de 2010 recibió su grado en Ing. Electrónica. Desde Agosto de 2009 se encuentra vinculado al grupo de investigación Percepción y Control Inteligente PCI, de la Universidad Nacional de Colombia. A partir de enero de 2010, se convirtió en estudiante Maestría en Automatización Industrial en la misma universidad y desarrollo un proyecto de investigación sobre la bifurcación por impacto con esquina en el sistema leva seguidor. Actualmente se desempeña como estudiante de doctorado en la Universidad Nacional de Colombia, parte del grupo de trabajo académico "Sistemas e Informática", bajo la dirección del Doctor Carlos Jaime Franco y el Doctor Gerard Olivar Tost, desarrollando temas de investigación relacionados con mercados eléctricos. Su experiencia en investigación lo ha llevado a involucrarse en temas relacionados con el análisis dinámico, dinámica no lineal y la dinámica de sistemas, con especial atención en el modelado, simulación y aplicaciones de la matemática en ingeniería. ORCID: 0000-0003-1821-2039 G. Olivar, recibió el título de Matemático por la Universitat de Barcelona, España en 1987 y de Doctor en Ciencias – Matemáticas por la Universitat Politécnica de Catalunya, Barcelona, España; en 1997 (Cum Laude). Desde 1987 hasta 2005 estuvo adscrito al Departamento de Matemática Aplicada IV en la Universitat Politécnica de Catalunya, donde se desempeñó como Profesor Titular. Desde 2005 se vinculó a la Universidad Nacional de Colombia, donde actualmente trabaja como Profesor Titular. Sus temas de interés se encuentran en la Ingeniería Matemática y la Matemática Aplicada. Concretamente, en las aplicaciones a la ciencia y la ingeniería del modelado y la simulación, la dinámica no lineal y los sistemas complejos. Desde 2011 ostenta la Presidencia de la Sección Colombiana de la SIAM (Society for Industrial and Applied Mathematics). ORCID: 0000-0003-1862-4842

145


Alternative methods to attach components in printed circuit boards to improve their recyclability André Canal-Marques a, Maria Rita Ortega-Vega b, José-María Cabrera c & Célia de Fraga-Malfatti d a

Departamento de Metalurgia (DEMET)/PPGE3M, Universidade Federal do Rio Grande do Sul, Brazil, andrecm@unisinos.br Departamento de Metalurgia (DEMET)/PPGE3M, Universidade Federal do Rio Grande do Sul, Brazil, ortega.vega@ufrgs.br c Universitat Politécnica de Catalunya, ETSEIB, Barcelona, Spain – Fundació CTM Centre Tecnológic, Materials Forming Area, Manresa, Spain, jose.maria.cabrera@upc.edu d Departamento de Metalurgia (DEMET)/PPGE3M, Universidade Federal do Rio Grande do Sul, Brazil, celia.malfatti@ufrgs.br b

Received: September 3th, de 2013. Received in revised form: March 19th, 2014. Accepted: July 22th, 2014

Abstract Printed circuit boards (PCB), which form the basis of the electronics industry, generate wastes that are difficult to dispose of and recycle due to the diversity of their materials and components and their difficult separation. The replacement of Pb-Sn welding for lead-free alloys to attach components in printed circuit boards is an attempt to minimize the problem of Pb toxicity, but it does not change the problem of separation of the components for later reuse and/or recycling. This article presents a review of the environmental problem of printed circuit boards, the initial development of alternative fixation studies, and reliability tests for comparison with conventional boards and commercial systems to validate or serve as a basis for future research, focused on PCB disassembly for recycling. At present, initial studies were performed by using prototypes for visual and functional tests. Keywords: Printed circuit boards, Welding replacement, Environmental problem, Recyclability.

Métodos alternativos de fijación de componentes de circuitos impresos para mejorar su reciclabilidad Resumen Las Placas de Circuitos Impresos constituyen la base de la industria electrónica. Sin embargo, generan residuos de difícil eliminación y reciclaje, debido a la diversidad de materiales y componentes presentes y su difícil separación. La sustitución de soldaduras de Pb-Sn por aleaciones libres de plomo intenta minimizar la toxicidad que implica la presencia de Pb, pero no aborda la separación de los componentes para su posterior reutilización y/o reciclaje. Este artículo presenta una revisión bibliográfica sobre el problema ambiental que constituyen las placas de circuitos impresos, el estudio de alternativas de fijación, pruebas de fiabilidad para comparar con las placas convencionales y sistemas comerciales para validar o servir de base para futuras investigaciones, enfocadas hacia el desmontaje de PCI. Además, se muestran algunos estudios incipientes mediante prototipos para la realización de pruebas visuales y funcionales. Palabras clave: Placas de circuitos impresos, Reemplazo de soldadura, Problema ambiental, Reciclabilidad

1. Introduction Currently, there are a large number of products that generate waste and significantly increase the volume of dumps and landfills due to innovation by the electronic industry. Much of the waste generated constitutes technological waste, whose recycling is being studied by several authors, due to its social and environmental relevance. Among these wastes, one of the most important are printed circuit boards (PCBs), which are the base of the electronic industry. PCBs constitute a kind of waste with difficult disposal

because their recycling is complex and expensive. The diversity of materials and components present in them make their separation difficult. Separation of electronic components and reusing of these materials require the removal of the solder, which is a complex process. Also and for the majority of cases, such components are unusable after that process due to the temperatures involved. The PCBs construction process is currently migrating from traditional eutectic Pb-Sn alloy to different lead-free alloys. This replacement attempts to alleviate the problem

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 146-152. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Canal-Marques et al / DYNA 81 (186), pp. 146-152. August, 2014.

Figure 1. A) Remainders of acid-treated circuit boards and processing waste along the Lianjiang River, China. B) Recovery of gold from PCB wastes using acid baths. Source: Ban [10].

of Pb-Sn solder alloy, considered toxic, but does not change the component separation problem for reuse and/or recycling. Therefore, alternatives to the removal and disposal of these materials without harming the environment become a new challenge. The discarded PCBs have attracted public and researchers attention [1-9], since among their components there are toxic materials such as heavy metals and brominated flame retardants (BFRs), causing enormous damage to the environment if they are not properly treated (Fig. 1). In general, PCB waste components can be divided into metallic (MFs) and non-metallic fractions (NMF) [11]. NMF typical composition comprises thermosetting resins (epoxy), glass fiber, plastics, reinforcement materials, additives and other BFR, and constitute about 70wt-% of the PCB wastes. Thermosetting resins cannot be recast or remodeled because of their molecular structure and not recyclable [11]. The proportion of waste printed circuit boards WPCBs in electronics waste is approximately 3% [12,13]. Several authors [1, 14-21], argue that WPCBs plastics contain BFR, including polybrominated biphenyls (PBBs) and polybrominated diphenyl ethers (PBDEs). Their combustion generates highly toxic gases, called polybrominated dibenzodioxins and dibenzofurans, and dioxins and furans (PCDF/Fs) and glass fiber significantly reduces fuel efficiency. Traditionally, these nonmetallic materials are landfilled or incinerated resulting in wasted resources and aggravating the environmental problem [5, 22-26]. The metal fraction is comprised of ~16% of copper, ~4% of tin-lead, ~3% of iron, ~2% of nickel, ~0.05% of silver, ~0.03% of gold, ~0.01% palladium [14,17, 27-30] and even rare elements such as tantalum, covered or mixed with various plastics and ceramics [31]. Li [32] states that the purity of the precious metals in PCBs is 10 times higher than minerals rich in these elements. Cui and Zhang [33] argue that the main economic objective for e-waste recycling is the recovery of precious metals. It is usually difficult and often confusing to quantify the environmental consequences associated with materials, processes and products. The difficulties are, for example, the determination of the environmental effects associated with the objects of the comparison, the almost impossible task of comparing different environmental effects and the amount of data needed to compare related products. Sometimes, the necessary data are also scarce or inaccessible, and then it is difficult to define the environmental load analysis. Furthermore, the electronic industry is extremely large and 147

varied, characterized by long supply chains, and in the same way, indirect environmental impacts associated to their products [34]. There is a strong pressure from European companies not to accept most electronic products with a tin-lead solder printed circuit board, due to its toxicity. This type of welding is used, because of its easy installation and use, but, since European laws became highly restrictive for this type of material, it is important to study other types of welding, which are less aggressive to the environment [35]. Jie [36] argues that there is a growing environmental awareness around the world. Therefore, an economically viable environmental management system for the electroelectronic equipment end of life cycle is necessary. It is very important for sustainable development, as the effective cost and efficient environmental methods are needed to manage these wastes [29-30, 37-40]. According to Andrae [34] and other authors [41-43], a number of methods and tools related to environmental assessment, such as life cycle assessment (LCA) and carbon footprint, were proposed in order to indicate which alternative is better compared to others. Schematically, the life cycle of a product consists of four stages: material extraction and processing, manufacture, usage and end of life. Griese et al. [44] argues that studies confirmed that lead is the material with the greatest potential to be removed and had to be banned to prevent uncontrolled releases; also, Pb-free alloys reduce the potential environmental impact of electronics. This requires a complete LCA and detailed study of the environmental performance of new materials substituents. Some authors [45-48] realized that there is no simple replacement for traditional welding. They indicate that the introduction of lead-free solders reduces toxicity and potential risks in the electric-electronic waste removal. But lead-free solders are less efficient in terms of resource and energy consumption. Compared with traditional Sn-Pb solder, Pb-free materials manufacturing doubles the cost in industries, increases energy use and promotes the loss of valuable resources. In fact, Turbini et al. [49] recommend increasing the conventional Pbbased electronics recycling, instead of introducing leadfree solder. The main reason is to recycle copper in order to reduce the environmental problems associated with its primary production and mineral extraction. Several studies are underway to reduce or completely eliminate welding in printed circuit board manufacture. These alternatives provide initial solutions to the problem, by reducing the use of soldering or replacing the welding by another fastener such as a resin. However, they do not solve the problem of separation. The ways in which electronic components are fixed in PCBs still lacks adequate solutions. Therefore, fixing mechanisms used on a printed circuit board are considered an open research topic. Thus, this work reconsiders the alternatives for fixing the components on printed circuit boards, through studying the supports used in printed circuit boards, the


Canal-Marques et al / DYNA 81 (186), pp. 146-152. August, 2014.

existing types, properties and processes, seeking to explore alternatives to traditional fixing (welding) in a printed circuit board. Prototypes are made by mounting a board from established concepts and making comparative tests of reliability, compared to conventionally fixed boards for validation and providing a basis for future research. The aim is to develop new alternatives and designs to improve the fastening through alternative systems that facilitate assembly, disassembly and maintenance of various components of the product during the separation process, prior to recycling. Until now, there have been some initial studies using prototypes for testing, including visual and functional testing. 2. Materials and methods 2.1. Study of two boards: Materials analysis The present analysis was performed for two printed circuit boards regarding the percentage of each material, in order to evaluate the recycling viability. This study was conducted with the cooperation of a PCBs manufacturing company, located in the town of Valls (Tarragona-Barcelona) in Spain, which provided the boards and the initial data (Fig. 2). 2.2. Fixing of components by pressure This work has applied for a patent with the INPI (National Institute of Industrial Property of Brazil), with the name Production Process of Printed Circuit Boards and the Resulting Product on 07/03/2013, number (BR 10 2013 005511 5). The purpose of this study was to develop new methods for attaching electronic components on a printed circuit board, through alternative processes, and by selecting appropriate materials for these processes, aiming to sustainability. Six initial conceptual designs were analyzed. The criteria for the analysis were: mechanical fixing, electronic connection ability, electrical conductivity, ease of assembly/disassembly, and low amount of material used. In the present study, the component junctions were made by pressure. Boards were fabricated to test the technical feasibility, analyzing its initial run. The traditional process of manufacturing was maintained

Figure 2. PCB used. Source: The authors.

with the addition of new steps after the traditional ones, where a series of procedures was carried out to make a board with fillets and holes adequate for mounting the electronic circuit. In this method of attachment, the board is made of two parts, one with the printed circuit, which is pierced, and whose elements are fixed by pressing on the other board; this does not require welding. The contacts are made internally so that circuit designs are not visible. The elements junction is performed by the two boards placed one on the other, pressing the device and connections, and other items on the sides to further secure the assembly. For this set a simple circuit was designed (Fig. 3) to be applied onto the board and the components to be fixed, in order to test the proposal regarding the electrical resistance at each point of the fixed contact elements, and therefore test the initial conceptual model feasibility. Virtual and physical prototypes were performed. The next step was a functional prototype building. For this prototype, a two-faced positive photosensitive board was used, with dimensions of 100x160mm, made with fiberglass epoxy resin (FR4), fire resistant insulation and covered with a conductive copper thin film on both sides. A circuit with components for SMD (Surface Mount Device) and Through-hole were designed to test the two types that are currently used. 10 resistances (5 SMD and 5 Through-hole), 10 Through-hole LEDs, 10 “chips� (5 SMD and 5 Through-hole) and a battery connected to the system to verify operation were used. After the traditional steps to create a PCB were carried out, a series of procedures was performed leading to a track with the same size of the board and the suitable holes for mounting an electronic circuit. In order to compare the proposed system with the welding-fixed systems, three prototypes were fabricated using the same method: The first prototype, with junctions of tin-lead (60Sn-40Pb), the second one, leadfree welded (99.3 Sn-0.7Ag), and the third, with the previously described junction method.

Figure 3. Schematic layout of the PCB. Source: The authors. 148


Canal-Marques et al / DYNA 81 (186), pp. 146-152. August, 2014.

2.3. Tests performed At this stage, prototypes were submitted to reliability, visual and operating tests. 2.3.1. Visual test

Figure 6. PCB prototype with union method developed. Source: Author.

Visual analysis was performed as the first characterization of prototypes. A visual inspection of the board can help to identify and troubleshoot contacts. 2.3.2. Performance test The performance test consists of checking the correct operation of the board, determining the integrity of all electrical connections and checking all LED points, in order to identify some damaged points and components within the circuit in real working conditions. 2.3.3. Pending tests The following tests will be carried out in the continuation of this work: Test of corrosion and humidity electric endurance test and thermal-mechanical fatigue. 3. Results and analysis 3.1. Study of two boards: Materials analysis The percentage of each material in these two printed circuit projects was calculated from data provided by the company. In Table 1, the composition of the materials with greater presence

B - 238.37g

A – 383.70g

Table 1. Comparison of PCBs regarding materials. Materials Board Polyamide 6 Copper alloy PA6 GF10+GB20 PBT+PET+ASA GF30 Magnetic iron Steel alloy Soldering paste “lead free” L F318 Total analyzed Polymers Metals Composites Ceramics Total analyzed E/P-I-GF20+MD10 Semi-components PCB-Prepreg “adhesive” Copper alloy PBT C2600 Brass Soldering paste MP100 SN62 Total analyzed Polymers Metals Composites Ceramics Total analyzed Source: The authors.

Weight (g) Total percentage 144.05 37.54% 37.15 7.23% 25.96 6.77% 13.86 3.61% 10.82 2.82% 5.63 1.47% 4.80 1.25% 328.49g 85.61 % 219.07 57.09% 61.71 16.20% 46.07 11.89% 1.82 0.47% 328.49g 85.61 % 52.00 21.81% 38.50 16.15% 21.00 8.81% 19.92 8.36% 13.35 5.60% 6.30 2.64% 2.5 1.049% 184.02 77.2% 49.49 26.89% 80.27 43.62% 53.79 29.23% 0.46 0.25% 184.02g 77.2%

149

in the printed circuit board and a comparison between the two boards studied, in relation to the percentage of the materials, are shown. There is a high weight percentage of polymeric materials. Polyamide 6 is the material for the base of board. Also, there is the presence of solder paste LF318 (Sn98.5/Ag1/Cu0.5) representing 1.25% of the total weight of the printed circuit board. The main component of the solder, Sn, is a metal component considered moderately toxic. In the second board there is a high weight percentage of composite materials over other materials; the reinforced glass fiber is the base material for the PCB From Table 1, it can be seen that there is a great difference in the amount of material used for the two boards. Each board consists of a specific design for a particular use, so its components change considerably. This indicates how difficult the identification and separation of the materials can be, as well as the complexity of PCB recycling. 3.2. Fixing The physical and virtual prototypes of the first tests are shown in Fig.s 4, 5 and 6. The main objective of these prototypes is to test the electrical resistance at each contact point between the fixed elements and, therefore, to test the feasibility of the initial concept.

Figure 4. Assembly components with folding rods through-hole components. Source: Author.

Figure 5. PCB simulation on 3D software and assembly of the prototype. Source: The authors.


Canal-Marques et al / DYNA 81 (186), pp. 146-152. August, 2014.

Figure 7. PCB with the proposed circuit using SMD and Through-Hole. Source: The authors.

From the first prototype, a new circuit design with LEDs was used to test the performance of the attachment system. Fig. 6 shows the virtual prototype and Fig. 7, the physical prototype. This circuit design is more functional, simpler and with higher quality. In Fig. 8 the three prototypes appear in their respective order, in order to compare different procedures and finishing of the boards. The third prototype has the characteristic of not using welding for component junctions, and hence facilitates disassembly and reuse of components; this binding is nonpermanent.

Figure 9. Images of copper lines and connections made with pressure. Source: The authors.

3.3.2. Performance test In this test, we examined the operation of the system through the operation check on all connection points with the illumination of the "LEDs", shown in Fig. 10. Note that the LEDs were lighted due to the pressure maintained in the system. The identification of this problem will help to improve other prototypes.

Figure 10. PCB operation. Source: The authors. Figure 8. PCBs prototypes with lead-tin solder and other lead-free. Source: The authors.

3.3.3. Pending tests

3.3. Tests results 3.3.1. Visual test In this test copper lines and connections between the track and the components were visually checked, seeking out possible errors. The result showed that the defects were not detected visually in the system (Fig. 9). 150

Prototypes will be developed with better quality and with variations for comparison. The tests will be conducted in the ITT Fuse (Technological Institute for Testing and Functional Safety) of the UNISINOS (Universidade do Vale do Rio dos Sinos). Each prototype will perform an operation analysis, visual analysis, analysis of the electrical resistance and X-ray diffraction before and after the test. The tests to be performed will be of thermal cycles, salt spray, thermal shock and vibration.


Canal-Marques et al / DYNA 81 (186), pp. 146-152. August, 2014. document, Canada, EPS 2006.

4. Conclusion There is a recent interest in the research of new technologies for the recycling of printed circuit boards generated by the growth of the electronics industry, which constitute an environmental problem when they are disposed of, a subject which has been extensively studied. In addition, regulations and laws in Europe have become stricter regarding specifications of electronic components; therefore, it is necessary to conduct further studies on the effects of these rules and laws in other countries. Given the difficulty of recycling electronic wastes, studies are focused on the development of techniques which facilitate the reuse of these products and/or their components. The methods of fixing and joining of components in the PCBs have become increasingly popular among researchers, with a significant increase in studies of lead-free solders. However, it is necessary to conduct studies related to alternatives to traditional processes that do not yet have the attention of researchers and companies, and to take into account the performance of the final product (LCA), through integrated approaches in terms of processes, materials and technologies. The idea of eliminating the use of welding is not new, but the methods previously proposed (for example, replacement with conductive adhesive) have not been accepted by the market, presumably due to operating difficulties or unreliability. Only a few works exist which propose alternatives to the traditional procedure. This initial study is essential to guide new research, generate alternatives and test them for specific applications. Currently, ways in which the electronic components are fixed to printed circuit boards still lack suitable alternatives to replace them. Therefore, an alternative fixing PCBs was proposed, and tested and compared with traditional forms. The first performance test showed positive results with regard to the operation of the circuit elements. The prototypes were hand-made and showed reasonable quality. Better quality is expected in later works, due to prior knowledge of the construction and operation of the first prototype. Acknowledgements The authors wish to acknowledge the financial support of CAPES (Brazilian Government Agency for Human Resources Development), CNPq (Brazilian National Council for Scientific and Technological Development) and the Euro Brazilian Windows II Project (EBW II). References [1].

Cui, J. and Forssberg, E., Mechanical recycling of waste electric and electronic equipment: A review. Journal of Hazardous Materials, 99, pp. 243–263, 2003.

[5].

Owens, C.V., Lambright, C., Bobseine, K., Ryan, B., Gray Jr., R. E., Gullett, B. K. and Wilson, V. S., Identification of estrogenic compounds emitted from the combustion of computer printed circuit boards in electronic waste. Environmental Science and Technology, 41, pp. 8506–8511, 2007.

[6].

Leung, A. O. W., Duzgoren-Aydin, N. S., Cheung, K. C. and Wong, M. H., Heavy metals concentrations of surface dust frome-waste recycling and its human health implications in Southeast China. Environmental Science and Technology, 42, pp. 2674–2680, 2008.

[7].

Vasile, C., Brebu, M.A., Totolin, M., Yanik, J. Karayildirim, T. and Darie, H., Feedstock recycling from the printed circuit boards of used computers. Energy Fuel, 22, pp. 1658–1665, 2008.

[8].

Sepúlveda, A., Schuluep, M., Renaud, F. G., Streicher, M., Kuehr, R., Hagelüken, C. and Gerecke, A. C., A review of the environmental fate and effects of hazardous substances released from electrical and electronic equipments during recycling: Examples from China and India. Environmental Impact Assessment Reviews, 30, pp. 28-41, 2010.

[9].

Zhou, Y. and Qiu, K., A new technology for recycling materials from waste printed circuit boards. Journal of Hazardous Materials, 175, pp. 823-828, 2010.

[10].

BAN, Exporting Harm: The High-Tech-Trashing of Asia, SVTC. Availaible: http://www.ban.org/ewaste/technotrashfinalcomp.pdf [Cited 15 May 2013].

[11].

Guo, J., Guo, J. and Xu, Z., Recycling of non-metallic fractions from waste printed circuit boards: A review, Journal of Hazardous Materials, 168 (2-3), pp. 567-590, 2009.

[12].

Bernardes, A., Bohlinger, I. and Rodriguez, D., Recycling of printed circuit boards by melting with oxidising/reducing top blowing process. In: B. Mishra (Ed.), Proceedings of Sessions and Symposia Sponsored by the Extraction and Processing Division, TMS Annual Meeting, Orlando, FL, USA, 1997, pp. 363–375.

[13].

Basdere, B. and Seliger, G., Disassembly factories for electrical and electronic products to recover resources in product and material cycles, Environmental Science and Technology, 37, pp. 5354–5362, 2003.

[14].

Richter, H., Lorenz, W. and Bahadir, M., Examination of organic and inorganic xenobiotics in equipped printed circuits, Chemosphere, 35, pp. 169–179, 1997.

[15].

Menad, N., Bjorkman, B. and Allain, E.G., Combustion of plastics contained in electric and electronic scrap, Resources, Conservation and Recycling, 24, pp. 65–85, 1998.

[16].

Riess, M., Ernst, T., Popp, R., Müller, B., Thoma, H., Vierle, O., Wolf, M. and Van Eldik, R., Analysis of flame retarded polymers and recycling materials, Chemosphere, 40, 937–941, 2000.

[17].

Vehlow, J., Bergfeldt, B., Jay, K., Hunsinger, H. and Mark, F.E., Thermal treatment of electrical and electronic waste plastics, Waste Management & Research. 18, 131–140, 2000.

[18].

Ebert, J. and Bahadir, M., Formation of PBDD/F from flameretarded plastic materials under thermal stress, Environmental International, 29, pp. 711–716, 2003.

[19].

Schlummer, M., Gruber, L., Mäurer, A., Wolz, G. and Van Eldik, R., Characterization of polymer fractions from waste electrical and electronic equipment (WEEE) and implications for waste management, Chemosphere, 67, 1866-1876, 2007.

[2].

AEA TECHNOLOGY: WEEE & Hazardous Waste, A report produced for DEFRA. Aea, 2004.

[3].

Wang, D., Cai, Z., Jiang, G., Leung, A., Wong, M. H. and Wong, W. K., Determination of polybrominated diphenyl ethers in soil and sediment from an electronic waste recycling facility. Chemosphere, 60, pp. 810–816, 2005.

[20].

[4].

EPS CANADA, Electronics Product Stewardship Canada: Environmentally Sound Recycling of Electronics. Guidance

Dimitrakakis, E., Janz, A., Bilitewski, B. and Gidarakos, E., Small WEEE: determining recyclables and hazardous substances in plastics, Journal of Hazardous Materials, 161, pp. 913–919, 2008.

[21].

Taurino, R., Pozzi, P. and Zanasi, T., Facile characterization of

151


Canal-Marques et al / DYNA 81 (186), pp. 146-152. August, 2014. polymer fractions from waste electrical and electronic equipment (WEEE) for mechanical recycling, Journal of Waste Management, 30, pp. 2601-2607, 2010. [22].

Rotter, S., Schwermetalle in Haushaltsabfällen (Heavy Metals in Household Waste), Doctoral Thesis, Edited by Forum für Abfallwirtschaft und Altlasten e.V.Pirna, Germany, 2002.

[23].

Jang, Y. C. and Townsend, T. G., Leaching of lead from computer printed wire boards and cathode ray tubes by municipal solid waste landfill leachates, Environmental Science and Technology, 37, pp. 4778–4784, 2003.

[24].

Hagelüken, C., Improving metal returns and eco-efficiency in electronics recycling – a holistic approach for interface optimization between preprocessing and integrated metals smelting and refining, In: Proceedings of IEEE International Symposium on Electronics and the Environment, San Francisco, USA, 2006, pp. 218–223.

[25].

[26].

Huang, Y., Takaoka, M., Takeda, N. and Oshita, K., Partial removal of PCDD/Fs, coplanar PCBs, and PCBs from municipal solid waste incineration fly ash by a column flotation process, Environmental Science and Technology, 41, pp. 257–262, 2007. Janz, A., Rotter, V. S. and Bilitewski, B., Transfer of heavy metals released by WEEE and batteries into the high caloric fraction during MBT-processes, In: Proceedings of First International Conference on Hazardous Waste Management, Chania, Greece, 2008, 5 P.

[40].

Eswaraiah, C., Kavitha, T., Vidyasagar, S. and Narayana, S., Classification of metals and plastics from printed circuit boards (PCB) using air classifier, Chemical Engineering and Processing: Process Intensification, 47, 565-576, 2008.

[41].

Botin, J. A., Integrating sustainability down to the operational levels of a mining company, DYNA, 77 (161), pp. 43-49, 2010. Seijo-García, M. A., Filgueira-Vizoso, A. y Muñoz-Camacho, E., Consecuencias positivas de la implantación de la certificación ISO 14001 en las empresas gallegas (España), DYNA 80 (177), pp. 13-21, 2013. Ortiz-Rodríguez, O. and García-Cáceres, R., Assessing sustainability within the construction industry by means of a composite indicator, DYNA, 80 (182), pp. 15-24, 2013.

[42].

[43]. [44].

Griese, H., Muller, J. and Reichl, H., Environmental assessment of lead free interconnection systems. Symposium on Lead Free Interconnect Technology, SMTA, Boston, MA, June 13-14. 2000.

[45].

Suganuma, K., Lead-free soldering in electronics: Science, technology and environmental impact. CRC Press. 2003.

[46].

Suganuma, K. and Kim, K. S., Sn–Zn low temperature solder, Lead-Free Electronic Solders, 18, 121–127, 2007.

[47].

Mihaescu, R. and Carstea, H., Ecological technologies for soldering without lead in electronic and telecommunications – today and tomorrow, Proc 26th Int Spring Seminar on Electron Technol: Integrated Managem of Electron Mater Prod, High Tatras, Slovak Republic, 2003, pp. 232-234.

[27].

Iji, M. and Yokoyama, S., Recycling of printed wiring boards with mounted electronic components, Circuit World, 23, pp. 10–15, 1997.

[28].

Ernst, T., Popp, R. and Van Eldik, R., Quantification of heavy metals for the recycling of waste plastics from electrotechnical applications, Talanta, 53, 347–357, 2000.

[48].

[29].

Veit, M. H., Pereira, C. D. C. and Bernardes, A. M., Using mechanical processing in recycling printed wiring boards, JOM, 54, pp. 45–47, 2002.

Deubzer, O., Explorative study into the sustainable use and substitution of soldering metals in electronics, PhD thesis, Delf University, Delft, the Netherlands. 2007.

[49].

[30].

Goosey, M. and Kellner, R., Recycling technologies for the treatment of end of life printed circuit boards (PCBs), Circuit World, 29, pp. 33–37, 2003.

Turbini, L., Munie, G., Bernier, D. et al., Examining the environmental impact of lead-free soldering alternatives, Electronics Packaging Manufacturing, IEEE Transactions on, 24, pp. 4-9. 2003.

[50].

IPC-A-600G – Acceptability of Printed Board, 2004.

[31].

Hoffmann, J. E., Recovering precious metals from electronic scrap, JOM,. 44, pp. 43–48, 1992.

[32].

Li, J., Shirivastava, P., Gao, Z. and Zhang, H., Printed circuit board recycling: a state of the-art survey, Electronics Packaging Manufacturing, IEEE Transactions on, 27, pp. 33–42, 2004.

[33].

Cui, J. and Zhang, L., Metallurgical recovery of metals from electronic waste: A review, Journal of Hazardous Materials, 158, pp. 228-256. 2008.

[34].

Andrae, A. S. G., Global life cycle impact assesments of material shifts: The example of a Lead-free electronics industry, Springer. Hardcover. 183 P., 2010.

[35].

Nogueira, C. L. A., Queiroz-Neto, J. P. and Manzato, L. O., Impacto do uso de solda lead-free no processo de tecnologia de montagem em superfície (SMT), II Congresso de Pesquisa e Inovação da Rede Norte Nordeste de Educação Tecnológica. João Pessoa – PB,Brasilm 2007.

[36].

Jie, G., Ying-Shum, L. and Mai-Xi, L., Product characterization of waste printed circuit board by pyrolysis, Journal of Analytical and Applied Pyrolysis, 83, pp. 185-189, 2008.

[37].

Zong, G., Jianzhi, L. and Hong, C. Z., Printed circuit board recycling: a state-of art survey. Proceedings IEEE International Symposium on Electronics and the Environment, pp. 234–241, 2002.

[38].

Kang, H. Y. and Schoenung, J. M., Electronic waste recycling: A review of U.S. infrastructure and technology options, Resources, Conservation and Recycling, 45, 368–400, 2005.

[39].

Sinha-Khetriwala, D., Kraeuchib, P. and Schwaninger, M. A., Comparison of electronic waste recycling in Switzerland and in India, Journal of Environmental Impact Assessment Reviews, 25, pp. 492– 504, 2005.

152

A. Canal-Marques, is Product Designer from the UNIJUÍ-RS. He is Specialist in Graphic Expression from PUC-RS. He earned MSc. in Materials Engineering from Universidade Federal do Rio Grande do Sul – UFRGS and studies Doctorate in Materials Engineering in the same University. He carried out part of his Doctorate study in Universitat Politècnica de Catalunya. Currently, he is professor in Design, Architecture and Materials Engineering in Universidade do Vale do Rio dos Sinos – UNISINOS, where he also coordinates the Material and Product Design course. He is advisor in the Waste Base Council of the FIERGS. M. R. Ortega-Vega, is Chemical Eng. by Universidad del Atlántico. She studies MSc. in Materials Science and Technology in Universidade Federal do Rio Grande do Sul – UFRGS. J. M. Cabrera, is currently a Full Professor in the Department of Materials Science and Metallurgical Engineering of the UPC, is responsible for the Materials Forming Area in Fundació CTM Centre Tecnológic, Manresa, Spain. He teaches subjects Technology of Materials, Materials Selection in Design, Physical Metallurgy and Nanomaterials and Nanotechnology at the Technical School of Industrial Engineering of Barcelona. C. de Fraga-Malfatti is currently professor and researcher of the Department of Metallurgy in Universidade Federal do Rio Grande do Sul – UFRGS. She received her Bs. In Metallurgical Engineering and MSc. in Materials Science and Technology from UFRGS. She earned Doctorate degree from UFRGS and Université Paul Sabatier, Toulouse III.


Occupational injuries in the mining sector (2000-2010). Comparison with the construction sector José Juan de Felipe-Blanch a, Modesto Freijo-Álvarez b, Pura Alfonso c, Lluís Sanmiquel-Pera d & Carla Vintró-Sánchez e Escuela Politécnica Superior de Ingeniería de Manresa, Universidad Politécnica de Cataluña (UPC), España. felipe@mmt.upc.edu Escuela Politécnica Superior de Ingeniería de Manresa, Universidad Politécnica de Cataluña (UPC), España. freijo@ee.upc.edu c Escuela Politécnica Superior de Ingeniería de Manresa, Universidad Politécnica de Cataluña (UPC), España. pura@emrn.upc.edu d Escuela Politécnica Superior de Ingeniería de Manresa, Universidad Politécnica de Cataluña (UPC), España. sanmi@emrn.upc.edu e Escuela Politécnica Superior de Ingeniería de Manresa, Universidad Politécnica de Cataluña (UPC), España. carla.vintro@upc.edu a

b

Received: September 4th, 2013. Received in revised form: May 14th, 2014. Accepted: June 5th, 2014

Abstract This paper compares the incidence of fatal and non-fatal occupational injuries of workers in the mining and construction sectors in Spain between 2000 and 2010. Data on work injuries were obtained from the Spanish Ministry of Labour and Immigration and the denominators were obtained from the available statistics on Social Security registration. We calculated the incidence of fatal and nonfatal occupational injuries, the relative risk (RR) and odds ratio (OR) for a 95% of confidence interval (CI) for the mining workers compared to the construction workers. The obtained results indicate that mining workers have a higher risk of occupational injuries and lost more working days than the construction workers. Keywords: mining: construction; work injuries; lost working days; fatal injuries

Las lesiones por accidente de trabajo en el sector de la minería (2000 – 2010). Comparación con el sector de la construcción

Resumen

El presente trabajo realiza una comparación entre la incidencia de las lesiones por accidentes laborales mortales y no mortales de los trabajadores del sector de la minería con los trabajadores de la construcción en España entre los años 2000 y 2010. Los datos de lesiones por accidentes de trabajo procedieron del Ministerio de Trabajo e Inmigración y los denominadores se obtuvieron de las estadísticas disponibles sobre afiliación a la Seguridad Social. Se calculó la incidencia de lesiones mortales y no mortales por accidente de trabajo, el riesgo relativo (RR) y la probabilidades relativas (OR) en el intervalo de confianza del 95% (IC 95%) para los trabajadores ambos sectores. Los resultados obtenidos indican que los trabajadores de la minería tienen un mayor riesgo de lesiones por accidentes laborales y de perder jornadas de trabajo respecto a los trabajadores de la construcción. Palabras clave: minería; construcción; lesiones laborales; jornadas perdidas; lesiones mortales

1. Introduction The construction sector has been one of the most dynamic in the Spanish economy between 2000 and 2007 and the most studied sector by its occupational accidents [1]. Thus, in 2004 around 106,500 new jobs were created, representing nearly a quarter (23%) of all jobs created in Spain. In this period of time it was common that the amount of buildings that were built in Spain annually exceeded the number of buildings that were built in the whole of Germany, France and the UK [2].

During the period 2000-2010, 2 million people worked in the construction industry, both in buildings and civil engineering works, and specialized construction activities. This amount represents about 10% of the total of the employed population and 7.3% of the gross domestic product [3]. At the same time, the Spanish construction sector had the highest number of accidents resulting in injury with a total of 213,531 cases with time off work [4], excluding in itinere accidents. About 98.9% of them were classified as minor injuries, and caused an equivalent loss of

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 153-158. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Felipe-Blancha et al / DYNA 81 (186), pp. 153-158. August, 2014.

4.5 million days, or of about 21 days per worker. Musculoskeletal disorders and physical symptoms are common to both activities [5, 6]. Serious injuries caused about 300,000 days of losses [7]. With regard to the mining sector (coal, crude oil, natural gas and non-energetic minerals), the number of employees in the period under consideration was about 60,000. The accidents with time off work were approximately 9,500, producing a loss of 250,000 days, resulting in about 26 days per accident. The incidence of occupational accidents in the Spanish mining sector has been declining throughout the period 2000-2010. However, it continues to have very high values, despite the adoption of several general laws [8,9], and other specific ones for the mining sector to ensure safer working conditions [10,11]. The work in the mining and construction sectors implies a greater risk of death compared to other industries; it is 9 and 3 times higher, respectively [12]. There are many studies on deterministic evaluation of mining and construction sector accidents [13-20] separately. The aim of this study is to evaluate the difference in the risk of fatal and nonfatal occupational injuries of the construction workers compared with workers of mining in Spain between 2000 and 2010. 2. Methods The assessment of this comparison was based on a study of fatal and nonfatal work injuries occurred in the mining and construction sectors in Spain between 2000 and 2010. Only those injuries in which the injured worker lost at least one day of work were considered. 102,817 non-fatal accidents in mining and 2,348,841 nonfatal in construction and 176 fatal accidents in mining and 2,739 fatalities in construction were found, not including those in itinere [21]. The analysis was performed both for the total work injuries occurred in the construction (National Economic Activity Classification, CNAE 45) and mining sectors. Subsectors of mining considered were: Extraction and agglomeration of anthracite, hard coal, and lignite (CNAE 10), extraction of crude petroleum and natural gas (CNAE 11), mining of uranium and thorium ores (CNAE 12), mining of metal ores (CNAE 13) and non-metallic mining and quarrying (CNAE 14). The average population per year was calculated as the arithmetic mean of the population at risk that the different surveys (LFS) provided for the years 2000-2010 for each year [22]. The incidence rate of fatal accidents per 100,000 workers, (FR), was calculated according to the formula used by Haile et al. (1) [23].

FR =

đ??šđ??šđ??šđ??š

đ??¸đ??¸đ??¸đ??¸đ??¸đ??¸

x 100.000

(1)

Where, FR is the incidence rate of fatal accidents per year in the period 2000-2010, FN, number of fatal accidents in the construction / mining during 2000-2010; ETC, total number of workers in the construction or mining sectors during 2000-2010. The incidence rate of non-fatal accidents per 1000

workers, (IR), was calculated according to the formula (2).

IR =

đ??źđ??źđ??źđ??ź

đ??źđ??źđ??źđ??źđ??źđ??ź

x 100.000

(2)

Where, IR is the incidence rate of non-fatal accidents per year in the period 2000-2010, IN, the number of non-fatal accidents in the sector under study, and ITC, the total number of workers in the construction or mining sectors during the period 2000-2010. To calculate the incidence of accidents, we used the number of employees in these economic activities according to the Surveys of Labour Force from 2000 to 2010 and fatal and nonfatal accidents occurred during these 11 years presented by the Spanish Ministry of Labour and Social Affairs [5]. We compared incidence rates of fatal and nonfatal injuries for mining workers respect that of construction workers to determine whether the presence of the risk factor is associated with a higher frequency of lesions (relative risk, RR). We have contrasted the number of days off work due to nonfatal injuries of mining workers respect to the construction workers. It has been estimated the risk of loss days of work (OR) as follows (3): đ?‘‚đ?‘‚đ?‘‚đ?‘‚ =

đ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇ đ?‘™đ?‘™đ?‘™đ?‘™đ?‘™đ?‘™đ?‘™đ?‘™ (đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š )/đ?‘€đ?‘€đ?‘€đ?‘€đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘› đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤

đ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇ đ?‘™đ?‘™đ?‘™đ?‘™đ?‘™đ?‘™đ?‘™đ?‘™ (đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘? )/đ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??śđ??ś đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤đ?‘¤

(3)

3. Results

Injuries in mining accidents were quantified by using the incidence rate of accidents of coal mining (CNAE10), petroleum (CNAE11) and non-energetic minerals (CNAE12, 13 and 14). Workers in the coal mines had the largest number of fatalities during 2000, 2007, 2008 and 2009, reaching in year 2000 a total of 17 accidents, having an incidence rate of 73.91 per 100,000 workers (Fig. 1). For all other years higher incidence rates were recorded for workers of the non-energetic mineral extraction, which in 2003 had the maximum of 20 fatal accidents with an incidence rate of 52.22. Oil extraction was the only activity in which for seven consecutive years there have been no fatalities and the highest incidence rate took place in 2006, with 2 deaths, which represented an index of 20.83, although this sector has accounted for 8 to 13% of the total workforce of the mining sector. These data suggest that there is a high degree of occupational safety in this activity (Fig. 1). Similarly, workers of the coal mining sub-sector, in comparison with the other branches of mining, had a higher rate of fatal injuries for occupational accidents during the 11 years analyzed, peaking in 2008 with 581 accidents. In the oil and non-energy minerals, injuries from accidents are significantly lower than in coal mining. If we compare the construction and mining sectors, the relative risk of occupational injuries, year by year, on average, it was higher in mining workers, as in the case of non-fatal injuries (1.66, 95% CI: 1.62 to 1.68) as for fatal injuries (2.39, 95% CI: 1.45 to 4), although there are differences in the analysis of the each year (Fig. 2).

154


Felipe-Blancha et al / DYNA 81 (186), pp. 146-151. August, 2014.

Figure 1. Comparison of the incidence rate of accidents at work in the different mining sectors: (A), fatal, (B), non-fatal. Source: The authors

Figure 2. Comparison of the incidence rate of accidents in the mining and construction sectors: (A), fatal, (B), non-fatal. Source: The authors

The risk of non-fatal injuries by occupational accident was higher for mining workers than for those of the construction sector. This risk was particularly high in 2000 and 2004. Moreover, in 2009, and relatively in 2010, the risk was significantly lower among mining workers. In reference to fatal injuries, every year relative risks occur in mining worker, this was the significant difference in 2000, 2003 and 2006, when these risks exceeded 2.50. Moreover, in the years 2008 and 2009 the risk of fatal injury was almost equal between the two groups of workers. It is noteworthy that in any year the risk of occupational injury among mining workers was lower than that for construction workers (Fig. 2). To detect if there are common or similar causes in the variation in the accidents rates in non-fatal injuries, these values in the construction and the mining sectors were compared. The evolution of both rates is almost linear, with a Pearson coefficient of 0.84; this suggests that the causes of the temporal evolution of them are similar. In the case of fatal accidents, despite the linearity of the evolution of both rates, these show a lower Pearson coefficient than in the case of non-fatal accidents (0.78), suggesting the existence of different causes that affect in the evolution of each indicator. We calculated the incidence rate of accidents of not worked days by occupational accident, as the number of not worked days for this reason, and the population at risk in the related sector. In comparing the days not worked as a result of injuries (Table 1) it can be appreciated that mining workers are

at greater risk of losing working days, (1.51, 95% CI: 1.50 to 1.52) almost double that than those in the construction sector, with the consequent economic costs [23-31]. Also we can see that there is a strong linearity between the evolutions of both indicators of workday loss (Table 1), which indicates common driving causes for both indicators. 4. Discussion This study has been possible solving the common problem in quantitative research of work injuries in the construction and mining sectors in Spain. It is difficult to obtain the number of workers covered by social security, with which to compare properly the number of injuries. This problem is not exclusive of Spain [32]. However, the study is limited, because minor accidents are not reported by the companies, as happens in other countries [33-35], and are not taken into account, so the incidence rates obtained in the present study are lower than the real ones. The employment in mines is similar to the construction sector; the maximum employment in mines took place in 2006 and in the construction sector in 2007. From these two years the occupation began to decrease in both sectors. In all the mining sub-sectors the fatal occupational injuries have a downward trend, although there is a long way to go to the total elimination of fatal accidents. In coal mining, the rates of fatal accidents are down over the course of the years; the rates of non-fatal accidents decrease rather slowly, from an index of 458 in 2000 to 445 in 2010.

155


Felipe-Blancha et al / DYNA 81 (186), pp. 153-158. August, 2014. Table 1. Comparison of lost days (Pearson coefficient = 0.86) for injuries between construction workers and mining workers in Spain, 2000-2010. CI: Confidence interval. CONSTRUCTION MINING Year Lost days Workers Lost days 2000 5,190,830 1,850,200 358,293 2001 5,541,976 1,913,200 392,993 2002 5,591,298 1,913,200 341,636 2003 5,364,382 1,984,500 319,601 2004 4,831,552 2,253,200 256,627 2005 5,289,392 2,357,200 235,812 2006 5,493,238 2,542,900 201,271 2007 5,800,105 2,697,300 210,109 2008 4,048,106 2,468,300 164,888 2009 3,262,380 1,911,500 141,053 2010 2,884,399 1,680,000 123,845 Arithmetic mean 4,373,348 2,142,864 249,648 a Lost days in mining/Mining workers/ Lost days in construction/Construction workers Source: The authors

Workers 63,400 63,300 63,300 63,200 59,600 60,300 66,500 50,100 51,900 43,400 41,200 56,927

ORa 2.01 2.07 1.85 1.87 2.01 1.74 1.40 1.95 1.94 1.90 1.74 1.51

95% CI 1.99 a 2.03 2.05 a 2.09 1.83 a 1.86 1.85 a 1.88 1.98 a 2.02 1.72 a 1.75 1.38 a 1.41 1.93 a 1.96 1.91 a 1.95 1.88 a 1.92 1.68 a 1.83 1.50 a 1.52

Table 2. Comparison of the incidence rate of accidents (per 100 000) of fatal injury accidents between workers in the construction and mining sectors in the U.S. and in Spain during 2010. USA SPAIN Deaths Workers Incidence rate Deaths Workers Incidence rate RR 95% CI Construction 751 5,645,000 13.3 134 1,680,000 8 1.66 1.39 – 2.00 Mining 172 694,000 24.8 7 41,.200 17 1.45 0.68 – 3.10 Source: The authors

The incidence rate of nonfatal accidents per 1,000 workers has been declining in the two sectors considered, through in construction from 129 in 2000 to 60 in 2010 and in the mining sector it decreased from 220 in 2000 to 105 in 2010. The relative risk (RR) of nonfatal injury for occupational accidents in the eleven years studied was higher in miners, decreasing slightly from year to year, from 1.88 (95% CI; 1.85 to 1.91) in 2000 to 1.71 (95% CI 1.66 to 1.76) in 2010. Labor legislation and preventive initiatives implemented in the two sectors for the prevention of accidents at work have largely contributed to the reduction of occupational injuries. However, further work is needed on measures to reduce temporary employment or of outsourcing business in Spain, which present higher values than in other European Union countries [36]. Also, the different events that occurred before the occupational injury should be analyzed [37]. Comparing the two sectors it can be appreciated that the relative risk of a fatality is always higher in the mining sector, being almost triple in 2000, with a relative risk of 2.90 (95% CI, 1.98 to 4.30), to nearly equal 1.07 (95% CI 0.34 to 3.35) in 2009. This may be due to the specific characteristics of jobs in the mines, which have worse environmental conditions (high temperatures, presence of gas and dust, high rock-fall hazard in underground mining) and the use of more dangerous machinery and work equipment. By comparison with the United States of America (Table 2) and analyzing the year 2010 from the queried data of the Bureau of Labor Statics [38], we find that in that year 751 fatal injuries occurred in the construction sector in the USA, respect to 172 in Mining. The employed population in those two sectors was 5,645,000 and 694,000 workers,

respectively. Comparing these data with those from Spain, we can appreciate that in this year the incidence rate of accidents with fatal injuries in the construction sector in Spain was lower than in USA, 8 and 13.3 respectively. Similarly, in mining the rate per 100,000 workers was 17 in Spain, compared to 24.8 in the U.S. The relative risk (RR) of a fatal injury in the USA in construction or mining is higher than in the same sectors in Spain (1.66 in the construction and 1.45 in mining). This suggests that during the Spanish economic crisis, temporary jobs have been reduced, leaving the better informed and trained workers. The days not worked due to injuries caused by non-fatal accidents have decreased in the two studied sectors throughout the study period. The ratio of days lost in mining per worker was twice the ratio of days lost in construction per worker, over the 11 years studied. This indicates that the non-fatal injury accidents in mines are more serious than in construction and workers need more days to recover. We also suggest that it is necessary to measure the degree of alcohol and drugs consumed by workers in the workplace as an effective method to reduce accidents, both in construction and in mining, keeping in mind that the reduction of drugs in the workplace has proven to be an effective preventive measure [39]. 5. Conclusions and recommendations The trend of fatal and non-fatal work accidents, both in mining and in construction has declined in Spain during the 11 years analyzed. The results of the present study confirm an increased risk of work injuries in mining workers with respect to those

156


Felipe-Blancha et al / DYNA 81 (186), pp. 153-158. August, 2014.

from construction. This risk may be higher than that observed if all injuries that occurred were registered. Within the mining sector, the incidence rate of fatal accidents in coal mining remains high, and constant, regarding the extraction of: oil, metal ores, non-metallic and non-energetic sub-sectors. The relative risk of a fatal or nonfatal injury in 2010 was higher for workers in the mining and construction in the United States of America than for Spanish workers in equivalent sectors. Workplace accidents, both in mining and in construction, need to continue being studied in greater detail and with quality data. These studies will make this important health problem visible to the public and, therefore, it will be the first step for prevention. Both mining and construction companies are required to assess the risks of occupational safety, but often these assessments are not accurate. Consequently, the causes of accidents are not really the same that commonly can be used in other productive sectors. It is imperative to analyze the real causes and get all the information to make a good assessment of risks. For a better understanding of the nature of the accidents in the analyzed sectors, management should adopt a statistical methodology of accidents nationwide, in each of the sub-sectors of mining and construction. Thus, the studies could be done for each subsector with its own peculiarities, to facilitate planning preventive measures for each [40]. References [1] Mariscal, M.A, Garcia S, Garcia, J. and Ritzel, D., The impact of occupational hazard information on employee health and safety: An analysis by professional sectors in spain. International Electronic Journal of Health Education, 15, pp. 83-98, 2012. [2] Ministerio de Educación. El sector de la construcción en España. Available: http:// www.educacion.gob.es /exterior/ro/es /materiales/ MODULO18.doc. [citado el 21 de octubre 2012].

[8] Ley de Prevención de Riesgos Laborales. L. Nº 31/1995 (8 noviembre 1995). [9] Real Decreto de las disposiciones mínimas de seguridad y salud en las obras de construcción. R.D. Nº 1627/1997 (14 de octubre de 1997). [10] Real Decreto del Reglamento General de Normas Básicas de Seguridad Minera. R.D. Nº 863/1985 (2 de abril de 1985). [11] Real Decreto de disposiciones mínimas destinadas a proteger la seguridad y la salud de los trabajadores en las actividades minera R.D. Nº 1389/1997 (5 de septiembre de 1997). [12] Sorock, G. S., Smith, E. and Goldofi, M., Fatal occupational injuries in the New Jersey construction industry, 1983 to 1989. Journal of Occupational Medicine, 35, pp.916-921, 1993. [13] Sari, M., Selcuk, A., Karpuz, C., Sebnem, H. and Duzgum, B., Stochastic modeling of accident risks associated with an underground coal mine in Turkey. Safety Science, 47, pp. 78-87, 2009. [14] Groves, W., Kecojevic, V. and Komljenovic, D., Analysis of fatalities and injuries involving mining equipment. Safety Research, 38, pp. 461-470, 2007. [15] Onder, S., Evaluation of occupational injuries with lost days among opencast coal mine workers through logistic regression models. Safety Science, 59, pp. 86-92, 2013. [16] Coleman, P. and Kerkering, J., Measuring mining safety with injury statistics: Lost workdays as indicators of risk. Safety Research, 38, pp. 523-533, 2007. [17] Lenné, M., Salmon, P., Liu, C. and Trotter, M., A systems approach to accident causation in mining: An application of the HFACS method. Accident, Analysis and Prevention, 48, pp. 111-117, 2012. [18] Komljenovic, D., Groves, W. and Kecojevic, V., Injuries in U.S. mining operations – A preliminary risk analysis. Safety Science, 46, pp. 792-801, 2008. [19] Marhavilas, P.K., Koulouriotis, D.E. and Spartalis, S.H., Harmonic analysis of occupational-accident time-series as a part of the quantified risk evaluation in worksites: Application on electric power industry and construction sector. Reliability Engineering & System Safety, 112, pp. 8-25, 2013. [20] Cameron, I., Hare, B. and Davies, R., Fatal and major construction accidents: A comparison between Scotland and the rest of Great Britain. Safety Science, 46 (4), pp. 692-708, 2008. [21] Ministerio de Trabajo e Inmigración. Accidentes en jornada de trabajo con baja, según gravedad, por sector y rama de actividad. Available: http://www.mtin.es/estadisticas/anuario2001/HTML /ATE /ate04.html. [Citado el 14 de diciembre 2011].

[3] Ministerio de Trabajo y Asuntos Sociales. Instituto Nacional de Seguridad e Higiene en el Trabajo. Obsevatorio de la construcción. 2002 Available: http:// www.insht.es/ Observatorio/Contenidos/EstudiosTecnicos/ Sector Constr / Informe% 20 construcci%C3%B3n%202002.pdf. [citado el 02 de noviembre de 2010].

[22] Instituto Nacional de Estadística. Encuesta de Población Activa. Available: http://www.ine.es/ daco/daco42/ daco4211/ epa0100.pdf. [Citado el 8 de marzo 2011].

[4] Benavides, F.G., Giráldez, M.T. and Castejon, E., Analysis of the mechanisms of minor occupational injuries in the construction industry in Spain. Gaceta Sanitaria, 17 (5), pp. 353-359, 2003.

[23] Haile, G., Hendricks, S. and Stanevich, R., Fatal occupational falls in the U.S. construction industry, 1980–1989. Accident Analysis & Prevention, 28, pp. 647-654. 1996.

[5] García, S., Mariscal, M.A., García, J. and Ritzel, D. Working conditions, psychological/physical symptoms and occupational accidents. Bayesian network models Safety Science, 50, pp. 17601774, 2012.

[24] López-Lasaola R. ¿Es rentable la Prevención?. Dyna Ingeniería e Industria, 83 (2), pp. 119-122, 2008.

[6] Sanmiquel, L.L., Vintró, C. and Freijo, M., Characteristics of the 3 most commo types of occupational accident in spanish sub-surface and surgace mining, from 2003-2008, DYNA, 79 (172), pp. 118-125, 2012. [7] Ministerio de Trabajo y Asuntos Sociales. Estadísticas de accidentes de trabajo. Available: http://www.mtas.es/ Estadisticas/EAT/Eat00/Index.htm. [Citado el 8 de setiembre de 2012].

[25] Bentley, T.A. and Haslam, R.A.. Identification of risk factors and countermeasures for slip, trip and fall accidents during the delivery of mail. Applied Ergonomics, 32 (2), pp. 127-134, 2001. [26] Kemmlert, K. and Lundholm, L., Slips, trips and falls in different work groups with reference to age and from a preventive perspective. Applied. Ergonomics, 32 (2), pp. 149-153. 2001. [27] Lehane, P., and Stubbs, D., The perceptions of managers and accident subjects in the service industries towards slip and trip accidents. Applied. Ergonomics, 32 (2), 119-186, 2001.

157


Felipe-Blancha et al / DYNA 81 (186), pp. 153-158. August, 2014. [28] Haslam, R.A., Hide, S.A., Gibb, A.G.F., Gyi, D.E., Pavitt, T., Atkinson, S. and Duff, R., Contributing factors in construction accidents. Applied. Ergonomics, 36 (4), pp. 401-415, 2005. [29] Bentley, S., Hide, D., Tappin, D., Moore, S., Legg, L., Ashby, L., Parker, R., Investigating risk factors for slips, trips and falls in New Zealand residential construction using incident-centred and incidentindependent techniques. Ergonomics, 49, pp. 62-77, 2006. [30] Gard, G. and Berggard, G., Assessment of anti-slip devices from healthy individuals in different ages walking on slippery surfaces. Applied Ergonomics, 37, pp. 177-186, 2006. [31] Bentley, T., The role of latent and active failures in workplace slips, trips and falls: an information processing approach. Applied Ergonomics, 40, pp. 175-180, 2009. [32] Ruser, J.W., Denominator choice in the calculation of workplace fatality rates. American Journal of Industrial Medicine, 33, pp. 151156, 1998. [33] Snashall, D., Occupational health in the construction industry. Scaninavian, Journal of Work, Environment & Health, 31, pp. 5-10, 2005. [34] Kines, P., Spangenberg, S. and Dyreborg, J., Prioritizing occupational injury prevention in the construction industry: injury severity or absence?. Jounal of Safety Research, 38, pp. 53-58, 2007. [35] Jorgensen, K., A systematic use of information from accidents as a basis of prevention activities. Safety Science, 46, pp. 164-175, 2008. [36] Massarelli, N. and Wozowczyk, M., European Union Labour Force Survey. Annual results 2009. [en línea]. Theme 3. Population and Social Conditions. 35/2010. Statistcs in focus. Eurostat [Bruxelles, Bélgica] Available: http://epp. Eurostat.ec.europa.eu/cache/ITY_OFFPUB/KS-QA-10-035/EN/KSQA-10-035-EN.PDF. [Citado el 23 de abril 2013] [37] Sanmiquel, L., Freijo, M. and Edo, J., Analysis of work related accidents in the Spanish mining sector from 1982-2006. Journal of Safety Research, 41, pp. 1-7, 2010. [38] Bureau of Labor Estatistics. Fatal occupational injuries by industry and selected event or exposure, 2011 (US); Available: http://www.bls.gov/news.release/cfoi.t02.htm. [Citado el 4 de setiembre de 2012]. [39] Wickizer, B., Do drug-free workplace programs prevent occupational injuries? Evidence from Washington State. Health Services Research, 39, pp. 91–110, 2004. [40] Pérez-Alonso, J., Carreño-Ortega, A., Vázquez-Czabrera, F.J. and Callejón-Ferre, A.J.. Accidents in the greenhouse-construction industry of SE Spain. Applied Ergonomics, 43, pp. 69-80, 2012.

Catalonia. Master of Educational Formation 1995. Ph.D. 2004, Simples models with indicators, Faculty of Engineering, University Polytechnic of Catalonia. Major fields of scientific and professional activities are operations research and dynamics systems in urban problems, with vision integrated different dimension of sustainability and expert in the field of energy applicable mining. He served as a key expert–reviewer for the FP6 INSURE (Contract no 505358). He published articles in several journals and participates in several projects. M. Freijo-Alvarez, holds a PhD from the Polytechnic University of Catalonia and a Superior technician Degree in Prevention of Labor Risks in the specialties of Security, Hygiene, Ergonomic and Psycho-Sociology. Has been a Senior Professor at the .Polytechnic University of Catalonia for the last 27 years. He as 9 years professional experience in the industry and has published a several articles on labour security in mining in Spanish magazines, apart from writing communications and attending and speaking at International Congresses of mining. P. Alfonso, she has a Ph.D. in Geology from the University of Barcelona. Her research in materials processing and ore deposits has been developed in several research centers, as the Institute of Geology and the Institute of Chemistry and Technology of Sofia (Bulgaria), the Scottish Research and Environmental Centre, Scotland, the “Consejo Superior de Investigaciones Científicas”, in Spain. Between 1987 and 1990 she worked for the International Organization for Migration (IOM) as advisor of the Nicaraguan Institute of Mining, INMINE, in issues related to physicomechanical tests and gold deposits. Since 2010 she is Associate Professor in the Department of Mining Engineering and Natural Resources Engineering School of Manresa, Polytechnic University of Catalonia. L. Sanmiquel-Pera. holds a PhD from the Polytechnic University of Catalonia (UPC) and a Master in Prevention of Labour Risks in the specialties of Security, Hygiene, Ergonomic and Psycho-Sociology for the Camilo José Cela University. Between 1990 and 2004 he was a mining Inspector for the Main directorate of Mines and Energy of Catalonia, (Spain). Since 1990, he is a professor of the department of Mining Engineering and Natural Resources of the Polytechnic University of Catalonia (UPC). He has collaborated in different training programs in subjects related to labor security for both underground and opencast quarries and exploitation plants. Carla Vintró-Sánchez, PhD, Associate professor in Business Management Department in the Escuela Politécnica Superior de Ingeniería de Manresa of Polytechnic University of Catalonia, Spain. She graduated in 2004, Mechanical Engineering, and in 2007, Industrial Management Engineering, Polytechnic University of Catalonia, Spain. She is Master in Prevention of Occupational Risks, 2008, and she completed her PhD in 2011, in Polytechnic University of Catalonia, Spain. Her research interests include management systems and sustainable mining. She has published in national and international journals.

J. J. de Felipe-Blanch, PhD, Full Associate professor in Heat Engine Department in the Escuela Politécnica Superior de Ingeniería de Manresa of University Polytechnic of Catalonia, Spain. He graduated 1991, Engineer Naval Machines, Faculty of Nautical, University Polytechnic of

158


Study of the effect of silver in the mechanical properties and electrical conductivity of duralumins (Al-4%Cu-0.5%Mg) Reinaldo Correa-Avendaño a, Héctor Darío Sánchez-Londoño b & Edwin García-Quintero c a

Department of Mechanical Engineering, Faculty of Engineering, University of Antioquia reinaldo2560@yahoo.es b Department of Materials Engineering, University of Antioquia, hsanchez@udea.edu.co c Department of Electrical Engineering, University of Antioquia, egarciaq@udea.edu.co Received: September 5th, de 2013. Received in revised form: April 10th, 2014. Accepted: May 28th, 2014

Abstract This study evaluated the effect of the silver content of Al-Cu based alloys on the microstructure, the tensile strength, the electrical resistance and the temperature increase with the passage of electric current (Joule effect). For that purpose, Al-4% Cu-0, 5% Mg alloys were tested with silver content in proportions of 1.5%, 2.5% and 3.5%. Precipitation hardening was carried out by homogenization heat treatment of solid solutions. The microstructure analysis was carried out using optical microscope and SEM, Vickers hardness tests was also performed, tests of tensile strength and electrical conductivity, which were compared with the alloy A356-T6. The results of this research show that the increase of silver in the alloy increased tensile strength and decreases the resistivity. By SEM and EDS analysis of the phase ɵ (CuAl2), Al6 (Cu, Fe) and Al7Cu2Fe was observed. Keywords: Duralumin, hardening by precipitation, homogenization, aging, phases, electrical resistance of metals, metals Joule effect.

Estudio del efecto de la plata en las propiedades mecánicas y conductividad eléctrica de los duraluminios (Al-4%Cu-0,5%Mg) Resumen En este trabajo se evalúa el efecto del contenido de plata de las aleaciones base Al-Cu en la microestructura, la resistencia a la tracción, la resistencia eléctrica y el incremento de la temperatura con el paso de la corriente eléctrica (efecto Joule). Para tal fin, fueron evaluadas las aleaciones Al-4%Cu-0,5%Mg con contenidos de plata en proporciones del 1,5%, 2,5% y 3,5%. El endurecimiento por precipitación se llevó a cabo mediante tratamientos térmicos de homogenización por solución sólida. El análisis de la microestructura se realizó mediante el microscopio óptico y SEM, además, se realizó análisis de dureza Vickers, ensayos de resistencia a la tracción y pruebas de conductividad eléctrica, las cual se compararon con la aleación A356-T6. Los resultados de esta investigación muestran que el aumento de la plata en la aleación aumenta la resistencia la tracción y disminuye su resistividad. Mediante el análisis del SEM y EDS se observó la fase ɵ (CuAl2), Al6(Cu, Fe) y Al7Cu2Fe. Palabras clave: Duraluminios, endurecimiento por precipitación, homogenización, envejecimiento, fases, resistencia eléctrica de metales, efecto Joule en metales.

1. Introduction The process of new materials to be changed into good quality finished products is in continuous development and progress. For example, in the field of engineering materials high temperature resistant materials are sought along with other features such as corrosion resistant, low weight, low cost, easy shaping, abundant in nature, that can be recycled, long lifetime, good conductive properties, low heat production when there is passage of electric current, among others.[1] For these reasons, this paper develops an aluminum base

alloy, designated ANSI 201, with additions of silver above the percentages that the standards present, capable of satisfying the above properties and the demands that are required of a structural material such as high mechanical resistance and often good electrical conductivity. In this sense, these alloys are reported to be the most resistant within the families of aluminum based alloys, which makes them very special and appreciated in the aerospace, automotive industry, hydroelectric power stations and in the transmission and distribution electric systems. These last ones were used as hardware [2,3].

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 159-165. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Correa-Avendaño et al / DYNA 81 (186), pp. 159-165. August, 2014.

2. Background 2.1. Duralumin Processes In the alloys Al-4% Cu-0.5% Mg hardening elements such as copper, magnesium and silver, considerably increase their resistance to a T6 heat treatment , which is a homogenization treatment in a solid solution at a temperature between 520°C 550°C and then quenched in water at a temperature of 18°C and artificially aged at a temperature of 150°C - 200°C for different times (in hours) [3,4]. The corrosion resistance becomes important for those elements or components that operate in very aggressive media, such as the case of internal combustion engines and turbines, and others [5,6]. The addition of silver-based alloys Al-Cu-Mg to modify the decomposition kinetics of the formation of phases and delay the degradation of the material at high temperatures [7,8]. This behavior is attributed to the formation of a fine and uniform dispersion of precipitates in a known phase Ω, which presents hexagonal forms on the planes of the aluminum matrix {111} α. Ω phase is thermodynamically more stable than the incoherent phase and equilibrium phase θ in the Al-Cu system [9,10]. 2.2. Electrical conductivity of the alloys The incorporation of silver in the alloy improves the electrical conductivity due to two reasons, on one hand silver is a better conductor than the other components of the duralumin and, secondly, it has been dispersed in the matrix or in the alloy phases during the internal change in the structure that occurs due to the homogenization heat treatment and the isothermal aging of the alloy [11]. Additionally it is observed that alloys of silver improve the conductivity of duralumin over traditional alloys and are commonly used in high-voltage lines tensioners A356 - T6. [12]. 3. Procedure 3.1. Obtaining the alloys

mm were prepared for each of them and then homogenized in muffle furnace at 520°C, placed for 40 hours in warm water at room temperature and then aged at different times (0 h , 0.5 h, 1.0 h, 1.5 h, 2.0 h, 2.5 h, 3.0 h, 3.5 h, 4.0 h, 4.5 h, 5.0 h 5.5 h) and temperatures of 180ºC, 200ºC and 220°C, to obtain the Vickers hardness and tensile strength for each aging time. Subsequently the samples were metallographically prepared by gradual grinding with sandpaper and polished with plush to a mirror finish. To make the Vickers hardness measurements a microhardness tester with a load of 100 gf, and diamond indenter was used. Then the samples were attacked with Keller reagent for observation in the scanning electron microscope (SEM). 3.2. Electrical measurements Measurements of the electrical conductivity were performed with a Model 4200-SCS Semiconductor Characterization System, which gives a high measurement sensitivity and high accuracy. For this, the four specimens were made with the same geometry and dimensions. Moreover, the measurement of temperature with respect to current flow was conducted with a thermographic camera, which uses the principle of infrared rays to detect heat. Current was supplied by a three phase power transformer with the secondary short circuited through the test object in order to obtain large currents (10 A to 100 A) passing through the object.

4. Results and analysis 4.1. Analysis of the microstructure by scanning electron microscope (SEM-EDS) The image of Fig. 1 shows the SEM micrograph of the alloys Al-4% Cu-0.5% Mg 3.5% Ag as cast. It clearly shows a structure consisting of grains, an α phase in the center of the grain and a θ phase in grain boundary, forming the structure by slow cooling, according to the phase diagram of Al-Cu. In this state the material is soft and has very poor mechanical properties.

The alloys casting was performed with chemically pure elements, at least 99.9% purity, and a conventional temperature of 750°C in a laboratory casting. For the study 3 alloys were manufactured, with 1.5%, 2.5% and 3.5% of Ag. After obtaining the samples, the chemical composition was analyzed by spectrometry, yielding the following data: Table 1. Chemical composition of the alloys made with 1.5%, 2.5% and 3.5% Ag Alloys 1,5% Ag 2,5% Ag 3,5% Ag Al-4%Cu-0,5%Mg Al Si Fe Cu Mg Ag

94,030 0,307 0,155 4,855 0,627 1,5

94,140 0,061 0,141 4,985 0,634 2,5

94,54 0,311 0,256 4,151 0,64 3,5

Figure 1. Micrograph of the alloy Al-4% Cu-0.5% Mg, as cast, with 3.5% Ag.

160


Correa-Avendaño et al / DYNA 81 (186), pp. 159-165. August, 2014.

Figure 2. Micrograph of the alloys Al-4% Cu-0.5% Mg-3.5% Ag with heat treatment.

Fig. 2 shows the SEM micrograph of the alloy Al-4% Cu-0.5% Mg-3.5% Ag with homogenized heat treatment at 520°C for 40 hours, water-quenched at room temperature and then aged at 180°C for 4 hours. The footage clearly shows a structure consisting of chunks scattered grain boundaries and precipitates in the matrix, this as a result of the homogenization heat treatment and aging, in which θ dissolves in α, according to the phase diagram of Al-Cu, giving thus a hard matrix and a material with good mechanical properties, resulting in a duralumin. Fig. 3 shows the SEM micrographs of the Al-4% Cu0.5% Mg 3.5% Ag which clearly shows the phases (precipitates) formed therein after the heat treatment, which are extended for better observation and arrowed. The image 3 (a) corresponds to a phase precipitated ɵ (CuAl2) and Fig. 3 (b) shows several precipitates dispersed in the matrix in different ways. In others, there is a strip-shaped pellet, compound of Al6 (Cu, Fe). Finally, Fig. 4 shows that the EDS analysis was performed on the inside and outside of the pellet, with their respective spectra, which confirms the above, the grain boundaries are composed primarily of aluminum and copper (interior of the precipitate) as shown by the peaks of the spectrum. Silver and magnesium dissolved in the matrix (out of the precipitate). Phase ɵ is also confirmed (CuAl2) as shown in the image(a) inside the other precipitates or precipitated phases as Al6(Cu, Fe) and Al7Cu2Fe; phases reported in the literature in the form of blades or knives eutectically elongated when forming [13]. It is clear that trace elements found such as Fe and Ni, do not correspond to the alloy and these are the result of contamination of the utensils used in aluminum smelting. The precipitates in the form of leaves, blades and elongated strips may be presented as the product of the iron, which is not beneficial to the alloy since these tend to be fragile, with tendencies to crack formation, introducing concentrations of effort that lower the tensile strength in the material and significantly affect the ductility.

Figure 3. Micrographs of the phases formed in the alloys Al-4% Cu-0.5%

Mg-3.5% Ag, with heat treatment.

161


Correa-Avendaño et al / DYNA 81 (186), pp. 159-165. August, 2014.

(a) Analysis of the precipitate interior Figure 4. Micrograph and spectrum analysis for the Al-4% Cu-0.5% Mg-3.5% Ag, heat treated.

4.2. Results and analysis of hardness and tensile strength The results obtained using the Vickers hardness test and tensile strength for the samples of the alloys with 1.5%, 2.5% and 3.5% of Ag, homogenized at 520°C for 40 hours, cooled in water at a temperature of 18°C and aged at 180°C for different times, is observed in Figs. 5 and 6 respectively. The Vickers hardness curves on Fig. 5 it shows the following behavior: - In general, for a given aging time, the higher the concentration of silver in the alloy the higher the hardness (HV). This is because the silver delays homogenization time and accelerates aging time, causing precipitation of Guinier Preston zones, and therefore increases hardness of the material. This is perhaps the most important result of this work. - In addition, for different times of aging, samples with 3.5% of Ag achieve higher hardness averages (14% more than that of 1.5% of Ag) as the samples with 2.5% Ag (7% more than 1.5% Ag) Ag and 1.5% which means that a higher silver content in the alloy, the average tensile strength also increases. - The curves of Fig. 5 show that initially the hardness amount increases to a maximum value. This is because the precipitates have dissolved in the matrix which makes the alloy need less aging time to reach the maximum value,

(b) Analyzing the matrix.

since these precipitates strengthen Preston Guinier areas, which are responsible for giving the highest toughness. - It can also be observed that in curves after reaching its maximum strength at an aging time of 3 hours for all samples, they begin to decline, thus giving over-aged alloys. This is because Guinier-Preston zones are formed at the beginning of the aging.

Figure 5. Vickers hardness curves vs. aging time for alloys Al-4% Cu-0.5% Mg 1.5%, 2.5% and 3.5% of Ag

162


Correa-Avendaño et al / DYNA 81 (186), pp. 159-165. August, 2014.

Figure 6. Curves of the maximum values of tensile strength of the alloys Al-4% Cu-0.5% Mg with 0%, 1.5%, 2.5% and 3.5% Ag

Table 2. Duralumin Electrical resistance at a room temperature of 22.8°C. Silver content in Cylinder Electrical resistance per Duralumin 201.2-T6 diameter (mm) unit length (mΩ/cm) A356-T6 – Al to the 12,0 2.56 7% of Si 1,5% of Ag 11,8 2,68 2,5% of Ag 11,7 1,35 3,5% of Ag 12,0 0,36

Therefore, the results show that alloys having an addition of silver improve the conductivity of the duralumin compared to the traditional and commonly used alloy A 356 - T6.[12]. However, there are exceptions in the case of the material with 1.5% of Ag, the electrical resistance is higher than Alloy A 356 - T6 (see Fig. 7). This is because silver forms a nanoprecipitate, however this is not evidenced in the metallographic (Figs. 1 to 3) due to the scale of the microscope, this nanoprecipitate affects the structure and improves the conductivity, but with percentages greater than 1.5% Ag [15]. This also has thermal effects, since electrical applications (such as hardware in electrical substations, electrical towers, electric poles, etc.) these materials may overheat the current flow due to the relatively high resistive values, generating hot spots or thermal fatigue of duralumin and electrical conductors in contact with it, or both. Fig. 7 illustrates this behavior. The behavior depicted in Fig. 7 is primarily due to the influence of the resistance of each material on the temperature, which according to the results given in [11] is determined by the following expressions:

q" = − k ∇T

2 2 k ∇ T + q = ρ J 2 q = ρ J

Figs. 5 and 6 shows the curves of hardness and tensile strength, respectively, of the alloys Al-4% Cu-0.5% Mg 1.5%, 2.5% and 3.5% of Ag, where it is observed that the addition of silver promotes greater strength of the material at all aging temperatures. This phenomenon has been reported in the literature, where the strength of the material is maintained with increasing aging temperature, highlighting that the excessive increase of the temperature decreases the peak aged hardness and maximum [14], which confirms the results obtained in this work, which shows that increasing concentrations of silver, the resistance increases in all alloys, given that the silver stimulates the precipitation of hardening phases. As can be seen in the curve of Fig. 6, an increase of Ag in the alloys Al-4% Cu-0.5% Mg significantly increases the tensile strength; the higher silver content (3.5% Ag) reaches the highest value close to 65.000 psi, with respect to the content of 1.5% Ag with 2.5% Ag, 51.000 Psi and 62.000 Psi.

I = ∫ J dS S R=ρ

σ =

(1) (2) (3) (4)

L S

(5)

1

ρ

(6)

4.3. Results and analysis of electrical conductivity After adding silver in these duralumins their electrical conductivity is affected as shown in Table 2.

Table 2 shows how increasing the proportion of silver in the alloy, the conductivity also increases (or the electrical resistance decreases). This is because, in addition to the reasons stated in section 2.2, the impurities of silver that are added to the material increase the number of conduction electrons that carry electrical current. In addition, the impurities (or silver) become part of the crystalline structure by substituting the corresponding aluminum atom. This method allows more electrons to transport electricity.

Figure 7. Current vs. temperature curves for the four samples of the alloys: 1.5% Ag, 2.5% Ag, 3.5% Ag and 356.

163


Correa-Avendaño et al / DYNA 81 (186), pp. 159-165. August, 2014.

conditions of suitable thermal treatments, through the formation of a fine dispersion of precipitated known phase Ω, causing resistance in the material. And on the contrary there may be loss of strength in the material, due to thickening and loss of coherence Ω precipitates after long time aging. References [1]

Orozco-Henao, C., Mora-Flórez J. and Pérez-Londoño S., Iterative strategy to adjust the system load applied for locating in power distribution systems. DYNA 80 (177), pp. 59-68, 2013.

Figure 8. Metal volume cross section traversed by the current density j and the current density.

[2]

Teleshov, V. et al., Effect of chemical composition on the strength of the Al-Cu-Mg-Ag alloy system after heating at 180 – 210°C. Metal Science and Heat treatment 48(3-4), pp. 104-112, 2006.

Where: q"= heat flow k = thermal conductivity, T = temperature, q = heat generation Joule warming, β = mass density, CP = specific heat, t = time, ρ = electrical resistivity, conductivity = σ electrical, R = electrical resistance per unit length, L = conductor length, S = crosssectional area of the conductor, I = electric current and J = electric current density. Fig. 8 shows some of these variables. Equations (1)-(4) represent a nonlinear dependence between the temperature T and the electric current density J in metals. This dependency can be seen in the curves of Fig. 7 above, which shows that on average for a higher silver content in the alloy there is lower electrical resistance and, consequently, less temperature increase with the passage of current, plus the alloy A356 -T6 has an average thermal behavior similar to the duralumins order with less silver content (1.5% Ag) and high electrical resistance. Consequently, the rise in silver in duralumins alloys improves their electrical properties overcoming the A356T6 alloy that has been widely used in industrial applications so far, it would be advantageous to use the duralumins with silver concentrations exceeding 1.5% in industrial electrical applications.

[3]

Ber, L. B., Teleshov, V.V. and Ukolova, O. G., Aluminum and high – temperature alloys. Phase composition and mechanical properties of wrought aluminum alloys of the system Al-Cu- Mg-Ag-Xi. Metal Science and Treatment. Magazine 50 (5-6), pp. 220-227, 2008.

[4]

Aluminum casting technology. American Foundrymen´s Society, Inc. D Plaines, 2th Edition, Illinois 1986, pp. 5-179.

[5]

Min, S. et al., Effect of Ce on the thermal stability of the Ω phase in an Al-Cu-Mg-Ag alloy. Rare metals. 28 (2), pp. 156-159, 2009.

[6]

Xiao, D., Ding, J. and Chen, S., Effect of Cu content on the mechanical properties of an Al-Cu-Mg-Ag alloy. Journal of alloys and compounds 343 (1-2), pp. 77-78, 2002.

[7]

Ringer, P. et al., Precipitation stability in Al-Cu-Mg-Ag alloys aged at high temperatures. Acta Metalurgical et Materialia 42 (5), pp. 1715-1725, 1994.

[8]

Ber, L. et al., Aluminum and high – temperature alloys phase composition and mechanical properties of wrought aluminum alloys of the sistem Al-Cu-Mg-Ag-Xi. Metal Science and Treatment, Magazine 50 (5-6), pp 220-227, 2008.

[9]

Chang, Y. and Howe, J., Composition and stability of Ω phase in AlCu-Mg-Ag alloy. Metallurgical Transactions A. 24A (7), pp. 14611470, 1993.

5. Conclusions

The alloys (Al-4% Cu-0.5 Mg with additions of Ag of 1.5% to 3.5%) require longer homogenization compared to conventional aluminum alloy base. Hardness and tensile strength of aluminum-based alloys with additions of silver vary according to time and homogenization temperature, and aging time and temperature. The increase in silver content between 1.5% and 3.5% in the alloy Al-4% Cu-0.5 Mg increases the tensile strength. The high hardness and high mechanical properties of the alloy Al-4% Cu- 0.5Mg with Ag, is due to the type of precipitates formed in the alloy in the heat treatment which are small and widely scattered. The alloy with the highest percentage of silver content, presented better electrical conductivity and lower heating with electric current flow. Clearly the changes in the properties of alloys in the system Al-4% Cu-0, 5% Mg with additions of silver under

[10] Ber, B. et. al., Phase composition and mechanical properties of wrought aluminum alloys of the system Al-Cu-Mg-Ag-Xi. Metal Science and Heat Treatment 50 (5), pp. 220-227, 2008. [11] Jin, T. and Liu, C., Effects of temperature-dependent material properties on stress and temperature in cracked metal plate under electric current load, World Academy of Science, Engineering and Technology 65, pp. 474-479, 2010. [12] Fernández, P. and Restrepo, O. J., Microestructural analysis of A356T6 aluminum alloy on high tension connectors. Revista Facultad de Ingeniería Universidad de Antioquia 44, pp. 20-29, Junio 2008. [13] ASM metal handbook. Aluminum alloys: Metallographic techniques and microstructure, Vol. 9. USA. 1992. pp 707-804. [14] B. Zlaticanin, S. Duric, B. Jordovic and Radonjic. B., Communications Ltda. Publiched by maney for the Institute of Materials, Minerals and Mining. 2003, pp. 10-15. [15] Gu, G. Y., Liu, Z., Yu, D., Liu, B., Lin, M. and Zeng, S., Growth of X plates and its effect on mechanical properties in Al-Cu-Mg-Ag alloy with high content of silver. Journal of Materials Engineering and Performance 36, pp 1-8, 2013. R. Correa-Avendaño, He obtained a Bs. Eng. in Mechanical Engineering in 2001, a Sp. in Senior Management with emphasis on Quality in 2006 and MSc. in Engineering with emphasis on Metallic Materials in 2010 from the University of Antioquia. After working in a private company as a project

164


Correa-Avendaño et al / DYNA 81 (186), pp. 159-165. August, 2014. engineer and design through 2006, he is currently a professor at the Faculty of Engineering, Department of Mechanical Engineering, University of Antioquia. H. D Sanchez-Londoño, He received a Bs. Eng. in Metallurgical Engineering in 1992, a Sp. degree in Quality Management in 1998 and a MSc in Materials in 2003, all from the University of Antioquia, Medellin, Colombia. From 1992 to 1995, he worked for foundries and from 1995 works at the University of Antioquia Colombia. He currently teaches at the Faculty of Engineering in the area of materials. His research interests include: castings, no phase transformations in alloys, railways, energy and statistical process control. E. García-Quintero, He received a Bs. Eng. in Electrical Engineer in 2000 from the Industrial University of Santander (Colombia), an MSc degree in

Electrical Technology in 2006, and a PhD degree in Electrical Technology, Materials, Generation and Distribution in 2008, the latter two at the Technical University of Valencia (Spain). He is currently Professor in the Department of Electrical Engineering, University of Antioquia, and is director of the Research Group in the Materials and Energy Systems (TESLA) of the University of Antioquia. From 2000 to 2008, he worked on issues related to electrical systems (power quality, power systems and high voltage). After 2008 he worked on material used in the energy sector, mainly related to energy efficiency. In the last years he has been developing prototypes for use in the electricity sector and new materials used in efficient electrical transformers.

165


Application of structural equation and servqual in a health service Amparo Zapata-Gómez Facultad de Ingeniería y Arquitectura, Universidad Nacional de Colombia, Sede Manizales, Colombia. azapatago@unal.edu.co Received: September 7th, 2013. Received in revised form: June 27th, 2014. Accepted: July 07th, 2014

Abstract The aim of this contribution is to check the relationship between the dimensions of the overall operational quality perceived by users; by the sensitivity of the services, since constantly checked daily and the particular characteristics in operation. Also, illustrate the behavior and benefits of structural equations and model servqual in organizations that seek to provide a service that builds competitive advantage through the adoption of tools aimed at improving the quality of their processes and improve the level of performance against users. The research was conducted from the author's interest to achieve greater applicability of these in the companies providing health services in of Manizales (Colombia), which has not been studied so far and are not major bibliographical reference reports on it, something that makes it a topic of interest. Keywords: Quality; structural equation; service; servqual.

Aplicación de ecuaciones estructurales y servqual en un servicio de salud Resumen El objetivo de la presente contribución es comprobar la relación entre las dimensiones de la calidad operacional y la general percibida por los usuarios; por la sensibilidad de los servicios, ya que se comprueban diaria y constantemente las características particulares en la operación. Además, explicar el comportamiento de las ecuaciones estructurales y el modelo servqual en las organizaciones que buscan proporcionar un servicio que genere ventajas competitivas a través de la adopción de herramientas dirigidas a elevar la calidad de sus procesos y mejorar el nivel de desempeño frente a los usuarios. La investigación se realizó a partir del interés de la autora por lograr una mayor aplicabilidad de estos en las empresas prestadoras de servicios de salud en Manizales (Colombia), donde no ha sido estudiado hasta ahora y no se hallan mayores referencia bibliográficas e informes sobre el mismo, aspecto que lo convierte en un tema de interés. Palabras clave: Calidad; ecuaciones estructurales; servicio; servqual.

1. Introducción Con el objetivo de comprender el entorno, las capacidades empresariales y los deseos de los usuarios, se desarrolló la presente investigación utilizando la técnica Servqual en en una empresa del sector de la salud. Este ha sido estructurado en dos etapas; en la primera se realiza la aplicación de la técnica y en la segunda se ejecutó el modelado de ecuaciones estructurales que expone la conexión de las variables calidad-servicio. 1.1. Calidad en el servicio y modelo Servqual Los procesos empresariales deben contemplar las directrices de calidad focalizadas en el producto, el proceso y el servicio, entre otros; con el fin de diseñar las estrategias para dar respuesta a las prioridades competitivas brindando

calidad y seguridad para el usuario final [1]. En tal sentido, se establece que las prioridades competitivas de calidad y servicio son dimensiones clave [2], para algunos autores la prelación es la calidad [3,4], y otros prefieren el servicio [5]. Así mismo, para otros las primacías las constituyen la calidad y el servicio [6,7,8,9,10]. El concepto de calidad del servicio empezó a recibir atención en los años 80 cuando se estudiaron las percepciones de los usuarios [11, 12, 13, 14]. Años más tarde, se le dio relevancia al tema y a su medición; asegurando que son necesarios otros parámetros como la satisfacción como medida de calidad del servicio [15, 16]. Para un respaldo teórico de la calidad del servicio se plantea la tabla 1. Investigaciones de otros autores han verificado que las relaciones causales entre la satisfacción de los usuarios y la calidad del servicio; presentan resultados contradictorios, porque para algunos de ellos las dimensiones son estáticas,

© The author; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 166-174. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Zapata-Gómez / DYNA 81 (186), pp. 166-174. August, 2014. Tabla 1. Calidad del servicio No.

Autor.

Definición.

1

Oliver (1977, 1980, 1981, 1985, 1988, La calidad del servicio es la satisfacción del desempeño versus la expectativa [17]. 1989)

2

Gronroos (1982, 1983, 1984)

En la evaluación de la calidad del servicio, los consumidores comparan el servicio que esperan con las percepciones del servicio que reciben [13].

3

Lewis y Booms (1984)

La calidad del servicio es una medida de cómo el nivel de servicio desarrollado iguala las expectativas de los clientes [18].

4

Holbrook y Corfman y Olshavsky (1985)

La calidad del servicio es un modo de evaluación o juicio de un producto o servicio similar en muchos casos a una actitud [19].

5

Holbrook y Corfman (1985)

La calidad del servicio es la respuesta subjetiva de la gente a los objetos, es un fenómeno altamente relativo que difiere entre distintas valoraciones [20].

6

Zeithaml (1988)

La calidad del servicio percibida es la valoración que hace el consumidor de la excelencia o superioridad del servicio [21].

7

Parasuraman, Zeithaml y Berry (1988)

La calidad del servicio es una modalidad de actitud, relacionada, pero no equivalente a satisfacción, que resulta de la comparación entre las expectativas y las percepciones del desempeño del servicio [22].

8

Bitner (1990)

La calidad del servicio es una forma de actitud, una evaluación global [23].

9

Bolton y Drew (1991)

La calidad del servicio es la respuesta de la comparación entre las expectativas y el desempeño [24].

10

Horovitz (1993)

La calidad del servicio es el nivel de excelencia para satisfacer a su clientela clave [25].

11

Cronin y Taylor (1993)

La calidad del servicio es lo que el cliente percibe del nivel de desempeño del servicio prestado [26].

Fuente: Elaboración propia a partir de los citados autores.

por el contrario, para otros son dinámicas y mudan debido a los cambios del mercado [27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49, 50]. Adicionalmente, también se establece que las

instituciones tienen ideas acerca de lo que los usuarios necesitan y valoran [51]; por lo tanto, conocer y saber lo que el usuario percibe y le satisface se convierte en un factor empresarial clave [52].

Tabla 2. Dimensiones de la calidad del servicio DIMENSION

• • • • • • Habilidad para desempeñar el servicio prometido de forma • precisa y con formalidad por • parte del personal encargado. •

Fiabilidad.

Seguridad.

Empatía.

ASPECTOS.

Materiales, facilidades físicas, instalaciones, equipamiento y apariencia del personal prestador del servicio.

Elementos tangibles.

Capacidad respuesta.

SIGNIFICADO.

de

Voluntad y deseo de ayudar a los usuarios y de servirles de forma rápida y oportunamente.

Comportamiento, conocimiento, cortesía, atención de los empleados y sus habilidades para inspirar credibilidad y confianza durante la prestación del servicio.

• • • •

La empresa de servicios tiene equipos de apariencia moderna. Las instalaciones físicas de la empresa de servicios son visualmente atractivas. Los empleados de la empresa de servicios tienen apariencia pulcra. Los elementos materiales (folletos, estados de cuenta y similares) son visualmente atractivos. Cuando la empresa de servicios promete hacer algo en cierto tiempo, lo hace. Cuando un cliente tiene un problema la empresa muestra un sincero interés en solucionarlo. La empresa realiza bien el servicio la primera vez. La empresa concluye el servicio en el tiempo prometido. La empresa de servicios insiste en mantener registros exentos de errores. Los empleados comunican a los clientes cuando concluirá la realización del servicio. Los empleados de la empresa ofrecen un servicio rápido a sus clientes. Los empleados de la empresa de servicios siempre están dispuestos a ayudar a sus clientes. Los empleados nunca están demasiado ocupados para responder a las preguntas de sus clientes

• El comportamiento de los empleados de la empresa de servicios transmite confianza a sus

• • • • Atención, cuidado y • complementos que ofrece la empresa prestadora del servicio • a los usuarios. • •

clientes. Los clientes se sienten seguro en sus transacciones con la empresa de servicios. Los empleados de la empresa de servicios son siempre amables con los clientes. Los empleados tienen conocimientos suficientes para responder a las preguntas de los clientes. La empresa de servicios da a sus clientes una atención individualizada. La empresa de servicios tiene horarios de trabajo convenientes para todos sus clientes. La empresa de servicios tiene empleados que ofrecen una atención personalizada a sus clientes. La empresa de servicios se preocupa por los mejores intereses de sus clientes. La empresa de servicios comprende las necesidades específicas de sus clientes.

Fuente: Elaboración propia, a partir de referencia [54].

167


Zapata-Gómez / DYNA 81 (186), pp. 166-174. August, 2014.

• Necesidades propias que desea satisfacer cada cliente con el servicio que va a recibir. • Expectativas.

SERVICIO. • Prestación del servicio. • Evaluación: • Expectativas. • Percepciòn:

ENTRADAS.

• Cliente atendido. • Calidad del servicio: (Nivel de calidad).

SALIDAS.

Figura 1. Modelo teórico SERVQUAL Fuente: Elaboración propia a partir de referencia [54].

Es así, como inicialmente identificaron diez dimensiones que los usuarios emplean para formar expectativas y percepciones de la calidad del servicio: acceso; comunicación; competencia; cortesía; credibilidad; confiabilidad; respuesta; seguridad; tangibles y entender y conocer al usuario [53]. Años más tarde, se redujeron a cinco las dimensiones: tangibles, confiabilidad, sensibilidad, aseguramiento y empatía. Finalmente, se establecieron tres: confiabilidad, sensibilidad y puntualidad. Para un análisis más completo en la tabla 2 se exponen las cinco dimensiones, el significado y los aspectos para evaluar. Según la tabla 2, una percepción pobre en la calidad del producto o equipo puede tener un efecto medio en calidad total del servicio; ya que los usuarios ven a las compañías de dos formas, una como instituciones de producto y otra como instituciones de servicio, en donde el desempeño de un producto incluye el servicio [51]. Esto aplica especialmente en los servicios de salud, en donde la calidad se puede unir al desempeño del producto o equipo después de que el servicio es completado; los usuarios asumen que el resultado es bueno o malo sin importar cualquier otro aspecto y donde la calidad se puede comparar a una actitud [55, 56]. Los estudios sobre las dimensiones de la calidad del servicio se han aplicado muy poco a los servicios de salud [57], y se ratifica, que la dimensión asistencial si se emplea como elemento del servicio [58], desarrollada por el médico, el pasante, el practicante, el ayudante y el experto [59]. El análisis de los conceptos utilizados posibilita plantear el modelo teórico de la fig. 1. Según la fig. 1, el modelo consta de entradas con las necesidades y expectativas de los clientes, el proceso de prestación del servicio en sí, en donde interesa la prestación y la evaluación de las dimensiones del mismo y unas salidas que determinan el nivel de calidad. Este modelo en particular define la calidad del servicio como la diferencia entre las percepciones y las expectativas, donde los posibles resultados son: Percepción > Expectativas: Alto nivel de calidad. Percepción < Expectativas: Bajo nivel de calidad. Percepción = Expectativas: Nivel modesto de calidad. A juicio de los autores de la presente investigación se supone incluir factores subjetivos relacionados con las conjeturas de las personas que reciben el servicio. En este

orden de ideas, hay que tener especial cuidado por la complejidad de la apreciación, porque depende de los criterios de las personas y ellas pueden dar diferente valor a las propiedades y características del servicio y es muy delicado evaluar las expectativas cuando los usuarios a veces no las conocen de antemano, o es un servicio no muy usual. Por ser los servicios, el campo donde se mueve esta investigación, se enfatiza en éste análisis. 2. Marco metodológico Inicialmente se plantó un instrumento de escala múltiple, con un alto nivel de fiabilidad y validez para comprender mejor las expectativas y percepciones que se tienen con respecto al servicio [60]; consistente en un conjunto de preguntas estandarizadas para identificar los elementos que generan valor para el usuario y para los procesos con el propósito de implementar mejoras. El modelo consta de 44 interrogantes para los ítems de calidad (denominados aspectos en la tabla 1). Una vez se tienen las evaluaciones, se realiza el análisis cuantitativo a las dimensiones, con el objetivo de la separación de conceptos entre la calidad operacional y general, en la percepción de la calidad del servicio en el proceso de salud. De acuerdo a lo anterior, se elaboró un modelo teórico para la investigación, como se muestra en la fig. 2. La fig. 2, establece que la calidad operacional en un servicio de salud, esta dada por las siguientes características: proceso secuencial y continuo (X1), capacidad y eficiencia en la prestación del servicio (X2), cuidado y vigilancia (X3), como consecuencia primero del desempeño, segundo; de incluir al usuario en el proceso y tercero del control de la calidad durante la prestación del servicio en tiempo real. Estas características tienen que dar respuesta a mejorar el estado de salud del usuario, evitar la progresión y los desenlaces adversos de la enfermedad y disminuir las inequidades en salud de los usuarios. La relación entre estas variables (X1,X2,X3) y las cinco dimensiones de la calidad del servicio (tangibles, confiabilidad, respuesta, seguridad y empatía), se establecen para sustentar el modelo desde lo teórico, donde este tipo de calidad, está en función de la diferencia entre expectativa y desempeño a lo largo de las dimensiones de calidad del modelo.

168


Zapata-Gómez / DYNA 81 (186), pp. 166-174. August, 2014.

CALID AD OPERACIONAL

U S U A R I O S

X1

Continuidad

X2

Suficiencia e integralidad

X3

Atenciòn humaniz ada

X4

Calidad gral.

CALID AD D EL SERVICIO

EXPLORACION DE EXPECTATIVAS.

CALID AD G EN ERAL

Figura 2. Modelo teórico de investigación de la calidad del servicio de salud. Fuente: Elaboración propia a partir de referencia [54].

Como sustento teórico; el análisis estructural de Servqual soporta la superioridad teórica del modelo propuesto, por ser éste un constructo multidimensional, cuyo número de dimensiones depende del servicio que se esté valorando¸ no son necesariamente caracterizadoras de los factores perceptivos de la calidad en los servicios de salud. Partiendo de que la calidad del servicio y la satisfacción son constructos diferentes, la aceptación más común de las diferencias entre ambos elementos es que la calidad del servicio percibida es una forma de actitud, mientras que la satisfacción es la medida de una proceso específico y el tratamiento de las expectativas (lo esperado); basadas en las experiencias del usuario con un tipo particular de servicio. Además, se espera de la valoración, dos comparaciones, la medida de la superioridad del servicio y la medida de adecuación del servicio, porque los usuarios valoran la calidad operativa y general de forma diferente. Es decir, Servqual define la calidad del servicio como calidad percibida, resultado de la comparación o de la diferencia entre expectativas y percepciones y valora las opiniones de los usuarios en la definición de la importancia relativa de las condiciones del servicio, mientras que el modelo planteado, define la calidad del servicio como calidad percibida, resultado de la percepción del desempeño del servicio prestado. Es por esto, que los autores de la presente contribución afirman, que en el servicio se ha confundido la relación entre satisfacción del usuario y calidad del servicio. Esta distinción es importante para los prestadores del servicio y los investigadores, ya que se necesita conocer si lo esperado por los usuarios corresponde o no con el nivel de prestación, o si están satisfechos o no con el máximo de calidad percibida. La importancia del modelo planteado radica en el esfuerzo para clarificar la relación entre satisfacción (calidad operacional) y calidad del servicio (calidad general). No obstante, es preciso señalar que la relación entre calidad del servicio, satisfacción del usuario e intenciones de compra es aún inexplorada. Siendo así, los autores de ésta contribución; consideran que las organizaciones deben hacer un esfuerzo en distinguir entre el proceso y el resultado; por lo tanto se debe “operacionalizar” la calidad y medir la percepción de la calidad del servicio. Para el mantenimiento e incremento de ésta calidad, se adoptan estrategias y políticas para evaluar y perfeccionar los procesos, validando los más críticos, auditando el desempeño, la garantía e integridad

por parte de los clientes y los entes de control. En cambio la calidad general, como su nombre lo indica; es simplemente el conocimiento del servicio bajo los estándares mínimos para cumplir el nivel de satisfacción de los usuarios de conformidad con los requerimientos de cada uno y del plan de atención básica [61]. Esta calidad se logra por el servicio que se entrega para el cubrimiento de la necesidad sin la evaluación del grado de satisfacción que experimenta el usuario por todas las acciones del servicio, contrario a la calidad operacional. La mejor estrategia para este tipo de calidad es evitando sorpresas desagradables a los usuarios por fallas en el servicio y sorprendiendo favorablemente a los clientes cuando una situación imprevista así lo exija. En la literatura especializada, la calidad general en el servicio fue expuesto como “la conformidad relativa con las especificaciones” o, “la satisfacción en un servicio cumpliendo las expectativas que busca el usuario” [12]. Pero, luego se dio paso a la teoría de la calidad operacional [57,62], aportando los conceptos de la calidad del servicio como una función entre el servicio esperado y el servicio recibido, donde los usuarios perciben la calidad más profundamente de lo que los proveedores del servicio lo hacen y donde la percepción del desempeño actual puede modificarse con respecto a las experiencias anteriores, influenciadas por su ejercicio en el pasado. La institución objeto de estudio, por experiencia, normativa y control; considera que el usuario aprecia la calidad como una función entre el servicio esperado y recibido; exige la excelencia en el cómo se desarrolla y cómo se recibe el proceso y no tan sólo el qué se recibe. El área de calidad institucional, de acuerdo a lo anterior, definió las variables de la calidad operativa, así: • Continuidad: “es la atención continua al usuario, a través de una serie de acciones de cuidado y bajo la diligencia de un equipo de profesionales”, • Suficiencia e integralidad: “es la satisfacción oportuna de las necesidades de salud del usuario, en forma adecuada a su estado de salud, mediante las acciones de promoción, prevención, curación y rehabilitación”, y • Atención humanizada: “consiste en tener en cuenta una serie de necesidades de índole cultural, religiosa, estilos de vida y costumbres que mantengan en alto la dignidad del ser enfermo”.

169


Zapata-GĂłmez / DYNA 81 (186), pp. 166-174. August, 2014. Tabla 4. DimensiĂłn y las variables objeto de estudio DIMENSION

VARIABLE

Suficiencia e Integralidad (X2)

ÂżCĂłmo calificarĂ­a del 1 al 10, la continuidad en el servicio de salud, es decir, que no se hayan presentado interrupciones debido a una falla en los procesos? ÂżDe acuerdo a sus necesidades, cĂłmo calificarĂ­a del 1 al 10, la satisfacciĂłn oportuna de sus necesidades, de acuerdo a su estado de salud y las acciones de promociĂłn, prevenciĂłn, curaciĂłn y rehabilitaciĂłn?

AtenciĂłn humanizada (X3)

ÂżCĂłmo calificarĂ­a del 1 al 10, la atenciĂłn brindada, la complacencia y el trato digno?

Continuidad (X1) Calidad Operacional.

ASPECTOS

Fuente: ElaboraciĂłn propia a partir de referencia [54]

Por el interĂŠs de la empresa prestadora de servicios de salud en las prioridades competitivas, es necesaria la aplicaciĂłn de tĂŠcnicas de calidad para la mejora de sus procesos, en ella se reconoce la calidad como el grado en que se atienden o no las expectativas de los usuarios. Hay ciertas preferencias que existen antes del servicio, como las percepciones que pueden afectar las opiniones sobre la calidad sin importar los esfuerzos, las capacidades o el resultado del mismo o la percepciĂłn de los precios exorbitantes, aunque estĂŠn conforme a estĂĄndares del sector, a la normativa, a la disposiciĂłn de productos y equipos de la instituciĂłn. Se ha planteado que el nivel de calidad del servicio no estĂĄ determinado solamente por el nivel de desempeĂąo de las dimensiones de calidad, pero sĂ­ por la diferencia entre la calidad esperada y la experimentada [62]. 2.1. PoblaciĂłn y Muestra De acuerdo con las cifras, Manizales cuenta con una poblaciĂłn de 414.389 habitantes [63]. La poblaciĂłn total de usuarios de servicios de salud en Manizales, es un dato variable por el comportamiento de los usuarios, manteniendo un crecimiento promedio del 5% desde el 2011 [64]. El tamaĂąo de la muestra se determinĂł de acuerdo a la fĂłrmula para la estimaciĂłn de muestras infinitas como se muestra en la ec. (1):

(1) Donde: • đ?“ƒđ?“ƒ = tamaĂąo de la muestra. • đ?‘?đ?‘?(đ?›źđ?›ź)= Valor de la distribuciĂłn de Gauss con đ?“?đ?“?(đ?›źđ?›ź)= 1,96 para đ?›źđ?›ź=0,05 y đ?“?đ?“?(đ?›źđ?›ź)= 2,57 para đ?›źđ?›ź =0,01. Nivel de confianza del 95% y un error del 5%, por anĂĄlisis el error se disminuyĂł gradualmente a 3.5%, luego se estimĂł en 1.5%. Se realizaron seguimientos a los usuarios en el ĂĄrea geogrĂĄfica que atiende la instituciĂłn como se muestra en la tabla 3. 2.2. DefiniciĂłn de las variables Se estableciĂł una escala para la calidad operacional (variables de continuidad, integralidad y atenciĂłn humanizada), centradas en la percepciĂłn de los usuarios sobre el desempeĂąo de los servicios de salud. Se elaborĂł una encuesta con escala de Likert de 10 puntos en busca de la percepciĂłn-expectativa a travĂŠs de los aspectos como se muestra en la tabla 4.

Tabla 3. Muestra por municipios y corregimientos AREA GEOGRAFICA PROCEDENCIA Urbana

Manizales. Otros (*) Manizales Otros (*)

Rural Total (*) Neira, VillamarĂ­a, Palestina y ChinchinĂĄ Fuente elaborada a partir de referencia [64]

No. Usuarios (Muestra) 805 345 70 30 1250

2.3. HipĂłtesis Se pretende responder a la siguiente hipĂłtesis: Ho: “La percepciĂłn de la calidad general del servicio es un concepto separado de la calidad operacionalâ€?. Se intenta probar que una forma, es lo que la instituciĂłn hace desde sus procesos de conformidad con los requerimientos de cada usuario (calidad general) y otra la que perciben los usuarios cuando experimentan el servicio (calidad operacional); apoyada en el modelo teĂłrico de la fig. 2. Dicho modelo fue validado bajo ecuaciones estructurales, considerando los parĂĄmetros y midiendo el ajuste del mismo; se estimĂł la correlaciĂłn del error para algunas de las variables, se validĂł la correlaciĂłn y no correlaciĂłn de los errores basados en la regresiĂłn, se determinĂł para cada variable el indicador de la regresiĂłn con su respectivo factor, aplicando los indicadores para obtener un modelo efectivo. 3. Resultados Se evaluĂł la encuesta de satisfacciĂłn del usuario con el Alpha de Cronbach [65], obteniendo un resultado aceptable de 0,6999. Se determinĂł la pertinencia del anĂĄlisis factorial a travĂŠs de la evaluaciĂłn de las correlaciones entre las variables las cuales fueron significativas; tambiĂŠn se evaluĂł la prueba anti-imagen observĂĄndose que las correlaciones eran menores a la diagonal como se muestra en la tabla 5. La prueba de esfericidad de Barltlett´s dio significativa, con una chi-cuadrada de 1,120.01 con 5 grados de libertad, probando que la matriz de correlaciones no es una matriz de identidad. Para probar la hipĂłtesis, se estableciĂł el modelo de ecuaciones estructurales, el cual se desarrollĂł con base en los conceptos de la calidad operacional y el de calidad de general. La tabla 6 muestra el modelo teĂłrico.

170


Zapata-Gómez / DYNA 81 (186), pp. 166-174. August, 2014.

Tabla 5. Análisis factorial. Correlaciones Correlación

Correlación

Continuidad (X1) Suficiencia e integralidad (X2) Atención humanizada (X3) Calidad general (X4)

Continuidad (X1) anti-imagen Suficiencia e integralidad (X2) Atención humanizada (X3) Calidad(X4) Fuente: elaboración propia

Continuidad (X1)

Suficiencia e integralidad (X2)

Atención humanizada (X3)

Calidad general (X4)

1.00 0.56 0.67 0.59

0.56 1.00 0.319 0.63

0.67 0.319 1.00 0.65

0.59 0.630 0.65 1.00

0.820 -0.199 -0.10 -0.3.44

-0.199 0.89 -0.087 -0.198

-0.10 -0.087 0.798 -0.45

-0.344 -0.198 -0.45 0.69

Tabla 6. Evaluación del modelo teórico Ratio de verosimilitud Nivel de Indicador normal Coeficiente Tuker- Índice de comparación Raíz cuadrada de la media del chi-cuadrada significancia de ajuste (NFI) Lewis (TLI) de ajuste (CFI) cuadrado de los residuos (RMSEA) 11.541 0.001 (1) 0.989 0.989 0.999 (2) 0.069 (3) Teórico. Por debajo del Aceptable un valor Mayor a 0.05 nivel de 0.05 mayor a 0.900 (1) Este estadístico muestra evidencia de que las matrices efectivas y previstas son significativas, indicativo de un ajuste no aceptable del modelo. (2) Aceptable para los Indicadores normal de ajuste (NFI), coeficiente Tuker-Lewis (TLI), Índice de comparación de ajuste (CFI): un valor mayor y (3) Aceptable. [65]. Fuente: elaboración propia

Al realizar la comparación del modelo teórico, se encontró que los indicadores de ajuste del modelo propuesto son de menor aceptación como se observa en la tabla 7; por lo tanto se concluye al rechazar esta hipótesis que “la percepción de la calidad general del servicio no es un concepto separado de la calidad operacional” [66]. Las estimaciones de las relaciones entre las variables del modelo se presentan en tabla 8 y fig. 3. Una vez analizada la validez

Tabla 8. Análisis del modelo estructural Ítem

y adecuación de la estructura del instrumento planteado para la investigación se procedió a calcular las relaciones. Tabla 7. Comparación de los resultados de los modelos Modelo Teórico Unidimensional

X

Suficiencia e Integridad

X

Atención Humanizada

NFI 0.989 1

0.609

(X1) (X2) (X3) 1.00

0.90

Calidad General

(X4)

Figura 3. Modelo de análisis factorial de los conceptos de la calidad general y la calidad operacional del servicio de salud Fuente: Elaboración propia

171

TLI 0.989 1

CFI 0.999 1

Correlación. 1.00

0.607

0.73

X

P 0.001 0.852

Estimativo (X4) 0.90 -

Continuidad

X

GL 2 1

Fuente: elaboración propia

Estimativo (X1) (X2) (X3) 0.607 0.609 0.73 -

X1 X2 X3 X4 Correlación Fuente: elaboración propia

X2 11.541 0.025

RMSEA 0.069 0


Zapata-Gómez / DYNA 81 (186), pp. 166-174. August, 2014.

La determinación de si la calidad general es un concepto separado y diferente de la calidad operacional, se aclaró a través del análisis factorial confirmatorio de la tabla 7, mediante la aplicación del modelo de ecuaciones estructurales validado con los indicadores de ajuste del análisis [66]. Se encontró que la calidad general no es un concepto separado de la calidad operacional, esto puede deberse a la baja cantidad de dimensiones, variables y aspectos que componen los fundamentos teóricos del modelo planteado. Un aspecto importante es la mayor carga de la variable de atención humanizada con un valor de 0,73. Este resultado confirma la percepción del usuario y la correlación de los elementos teóricos (cultural, religión, estilos de vida y costumbres); permitiendo a la organización, modificar sus procesos en pro de la mejora del servicio. 4. Conclusiones Los resultados obtenidos en la investigación evidenciaron un nivel alto de calidad, por el grado de aprobación de los usuarios con relación a los servicios ofrecidos por la organización de salud, reportando entre 0,6 y 0.7 como efecto. Aunque el servicio de salud puede operar consecutivamente en un nivel aceptable de calidad, su desempeño y búsqueda de competitividad obedecerán potentemente del grado de calidad que sus usuarios le atribuyan. La calidad operacional evaluada por los componentes de continuidad (0.607), suficiencia e integridad (0.609) y la atención humanizadas (0.703) y por los resultados de las correlaciones aceptables indican que la atención es continua, la satisfacción de las necesidades de salud es oportuna y que se tienen en cuenta una serie de necesidades de los usuario y las partes interesadas. En la práctica, esto es real, hoy se atiende más demanda y el servicio se ejecuta de manera satisfactoria. En este sentido los resultados de una evaluación como la realizada; puede traer beneficios para la toma de decisiones por parte de la gestión en salud, por el conocimiento del nivel de calidad expresado a través de la conducta del usuario, que es más crítico y exigente. Aun así, quedan pendientes ajustes financieros, tecnológicos y humanos que garanticen el mantenimiento y mejora del grado de calidad de sus servicios, lo que contribuiría enormemente a un mayor nivel de satisfacción de los usuarios, objetivo primordial de todos servicios. Esta contribución aporta teórica y metodológicamente a la calidad al desarrollar al modelo conformado por las dimensiones de calidad operacional y calidad general en el ambiente del proceso de salud. Los resultados confirmaron que el concepto de la calidad general no es una dimensión diferente, ni separada de la calidad operacional, puesto que el análisis factorial, la evaluación de las correlaciones, la estimación del modelo teórico, la comparación de los resultados de los modelos y el análisis del modelo estructural proyectaron resultados altamente significativos. Se observó la mayor carga en la dimensión de atención humanizada 0.73, los usuarios evalúan el esmero en la prestación del servicio, la presteza, la complacencia y el

trato digno. La percepción del usuario revela que la institución de salud tiene en cuenta las necesidades de índole cultural, religiosa, estilos de vida y costumbres que mantienen la dignidad del ser, reflejando un alto nivel de calidad. Para la variables suficiencia e integridad con resultados casi idénticos,0.609 y 0.607 respectivamente, se da el mismo análisis donde las percepciones son mayores a las expectativas aunque con nivel modesto. El proceso de atención es continuo y bajo el cuidado de un equipo de profesionales que satisfacen las necesidades de salud del usuario. La calidad general con un estimativo de 0.90, indica que la percepción de los usuarios es mayor que sus expectativas, validando un alto nivel de calidad en la institución, donde ésta no solamente se limita a la prestación del servicio de conformidad con los requerimientos de cada cliente sino que va más allá. Futuros estudios deberán explorar con un número superior de componentes en la formulación de la noción de calidad operacional y general, con otros aportes teóricos y otros modelos aumentando la diferencia entre las bases y definiciones del servicio salud en función de la calidad del servicio integral. Referencias [1]

Hernández, A., Medina, A., Nogueira, D., Negrin, E. and Marqués, M., Systems characterization and clasification, a needed step for processes management and improvement. The specifics of health care organizations, Revista Dyna, 81 (184), pp. 193-200, 2014.

[2]

Dror, S. and Barad, M., A methodology for realignment of quality cost elements, Journal of Modeling in Management, 5 (2), pp.142 – 157, 2006.

[3]

Leong, G., Snyder, D. and Ward, P., Research in the Process and Content of Manufacturing Strategy. Omega: International Journal of Management Science, 18 (2), pp. 109-122, 1990.

[4]

Ahmad, S. and Schroeder, R., The importance of recruitment and selection process for sustainability of total quality management, International Journal of Quality & Reliability Management, 19 (5), pp. 540 – 550, 2002.

[5]

Nori, H. y Radford, R., Administración de operaciones y producción: Calidad total y respuesta sensible rápida, Mc. Graw Hill – Interamericana de Colombia S.A. Bogotá – Colombia, 1985.

[6]

Noble, M., Knowledge Management and Knowledge Management Systems: Conceptual Foundations and Research Issues, MIS Quarterly, 25 (1), pp. 25 -74, 1997.

[7]

Burgess, J., Bedford, T., Hobson, K., Davies, G., and Harrison, C., The production and consumption of environmental meanings in the mass media: A research agenda for the 1990s’, Transactions of the Institute of British Geographers, 15 (1), pp. 139-161, 1998.

[8]

Cheng; W., The manufacturing strategy and competitive priority of SMEs in Taiwan: A case survey. Asia Pacific Journal of Management, 16 (23), pp. 330-350, 1999.

[9]

Boyer, K. y Lewis, M., Competitive priorities: Investigating the need for trade-offs in operations strategy. Journal of production and Operations Management, 11 (1), pp. 1-20, 2002.

[10] Askar, M. y Mortagy, A., Assessing the relative importance of competitive priorities in Egyptian compiles. Advanced Management Journal, 72 (3), pp. 35-48, 2007.

172


Zapata-Gómez / DYNA 81 (186), pp. 166-174. August, 2014. [11] Lovelock et al., Modeling perceived service quality using different comparison standards. Journal of Consumer Satisfaction, Dissatisfaction and Complaining Behavior, 7 (1), pp. 126-142, 1981. [12] Lehtinen, and Lehtinen, The convergence of customer satisfaction and service quality evaluations with increasing customer patronage. Journal of Consumer Satisfaction, Dissatisfaction and Complaining Behavior, 8 (2), pp. 32-43, 1982. [13] Gronroos, C. Service management and marketing. Managing the moments of truth in service competition. Free press/Lexington Books, Lexington M.A, 1984. [14] Parasuraman, A., Zeithaml, V. y Berry, L. A Conceptual Model of Service Quality and its Implications for Future Research. Journal of Marketing, 49 (2), pp. 41-50, 1985.

[30] Oliver, R. Equity and disconfirmation perceptions as influences on merchant and product satisfaction. Journal of Consumer Research, 16 (2), pp. 372-383, 1981. [31] Churcill, E. y Surprenant, Y. Measuring Service Quality: A Reexamination and Extension. Journal of Marketing, 56 (1), pp. 5568, 1982. [32] Swant, J., Tawick, F. y Caroll, M. Satisfaction related to predictive, desired satisfaction: a field study. Nes findings on consumer satisfaction and complaining behavior, H. Keith Hunt and Ralp L. D. (eds), Bloomington, 1982. [33] Westbrook, R., y Reilly, M. Value-Percept Disparity - an Alternative to the Disconfirmation of Expectations Theory of Consumer Satisfaction, Advances in Consumer Research, 10 (1), pp. 256-61, 1983.

[15] Johnston, C. Performance demands of profession male tennis players. Br J Sports Med, 40 (8), pp. 696-939, 1995.

[34] Caddote, Woodruff y Jenkins Qualitative Inquiry and Research Design: Choosing Among Five Traditions 2nd Ed. Thousand Oaks, CA: Sage Publications, 1987.

[16] Asubonteng, E. McCleary, D. y Swan, J. SERVQUAL revisited: a critical review of service quality, Journal of Services Marketing, 10 (6), pp. 62 – 81, 1996.

[35] Tse, D., Nicosia, F. y Wilton, P. Consumer satisfaction as a process. Psychology & Marketing, 4 (1), pp. 12-18, 1990.

[17] Oliver, R. Consumer perceptions of interpersona1 equity and satisfaction in transactions: a field survey approach. Journal of Marketing, 53 (2), pp. 21-35, 1980. [18] Lewis, F. y Booms, R. Evaluación de la calidad de servicio y fijación de objetivos en unidades de negocio. Un enfoque de frontera. Advances in Consumer Research, 11 (11), pp. 56-61, 1984. [19] Holbrook y Corfman y Olshavsky. Una propuesta de modelo estratégico para la gestión de la calidad del servicio, Omega: International Journal of Management Science, 8 (12), pp. 19-22, 1985. [20] Holbrook y Corfman. Estrategia – Medición y Calidad Total. Omega: International Journal of Management Science, 8 (1), pp. 1012, 1985. [21] Zeithaml, V. The new managers, The Swedish Work Environment Fund, Stockholm. Journal of the Academy of Marketing Science, 121 (1), pp. 111- 212, 1988. [22] Parasuraman, A., Berry, L. y Zeithaml, V. SERVQUAL: A multipleitem scale for measuring consumer perceptions of service quality. Journal of Retailing, 64 (1), pp. 12-40, 1988. [23] Bitner, B. Gestión de la calidad del servicio, Edit. Control de Gestión. México, 1990. [24] Bolton y Drew. El conocimiento de las expectativas de los clientes: Una pieza clave de la calidad de servicio. Argentina, Editorial Norma, 1991. [25] Horovitz, B. La calidad del servicio. McGraw Hill. Mexico, 1993. [26] Cronin, Q. y Taylor, T. Estructura multidimensional de la calidad de servicio. Journal of Consumer Satisfaction, 47 (11), pp. 26- 32, 1993. [27] Howard, D. y Sheth, R. A Study of Purchase Decision Behavior in Lincoln Clark Ed., Dynamics of Consumer Decision, Pergamum Press, USA, 1969. [28] Hunt, A. Overview and Future Research Directions. En Hunt (eds.), Conceptualization and Measurement of Consumer Satisfaction and Dissatisfaction, Cambridge: Marketing Science Institute. pp. 455488, 1997. [29] Oliver, R. Sharing knowledge, celebrating identity: community memory in a service culture, en Middleton, D. y Edwards, D. (eds.), London: Sage, 23 (2), pp. 169-189, 1980.

[36] Westbrook, R. y Oliver, R. The dimensionality of consumption emotion patterns and consumer satisfaction. Journal of Consumer Research, 18 (1), pp. 84-91, 1991. [37] Mano, H. y Oliver, R. Assessing the dimensionality and structure of the consumption experience: evaluation, feeling, and satisfaction. Journal of Consumer Research, 20 (2), pp. 451-466, 1993. [38] Halstead, D., Hartmant, D. y Schmidt, S. Multisource Effects on the Satisfaction Formation Process, Journal of the Academy of Marketing Science, 22 (2), pp. 114 –129, 1994. [39] Oliver, R. Satisfaction: A Behavioral Perspective on the Consumer, Boston, MA: Irwin McGraw-Hill, 1996. [40] Schneider, T. y White, F. The Impact of Other Customers on Service Experiences: A Critical Incident Examination of Getting Along, Journal of Retailing, Hartline, Michael D. and O.C. Ferrell, 73 (1), pp. 63-85, 2004. [41] Pakdil, F. y Harwood, T. Patient Satisfaction in a Preoperative Assessment Clinic: An Analysis Using SERVQUAL Dimensions, Total Quality Management, 16 (1), pp. 15–30, 2005. [42] Lee, J. Measuring Service Quality in a Medical Setting in a Developing Country: The Applicability of SERVQUAL, School of Business, Alabama, 27 (2), 2005. [43] Agrawal, R. y Sanjaya S. Service Quality Measurement in Retail Store Context: A Review of Advances Made Using SERVQUAL and RSQS. The Marketing Review, 6 (3), pp. 317-330, 2006. [44] Yeşilada, F. y Yurdakul, D. Improving healthcare service quality: an application of integrating servqual and kano model into quality function deployment, International journal of business research, 9 (7), p. 156 – 188, 2009. [45] Mosahab, R., Mahamad, O., Ramayah, T. Service Quality, Customer Satisfaction and Loyalty: A Test of Mediation. Total Quality Management, 16 (1), pp. 232 – 255, 2005. [46] Ravichandran, K., Tamil, B., Kumar, S. Influence of Service Quality on Customer Satisfaction Application of Servqual Model, International Journal of Business and Management, 5 (4), pp. 33 – 45, 2010. [47] Nair, R., Ranjith, P., Bose, S y Shri, C. A Study of Service Quality on Banks with Servqual Model, SIES Journal of Management, 7 (1), pp. 35-45, 2010. [48] Randheer, K., AL-Motawa, A. y Vijay, P. Measuring Commuters' Perception on Service Quality Using SERVQUAL in Public Transportation, International Journal of Marketing Studies, 3 (1) pp. 23-45, 2011.

173


Zapata-Gómez / DYNA 81 (186), pp. 166-174. August, 2014. [49] Desaiv, V. Case Study: Patient Satisfaction and Service Quality Dimensions, Advances In Management, 4 (5), pp. 120, 2011 [50] Malik, S. Customer Satisfaction, Perceived Service Quality and Mediating Role of Perceived Value, International Journal of Marketing Studies, 4 (1), p.20 – 32, 2012. [51] Zapata, A., Sarache, W., Becerra, F. Gestión de calidad: Hacia un modelo integrado de estándares. Universidad Nacional de Colombia, Editorial Blanecolor S.A, Manizales, pp. 120, 2012. [52] Zapata, A., Sarache, W. Calidad y responsabilidad social empresarial: un modelo de causalidad, Revista Dyna, 80 (177), pp. 31-39, 2013. [53] Parasuraman, A., Berry, L. y Zeithaml, V. More on improving service quality measurement. Journal of Retailing, 69 (1), pp. 140147, 1993. [54] Parasuraman, A., Berry, L. y Zeithaml, V. Refinement and reassessment of the SERVQUAL scale. Journal of Retailing, 67 (2), pp. 420-450, 1991. [55] Lapierres, E. Analysis and Interpretation f Qualitative Data in Consumer Research, Journal of Consumer Research, 21 (2), pp. 491503, 1996. [56] Oliver, R. Effect of Expectation and Disconfirmation on Postexpense Product Evaluations: An Alternative Interpretation, Journal of Applied Psychology, 62 (4), pp. 480-86, 1997. [57] Simmons, S. y Heinonen, A. Testing the SERVQUAL Scale in the Business-to- Business Sector: The Case of the Ocean Freight Shipping Ser-vice, Journal of Services Marketing, 13 (2), pp. 13248, 2000. [58] Heinonen, A. A customer oriented approach to managing noncommercial foodservice operations. Journal of Restaurant & Foodservice Marketing, 4 (1), pp. 5-18, 2004.

[60] Parasuraman, A., Zeitham1, V. y Berry, L. Reassessment of Expectations as a Comparison Standard in Measuring Service Quality: implications for Further Research. Journal of Marketing, 58 (2), pp. 111-124, 1994, (a). [61] Ronderos, M. Lo mejor y lo más débil del sistema de salud colombiano. Política Nacional de Prestación de Servicios de Salud Ministerio de la Protección Social. Bogotá D.C, 2013. [62] Parasuraman, A., Zeithaml, V. y Berry, L. Alternative scales for measuring service quality: a comparative assessment based on psychometric and diagnostic criteria. Journal of Retailing, 70 (1), pp. 201-230 1994, (b). [63] Dane. Informe de la trimestral. municipios, Manizales, 2012.

Población de Caldas y sus

[64] Dirección Territorial de Salud de Caldas. Boletín de Prestación de Servicios. Centro Regulador de Urgencias y Emergencias-CRUE, Manizales, 2012. [65] Hair, et al. Building a competitive advantage for service firms: Measurement of consumer expectations of service quality. Journal of Services Marketing, 7 (2), pp., 22-32, 1998. [66] Batista, J. y Coenders, G. Modelos de ecuaciones estructurales. Cuadernos de estadística, La Muralla, Madrid, 2000, pp. 68 – 73. A. Zapata-Gómez, Ing. Industrial, Especialista en Alta Gerencia con énfasis en Calidad, MSc. en Medio Ambiente y Desarrollo y candidata a PhD. en Ingeniería de la Universidad Nacional de Colombia, Sede Manizales. Docente del Departamento de Ingeniería Industrial de la Universidad Nacional, Sede Manizales en las Áreas de Producción y Calidad e integrante del grupo de Investigación en Innovación y Desarrollo Tecnológico.

[59] Kiely, J. y Armistead, C. Exploring the Future Roles and Capabilities of Customer Service Professionals, Managing Service Quality, 14 (1), pp 26-39, 2004.

174


Elements that define the social responsibility of a product Francesc Xavier Espinach a, Ramón Ripoll b, Josep Tresserras c & Fernando Julián d a

Escuela Politécnica Superior, Universitat de Girona, España. francisco.espinach@udg.edu b Escuela Politécnica Superior, Universitat de Girona, España. ramon.ripoll@udg.edu c Escuela Politécnica Superior, Universitat de Girona, España. jose.tresserras@udg.edu d Escuela Politécnica Superior, Universitat de Girona, España. fernando.julian@udg.edu

Received: September 10th, 2013. Received in revised form: May 9th, 2014. Accepted: June 17th, 2014.

Abstract The research is based on the relationships established between the design processes, the products that are the result of such processes and all the other affected actors. The definition of a Socially Responsible Product (PSR), from the point of view of the companies and the designers, is researched, and also, how that concept affects their working processes. The research builds a research framework, by analyzing the tasks developed by the practitioners. This is a qualitative analysis using a Grounded Theory and case studies. The scope of the research includes interviews with junior designers and companies, and the subsequent triangulation the results with the opinions of experts. The main results were the specification of the features that a product must exhibit to be considered socially responsible, together with the proposal to include these categories in the basic specification of the products. Keywords: product design, product responsibility, social responsibility, innovation, enterprise.

Aspectos que definen la responsabilidad social del producto Resumen La investigación se fundamenta en las relaciones entre los procesos de diseño, los productos que son el resultado y los actores necesarios que son causantes o resultan afectados. Averigua qué concepto tienen los diseñadores y las empresas sobre Producto Socialmente Responsable (PSR) y cómo el hecho de tenerlo en cuenta puede repercutir en el desarrollo de su trabajo. La investigación construye un marco teórico, analizando las tareas de los profesionales expertos y el modo en cómo desarrollan su trabajo. Se concreta en un análisis cualitativo realizado mediante la Grounded Theory y el estudio de casos. Se han efectuado entrevistas a diseñadores junior y empresas, triangulando posteriormente los resultados con las opiniones de expertos. Los principales resultados han sido la especificación de las categorías necesarias para que un producto pueda ser considerado Socialmente Responsable, junto a la propuesta de incluir dichas categorías en la especificación básica de los productos. Palabras clave: diseño de producto, producto responsable, responsabilidad social, innovación, empresa.

1. Introducción La mayoría de las investigaciones sobre la responsabilidad social están basadas en la gestión de las empresas y en cómo ésta influye en dicha responsabilidad. De esta manera existe una gran cantidad de trabajos que tratan de definir los conceptos aplicables, y las consecuencias de la responsabilidad social sobre los grupos de interés. La mayoría de dichos trabajos se centran en grandes empresas y corporaciones. De todas formas, se ha hecho un gran esfuerzo para trasladar las teorías de la Responsabilidad Social Corporativa (CSR) a las pequeñas y medianas empresas, y tener en cuenta sus particularidades [1,2]. También existen múltiples trabajos sobre la ética aplicada al diseño industrial y

a los diseñadores, pero bajo el conocimiento de los autores existen pocos trabajos que hayan investigado la responsabilidad de los productos, o cómo afectan estos mismos productos a la mejora de la sociedad. El propósito de la investigación es presentar una teoría fundamentada de la posible definición de un Producto Socialmente Responsable (PSR). Se explora el concepto de Diseño Socialmente Responsable (DSR) tanto desde la vertiente social como desde la Responsabilidad Social de las Empresas (RSE), definiendo ésta como un modelo completo de negocio diseñado para satisfacer los requerimientos y expectativas de todas las partes interesadas en una compañía, tales como consumidores, trabajadores, accionistas, proveedores y sociedad en general [3]. Se

© The author; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 175-183. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Espinach et al/ DYNA 81 (186), pp. 175-183. August, 2014r.

observarán las percepciones de los productos por parte de diseñadores júnior y de este modo, poder saber si son capaces de atender su componente de responsabilidad social respeto de otros grupos de interés (Stakeholders) diferentes a los usuarios clásicos. La investigación se centra en la cultura social y de las organizaciones respecto a la responsabilidad social de los productos (RSP); sobre el concepto de producto socialmente responsable (PSR) y los procesos de cambio cultural y procesal en las pequeñas y medianas empresas (PYMES). Estas empresas tienen una fuerza de trabajo de 1 a 249 trabajadores y no están participadas en más del 25% por otros grupos no considerados PYME. Se buscan los mecanismos que pueden posibilitar un cambio cultural, que permita introducir los conceptos de responsabilidad en sus mecanismos de gestión [4]. Por otra parte, los diseñadores están fuertemente implicados en su trabajo, teniendo poco tiempo para desarrollar teorías, de forma que sus campos de actuación carecen de una importante base teórica. De forma alternativa se puede dar el caso que la teoría existente no incluya totalmente la complejidad de su experiencia diaria. Schön [5] observó este fallo entre teoría y práctica en el desarrollo profesional de las tareas por parte de expertos. El conocimiento de los profesionales y los conocimientos teóricos no coinciden de una forma correcta, destacando: el carácter cambiante de las situaciones reales, su complejidad, incertidumbre, inestabilidad, singularidad y los conflictos de valores que están siendo percibidos como capitales en la práctica profesional. En el caso de los profesionales del diseño, sus decisiones sobre la arquitectura de los productos, sus especificaciones e incluso los procesos mediante los cuales se fabricarán, cumplen las premisas de complejidad, incertidumbre y singularidad, que revelan la falta de coincidencia entre práctica y teoría [6,7]. Por otra parte, en las sociedades capitalistas postindustriales [8] se definen claramente los conceptos de responsabilidad civil, y de responsabilidad penal. En los últimos 150 años, la realidad empresarial se ha centrado en la técnica. Actualmente, las herramientas y los productos realizados por el hombre están adquiriendo un enfoque más social. Las otras tipologías de responsabilidad, aunque en auge [9], quedan más difuminadas por la falta de un código que las ampare. Aunque hay autores que sitúan la situación actual dentro un contexto de posmodernidad, hay otros que defienden la imposibilidad de ésta [10]. Cara al modelo, nos basaremos en una ética posmoderna, siguiendo también las bases de la triple hélice [11], al existir una bibliografía más amplia, e incluso poder incluir una visión de co-innovación. Al relacionar la innovación con la responsabilidad social, se busca el vínculo entre el producto (la innovación) y la sociedad (el destinatario) [12]. Así se encuentran modelos como el de PSR [13], o el de diseño contra la delincuencia [14]. Estas visiones del diseño amplían la perspectiva respeto la visión clásica [6, 7], en gran manera añadiendo especificaciones y puntos de discusión. De este modo aparecen las componentes sociales del producto añadidas a las de uso, forma y función [15]. Hay otros componentes como la sostenibilidad, el diseño universal o inclusivo, ya definido hace años [16]. Más que mostrar el

modelo de PSR [13], hay que verificarlo por triangulación, y mostrar si todas las componentes apuntadas en él acaban incorporándose a la nueva definición. Buscamos una representación de la sociedad sobre la cual validar los parámetros definidos por el PSR. Parece importante tener en cuenta la Stakeholders Theory [17,18] a la hora de definir los grupos evaluadores. Según Freeman afirmamos que una visión que sitúe los aspectos morales fuera de la esfera de la empresa, reduciendo la misión del gerente a hacer aumentar los beneficios monetarios, es más proclive a generar comportamientos poco éticos. Este hecho aumenta las fronteras de la responsabilidad desde el usuario a los afectados por el uso del producto / sistema [19]. 2. Metodología Se define la tipología de la búsqueda como cualitativa, y el método, la Teoría fundamentada o Grounded Theory (GT). La codificación usada es abierta, “in vivo” y se obtiene a partir de las respuestas de los entrevistados. La Teoría fundamentada [20, 21] describe la primera etapa del análisis de los datos como codificación abierta. La siguiente fase de codificación es “axial”, realizando conexiones entre las diferentes categorías. La estrategia de búsqueda elegida para esta investigación es la GT, la cual se ha descrito como estrategia de búsqueda y propone un enfoque inductivo, a partir de una observación profunda de los datos, de la cual se deriva una teoría aclaratoria. El marco de la GT impone una disciplina, mediante la necesidad de referirse a datos observados y a la vez proveyendo de fuentes de reflexión [22]. Principalmente, se ha mostrado útil para entender mejor los fenómenos sociales [23]. El fenómeno social que estudiamos, trata la forma en cómo los diseñadores y las PYMES definen los PSR. La GT es particularmente conveniente para esta búsqueda, puesto que se basa en la observación de los procesos de diseño de diseñadores y empresas, entendiendo los mecanismos que los relacionan con la responsabilidad de producto. La fuente principal de los datos ha sido una serie de entrevistas, conducidas con gerentes y directivos de PYMES europeas. Han participado estudiantes de diseño industrial de la Universitat de Girona (España). Una vez que la codificación y análisis de los datos mostró saturación se abandonó la codificación de encuestas adicionales. La búsqueda usa datos de 48 estudiantes de diseño permitiendo la generación del concepto de PSR y sus implicaciones a un coste bajo. A continuación se han entrevistado 51 PYMES europeas (32 españolas, 12 italianas y 7 escocesas). Las condiciones de elección, aparte de estar constituidas como PYME fueron, que pudieran considerarse innovadoras y que mostraran predisposición hacia la responsabilidad social (eco-etiqueta, adhesión a programas sociales…). Los cuestionarios fueron estructurados en tres apartados principales: datos de la empresa, procesos de innovación y responsabilidad social corporativa. Analizados los datos, se dibujó un diseño teórico del proceso de diseño para un PSR. La segunda fase de entrevistas se realizó a 20 de las PYMES, que fueron las que mostraron un interés en seguir colaborando en la investigación. Las

176


Espinach et al/ DYNA 81 (186), pp. 175-183. August, 2014r.

entrevistas se realizan en el marco del proyecto europeo de búsqueda Response, y financiadas por la UE [24]. Los cuestionarios fueron del tipo semi-estructurado, con preguntas abiertas. El cuestionario constó de apartados referentes a: innovaciones de producto, innovaciones de proceso, y actividades de RSC relacionadas con los empleados, los proveedores, el medio ambiente, los clientes y la comunidad local. La pregunta más relevante para el presente estudio fue “Qué entiende su compañía pos responsabilidad social”. Los estudiantes participantes pertenecen al último curso del estudio de Ingeniería del Diseño Industrial de la Universitat de Girona. Posteriormente se interrogaron a 11 posgraduados y 7 profesionales sobre los resultados de la búsqueda como fuente de triangulación y confirmación. La triangulación [20] se realizó en la segunda etapa de cada una de las búsquedas. Los cuestionarios fueron del tipo semi-estructurado. En el primer apartado se recogieron datos sobre el encuestado. Posteriormente, los encuestados realizaron una lista de 10 objetos cotidianos con los que tuvieran contacto. A continuación se les preguntó por qué eran valiosos para ellos, cómo contribuían a mejorar su felicidad, sus relaciones con la familia y con la sociedad. Seguidamente se les preguntó qué cambios se deberían efectuar en dichos productos para mejorar la puntuación obtenida en el apartado anterior. Una vez recogidos los primeros datos, se usaron códigos conceptuales para identificar incidencias o hechos relacionados con el objeto de la búsqueda. Algunos de los códigos se seleccionaron directamente de las entrevistas y encuestas “códigos in vivo”. Se documentó cada código con una explicación; proceso conocido como “open coding” [21]. Los códigos se extrajeron del texto y se les asignó un marcador alfanumérico. El resto de las encuestas sirvieron para medir la bondad del código, a la vez que fueron analizados y codificados, proceso conocido como “constant comparative analysis” [23]. Se realizó una lista con todos ellos. Cada nuevo código se confrontó con la lista para asegurar su singularidad, y entonces ser añadido. A la vez se generó una memoria de la búsqueda, la cual contiene: consideraciones sobre los códigos iniciales, sobre otros datos, mapas conceptuales, agrupaciones de códigos, diagramas de relaciones entre códigos y una lista de posibles búsquedas en la literatura científica. Posteriormente se dedujeron cómo se relacionan los códigos, a nivel de causas, contextos, contingencias, consecuencias o condiciones. Se realizaron diagramas para verificar la singularidad, unicidad, y superposiciones. Las categorías se agruparon en secciones para generar la teoría fundamentada. 3. Resultados

Figura 1. Categorías principales y subcategorías. Fuente: elaboración propia

compuesta por empresas que van más allá de lo estrictamente legal e integran actividades de responsabilidad social a nivel operativo (“…la responsabilidad es una oportunidad para mejorar nuestras relaciones con los Stakeholders, pero no nos interesa a nivel estratégico…). Las empresas del tipo Social incluyen la responsabilidad social dentro de su plan estratégico, o la integran dentro de su cultura (“…en estos momento la RSC es una moda, pero nuestra empresa ha sido socialmente responsable desde su fundación…”). A continuación se exploran los resultados de las encuestas a los estudiantes de diseño. Una vez evaluadas las preguntas abiertas se han obtenido 3 categorías principales relevantes para la definición de las facetas más singulares de la responsabilidad relacionadas con el producto. Una de ellas hace una mención especial a la especificación de un PSR, la cual tiene a la vez 8 subcategorías (Fig. 1). 3.2. Componentes socializadores Quieren reflejar si el producto, relaciona o mejora el enlace entre el individuo y la sociedad cercana (familia y círculo de amistades) o por el contrario, si se transforma en un elemento de aislamiento. Destaca la individualidad de los jóvenes y la búsqueda de satisfacción inmediata de las necesidades propias sin una gran atención al entorno cercano. Esto se ve corroborado en el estudio de estadio de valores de Vallmajó [25]. Valores como la amistad, la solidaridad y el civismo, se ven superados por la búsqueda de la influencia, o el marquismo. 3.2.1 Individual

3.1. Categorización de las empresas Una vez analizadas las respuesta de las empresas a su concepto de responsabilidad social, se establecieron tres categorías, Legal, Operativa y Social. De esta forma, las empresas de tipo Legal, se caracterizaron por no ir más allá de lo que es legal, con respuestas del tipo: “…nosotros somos socialmente responsables desde el momento que generamos trabajo…”). La categoría Operativa, está

La mayoría de los entrevistados acentúan la componente individualizadora del producto, destacando la autosatisfacción. Al pedirles que examinaran los productos elegidos y de qué modo favorecían su relación o carencia con el entorno, se observó que la mayoría de los productos tenían una fuerte componente individual, obteniendo respuestas como: “…escogí aquello que me favorecía a mí personalmente…”

177


Espinach et al/ DYNA 81 (186), pp. 175-183. August, 2014r.

3.2.2. Familiar El producto actúa como una fuente de unión o de mejora de las relaciones entre el usuario y su familia. Aunque esta categoría no se satura tan rápidamente como la anterior, sí que se encuentran suficientes casos para definirla. Un producto que socialice respecto a la familia, aumenta el número de usuarios y por lo tanto, el público objetivo al cual va dirigido. Los comentarios para generar esta categoría fueron del tipo “…una fuerte vinculación con la familia…”, “…actividades que ayuden a la convivencia…”. 3.2.3. Social El concepto social en el que se establecen vínculos, se reduce rápidamente a las amistades. La categoría explora los mecanismos de relación y se refleja en citas como: “…también me encuentro con amigos, gente conocida, un colectivo…”, “…doy importancia a los productos que me relacionan con los amigos”. 3.3. Componentes sociológicos Buscan ver si el producto es capaz de generar sensaciones en el usuario, que unan de forma positiva o negativa a éste con la sociedad. Se trata de intangibles y por lo tanto, de componentes que forman parte del producto de forma inducida por los productores o deducida por los usuarios. 3.3.1. Búsqueda de sensaciones Los usuarios al usar un producto buscan la satisfacción de sus necesidades, algunas de ellas explícitas (cocción, refrigeración...), otras más tácitas (experiencia mediante el uso del producto). En el proyecto europeo FIORES II [26] se investigan estos vínculos y las principales sensaciones, pudiéndose considerar una fuente de triangulación. El proyecto detecta la relación y prueba la posibilidad de manipular el diseño de los productos para la generación de valor. Las dos sensaciones principales son libertad y eternidad. La libertad es interpretada de dos maneras, la primera positiva, como posibilidad de acometer actividades que de otra manera serían imposibles (“…Permite adentrarte en lugares remotos…”), la segunda negativa, como fuente de aislamiento hacia los otros (“…no estar ligado a terceras personas…”). Respecto a la Eternidad, los usuarios buscan que sus vivencias queden como recuerdo para ser compartidas con los otros [27]. 3.3.2. Estados Refleja los principales estados de ánimo demandados por los usuarios. Correctamente vehiculados pueden generar mejoras sociales, aunque las respuestas obtenidas apuestan por enfatizar el aislamiento y el individualismo. a) En donde la experiencia de uso que proporciona placer y diversión generará componentes positivas en el individuo, pero si éstas, como parece, son individuales, difícilmente afectarán a la mejora de la sociedad (“…me entretiene y me

evade…”) b) Descanso, relacionada positivamente con la componente de salud (“…me proporciona comodidad, relajación, descanso y placer…”). c) Soledad (“…desconectar del mundo que te rodea…”). El usuario se quiere aislar del entorno y romper vínculos. Si es una circunstancia temporal se puede relacionar positivamente con la componente de salud y bienestar, pero si es continuada puede afectar la socialización del individuo. 3.3.3. Dependencias Manifiesta uno de los principales efectos negativos debidos al uso de productos (“…he de aceptar que crea mucha dependencia…,…he de aceptar que crea mucha dependencia…”). Estará negativamente ligada con la salud y la educación, junto con la socialización. 3.4. Componentes de responsabilidad Esta categoría busca las maneras en que un producto puede modificar la forma y cómo el usuario se relaciona con el entorno. Cada una de las componentes refleja las características que pueden indicar un punto de coincidencia entre la realidad social y el producto. Los encuestados respondieron sobre cómo se podían mejorar socialmente los productos analizados. 3.4.1. Educación Un producto puede mejorar o empeorar la educación de una sociedad (“…incorporar mecanismos para el autoaprendizaje…”). El mal uso, o la falta de prevención de mecanismos que no lo permitan puede ser una de las principales causas del empeoramiento. De este modo, un sistema de comunicación mal diseñado puede empeorar paulatinamente la riqueza expresiva de los usuarios, o su atención a las normas ortográficas. El caso más conocido es el de los mensajes cortos mediante los teléfonos celulares. La rapidez de tales mensajes ha creado una nueva forma de lenguaje que resta importancia a las consideraciones lingüísticas y ortográficas. La generación de vínculos al compartir un producto con otros, puede ayudar a mejorar la educación de los usuarios y activar positivamente su relación con la sociedad cercana (“…cambiar las formas de interactuar y hacerlas más intuitivas…”). 3.4.2. Salud La mejora de la salud de una sociedad es un índice social importante [28]. Si los productos son capaces de favorecer conductas saludables se estará contribuyendo positivamente al adelanto social, pudiendo actuar de forma activa, mejorando directamente la salud, o de forma pasiva, informando del estado actual (“…limitar el uso si es nocivo…,…incorporar sistemas de seguridad activos y pasivos…”). Actualmente se ve un cambio en el marketing de ciertos productos [12,29] los cuales hacen una fuerte mención a la mejora en la salud del usuario como síntoma de satisfacción.

178


Espinach et al/ DYNA 81 (186), pp. 175-183. August, 2014r.

3.4.3. Seguridad/Delincuencia Hace una mención especial a la defensa contra los robos o acciones delictivas (“…incorporar elementos contra el robo…”). Una segunda interpretación sería la imposibilidad de realizar un mal uso del producto (“…chequeos de seguridad que no permitan usar el producto si el usuario no está en condiciones…”). Cualquier producto que de forma activa o pasiva haga que el usuario se sienta más seguro, ayudará a mejorar el medio social. 3.4.4. Comercio justo El comprador toma conciencia de los productos que compra y la forma como han sido producidos enmascara componentes de justicia social, y está preparado para valorarlos y pagar un diferencial (“…tener en consideración los países subdesarrollados. No solo usarlos como fabricantes, enseñarles el proceso…”). 3.4.5. Medioambiental El hecho que un medio ambiente mejor sea una componente positiva de la sociedad no es ninguna sorpresa. Hay muchas fuentes de triangulación [16, 30]. Los entrevistados destacan tanto los efectos adversos debidos al uso del producto como los debidos a su diseño, siendo parcialmente conscientes del ciclo de vida del producto (“…usar materiales naturales y biodegradables…,…habilitar puntos de recogida…”). 3.4.6. Grupal Destaca que el producto puede ayudar a la creación de vínculos con otros usuarios o personas del entorno cercano o lejano. Desde el momento que un producto ayuda, permite, incita u obliga a generar vínculos o puntos de unión con otros agentes sociales, éste puede ser considerado tanto positivo como negativo dependiendo de la tipología positiva o negativa del vínculo (“…permite compartir gustos y aficiones con otros…”). 3.4.7. Diferenciación El individualismo es una de las componentes más destacadas del grupo de valores de los jóvenes. Se estudia la relación desde el usuario hacia la sociedad usando el producto como filtro. De este modo no es una condición implícita de los productos la que marca la relación, sino que es una interpretación tácita que hace el usuario. Esta componente puede tener un cariz negativo si se interpreta como generadora de barreras sociales de diferenciación. a) Diseño: el diseño de producto es una componente fuertemente tácita del producto (“…estéticamente me gusta mucho…”) [31]. Del mismo modo, es una de las principales características que aseguran el éxito de un producto junto con la innovación. b) Personalidad: permite reflejar el poder de identificación entre producto y usuario (“…permite reflejar como eres o lo que te gusta…, …necesidad de marcar un estilo propio…”). Refuerza la componente de individualismo. Si el producto

es capaz de reflejar valores positivos como la sostenibilidad o la educación, puede ser altamente positivo. c) Prestigio: puede llevar a la generación real de barreras sociales de relación al considerar el producto como una joya, implícitamente se hace mención al concepto de valor económico y posición dentro la escala social (“…pueden usarse de joya…”). Se puede confundir posesión de algunos objetos con pertenencia a ciertos estatus sociales (marquismo, elitismo...). 3.4.8. Facilidad de uso Hacer que un producto sea fácil de usar amplía rápidamente el número de usuarios en potencia (“…era muy fácil de usar, muy intuitivo…”). De este modo se refleja que la sociedad aprecia los productos desde un punto de vista ergonómico y educativo. 3.5.

Codificación selectiva para la especificación de producto socialmente responsable

Se identifica una categoría principal que es la de componentes de responsabilidad, la cual es la generadora de la mayoría de relaciones. Dentro de esta categoría se eliminan la componente grupal y de diferenciación y las restantes componentes principales se agrupan en una componente inversa que es la inclusión social. La nueva categoría que se genera incluye todas las categorías y subcategorías que se tienen que tener en cuenta para generar una especificación de PSR. La creación de la categoría viene validada por comentarios extraídos del texto, y posteriormente por la teoría del DSR [13]. A partir de la descripción que de los productos realizan los diseñadores se construyó la estructura conceptual de las partes de las cuales tiene que constar una especificación socialmente responsable de producto (Fig. 2). 3.5.1. Educación Explicita la forma como se pueden reflejar las posibilidades educativas de los productos. Principalmente se podrán aplicar mediante la ergonomía, el grado de conocimientos de la sociedad donde se use y la actuación de las autoridades. Los entrevistados identifican positivamente la relación entre PSR y su participación en la mejora de la educación. Ven posible una acción educativa mediante el uso de productos. Aunque identifican la posibilidad de usos incorrectos y la necesidad de políticas punitivas. Tiene un sentido individual, familiar y social. 3.5.2. Salud Los PSR tienen que tener en cuenta la salud de sus usuarios, pudiendo ser mejorada mediante componentes de ergonomía y de limitación de efectos perniciosos por uso, mal uso o emisiones del producto. Esta componente tiene que ser ampliada al ciclo de vida completo del producto. Esta componente tiene un sentido individual y social.

179


Espinach et al/ DYNA 81 (186), pp. 175-183. August, 2014r.

Figura 3. Triangulación de los resultados. Fuente: foto tomada por los autores

Figura 2. Categoría definición producto socialmente responsable. Fuente: elaboración propia

3.5.3. Delincuencia/Seguridad Está ligada positiva y negativamente con las anteriores. De este modo, la delincuencia se puede entender como un mal uso del producto y entonces, la posible penalización generada por la sociedad o por el mismo producto, afectarán la salud o la educación del usuario. Por otro lado se puede considerar la delincuencia como la posibilidad de verse afectado por conductas delictivas por parte de terceros, entonces el producto puede haber sido diseñado de forma que no permita o aminore las consecuencias de estos actos. Esta componente tiene un sentido individual y social, dependiendo de las interpretaciones anteriores del término delincuencia. 3.5.4. Comercio justo Pone de manifiesto la necesidad de ampliación de las fronteras de responsabilidad del producto en su ciclo de fabricación y a los responsables de su fabricación. Un PSR tiene que asegurar que no ha perjudicado socialmente a ninguna persona de la sociedad. Esta componente tiene un sentido ampliamente social. Las fuentes de triangulación son la CSR.

Figura 4. Punto de reciclaje. Elaboración propia

Pone de manifiesto la necesidad de ampliar la responsabilidad del producto en su ciclo de vida cumplido, desde la fabricación al reciclaje. Se pone de manifiesto la preocupación del usuario por la sostenibilidad del medio. Esta componente tiene un sentido social.

todos estos casos se ven reflejadas algunas o todas las componentes del concepto. De la teoría de la CSR, y sobre todo de su enfoque sobre la teoría de los Stakeholders [36,37] queda clara la importancia de la inclusión social. Otra fuente de triangulación han sido los medios de comunicación y publicidad de productos y empresas. Algunas de las componentes o parte de ellas están presentes en la publicidad de las marcas. Estos hechos permiten aceptar la base teórica desarrollada (Fig. 3).

3.5.6. Inclusión social

3.7. Propuesta de productos socialmente responsables

Los PSR tienen que asegurar que no se deja desatendida ninguna persona, por razones sociales, culturales o fisiológicas. Está fuertemente ligado con salud y educación, y tiene un sentido social.

Se presentan una serie de productos, que son socialmente responsables respecto a una de las categorías propuestas. • Educación: El producto aumentará los conocimientos o mejorará las actitudes de los usuarios o de la sociedad en la cual se use. Un ejemplo se encuentra en un punto de reciclaje, donde además de los aspectos educativos entran en juego los valores ecológicos (Fig. 4). Instalado en puntos de paso tales como estaciones y paseos, invitando a las personas a reciclar, en este caso: cd/dvd; cartuchos de impresora; teléfonos celulares; baterías de celulares;

3.5.5. Ecología

3.6. Triangulación de los resultados Los resultados se pueden triangular con los conceptos de sostenibilidad [32-34] y con la teoría del DSR [13,35]. En

180


Espinach et al/ DYNA 81 (186), pp. 175-183. August, 2014r.

baterías; bombillas de bajo consumo y bombillas halógenas. Añade información sobre el tratamiento posterior de cada uno de los residuos. • Salud: El producto, activamente o pasivamente, mejorará los ratios de salud de los usuarios o la sociedad en la cual se use. Es el caso por ejemplo de las bicicletas municipales (Fig. 5). El ciudadano paga una cuota anual y puede utilizar ilimitadamente las bicicletas. El recorrido se realiza a través de carriles específicos. Existen diferentes puntos de entrega y recogida, a través de una tarjeta y un punto de gestión. • Delincuencia/Seguridad: El producto tiene que asegurar o bien que no sea posible un mal uso, o que prevenga actuaciones ilegales, aumentando de este modo el nivel de seguridad del usuario o de la sociedad. Un claro ejemplo de prevención se encuentra en el sistema de antirrobo de los computadores portátiles (Fig. 6). El equipo está integrado y separado en módulos, lo cual hace que no tenga sentido sustraerlo, entre otras cosas por ser imposible su uso. • Comercio justo: El producto tiene que certificar que a lo largo de su ciclo de vida no se ha perjudicado a ninguna persona ni sociedad. Se tiene que asegurar que todas las transacciones son legales, ajustadas al marco jurídico y moral. En el caso del café de este establecimiento, la empresa se compromete con las condiciones de los agricultores y la ecología (Fig. 7).

Figura 7. Bolsa de azúcar para cafeterías. Fuente: foto tomada por los autores

Figura 8. Luminaria exterior LED. Fuente: foto tomada por los autores

Figura 5. Transporte urbano – bicicleta. Fuente: foto tomada por los autores

Figura 9. Cuadro de mandos ascensor. Fuente: foto tomada por los autores

Figura 6. Sistema antirrobo computadores portátiles. Fuente: foto tomada por los autores

• Ecología: El producto tiene que colaborar a la sostenibilidad del medio, impidiendo o aminorando cualquier tipo de emisión nociva o contaminante, así como evitando el derroche de recursos. En el caso de la luminaria presentada en la Fig. 8, recoge y almacena energía a partir de placas fotovoltaicas y la convierte en luz mediante tecnología LED de bajo consumo, siendo independiente de una instalación eléctrica cableada. • Inclusión social: El producto no tiene que generar 181


Espinach et al/ DYNA 81 (186), pp. 175-183. August, 2014r.

barreras de entrada por causas físicas, ni sociales, ni de creencias. Un ejemplo es el cuadro de mandos del ascensor presentado en la Fig. 9. Los botones de llamada, tanto interiores como exteriores, están situados a una altura correcta para poder ser utilizados por una persona en silla de ruedas. Respecto al uso por parte de invidentes utiliza el sistema braille para reconocer los diferentes pisos. Igualmente dispone de sonido por voz señalando la planta a la que se ha llegado. 4. Conclusiones Podemos afirmar que existe una definición para PSR. A partir de la codificación selectiva que establece las componentes para que un producto sea socialmente responsable y las relaciones establecidas, se puede concluir que un producto se puede definir como socialmente responsable. El PSR tendrá en cuenta las componentes que favorezcan la socialización del individuo en la sociedad y la mejora global de la misma. Para asegurar dicha mejora hará falta que el objeto satisfaga al menos alguna de las expectativas sociales de los grupos de interés implicados explicitadas en la forma de las categorías principales de la codificación selectiva. Las empresas de tipo Social son las que están más abiertas a la innovación de productos mediante la aplicación de la responsabilidad social. De acuerdo con los resultados, un producto será socialmente responsable cuando cumpla con todos los requisitos anteriores. En el caso de cumplir una parte será parcialmente responsable. El ámbito de aplicabilidad del concepto son las sociedades posmodernas, con un marco jurídico y social totalmente establecido. Todas estas componentes se tendrán que añadir a la especificación de producto y ser tenidas en cuenta en la etapa de diseño. Referencias [1]

Vazquez, R. and López, M.E., Small & medium-sized enterprises and Corporate Social Responsibility: A systematic review of the literature, Quality&Quantity, 47 (6), pp. 3205-3218, 2013.

[2]

Carrol, A.B. and Shabana, K.M., The business case for corporate social responsibility: A review of concepts, research and practices, International Journal of Management Reviews, 12 (1), pp. 85-105, 2010.

[3]

Vintro, C. and Comajuncosa, J., Corporate social responsibility in the mining industry: Criteria and indicators, DYNA, 77(161), pp. 31-41, 2010.

[4]

Halme, M. and Laurila, J. Philanthropy, integration or innovation? Exploring the financial and societal outcomes of different types of corporate responsibility, Journal of business ethics, 84(3), 325-339, 2009.

[5]

Schön, D.A., The Reflective Practitioner, Basic Books, Hampshire, U.K., 1998.

[6]

Pahl, G. and Beitz, W., Engineering design. A systematic approach, Springer, Frankfurt, 2007.

[7]

Pugh, S., Total Design: Integrated methods for successful product engineering, Addison Wesley, London, 1991.

[8]

Bell, D., The coming of Post-Industrial Society, Harper Colophon Books, New York, 1974.

[9]

Al-Khatib, J.A., Stanton, A.D.A. and Rawwas, M.Y.A., Ethical segmentation of consumers in developing countries: A company analysis, International Marketing Review, 22 (2), pp. 225-246, 2003.

[10] Bauman, Z., Ética posmoderna, Siglo XXI de España editores, Madrid, 2006. [11] Etzkowitz, H. and Leydesdorff, L., The dynamics of innovation: From National Systems and "Mode 2" to a Triple Helix of University-Industry-Government relations, Research Policy, 29 (2), pp. 109-123, 2000. [12] Boehe, D.M. and Cruz, L.B., Corporate social responsibility, product differentiation strategy and export performance, Journal of Business ethics, 91 (2), pp. 325-346, 2010. [13] Davey, C.L., Wooton, A.B., Thomas, A., Cooper, R. and Press, M., Design for the surreal world?: A new model of socially responsible design. Bremen, Germany: European Academy of Design; 2005. [14] Cooper, R., Davey, C.L. and Press, M., Design against crime: Methods and issues that link product innovation to social policy, International Journal of New Product Design, 3 (4), pp. 329-342, 2002. [15] Bigné, E., Currás-Pérez, R. and Aldás-Manzano, J., Dual nature of cause-brand fit: Influence on corporate social responsibility consumer perception, European Journal of Marketing, 46 (3/4), pp. 575-594, 2012. [16] Papanek, V., Design for the real World. Human Ecology and Social Change, Second Edition completely revised ed, Thames and Hudson, London, 1984. [17] Freeman, R.E., Strategic Management: A stakeholder approach, McGraw Hill, New York, 1984. [18] Freeman, R.E., Wicks, A.C. and Parmar, B., Stakeholder theory and "the corporate objective revisited", Organization Science, 15 (3), pp. 364-369, 2004. [19] Alniacik, U., Alniacik, E. and Genc, N., How corporate social responsibility information influences stakeholders' intentions, Corporate social responsibility and environmental management, 18 (4), pp. 234-245, 2011. [20] Denzin, N.K. and Lincoln, Y.S., Handbook of qualitative research, Sage, California, U.S.A., 1994. [21] Strauss, A. and Corbin, J., Basics of qualitative research, Sage, Newbury Park, U.S.A., 1990. [22] Lincoln, Y.S. and Guba, E.G., Handbook of qualitative research, (2nd edition), Sage, California, U.S.A., 2000. [23] Chenitz, W.C. and Swanson, J.M., From practice to grounded theory, Addison-Wesley, California, U.S.A., 1986. [24] Espinach, F.X., Response CSR:I Model validation WP3 Repport, Girona: Universitat de Girona, 2007. [25] Vallmajó, L., Great Team de valores, Girona: Filopolis, 2007. [26] Dankwort, W., Giannini, F., Colosio, C., Cappadona, F., Masabo, L. and Espinach, F.X., State of the art of the relations between sensations and geometry. WP1. Character preservation and modelling in aesthetic and engineering design Growth-Project GRD1-1999-10385, Kaiserslautern: Universitat von Kaisserslauter, Germany; 2002. [27] Zapata-Gómez, A. and Sarache-Castro, W.A. Calidad y responsabilidad social empresarial: Un modelo de causalidad, DYNA, 80 (177), pp. 31-39, 2013. [28] INE. Indicadores sociales de España 2011, vol. 6 de Mayo de 2013 Madrid: Instituto Nacional de Estadística, 2013.

182


Espinach et al/ DYNA 81 (186), pp. 175-183. August, 2014r. [29] Stellefson, M. and Eddy, J.M., Health education and marketing processes: 2 related methods for achieving health behavior change, Am J Health Behav, 32 (5), pp. 488-496, 2008. [30] Donnelly, K., Beckett-Furnell, Z., Traeger, S., Okrasinski, T. and Holman, S., Eco-design implemented through a product-based environmental management system, Journal of Cleaner Production, 14 (15-16), pp. 1357-1367, 2006. [31] Giannini, F. and Monti, M., Shape geometry and aesthetics, erciMATHEMATICS News, (50), pp. 27-28, 2002. [32] Keoleian, G.A. and Menerey, D., Sustainable development by Design - Review of Life-Cycle design and related approaches, Journal of the Air & Waste Management Association, 44 (5), pp. 645-668, 1994. [33] Vezzoli, C., A new generation of designers: Perspectives for education and training in the field of sustainable design. Experiences and projects at the Politecnico di Milano University, Journal of Cleaner Production, 11 (1), pp. 1-9, 2003. [34] Little, A.D., The innovation high ground. Winning tomorrow's customenr using sustainability-driven innovation, Strategic Direction, 22 (1), pp. 35-37, 2006. [35] Salmon, K., Socially responsible design at Pratt + March Conference Challenging-Design-Practice-and-Education, Architecture the AIA Journal, 82 (5), pp. 29-29, 1993. [36] Ayuso, S. and Argandoña, A., Responsible corporate governance: Towards a stakeholder board of directors, Navarra: University of Navarra, 2007. [37] Freeman, R.E. and Evan, W.M., Corporate governance: A stakeholder interpretation, Journal of Behavioral Economics, 19 (4), pp. 337-360, 1990. F.X. Espinach obtuvo el título de Ing. Técnico Industrial Mecánico el año 1995, y el título de Ing. en Organización Industrial el año 2002, ambas titulaciones en la Universidad Politécnica de Cataluña. En el año 2009 se doctoró en la Universidad de Gerona, dentro del programa de innovación en las empresas y las instituciones. Desde el año 1995 al año 2000 fue el responsable de proyectos de ingeniería de la empresa de construcciones metálicas Talleres Mores2, S.L. Desde el año 1995 al 2004 fue profesor asociado de la Universidad de Girona, pasando a ser profesor a tiempo completo el 2004, hasta la actualidad, siendo en estos momentos profesor

del Departamento de Organización, Gestión Empresarial y Diseño de Producto de la Escuela Politécnica Superior. Sus campos de investigación incluyen la Responsabilidad Social, la Innovación y Diseño de Productos y los Materiales Compuestos reforzados con fibras naturales. R. Ripoll, obtuvo el título de Arquitecto Técnico por la Universidad Politécnica de Cataluña el año 1983 y el de Arquitecto el año 1987. Es Doctor en Arquitectura por la misma Universidad Politécnica de Cataluña desde el año 2004. En el campo profesional ha hecho múltiples trabajos de obra nueva y de restauración. El campo de experimentación profesional se ha basado en la relación entre historia, función, y tecnología. Es profesor titular de la Escuela Universitaria y miembro del Departamento de Arquitectura e Ingeniería de la Construcción de la Universidad de Girona. Sus principales líneas de investigación son la relación histórica de los barrios urbanos, la relación entre arquitectura y el producto industrial y la relación entre espacio pictórico y espacio arquitectónico. J. Tresserras obtuvo el título de Ing. Técnico Industrial Mecánico el año 1976 por la Universidad Politécnica de Cataluña. Asimismo obtuvo el título de Licenciado en Bellas Artes, por la Universidad de Barcelona el año 1999, en esta misma universidad se doctoró el año 2011, dentro del programa de arte e Innovación en el espacio urbano. Trabajó como ingeniero de producto en Philips (España) y Volkswagen (Alemania). Ha sido director de formación del Centro de Diseño de Bilbao (DZ) desde el año 1988 al 1991. Asimismo ha sido director del Centro de Diseño de Madrid (CEDIMA) los años 1991-92. En la actualidad y desde el año 1992 es profesor titular de expresión gráfica del departamento de Organización, Gestión Empresarial y Diseño de Producto de la Escuela Politécnica Superior de la Universidad de Girona y director del Centro de Innovación y Desarrollo Conceptual de Nuevos Productos. Sus principales líneas de investigación son la Innovación de producto y el desarrollo de mobiliario urbano. F. Julián, obtuvo su licenciatura en BB.AA. especialidad diseño el año 1986 por la Universidad del País Vasco. En el año 1990 obtuvo el Graduado superior en diseño de productos en el ENSAD (École Nationale Supérieure des Arts Décoratifs) de París. En el año 1999 obtuvo el Doctorado en BB.AA. por la Universidad de Barcelona. De 1990 a 1992 trabajó como profesional libre del diseño industrial. Actualmente es profesor agregado del Departamento de Organización, Gestión Empresarial y Diseño de Producto de la Universidad de Girona. Es coordinador del Máster europeo de Ingeniería del Diseño de Productos. Sus intereses de investigación incluyen: estética y percepción de los productos industriales; innovación y creatividad aplicada; aplicación de nuevos materiales al diseño de productos; responsabilidad social de los productos industriales e innovación docente.

183


Kinetic modelling of drying of three varieties of yucca industrial Angélica María Torregroza-Espinosa a, Everaldo Joaquín Montes-Montes b, Adrián Enrique Ávila-Gómez c,& John Fredy Remolina-López d a Facultad de Ingeniería, Universidad de Córdoba, Colombia. angite4@hotmail.com Facultad de Ingeniería, Universidad de Córdoba, Colombia. emontes@unicordoba.edu.co c Escuela de Ingenierías y Arquitectura, Universidad Pontificia Bolivariana sede Montería, Colombia. adrian.avila@upbmonteria.edu.co d Escuela de Ingenierías y Arquitectura, Universidad Pontificia Bolivariana sede Montería, Colombia. john.remolina@upbmonteria.edu.co b

Received: September 16th, 2013. Received in revised form: June 18th, 2014. Accepted: June 27th, 2014.

Abstract Drying of three varieties of cassava, was conducted in a tunnel type dryer; the effect of temperature, variety and velocity of drying air on the drying time, using a completely randomized design in factorial arrangement with three factors: temperature (45, 55 and 70°C), speed drying air (1, 3 and 4 m/s) and range (Corpoica Tai, Gines and Veronica), performing three replicates per treatment, resulting in a decrease in drying time to the temperature of 70 ° C for the three varieties. The results obtained were built drying curves, in which it was found that this process took place in the period decreasing. Drying curves were fitted to mathematical models, determining by the R2 and the sum of squared errors (SSE), that page is the model that best describes the drying process. Keywords: Drying kinetics, mathematical models, equilibrium moisture, activation energy, effective diffusivity.

Modelado de las cinéticas de secado de tres variedades de yuca industrial Resumen El secado de tres variedades de yuca, se realizó en un secador tipo túnel; se evaluó el efecto de la temperatura, variedad y velocidad de aire de secado en el tiempo de secado, empleando un diseño completamente al azar en arreglo factorial con tres factores: temperatura (45, 55 y 70 ºC), velocidad de aire de secado (1, 3 y 4 m/s) y variedad (Corpoica Tai, Gines y Veronica), realizando tres repeticiones por tratamiento, dando como resultado una disminución en el tiempo de secado para la temperatura de 70ºC para las tres variedades. Con los resultados obtenidos fueron construidas las curvas de secado, en las cuales se observó que éste proceso tuvo lugar en el período decreciente. Las curvas de secado fueron ajustadas a modelos matemáticos, determinando mediante el R2 y la suma de errores cuadrados (SSE), que el modelo de page es el que mejor describe el proceso de secado. Palabras clave: Cinética de secado, modelos matemáticos, humedad de equilibrio, Energía de Activación, Difusividad efectiva.

1. Introducción La yuca es un cultivo que se produce en todo el mundo, su producción anual es de 170 millones de toneladas y se destaca al continente africano como el de mayor área sembrada y producción obtenida. América latina produce 34 millones de toneladas aproximadamente la quinta parte de la producción mundial con una participación del 18.5%. Por su parte Colombia produce 1.8 millones de toneladas y ocupa el tercer puesto en Latinoamérica después de Brasil y Paraguay. La mayor zona productora de yuca en Colombia es la costa atlántica que participa con el 49% del área cultivada en el país. [1]

Este producto participa en cuatro mercados según los usos principales del mismo como son: raíz para consumo humano, como insumo en la industria alimenticia, como producto intermedio en la industria no alimenticia y como materia prima en la industria productora de alimentos balanceados para animales, siendo este último uno de los principales usos que toma cada vez mayor importancia dentro del mercado de este tipo de producto. [1] El aumento de los precios del maíz, genera que la yuca seca sea una alternativa rentable para los avicultores en la preparación de las raciones para alimentos concentrados para animales. Los productores de yuca seca deben estar preparados para atender esta demanda, por lo que tienen que

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 184-192. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Torregroza-Espinosa et al / DYNA 81 (186), pp. 184-192. August, 2014.

optimizar sus procesos para aumentar su productividad y calidad. [2] A medida que el mercado de alimentos concentrados para animales fue creciendo, se planteó la necesidad de la mejora de sistemas de secado de yuca y es así cuando se implementa el secado mixto de yuca que esperaba disminuir los tiempos de secado y aumentar la productividad, rendimientos de los trozos de yuca seca fresca. [3] El secado, definido como un proceso simultáneo de transferencia de calor y de masa entre el producto y el aire de secado, consiste en la remoción de humedad excesiva contenida en el producto por medio de la evaporación, generalmente por convección forzada[4,5]; es un método clásico de preservación de alimentos y se convierte en una excelente alternativa para prolongar el período de vida útil del tubérculo, así como para disminuir el peso para el transporte y reducir el espacio requerido para su almacenamiento. [6-8] Estudios en torno al secado de frutos y vegetales han determinado que es un proceso difícil de describir, debido a la complejidad de los fenómenos internos y externos que ocurren durante el secado [9]. No obstante, en la literatura se encuentran varios métodos propuestos para analizar el secado en capa fina de productos alimenticos: modelos teóricos, semiteoricos y empíricos. Los modelos de secado basados en la teoría de difusión de líquidos han sido preferidos por los investigadores en el área de secado de alimentos [10]. Entre ellos se encuentran los modelos de Newton, Page, Page modificado, Henderson y Pabis modificado [5]. Estos modelos de secado no solo permiten predecir el mejor proceso, sino que también ofrecen herramientas para predecir las condiciones de almacenamiento y empaque; además, ayudan a establecer el contenido final de humedad de los productos agrícolas y los requisitos del proceso de secado. [8]. La aplicación del secado como una operación que garantice la calidad del producto deshidratado y que además sea viable desde el punto de vista económico requiere de un estudio previo que permita determinar las condiciones y parámetros a tener en cuenta para garantizarlo. En éste trabajo se realizaron y modelaron las curvas de secado de tres variedades de yuca industrial (Corpoica Tai, Corpoica Gines y Corpoica Veronica.). 2. Materiales y métodos 2.1. Obtención y adecuación de la materia prima La materia prima, yuca industrial en las variedades Corpoica Tai, Corpoica Veronica y Corpoica Gines fueron suministradas por la Empresa ASPROALGA ubicada en el Municipio los Algarrobos y acondicionada con la geometría y dimensiones con las cuales son procesadas en la planta de secado. La geometría utilizada fue láminas que constan de las siguientes dimensiones: 3.6 cm de largo por 0.6 cm de ancho por 0.5 cm de espesor, obtenidas con una cortadora a escala laboratorio, el cual contribuye al aumento de la superficie de contacto de la yuca con el aire circundante de secado.

2.2. Equipos y procedimientos Se utilizó un secador tipo túnel de UPB Montería que consta de un ventilador tipo blower acoplado a un motor AC trifásico de 1.1 Kw a 1200 rpm en conexión Y-Y a 4.6 A, sistema que permite la entrada de aire a diferentes velocidades de flujo; un convertidor de frecuencia modular para motores individuales de pequeñas y medias potencias, marca YASKAWA de la serie VS mini J7; el Calefactor está conformado por unas placas de resistencias eléctricas de nicrom capaces de generar hasta 70°C al final del tubo; el control de temperatura tiene implementado un controlador digital tipo PID que le permitía a un relé de estado sólido microcontrolado, controlar el suministro de potencia a un calentador resistivo; el sistema de adquisición de datos cuenta con una tarjeta de circuitos, la cual constaba de cuatro etapas que son: sensado, filtrado, amplificación, digitalización y envío de datos, recepción y transformación de datos de control. La interfaz gráfica básicamente, es de usuario hecha en MATLAB®, en donde se visualizaban gráficamente los datos obtenidos a través de los sensores de temperatura y humedad. 2.3. Humedad inicial Inicialmente se tomaron muestras representativas del producto para determinar el contenido de humedad de la yuca acuerdo al método de estufa a 105°C durante 24 horas. [11] 2.4. Construcción de curvas de secado Para la construcción de las curvas de secado, se establecieron como variables de proceso a la temperatura de bulbo seco en tres niveles (45, 55, 70°C), velocidad del aire de secado en tres niveles (1, 3 y 4 m/s) y variedad de yuca en tres niveles que son Corpoica Tai, Corpoica Verónica y Corpoica Ginés Luego se determinó el área de secado del producto y peso de la bandeja; distribuyéndose las muestras del producto lo más uniformemente posible sobre la bandeja, con un posterior pesaje de esta con el propósito de determinar el peso inicial del producto a secar. Realizado este proceso se establecieron las condiciones de operación del secador. El cual cuenta con una termocupla en el interior de la cámara de secado, que registra la temperatura de bulbo seco del aire y con la ayuda de un sensor se obtiene el valor de la humedad relativa al interior de la cámara. Una vez alcanzadas las condiciones establecidas y el estado estable de las variables dentro de éste, se procede a ubicar la bandeja de acero inoxidable en un soporte acoplado a una balanza analítica con precisión de 0.001 g, que permitió registrar, a través de un sistema de adquisición de datos de temperatura, la variación de peso del producto en el tiempo de manera ininterrumpida, registrando estos valores de tiempo en intervalos de 10 segundos, hasta obtener un peso constante. Este proceso se ejecutó de igual forma para cada tratamiento. Para la construcción de las curvas de secado se utilizó el método descrito por Geankoplis [12], el cual consiste en graficar el contenido de humedad del producto

185


Torregroza-Espinosa et al / DYNA 81 (186), pp. 184-192. August, 2014.

en base seca contra el tiempo para la determinaciĂłn de las curvas de secado, y graficar la velocidad de secado contra la humedad libre del producto para la determinaciĂłn de las fases de secado. Para el ajuste y modelamiento matemĂĄtico de los datos experimentales de las curvas de secado, se utilizĂł el modelo difusional de la soluciĂłn de la segunda ley de Fick para una geometrĂ­a de lĂĄmina infinita para tiempos largos, segĂşn la ecuaciĂłn 1 [13]. Y los modelos empĂ­ricos que se muestran en la Tabla 1, los cuales utilizan como variable dependiente la fuerza impulsora reducida (MR) descrita con la ecuaciĂłn 2, que relaciona el gradiente de la humedad de la muestra a tiempo real con la humedad inicial y la humedad de equilibrio [14-17]. Luego, se asume de la ecuaciĂłn 1 que la difusividad (Deff) es constante. Donde: Xt es el contenido de humedad a tiempo real (g agua/g m.s.); Xo es el contenido de humedad inicial (g agua/g m.s.) y Xeq es el contenido de humedad de equilibrio (g agua/g m.s.). MR es la fuerza impulsora reducida (adimensional); Deff es el coeficiente efectivo de difusividad de agua (m2/s); t es el tiempo (segundos), L es el medio espesor de la lĂĄmina finita (m) y n es el nĂşmero de series de la sumatoria.

MR =

8 π2

���� =

2   2 Ď€ D eff t ( ) exp 2 n 1 − +   ∑ 2 2 4 L  n =1 (2n − 1)  ∞

1

đ?‘‹đ?‘‹đ?‘Ąđ?‘Ą −đ?‘‹đ?‘‹đ?‘’đ?‘’đ?‘’đ?‘’

AdemĂĄs, a las curvas de secado experimentales se les realizĂł un ajuste de acuerdo a modelos o ecuaciones empĂ­ricas muy utilizadas en la literatura; tales como Newton o tambiĂŠn conocido como Lewis, Henderson-Pabis, el Page, Page modificado, Wang-Sing y otros tres modelos propuestos en este estudio [18-20]. Donde: k1, k2, k3, k4, k5, k6, k7 y k8 son los parĂĄmetros empĂ­ricos de comportamiento cinĂŠtico (min-1); mientras que n1, n2, n3, n4, n5, n6 y n7 son parĂĄmetros caracterĂ­sticos del producto. Para evaluar la calidad del ajuste obtenido de los modelos propuestos sobre los datos experimentales, se utilizĂł el coeficiente de regresiĂłn lineal (R2) y la suma de los errores cuadrados (SSE); los valores mĂĄs bajos SSE o que tienden a cero, junto con los mĂĄs altos de R2 o que tienden a uno, se consideraron como Ăłptimos y ayudaron a elegir el mejor modelo. Tabla 1. Modelos matemĂĄticos para ajustar la CinĂŠtica de secado de las tres variedades de yuca NOMBRE

MODELO

Newton – Lewis Henderson - Pabis Page Modified page Wang – Singh Raíz del tiempo Raíz de MR

đ?‘´đ?‘´đ?‘´đ?‘´ = đ?’†đ?’†đ?’†đ?’†đ?’†đ?’†(−đ?’Œđ?’Œđ?&#x;?đ?&#x;? ∗ đ?’•đ?’•) đ?‘´đ?‘´đ?‘´đ?‘´ = đ?’?đ?’?đ?&#x;?đ?&#x;? ∗ đ?’†đ?’†đ?’†đ?’†đ?’†đ?’†(−đ?’Œđ?’Œđ?&#x;?đ?&#x;? ∗ đ?’•đ?’•) đ?’?đ?’? đ?‘´đ?‘´đ?‘´đ?‘´ = đ?’†đ?’†đ?’†đ?’†đ?’†đ?’†(−đ?’Œđ?’Œđ?&#x;‘đ?&#x;‘ ∗ đ?’•đ?’• đ?&#x;?đ?&#x;? ) ((−(đ?’Œđ?’Œđ?&#x;’đ?&#x;’ ∗ đ?‘Ąđ?‘Ą))đ?’?đ?’?đ?&#x;‘đ?&#x;‘ ) đ?‘´đ?‘´đ?‘´đ?‘´ = đ?’†đ?’†đ?’†đ?’†đ?’†đ?’† đ?‘´đ?‘´đ?‘´đ?‘´ = đ?’Œđ?’Œđ?&#x;“đ?&#x;“ ∗ đ?’•đ?’•đ?&#x;?đ?&#x;? + đ?’?đ?’?đ?&#x;’đ?&#x;’ ∗ đ?’•đ?’• + đ?&#x;?đ?&#x;? đ?‘´đ?‘´đ?‘´đ?‘´ = đ?’?đ?’?đ?&#x;“đ?&#x;“ + đ?’Œđ?’Œđ?&#x;”đ?&#x;” ∗ √đ?’•đ?’• đ?‘´đ?‘´đ?‘´đ?‘´ = (đ?’?đ?’?đ?&#x;”đ?&#x;” + đ?’Œđ?’Œđ?&#x;•đ?&#x;• ∗ đ?’•đ?’•)đ?&#x;?đ?&#x;? đ?‘´đ?‘´đ?‘´đ?‘´ = đ?’†đ?’†đ?’†đ?’†đ?’†đ?’†(đ?’?đ?’?đ?&#x;•đ?&#x;• + đ?’Œđ?’Œđ?&#x;–đ?&#x;– ∗ đ?’•đ?’•)

Exponencial Fuente: [5]

El experimento fue conducido bajo un diseùo completamente al azar con arreglo factorial de tres factores: temperatura, velocidad del aire y variedad de yuca. El factor temperatura en tres niveles (45, 55, y 70)°C; el factor velocidad del aire en tres niveles (1, 3 y 4)m/s, el factor variedad en tres niveles (Variedad Corpoica Tai, Corpoica Veronica y Corpoica Gines); para un total de 81 unidades experimentales. El anålisis de los datos se realizó mediante un Anålisis de Varianza usando un modelo de tres vías de clasificación (variedad, temperatura y velocidad del aire), con el fin de comparar el promedio de temperatura, velocidad del aire, variedades, y verificar si existe interacción entre ellas. Para la comparación de las medias se usó la prueba de Tukey con 5% de nivel de significancia, ademås, se realizaron pruebas de los supuestos del modelo (normalidad, independencia y homogeneidad de varianza). Se utilizó el programa SAS versión 9.1. 3. Resultados y discusión 3.1. Humedad Inicial

(1) (2)

đ?‘‹đ?‘‹0 −đ?‘‹đ?‘‹đ?‘’đ?‘’đ?‘’đ?‘’

2.5. Procesamiento y anĂĄlisis estadĂ­stico

Los contenidos de humedad inicial para las variedades Corpoica Tai, Corpoica Gynes y Corpoica Veronica fueron 1.410% (b.s), 1.820% (b.s) y 2.096% (b.s) respectivamente; nĂłtese que son valores diferentes para cada variedad. 3.2. Curvas de secado En las Figs. 1 a 9 se observa claramente la influencia de la temperatura y la velocidad del aire de secado sobre el proceso de secado de yuca industrial para las variedades objeto de estudio. Al aumentar la temperatura y la velocidad del aire de secado se disminuye significativamente el tiempo de secado, es decir se necesita menos tiempo para finalizar el proceso de secado a una temperatura de 70ÂşC y velocidad del aire de secado de 4m/s. Los tiempos de secado fueron de 93.32min, 91.64min y 8.28min para las variedades Corpoica Tai, Corpoica Gines y Corpoica Veronica respectivamente; resultados similares obtuvieron otros autores trabajando con otras especies, vegetales y cereales [4,8,17,20-25]. TambiĂŠn se observa que aproximadamente en la primera hora de secado (dependiendo de la variedad y la velocidad del aire), que la humedad en base seca decrece linealmente (R2>90%), esto es, dx/dt es una constante, al igual que la velocidad de secado para ĂŠste mismo periodo. De igual forma, despuĂŠs de la primera hora de secado la velocidad disminuye con mayor rapidez (Periodo decreciente) hasta llegar a su humedad de equilibrio. Esta etapa se caracteriza porque en ella ocurre la mayor parte del secado, pues la humedad se difunde con menor velocidad a travĂŠs del sĂłlido [26,27]. Por otra parte, se pudo observar que el tiempo final de secado, a las condiciones de temperaturas y velocidades trabajadas experimentalmente fue aproximadamente igual para las tres variedades de yuca industrial.

186


Torregroza-Espinosa et al / DYNA 81 (186), pp. 184-192. August, 2014.

Source

DF

Type III SS

Mean Square

F Value

Pr > F

VARD

2 2 2 4 4 4

8891,1688 157111,8713 241899,2959 16335,2582 25992,7917 23376,8468

4445,5844 78555,9357 120949,6479 4083,8145 6498,1979 5844,2117

2,29 40,48 62,32 2,1 3,35 3,01

0,1109 <,0001 <,0001 0,0929 0,0161 0,0258

8

49906,6773

6238,3347

3,21

0,0047

VEL TEMP VARD*VEL VARD*TEMP VEL*TEMP VARD*VEL* TEMP

estadísticamente significativas de los valores de tiempo de secado calculados para 3m/s y 4m/s, se puede utilizar indiferentemente cualquiera de las dos velocidades de aire de secado debido a que los resultados son iguales.

Xbs (Kg agua/Kg s.s)

Tabla 2. Análisis de varianza (ANOVA) para el tiempo de secado (t) de yuca industrial.

Fuente: Los autores

50

100

150

200

250

Figura 2. Curvas de rapidez de secado para la velocidad de aire de secado de 1m/s a diferentes temperaturas. Variedad Corpoica Gines Fuente: Los autores

2,5 2 1,5 1 0,5 0

0

50

100

150

200

250

300

Tiempo (min) Figura 3. Curvas de rapidez de secado para la velocidad de aire de secado de 1m/s a diferentes temperaturas. Variedad Corpoica Verónica Fuente: Los autores

1,8 1,6 1,4 1,2

45ºC

1

55ºC

0,8

70ºC

0,6

Xbs (Kg agua/Kg s.s)

Xbs (Kg agua/Kg s.s)

0

Tiempo (min)

Xbs (Kg agua/Kg s.s)

Los resultados descritos anteriormente se pueden evidenciar en el análisis de varianza, ANOVA que se muestra en la Tabla 2, donde se observa una influencia altamente significativa de la temperatura sobre el tiempo de secado y de igual manera, una influencia significativa de la velocidad de aire de secado, en tanto que la variedad no presentó influencia significativa, a un nivel de significancia del 5%. Luego de realizar la prueba de comparación de medias de tukey, se observó que no hubo diferencias significativas entre los tiempos de secado para las velocidades de 3m/s y 4m/s, pero éstas dos difieren de los valores del tiempo de secado calculado a la velocidad de 1m/s; respecto a la temperatura, ésta si tuvo diferencias significativas para los valores del tiempo de secado calculados para los tres niveles estudiados, 45, 55 y 70ºC. Para determinar las mejores condiciones de velocidad del aire y temperatura del aire de Secado, con fines a obtener costos menores de producción se tomó como base el análisis de varianza y una prueba de Tukey para comparar las medias de las variables de interés. De lo cual se puede afirmar que las mejores condiciones son: Temperatura de 70ºC, porque según el análisis de comparación de medias de Tukey a ésta condición fue donde se obtuvieron los menores tiempos de secado de la yuca para las tres variedades y la velocidad del aire al no presentar diferencias

1,4 1,2 1 0,8 0,6 0,4 0,2 0

0,4 0,2 0

0

50 100 150 200 250 300 350 400

2 1,5 1 0,5 0

0

50

100

150

200

Tiempo (min)

Tiempo (min) Figura 1. Curvas de rapidez de secado para la velocidad de aire de secado de 1m/s a diferentes temperaturas. Variedad Corpoica Tai Fuente: Los autores

Figura 4. Curvas de rapidez de secado para la velocidad de aire de secado de 3m/s a diferentes temperaturas. Variedad Corpoica Tai Fuente: Los autores

187


Torregroza-Espinosa et al / DYNA 81 (186), pp. 184-192. August, 2014.

2 Xbs (Kg agua/Kg s.s)

Xbs (Kg agua/Kg s.s)

2,5 2 1,5 1 0,5 0

0

50

100

150

200

Xbs (Kg agua/Kg s.s)

Xbs (Kg agua/Kg s.s)

0

100

200

300

Figura 8. Curvas de rapidez de secado para la velocidad de aire de secado de 4m/s a diferentes temperaturas. Variedad Corpoica Gines Fuente: Los autores

3 2,5 2 1,5 1

3 2,5 2 1,5 1 0,5 0

0

50

100

150

200

Tiempo (min)

0,5 0

50

100

150

Figura 9. Curvas de rapidez de secado para la velocidad de aire de secado de 4m/s a diferentes temperaturas. Variedad Corpoica Verónica Fuente: Los autores

200

Tiempo (min) Figura 6. Curvas de rapidez de secado para la velocidad de aire de secado de 3m/s a diferentes temperaturas. Variedad Corpoica Verónica Fuente: Los autores

Xbs (Kg agua/Kg s.s)

0,5

Tiempo (min)

Figura 5. Curvas de rapidez de secado para la velocidad de aire de secado de 3m/s a diferentes temperaturas. Variedad Corpoica Gines Fuente: Los autores

1,6 1,4 1,2 1 0,8 0,6 0,4 0,2 0

1

0

Tiempo (min)

0

1,5

0

50

100

150

Tiempo (min) Figura 7. Curvas de rapidez de secado para la velocidad de aire de secado de 4m/s a diferentes temperaturas. Variedad Corpoica Tai Fuente: Los autores

3.3. Curvas de velocidad de secado En las Figs 10 a 18 se ilustran las curvas obtenidas de la cinética de secado de tres variedades de yuca en las condiciones del experimento. Como se puede observar, se presentan las curvas clásicas que siguen los alimentos [23], esto es, existe un período de secado a velocidad constante y un período de secado a velocidad decreciente, siendo este último el que predomina durante el proceso por lo que es el más estudiado en el secado de alimentos. Analizando las curvas se aprecia, en términos generales, que al aumentar la temperatura del aire de secado aumenta la velocidad de éste. Por lo tanto, en función de los resultados obtenidos se deduce que la cinética de secado de yuca para las variedades Tai, Gines y Veronica es dependiente de la temperatura del aire de secado. También se observa que en el secado de yuca a la temperatura de 70ºC y 1 m/s para la variedad Tai, se genera una velocidad de 0,0124865 Kg H20/Kg m.seca.min, que resulta significativamente superior a la velocidad de secado alcanzada a una temperatura de 45ºC a la misma velocidad que es de 0,0059418 Kg H20/Kg m.seca.min para ésta misma variedad; condición que se

188


Torregroza-Espinosa et al / DYNA 81 (186), pp. 184-192. August, 2014.

0,014 0,012 0,01 0,008 0,006 0,004 0,002 0

45ºC 55ºC 70ºC

0

0,5

1

1,5

Además se distinguen solo dos etapas de secado; el período de latencia o inducción no se evidencia en la curva debido a que la muestra al momento de ser introducida en el secador, éste ya se encuentra a la temperatura requerida. La primera etapa que se evidencia en la curva es la de velocidad constante, en la que la temperatura del alimento ha alcanzado su valor de equilibrio; la superficie del producto está muy mojada al principio por el alto contenido de humedad que es característico de la yuca, por lo tanto el secado se da como si el sólido no estuviera presente. La segunda etapa corresponde a un periodo de velocidad decreciente en la que se lleva a cabo la mayor parte del proceso, esto demuestra que la difusión es el mecanismo físico dominante que gobierna el movimiento de la humedad en el secado de las muestras de yuca. Similares resultados fueron reportados para judías [28], Okra [20,29], berenjena [10] y D. Rotundata y D. alata [25].

2

0,03

dx/dt Xbs (Kg agua/Kg s.s)

Xbs Xbs (Kg agua/Kg s.s)

cumple para las tres variedades y para las diferentes condiciones de velocidad del aire. Por otra parte, se observan diferencias entre la velocidad de secado de las tres variedades, es decir, la velocidad de secado para la variedad Veronica es mayor que la velocidad de secado de las variedades Gines y Tai, y a su vez la variedad Gines presenta una velocidad de secado superior a la velocidad de secado de la variedad Tai.

Figura 10. Curvas de velocidad de secado para la velocidad de aire de secado de 1m/s a diferentes temperaturas. Variedad Corpoica Tai Fuente: Los autores

Xbs (Kg agua/Kg s.s)

0,02 0,015

0,02 0,015 0,01 0,005 0

0,01

0

0,5

1

0

0,5

1

Figura 13. Curvas de velocidad de secado para la velocidad de aire de secado de 3m/s a diferentes temperaturas. Variedad Corpoica Tai Fuente: Los autores

1,5

dx/dt

0,035 Xbs (Kg agua/Kg s.s)

Figura 11. Curvas de velocidad de secado para la velocidad de aire de secado de 1m/s a diferentes temperaturas. Variedad Gines Fuente: Los autores

0,02 0,015 0,01 0,005 0

1,5

dx/dt

0,005 0

Xbs (Kg agua/Kg s.s)

0,025

0

0,5

1

1,5

2

0,03 0,025 0,02 0,015 0,01 0,005 0

2,5

dx/dt

0

0,5

1

1,5

2

2,5

dx/dt

Figura 12. Curvas de velocidad de secado para la velocidad de aire de secado de 1m/s a diferentes temperaturas. Variedad Veronica Fuente: Los autores

Figura 14. Curvas de velocidad de secado para la velocidad de aire de secado de 3m/s a diferentes temperaturas. Variedad Corpoica Gines Fuente: Los autores

189


Torregroza-Espinosa et al / DYNA 81 (186), pp. 184-192. August, 2014.

Xbs (Kg agua/Kg s.s)

Xbs (Kg agua/Kg s.s)

0,03 0,025 0,02 0,015 0,01 0,005 0

1

2

3

Figura 15. Curvas de velocidad de secado para la velocidad de aire de secado de 3m/s a diferentes temperaturas. Variedad Corpoica Veronica Fuente: Los autores

Xbs (Kg agua/Kg s.s)

0,02 0,01 0

0

1

2

3

Figura 18. Curvas de velocidad de secado para la velocidad de aire de secado de 4m/s a diferentes temperaturas. Variedad Corpoica Veronica Fuente: Los autores

dx/dt

0,03 0,02

Tabla 3, lo que muestra una disminución de las resistencias internas del sólido con el acrecentamiento de la temperatura y velocidad del aire de secado. Una explicación de esa adición puede ser debida al menor encogimiento observado en las temperaturas y velocidades de aire de secado más altas; menor encogimiento implica Tabla 3. Difusividad efectiva Deff, energía de activación Ea y factor de Arrhenius D0, para las variedades Corpoica Tai, Corpoica Gynes y Corpoica Veronica.

0,01

Var

Vel (m/s)

Temp (ºC)

TAI

1

45

2,58675E-10

TAI

1

55

7,57649E-10

TAI

1

70

1,0249E-09

TAI

3

45

5,23152E-10

TAI

3

55

8,99584E-10

TAI

3

70

2,16389E-09

0,04

TAI

4

45

1,0462E-09

0,03

TAI

4

55

9,08066E-10

TAI

4

70

1,33868E-09

0,02

GINES

1

45

4,60136E-10

GINES

1

55

5,29699E-10

0,01

GINES

1

70

9,78917E-10

0

GINES

3

45

6,00788E-10

GINES

3

55

1,07477E-09

GINES

3

70

1,76959E-09

GINES

4

45

4,82666E-10

GINES

4

55

1,06559E-09

GINES

4

70

1,53153E-09

VERON

1

45

5,24807E-10

VERON

1

55

5,43503E-10

VERON

1

70

9,20256E-10

VERON

3

45

8,22768E-10

VERON

3

55

8,222E-10

VERON

3

70

1,37241E-09

VERON

4

45

7,75415E-10

VERON

4

55

1,22937E-09

VERON

4

70

1,71825E-09

0

0,5

1

1,5

dx/dt

Figura 16. Curvas de velocidad de secado para la velocidad de aire de secado de 4m/s a diferentes temperaturas. Variedad Corpoica Tai Fuente: Los autores

Xbs (Kg agua/Kg s.s)

0,03

dx/dt

0

0

0,04

0

0,5

1

1,5

2

dx/dt Figura 17. Curvas de velocidad de secado para la velocidad de aire de secado de 4m/s a diferentes temperaturas. Variedad Corpoica Gines Fuente: Los autores

3.4. Coeficiente difusivo (Df) y Energía de activación (Ea) El cálculo del coeficiente difusivo o difusividad efectiva se realizó con el fin de modelar el período de velocidad decreciente en el secado de tres variedades de yuca. Los valores de difusividad aumentaron con el incremento de la temperatura y de la velocidad del aire de secado como se observa en los valores reportados en la

Fuente: Los autores Tabla 4.

190

Df (m2/s)

Ea (KJ/mol)

D0 (m2/s)

47,9898598

0,023914403

51,7069762

0,159654811

9,90133416

4,02829E-08

28,0708427

1,75587E-05

38,6789057

0,001424438

40,6773304

0,002610586

21,1562943

1,45106E-06

19,4014037

1,16477E-06

28,3617711

3,71119E-05


Torregroza-Espinosa et al / DYNA 81 (186), pp. 184-192. August, 2014. ANOVA para el coeficiente difusivo de la humedad Deff Source

DF

Type III SS

Mean Square

F Value

Pr > F

VARD

2

0,23778135

0,11889068

20,71

0,003

VEL

2

0,08049877

0,04024938

7,01

<,0001

TEMP

2

0,05034241

0,02517121

4,39

<,0001

VARD*VEL

4

0,26707531

0,06676883

11,63

0,0172

VARD*TEMP

4

0,27029042

0,06757261

11,77

0,0006

VEL*TEMP 4 VARD*VEL 8 *TEMP Fuente: Los autores

0,13193178

0,03298294

5,75

<,0001

0,09914295

0,01239287

2,16

0,0455

Criterios estadísticos R2 y SSE de ajuste de modelos para las curvas experimentales de secado y constantes del modelo de Page para las tres temperaturas, tres velocidades de aire y para las tres variedades.

Page, Corpoica Tai V=1m/s Tº=45

R2 k3 n2 SS

0,990 0,007 0,950 3,162

una mayor porosidad y consecuentemente una mayor área de transferencia de masa. Resultados similares se obtuvieron en diferentes frutas [21,23,24,30,31]. Por otra parte, el análisis de varianza que se muestra en la Tabla 4, indica que existe una influencia altamente significativa de la temperatura y la velocidad del aire de secado y de la interacción entre estos dos; y el análisis de comparación de medias evidenció diferencias estadísticamente significativas para las difusividades calculadas para las tres temperaturas, 45, 55 y 70ºC; como para las tres velocidades del aire de secado, 1, 3 y 4 m/s. La energía de activación (Tabla 3) presenta una magnitud que se encuentra dentro del rango de valores encontrados en la literatura para materiales alimenticios, rango que va desde 12,7 a 110 Kj/mol; 28, 39 Kj/mol para zanahoria [17] y 20 Kj/mol para papa [24]. Estas magnitudes representan la energía requerida para iniciar la difusión de la humedad de las tres variedades de yuca estudiadas durante el secado y dan un indicio de la influencia de la temperatura en el proceso [26] 3.5. Modelación matemática de la cinética de secado de yuca Los modelos de Newton-Lewis, Page, Page modificado y Hernderson-Pabis se ajustan satisfactoriamente a los datos experimentales obtenidos para la construcción de las curvas de secado de las tres variedades de yuca a las temperaturas estudiadas, una vez que sus valores de coeficiente de regresión lineal (R2) fueron superiores a 90% y los errores (SSE) inferiores al 10%. Sin embargo, el modelo que mejor describe el comportamiento de los datos de secado de las tres variedades de yuca estudiadas, para las condiciones de temperatura y velocidad del aire, es el modelo de Page; lo anterior se puede evidenciar en la Tabla 5. Resultados similares (modelo de Page) fueron obtenidos para la modelación de la cinética de secado del tomillo [32]; para el modelado de la cinética de secado de capuaçu [33]; para el modelado de la cinética de secado de Cajuil [34]; para el Modelado de la Cinética de Secado de la Papaya Chilena. [35]

R2 k3 n2 SS

1m/s Tº=7 0

1m/s Tº=45

1m/s Tº=55

0,986 0,003 1,213 8,246

0,980 0,004 1,157 10,356

3m/s Tº=45

3m/s Tº=55

0,977 0,008

0,991 0,017

0,987 0,005 1,243 4,515 3m/s Tº=7 0 0,973 0,036

1m/s Tº=45

1m/s Tº=55

1m/s Tº=70

0,990 0,003 1,243 5,768

0,9500 0,0039 1,1692 0,9808

0,992 0,005 1,234 2,815

3m/s Tº=45

3m/s Tº=55

3m/s Tº=70

0,992 0,008

0,993 0,008

0,915 0,039

0,953 0,012

0,989 0,019

0,970

0,980

1,139

1,082

1,037

1,009

1,109

1,148

0,903

16,87

3,113

1,421 4m/s Tº=7 0 0,993 0,031 0,956 1,405

8,032

2,378

2,432

2,398

14,617

4m/s Tº=45

4m/s Tº=55

4m/s Tº=45

4m/s Tº=55

4m/s Tº=70

0,928 0,020 0,843 20,621

0,968 0,010 1,140 8,008

4,143 4m/s Tº=7 0 0,992 0,021 1,052 1,433

0,989 0,010 1,069 2,972

0,992 0,012 1,137 1,699

0,984 0,016 1,147 2,596

V=4m/s Tº=45 0,994 0,012 1,088 1,202

0,991 0,004 1,212 3,581

1m/s Tº=7 0

Page, Corpoica Veronica

0,974 0,010 1,126 8,243 3m/s Tº=7 0 0,990 0,026

V=3m/s Tº=45

R2 k3 n2 SS

1m/s Tº=55

Page, Corpoica Gines

3m/s Tº=55

4m/s Tº=55 0,970 0,025 0,937 5,798

Fuente: Los autores

4. Conclusiones La temperatura del aire de secado tuvo una gran influencia en el tiempo de secado, evidenciándose menores tiempos con cada incremento de ésta; de la misma manera, la velocidad del aire de secado también permitió obtener menor tiempo de secado para las tres variedades estudiadas, en tanto las tres variedades presentaron tiempos de secado estadísticamente iguales bajo un nivel de significancia del 5%. Las curvas de secado permitieron identificar claramente un periodo de velocidad constante y otro decreciente para cada una de las variedades, temperaturas y velocidades de aire de secado estudiadas. La difusión es el mecanismo físico que gobierna la migración de humedad de yuca en las variedades Corpoica Tai, Corpoica Gines y Corpoica Veronica, por cuanto los datos experimentales se ajustaron correctamente a la ecuación de Fick. Los modelos de Newton-Lewis, Page, Page modificado y Hernderson-Pabis, explican bien los datos de secado bajo las condiciones estudiadas; no obstante, es el modelo de Page el que mejor explica el comportamiento de los datos experimentales, una vez que presenta los valores más altos de coeficiente de regresión lineal (R2) y los más bajos de la suma de los errores cuadrados (SSE) para todas las temperaturas (45, 55 y 70ºC) y velocidades de aire de secado utilizadas en este estudio (1, 3 y 4 m/s). Las condiciones que mejoran el proceso de secado se presentan para 70°C y 3m/s o 4m/s. Referencias [1]

Martínez, A. M., La yuca como componente de la cadena avícola, disertación Ph.D., Facultad de Ciencias Agrarias, Universidad de Córdoba, Colombia, 2003.

[2]

www.corpoica.org.co/sitiocorpoica/planes/yuca/documentos/informes/i nforme_ejecutivo%202003.htm

Tabla 5. 191


Torregroza-Espinosa et al / DYNA 81 (186), pp. 184-192. August, 2014. [3]

[4]

Gottret, M., Guy H. y Dufour, D., Proyecto integrado de investigación y desarrollo de la producción y transformación de yuca para la obtención y comercialización de almidón agrio de yuca. CIAT. Cali, Colombia, 2007. Maldonado, R. y Pacheco, T., Curvas de deshidratación del Brócoli (Brassica Oleracea L. var Italica Plenk) y Coliflor (Brassica oleareaceae L. var Botritis), Revista de la Facultad de Agronomía, Universidad Central de Venezuela, 20, pp. 306-319, 2003.

[5]

Ertekin, C. and Yaldiz, O., Draying of eggplant and selection of a suitable thin layer driying model., Journal of food engineering, 63(3), pp. 349-359, 2005.

[6]

Romero, C. y Kieckbsh, T., Influência de condicçõnes de secagen na qualidade de fatias de Tomate., Brazilian Journal of food Technology, 6 (1), pp. 69, 2003.

[7]

Cardoso, F., Palmeira, J., Rodrigues, M., Honorato, F. y Alves, S., Comparación de modelos matemáticos de calor isotérmico de desorción en pulpa de Guayaba., Revista Brasilera de almacenamiento, 29 (1), pp. 28-34, 2004.

[8]

[9]

[10]

Vega, A. y Fito, P., Modelado de la cinética de secado del pimiento rojo (capsicum annuum L. cv Lamuyo), Información tecnológica, 16 (6), pp. 3-11, 2005. Sandoval, S., Rodríguez, J., Méndez, L. y Sánchez, J., Rapidez de secado reducida: Una aplicación al secado convectivo de Plátano Roatán., Revista Mexicana de Ingeniería Química, 5 (1), pp.35-38, 2006. Chaves, M., Sgroppo, S. y Avanza, J., Cinética de Secado de Bremjena (Solanum melongena L.), Universidad Nacional del Nordeste. Comunicaciones científicas y tecnológicas, Corrientes-Argentina. Facultad de Ciencias Exactas y Agrimesura, 2003, [Citado Oct-062006], Resumen E-60, Disponible en Internet: http:www.exa.unne.edu.ar.

[11]

AOAC. Official Method of Analysis. Association of Official Analytical Chemists (nº 934.06), Arlington, USA, 1990.

[12]

Geankoplis, C., Procesos de transporte y operaciones unitarias. 3a. Ed., Compañía Editorial Continental S. A. de C. V. México, 1998, 1022 P.

[13]

Crank, J., The mathematical of diffusion. Oxford University Press, Inc., Nueva York. 1975.

[14]

Park, K., Vohnikova, Z. and Reisbros, F., Evaluation of drying parameters and desorption isotherms of garden mint leaves (Mentha crispa L.). Journal of Food Engineering, 51 (3), pp. 193-199. 2002.

[15]

Akpinar, E., Bicer, Y. and Yildiz, C., Thin layer drying of red pepper. Journal of Food Engineering, 59 (1), pp. 99-104, 2003.

[16]

Babalis, S. J. and Belessiotis, V. G., Influence of the drying conditions on the drying constants and moisture diffusivity during the thin-layer drying of figs, Journal of Food Engineering, 65 (3), pp. 449-458, 2004.

[17]

Simat, S., Femenia, A., Garau, M.C., Femenia, A. and Roselló, C., Drying of red pepper (Capsicum Annuum): Water desorption and quality, International Journal of Food Engineering, 1 (4), pp. 1-13, 2005.

[18]

Azzouz, S., Guizani, A., Jomaa W. and Belghith, A., Moisture diffusivity and drying kinetic equation of convective drying of grapes, Journal of Food engineering, 55 (4), pp. 323-330, 2002.

[19]

Toğrul, T. and Pehlivan, D., Modeling of drying kinetics of simple apricot, Journal of Food Engineering, 58 (1), pp. 23-32, 2003.

[20]

Doymaz, I., Drying charasteristics and kinetics of Okra, Journal of Food engineering, 69 (3), pp. 275-279, 2005.

[21]

Park, K., Vohnikova, Z. and Reisbros, F., Evaluation of drying parameters and desorption isotherms of mint leaves (Mentha crispa L.). Journal of Food Engineering, 61, pp. 187-193, 2004.

[22]

Mahopatra, D. and Rao, P., A thin layer drying model of parboiled wheat, Journal of food engineering. 66 (4), pp. 513-518, 2005.

[23]

Vega, A., Lemus R., Modelado de la cinética de secado de papaya chilena (basconcellea pubescens)., Información teconológica. 17 (3), pp. 23-31, 2006.

[24]

Ocampo, A., Modelo cinético del secado de la pulpa de mago., Revista Escuela de Ingeniería de Antioquía EIA, 5, pp. 119-128, 2006.

[25]

Falade, K., Olurin, T., Ike, E. and Aworh, O., Effec of pre-treatment and temperatura on air-Drying of Discorea alata and Discorea rotundata slices, Journal of food engineering, 80 (4), pp. 1002-1010, 2007.

[26]

Montes, E., Torres, R., Andrade, R., Pérez, O., Marimon, J. y Meza, I., Modelado de la cinética de secado de Ñame (Dioscorea Rotundata) en capa delgada, Revista Ingeniería e Investigación, 28 (2), pp. 45-52, 2008.

[27]

Hernández, C., Ossa, Z., Ramírez, L. y Herrera, W., Influencia del espesor y la temperatura en el secado de Carambola, Ingenierías & Amazonia, 4 (2), pp. 131-142, 2011.

[28]

Rosello, C., Simal, S. and San Juan, N., Nonostropic mass Transfer model for green Bean Drying., Journal of Agricultura and Food Chemistry, 45, pp. 337-342, 1997.

[29]

Gögus, F. and Maskan, M., Water adsorption and drying charasteristics of Okra (Hibiscus esculentas L), Drying Technology, 17 (4), pp. 883894, 1999.

[30]

Nicoleti, F., Cinética de secado y encogimiento de rodajas de Piña, Tesis MSc., Departamento de Ingeniería de Alimentos, Universidad Estatal Paulista, Campus San José de Río Prieto-Brasil, 2001.

[31]

Montes, E., Torres, R., Andrade, R., Pérez, O., Marimon, J. y Meza, I., Modelado de las isotermas de desorción del ñame (Dioscorea rotundata), DYNA, 76 (157), pp. 145-152, 2009.

[32]

Da Rocha, R., Melo, E., Corbín, J., Berbert, P., Donzeles, S. y Tabar, J., Cinética del secado de Tomillo, Revista Brasileira de Engenharia Agrícola e Ambiental, 16 (6), pp. 675–683, 2012.

[33]

Giraldo, A., Arévalo, A., Silva, A., Silva, P., Valdes, J. y Pavlak, M., Datos experimentales de la cinética del secado y del modelo matemático para pulpa de Cupuaçu (Theobroma grandiflorum) en rodajas, Ciênc. Tecnol. Aliment, 30 (1), pp. 179-182, 2010.

[34]

Michalewicz, J., Henriquez, J. y Charamba, J., Secado de Cajuil (anacardium occidentale l.) Estudio Experimental y modelado de la cinética de secado, Información Tecnológica, 22 (6), pp. 63-74, 2011.

[35]

Vega, A. y Lemus R., Modelado de la Cinética de Secado de la Papaya Chilena (Vasconcellea pubescens), Información Tecnológica, 17 (3), pp. 23-31, 2006.

A. M. Torregroza-Espinosa, Ing. Agroindustrial en el año 2008 de la Universidad de Sucre, Colombia; MSc. en Ciencias Agroalimentarias en el año 2013 de la Universidad de Córdoba, Colombia. Docente de la Universidad de Sucre, Programa Ingeniería Agroindustrial. E. J. Montes-Montes, Ing. Químico en el año 1991 de la Universidad del Atlántico, Colombia; MSc. en Ciencia y Tecnología de Alimentos de la Universidad Federal de Viçosa, Brasil en año 2004. Docente investigador de la Universidad de Córdoba, Programa Ingeniería de Alimentos; Actualmente Jefe de Planeación de la Universidad de Córdoba. A. E. Avila-Gómez, Ing. Mecánico en el año 2000 de la Universidad del Norte, Colombia; MSc. en Ingeniería Mecánica en el año 2006 de la Universidad del Norte, Colombia; docente investigador de la Universidad Pontificia Bolivariana Sede Montería, Programa Ingeniería Mecánica; Actualmente está cursando Doctorado en Electrical Engineering en University of South Florida. J. F. Remolina-López, Ing. Electrónico en el año 2000 de la Universidad Pontificia Bolivariana Sede Bucaramanga, Colombia; MSc. en Ingeniería Biomédica en curso de la Universidad Favaloro, Buenos Aires-Argentina; docente investigador de la Universidad Pontificia Bolivariana Sede Montería, Programa Ingeniería Electrónica; actualmente Coordinador de Investigación e innovación UPB Montería.

192


Specification of problems from the business goals in the context of early software requirements elicitation Carlos Mario Zapata-J. a & Fabio Alberto Vargas-Agudelo b a

Facultad de Minas, Universidad Nacional de Colombia, Colombia. cmzapata@unal.edu.co b Tecnológico de Antioquia, Institución Universitaria, Colombia. fvargas@tdea.edu.co

Received: September 16th, 2013. Received in revised form: June 18th, 2014. Accepted: July 7th, 2014.

Abstract One of the main activities of the early elicitation of software requirements is the recognition and specification of organizational problems. Such activity is intended to allow for an initial requirements definition and the fulfillment of the stakeholder needs. Such problems can be directly traced to the organizational goals for achieving contextualized software applications and alignment with the organizational raison d'etre. In current elicitation methods based on goals and problems, the relationships are detected by the analyst and the stakeholder by using his/her experience and knowledge. However, traceability among goals and problems is still not achieved. In this paper we propose a method for specifying problems based on business goals. This method is composed by a set of semantic and syntactic rules used by the analyst for expressing the problem from the goal statements. Also, we present a laboratory example based on a KAOS goal diagram Keywords: Business goals; problems; semantic rules; syntactic rules.

Especificación de problemas a partir de objetivos de negocios en el contexto de la educción temprana de requisitos de software Resumen Una de las principales actividades de la educción temprana de requisitos de software es el reconocimiento y especificación de los problemas de la organización. Esta actividad tiene por objeto la definición de los requisitos iniciales y la satisfacción de las necesidades de los interesados. Estos problemas deben tener relación con los objetivos de la organización para lograr una aplicación de software contextualizada y alineada con la razón de ser de la organización. En los métodos de educción actuales basados en objetivos y problemas, las relaciones se detectan con la ayuda de la experiencia y conocimiento del analista y el interesado. Sin embargo aún no se logra trazabilidad entre objetivos y problemas. En este artículo se propone un método para la especificación de problemas a partir de objetivos organizacionales. Este método se compone de un conjunto de reglas sintácticas y semánticas que el analista usa para expresar los problemas a partir de las declaraciones de los objetivos. También, se presenta un ejemplo de laboratorio basado en el diagrama de objetivos de KAOS. Palabras clave: Objetivos organizacionales; problemas; reglas semánticas; reglas sintácticas.

1. Introduction The definition of problems during the early requirements elicitation process is one of the main activities the analyst and the stakeholder should perform in order to complete an initial set of requirements. Such problems should be aligned with the organizational goals, as a basis for developing a software application. So, the problems linked to the system should reveal organizational deficiencies related to highlevel goals [1]. Rebollar et al. [2] acknowledge the importance of early requirements engineering techniques, known as

organizational modeling techniques. Requirements engineering is a vital stage in high-quality software development because it provides answers to the needs and expectations of the stakeholders. Likewise, the organizational goals should be considered for ensuring an in-context relevant software application [2]. Note that the context can influence—at any given point—the stakeholder concerns and consequently, the way to accomplish the goals [2]. Collecting requirements is a manual process completed by the analyst based on their experience and skills. At this stage, problems to be solved—and their relationships with the organizational goals—are defined by avoiding previous

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 193-199. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Zapata-J & Vargas-Agudelo / DYNA 81 (186), pp. 193-199. August, 2014.

guidelines which can ensure consistency. Often, problems arise in the software development life cycle [3]. Some authors try to establish consistency relations among goals and problems, but they still fall short, since they only establish the relations based on the total negation of the goals, in order to solve the problems [4]. Current methodologies for the early elicitation of software requirements are based on business goals as the most important input (TROPOS [2], KAOS [5], I* [6], UNC-METHOD [7]). In such methodologies, the specification of goals, needs, problems, and requirements and their possible relation with each other is manually established by the analyst and the stakeholder. Traceability of the goals—among other elements—is needed in the initial stages of the requirements elicitation, but this task is difficult when you have to manually relate such elements. With these ideas in mind, in this paper we propose a method for specifying problems from business goals— represented in the KAOS goals diagram—within the context of the early elicitation of software requirements. Preconceptual schemas are used to semantically link certain domain concepts, so that business problems can be identified based on high-level goals of the business. The paper is organized as follows: In Section II, we describe some methodologies for specifying goals and problems in the requirements elicitation process. Furthermore, we present some work showing the generation of semantic and syntactic structures to represent goals and problems. In Section III, we describe the proposal for specifying problems from the goals outlined in the KAOS goal diagram. In Section IV, we provide a laboratory example of application of the proposal related to a KAOS goal diagram, described in the state of the art. Finally we present some conclusions and future work. 2. Background Some methodologies for early software requirements— like KAOS [5], TROPOS [2], I* [6], and UNC-Method [7]—are based on goals. The elicited information constitutes the essential input for specifying the organizational problems and needs. Such specification is manually carried out by the analyst and the stakeholder based on their experience and the previous knowledge of the stakeholder domain by the analyst. However, traceability among goals, problems, and requirements is still not achieved [8]. At the organizational level, some methodologies for project management—such as the Logical Framework [9] and the Kepner-Tregoe method [10]—use the relationships among problems and goals as strategies for structuring project proposals. In the Logical Framework the goal tree and the problem tree are used for creating proposals and provide an approach to the problem-goal relationship, in which the problems are formulated as the opposite of the goals. The process is manually carried out. Vargas [11] proposes a set of grammatical structures for relating goals and problems in the context of organizational analysis and the software development process. In order to achieve this goal, the author proposes one structure for

An example of grammatical structures of problems Description Restrictions S→NP+Adv+ Adv→{“Not”} V+Adv V → {Conjugated verb expressing a positive connotation}

Example The laboratory clerk does not deliver the samples on time

Adv→ {Should have a positive connotation, words such as "on time", "dutifully", "right", etc.} Source: Vargas [11]

Table 2. An example of grammatical structures of goals Description Restrictions Example S→V1+Ad+ NP V1→{Verb of Achieving scholastic achievement} continuity in higher education. Ad → {should have positive Achieving high safety in connotations, e.g. "a vehicles. lot", "highly” etc.} Achieve enough NP → {should have cleaning in the streets. positive connotations} Source: Vargas [11]

specifying problems and another one for specifying goals. The relation proposed by Vargas still falls short, because it only takes into account the syntactic relations, but not the semantic ones relevant to the organizational context and to facilitate traceability below the initial software requirements. In Table 1 we specify an example of the grammatical structures for formulating problems. In Table 2 we specify an example of the grammatical structures for enunciating goals. We use the following abbreviations: S is a sentence; V, V1, and V2 are verbs; Ad is an adjective; NP is a noun phrase; Adv is an adverb; N is a noun. Eriksson and Penker [12] structure a Goal/Problem model specifying the goals and sub-goals of the organization, and indicate the problems to be solved in order to achieve such goals. This model is based on an extension of the UML object diagram. In this model, they do not specify structures to represent goals, problems, and strategies to relate them. All these tasks are performed by the analyst, based on his/her experience and knowledge. Anton [13] presents a set of verbs to be used in the specification of goals within the processes of early elicitation of software requirements as a way to support the analyst and the stakeholder in their processes of collective construction. In a summary of the state-of-the-art review (see Table 3), we specify some of the most important issues: 1. Syntactic structure to represent goals 2. Syntactic structure to represent problems 3. Semantic structure to represent goals 4. Semantic structure to represent problems 5. Schemas representing domain problems 6. Schemas representing goals 7. Consistency validation among business goals and domains problems.

Table 1. 194


Zapata-J & Vargas-Agudelo / DYNA 81 (186), pp. 193-199. August, 2014. Table 3. State-of-the-art review summary Tropos [2] 1 X 2 X 3 X 4 X 5 X 6 √ 7 X Source: The authors

Kaos [5]

I* [6]

UNC-Method [7]

Logical framework [9]

Kepner & Tregoe [10]

Vargas [11]

Eriksson & Penker [12]

Anton [13]

X X X X X √ X

X X X X X √ X

X X X X √ √ X

X X X X √ √ X

X X X X X X X

√ √ X X X X √

X X X X √ √ X

X X X X X √ X

3. A proposal for specifying problems from goals During the early elicitation of software requirements, the specification of the problems to be solved by the software application is crucial. The analyst and the stakeholder are directly involved in this task, and they complete it based on their experience and organizational knowledge. In some of the methodologies for eliciting requirements, a diagram is used to display the business goals and identify the relation with the problems. The method we propose in this Section for the problem specification from organizational goals is based on the KAOS goal diagram. Also, we use pre-conceptual schemas for graphically representing contextual information. We use these schemas due to their proximity to the natural language of the stakeholder and the technical language of the analyst. It should be noted that the description with pre-conceptual schemas could also be made with class diagrams, entity relationship diagrams, domain models, semantic rules, ontologies, and so on. The basic syntax of the pre-conceptual schemas [14] is shown in Fig. 1.

The stages of the method for specifying problems from the organizational goals are described in Tables 4 to 7. For example, Fig. 2 shows a KAOS goal diagram including the proposed structure [9] and Fig. 3 shows a domain representation by using a pre-conceptual schema [14]. Elements in gray come from the information provided by the modified goal diagram. The rest of the elements are taken from the interview with the stakeholder. The rules are specified as follows: Antecedent: We select a goal statement in which an improvement verb is used to qualify a noun phrase. Example: Increasing the ambulance service. Consequent: C1. We first chose a negative connotation adjective as opposed to the positive verb proposed in the goal. The adjectives are the following: limited, poor, bad, worse, minor, modest, small, slow, low, and narrow. Then, we enunciate the problem by using the phrase “the result of the evaluation of” followed by the noun or the noun phrase described in the goal and the “is” verb followed by the adjective Example: The result of the evaluation of ambulance service is limited. (see Fig. 4).

Figure 1. Basic Syntax of Pre-conceptual Schemas. Source: [14]

Table 4. Stage 1. Stage 1. Specification of KAOS goal diagram. The KAOS goal diagram should be verified in order to determine every goal structure really describes a goal. For completing this task, we use the structures described by Vargas [11]. Input -

Goal diagrams of the stakeholders Goals specification of the UNC-Method Goals structures [11] Stakeholder information

Output

-

Goal diagram modified

Figure 2. KAOS goal Diagram. Source: [11]

Table 5. Stage 2. Stage 2. Complete a domain model based on the modified goal diagram and interviews with the stakeholders by using the pre-conceptual schemas. Input Output Goal diagram modified Basic syntax of pre- Domain representation by conceptual schemas [14] using pre-conceptual Stakeholder information schemas Source: The authors

Source: The authors 195


Zapata-J & Vargas-Agudelo / DYNA 81 (186), pp. 193-199. August, 2014.

Figure 3. Domain Source: The authors

Table 6. Stage 3. Stage 3. Syntactic-semantic rules—these rules are used to specify problems from the goals outlined in the KAOS goal diagram by using the pre-conceptual schema. Such rules are the key input of the early analyst-stakeholder communication, in order to clarify the problems arising from any organizational process. It should be noted that such problems are often ignored by the stakeholder, but they can be made explicit by the analyst Input Output Modified Goal diagram Domain representation by using pre-conceptual Portions modified of the schemas pre-conceptual schema. Specification of the syntactic-semantic rules Source: The authors.

Figure 5. The usage of an antonym of the verb for enunciating the problem. Source: The authors.

Antecedent: We select a requirement with an action verb and an achievement verb (e.g., ensuring the ambulance service is sent). The requirement should also have a constraint for qualifying the action verb (e.g., ambulance service is sent on time when the difference between the attention time and the reception time is lower or equal than 20 minutes).

Figure 4. The usage of an adjective for enunciating the problem. Source: The authors

• Consequent: C2. Enunciating the problem by using an antonym of the verb proposed in the goal, followed by a noun or noun phrase related to the one described in the goal, which is reflected in the context of the domain expressed by the pre-conceptual schema. Example: Ambulance service is worsening. (see Fig. 5).

Figure 6. The usage of an adverb for enunciating the problem in the case of requirements. Source: The authors.

196


Zapata-J & Vargas-Agudelo / DYNA 81 (186), pp. 193-199. August, 2014.

action verb proposed in the goal. Example: the ambulance service is sent out of time (and ambulance service is sent out of time when the difference between the attention time and the reception time is greater than 20 minutes). See Fig. 6. For example, Fig. 8 shows the pre-conceptual-schemabased domain representation including the problems detected [14]. 4 Laboratory example

Figure 7. The usage of an adverb for enunciating the problem in the case of requirements. Source: The authors.

Table 7. Stage 4. Stage 4. Increase the domain model by incorporating the problems detected in the pre-conceptual schema. Input Output Domain representation by using pre-conceptual schemas Domain model with the Portions modified of the problems detected pre-conceptual schema incorporated. Source: The authors.

• Consequent: C3. Enunciating the problem by denying both the adverb and the constraint qualifying the

Ponsard et al. [15] present a goal diagram related to a train control system, as shown in Fig. 9. According to our method, the first stage is the validation of the structures related to the goals. In such a case, we need to review every goal defined against the structures provided by Vargas [9]. For example, the first goal “effective passenger transportation” does not match the proposed structure, since no achievement verb is found in the phrase. Effective is an adjective related to the improvement of the passenger transportation, so we can re-write the goal as “improving passenger transportation.” The goal rapid transportation can be related to the increment of the speed of the entire transportation system, so we can rewrite “increasing transportation speed.” In the case of the goal “safe transportation,” we can relate the goal to the increment of the safety of the entire transportation system, so we can re-write such a goal as “improving transportation security.” In the same way, we can proceed to obtain the partial goal diagram of the Fig. 10.

Figure 8. The usage of an adverb for enunciating the problem in the case of requirements. Source: The authors.

The next stage is related to the proposition of problems by using the structure provided by Fig. 3 and the rules belonging to stage 3. We build the pre-conceptual schema depicted in Fig. 11 with part of the information included in Fig. 10 and some other

context information. It should be noted that such information in the real world is intended to be provided by the stakeholder. Some of the problems to be suggested by the analyst in order to gain stakeholder validation are included in Table 8.

197


Zapata-J & Vargas-Agudelo / DYNA 81 (186), pp. 193-199. August, 2014.

the analyst and the stakeholder with the specification of goals and problems, as well as the relation among them. Thus, early, relevant requirements aligned with the organization can be guaranteed. In this way, we can generate traceability among goals, problems and requirements. With these problems in mind, in this paper we proposed a method based on some rules for specifying problems based on business goals. We kept in mind that the problems should be aligned to the organizational goals and that they should justify the development of a software application. By applying this method, the analyst can help the stakeholder to determine the relevant problems related to the organizational context, since sometimes such problems are not adequately elicited.

Figure 9. Example of the goal diagram related to a train control system. Source: [15].

Table 8. Problems to be suggested.

Figure 10. Partially modified KAOS goal diagram. Source: The authors.

5. Conclusions The methodologies for early elicitation of software requirements based on goals need a set of tools that provide

Goal

Rule

Problem

Improving passenger transportation

C2

Increasing transportation speed

C1

Improving transportation security

C1

Improving passenger transportation

C1

Ensuring the train doors are closed

C3

Decreasing delays Decreasing collisions

C2 C2

Transportation is worsening The result of the evaluation of the transportation speed is slow The result of the evaluation of the transportation security is low The result of the evaluation of the transportation is bad The train doors are closing anomalously (anomalously means closing time is greater than 40 seconds) The delays are increasing The collisions are increasing

Source: The authors.

Figure 11. Pre-conceptual schema based on the information of the goal diagram and some other context information. Source: The authors.

The method proposed in this paper used the so-called

pre-conceptual schemas in several ways: as a way to

198


Zapata-J & Vargas-Agudelo / DYNA 81 (186), pp. 193-199. August, 2014.

describe the structure of the problems, as a knowledge representation of the context information, and as a way to link the information included in the goals with the suggested organizational structure of the problems. Some other conceptual schemas can be used for this task, for example: domain models, class diagrams, entity-relationship models, semantic networks, and ontologies, among others. We used pre-conceptual schemas for several reasons: they are easy to understand by the stakeholders, they can be automatically traced to several conceptual schemas, and they exhibit a logical syntax for representing contextual information. 6. Future work Some research fields are expected to be developed as future work related to the specification of problems based on the organizational goals, during the early elicitation of software requirements: • Developing ontologies of terms connected to the problem domain, allowing for the specification of problems directly related to business goals. • Using the pre-conceptual schemas in order to define and structure other kinds of problems linked to organizational goals. • Suggesting other ways of linguistically and semantically relating problems and goals. • Establishing relations to improve the traceability among problems, goals, and requirements during the early requirements elicitation process. References [1]

Lapouchnian, A., Goal-oriented requirements engineering: An overview of the current research, University of Toronto, 2005, 32 P.

[2]

Rebollar, A. M., Esquivel, H. E. y Moreno, L. A. G., Una guía rápida de la metodología tropos. Revista Gerencia Tecnológica Informática, 7 (19), pp. 67-77, 2008.

[3]

Ali, R., Dalpiaz, F. and Giorgini, P., A goal-based framework for contextual requirements modeling and analysis. Requirements Engineering, 15 (4), pp. 439 - 458, 2010.

[4]

Martínez, A., Pastor, O., Mylopoulos, J., and Giorgini, P., From early requirements to later requirements: A Goal-Based approach, proceedings of the 8th international Bi-conference workshop on Agent-Oriented information system, 2006, pp. 5-12.

[5]

Dardenne, A., Van Lamsweerde, A., and Fickas, S., Goal-directed requirements acquisition. Science of Computer Programming, 20 (1), pp. 3-50, 1993

[6]

Yu, E., Modelling strategic relationships for process reengineering. PhD. Thesis, University of Toronto, Toronto, Canada, 1995.

[7]

Zapata, C. and Arango, F., The UNC-Method: A problem based software development method. Ingeniería e Investigación, 29 (1), pp. 69-75, 2009.

[8]

Eric, S. K., Giorgini, P. and Maiden, N., (Eds.)., Social modeling for requirements engineering. Mit Press, 2011.

[9]

Sánchez, N., El marco lógico. Metodología para la planificación, seguimiento, y evaluación de proyectos. Revista Visión Gerencial, 2 (6), pp. 328-343, 2006.

[10] Kepner, C. and Tregoe, B., The new rational manager: An updated edition for a new world. Princeton Research Press, 1997. [11] Vargas, F., Método para establecer la consistencia de los problemas en el diagrama causa-efecto con el diagrama de objetivos de KAOS, Tesis de Maestría (Ingeniería de Sistemas). Universidad Nacional de Colombia, Medellín, Colombia, 2010. [12] Eriksson, H. E. and Penker, M., Business modeling with UML: Business patterns at work. OMG Press Advisory Board, 1999. [13] Anton, A., Goal-Based requirements analysis. Proceedings of the 2nd IEEE International Conference on Requirements Engineering, 1996, pp. 136-144. [14] Zapata, C. M., Gelbukh, A. and Arango, F., Pre-conceptual schema: A conceptual-graph-like knowledge representation for requirements elicitation. Lecture Notes in Computer Science, 4293, pp. 17-27, 2006. [15] Ponsard, C., Massonet, P., Rifaut, A., Molderez, J.F., Van Lamsweerde, A. and Tran Van, H., Early verification and validation of mission critical systems. Electronic Notes in Theoretical Computer Science, 133, pp. 237-254, 2005. C. M. Zapata-Jaramillo, currently he is Associate Professor in the Computer and Decision Sciences Department, at the Facultad de Minas, at Universidad Nacional de Colombia, Medellín Campus. He holds a degree in Civil Engineering, a Specialization in Information System Management, an MSc. in Systems Engineering, and a PhD. in Engineering (focused on Information Systems); all his titles are from the Universidad Nacional de Colombia. His research areas include: Software engineering, natural language processing, computational linguistics and pedagogical strategies for teaching engineering. ORCID: http://orcid.org/0000-0002-0628-4097 F. A. Vargas-Agudelo, currently, he is an assistant Professor in the Facultad de Ingeniería at the Tecnológico de Antioquia. He is a System Engineer, Software Engineering Specialist,and has an MSc. in System engineering and a PhD(c) in System engineering from the Universidad Nacional de Colombia and Director of Research at the Tecnológico de Antioquia. His research areas include software engineering, requirements engineering and software quality methodologies. ORCID: http://orcid.org/0000-0002-6921-4918

199


Impact estimates of the actions for the rehabilitation of energy efficiency in residential building Sonia Zaragoza- Fernández a, Javier Tarrío-Saavedra b, Salvador Naya c, Jorge López-Beceiro d & Ana Álvarez-García e a

Escuela Politécnica Superior, Universidad de A Coruña, España, sonia.zaragoza@udc.es b Escuela Politécnica Superior, Universidad de A Coruña, España, jtarrio@udc.es c Escuela Politécnica Superior, Universidad de A Coruña, España, salva@udc.es d Escuela Politécnica Superior, Universidad de A Coruña, España, jlopezb@udc.es e Escuela Politécnica Superior, Universidad de A Coruña, España, aalvarez@udc.es

Received: September 17th, 2012. Received in revised form: May 17th, 2014. Accepted: July 14th, 2014.

Abstract The prediction of energy savings and indoor air quality resulting from the implementation of rehabilitation measures for energy efficiency in residential buildings is paramount to invest in the right technology and optimize available resources. In this paper, we propose a new methodology, based on actual data collection, to quickly and effectively assess energy efficiency and air quality of housings, considering variables such as the customs of the occupants, regulations and the constructive typology. The effect corresponding to the reforms carried out for energy efficiency rehabilitation in four homes built at different periods, under different rules, with different levels of occupancy and characteristics of its constructive elements is evaluated successfully. Keywords: Energy efficiency; building; energy performance; sustainable building; rehabilitation; indoor air quality.

Estimación del impacto de acciones en la rehabilitación de la eficiencia energética en la edificación residencial Resumen La predicción del ahorro energético y la calidad del aire interior resultante de la aplicación de medidas de rehabilitación de la eficiencia energética en edificios residenciales es de importancia capital para poder invertir en la tecnología correcta y optimizar los recursos disponibles. En este trabajo se propone una nueva metodología, basada en la toma de datos reales, para estimar rápida y eficazmente la eficiencia energética y calidad del aire de las viviendas atendiendo a variables como las costumbres de los ocupantes, normativa y tipología constructiva. Se evalúa con éxito el efecto de las reformas efectuadas para la rehabilitación de la eficiencia energética de 4 viviendas construidas en diferentes épocas, bajo distinta normativa, con diferente nivel de ocupación y características de sus elementos constructivos. Palabras Clave: Eficiencia energética; edificación residencial; modelizado energético; edificación sostenible; rehabilitación; calidad del aire interior.

1. Introducción El sector de la edificación es el responsable de una gran parte de las emisiones de dióxido de carbono, además de otros contaminantes, asociados al consumo de electricidad. De hecho, la energía consumida en edificios no industriales fluctúa entre el 20 y el 60% de la energía total, dependiendo del país objeto de estudio. [1]. Por tanto, la implantación de técnicas de rehabilitación que disminuyan el consumo

energético y, como consecuencia, la emisión de gases a la atmósfera, se hace cada vez más necesaria [2, 5]. Una rehabilitación fiable requiere un método de diseño eficaz, apropiado para alcanzar los fines previstos; pero dadas las variaciones aleatorias de las condiciones climáticas, de las propiedades de los materiales respecto al tiempo, de la capacitación de la mano de obra, del comportamiento de los ocupantes, etc., las técnicas de evaluación que hoy en día se utilizan no garantizan a medio

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 200-207. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Zaragoza- Fernández et al / DYNA 81 (186), pp. 200-207. August, 2014.

y largo plazo el logro todos los objetivos deseables. Un edificio es un medio complejo, constituido por un gran número de estancias comunicadas térmicamente entre sí a través de paramentos horizontales y verticales. Además está en contacto con el exterior con el que intercambia calor por convección-conducción y radiación (insolación). Por otra parte, incluye dispositivos de generación de energía de diversa naturaleza: gas, biomasa, solar térmico, solar fotovoltaico, etc., por lo que también está conectado a la red eléctrica general. El comportamiento de estos dispositivos está determinado por los usos y costumbres de los ocupantes. La elaboración de un modelo matemático del comportamiento térmico de un edificio se basa en el principio de conservación de la energía. Principalmente, se consideran dos familias de modelos: de parámetros distribuidos y de parámetros concentrados. Los primeros calculan la temperatura local en cada punto del medio tridimensional; los segundos lo hacen tan solo en un número finito de puntos o, dicho de otro modo, proporcionan una temperatura media espacial en ciertos subconjuntos de dicho medio (por ejemplo, en las estancias de un edificio). Para escribir el modelo es necesario conocer una serie de características geométricas y constructivas del edificio. Así, por ejemplo, se precisa saber cómo han sido construidos los diferentes paramentos horizontales y verticales, interiores y exteriores (espesores de las diferentes capas y materiales que las componen) para determinar su resistencia térmica y su capacidad calorífica. En un edificio por construir, estos datos forman parte del proyecto, pero en un edifico ya construido y con cierta antigüedad puede ser necesario recurrir a catas para obtenerlos. Por otra parte, es necesario conocer las condiciones climáticas del emplazamiento y su orientación; esta última a fin de determinar el calor que recibe por radiación solar. Finalmente, hay que proporcionar las características de la ocupación, consumo y tipología de instalaciones, así como del sistema de climatización instalado y la energía que este sistema intercambia en cada estancia a partir de la toma de muestra. En un estudio de rehabilitación de la eficiencia energética es muy importante aplicar modelos que estimen las renovaciones de aire a través del muestreo de uno de sus componentes, como es el caso de un gas trazador o contaminante común como el CO2. Este tipo de modelo se compone de una serie de balances de masa que permiten conocer a cada instante y en cada estancia las condiciones higrométricas y la cantidad de CO2 en aire. Un modelo de calidad del aire interior debe tener en cuenta la renovación del aire efectuada por la ventilación natural en todos los casos. Esta última variable influye también en el modelo térmico anteriormente mencionado, por lo que también aquí deberá tenerse en cuenta. A causa del carácter aleatorio de ciertos inputs, relacionado con los usos y costumbres de sus ocupantes, es necesario realizar un análisis estadístico de los datos a modelar [6,8]. A diferencia de programas actuales de modelización energética, esta metodología permite tener un dominio completo tanto de las variables de entrada que pueden ser todas reales o tomadas a partir de bases de datos según caso,

como también de la formulación, permitiendo realizar modelados a través de ingeniería inversa. Un ejemplo de ello puede ser la toma de información real de la temperatura exterior e interior, calculándose la energía que se intercambia por los cerramientos y obteniéndose de esta manera resultados mucho más precisos en las simulaciones. Este procedimiento de modelización energética es también mucho más versátil ya que se adapta rápidamente a todas las normativas de cada país y horarios de uso de las viviendas, pudiendo ser aplicado específicamente solo en horas de utilización, horario completo, etc. Otra característica de la metodología que aquí se presenta es la rapidez para la obtención de resultados (del orden de minutos) en comparación con otros programas actuales del mercado. Esto permite realizar comparativas constructivas y comprobar los ahorros energéticos en un tiempo significativamente inferior. En el presente trabajo se pretende estudiar la rehabilitación de la eficiencia energética de cuatro viviendas de manera que se mejore el confort térmico de las mismas, manteniendo en todo momento la calidad de aire interior. Este estudio se ha realizado teniendo en cuenta factores como la normativa aplicada en la construcción de cada vivienda estudiada, la tipología constructiva de cada una, las costumbres de sus ocupantes y la calidad de aire interior. Dada la radicación de las viviendas estudiadas, la normativa aplicable en todos los casos ha sido la española. La normativa existente en España relativa a la eficiencia energética aplicable a la construcción data de 1957[9]. Pero no es hasta 1979, con la entrada en vigor de la Norma Básica de la Edificación [10], cuando la administración pública adopta las primeras medidas encaminadas a la consecución de un ahorro energético a través de una adecuada construcción de los edificios. En 2007, con la entrada en vigor del nuevo Código Técnico de la Edificación [11], en su apartado de Ahorro de Energía y Salubridad, se experimenta una evolución en lo que respecta a las medidas encaminadas a la consecución de un ahorro energético. Se han seleccionado cuatro viviendas, todas ellas situadas en las coordenadas longitud 8º 14´W, latitud 43º 29´N, altitud 10m snm. Se han agrupado por parejas, de manera que la primera de ellas se compone de viviendas con fachada de galería, mientras que la otra lo hace de viviendas con fachada de cerramiento y ventana. Además, estas parejas han de cumplir que una vivienda sea de construcción anterior a la Norma básica de la Edificación (circunscrita al caso español) y la otra construida teniendo en cuenta ya el Código Técnico de la Edificación. Mediante este procedimiento se pueden valorar construcciones sujetas a un mismo clima y de un mismo tipo, pero edificadas bajo normativas diferentes. En un caso la normativa no tiene en cuenta la eficiencia energética mientras que en el otro la hace obligatoria en la construcción. 2. Experimental El procedimiento experimental de toma de datos se ha realizado mediante el uso de sensores de calidad de aire y ambiente térmico PCE-GA 70, capaces de realizar medidas de concentración de CO2, temperatura ambiente y humedad

201


Zaragoza- Fernández et al / DYNA 81 (186), pp. 200-207. August, 2014.

pasaron a ser dobles. Orientación suroeste. El nivel de ocupación de esta vivienda es de cinco personas. II. Residencia B. Vivienda de construcción del siglo XIX, con cerramientos de piedra y galerías. Sufrió dos rehabilitaciones, la primera en la década de los años 80 del siglo XX, por la cual se cambiaron los suelos de madera de la vivienda por forjados hormigón armado y las galerías de carpintería de madera y tipo guillotina por otras de carpintería de aluminio y tipo corredera con cristal simple. Orientación suroeste. El nivel de ocupación de esta vivienda es de dos personas. III. Residencia C Vivienda de construcción de los años 70, de cerramiento con doble tabique de ladrillo y con cámara de aire de 12 cm. Ventanas dobles de aluminio tipo corredera con cristal sencillo. Orientación sur. El nivel de ocupación de esta vivienda es de una persona. IV. Residencia D. Vivienda de construcción moderna del 2008, con ladrillo cara vista y ventanas de doble cristal con cámara de aire. Orientación sur – suroeste. El nivel de ocupación de esta vivienda es de dos personas.

Figura 1. Vivienda A Fuente: Los autores

relativa del aire. Sus especificaciones técnicas son las siguientes: En referencia a las medidas de CO2 presente en aire, presentan un rango de medición entre 0 y 66000 ppm, una precisión del 3% del valor de medición o ±50 ppm y una resolución de 1 ppm. En lo que respecta a la medición de temperatura, el rango de medición está definido entre -20 y 60ºC, su precisión y resolución son de ±0,5ºC y 0,1ºC, respectivamente. Finalmente, la humedad relativa presente en el aire se mide en un rango de 10-95%, con una precisión y resolución de ±3% y 0,1%, respectivamente. También se ha utilizado una cámara termográfica PCE TC4. Algunas de sus características técnicas más importantes son las siguientes: rango de temperatura total entre -10 y 900ºC (mediante un sensor microbolómetro no refrigerado), rango bajo (sin filtro) entre -10 y 250ºC, rango alto (con filtro) entre 50 y 900ºC, precisión del ± 2%, resolución de pantalla igual a 192 x 192 píxeles, campo de visión de 192 x 192 píxeles, campo de visión (FOV) de 20º x 15º, foco manual y distancia de medición desde 50 cm hasta el infinito. Los datos de las condiciones climáticas exteriores han sido aportados por la Consellería de Medio Ambiente, Territorio e Infraestructuras de la Xunta de Galicia, tomados en sus instalaciones meteorológicas localizadas en Ferrol (España). Se ha empleado el software commercial EES (Engineering Equation Solver, for Microsoft Windows Operating Systems) para la realización de los cálculos necesarios [12, 13].

Figura 2. Vivienda B Fuente: Los autores

2.1. Viviendas objeto de estudio A continuación se describe cada una de las viviendas a estudiar: I.

las galerías de carpintería de madera de tipo guillotina por otras de carpintería de aluminio de tipo corredera con cristal simple. En el año 2005 sufrió una segunda rehabilitación por la cual las antiguas galerías simples

Figura 3. Vivienda C Fuente: Los autores

202


Zaragoza- Fernández et al / DYNA 81 (186), pp. 200-207. August, 2014.

Las renovaciones de aire en el interior de una vivienda son debidas al efecto combinado de la diferencia de densidades debido a las condiciones no isotérmicas, a las diferencias adicionales de presión producidas por el viento exterior y a los ventiladores. Las renovaciones de aire pueden ser voluntarias, por ejemplo, debido a aperturas de ventanas, o involuntarias, debidas a entradas de aire por intersticios en las carpinterías, por las rejillas de ventilación de los baños, etc. Aplicando el balance de materia a un contaminante se obtienen las renovaciones totales de aire en el interior. Este valor también está regulado por el Código Técnico de la Edificación (CTE) para viviendas residenciales en un mínimo de 0.5 renovaciones a la hora. El cálculo de las renovaciones de aire se realiza utilizando la siguiente expresión:

Figura 4. Vivienda D Fuente: Los autores

3. Metodología El procedimiento seguido para el estudio de la rehabilitación de la eficiencia energética de las cuatro viviendas fue el siguiente: 1. Toma de medidas de temperatura, humedad relativa y niveles de CO2 en el interior de las viviendas, en modo continuo durante 48 h. Las medidas fueron tomadas en el salón de las viviendas, ya que es la estancia con mayor tiempo de ocupación. 2. A la vez que las interiores, toma de medidas en el exterior: temperatura, humedad relativa, radiación solar, velocidad y dirección del viento, y presión barométrica. 3. Toma de imágenes termográficas, para evaluación de las temperaturas superficiales y cálculo de la temperatura operativa interior. 4. Análisis detallado de las características constructivas de cada vivienda, dimensiones, orientación y materiales de construcción; 5. Al mismo tiempo que se monitorizaron los datos meteorológicos, la calidad de aire interior y exterior, también se evaluaron las costumbres de los ocupantes mediante un cuestionario, con el que se obtienen los datos horarios de entrada y salida de la estancia, conexión y desconexión de los dispositivos eléctricos, apertura y cierre de ventanas, etc. 6. A partir de las medidas tomadas en continuo tanto en el exterior como en el interior, se calcularon los promedios horarios, obteniendo directamente los valores de la calidad de aire interior de la vivienda, el cual podrá seguidamente clasificarse atendiendo a la norma vigente. La normativa española Reglamento de Instalaciones Térmicas en los Edificios (RITE) [14], clasifica la calidad del aire, tal y como se muestra en la siguiente Tabla 1. Tabla 1. Niveles de calidad de aire Clasificación Calidad CO2 (ppm*) IDA 1 óptima 350 IDA 2 buena 500 IDA 3 media 800 IDA 4 baja 1200 *Concentración de CO2 (ppm) por encima de la concentración del aire exterior de 400ppm. Fuente: ES Ministerio de la Presidencia. [14].

dC i Q = + nC o − a dg C i − nC i dt V

(1)

Donde: Ci [mg/m3] es la concentración del contaminante en el aire interior. Q [mg/h] es la tasa de emisión. V [m3] es el volumen de espacio interior. Co [mg/m3], la concentración del contaminante en el aire atmosférico. n, tasa de ventilación por hora. adg, tasa de degradación interior horaria del gas (en este caso es 0 ya que el CO2 no se degrada) [15]. De esta expresión se obtiene n, número de renovaciones de aire por hora. Para obtener las condiciones de confort térmico en cada vivienda, se calcula el porcentaje de personas que están insatisfechas con las condiciones térmicas (PPD) y el voto medio previsto (PMV) con respecto a si las personas votarían tener calor o frio según la norma UNE 7730 [16]. Estos valores se obtienen a partir de inputs como la temperatura y las vestimentas de los ocupantes. Se realiza un balance de energía en régimen estacionario para cada vivienda mediante las siguientes expresiones [17]:

dE almac  = E aire + E cerramiento + E gener + E solar ( 2) dt Siendo: Eaire [W], energía relativa a la renovación de aire, esta se calcula utilizando el valor de renovaciones por hora de aire obtenido mediante la expresión 3 [16].

E aire = 0,34 ⋅ Vi

(3)

Con Vi [m3] equivalente al caudal de renovación de aire obtenido mediante la expresión (1). Esolar es la energía por radiación que penetra a través de las superficies acristaladas:

E 203

solar

= A ⋅ Rincidente ⋅ SHCG

(4)


Zaragoza- Fernández et al / DYNA 81 (186), pp. 200-207. August, 2014.

Siendo A [m2] el área de la superficie acristalada, Rincidente [W/m2] la radiación incidente y SHCG el coeficiente adimensional “Solar heat gain coefficience”. Ecerramiento se ha calculado en función de las características constructivas de cada caso siguiendo el Código Técnico de la Edificación.

Viv.

(5)

Siendo Edispositivos la energía que aportan los dispositivos cuando están encendidos. Valor recogido para cada caso mediante muestra del consumo. Mientras que Epersonas tiene la siguiente expresión:

PPD

Rango Tª confort

Tªmedia real

A

-0,8

20,7

22±3ºC

18ºC

B

-1,1

29,3

22±3ºC

16,7ºC

C

-1,8

65,9

22±3ºC

14,2ºC

D

-0,5

10,5

22±3ºC

18,2ºC

Result. No hay confort térmico No hay confort térmico No hay confort térmico No hay confort térmico

Fuente: Los autores

(6) Balance de energía de la Vivienda

Balance energético (kW)

Donde p es el peso medio de los ocupantes, a la altura media de los ocupantes, n el número de ocupantes y TM la tasa metabólica [18]. Se analiza el balance de energía durante todo el año en cada vivienda y, con los resultados, se evalúa el tiempo y la energía necesaria para mantener el confort térmico con la calidad de aire adecuada [19]. En función de los resultados obtenidos en cada vivienda, se realizan de nuevo los todos los cálculos considerando las posibles mejoras factibles desde un punto de vista térmico y económico. Se evalúa el ahorro energético que ha supuesto la mejora y se presenta la propuesta correspondiente.

1500

1000

500

0

Los resultados experimentales obtenidos relativos a la calidad de aire se muestran en la Tabla 2. 4.2. Confort térmico Los valores para evaluación del confort térmico, así como el resultado de la misma, se observan en la Tabla 3. 4.3. Balance energético en la vivienda A

Realizando el balance de energía durante todo el año en régimen estacionario y considerando una calidad de aire adecuada (según la normativa vigente, la renovación horaria Tabla 2. Resultados de la calidad del aire Viv.

CO2

Clas.

N p.

N

Resultado.

A

965

IDA 3

0,3

0,5

Insuficiente

B

627

IDA 1

0,96

0,5

Óptimo

C

790

IDA 2

0,33

0,5

Insuficiente

D

961,8

IDA 3

0,3

0,5

Insuficiente

Dic.

Nov.

Octub.

Sept.

Agosto

Julio

Junio

Mayo

Enero

4. Resultados y discusión

Abril

-500

-1000

4.1. Calidad del aire

Antes reforma Después reforma

Marzo

E personas = 0,202 ⋅ p 0.425 ⋅ a 0.725 ⋅ n ⋅ TM

PPV

Febr.

E generado= E dispositivos +E personas

Tabla 3. Resultados de confort térmico

Figura 5. Balance energético antes y después de la reforma de la en la vivienda A Fuente: Los autores

es de 0,5); se observa que, en lo tocante a la energía necesaria para mantener el confort térmico, el cambio actual a ventanas dobles (doble acristalamiento) supuso un ahorro anual de 4106 kW con respecto a la situación previa a la reforma, con ventanas simples. En la Fig. 5 se observan los consumos energéticos mensuales estimados antes y después de la reforma de la vivienda A. Se observa un ahorro más que considerable en calefacción durante los meses de invierno, primavera y otoño, mientras que el balance energético es similar en verano. Mediante la aplicación del método propuesto se demuestra su utilidad para evaluar el efecto en el ahorro energético de acciones de rehabilitación ya efectuadas, permitiendo llevar a cabo la evaluación del trabajo realizado. 4.4. Balance energético en la vivienda B

Leyenda: Viv. Vivienda; CO2, CO2 promedio; Clas., clase de aire; N p.:,N promedio; N, norma. Fuente: Los autores

Realizando el balance de energía en régimen estacionario durante todo el año y manteniendo la calidad de aire de 0,5 renovaciones por hora, se deduce que para mantener el confort térmico tanto en la situación actual

204


Zaragoza- Fernández et al / DYNA 81 (186), pp. 200-207. August, 2014.

en el cerramiento interior, disminuyen las necesidades anuales de calefacción en 243 kW (ver Fig. 9).

Balance de energía de la Vivienda

Antes reforma Después reforma

Balance de energía de la Vivienda

600

Balance energético (kW)

400

200

0

-200

Actual Propuesta

400

Dic.

Nov.

Octub.

Sept.

Agosto

Julio

Junio

Mayo

Abril

Marzo

0

Febr.

Dic.

Nov.

Octub.

Sept.

Agosto

Julio

Junio

Mayo

Abril

Marzo

Febr.

200

Enero

-400

600

Enero

Balance energético (kW)

800

Figura 6. Balance energético en la vivienda B. Fuente: Los autores

como en la suposición de cambio de ventanas de simples a dobles. El ahorro anual de calefacción sería de 1302.4 kW. En la Fig. 6 se observa una mucho menor pérdida de energía en todos los meses del año, especialmente en otoño invierno y primavera, mientras que el balance de energía en verano es muy similar antes y después de la reforma.

Figura 7. Balance energético en la vivienda C Fuente: Los autores

4.5. Balance energético en la vivienda C

400

200

Figura 9. Balance de energía. Vivienda D Fuente: Los autores

205

Dic.

Nov.

Octub.

Sept.

Agosto

Julio

Junio

Mayo

Abril

-200

Marzo

0

Febr.

Como se ha visto, a pesar de estar construida de acuerdo con las nuevas normativas, la vivienda D es una vivienda con un número de renovaciones de aire por hora insuficientes y, además, no cumple con las condiciones de confort térmico. Esto se debe principalmente a la transmisión de calor a través de los cerramientos. Esta suposición se ve corroborada mediante el estudio de la termografía exterior de la fachada (Fig. 8). De hecho se observa que la temperatura del cerramiento es excesivamente baja (obsérvese el código de colores). A partir del balance anual de energía en régimen estacionario, se obtiene que para mantener el confort térmico hay que aportar calefacción desde mediados de noviembre a mediados de febrero. Si se coloca un aislante

Balance de energía de la Vivienda

Balance actual Balance propuesta

Enero

4.6. Balance energético en la vivienda D

Figura 8. Termografía exterior de la fachada, vivienda D Fuente: Los autores

Balance energético (kW)

A partir del balance anual de energía en régimen estacionario, se obtiene que la calidad de aire cumple con la normativa vigente de 0,5 renovaciones por hora. Para mantener el confort térmico hay que aportar calefacción desde mediados de noviembre a mediados de marzo (ver Fig. 7). Considerando una inserción de aislante térmico en la cámara de aire del cerramiento; se produciría un ahorro anual energético en calefacción de 12 kW. Los balances de energía antes y después de la inclusión del aislante se han calculado utilizando la metodología propuesta. En este caso se demuestra la utilidad del método para predecir el efecto (ahorro energético) de acciones de rehabilitación futuras.


Zaragoza- Fernández et al / DYNA 81 (186), pp. 200-207. August, 2014.

5. Conclusiones

[5]

IDEA, Instituto para la diversificación y ahorro de energía. Available: http://www.idae.es/[2011]

En este estudio se ha propuesto una nueva metodología para el cálculo de la eficiencia energética y calidad del aire de los edificios de carácter no industrial. El método descrito representa una alternativa rápida y eficaz para la planificación de proyectos de rehabilitación de la eficiencia energética, con la particularidad de estar basada en la toma de datos reales en puntos estratégicos del propio edificio. Mediante la aplicación de la metodología propuesta, se han evaluado los efectos de las reformas realizadas sobre la eficiencia energética y calidad del aire de las viviendas objeto de estudio. Las conclusiones obtenidas muestran la necesidad de tener en cuenta más variables en la construcción de los edificios (como de hecho se consideran en el análisis propuesto) para conseguir una óptima habitabilidad, de acuerdo con las normas vigentes: 1. Los edificios construidos antes de la primera crisis energética son menos herméticos y gozan de una buena calidad de aire, con independencia del comportamiento de sus ocupantes, sin embargo no alcanzan el confort térmico. 2. Los edificios construidos bajo la normativa actual, en la cual se incluyen medidas de eficiencia energética, son más herméticos, no consiguen un confort térmico satisfactorio y tampoco alcanzan la calidad de aire reglamentada. 3. Los modelos matemáticos de modelización energética resultan una herramienta muy útil para comparar los ahorros energéticos y, por lo tanto, de los futuros costes de mantenimiento en cada opción de rehabilitación. 4. Para una rehabilitación eficaz de la eficiencia energética de los edificios, la mejora del aislamiento térmico en las zonas acristaladas es fundamental pues es la acción con mayor repercusión en el resultado final. 5. Se ha demostrado la utilidad de la puesta en práctica de estudios de rehabilitación energética para conseguir la mejora en la habitabilidad de los edificios y el hoy en día más que necesaria disminución en el consumo energético de los hogares.

[6]

Castrillón, R. del P., González, A. J. y Quispe, E.C., Mejoramiento de la eficiencia energética en la industria del cemento por proceso húmedo a través de la implementación del sistema de gestión integral de la energía, DYNA, 80 (177), pp. 115-123, 2013.

[7]

Zhai, Z. and Metzger, I. D., Taguchi-Method-Based CFD study and optimisation of personalised ventilation systems, Indoor and Built Environment 21, pp. 690-702, 2012.

[8]

Jun, L., Chundie, L., Chuck, Y., Ming J. and Shaowei D., Regression analysis of the relationship between urban heat island effect and urban canopy characteristics in a mountainous city, Chongqing. Indoor and Built Environment, 21 (6), pp. 821-836, 2012.

[9]

ES. Ministerio de la Vivienda de España, Normas MV, 1957

Agradecimientos Este estudio ha sido realizado, en parte, con la financiación aportada por el proyecto MTM2011-22392 (fondos FEDER incluidos). Referencias [1]

IEA., Energy Conservation in buildings and community systems. ECBCS Annual Report 2009 AECOM House. St Albans, Hertfordshire: U.K. International Energy Agency, 2009.

[2]

Greening, L. A., Greene, D. L. and Difiglio, C., Energy efficiency and consumption -the rebound effect- a survey, Energy Policy, 28, pp. 389-401, 2000.

[3]

Crosbie, T. and Baker, K., Energy-efficiency interventions in housing: learning from the inhabitants, Building research & information, 38, pp. 70–79, 2010.

[4]

ES CE., Directiva 2002/91/CE relativa a la eficiencia energética de los edificios, del 16 de diciembre del 2002. DO L 1 de 4.1.2003. Madrid: ES, 2003.

[10] ES. Ministerio de la Vivenda de España, RD 1650/1977 Normativa de Edificación, 1977 [11] ES. Ministerio de la Presidencia, CTE. Real Decreto 1371/2007 y posteriores modificaciones. Madrid: ES. Código Técnico de la Edificación, 2007. [12] F-Chart Software. EES, Engineering Equation Solver, for Microsoft Windows Operating Systems, 2003. [13] US ACCA. Manual J residencial load calculations, 8th Edition. Arlington, VA: US. Air Conditioning Contractors of America, 2003. [14] ES Ministerio de la Presidencia, RITE. Real Decreto 1027/2007 de 2007 de julio. Madrid: ES. Reglamento de Instalaciones térmicas en los edificios, 2007. [15] OMS, Air Quality Guidelines for Europe. European Series, 23, 426. Publicaciones Regionales de la OMS. Copenhague: DK. Organización Mundial de la Salud, 1987. [16] ES. UNE-EN ISO 7730, Ergonomía del ambiente térmico. Determinación analítica e interpretación del bienestar térmico mediante el cálculo de los índices PMV y PPD y los criterios de bienestar térmico local. Madrid: ES. Asociación Española de Normalización y Certificación (AENOR), 2006. [17] US ASHRAE. ASHRAE handbook fundamentals. Atlanta, Georgia: US. American Society of heating refrigerating and air-conditioning engineers, 2009. [18] ES. UNE-ES 12831, Sistema de calefacción en edificios. Método para el cálculo de la carga térmica de diseño, 2003. [19] Clarke, J. A., Energy simulation in building design. 2nd Edition. Oxford, Butterworth-Heinemann, 2001. S. Zaragoza-Fernández, Dra. en Ing. Industrial – en el campo de la eficiencia energética – por la Universidad de A Coruña, en la que ejerce como profesora en el área de ingeniería nuclear y Directora del AULA INSTITUCIONAL REPSOL -UDC. Autora de una patente de invención (P4342/2011) sobre el sistema y método de monitorización y simulación energética de edificios y coautora de un software (03/2011/843) para la optimización de la eficiencia energética en la rehabilitación residencial. Coautora y autora de diversas publicaciones en el ámbito de la energía. Así mismo realizó una estancia de investigación en la Unidad de Ahorro Energético de la Universidad Tecnológica de Panamá. Colaboró con varios trabajos con la Agencia Internacional de la Energía, IEA Energy Conservation in buildings & community systems, en la elaboración del Anexo 55: Reability of energy efficient building retrofitting-probability assesment of performance & cost. Participó en un total de 15 proyectos de investigación con financiación pública y privada en el ámbito energético, siendo Investigador Principal en tres de ellos. J. Tarrío-Saavedra, Dr., profesor en la Universidad de A Coruña donde imparte materias relacionadas con la estadística, el control estadístico de calidad y la fatiga termomecánica. Cuenta con la titulación en Ingeniería Industrial y con el Doctorado en Estadística e Investigación Operativa por

206


Zaragoza- Fernández et al / DYNA 81 (186), pp. 200-207. August, 2014. la UDC. Sus actividades como investigador se centran en la aplicación de técnicas estadísticas para la caracterización térmica y reológica de materiales complejos y combustibles, aprendizaje estadístico, aprendizaje máquina y bibliometría. Cuenta con diversas publicaciones en las áreas de estadística, ingeniería y ciencia de los materiales. S. Naya, profesor de Estadística en la Universidad de A Coruña, contando con la acreditación de catedrático del área de Estadística e Investigación Operativa por la Agencia Nacional de Acreditación Nacional (ANECA). Como docente imparte clases en los grados de ingeniería industrial y naval en la Escuela Politécnica Superior de Ferrol y en diferentes másteres, como el máster interuniversitario de Técnicas Estadísticas o el doble máster internacional de la Universidad de A Coruña con la París Diderot en Materiales Complejos. Cuenta con varias publicaciones en estadística aplicada a la ingeniería y varios libros de divulgación sobre estadística. Es miembro electo del ISI (International Statistical Institute) y ha ocupado distintos cargos de gestión en la universidad. En la actualidad es el director de la Cátedra Jorge Juan, órgano que depende de la Universidad de A Coruña y del Ministerio de Defensa. J. López-Beceiro, Dr. en Ing. Industrial por la Universidad de A Coruña. Desde el año 2008 ejerce como profesor de esta misma Universidad en el

área de Ciencias de los Materiales e Ingeniería Metalúrgica. Ha publicado numerosos artículos relacionados con el estudio de las propiedades térmicas y reológicas de los materiales. En 2012 ha realizado una estancia de investigación en el laboratorio CAMCOR de la Universidad de Oregón. A. Álvarez-García, profesora de la Universidad de A Coruña y Dra Europea por la misma Universidad en el campo de la eficiencia energética. MSc. en Ing. Matemática y MSc. en Administración Marítima y Gestión Portuaria. Trabajó en el Sector Naval durante diez años desarrollando labores de coordinación entre el Astillero y el Armador, así como desarrollo de Ingeniería básica, de detalle y modelado 3D de la estructura. Coautor de varios artículos de investigación sobre temas de simulación numérica, energía, ingeniería naval y ciencia de materiales, además de varias ponencias en congresos de ámbito nacional e internacional en dichas áreas. Ha colaborado en diversos proyectos de investigación. En el año 2013 ha sido galardonada con el premio de investigación González Llanos por un trabajo sobre la reducción del consumo de combustible en buques de crucero mediante la implementación de un nuevo colector solar. Desde el año 2012 hasta la actualidad es la Directora del Servicio de Asesoramiento y Promoción del Estudiante de la Universidad de A Coruña en el campus de Ferrol.

207


Effects of regional infrastructure and offered services in the supply chains performance: Case Ciudad Juarez Liliana Avelar-Sosa a , Jorge Luis García-Alcaraz a, Miguel Gastón Cedillo-Campos b & Wilson Adarme-Jaimes c a

Instituto de Ingeniería y Tecnología, Universidad Autónoma de Ciudad Juárez, México avelarsosa@gmail.com b Instituto Mexicano del Transporte, Querétaro, México gaston.cedillo@mexico-logistico.org c Facultad de Ingeniería, Universidad Nacional de Colombia, Bogotá, Colombia wadarmej@unal.edu.co

Received: September 18 th, de 2013. Received in revised form: March 27th, 2014. Accepted: June 28th, 2014 Abstract In this paper appears an analysis of the effects of regional infrastructure and the services in the supply chains performance in manufacturing companies collated in Ciudad Juarez, Chihuahua, Mexico. To collect the information, 120 surveys were applied to companies, and to obtain a causal with structural equation modelling to explain those effects, a methodology of partial least squares was used with WarpPls 3.0®. The results indicate that a good level in the regional infrastructure has a positive impact on logistics services, and as a consequence in the costs. Also, the regional infrastructure has a positive impact on time delivery of products. Regarding the level of infrastructure (transport, telecommunications, and internet) and services (air, land, financial, legal) in Ciudad Juarez, respondents are considering that it is good, so the product deliveries are complete on time in the past 3 years. Keywords: supply chain; regional infrastructure; services; Partial Least Squares (PLS).

Efectos de la infraestructura regional y los servicios en el desempeño de la cadena de suministro: Caso Ciudad Juárez Resumen Este trabajo presenta un análisis de los efectos que tienen la infraestructura regional y los servicios en el desempeño de la cadena de suministro en empresas manufactureras de Ciudad Juárez, Chihuahua, México. Para colectar la información se aplicaron cuestionarios a 120 empresas, y para obtener un modelo de ecuaciones estructurales explicativo de los efectos se utilizó la metodología de mínimos cuadrados parciales usando WarpPLS 3.0. Los resultados obtenidos muestran que cuando existe buen nivel en la infraestructura regional se tienen impactos positivos sobre los servicios logísticos; y éstos a su vez impactan en los costos. Asimismo, la infraestructura regional tiene impactos positivos sobre el tiempo de entrega de los productos. Con relación al nivel de infraestructura (transporte, telecomunicaciones, internet) y de servicios (aéreos, terrestres, financieros, legales) en Ciudad Juárez, los encuestados lo consideran bueno por lo que las entregas de producto han sido completas y a tiempo en los últimos 3 años. Palabras clave: cadena de suministro; infraestructura regional; servicios; mínimos cuadrados parciales (PLS).

1. Introducción La competencia actual entre empresas se enfoca en los procesos asociados a la cadena de suministro (CdS), buscando dominar el mercado meta a través de actividades que permitan reducir los costos, entregar productos con calidad, reducir los tiempos de ciclo y mejorar el nivel de servicio [1]; proporcionando CdS efectivas y eficientes como un nuevo modelo de negocios [2]. Las redes globales de manufactura se basan en las ventajas ofrecidas por un

país anfitrión, como la infraestructura y los niveles de habilidad local, y no solamente por los costos de producción. Esto permite que el país sea considerado como un facilitador de competitividad para las empresas localizadas en él [3, 4]. Este país puede competir con otros países en requerimientos básicos como: infraestructura, salud de la fuerza de trabajo, eficiencia del mercado, nivel de educación y entrenamiento y habilidad para utilizar la tecnología existente; considerando incluso factores como capital y tierra dentro del contexto de factores de infraestructura [5].

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 208-217. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Avelar-Sosa et al / DYNA 81 (186), pp. 208-217. August, 2014.

Por lo anterior, la infraestructura y la calidad de los servicios logísticos se convierten en un factor relevante de competencia actual, ya que los bajos niveles en su disponibilidad y calidad tienen impactos cruciales sobre los elementos de desempeño de la CdS como: el tiempo de entrega de materias primas y producto terminado, los niveles de inventario, la flexibilidad, la calidad y los costos generados [6]. Para el World Economic Fórum [3] y el IMD [5], México muestra relativamente valores altos en los índices de salud, educación primaria, eficiencia de mercado y componentes tecnológicos alcanzados. Sin embargo, actualmente México ocupa el 47vo lugar en el desempeño logístico [7], posición que se mejoró respecto al año 2007, donde ocupaba el 56vo lugar; con sólo dos posiciones por debajo de Brasil, queda mucho por hacer y mejorar en cuestiones de logística y CdS. La CdS como fuente de ventaja competitiva, ha sido estudiada ampliamente por investigadores en las últimas décadas [8-10], y se considera un conjunto de procesos que requieren análisis periódico con la finalidad de evaluar su rendimiento, pero sobre todo, proveer un ambiente favorable para la mejora continua en todo tipo de empresas, incluyendo las empresas manufactureras. Este tipo de empresas no sólo exportan sus productos terminados, sino que también importan sus materias primas y/o componentes desde otros países. Específicamente, en México se han establecido empresas con dichas características desde los años 70s, llamadas maquiladoras y quienes ante el fenómeno de “globalización inversa” actual han retomado importancia para la economía del país. Según la Asociación de Maquiladoras A. C. (AMAC), estas empresas son una plataforma de manufactura entre Estados Unidos de América, México y Canadá altamente competitiva. Actualmente en México se encuentran establecidas 6257 empresas maquiladoras, de las cuales en el Estado de Chihuahua hay 482 y en Ciudad Juárez 326. La fuerza de trabajo empleada en el país por este sector de la industria es de aproximadamente 2 241,000 empleos; de los cuales al Estado de Chihuahua corresponden 356,076 y a Ciudad Juárez 222,741. Al hablar del costo de comercio exterior, Ciudad Juárez importó en el año 2011 un total de 22,655 millones de dólares por materias primas y exportó 43,000 millones de dólares [11] por producto terminado. Asociado a ello, las empresas manufactureras son parte de CdS global donde se involucran proveedores, detallistas, centros de distribución, flujos de información, demanda y procesos de manufactura necesarios para cumplir con los requerimientos de los clientes. En las teorías tradicionales sobre localización económica de empresas [12-14] se hace hincapié en la importancia que tienen los entornos regionales sobre las estrategias y resultados de la empresa, confirmando así la relevancia que tiene estudiar las condiciones regionales para el asentamiento y desarrollo de las mismas [15-21]. La localización de empresas ha llegado a ser una decisión estratégica importante para el surgimiento de CdS eficientes como una frontera relevante de competencia. Su importancia de análisis radica en la decisión de localización, ya que involucra la asignación crítica de capital de las empresas que con frecuencia tiene un impacto crucial sobre el desempeño de la cadena. Por tal motivo, los

administradores e inversionistas evalúan el potencial brindado por una región en términos del impacto en su desempeño operacional, considerando además aspectos como la calidad, los servicios ofertados, los tiempos de entrega [22], y también los atributos cualitativos y cuantitativos que abordan la explicación de los niveles de competitividad alcanzados. En la actualidad, el ubicar empresas en el extranjero sólo para beneficiarse de las concesiones arancelarias y comerciales, mano de obra barata, subvenciones de capital y reducción de los costos logísticos, es insuficiente ya que no siempre se logra aprovechar al máximo la eficiencia de los procesos de manufactura que una región puede ofrecer [2326]. Por esta importancia otorgada a los factores regionales en el desempeño de CdS y por la aportación a la competitividad, el presente trabajo intenta encontrar los efectos que tienen la infraestructura regional, los costos y los servicios, en la calidad de los productos y el tiempo de entrega de los mismos. Y que son elementos adoptados de previos análisis conceptuales y empíricos [6, 27, 28, 29], donde ha faltado estudiar las relaciones causales entre los elementos que proponen y sus interacciones para determinar cuál variable independiente tiene efecto sobre cuáles variables de resultado (desempeño). En éste sentido, el propósito de este artículo es desarrollar un modelo de ecuaciones estructurales (EE) para evaluar los efectos de los factores regionales (variables independientes) sobre el desempeño de la CdS (variables dependientes) del caso de estudio aplicado a empresas manufactureras de exportación localizadas en Ciudad Juárez, Chihuahua, México. El objetivo es encontrar las condiciones regionales proporcionadas para el establecimiento de nuevas empresas y los resultados de desempeño obtenidos. El artículo está organizado en 5 secciones, posterior a la introducción, la Sección 2 presenta la revisión de literatura, en la Sección 3 se muestra el diseño de ésta investigación, en la Sección 4 se muestran los resultados, y finalmente en la Sección 5 se presentan las conclusiones, limitaciones y futuras investigaciones. 2. Revisión de literatura 2.1. Cadena de suministro En este trabajo la CdS es definida como una red de empresas conectadas por flujos de materiales, de información y financieros [30], en donde cada empresa busca añadir valor al producto o servicio ofertado. La gestión de la CdS es definida como la integración de procesos clave del negocio dentro de una red de proveedores, centros de distribución, fabricantes y minoristas, con el fin de mejorar los flujos de bienes, los servicios y la información desde los proveedores hasta los clientes finales, con el objetivo de reducir el costo de todo el sistema, manteniendo los niveles de servicio requeridos [31]. 2.2 Desempeño de la cadena de suministro

Un atributo de desempeño es un conjunto de indicadores que se utilizan para expresar el grado de cumplimiento de la

209


Avelar-Sosa et al / DYNA 81 (186), pp. 208-217. August, 2014.

estrategia competitiva de una empresa [32]. Por su parte, el efectivo desempeño de una CdS es regularmente entendido como la capacidad de ésta para llevar hasta el mercado final productos y servicios con calidad, a tiempo y en cantidades precisas, minimizando los costos [33]. Algunos autores argumentan que es necesario diseñar modelos para evaluar el desempeño de la CdS tomando en cuenta los elementos del contexto de operación, pero siempre con el afán de mejorar índices de desempeño específicos según la estrategia competitiva de la empresa [10,34-36]. En consecuencia, debido a la diversidad de estrategias competitivas que una organización puede adoptar, resulta importante diseñar, implementar y dar a conocer a todos los miembros de la organización, sus propias medidas de desempeño y compararlas a su vez con las de otras empresas competidoras. Lógicamente, el desempeño de la CdS está ligado al desempeño organizacional, entendido como la efectividad con la que una organización logra orientar sus objetivos con el mercado, así como sus metas financieras. Al medir el desempeño de la CdS, normalmente el trabajo de investigación ha tendido a acentuar los factores cuantitativos para medir la competitividad operacional, mientras que hay pocos modelos que capturan atributos cualitativos [6]. Debido a que el desempeño de la CdS se mide a través de atributos o parámetros que arrojan información sobre el nivel de cumplimiento de los objetivos, las dinámicas transformaciones del contexto competitivo actual muestran que la falta de atributos cualitativos en los modelos de medición del desempeño de una CdS son una importante debilidad en la mayoría de los actuales modelos de medición de desempeño. Los atributos son la base para identificar y evaluar alternativas que mejoran los procesos de toma de decisión en una CdS [37,38]. Así, la medición del desempeño se puede definir como un proceso para cuantificar la efectividad (eficiencia y eficacia) de una acción [38]. Para medirlo es importante controlar la viabilidad de las estrategias, identificando el método de medición y tomando en cuenta las variables específicas. Concretamente, para que una CdS sea efectiva, requiere que todos los participantes estén involucrados y comprometidos con objetivos comunes enfocados a la satisfacción del cliente, lo que les permitirá lograr mayor competitividad [39]. Por ello, resulta fundamental contar con atributos claros y estandarizados que permitan a la organización, a los proveedores y a los clientes discutir sobre cómo abordar la medición y mejorar los resultados de la gestión de cadena de suministro que los une. 2.3. Factores regionales en el desempeño de la CdS Decidir la localización de empresas ha sido motivo importante de estudios donde se examina el impacto de las condiciones comerciales, los sistemas de producción [40]; pero además, las nuevas tecnologías se han considerado, ya que de ellas dependen las capacidades de manufactura y las redes globales para entender las funciones de cada empresa [41,42]. En relación a los factores regionales de localización, se han tomado en cuenta variables como el

costo de la tierra, los impuestos fiscales, la infraestructura de tráfico y la urbanización con el propósito de evaluar el crecimiento o disminución de los empleos; además de las cuotas de exportación regional, la concentración del sector industrial, la creación de empleos en el sector servicios y el grado de tercerización [6,43,44]. Por otro lado, también tienen relevancia en el desempeño de la CdS, la calidad en la infraestructura de transporte, de las telecomunicaciones, de los servicios aéreos, marítimos, terrestres, financieros, legales y de tecnologías de información [6,23,27-29]. Por consiguiente, nuestro estudio se enfocó en la evaluación de los efectos que tiene la calidad y disponibilidad de la infraestructura regional y los servicios en el desempeño de la CdS considerando el caso Ciudad Juárez. La motivación para ello es por la importancia que tiene esta zona altamente manufacturera que es sometida a las presiones de la competencia global y que ha desarrollado una CdS regional crecidamente competitiva y compleja. En éste sentido, el caso de estudio nos permite un acceso privilegiado para el análisis de los efectos en los índices de desempeño de la CdS considerando a la región como un elemento clave en el nivel de competitividad para las CdS. 3. Diseño de la investigación 3.1. Diseño y construcción del cuestionario Se diseñó un cuestionario integrado por atributos identificados a través de una amplia revisión de literatura, así como mediante entrevistas exploratorias con tomadores de decisión de CdS en la región de estudio. El proceso de revisión de la literatura incluyó el análisis de más de 100 artículos, encontrados en bases de datos científicas (Emerald, Science Direct, Scirus, Ebscohost, Taylor & Francis), y de los cuales 47 artículos fueron relevantes. Esa revisión permitió hacer una validación racional sobre el tema abordado. El cuestionario inicial contenía 80 preguntas distribuidas en 22 dimensiones, y se aplicó a gerentes de logística y reconocidos académicos especializados en el área, logrando así un pretest, lo que permitió además un proceso de validación por jueces y del cual se obtuvo retroalimentación para mejorarlo y lograr una adecuación al contexto abordado. Las sugerencias de los jueces fueron consideradas e incluidas en una segunda versión del cuestionario, que fue modificado y adaptado en sus atributos y dimensiones según los resultados de investigaciones de reconocidos autores [6,32,44,45]. El cuestionario final se dividió en cinco secciones, 1) datos demográficos; 2) riesgo en la CdS; 3) elementos regionales; 4) mejores prácticas de manufactura esbelta; y 5) elementos de desempeño obtenidos en la CdS. La sección dos se conforma por 3 dimensiones y 16 ítems; la sección tres por 7 dimensiones y 26 ítems; la sección cuatro por 4 dimensiones y 11 ítems; y la sección cinco por 8 dimensiones y 27 ítems. Y, al considerar los objetivos planteados en este trabajo, únicamente se analizaron la tercera y quinta sección del cuestionario diseñado, que incluyó 3 dimensiones y 11 ítems para la parte regional; y 2

210


Avelar-Sosa et al / DYNA 81 (186), pp. 208-217. August, 2014.

dimensiones y 4 ítems para la parte de desempeño. Estas 5 dimensiones y 15 ítems son mostrados en la siguiente lista:

Tabla 1. Escala usada. Puntuación 1 2 3 4 5

3.1.1. Infraestructural regional (InfEst) • La disponibilidad de terrenos, energía, transporte y telecomunicaciones facilita el desarrollo económico de nuestra empresa en esta región [6, 23, 44]. • Comparada con otras regiones, la calidad de las telecomunicaciones (telefonía, televisión y radio) y la infraestructura de transporte facilita mis operaciones [6, 23, 43]. • La disponibilidad y calidad del servicio de internet permite mejorar mis operaciones [6,23,43]. • Los servicios ofertados por los parques industriales ayudan a mejorar la competitividad de mis operaciones [6,23,43]. 3.1.2. Costos (Costos) • El costo de los terrenos e infraestructura me hace competitivo [6,23,27-29]. • El costo de mano de obra hace competitivas mis operaciones [6,23,27-29]. • El costo de las telecomunicaciones no afecta mi estrategia competitiva [6,23,27-29]. • El costo de los servicios públicos no exceden los planeados [6,23,27-29]. • El costo derivado de la disponibilidad de servicios de apoyo al negocio (bancos, transportistas, despachos legales y contables, mantenimiento, etc.) es bajo [6,23,27-29]. 3.1.3. Servicios (SerLogi) • La disponibilidad de servicios aéreos, terrestres, marítimos, financieros, legales y tecnologías de información facilitan el desarrollo de mis operaciones [6,23,27-29]. • La calidad de los servicios aéreos, terrestres, marítimos, financieros, legales y tecnologías de información permite la mejora continua de mis operaciones [6,23,2729]. 3.1.4. Tiempo de entrega (TiEntr) • Las entregas de nuestros productos se hacen usando la filosofía justo a tiempo [1,6,37,39,43-45]. • La empresa provee órdenes completas [6,37,47]. 3.1.5. Calidad (CalPro) • La calidad del producto que nuestra empresa provee cumple con las especificaciones del cliente [6,23,43,46]. • La calidad del producto es satisfactoria (no reclamos de cliente en los últimos 3 años) [6,23,43,46]. La escala de evaluación usada para medir la percepción de los encuestados se presentó como una escala Likert con puntuaciones de 1 a 5, Ver Tabla 1.

Descripción Totalmente en desacuerdo En desacuerdo Ni en desacuerdo, ni en acuerdo En acuerdo Totalmente en acuerdo

Fuente: adaptada de [47]

3.2. Proceso de colección de datos Esta etapa se llevó a cabo en empresas manufactureras ubicadas en Ciudad Juárez, Chihuahua, México en el periodo del 20 de Enero al 12 de Abril de 2013. Se seleccionó una muestra de 326 empresas maquiladoras y se solicitó el apoyo a la Asociación de Maquiladoras Asociación Civil (AMAC) y al capítulo estudiantil de The Association for Operations Management (APICS) en la Universidad Autónoma de Ciudad Juárez para distribuir el cuestionario a los gerentes e ingenieros que ocupan puestos de trabajo en departamentos como: compras, planeación y almacén. La muestra se estratificó por empresas con CdS internacionales con actividades de importación de materias primas y de exportación de productos terminados (maquiladoras). Los cuestionarios fueron entregados físicamente y distribuidos de manera electrónica a través de una plataforma informática especializada durante el periodo de recolección de datos; en total se distribuyeron doscientos. 3.3. Análisis de la información y validación Se diseñó una base de datos usando el software SPSS 21.0® para el análisis descriptivo de la información. Primeramente, para la validación se consideró una validez racional según Lévy y Varela [49]. Posteriormente, se realizaron pruebas para detección de los valores perdidos y dado que los datos se representaron en una escala ordinal (Likert), los valores perdidos encontrados se reemplazaron por la mediana [50-52]. Del mismo modo, se realizó una prueba para identificar valores extremos mediante la estandarización de los datos considerando en el análisis valores absolutos estandarizados menores a 3.3 [53,54,57]. Además, se realizó una validación estadística de las dimensiones calculando el índice Alfa de Cronbach (IAC) para determinar la consistencia interna de los ítems [52,55,56,60- 62]. Considerando como valor mínimo de corte 0.70; es decir, cuando el IAC tiene valores o iguales a 0,70 se considera que la dimensión es importante [51,52,57,58]. En este proceso de validación se consideró también el indicador de varianza media extraída (VME), usado para evaluar la validez discriminante y convergente entre los ítems, también se analizaron las cargas factoriales cruzadas y combinadas que permiten evaluar la validez discriminante para cada dimensión. En esta etapa se consideró que el punto de corte aceptable fuera 0.50 para las cargas factoriales de los ítems [52,53,56,57], evaluando también la significancia del P-valor del ítem en la dimensión [59,60-64]. Para evaluar la presencia de colinealidad entre variables latentes se consideró el factor de inflación de la varianza

211


Avelar-Sosa et al / DYNA 81 (186), pp. 208-217. August, 2014.

(FIV) [52,56,60-62] y se tomó como punto de corte valores menores a 10 [52,64,65] o el que el coeficiente de correlación entre las dimensiones r-valor menor a 0.90 sugerido por otros autores [62]. Por la naturaleza del cuestionario, ítems presentados en escala ordinal, fue recomendable considerar el coeficiente Q2 como una medida no paramétrica de la validez predictiva, el cual debe ser mayor a cero para considerarse como una predicción aceptable del modelo, [52,55,60-62]. 3.4. Modelo de ecuaciones estructurales Los modelos de ecuaciones estructurales (EE) fueron introducidos por Jöreskog a principios de 1970. Un modelo de EE describe los efectos de causalidad a través de variables latentes, y asigna la varianza explicada y no explicada en un modelo [65-67]. El modelo propuesto y las hipótesis que referencian a las dimensiones descritas anteriormente, se muestran en la Fig. 1. Para la modelación y validación de las mismas se utilizó el software WarpPLS 3.0®, cuyos algoritmos para calcular los estimadores de las relaciones entre variables se basan en Partial Least Squares (PLS). Se optó por esta técnica, dado que cuando se usa una modelación con PLS se requieren supuestos menos exigentes acerca del tamaño de la muestra y de la distribución de los datos [68]. El algoritmo WarpPLS3 utiliza un método de reemuestreo (bootstrapp) para disminuir los efectos de convergencia.

Tabla 2. Sector industrial/género de los encuestados. Sector industrial Electrónico Médico Automotriz Otros Servicios Plásticos Metales Empaque Total Fuente: Los autores

Femenino 3 6 8 2 1 1 2 0 23

Masculino 23 19 16 8 6 4 1 2 79

Total 26 25 24 10 7 5 3 2 102

H3: Los costos tienen un impacto directo sobre el tiempo de entrega de productos. H4: La infraestructura regional tiene un impacto directo sobre los servicios logisticos. H5: Los servicios logísticos tienen un impacto directo sobre los costos. H6: Los costos tienen un impacto directo sobre la calidad de productos. H7: La calidad de los productos tiene un impacto en el tiempo de entrega de los mismos. H8: Los servicios logísticos tienen un impacto directo sobre la calidad de los productos. 4. Resultados 4.1. Descripción de la muestra

InfEst (R)4i H2

Después de finalizar el proceso de recolección de datos se obtuvieron 120 cuestionarios completos de diferentes empresas. La Tabla 2 muestra un análisis descriptivo de la muestra, donde se indica el sector industrial de cada empresa y el género de los encuestados. Se observa en la Tabla 2 que 79 encuestados fueron hombres y sólo 23 mujeres, 18 personas no especificaron el sector industrial y/o el género. También se puede apreciar que 26 personas trabajan en el sector electrónico, 25 en el médico y 24 en el sector automotriz, siendo éstos los más representativos de la muestra. En la Tabla 3 se muestran los años de experiencia que tienen los encuestados en el puesto de trabajo que desempeñan. Puede observarse que solamente 19 personas

H3

Costos (R)5i

H4

H5

SerLogi (R)2i

TiEntr (R)2i

H1

H7 H6

H8

CalPro (R)2i

Figura 1. Modelo propuesto e hipótesis. Fuente: Los autores

El modelo de la Fig. 1 propone los efectos directos que tiene la infraestructura regional sobre los servicios logísticos, los costos y el tiempo de entrega. Siendo, éste y la calidad de productos los índices de desempeño de la CdS y el producto de la interacción de los demás [4,6,23,27-29]. Para evaluar el ajuste del modelo han de validarse las hipótesis considerando el P-valor del valor estimado en cada efecto propuesto. Las hipótesis planteadas son: H1: La infraestructura regional tiene un impacto directo sobre el tiempo de entrega de productos. H2: La infraestructura regional tiene un impacto directo sobre los costos.

Tabla 3. Puesto de trabajo de los encuestados. Puesto de Trabajo

1

2a3

Años 4a5

6 a 10

>10

Total

Director Gerente Ingeniero Supervisor Especialista Técnico Operador Planeador Total

0 0 2 3 2 6 1 2 16

0 6 2 9 1 2 1 7 28

0 3 2 1 0 7 2 7 22

1 3 5 5 1 2 1 3 21

1 5 1 2 0 6 0 4 19

2 17 12 20 4 23 5 23 106

Fuente: Los autores

212


Avelar-Sosa et al / DYNA 81 (186), pp. 208-217. August, 2014. Tabla 5. Cargas combinadas y cruzadas.

Tabla 4. Estimaciones de parámetros para la validación. Parámetro R2 Fiabilidad AlfaCronbach AVE Colinealidad Q2

InfEstr

Costos

SerLogi

TiEntr

CalPr o

0.886 0.828 0.660 1.951

0.420 0.917 0.818 0.846 1.831 0.417

0.374 0.841 0.764 0.518 1.630 0.377

0.198 0.856 0.664 0.749 1.283 0.206

0.072 0.835 0.604 0.716 1.166 0.076

Atributo INF17 INF18 INF19 INF20 SER26 SER27

Fuente: Los autores

CO21

tienen más de 10 años de experiencia, y otros 71 están en un rango entre 2 y 9 años. Se encontraron 14 personas que no especificaron su trabajo y/o su experiencia laboral. Asimismo, en la Tabla 3 se observa que 23 personas trabajan como planeadores en CdS y 23 como técnicos, 20 personas trabajan como supervisores y sólo 17 son gerentes; 2 personas trabajan como directores de operación.

CO22

4.2. Validación del instrumento

CALI57

Se hizo una validación del cuestionario tomando en cuenta las variables latentes, evaluando el índice alfa de Cronbach, los valores de la AVE y la Q2. Los resultados se muestran en la Tabla 4, se puede observar que 3 de las variables presentan valores dentro de los niveles de aceptación de consistencia interna, pero las variables latentes tiempo de entrega y calidad del producto no lo están. Sin embargo, han sido incluidas en el análisis por ser mayores a 0.6 y que según [64] solamente los valores inferiores a 0.5 deben ser removidos. Los valores de la varianza media extraída (AVE) son mayores a 0.5, esto indica que el cuestionario tiene validez discriminante y convergente. Al considerar la R2 para las variables latentes, se encontraron valores aceptables, según Hair [52] el r-valor debe ser menor a 0.90. Al evaluar el índice VIF para la colinealidad, se observaron valores menores a 3.3, lo que indica independencia entre las variables latentes. Respecto a la Q2, se observaron valores mayores a cero, indicando buena predicción del modelo. En la Tabla 5 se muestran las cargas factoriales combinadas y cruzadas de los ítems, que sirven para evaluar las saturaciones de cada dimensión, considerando que deben tener valores mayores a 0.50 en la variable que le corresponde [52] y menores en las cargas factoriales cruzadas (otra variable). Se observa que el P-valor es significativo (<0.05) para todos los ítems, confirmando así una validez convergente del cuestionario. 4.3. Modelo de ecuaciones estructurales En la modelación con WarpPLS 3.0® son tres los efectos que se analizaron: i) los efectos directos para probar las hipótesis planteadas; ii) los efectos indirectos; y iii) los efectos totales.

CO23 CO24

InfEstr

SerLogi

Costos

TiEntr

CalPro

Pvalor

-0.815

-0.069

-0.043

-0.197

0.059

<0.001

-0.850

-0.224

0.092

-0.161

-0.037

<0.001

-0.790

0.162

-0.022

0.041

0.089

<0.001

-0.793

0.150

-0.033

0.334

-0.109

<0.001

0.060

-0.920

0.026

-0.089

0.011

<0.001

-0.060

-0.920

-0.026

0.089

-0.011

<0.001

0.088

0.361

-0.694

0.037

-0.113

<0.001

-0.173

0.404

-0.758

0.302

0.042

<0.001

0.107

-0.254

-0.741

0.044

0.051

<0.001

0.040

-0.391

-0.821

-0.066

0.037

<0.001

-0.100

-0.203

-0.740

-0.242

-0.019

<0.001

-0.058

0.162

-0.081

-0.865

-0.073

<0.001

0.058

-0.162

0.081

-0.865

0.073

<0.001

0.042

-0.037

-0.030

0.292

-0.846

<0.001

-0.042 Fuente: Los autores

0.037

0.030

-0.292

-0.846

<0.001

CO25 ENT54 ENT55 CALI56

4.3.1. Efectos directos Los efectos directos indican los impactos directos entre las variables latentes (mostrados por el sentido de las flechas en la Fig. 2). El valor del parámetro estandarizado que mide la relación entre las variables latentes en cuestión y el P-valor para la prueba de hipótesis de dicha relación (mostrado a un costado de la línea). Los resultados indican que a medida que la Infraestructura se modifica en una unidad de su desviación estándar, los Servicios Logísticos lo hacen en 0.65. Al considerar que el P-valor tiene un nivel de significancia menor a 0.01, tenemos un 99% de confianza para decir que ese valor es diferente de cero y que por tanto, la relación es significativa. Este cambio en los Servicios Logísticos genera un efecto en los Costos, ya que al modificarse los primeros en una unidad de su desviación estándar, los Costos lo hacen en 0.32 y en este caso el P-valor es menor a 0.01, por lo que la relación también es significativa. Éstos resultados indican coherencia global debida a que encuestados concuerdan en que una buena Infraestructura regional mejora el nivel de los Servicios Logísticos, lo cual impacta en la reducción de los Costos en la CdS. En la Fig. 2 también se observa el valor de R2, que indica el porcentaje de la varianza explicada por cada variable latente independiente. Por ejemplo, para los Servicios logísticos la R2 es 0.42, indicando así que el 42% de la varianza de esa variable es debida por la variable Infraestructura, variable que la explica. Para los Costos en cambio, la R2 es de 0.37, indicando que el 37% de la varianza de éstos es explicada por los Servicios logísticos y la Infraestructura.

213


Avelar-Sosa et al / DYNA 81 (186), pp. 208-217. August, 2014. Tabla 8. Decisión para las hipótesis. HipóFactor tesis

β = 0.30

(P 〈 0.01)

InfEst (R)4i

TiEntr (R)2i 2

R = 0.20

β = 0.36

(P〈 0.01) R 2 = 0.3 7

β = 0.65

Costos (R)5i

(P 〈 0.01)

β = 0.26

(P 〈 0.01) β = 0.27 (P = 0.02)

β = 0.32

(P〈 0.01 ) SerLogi (R)2i

2

R = 0.4 2

R 2 = 0.07 CalPro (R)2i

Figura 2. Modelo final de EE. Fuente Los autores

Tabla 6. Efectos indirectos. Costos TiEntr CalPro Fuente: Los autores

Cantidad

Decisión

H1

Infraestructura

Tiempo entrega

0.30

Acepta

H2

Infraestructura

Costos

0.36

Acepta

H3

Costos

Tiempo entrega

H4

Infraestructura

Servicios

0.65

Acepta

H5

Servicios

Costos

0.32

Acepta

H6

Costos

Calidad

H7

Calidad de

Tiempo entrega

H8

Servicios

Calidad

Rechaza

0.27 0.26

Acepta Acepta Rechaza

Fuente: Los autores

InfEstr 0.210 (P=0.01) 0.390 (P=0.062) 0.152 (P=0.028)

SerLogi

Costos

0.022 (P=0.119) 0.087 (P=0.065)

0.069 (P=0.058)

para el modelo de ecuaciones obtenido. Por ejemplo, observemos que cuando la Infraestructura se modifica en una unidad desviación estándar, los Servicios logísticos lo hacen en 0.648 (redondeado a 0.65 en la Fig. 2), y cuando los Servicios logísticos se modifican en una unidad de desviación estándar, los Costos lo hacen en 0.325 unidades. Como no hay efectos indirectos en estas dos relacion es, los valores de efectos totales son los efectos directos. La decisión de las hipótesis planteadas se muestra en la Tabla 8, siendo dos las hipótesis que no son consistentes con la información recopilada de las empresas manufactureras.

Tabla 7. Efectos totales. InfEstr 0.648 SerLogi (P<0.001) 0.566 Costos (P<0.001) 0.338 TiEntr (P<0.001) 0.152 CalPro (P=0.028) Fuente: Los autores

Efecto directo

SerLogi 0.325 P(<0.001) 0.022 (P=0.119) 0.087 (P=0.065)

Costos

0.069 (P=0.058) 0.268 (P=0.016)

5. Conclusiones

CalPro

0.257 (P=0.013)

4.3.2. Efectos indirectos Los efectos indirectos son el resultado de diferentes segmentos, es decir, diferentes efectos pueden existir sobre una variable por diferentes vías. En la Tabla 6 se muestran todos los efectos indirectos y el P-valor de los mismos, se observa que únicamente los efectos entre la Infraestructura y los Costos, e Infraestructura y Calidad de producto son significativos al 99 % de confianza. La Infraestructura tiene un efecto indirecto sobre la Calidad del Producto a través de los Costos, cuando la primera cambia en una desviación estándar, la Calidad del producto lo hace en 0.152. 4.3.3 Efectos totales

Los efectos totales son el resultado de sumar los efectos directos e indirectos. La Tabla 7 muestra los efectos totales

Este trabajo encontró inferencias relevantes en los tres elementos analizados, por un lado se confirma que en la competitividad de las empresas es importante considerar no solamente la reducción de los costos sino también los entornos regionales (telecomunicaciones, infraestructura, servicios) y particulares que cada ciudad ofrece [6,1521,70,71]. Por otro lado, nuestro cuestionario abordó elementos sobre disponibilidad de tierra, energía, transporte y telecomunicaciones, lo que permitió analizar de manera directa las condiciones actuales de la región. Así, los encuestados consideran relevante los efectos de la infraestructura regional y servicios logísticos en el desarrollo de la empresa, pues éstos facilitan las operaciones de la CdS y se mejora la entrega de materia prima y producto terminado, concordando con [6,22,23,29,71]. En relación a los Costos, los encuestados los consideran importantes y tolerables concordando así con [3,70]. Las aportaciones del modelo en relación al nivel de la infraestructura regional y los servicios logísticos, indican buen nivel en Ciudad Juárez, proporcionando una ventaja comparativa respecto a otras regiones [3], y mejorando la competitividad de las empresas manufactureras. Además, indica que el 20% de las entregas de los productos dependen directamente del nivel de la infraestructura y de la calidad en los procesos de manufactura. Y, que la calidad de los servicios logísticos depende en un 42% de los niveles de la

214


Avelar-Sosa et al / DYNA 81 (186), pp. 208-217. August, 2014.

infraestructura. Por consiguiente, este punto es relevante para los líderes gubernamentales en relación a las acciones de mejora en la seguridad, los servicios financieros y comerciales y en la infraestructura como mencionan Díaz y Pérez y el World Economic Forum [2,3]. El modelo de EE encontrado aborda las interacciones de todas las variables incluidas de manera sistémica y simultánea para encontrar los efectos, lo que permite ver la CdS como un todo, en la que la ejecución de una actividad tiene consecuencia directa o indirecta sobre las demás. Logrando identificar actividades a nivel estratégico u operacional en las cuales se debe enfocar la gerencia y los trabajadores de las empresas para mejorar el desempeño de la CdS. 5.1. Limitaciones del estudio Este trabajo se centró en evaluar los impactos de la infraestructura regional y los servicios en el desempeño de la CdS en empresas manufactureras de exportación de Ciudad Juárez, Chihuahua, por ser un sector industrial importante en México, [11]. No obstante, ampliar el estudio a otras regiones permitirá encontrar modelos comparativos que den mayor validez al análisis aquí reportado. 5.2. Investigaciones futuras Las futuras investigaciones se orientan en la aplicación del cuestionario a otras regiones de México, para extrapolar y encontrar mejores respuestas sobre el desempeño actual de las CdS en este tipo de empresas. Notable sería considerar otro tipo de empresas con el fin de analizar tales efectos y comparar desde otra perspectiva los resultados. Referencias [1]

Feng, Y., System dynamics modeling for supply chain information sharing, International Conference on Solid State Devices and Materials Science, April 1-2, Macao, Physics Procedia, 25, pp.14631469, 2012.

[2]

Díaz, M.A. and Pérez, C.C., Logistics Practices in Venezuela An Exploratory Study. Artículo de trabajo Instituto de Empresa, Madrid, 2002.

[3]

World Economic Forum, The Global Competitiveness Report 20062007. Macmillan, New York, 2006. Disponible: http://www.weforum.org/issues/global-competitiveness, [Consulta: 23 de Julio de 2013].

[4]

MacCormack, A.D., Newmann, L.J. and Rosenfield, D., The new dynamics of global manufacturing site location. Sloan Management Review, 35(4), pp. 69-80, 1994.

[5]

IMD. IMD World Competitiveness Yearbook 2006, Laussane: The international Institute of Management Development, 2006. Disponible: http://www.imd.org/about/pressroom/pressreleases/IMD-WorldCompetitiveness-Yearbook-2006.cfm, [Consulta: 23 de Julio de 2013].

[6]

Bhatnagar, R. and Sohal, A.S., Supply chain competitiveness: measuring the impact of location factors, uncertainty and manufacturing practices. Technovation, 25(5), pp. 443-456, 2005.

[7]

Cedillo, M.G. México logístico 2020, Disponible: http://www.slideshare.net/gastoncedillo/mexico-logistico-2020, [Consulta: 2 de Noviembre de 2012].

[8]

Chan, F.T.S and Qi, H., An innovative performance measurement method for supply chain management. Supply chain management:An international Journal, 8(3), pp. 209-223, 2011.

[9]

Hou, Y., Wang, J., Li, B. and Lin, B., Modelling and simulation of stock-out cost pulled collaborative supply chain planning. International Journal in Operations Management, 1(1), pp. 3-18, 2010.

[10] Lee, C. and Wilhelm, W., On integratin theories of international economics in the strategic planning global supply chains and facility location. International Journal of Production Eonomics, 124, pp. 225-240, 2010. [11] Asociación de Maquiladoras A.C., Index Ciudad Juárez, Disponible:http://www.indexjuarez.org/INICIO/presentaciones.html, [Consulta: 1 de Abril de 2013]. [12] Launhardt, W., Die Bestimmung des zweckmigen Standorts einer gewerblichen Anlage, Z Vereines Deutscher Ingenieure, (26), pp.105-116, 1882. [13] Weber, A., Theory of the location of industries. University of Chicago Press, Chicago, 1929, 237 P. [14] Hotelling, H., Stability in competition, Economic Journal, 39, pp. 41-57, 1929. [15] Grek, J., Karlsson, C. and Klaesson, J., Determinants of entry and exit: the significance of demand and supply conditions at the regional level, In: Kourtit K, (eds), Drivers of innovation, entrepreneurship and regional dynamics, Berlin, Springer, 2011, pp. 121-141. [16] Gauselmann, A., Marek, P. and Angenendt, J.P., MNEs regional location choice: A comparative perspective on East Germany, the Czech Republic and Poland. IWH-Diskussionspapiere, (8), pp. 1-34, 2011. [17] Arent, S. and Steinbrecher, J., Bedeutung regionaler Standortfaktoren fr das Wachstum am Beispiel Sachsen-Anhalts. Ifo Dresden berichtet, pp. 21-27, 2010. [18] Arauzo-Carod, J.M., Determinants of industrial location: An application for Catalan municipalities. Papers in Regional Science, 84, pp.105-119, 2005. [19] Audretsch, D. and Dohse, D., Location: a neglected determinant of firm growth. Review of World Economics, 143(1), pp.79-107, 2007. [20] Devereux, M.P. and Griffith, R., Taxes and the location of production: Evidence from a panel of US multinationals. Journal Public Economic, 68, pp.335-367, 1998. [21] Hoogstra, G.J. and van Dijk, J., Explaining firm employment growth: Does location matter?. Small Buiness Econonic, 22, pp. 179-192, 2004. [22] Ferdows, K., Making the most of foreign factories. Harvard Business Review, 75(4), pp. 35-76, 1997. [23] Bhatnagar, R., Jayaram, J. and Cheng P.Y., Relative importance of plant location factors: A cross nationak comparison between Singapure and Malaysia. Journal of Business Logistics, 24(1), pp. 147-170, 2003. [24] Cedillo, C., M., Sánchez, J. and Sánchez, C., The new relational schemas of inter-firms cooperation: The case of the Coahuila automobile cluster in Mexico. International Journal of Automotive Technology and Management, 6, pp.406–418, 2006. [25] Cedillo C., M.G., Supply Chain Clustering: the next step of industrial competitiveness, In: Council of Supply Chain

215


Avelar-Sosa et al / DYNA 81 (186), pp. 208-217. August, 2014. Management Professionals Conference Mexico City, Mexico, 2012, 8 P.

(CSCMP-Roundtable)

[26] Cedillo C., M. and Sanchez, C., Dynamic Self-Assessment of supply chains performance: An emerging market approach. Journal of Applied Research and Technology, 11 (3), pp. 338-347, 2013.

[44] Cirtita, H. and Glaser-Segura, D., Measuring downstream supply chain performance. Journal of Manufacturing Technology Management, 23(3), pp. 299-314, 2012. [45] Babak, J.N. and Saeid, I., Analyzing effective elements in agile supply chain. Management Science Letters, 24, pp.369-378, 2012.

[27] Swamidass, P.M., A Comparison of the plant location strategies of foreign and domestic manufacturers in the US., Journal of International Business Studies, 21(2), pp. 310-316, 1998.

[46] Quesada, H. and Gazo, R., Methodology for determining key internal business processes based on critical success factors, Business Process Management Journal, 13(1), pp.5-20, 2011.

[28] Tong, H., An empirical study of plant location decisions of foreign manufacturing investors in the United States, Unpublished Dissertation, The University of Nebraska, 1978.

[47] Wiengarten, F., Pagell, M. and Fynes B., Supply chain environmental investments in dynamic industries: Comparing investment and performance differences with static industries. International Journal of Production Economics, 135, pp.541-551, 2012.

[29] Ulgado, F.M., Location characteristics of manufacturing investments in the U.S.: A comparison of American and foreign-based firm. Management International Review, 36(1), pp. 7-26, 1996. [30] Stadtler, H., Supply chain management and advanced planning basics, overview and challenges. European Journal of Operational Research, 163(3), pp.575-588, 2005.

[48] Likert, R., A thecnique for the measurement of attiudes. Archives of Pshicology, 22(140), pp.1-55, 1932. [49] Lévy-Mangin, J. y Varela-Mallou, J. Análisis multivariable para las Ciencias Sociales. 2ª. Ed. (en español), Madrid, Prentice Hall, 2003.

[31] Simchi-Levi, D., Kaminsky, P. and Simchi-Levi, E., Designing and managing the supply chain: Concepts, strategies and case studies. McGraw Hill Companies Inc., New York, 2000.

[50] Nordgaard, A., Ansell, R., Jaeger, L. and Drotz, W., Ordinal scales of conclusions for the value of evidence. Science and Justice, 50(1), pp.31-31, 2010.

[32] SupplyChainCouncil 2001, SCOR Model, Disponible: www.supplychain.org, [Consulta: 12 de Marzo de 2012].

[51] Jun, M., Cai, S. and Shin, H., TQM practice in Maquiladora: Antecedents of employee satisfaction and loyalty. Journal of Operactions Management, 24(6), pp.791-812, 2006.

[33] Green Jr., K.W., Whitten, D. and Inman, R.A., Aligning marketing strategies throughout the supply chain to enhance performance. Industrial Marketing Management, 41(6), pp. 1008-1018, 2012. [34] Kovacs, G.L. and Paganelli, P., A planning and management infrastructure for large, complex distributed projects-Beyond ERP and SCM. Computer in Industry, 51, pp.165-183, 2003. [35] Meixell, M.J. and Gargeya, V.B., Global supply chain design: A literature review and critique. Transportation Research Part E, 41, pp.531-550, 2005. [36] DaeSoo, K., Process chain: A new paradigm of collaborative commerce and synchronized supply chain. Kelly School of Business, 49(5), pp.359-367, 2005. [37] Chan, F.T.S. Performance measurement in a supply chain. International Journal of Advanced Manufacturing Technology, 21(7), pp.534-548, 2003.

[52] Hair, J.F., Hult, G.T.M., Ringle, C.M. and Sarstedt, M.A., A primer on partial least squares structural equation modeling (PLS-SEM). Thousand Oaks, California, Sage Publicattion INC., 2013, pp.48123. [53] Han, S.B., The effects of ISO 9000 registration efforts on total quality management practices and business performance. PhD. Thesis, University of Rhode Island, Rhode Island, United States, 2000, 151 P. [54] Kaiser, H.M., Mathematical programming for agricultural, environmental, and resource economics. 3ra. Ed., Hoboken, New Jeersey, Wiley, 2010, pp.123-124. [55] Cronbach, L.J., Coefficient alpha and the internal structure of tests. Psychometrika, 16(3), pp.297-334, 1951. [56] Hair, J.F., Ringle, C.M. and Sarstedt, M., PLS-SEM: indeed a silver bullet. Journal of Marketing Theory and Practice, 19(2), pp. 139151, 2011.

[38] Gunasekaran, A. and Kobu, B., Performance measures and metrics in logistics and supply chain management: A review of recent literature (1995-2004) for research and application. International Journal of Production Research, 45(12), pp.2819-2840, 2007.

[57] Tabachnick, B.G. and Fidell, L.S., Using Multivariate Statistics. 4th Ed., Allyn & Bacon, Boston, 2001, 77 P.

[39] Gunasekaran, A., Patel, C. and McGauhhey, R.E., A framework for supply chain performance measurement International Journal of Productions Economics, 87(3), pp.333-347, 2004.

[58] Garver, M.S. and Mentzer, J.T., Logistic research methods: employing structural equation modelin to test for construct validaty. Journal of Business Logistics, 20(1), pp. 33-57, 1999.

[40] Khurana, A. and Talbot, B., The internationalization process model through the lens of the global color picture tube industry. Journal of Operations Management, 16(2,3), pp.215-239, 1998.

[59] Martinez, A.C.L., Self-reporte reading strategy use among Spanish university students of english. RESLA, 21, pp. 161-179, 2008.

[41] Cedillo-Campos, M. G. and Sanchez, C., Dynamic Self-Assessment of supply chains performance: An emerging market approach. Journal of Applied Research and Technology, 11(3), pp.338-347, 2011. [42] Krumm, R. and Strotmann, H., The impact of regional location factors on job creation, job destruction and employment growth in manufacturing. Jahrb Reg wiss, 33, pp. 23-48, 2013. [43] Soin, S.S., Critical success factors in supply chain management at high technology companies. Ph.D Thesis, University of Southern Queensland, Australia, 2004, 201 P.

[60] Henseler, J., Ringle, C.M. and Sinkovics, R.R., The use of partial least squares path modeling in international marketing. Advances in International Marketing, 20, pp. 277-320, 2009. [61] Götz, O., Liehr-Gobbers, K. and Krafft, M., Partial least squares: concepts, methods and applications [en línea], Berlin Heidelberg, Springer Verlag, 2010 [Consulta: 23 de Mayo de 2013], Cap. 29, Evaluation of structural equation models using the partial least squares (PLS) approach. Disponible: http://link.springer.com/chapter/10.1007/978-3-540-328278_30#page-1 [62] Rigdon, E.E., Rethinking partial least squares path modeling: in praise of simple methods. Long Range Planning, 45(5,6), pp. 341358, 2011.

216


Avelar-Sosa et al / DYNA 81 (186), pp. 208-217. August, 2014. [63] Fornell, C. and Larcker, D.F., Evaluating structural equation models with unobservable variables and measurement error. Journal of marketing research, 18(1), pp. 39-50, 1981. [64] Chong, A.Y.L., Ooi, K.B. and Sohal, A., The relationship between supply chain factors and adoption of e-collaboration tools: An empirical examination. International Journal of Production Economics, 22(1), pp. 150-160, 2009. [65] Kline, R.B., Principles and practice of structural equation molleing. 1a. Ed., New York, The Guilford Press, 1998, pp. 37-70. [66] Jöreskog, K.G. and Söborm, D., A general method for analysis of covariance structure. Biometrika, 72(1), pp. 14-22, 1971. [67] Shumacker, R.E. and Lomax, R.G., A Beginner’s guide to structural equation modeling. 3a. Ed., LLC Inc. New York, Taylor and Francis Group, 2010, 2 P. [68] Hair, J.F., Ringle, C. M. and Sarstedt, M., Partial-Least Squares, Long Planning, 46, pp. 1-12, 2013. [69] Hair, J.F., Sarstedt, M., Pieper, T.M. and Ringle, C.M., Applications of partial least squares path modeling in management journals: A review of past practices and recommendations for future applications. Long Range Planning , 45(5, 6), pp. 320-340, 2012b. [70] Melo, M.T., Nickel, S. and Saldanha-da-Gama, F., Facility location and supply chain manaement: A review. European Journal of Operational Research, 196, pp.401-412, 2009. [71] Correa-E., A. y Gómez-M., R.A. Tecnologías de informacion en la cadena de suministro. DYNA, 76(157), pp.37-48, 2009. L. Avelar-Sosa es alumna del Doctorado en Ciencias en Ingeniería de la Universidad Autónoma de Ciudad Juárez y cursa el 6to.semestre. Recibió una Maestría en Ciencias en Ingeniería Industrial por el Instituto Tecnológico de Ciudad Juárez (México), ha impartido clases en el área de ingeniería industrial en la Universidad Autónoma de Ciudad Juárez y colaborado en proyectos del área de cadena de suministro y logística en el sector manufacturero. Participó en proyectos de logística urbana en la Universidad Nacional de Colombia en 2013 y ha publicado en revistas científicas y congresos internacionales. J. L. García-Alcaraz es Profesor-Investigador en el Departamento de Ingeniería Industrial de la Universidad Autónoma de Ciudad Juárez, miembro fundador de la Sociedad Mexicana de Investigación de

Operaciones y miembro activo de la Academia Mexicana de Ingeniería Industrial. El Dr. García es investigador reconocido por el Consejo Nacional de Ciencia y Tecnología de México (CONACYT). Recibió una Maestría en Ingeniería Industrial por el Instituto Tecnológico de Colima (México), un Doctorado en Ingeniería Industrial por el Instituto Tecnológico de Ciudad Juárez (México) y un Post-Doctorado en la Universidad de La Rioja (España). Sus principales áreas de investigación están relacionadas con la toma de decisiones multicriterio y modelado aplicado a procesos de producción. Es autor-coautor de más de 100 artículos publicados en revistas, conferencias y congresos internacionales, M. G. Cedillo-Campos es Profesor-Investigador en Análisis Dinámico de Sistemas Logísticos y Presidente Fundador de la Asociación Mexicana de Logística y Cadena de Suministro. El Dr. Cedillo es Investigador Nacional Nivel 1, Mérito a la Innovación UANL-FIME 2012 y Premio Nacional de Logística 2012. Actualmente es Investigador de Tiempo Completo del Instituto Mexicano del Transporte (Centro de Tecnología e Innovación de la Secretaría de Comunicaciones y Transportes). En el campo profesional, cuenta con 17 años de experiencia en ámbito de la investigación y aplicación de soluciones tecnológicas en logística y el transporte. Es coautor del libro “Análisis Dinámico de Sistemas Industriales”. El Dr. Cedillo es miembro titular de la Academia Mexicana de Ciencias de Sistemas y Presidente del Comité Científico del Congreso Internacional en Logística y Cadena de Suministro (CiLOG). Sus más recientes investigaciones y proyectos de consultoría se enfocan en diseño de cadenas de suministro para mercados emergentes, sistemas de transporte, así como diseño y modelación en Supply Chain Clustering, todos ellos desarrollados con financiamiento tanto de empresas mexicanas, como globales y del Consejo Nacional de Ciencia y Tecnología (CONACYT) de México. W. Adarme-Jaimes es Profesor Universidad Nacional de Colombia, Facultad de Ingeniería - Sede Bogotá. Ing. Industrial, Especialista en Gerencia de la Producción, Maestría en Ingeniería. Énfasis en logística. PhD en Ingeniería Industria y Organizaciones – Énfasis en logística. Es director del grupo de investigación en Logística Sociedad, Economía y Productividad (SEPRO). Ha dirigido en los últimos diez años seis investigaciones sobre logística para diferentes sectores de la economía colombiana, con publicación de resultados en revistas indexadas (nueve artículos en los últimos cinco años). Es consultor en política pública sobre logística y sistemas de abastecimiento para los Ministerios de Comercio, Transporte y Salud de Colombia y Alcaldía mayor de Bogotá. Director de 14 tesis de maestría y tres tesis de Doctorado en Logística. Ponente en congresos internacionales sobre logística en Alemania, México, Panamá, Venezuela y Colombia.

217


Viscosity and viscometric properties of Glycine in aqueous solutions of Sodium Thiosulfate Pentahydrate (Na2S2O3 .5H2O) at different temperatures Manuel Silvestre Páez-Meza a, Gustavo Manuel Alvarino-Bettín b & Plinio de los Santos Cantero-López a a

Grupo de Fisicoquímica de Mezclas Líquidas, Universidad de Córdoba, Colombia. mspaezm@unal.edu.co, mspaezm@gmail.com b Grupo Física Teórica y Aplicada, Universidad de Córdoba, Colombia. alvarinog@hotmail.com a Grupo de Fisicoquímica de Mezclas Líquidas, Universidad de Córdoba, Colombia. pliniocantero@gmail.com Received: September 23th, 2013. Received in revised form: April 21th, 2014. Accepted: Julio 25th, 2014.

Abstract Flowing times of Glycine in aqueous solutions Sodium Thiosulfate Pentahydrate (0.01-2.0 mol kg-1) using an AMVn Anton Paar viscometer at temperatures of (283.15; 288.15; 293.15; 298.15; 303.15; 308.15, 313.15 and 318.15) K and 101.1 Kpa.From the data obtained, the absolute viscosity, viscosity B-coefficients, slope ( / ),the ,adjustable parameters of the equation of Out and Los ( , , ), activation parameters of viscous flow ( ∆ ° , ∆ ° , ∆ ° ) were calculated , the values obtained for these parameters were discussed in terms of the interactions present in solution. Keywords: Viscosity, Activation parameters;Viscous flow; Excess properties; Interactions.

Viscosidades y propiedades viscosimetricas de la Glicina en soluciones acuosas de Tiosulfato de Sodio Pentahidratado (Na2S2O3 .5H2O) a diferentes temperaturas Resumen Se determinaron los tiempos de flujo de la Glicina en soluciones acuosas de Tiosulfato de Sodio Pentahidratado (0.01-2.0 mol Kg-1) usando un viscosímetro Anton Paar modelo AMVn a las temperaturas de (283.15; 288.15; 293.15; 298.15; 303.15; 308.15,313.15 y 318.15) K y 101.1 Kpa. A partir de los datos obtenidos se calcularon las viscosidades absolutas, los coeficientes B de viscosidad, la pendiente ( / ),el ,los parámetros ajustables de la ecuación de Out y Los ( , , ), los parámetros de activación del flujo viscoso ( ∆ ° , ∆ ° , ∆ ° ), los valores obtenidos para estos parámetros fueron discutidos en términos de las interacciones presentes en solución. Palabras clave: Viscosidad; Parámetros de activación; Flujo viscoso; Interacciones.

1. Introducción La viscosidad es una propiedad de transporte que es importante tanto desde el punto vista teórico como práctico. Es por ello que estudios sistemáticos de las propiedades físicas de mezclas líquidas multicomponentes sean requeridos para permitir un mejor conocimiento de la teoría del estado líquido. En este sentido, la viscosidad de soluciones de electrolitos es de gran interés a nivel científico debido a que las variaciones de la viscosidad con la temperatura y la composición del disolvente permiten

tener una mayor comprensión de las interacciones iónsolvente en los sistemas de electrolitos ,de igual forma a nivel ingenieril la viscosidad de electrolitos tiene un rol sumamente relevante debido a su importancia en numerosos sistemas industriales entre los cuales se destacan los procesos electroquímicos así como cálculos de ingeniería química relacionados con el flujo de fluidos, transferencia de calor y masa [1,2]. En este orden de ideas, el estudio de una propiedad termofísica como la viscosidad en sistemas de aminoácidos en solventes mixtos resulta interesante debido a que este tipo de

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 218-225. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Páez-Meza et al / DYNA 81 (186), pp. 218-225. August, 2014.

sistemas constituye un modelo apropiado para el estudio de las interacciones en péptidos y proteína-solvente que son esenciales en el estudio de diversos procesos biológicos[3,4].En este sentido en macromoléculas como las proteínas propiedades como la estabilidad conformacional, solubilidad, actividad enzimática, disociación en subunidades, desnaturalización, separación y purificación son claramente influenciadas por diversas interacciones moleculares entre los grupos funcionales presentes que son direccionados por factores como la temperatura, presencia de sustancias de bajo peso molecular como sustratos, coenzimas, inhibidores y activadores que específicamente ligan a la estructura nativa y el medio en el cual se encuentran disueltas[5,6]. Es ampliamente conocido que uno de los medios que ejerce grandes efectos sobre las propiedades anteriormente mencionadas son las soluciones salinas [5,7]. Es así como se ha establecido claramente que iones de metales juegan un papel crucial en los procesos celulares los cuales involucran la participación de proteínas transmembrana como es el caso de la bomba de sodio y potasio en donde estos dos iones participan en el balance osmótico y el mantenimiento del volumen celular [8-10].Por tal motivo, en este trabajo se reportan las viscosidades de la (η) de la Glicina(Gli) en diferentes molalidades de Tiosulfato de Sodio Pentahidratado (Na2S2O3.5H2O) a una presión atmosférica de 101.1 Kpa a las temperaturas de (283.15; 288.15; 293.15; 298.15, 303.15; 308.15 313.15 y 318.15) K.Los valores experimentales de η se usaron para calcular los, coeficientes B de viscosidad, la pendiente ( / ), el , los parámetros ajustables de la ecuación de Out y Los ( , , ), los parámetros de activación del flujo viscoso ( ∆ ° , ∆ ° , ∆ ° ) así como las contribuciones por mol del solvente y del soluto ∆μ° a la energía libre, los valores obtenidos para estos parámetros fueron discutidos en términos de las interacciones presentes en solución. 2. Parte Experimental Los reactivos empleados son los siguientes: Glicina (99% de pureza, Alfa Aesar), Tiosulfato de Sodio Pentahidratado (99% de pureza, Merck) la Glicina fue doblemente recristalizada desde soluciones acuosas de etanol y secada al vacío sobre P2O5.El agua usada fue desgasificada, doblemente destilada y desionizada garantizando una conductividad menor de 2 µS cm–1. Las soluciones fueron preparadas gravimétricamente mediante una balanza (OHAUS modelo Explorer) con una sensibilidad de ± 1 x 10-4 g, en botellas herméticamente cerradas para evitar perdida por evaporación de alguno de los componentes. Las medidas de la viscosidad absoluta fueron hechas con un viscosímetro Anton Paar modelo AMVn. El principio de medición de este equipo se basa en la ley de Stoke. Así, la viscosidad de líquidos puros y su composición es determinada observando el tiempo requerido para que una esfera sólida (acero), recorra una distancia fija entre los dos sensores inductivos en un tubo cilíndrico inclinado que contiene la muestra .El viscosímetro arroja los tiempos de flujo y calcula automáticamente la viscosidad absoluta previa

incorporación de la densidad de la muestra las cuales fueron obtenidas previamente utilizando un densímetro de tubo vibratorio Anton Paar modelo DMA 5000. Así es posible tomar medidas en un amplio intervalo de viscosidad con una exactitud de ± 0.01K, garantizada mediante un termostato tipo Peltier. La incertidumbre absoluta en los datos de viscosidad ( ) fue calculada usando el método de propagación de errores usando la ecuación (1): (1)

Donde es la incertidumbre en la constante de (0.01 g/cm3) es calibración K, t es el tiempo de flujo, la incertidumbre en la densidad de la bola (7.66 g/cm3), es la densidad de la solución. La incertidumbre promedio en la viscosidad es del orden ± 0.001m Pa s. 3. Resultados y Discusión Las viscosidades (η) obtenidas en este trabajo desde 283.15K hasta 318.15K para las diferentes concentraciones de Glicina y Tiosulfato de Sodio Pentahidratado se muestran en la Tabla 1. En la Tabla 1, se observa que los valores de viscosidad (η) aumentan con el aumento de la concentración de Glicina y con el aumento de la composición del solvente mixto y disminuyen con el aumento de la temperatura. Las viscosidades relativas ( ) de la Glicina en agua y en las soluciones del solvente mixto fueron calculadas usando la ecuación (1) ⁄

(2)

es la Donde η es la viscosidad de la solución y viscosidad del solvente mixto. Los datos de viscosidad relativa fueron analizados utilizando la ecuación de JonesDoles (3) ⁄

1

(3)

Donde A es el coeficiente de Falkenhagen que ofrece información sobre las interacciones soluto-soluto, B es un coeficiente empírico es una medida de las interacciones soluto-solvente y depende fundamentalmente del tamaño ,la forma y la carga del soluto[11,12].No obstante, la gran mayoría de los estudios viscosimétricos [13-16] en soluciones de electrolitos han centrado su interés en obtener solo información de las interacciones soluto-solvente en mezclas seudobinarias en vez de las interacciones solutosoluto utilizando la expresión (3) en la forma:

1

(4)

En este trabajo, los valores del coeficiente B fueron calculados a partir de la ecuación (4), debido a que la región de composición en estudio no es altamente diluida [12,16]; y son reportados en la Tabla 2.

Tabla1. 219


Páez-Meza et al / DYNA 81 (186), pp. 218-225. August, 2014. Viscosidades (η) de la Glicina en soluciones acuosas de Tiosulfato de Sodio Pentahidratado desde 283.15K hasta 318.15 K T(K) 283.15 m (mol•kg-1) 0.0000 1.308 0.0101 1.310 0.0200 1.312 0.0299 1.313 0.0502 1.316 0.0799 1.322 0.1001 1.325 0.2007 1.344 0.2999 1.362 0.4003 1.381 0.5000 1.400 0.6008 1.420 0.7004 1.440 0.8006 1.461 0.8998 1.479 0.9998 1.497 m (mol•kg-1) 0.0000 1.318 0.0101 1.319 0.0200 1.321 0.0299 1.323 0.0502 1.326 0.0799 1.332 0.1001 1.336 0.2007 1.354 0.2999 1.374 0.4003 1.393 0.5000 1.414 0.6008 1.433 0.7004 1.454 0.8080 1.476 0.8998 1.494 0.9998 1.513 m (mol•kg-1) 0.0000 1.330 0.0101 1.332 0.0200 1.334 0.0299 1.336 0.0502 1.340 0.0799 1.346 0.1001 1.350 0.2007 1.369 0.2999 1.389 0.4003 1.409 0.5000 1.430 0.6008 1.450 0.7004 1.471 0.8080 1.492 0.8998 1.511 0.9998 1.530

0.1001 0.2007 0.2999 0.4003 0.5000 0.6008 0.7004 0.8080 0.8998 0.9998

Glicina + 0.0100 mol kg-1 Na2S2O3 .5 H2O 288.15 293.15 298.15 303.15 308.15 313.15 318.15 η (mPa s)

1.144 1.006 0.996 0.807 0.797 1.156 1.007 0.997 0.825 0.815 1.159 1.009 0.999 0.830 0.820 1.161 1.011 1.001 0.833 0.823 1.163 1.015 1.005 0.829 0.819 1.169 1.020 1.010 0.838 0.828 1.174 1.023 1.013 0.847 0.837 1.188 1.037 1.027 0.853 0.843 1.200 1.052 1.042 0.855 0.845 1.218 1.068 1.058 0.870 0.860 1.234 1.083 1.073 0.878 0.868 1.248 1.099 1.089 0.885 0.875 1.263 1.114 1.104 0.892 0.882 1.284 1.131 1.121 0.918 0.908 1.298 1.144 1.134 0.924 0.914 1.311 1.160 1.150 0.928 0.918 -1 Glicina + 0.0300 mol kg Na2S2O3 .5 H2O η (mPa s)

1.145 1.013 0.997 0.808 0.798 1.157 1.015 0.998 0.826 0.816 1.160 1.016 1.000 0.831 0.821 1.162 1.019 1.002 0.834 0.824 1.164 1.022 1.006 0.830 0.820 1.170 1.027 1.011 0.839 0.829 1.175 1.030 1.014 0.848 0.838 1.189 1.044 1.028 0.854 0.844 1.201 1.060 1.043 0.856 0.846 1.219 1.075 1.059 0.871 0.861 1.235 1.091 1.074 0.879 0.869 1.249 1.107 1.090 0.886 0.876 1.264 1.123 1.105 0.893 0.883 1.285 1.139 1.122 0.919 0.909 1.299 1.154 1.135 0.925 0.915 1.312 1.171 1.151 0.929 0.919 -1 Glicina + 0.0800 mol kg Na2S2O3 .5 H2O 1.158 1.160 1.162 1.164 1.167 1.173 1.176 1.193 1.210 1.228 1.245 1.263 1.282 1.302 1.320 1.339

1.028 1.030 1.032 1.033 1.037 1.042 1.046 1.063 1.079 1.095 1.111 1.128 1.143 1.162 1.177 1.194

1.027 1.029 1.031 1.032 1.036 1.041 1.045 1.062 1.078 1.094 1.110 1.127 1.142 1.161 1.176 1.193

η (mPa s)

1.026 1.028 1.030 1.031 1.035 1.040 1.044 1.061 1.077 1.093 1.109 1.126 1.141 1.160 1.175 1.192

0.808 0.826 0.831 0.834 0.830 0.839 0.848 0.854 0.856 0.871 0.879 0.886 0.893 0.919 0.925 0.929

0.787 0.805 0.810 0.813 0.809 0.818 0.827 0.833 0.835 0.850 0.858 0.865 0.872 0.898 0.904 0.908

0.777 0.795 0.800 0.803 0.799 0.808 0.817 0.823 0.825 0.840 0.848 0.855 0.862 0.888 0.894 0.898

0.788 0.806 0.811 0.814 0.810 0.819 0.828 0.834 0.836 0.851 0.859 0.866 0.873 0.899 0.905 0.909

0.778 0.796 0.801 0.804 0.800 0.809 0.818 0.824 0.826 0.841 0.849 0.856 0.863 0.889 0.895 0.899

0.798 0.816 0.821 0.824 0.820 0.829 0.838 0.844 0.846 0.861 0.869 0.876 0.883 0.909 0.915 0.919

0.788 0.806 0.811 0.814 0.810 0.819 0.828 0.834 0.836 0.851 0.859 0.866 0.873 0.899 0.905 0.909

Glicina + 0.2000 mol kg-1 Na2S2O3 .5 H2O T(K) 283.15 288.15 293.15 298.15 303.15 308.15 313.15 m (mol•kg-1) η (mPa s) 0.0000 1.372 1.362 1.352 1.342 1.322 1.292 1.262 0.0101 1.375 1.365 1.355 1.345 1.325 1.295 1.265 0.0200 1.377 1.367 1.357 1.347 1.327 1.297 1.267 0.0299 1.378 1.368 1.358 1.348 1.328 1.298 1.268 0.0502 1.384 1.374 1.364 1.354 1.334 1.304 1.274 0.0799 1.391 1.381 1.371 1.361 1.341 1.311 1.281 0.1001 1.396 1.386 1.376 1.366 1.346 1.316 1.286 0.2007 1.417 1.407 1.397 1.387 1.367 1.337 1.307 0.2999 1.439 1.429 1.419 1.409 1.389 1.359 1.329 0.4003 1.464 1.454 1.444 1.434 1.414 1.384 1.354 0.5000 1.486 1.476 1.466 1.456 1.436 1.406 1.376 0.6008 1.510 1.500 1.490 1.480 1.460 1.430 1.400 0.7004 1.532 1.522 1.512 1.502 1.482 1.452 1.422 0.8080 1.555 1.545 1.535 1.525 1.505 1.475 1.445 0.8998 1.575 1.565 1.555 1.545 1.525 1.495 1.465 0.9998 1.593 1.583 1.573 1.563 1.543 1.513 1.483 Glicina + 0.4000 mol kg-1 Na2S2O3 .5 H2O m (mol•kg-1) η (mPa s) 0.0000 1.455 1.445 1.415 1.375 1.345 1.315 1.285 0.0101 1.458 1.448 1.418 1.378 1.348 1.318 1.288 0.0200 1.462 1.452 1.422 1.382 1.352 1.322 1.292 0.0299 1.464 1.454 1.424 1.384 1.354 1.324 1.294 0.0502 1.470 1.460 1.430 1.390 1.360 1.330 1.300 0.0799 1.477 1.467 1.437 1.397 1.367 1.337 1.307

1.481 1.509 1.537 1.566 1.595 1.624 1.651 1.680 1.705 1.727

1.471 1.441 1.401 1.499 1.469 1.429 1.527 1.497 1.457 1.556 1.526 1.486 1.585 1.555 1.515 1.614 1.584 1.544 1.641 1.611 1.571 1.670 1.640 1.600 1.695 1.665 1.625 1.717 1.687 1.647 Glicina + 0.6000 mol kg-1

m (mol•kg-1) 0.0000 1.550 0.0101 1.555 0.0200 1.559 0.0299 1.559 0.0502 1.567 0.0799 1.577 0.1001 1.583 0.2007 1.616 0.2999 1.648 0.4003 1.682 0.5000 1.716 0.6008 1.750 0.7004 1.782 0.8080 1.817 0.8998 1.847 0.9998 1.884

η (mPa s)

1.520 1.490 1.440 1.409 1.357 1.525 1.495 1.445 1.414 1.362 1.529 1.499 1.449 1.418 1.366 1.529 1.499 1.449 1.418 1.366 1.537 1.507 1.457 1.426 1.374 1.547 1.517 1.467 1.436 1.384 1.553 1.523 1.473 1.442 1.390 1.586 1.556 1.506 1.475 1.423 1.618 1.588 1.538 1.507 1.455 1.652 1.622 1.572 1.541 1.489 1.686 1.656 1.606 1.575 1.523 1.720 1.690 1.640 1.609 1.557 1.752 1.722 1.672 1.641 1.589 1.787 1.757 1.707 1.676 1.624 1.817 1.787 1.737 1.706 1.654 1.854 1.824 1.774 1.743 1.691 -1 Glicina + 0.8000 mol kg Na2S2O3 .5 H2O T(K) 283.15 288.15 293.15 298.15 303.15 308.15 m (mol•kg-1) η (mPa s) 0.0000 1.661 1.631 1.593 1.542 1.507 1.454 0.0101 1.664 1.634 1.596 1.545 1.510 1.457 0.0200 1.666 1.636 1.598 1.547 1.512 1.459 0.0299 1.668 1.638 1.600 1.549 1.514 1.461 0.0502 1.676 1.646 1.608 1.557 1.522 1.469 0.0799 1.685 1.655 1.617 1.566 1.531 1.478 0.1001 1.692 1.662 1.624 1.573 1.538 1.485 0.2007 1.727 1.697 1.659 1.608 1.573 1.520 0.2999 1.761 1.731 1.693 1.642 1.607 1.554 0.4003 1.799 1.769 1.731 1.680 1.645 1.592 0.5000 1.837 1.807 1.769 1.718 1.683 1.630 0.6008 1.874 1.844 1.806 1.755 1.720 1.667 0.7004 1.915 1.885 1.847 1.796 1.761 1.708 0.8080 1.955 1.925 1.887 1.836 1.801 1.748 0.8998 1.990 1.960 1.922 1.871 1.836 1.783 0.9998 2.031 2.001 1.963 1.912 1.877 1.824 -1 Glicina + 1.0000 mol kg Na2S2O3 .5 H2O m (mol•kg-1) η (mPa s) 0.0000 1.773 1.742 1.705 1.674 1.631 1.581 0.0101 1.776 1.745 1.708 1.677 1.634 1.584 0.0299 1.786 1.755 1.718 1.687 1.644 1.594 0.0502 1.789 1.758 1.721 1.690 1.647 1.597 0.0799 1.800 1.769 1.732 1.701 1.658 1.608 0.1001 1.806 1.775 1.738 1.707 1.664 1.614 0.2007 1.839 1.808 1.771 1.740 1.697 1.647 0.2999 1.877 1.846 1.809 1.778 1.735 1.685 0.4003 1.921 1.890 1.853 1.822 1.779 1.729 0.5000 1.962 1.931 1.894 1.863 1.820 1.770 0.6008 2.006 1.975 1.938 1.907 1.864 1.814 0.7004 2.045 2.014 1.977 1.946 1.903 1.853 0.8080 2.095 2.064 2.027 1.996 1.953 1.903 0.8998 2.133 2.102 2.065 2.034 1.991 1.941 0.9998 2.176 2.145 2.108 2.077 2.034 1.984 -1 Glicina + 2.0000 mol kg Na2S2O3 .5 H2O m (mol•kg-1) η (mPa s) 0.0000 2.463 2.433 2.399 2.349 2.299 2.249 0.0101 2.470 2.440 2.406 2.356 2.306 2.256 0.0299 2.477 2.447 2.413 2.363 2.313 2.263 0.0502 2.492 2.462 2.428 2.378 2.328 2.278 0.0799 2.510 2.480 2.446 2.396 2.346 2.296 0.1001 2.523 2.493 2.459 2.409 2.359 2.309 0.2999 2.652 2.622 2.588 2.538 2.488 2.438 0.5000 2.802 2.772 2.738 2.688 2.638 2.588 0.6008 2.879 2.849 2.815 2.765 2.715 2.665 0.8080 3.037 3.007 2.973 2.923 2.873 2.823 0.9998 3.208 3.178 3.144 3.094 3.044 2.994

318.15 1.259 1.262 1.264 1.265 1.271 1.278 1.283 1.304 1.326 1.351 1.373 1.397 1.419 1.442 1.462 1.480

1.234 1.237 1.241 1.243 1.249 1.256

1.371 1.341 1.399 1.369 1.427 1.397 1.456 1.426 1.485 1.455 1.514 1.484 1.541 1.511 1.570 1.540 1.595 1.565 1.617 1.587 Na2S2O3 .5 H2O

1.311 1.339 1.367 1.396 1.425 1.454 1.481 1.510 1.535 1.557

1.260 1.288 1.316 1.345 1.374 1.403 1.430 1.459 1.484 1.506

1.316 1.321 1.325 1.325 1.333 1.343 1.349 1.382 1.414 1.448 1.482 1.516 1.548 1.583 1.613 1.650

1.272 1.277 1.281 1.281 1.289 1.299 1.305 1.338 1.370 1.404 1.438 1.472 1.504 1.539 1.569 1.606

313.15 318.15 1.402 1.405 1.407 1.409 1.417 1.426 1.433 1.468 1.502 1.540 1.578 1.615 1.656 1.696 1.731 1.772

1.350 1.353 1.355 1.357 1.365 1.374 1.381 1.416 1.450 1.488 1.526 1.563 1.604 1.644 1.679 1.720

1.530 1.533 1.543 1.546 1.557 1.563 1.596 1.634 1.678 1.719 1.763 1.802 1.852 1.890 1.933

1.480 1.483 1.493 1.496 1.507 1.513 1.546 1.584 1.628 1.669 1.713 1.752 1.802 1.840 1.883

2.179 2.186 2.193 2.208 2.226 2.239 2.368 2.518 2.595 2.753 2.924

2.109 2.116 2.123 2.138 2.156 2.169 2.298 2.448 2.525 2.683 2.854

Fuente: Los autores.

La Tabla 2 muestra que los valores coeficiente B son positivos a lo largo de todas las composiciones e isotermas

220


Páez-Meza et al / DYNA 81 (186), pp. 218-225. August, 2014.

de estudio, lo que sugiere que en el sistema se favorecen las interacciones soluto-solvente, que podrían ser clasificadas de la siguiente forma [17,18]: a) Interacciones Ión – Ión entre el ión Na+ del solvente mixto y el grupo COO- de la Glicina . y el grupo b) Interacciones Ión – Ión entre el ión S O NH3+ de la Glicina. La dependencia del coeficiente B con respecto a la temperatura fue expresada usando la ecuación de Out y Los [2]

(5)

exp

Donde , , son parámetros ajustables, es la = 273.15 K. Los valores de temperatura en Kelvin, , y para cada una de las composiciones en estudio son presentados en la Tabla 4 junto con su respectiva desviación estándar poblacional (σ). ⁄ Adicionalmente se calcularon los valores de y son reportados en la Tabla 3. En la Tabla 3 se observa que ⁄ los valores de son positivos a lo largo de todas las isotermas y composiciones de Na2S2O3.5H2O, comportamiento que indica que la Glicina actúa como un disruptor de la estructura del solvente. Los valores del los coeficientes B de transferencia ( ) desde el agua a soluciones acuosas de Na2S2O3.5H2O fueron obtenidos mediante la ecuación (6)

Soluciones acuosas de Na S O

demostrado que se cumple la expresión (7).

°

°

/1000+(

(7)

/

°

∆µ° /

/1000 ∆μ°

(8)

Donde °, ° on el volumen molar parcial solvente y del soluto cuando → 0, ∆μ° es la contribución por mol del soluto. De esta forma Δ ⋕ y ∆μ° fueron calculado a partir de las expresiones (9) y (10) respectivamente ∆μ° ∆μ

°

∆μ

°⁄ ,

°

(9)

1000

°

°

°

(10)

La energía total de activación del flujo viscoso fue calculada mediante la expresión (11) ∆

Los valores de obtenidos son reportados en la Tabla 5. De la Tabla 5 se observa que los valores de son positivos en todas las isotermas y composiciones de estudio; lo cual podría indicar que en el sistema las interacciones son altamente específicas [16].Los datos de viscosidad han sido analizados utilizando la teoría de Eyring [19], esta supone que las moléculas se mueven por cada una de las posiciones de equilibrio a través sus estados de transición en donde los enlaces intermoleculares se estiran al pasar de un estado de equilibrio a otro. En este sentido para un líquido puro se ha

exp Δ

⋕ Donde , , ° , , , y T es la constante de Planck, el número de Avogadro, el volumen molar parcial del solvente ,la energía libre de activación por mol del solvente, la constante universal de los gases y la temperatura en Kelvin respectivamente. Feakins y colaboradores [20] aplicaron la teoría del estado de transición al tratamiento de las viscosidades relativas de soluciones, mostrando que el coeficiente B puede escribirse como:

en agua

(6)

°

/

°

Δ

Δ

(11)

Donde , son las fracciones molares del solvente y del soluto respectivamente.Los valores obtenidos para Δ ⋕ , ∆μ° y ∆ ° son presentados en las Tablas 6 y 7 respectivamente. En la Tabla 6 se observa que los valores de Δ ⋕ son aproximadamente constantes a todas las temperaturas y composiciones de solvente mixto en estudio, lo que indica que los valores de Δ ⋕ dependen principalmente del coeficiente B y de la cantidad ° ° . Los valores de Δ ⋕ y ∆ ⋕ son positivos y mayores que los valores de Δ ⋕ ; lo que sugiere que el estado de transición es menos favorecido en presencia de Glicina y que la formación de este estado va acompañado de la disrupción y distorsión de los enlaces intermoleculares en la estructura del disolvente [15,21].

Tabla 2. Coeficientes B de viscosidad obtenidos de la ecuación (4) 283.15

T(K)

288.15

293.15

298.15

m (mol kg-1) 0.0000 0.0100 0.0300 0.0800

303.15

308.15

313.15

318.15 0.150 ± 0.001 0.161 ± 0.020 0.170 ± 0.019 0.170 ± 0.020 0.177 ± 0.0002 0.208 ± 0.009 0.244 ± 0.004 0.255 ± 0.003 0.265 ± 0.005 0.339 ± 0.008

B (cm3• mol-1)

0.134 ± 5E-04 0.136 ± 0.008 0.147 ± 0.001 0.148 ± 0.014

0.137± 0.0005 0.144 ± 0.002 0.152 ± 0.007 0.150 ± 0.010

0.143 ± 0.0002 0.146 ± 0.002 0.155 ± 0.0008 0.159 ± 0.016

0.143± 0.0003 0.147 ± 0.019 0.155± 0.0008 0.159± 0.0162

0.141± 0.0004 0.155 ± 0.019 0.164 ± 0.018 0.1595± 0.016

0.147± 0.0002 0.157 ± 0.019 0.166 ± 0.018 0.161 ± 0.014

0.149 ± 0.001 0.159 ± 0.020 0.168 ± 0.035 0.163 ± 0.014

0.2000 0.162 ± 0.004 0.4000 0.177 ± 0.002 0.6000 0.200 ± 0.002 0.8000 0.207 ± 0.003 1.0000 0.221 ± 0.004 2.0000 0.290 ± 0.007 Fuente: Los autores

0.163 ± 0.002 0.178 ± 0.002 0.204 ± 0.002 0.211 ± 0.002 0.226 ± 0.004 0.294 ± 0.007

0.164 ± 0.002 0.182 ± 0.004 0.208 ± 0.003 0.216 ± 0.004 0.231 ± 0.004 0.298 ± 0.007

0.166 ± 0.0002 0.187 ± 0.002 0.216 ± 0.003 0.223 ± 0.004 0.235 ± 0.004 0.304 ± 0.007

0.168 ± 0.002 0.191 ± 0.002 0.221 ± 0.003 0.228 ± 0.004 0.241 ± 0.004 0.311 ± 0.007

0.172 ± 0.004 0.196 ± 0.003 0.229 ± 0.002 0.236 ± 0.003 0.249 ± 0.004 0.318 ± 0.007

0.176± 0.0002 0.200 ± 0.003 0.236 ± 0.003 0.245 ± 0.003 0.257 ± 0.005 0.328 ± 0.007

221


Páez-Meza et al / DYNA 81 (186), pp. 218-225. August, 2014. Tabla 3. Pendiente (

/

) de la Glicina en soluciones acuosas de Tiosulfato de Sodio Pentahidratado dB/dT m Na2S2O3 .5 H2O (mol kg-1) 0.0100 0.0300 0.0800 0.2000 0.4000 0.6000 T(K) 283.15 0.0015 0.0010 0.0008 0.0002 0.0003 0.0008 288.15 0.0004 0.0006 0.0015 0.0002 0.0007 0.0008 293.15 0.0003 0.0001 0.0000 0.0002 0.0011 0.0015 298.15 0.0016 0.0017 0.0000 0.0005 0.0008 0.0010 303.15 0.0004 0.0004 0.0003 0.0008 0.0009 0.0017 308.15 0.0004 0.0004 0.0004 0.0008 0.0010 0.0031 313.15 0.0004 0.0004 0.0004 0.0001 0.0016 0.0016 318.15 0.0005 0.0005 0.0005 0.0006 0.0007 0.0007 Fuente: Los autores

0.8000 0.0008 0.0010 0.0014 0.0011 0.0016 0.0018 0.0019 0.0008

1.0000 0.0008 0.0010 0.0008 0.0013 0.0016 0.0016 0.0018 0.0008

2.0000 0.0007 0.0008 0.0013 0.0013 0.0014 0.0021 0.0022 0.0011

Tabla 4. Parámetros de la ecuación (2) y la correspondiente desviación estándar poblacional (σ) m Na2S2O3. 5 H2O (mol•kg-1) 0.0000 0.0100 0.0300 0.0800 0.2000 0.4000 0.6000 0.8000 1.0000 2.0000 Fuente: Los autores

BE

BS

K

σ (cm3• mol-1)

0.1553 0.1790 0.2160 0.1650 0.5179 1.1478 1.1571 1.1605 1.1650 1.1650

-0.0305 -0.0540 -0.0781 -0.0352 -0.3621 -0.9829 -0.9726 -0.9694 -0.9649 -0.9649

0.0375 0.0246 0.0120 0.0719 0.0013 0.0009 0.0013 0.0003 0.0002 0.0002

0.0012 0.0155 0.0556 0.1055 0.1452 0.1704 0.1846 0.1922 0.0151 0.0151

Este hecho sugiere que las interacciones que involucran a los iones presentes en el solvente mixto (Na+ , S O con los centros cargados de la Glicina (COO-, NH3+) son fuertes y por consiguiente ocurre un favorecimiento de las interacciones solutosolvente. Los valores de la entalpía de activación (∆ ° ) y la entropía de activación (∆ ° ) fueron calculados mediante la expresión (12) ∆

°

°

Donde los valores de ∆ Tabla 5. Coeficientes B de transferencia (

∆ °

y∆

°

método de los mínimos cuadrados a partir de la pendiente y el intercepto de la gráfica de ∆ ° en función de T. Los datos obtenidos de ∆ ° y ∆ ° se muestran en la Tabla 7. En la Tabla 7 es notorio que los valores de ∆ ° y ∆ ° son positivos a todas las temperaturas y composiciones de solvente mixto, lo cual sugiere que la formación del estado de transición va acompañado de una disrupción de los enlaces intermoleculares y una estructura más desordenada de las especies en el estado activado.Este comportamiento se ha observado en otros sistemas de aminoácidos en solventes mixtos [5,15,22]

(12) °

fueron usando el

) desde el agua a soluciones acuosas de Na2S2O3.5H2O ΔBtr (cm3• mol-1) m Na2S2O3 .5 H2O (mol kg-1)

T(K)

0.0100

0.0300

0.0800

0.2000

0.4000

0.6000

0.8000

1.0000

2.0000

283.15 288.15 293.15 298.15 303.15 308.15 313.15 318.15

0.002 0.006 0.003 0.004 0.011 0.010 0.010 0.011

0.013 0.015 0.012 0.012 0.020 0.019 0.019 0.020

0.014 0.015 0.016 0.016 0.015 0.014 0.014 0.015

0.028 0.026 0.022 0.022 0.024 0.026 0.027 0.027

0.043 0.041 0.039 0.044 0.047 0.049 0.051 0.059

0.066 0.067 0.065 0.073 0.076 0.082 0.095 0.086

0.073 0.074 0.073 0.080 0.084 0.090 0.096 0.105

0.087 0.088 0.088 0.091 0.097 0.102 0.107 0.116

0.156 0.156 0.155 0.161 0.167 0.171 0.179 0.189

Fuente: Los autores

222


Pozo-Antonio et al / DYNA 81 (186), pp. 00-00. August, 2014. Tabla 6. Energía libre de activación por mol del soluto y de solvente (Δ T(K)

283.15

Mezcla Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua

, Δ

mNa2S2O3.5H2O (mol•Kg-1) 0.0000 0.0100 0.0300 0.0800 0.2000 0.4000 0.6000 0.8000 1.0000 2.0000

), volumen molar parcial a dilución infinita del solvente y del soluto ( ∆µ1°#

∆µ2°#

(kJmol-1) 58.43 58.43 58.44 58.45 58.49 58.57 58.67 58.79 58.91 59.51

(kJmol-1) 78.69 79.07 80.54 80.88 83.17 86.04 90.04 91.97 94.87 109.25

(cm3mol-1) 18.36 18.34 18.29 18.18 17.91 17.51 17.16 16.84 16.56 15.41

° ° ,

(cm3mol-1) 42.18 43.15 43.26 43.44 43.68 45.00 45.35 47.04 48.09 50.79

Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua

0.0000 0.0100 0.0300 0.0800 0.2000 0.4000 0.6000 0.8000 1.0000 2.0000

59.41 59.14 59.14 59.15 59.50 59.59 59.67 59.79 59.91 60.54

80.43 81.19 82.32 82.54 84.90 87.80 92.30 94.27 97.24 111.97

18.38 18.35 18.31 18.19 17.92 17.53 17.18 16.86 16.59 15.44

42.48 43.62 43.69 43.86 44.63 45.82 46.80 48.64 49.55 53.23

Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua

0.0000 0.0100 0.0300 0.0800 0.2000 0.4000 0.6000 0.8000 1.0000 2.0000

60.34 59.86 59.87 59.89 60.52 60.58 60.66 60.77 60.90 61.56

82.51 82.57 83.86 84.69 86.63 89.87 94.53 96.69 99.73 114.79

18.39 18.37 18.32 18.21 17.94 17.55 17.21 16.89 16.62 15.47

42.83 44.04 44.13 44.30 45.67 46.73 48.00 49.84 50.86 55.48

Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua

0.0000 0.0100 0.0300 0.0800 0.2000 0.4000 0.6000 0.8000 1.0000 2.0000

61.37 60.86 60.85 60.91 61.54 61.55 61.61 61.74 61.90 62.56

83.99 84.18 85.34 86.16 88.33 92.16 97.23 99.36 102.11 118.02

18.39 18.39 18.34 18.23 17.96 17.61 17.24 16.94 16.65 15.50

43.10 44.41 44.44 44.60 46.58 47.70 49.25 51.04 52.27 58.09

303.15

Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O + Glicina + Agua

0.0000 0.0100 0.0300 0.0800 0.2000 0.4000 0.6000 0.8000 1.0000 2.0000

62.38 61.35 61.35 61.93 62.54 62.53 62.60 62.72 62.88 63.56

85.49 86.14 87.44 87.63 90.20 94.35 99.55 101.89 104.86 121.23

18.44 18.42 18.37 18.26 17.99 17.61 17.29 16.95 16.69 15.53

43.40 44.75 44.82 44.88 47.34 48.70 50.21 52.05 53.72 60.07

308.15

Glicina + Agua Na2S2O3.5H2O + Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua

0.0000 0.0100 0.0300 0.0800

63.37 62.34 62.33 62.35

87.19 87.79 89.11 88.65

18.47 18.45 18.40 18.29

43.71 44.96 45.02 45.12

288.15

293.15

298.15

223

).


Páez-Meza et al / DYNA 81 (186), pp. 218-225. August, 2014.

Continuación Tabla 6. Energía libre de activación por mol del soluto y de solvente (Δ T(K)

Mezcla Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua

, Δ

mNa2S2O3.5H2O (mol•Kg-1) 0.2000 0.4000 0.6000 0.8000 1.0000 2.0000

), volumen molar parcial a dilución infinita del solvente y del soluto ( ∆µ1

°#

∆µ2

° ° ,

(kJmol-1) 63.51 63.50 63.54 63.67 63.84 64.56

(kJmol-1) 92.27 96.55 102.41 104.75 107.83 124.48

(cm3mol-1) 18.02 17.64 17.33 16.99 16.72 15.57

(cm3mol-1) 48.19 49.72 51.20 53.08 55.09 62.12

Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua

0.0000 0.0100 0.0300 0.0800 0.2000 0.4000 0.6000 0.8000 1.0000 2.0000

63.96 63.32 63.32 63.33 64.49 64.48 64.49 64.61 64.80 65.53

88.53 89.41 90.81 90.34 94.33 98.84 106.41 107.87 110.83 128.40

18.51 18.51 18.44 18.32 18.06 17.68 17.34 17.01 16.76 15.61

43.96 45.19 45.26 45.40 48.91 50.55 52.29 54.14 56.40 64.49

Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua 318.15 Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Na2S2O3.5H2O+ Glicina + Agua Fuente: Adaptada desde [5]

0.0000 0.0100 0.0300 0.0800 0.2000 0.4000 0.6000 0.8000 1.0000 2.0000

64.96 64.30 64.30 64.32 65.52 63.77 65.44 65.55 65.75 66.50

89.98 91.11 92.50 92.03 95.95 99.89 106.88 110.96 113.94 132.37

18.54 18.52 18.47 18.36 18.09 17.72 17.38 17.06 16.80 15.65

44.22 45.39 45.47 45.70 49.61 51.23 53.54 55.20 57.35 66.43

313.15

Tabla 7. Parámetros de activación (∆ ° , ∆ ° , ∆ ° ) del flujo viscoso 283.15 T(K) m Na2S2O3. 5 H2O H°≠ S°≠ (mol•Kg-1) (Kj mol-1) (Kj mol-1K-1) 0.0000 5.41 ± 0.18 1.211± 0.004 58.555 0.0100 10.94 ± 1.47 0.167 ± 0.004 58.568 0.0300 11.07 ± 1.49 0.1672 ± 0.0049 58.584 0.0800 10.78 ± 1.38 0.168 ± 0.004 58.594 0.2000 1.65 ± 0.17 0.201 ± 0.001 58.648 0.4000 11.04 ± 4.92 0.169 ± 0.016 58.747 0.6000 3.83 ± 0.24 0.1950 ± 0.0008 59.036 0.8000 3.79 ± 0.19 0.22 ± 0.001 59.003 1.0000 3.18 ± 0.21 0.198 ± 0.001 59.136 2.0000 2.98 ± 0.24 0.199 ± 0.001 59.528 Fuente: Los autores

288.15

293.15

59.538 59.289 59.286 59.302 59.668 59.772 60.043 60.009 60.146 60.555

60.479 60.010 60.022 60.049 60.690 60.765 61.035 61.002 61.147 61.576

4. Conclusiones En este trabajo se reportan los datos experimentales para las viscosidades del sistema Glicina en soluciones acuosas de Tiosulfato de Sodio Pentahidratado (0.01-2.0 mol Kg-1) a las temperaturas de (283.15; 288.15; 293.15; 298.15; 303.15; 308.15; 313.15 y 318.15) K y 101.1 Kpa. Los valores del coeficiente B son positivos a lo largo de todas las composiciones e isotermas de estudio, lo que sugiere que en el sistema se favorecen las interacciones solutosolvente, las cuales podrían ser asociadas a dos tipos de

).

°#

298.15 303.15 G°≠ (Kj mol-1)±0.001 61.509 62.529 61.012 61.518 61.009 61.515 61.074 62.100 61.712 62.715 61.744 62.728 62.007 63.002 61.977 62.965 62.154 63.143 62.580 63.580

308.15

313.15

318.15

63.524 62.506 62.504 62.520 63.700 63.714 63.962 63.926 64.118 64.579

64.111 63.497 63.492 63.508 64.681 64.698 64.923 64.880 65.087 65.551

65.114 64.481 64.479 64.496 65.714 63.996 65.858 65.834 66.054 66.518

interacciones: 1) Interacciones Ión – ión entre el ión Na+ del solvente mixto y el grupo COO- de la Glicina y 2) Interacciones Ión – Ión entre el ión S O y el grupo NH3+ de ⁄ son la Glicina. Adicionalmente los valores de y positivos; hecho que indica que la Glicina actúa como un disruptor de la estructura del solvente (cosmotrópico) y que las interacciones en el sistema pseudobinario son altamente específicas. Por otro lado los valores de ∆μ° y ∆ ° son positivos y mayores que los valores de Δ ⋕ ; lo que sugiere que el estado de transición es menos favorecido en presencia de

224


Páez-Meza et al / DYNA 81 (186), pp. 218-225. August, 2014.

Glicina y que la formación de este estado va acompañado de la disrupción y distorsión de los enlaces intermoleculares en la estructura del disolvente. Finalmente el signo positivo de ∆ ° y ∆ ° sugieren que la formación del estado de transición presenta una estructura más desordenada de las especies en el estado activado. Agradecimientos Los autores agradecen a la Universidad de Córdoba, a la Universidad Andres Bello y a la Beca de Doctorado CONICYT Programa Formación de Capital Humano Avanzado/Doctorado Nacional-63130037 por el apoyo prestado para la realización de este trabajo. Referencias

[15] Yan, Z., Wang, J. and Lu, J., Viscosity behavior of some α-amino acids and their groups in water-sodium acetate mixtures, Biophys. Chem., 99, pp. 199-207, 2002. [16] Banipal, T.S., Kaur, J., Banipal, K., Sood, K., and Singh, K. Volumetric and Viscometric Studies of Some Amino Acids in Aqueous Solutions of Cadmium Chloride at T = (288.15 to 318.15K and at Atmospheric Pressure. J. Chem. Eng. Data, 56, pp. 2751– 2760, 2011. [17] Bhat, R., Kishore, N. and Ahluwalia, J.C., Thermodynamic studies of transfer of some amino acids and peptides from water to aqueous glucose and sucrose solutions at 298.15 K, J. Chem. Soc. Faraday Trans. I, 84(8), pp. 2561-2665, 1988. [18] Li, Z., Sang, W. and Lin, R., Partial molar volumes of glycine, Lalanine and L-serine in aqueous glucose solutions at T = 298.15 K, J. Chem. Thermodyn., 34, pp.1761-1768, 2002. [19] Glasstone, S., Laidler, K. J. and Eyring, H., The theory of rate processes, McGraw Hill, New York, 1941. [20] Feakins, D., Freemantle, D. and Lawrence, K., Treatment of the transition state of the relative viscosity of electrolyte solutions. Applications to aqueous systems, nonaqueous and methanol + water, J. Chem. Soc. Faraday Trans., 1(70), pp.795-806, 1974.

[1]

Páez, M., Cantero, P., and Peña, J., Viscosities of the Mixture N,NDimethylformamide +1-Butanol at Different Temperatures. Inf. Tecnol., 23(3), pp.149-156, 2012.

[2]

Wang, P., Anderko, A. and Young, R.D., Modeling viscosity of concentrated and mixed‐solvent electrolyte systems, Fluid Phase Equilib., 226, pp. 71-82, 2004.

[21] Sinha, A., Kumar, P. and Mahendra, N., Apparent molar volumes and viscosity B-Coefficients of glycine in aqueous silver sulphate solutions at T = (298.15, 308.15, 318.15) K, .Acta Chim. Slov., 57, pp.651–659, 2010.

[3]

Kumar, A., Molecular interactions in binary mixtures of formamide with 1-butanol,2-butanol, 1,3-butanediol and 1,4-butanediol at different temperatures: An ultrasonic and viscometric study, Fluid Phase Equilibria., 265, pp.46–56, 2008.

[22] Khanuja, P., Volumetric and viscometric study of interactions of amino acids in aqueous sucrose solution at different temperatures, Chem Sci Trans.vol. 2(4), pp. 1268-1275, 2013.

[4]

Páez, M., Lans, E. and Cantero, P., Densities and volumetric properties of the mixture N,N-dimethylformamide (DMF) + 1butanol at several temperatures. DYNA, 80(177), pp.132-141, 2013.

[5]

Sinha, B., Sarkar, A., Kumar, P., and Brahman, D., Physicochemical properties of L-Alanine in aqueous silver sulphate solutions at (298.15, 308.15, and 318.15) K, Int. J. Thermophys., 32, pp.1-17, 2010.

[6]

Ali, A. and Shahjahan, A., Density and viscosity of α-amino acids in aqueous solutions of cetyltrimethylammonium bromide, Russ. Chem. Bull., 59, pp.1999-2004, 2010.

M. S. Páez-Meza, Graduado en 1987 como Licenciado en Química en la Universidad de Córdoba. Colombia. En 1996 se graduó de Especialista en Ciencias Física; mientras que en el 2001 se graduó de Magister en Ciencias Químicas, y en 2006 de Dr. Sc Ciencias Químicas, todos ellos de la Universidad Nacional de Colombia. Bogotá, Colombia. Del 1996 a la fecha, se desempeña como docente de carrera en la Universidad de Córdoba tanto en los programas de pregrado como de postgrado. También se desempeña como líder del grupo de investigación: Fisicoquímica de mezclas líquidas.

[7]

Shekaari, H. and Jebali, F., Solute–Solvent interactions of amino acids in aqueous 1-Propyl-3-Methylimidazolium bromide ionic liquid solutions at 298.15 K, J. Solution Chem., 39, pp.1409–1427, 2010.

[8]

Siegel, A. and Siegel, H., Metal ions in biological systems., Inc. New York. USA, 1973.

[9]

Williams, R. J., Bioinorganic Chemistry: Trace element aerobic anaerobic evolution In: Structure and bonding, Vol. 91, Springer, 1998.

[10] Fraústo da Silva, J.J.R. and Williams, R.J.P., The biological chemistry of the elements. Oxford University Press. Oxford, 2001. [11] Jones, G. and Dole, M., The viscosity of aqueous solutions of strong electrolytes with special reference to barium chloride, J. Am. Chem. Soc., 51, pp. 2950-2964, 1929. [12] Stokes, R.H. and Milles, R., International encyclopedia of physical chemistry and chemical physics, Pergamon Press, New York, 1965. [13] Yan, Z., Wang, J., Kong, W.,and Lu, J., Effect of temperature on volumetric and viscosity properties of some [alpha]-amino acids in aqueous calcium chloride solutions, Fluid Phase Equilib., 215(2), pp. 143-150, 2004.

G. M. Alvarino-Bettín, Graduado como Licenciado en Matemáticas y Físicas en la Universidad de Córdoba en Junio de 1982; recibió título de Especialista en Ciencias Físicas en Agosto de 1997 en la Universidad Nacional de Colombia, sede Bogotá en Agosto de 1997; recibió título de MSc en Ciencias Físicas en la Universidad Nacional de Colombia, sede Bogotá en octubre de 2002; recibió título de Magíster en Educación en la Universidad de Córdoba, en Diciembre de 2008. Desde 1982 hasta 1997 se desempeñó como docente de secundaria en el sector público, en diferentes instituciones del Departamento de Córdoba. Desde 1997 se vinculó como docente de planta a la Universidad de Córdoba, adscrito al Departamento de Física y Electrónica, desempeñándose como docente investigador en el área de percepción remota satelitaria, trabajando con digitalización de imágenes de satélite. Posteriormente trabajó en proyectos de investigación en el área de física médica. En la actualidad trabaja en proyectos que se enfocan en el estudio de la termodinámica de soluciones acuosas, en colaboración con docentes del Departamento de Química en la Universidad de Córdoba. P. de los S. Cantero-López, Graduado como Químico en Diciembre de 2009 y Magister en Ciencias Químicas en marzo de 2014 en la Universidad de Córdoba Colombia. Desde 2007 se desempeña como investigador al grupo de investigación: Fisicoquímica de mezclas líquidas. Desde 2010 hasta 2012 se desempeñó como docente en la Universidad de Córdoba. Actualmente es estudiante del Doctorado en Fisicoquímica Molecular en la Universidad Andrés Bello (Santiago de Chile).

[14] Banipal, T.S. and Singh, G., Thermodynamic study of salvation of some amino acids, diglycine and lysozyme in aqueous and mixed aqueous solutions, Thermochim. Acta, 412, pp. 63-83, 2004. 225


Damage detection in ACSR cables based on ultrasonic guided waves Rito Mijarez a, Arturo Baltazar b, Joaquín Rodríguez-Rodríguez a & José Ramírez-Niño a a

Gerencia de Control, Electrónica y Comunicaciones– Instituto de Investigaciones Eléctricas, Cuernavaca, Morelos, México. rmijarez@iie.org.mx b Centro de Investigación y Estudios Avanzados del IPN, Unidad Saltillo, Ramos Arizpe, Coahuila, México. arturo.baltazar@cinvestav.edu.mx Received: October 15th, de 2013. Received in revised form: May 8th, 2014. Accepted: May 28th, 2014

Abstract The use of ultrasonic guided waves is growing as a non-destructive testing technique of multi-wire cables used in civil engineering structures. Wave propagation characteristics in these types of structures have been challenging to investigate owing to the load-dependent inter-wire contact and the helical geometry of the peripheral wires. In this work, experiments of guided waves propagated in a 0.9m Aluminum Conductor Steel Reinforced (ACSR) cable were conducted employing two longitudinal piezoelectric transducers attached to the ends of the cable in a through transmission configuration. Longitudinal L(0,1) and flexural F(1,1) modes were identified at 500 kHz via dispersion curves and Wavelet Transforms (WT). Experiments included artificial damage introduced in the middle of the cable by cutting and gradually increasing the cut depth from 1mm to 9mm. The attained results suggest a change of guided modes excitation and reception from F(1,1) to L(0,1) due to reduced friction contact among individual wires. This change of guided waves modes in response to damage variations, associated with the transmitted ultrasonic energy, was identified and discussed as potential mean of damage monitoring. Keywords: Ultrasonic guided waves; wavelet transform; ACSR cables inspection.

Detección de daño en cables ACSR basada en ondas guiadas ultrasónicas Resumen El uso de ondas guiadas ultrasónicas está creciendo como una técnica de pruebas no destructivas de cables multi-conductores utilizados en estructuras de ingeniería civil. Las características de propagación de ondas en estos tipos de estructuras han sido difíciles de investigar debido al contacto entre conductores y a la geometría helicoidal de sus alambres periféricos. En este estudio, la propagación de ondas guiadas ultrasónicas se realizó experimentalmente usando un cable multi-conductor de aluminio con acero reforzado (ACSR) de 0.9 m empleando dos transductores piezoeléctricos longitudinales adheridos a los extremos del cable en una configuración de transmisión ultrasónica. La identificación de los modos de propagación, de flexión F(1,1) y longitudinales L(0,1), a 500 kHz se llevó a cabo vía las curvas de dispersión y la transformada Wavelet. Los experimentos incluyen daño artificial a la mitad del cable, introduciendo un corte y aumentando gradualmente la profundidad de corte de 1 mm a 9 mm. Los resultados obtenidos sugieren un cambio de los modos de excitación y recepción de F(1,1) a L(0,1) debido a la disminución del contacto de fricción entre conductores. Este cambio de modos susceptibles a las variaciones de daños, asociados con la energía ultrasónica transmitida, se identificó y analizó como medio potencial para el monitoreo de daño. Palabras clave: Ondas guiadas ultrasónicas, transformada wavelet, inspección de cables ACSR.

1. Introduction Aluminum Conductor Steel Reinforced (ACSR) cables are multi-wire cables commonly used as power transmission lines by electricity companies. These structures are generally exposed to environmental degradation such as corrosion, static loads, wind-induced vibrations and temperature changes. As a consequence, their reliability is a major concern in each application and monitoring their structural integrity becomes progressively more important as the cables age.

Guided waves in rods, single wires and multiple wires have been anticipated as an attractive and effective technique for damage monitoring of materials, since they can interrogate large structures and propagate over long distances compared with traditional body waves [1]. However, guided waves propagation in rods possess an infinite number of vibration modes. These vibration modes depend on material properties and characteristic geometrical parameters of the waveguide, e.g. diameter of the rod, and are dispersive in nature, which complicate its analysis.

© The author; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 226-233. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Mijarez et al/ DYNA 81 (186), pp. 226-233. August, 2014.

Wave propagation characteristics in multi-wire cables are even more difficult to investigate due to the loaddependency of inter-wire contact and the twisted geometry of the peripheral wires. Hence, the use of guided waves in these complex structures as a non-destructive testing (NDT) technique, and its inclusion for damage monitoring, is very challenging and requires a firm understanding of wave propagation. Propagation of waves in rods and cable structures has been investigated theoretically and experimentally by many researchers for over fifty years. Even though the cables in civil structures do not consist of single cylindrical wires, initial numerical and experimental investigations of guided wave propagation have been performed on single cylindrical structures. This course of work has been used as an approximation to study the wave propagation in multi-wire cables and has established its fundamental basis [2-7]. In general, the multimodal behavior and the dispersive nature of guided waves in solid cylinders indicate the simultaneous propagation of various types of waves, stated as modes, and the superposition of different modes with distinct velocities [8]. Furthermore, mode conversion has been reported to occur when waves encounter discontinuities or bended structures [9,10]. Researchers have therefore been driven to implement sophisticated digital signal processing (DSP) techniques in time and frequency-time domains to analyze and identify the measured signals; some of these DSP techniques used are the Short Time Fourier Transform (STFT), the Wigner-Ville transform and the Wavelet Transform (WT) [11-14]. The twisted geometry and the contact between adjacent wires make the modeling of the multi-wire cables difficult [13,15]. Finite element modeling (FEM) techniques have been used to gain insight into ultrasonic wave propagation; nevertheless, as reported by some investigators, modeling of an entire multiple-wire cable is computationally highly demanding [16]. Experimentally, several wave propagation results have been obtained on single wires and entire multiplewire cables using piezoelectric transducers, electromagnetic acoustic transducers (EMAT) and lasers [11, 17-19]. Piezoelectric elements with a ring shape and EMAT transducers have been used to excite guided waves in complete multiple-strands cables. The analysis of ultrasonic signals received in these structures has demonstrated the feasibility of using guided waves to determine damage. Nevertheless, guided wave propagation in long range interwired cylindrical structures is complicated, and many aspects have to be considered in order to develop a pragmatic implementation for damage monitoring [20]. In this work, wave propagation of longitudinal and flexural guided waves modes at 500 kHz in a 0.9m ACSR cable has been studied using longitudinal transducers in a through transmission configuration. The first part presents experimental results obtained using dispersion curves and time-frequency analysis based on the WT for identifying guided wave modes. The second part includes experimental results of artificial gradually increased damage made at the middle of the cable, which were correlated to the change of modes excited and received from F(1,1) to L(0,1). Discussions and conclusions complete this article.

2. Theoretical aspects 2.1. Wave propagation in rods ACSR cables consist of several individual aluminum and steel rods that work as waveguides for ultrasonic waves. However, due to the complicated characteristics such as inter-wire coupling, dispersive nature, multi-mode presence and mode coupling, to the authors´ knowledge, an analytical solution that can describe the wave propagation in these multi-wire cables does not exist. The approach taken to gain insight into the wave propagation in multiple-wire cables is to investigate wave propagation in single wires using a formulation based on the so-called Pochhammer frequency equation of a solid, isotropic, homogenous and traction-free cylindrical rod, which has been discussed in detail by Graff and recently by Rose [21,22]. In general, there are three principal types of guided waves modes that can exist in a cylindrical waveguide: the longitudinal, L(0, m), the torsional, T(0, m), and the flexural, F(M, m) as illustrated in Fig. 1. In theory, there are an infinite number of individual modes within each principal mode, whose phase velocities, Vph, for a given frequency–diameter product, fd, represent permissible solutions to an implicit transcendental equation of the form

Ω M (d , λ , µ , f d , V ph ) = 0

(1)

Where d stands for the diameter of the rod and λ and µ represent its Lamé constants. The index M determines the manner in which the fields generated by the guided wave modes vary with the angular coordinate θ in the cylinder cross-section. Each field component can be considered to vary as

u r = U r (r ) cos( Mθ )e i ( kz −ωt ) uθ = U θ (r ) sin( Mθ )ei ( kz −ωt ) u z = U z (r ) cos( Mθ )e

(2)

i ( kz −ωt )

where the circumferential order M = 0, 1, 2, 3, ... The terms ur, uθ, uz are the displacement components in the radial, circumferential and axial directions, respectively; the terms Ur, Uθ, Uz are the displacement amplitudes composed of Bessel or modified Bessel functions, depending on the argument. All of the modes propagate in the axial direction of a cylindrical waveguide. The acoustic

Figure 1. Guided wave modes in a cylindrical waveguide Source: The authors

227


Mijarez et al/ DYNA 81 (186), pp. 226-233. August, 2014.

fields (i.e. displacement, stress, etc) of the modes when M = 0 are axially symmetric along a cylinder circumference and are independent of the angular coordinate θ. The other modes are non-axisymmetric and have fields which do vary with the angular coordinate θ. The axisymmetric modes comprise both the longitudinal modes, L(0, n), and the torsional modes, T(0, n); the non-axisymmetric modes are represented by the flexural modes, F(M, n). Classifications of velocity dispersion curves, which characterize the solutions to equation (1), are achieved, pragmatically, in terms of a frequency–diameter product, fd, of the waveguide. By solving the equations, via the commercial package Disperse© [23], for these vibration modes with known frequencies, the dispersion curves can be obtained. The dispersion curves relate the velocity, phase velocity (Vph) or group velocity (Vgr), of the guided wave propagation to the frequency of the wave and the diameter of the cylinder. Dispersion curves for an aluminum rod (3.5mm diameter) and a steel rod (2.7mm diameter), respectively, are plotted in Fig. 2. Longitudinal modes are the easiest to generate using conventional wedge type longitudinal transducers and gel coupling, compared to torsional modes, which can only be generated by applying shear forces. In this study, piezoelectric 5.05.0

L(0,1)

L(0,1)

Steel

3.03.0 Vgr (m/s)

Vgr (m/s)

4.04.0

2.02.0

F(1,1)

F(1,1)

1.01.0

500

1000

5.05.0

1500

2500

L(0,1)

Aluminum

4.0

4.0

L(0,2)

3.03.0 Vgr (m/s)

Vgr (m/s)

2500

2000

Frequency (kHz)

L(0,1)

2.02.0

2000

1000Frequency (kHz)1500

500

F(1,3)

F(1,2)

longitudinal transducers, which discard the generation of torsional modes, were used to excite longitudinal and/or flexural modes, depending on the pressure distribution applied to the surface of the cable, for monitoring damage in an ACSR cable. The fundamental longitudinal mode, L(0,1), and the lowest order flexural mode, F(1,1), are the subject of the experimental investigation. An important and complicated aspect of guided waves in multiple-wires cables, due to their multi-mode nature, is to carry out the analysis and identification of the measured signals and their correlation with damage. In this work, a DSP technique using frequency-time analysis, in form of the WT, was employed during the experiments. 2.2. Frequency-time analysis The Fourier transform spectrum allows determining which frequencies are present in a signal; however, it is limited to stationary signals [24]. A serious shortcoming in transforming a signal into the frequency domain is that time information is lost. When looking at a Fourier transform of a signal, it is impossible to resolve when a particular occurrence took place. The continuous wavelet transform (CWT) addresses the general problem of time-frequency analysis and provides the means to analyse non-stationary signals [25]. The CWT evolved as an alternative approach to the short time Fourier transforms (STFT) to overcome the resolution problem. Wavelet analysis is performed in a similar way to the STFT analysis, since the signal is multiplied with a function, i.e. the wavelet, similar to the window function in the STFT, and the transform is computed separately for different segments of the time-domain signal. Nevertheless, the width of the window in the CWT, as opposed to the STFT where the width of this window is constant, is changed as the transform is computed for every spectral component. In general, wavelets are functions defined over a finite interval that possess an average value of zero. The CWT is a tool for dividing functions into components of different frequency, which permit studying each component separately. The basic idea of the CWT is to represent any arbitrary function as a superposition of a set of such wavelets. These wavelets are derived from a single prototype wavelet called the mother wavelet, by dilating or contracting (scaling) the mother wavelet and translating it (shifting). The Continuous Wavelet Transform is defined as the sum over all time of the signal multiplied by scaled, shifted version of the wavelet function, Ψs ,τ (t )

Τ( s,τ ) = ∫ f (t )Ψs*,τ (t )dt

L(0,4)

F(1,1)

F(1,1)

L(0,3) F(1,4)

where * denotes complex conjugation. The wavelets are obtained from a single basic wavelet, the so-called mother wavelet:

1.01.0 F(1,5)

500

500

1000

1500

1000Frequency (kHz) 1500

2000

2000

(3)

2500

2500

Frequency (kHz)

Figure 2. Group velocity dispersion curves of a steel rod 2.7 mm diameter and an aluminum rod 3.5 mm diameter Source: The authors 228

Ψs ,τ (t ) =

1  t −τ  ψ  s  s 

(4)


Mijarez et al/ DYNA 81 (186), pp. 226-233. August, 2014.

Where s is the scale factor, τ is the translation factor and the factor s-1/2 is for energy normalization across the different scales. In this work, the mother Gabor wavelet based on the Gaussian function was used to identify the guided wave modes generated in the experiments and ascertain the manner they correlate with damage by using broad band ultrasonic transducers excited at 500 kHz. The Gabor wavelet formulae and descriptions have been discussed in detail by Suzuki et al. [26]. Continuous time signals that are uniformly sampled at intervals N-1 over [0, 1], where N is the period of the signals, conduce to the discretization of wavelets. The discrete counterpart of equation 3 is obtained by making the scale parameter, s, the translation parameter, τ , and the time, t, discrete and setting s0=2 and τ 0 =1, where s0 and τ 0 are the sampling intervals of s and τ respectively. The discrete wavelet transform (DWT) is thereby given by

DWT (m, n) = 2

−m

2

k

x(k )ψ (2 − m k − n)

(5)

where m and n are integer numbers that scale and shift, respectively, the function ψ, indicating the width (scale) and position of the wavelet correspondingly. As a result, the wavelets are stretched (or contracted) in powers of 2 and shifted as integers. Mallat (1989) presented a work which showed that it is possible to design filters, provided that s=2m and τ =2mn. These filters are arranged in the form of a transformation matrix, which uses two patterns: one acting as smoothing, low pass, filter and the other providing detail information, as a high pass filter. This is referred to as Multiresolution analysis, and may be implemented using the DWT; detailed information is given by Mallat [25]. Multiresolution is based on partitioning a sampled signal into a number of frequency bands using low and high pass filters; the inverse procedure is also possible, which permits signal reconstruction. The partitioning process can be iterated, with successive approximations being decomposed in turn, so that one signal is broken down into many lower resolution components. Therefore, wavelets can be used for noise suppression by means of a technique named the thresholding method. Using multiresolution analysis the wavelets operate as filters, which decompose a signal into approximation, low frequency components, and details, high frequency components. If the amplitudes of the detail components are very low, they can be removed, reducing the noise level without losing significant information. The thresholding method works based on the elimination of the detail components located below a given threshold. These components are used in the inverse matrix transformation that reconstructs the signal, which permits noise removal without smoothing peaks and discontinuities. In this work, signal de-noising was performed via the DWT, to increase the signal to noise ratio (SNR) of guided wave signals transmitted through an ACSR cable.

3. Experiments and results 3.1. Experiment setup A multi-wire ACSR cable commonly found in overhead power transmission lines was used in the experiments. This cable is a concentric conductor configured in strands consisting of a core of seven straight steel wires and twenty six stranded aluminum wires in two layers. Fig. 3a illustrates this with a photograph and a cross-sectional view of the multi-wire cable. The diameter of each aluminum wire is 3.4mm, and the diameter of each steel wire is 2.7mm. Hence, the total diameter of the cable is approximately 22 mm with a length of 0.9 m. The experiment setup is depicted in Fig. 3b. Pulse-echo arrangements have been widely studied by several authors [16,17,21], hence, a pitch and catch arrangement was applied in this approach. Frequency selection, based on dispersion curves of individual aluminum and steel rods that comprise the ACSR cable, was a compromise between damage resolution and the abundance of modes at high frequencies. On the one hand, damage resolution can be increased by operating at high frequencies, but it also reduces the range of propagation due to the increased attenuation and scattering. On the other hand, as shown in Fig. 2, at high frequencies, the profusion of modes increase and it is possible to have several guided wave modes with a single frequency and all of them with different velocities, which complicate its analysis. It can be observed that the only guided wave modes that could be excited below 500 kHz are the longitudinal L(0,1) and the flexural F(1,1) modes. Therefore, with the rods having a constant diameter, the selection of a low fd value, where the number of guided wave modes is reduced, depends on a low frequency. In 3.5 m m diam eter 2.7 m m diam eter AC S R c able c ros s s ec tion view

a)

PC

WT analysis Function generator

Oscilloscope

Amplifier Wave propagation 0-9mm cut

Transducer emitter

0.9m ACSR cable

b)

Transducer receiver

Figure 3. a) Cross sectional view of the ACSR cable used; b) experiment setup, showing artificial damage in the middle of the ACSR cable. Source: The authors

229


Mijarez et al/ DYNA 81 (186), pp. 226-233. August, 2014.

practice, a frequency of 500 kHz was selected during the experiments. Initial trials were carried out to identify the excited guided wave modes. In subsequent experiments, artificial damage was made on the cable by transverse cut (notch) with increasing depth using a handsaw. The notch was made at the middle of the cable, approximately 0.45m, from the transmitter transducer. Cut depth was increased from 1 to 9mm and the width was about 1.77mm; the latter is related to the handsaw thickness. The maximum cross-section area reduction of the cable for the 9mm cut was approximately 40%. The approach taken in this work for guided wave modes identification involved time domain analysis using individual dispersion curves of rods of aluminum and steel 3.5mm and 2.7mm of diameter, respectively, and frequencytime analysis using spectrograms via the CWT and superimposing dispersion curves. Signal de-noising by means of the DWT was also used to enhance SNR and correlate guided wave modes to damage. 3.2. Results in the time domain Fig. 4 shows the time-domain guided wave received signals from undamaged ACSR cable. Time-domain analysis allows estimation of the time of arrival (TOA) of the signal. Considering a 0.9m length of the ACSR cable and estimating the TOA, it was possible to recognize the excited guided wave modes. These are shown in Fig. 4. The group velocities yielded by the software Disperse at 500 kHz for L(0,1) in steel and aluminum rods are 4957.84 m/s and 4397.28 m/s, respectively, and for F(1,1) are 3313.50 m/s and 3223.61 m/s, correspondently. The group velocities obtained using the estimated TOA and its comparison with the group velocities obtained by Disperse allowed the guided wave modes to be identified as shown in Table 1. The identified received modes were predominantly L(0,1). However, some energy was discerned with lower group velocities, most likely F(1,1). It is observed that L(0,1) aluminum signals show more dispersion and lower amplitude, than the L(0,1) signals of steel, which agrees with its dispersion curves. On the other hand, F(1,1) modes exhibit more energy in the aluminum.

Table 1. Identified guided wave modes, using an estimated TOA and Disperse. Calculated Vgr (m/s)

Disperse Vgr (m/s)

0.9

5000

4957.84

0.9

4285.71

4397.28

280

0.9

3214.28

3313.50

295

0.9

3050.84

3223.61

Identified mode

TOA (Âľs)

Length (m)

L(0,1) steel

180

L(0,1) aluminum

210

F(1,1) steel F(1,1) aluminum Source: The authors

Figs. 5 and 6 show the frequency-time domain signals of the guided waves in the undamaged ACSR cable in 3D and 2D respectively. Fig.5 shows the 3D representation of the wavelet coefficients that allow identification of the guided wave modes found in the time domain. The CWT depicts the modes that carry significant energy and the areas where this energy is present within a mode. Fig. 6 shows the frequency-time signals with fundamental group velocity dispersion curves for steel and aluminum rods superimposed. The group velocities have been changed to a time axis using the propagation distance of the guided wave signals. The wavelet contour plot of Fig. 6 shows that most of the guided wave energy is located in two main areas centred at 500 kHz. The former corresponds to generated L(0,1) longitudinal modes, first the L(0,1) mode for steel that is irradiated with the highest energy, and secondly the L(0,1) mode is irradiated for aluminum. The latter corresponds to the two F(1,1) flexural modes; first, the F(1,1) mode for steel that is irradiated with the lowest energy, and afterwards the irradiated F(1,1) mode for aluminum. The CWT results follow with good agreement the theoretical dispersion curves of individual wires, indicating that the L(0,1) mode exhibits more energy for the steel rod, while the F(1,1) reveals more energy for the aluminum rod.

3.3. Results in the frequency domain A CWT with the mother Gabor wavelet based on the Gaussian function was performed using AGU-VallenŠ software to obtain the time-frequency-domain signals [27].

Figure 4. Time domain guided wave signals using the ACSR cable without damage. Source: The authors

Figure 5. Frequency-time domain guided wave signals using the undamaged ACSR cable and its 3D representation of the Wavelet Transform. Source: The authors

230


Mijarez et al/ DYNA 81 (186), pp. 226-233. August, 2014.

Figure 6. Received guided wave signals and its 2D Wavelet Transform with superimposed fundamental group velocities dispersion curves for steel and aluminum rods. Source: The authors

Figure 7. Exponential tendency of the L(0,1) modes in steel and aluminum rods vs. cut depth. Source: The authors

Figure 8. Received guided wave signals and its 2D Wavelet Transform with superimposed fundamental group velocities dispersion curves for steel and aluminum rods for the ACSR cable with 9mm cut depth. Source: The authors

L(0,1) modes, suggesting a mode change excitation and reception from F(1,1) to L(0,1). In the preceding experiments, the SNR at the receiver transducer permitted unambiguous identification of the transmitted signals. Nevertheless, in order to further enhance the SNR of the transmitted guided wave signals, wavelet processing was employed as a technique for removing noise from signals [25]. The reduction of coherent noise using the DWT was implemented using Mallat’s fast algorithm in MatlabŠ [28]. The processing parameters employed were multilevel decomposition of the signal (level 3), global soft thresholding and Daubechies (db1) wavelet type. Fig. 9 depicts the de-noised signal of the guided waves using the DWT, correlating the amplitude change of vibration modes to the degree of damage in the ACSR cable. It is observed that after a cut depth of 6 mm, the two F(1,1) modes practically disappear and only the two L(0,1) modes are excited, suggesting a mode change excitation.

3.4. Results for an ACSR cable with artificial damage In the experiment, artificially induced damage was created at the middle of the ACSR cable by gradually increasing the cut depth from 1mm to 9mm. Experimental results show a relationship between the degree of damage and the received amplitude of the guided wave modes. This relationship, however, shows that an increase in the cut depth produces an increase in amplitude of the L(0,1) modes and a decrease in amplitude of the F(1,1) modes. The energy increase of the L(0,1) modes possess an exponential tendency as shown in Fig. 7. This trend stops at approximately the 9mm cut depth. After that point, the amplitude of the guided wave modes decays as the steel wires are partially being cut off. Received guided wave signals and their 2D CWT with superimposed fundamental group velocity dispersion curves in steel and aluminum rods within the ACSR cable with a 9mm cut depth, is shown in Fig. 8. This CWT result displays a dramatic decrease in the flexural F(1,1) modes and an increase of the longitudinal

Figure 9. Signal de-noised of guided waves using the DWT correlating the amplitude change of vibration modes to the degree of damage in the ACSR cable. Source: The authors

231

The energy in both L(0,1) modes increase with cut


Mijarez et al/ DYNA 81 (186), pp. 226-233. August, 2014.

depth. However, the increment of energy of L(0,1) in aluminum coming from the F(1,1) mode in aluminum is more conspicuous than it is for its steel counterpart as shown in figures 8 and 9 [29]. The mode change effect is attributed to cutting depth of the cable, which not only introduces a discontinuity in the wave propagation, but also produces a loss of tightness in the individual wires that constitute the ACSR cable.

[1]

Chang, F.K., Structural Health Monitoring: Current Status and Perspectives, Lancaster, PA: CRC Press, 1998.

4. Discussion and conclusions

[2]

Meitzler, A.H., Mode coupling occurring in the propagation of elastic pulses in wires. J.Acoust. Soc. Am. 33 (4), pp. 435-45, 1961.

[3]

Zemanek, J., An experimental and theoretical investigation of elastic wave propagation in a cylinder.J.Acoust. Soc. Am. 51(1B), pp. 265– 83, 1972.

[4]

Kwun, H. and Bartels, K.A., Experimental observation of elasticwave dispersion in bounded solids of various configurations. J. Acoust. Soc. Am. 99 (2), pp.962–8, 1966.

[5]

Puckett, A.D. and Peterson, M.L., A semi-analytical model for predicting multiple propagating axially symmetric modes in cylindrical wave guides. Ultrasonics 43 (3), pp. 197-207, 2005.

[6]

Castaings, M. and Lowe, M., Finite element for wave guided along solid systems of arbitrary section coupled to infinite media. J. Acoust. Soc. Am. 123 (2), pp. 696–708, 2008.

[7]

Franco, E, Lowe, M., Meza, J. and Buiochi F., Measurement of elastic properties of materials by the ultrasonic through-transmission technique, Dyna 78 (168), pp. 58-64, 2011.

[8]

Wilcox, P.D., Lowe, M. and Cawley, P., The effect of dispersion on long-range inspection using ultrasonic guided waves, NDT & E International 34 (1), pp. 1-9, 2001.

[9]

Demma, A., Lowe, M.J.S., Cawley, P. and Pavlakovic, B.N., The effect of bends on the propagation of guided waves in pipes, Journal of Pressure Vessel Technology 127 (3), pp. 328-335, 2005.

In this work, damage detection based on guided wave modes conversion in a multi-wire ACSR cable commonly used in transmission lines by electric utilities was investigated, and is proffered as a potential monitoring technique. Frequency selection based on dispersion curves of the individual aluminum and steel rods that comprise the ACSR cable was a tradeoff between damage resolution, which increases with frequency, and the abundance of modes at high frequencies that complicate its analysis and mode identification. From this, a frequency of 500 kHz was selected. Experiments were performed using an ACSR cable 0.9m in length and longitudinal ultrasonic transducer in a through transmission configuration. Guided mode identification was based on dispersion curves and the CWT. The CWT allowed identifying, with good agreement, the excited L(0,1) and F(1,1) modes in time-frequency domain with superimposed fundamental group velocities dispersion curves for steel and aluminum rods. L(0,1) modes were identified with more energy than its F(1,1) counterpart. Artificial damage was introduced at the middle of the ACSR cable by gradually increasing the cut depth from 1mm to 9mm. Using the CWT it was observed that cut depth produces an exponential increase in amplitude of the L(0,1) modes and a decrease of the F(1,1) modes that stops approximately at the 9mm cut depth, when steel wires of the ACSR cable are being cut off. These results suggest a change of excitation modes and reception from F(1,1) to L(0,1) modes. The DWT was also employed to enhance guided wave SNR, correlating the amplitude change of vibration modes to the degree of damage in the ACSR cable. The energy in L(0,1) modes for steel and aluminum rods increased with cut depth. Nevertheless, it was observed that the energy increment in the L(0,1) in aluminum, coming from the F(1,1) mode in aluminum, is more evident than in its steel equivalent. This effect is attributed to the cutting depth of the cable, which not only introduces a discontinuity in the wave propagation, but as the external wires were cut off, the cable structure lost tightness, modifying the degree of mechanical contact among the single wires. Consequently, it could influence how the energy transfers along the cable and among the wires. The trials carried out in this investigation provide substantiation that the change of modes from F(1,1) mode to L(0,1) can be correlated to damage in early stages, and could serve as basis for structural monitoring of this type of cable structures in civil engineering applications. Acknowledgements

The authors wish to express their thanks to the Instituto de Investigaciones Eléctricas (IIE), in Cuernavaca, Morelos, México, for supporting this work. References

[10] Lowe, M.J.S., Alleyne, D.N. and Cawley, P., The mode conversion of a guided wave by a part-circumferential notch in a pipe. J. Appl. Mech. 65 (9), pp. 649–656, 1998. [11] Rizzo, P. and Di-Scalea, F.L., Wave propagation in multiwire strands by wavelet- based laser ultrasound. Exp. Mech. 44 (4), pp. 407–15, 2004. [12] Chen, H-L. and Wissawapaisal, K., Application of Wigner-Ville Transform to evaluate tensile forces in seven-wire prestressing strands. J Eng. Mech. 128 (11), pp.1206–14, 2002. [13] Rizzo, P. and, Di-Scalea, F.L., Ultrasonic inspection of multiwire steel strands with the aid of the wavelet transform. Smart Mater. Struct. 14 (4), pp. 685–95, 2005. [14] Baltazar, A., Hernández, C. and Manzanares-Martinez, B., Study of wave propagation in a multiwire cable to determine structural damage. NDT& E International 43 (8), pp. 726-732, 2010. [15] Treyssède, F., Numerical investigation of elastic modes of propagation in helical waveguides. J. Acoust. Soc. Am. 121 (6), pp. 3398–3408, 2007. [16] Kulkarni, S. and Hurlebaus, S., Nondestructive testing of overhead transmission lines – numerical and experimental investigation, QNDE Chicago, Il, USA, 2008. [17] Rizzo, P. and, Di-Scalea, F.L., Monitoring steel strands via ultrasonic measurements. Proc SPIE 4696, Smart Structures and Materials, pp. 62–73, 2002. [18] Wilson, M. and Hurlebaus, S., Power line monitoring. In: Proceedings of the American control conference, 2007, pp. 231–5.

232


Mijarez et al/ DYNA 81 (186), pp. 226-233. August, 2014. [19] Laguerre, L., Aime, J.C. and Brissaud, M., Magnetostrictive pulseecho device for non- destructive evaluation of cylindrical steel materials using longitudinal guided waves. Ultrasonics 39 (7), pp. 503–14, 2002. [20] Gaul, L., Sprenger, H., Schaal, C. and Bischoff, S., Structural health monitoring of cylindrical structures using guided ultrasonic waves. Acta Mech. 223, pp. 1669–1680, 2012. [21] Graff, K.F., Wave motion in elastic solids. New York: Dover Publications, 1975. [22] Rose, J.L., Ultrasonic waves in solid media. England: Cambridge University Press, 1999. [23] Pavlakovic, B. and Lowe, M., Disperse User Manual: A System for generating dispersion curves, Copyright B Pavlakovic, M Lowe © 2003. [24] Flandrin, P. and Auger, F. E., Chassande-Mottin Time–frequency reassignment: From principles to algorithms, in Applications in Time Frequency Signal Processing, Suppappola, Antonia, CRC Press LLC © 2003. [25] Mallat, S., A Wavelet tour of signal processing, Academic Press, Boston, 1998. [26] Suzuki, H., Kinjo, T., Hayashi, Y., Takemoto, M. and Ono, K., Appendix by Hayashi Y., Wavelet Transform of Acoustic Emission Signals, Journal of Acoustic Emission 14 (2), pp. 69-84, 1996. [27] AGU-Vallen wavelet, Vallen systeme GmbH © 1986-2005. [28] MATLAB version 7.10.0. © The MathWorks Inc., 2010. [29] Mijarez, R. and Baltazar, A., Phenomena investigation of guided waves propagation in a multiple-wire cable with gradually increasing cut depths, nondestructive testing of materials and structures RILEM, Book series Volume 6, © RILEM 2013, pp 155-160. Rito Mijarez. Received a B.Sc. in Electronics and Communication Engineering in 1990 from the Universidad Autonoma de Zacatecas, Mexico, an M,Sc. in Instruments design and application in 1996 from the University of Manchester Institute of Science and Technology (UMIST) in the UK, and his PhD in Electrical and Electronic Engineering in 2006 from the University of Manchester, in the UK. Currently he is a full-time researcher in the Control, Electronica y Comunicaciones Department, at the Instituto de Investigaciones Eléctricas (IIE) and a part-time professor at the Instituto Tecnologico y de Estudios Superiores de Monterrey (ITESM), both located in Cuernavaca Morelos, Mexico. As part of his professional experience, he has worked in a Defence Science and Technology Laboratory (DSTL) project in the UK designing a device for manipulating microparticles using ultrasound; and in Mexico, he has worked in several projects related to the design and implementation of instruments for energy measurements and control. His research interests include: embedded systems and instrumentation, digital signal processing, smart sensors and ultrasonic guided waves. He has published many technical papers and participated in national and international technical conferences; he has

published a technical text book and he has four patents granted. He is recognized as a National Researcher in Mexico by the National Research System (SNI). Arturo Baltazar. Received a BSc. in Mechanical Engineering and an MSc. in Materials Science from the Universidad Michoacana, Mexico, and his PhD in Industrial Welding and System Engineering from the Ohio State University, in the USA. Currently, he is researcher-professor 3B in the División de Robótica y Manufactura Avanzada at the CINVESTAVSaltillo, Mexico. As part of his professional experience, he has participated in several multi-universities international projects related to Nondestructive Evaluation (NDE) of materials using ultrasound and artificial intelligence algorithms. He has published many technical papers and participated in national and international technical conferences. He is recognized as a National Researcher in Mexico by the National Research System (SNI). Joaquin H. Rodríguez-Rodríguez. Received the Mechanical and Electrical Engineer degree from the University of Nuevo Leon at Monterrey, Mexico in 1974, and obtained a MSc. degree in Electrical Engineering from the University of Toronto, Canada in 1980, and his PhD. degree in advanced technology from the Centro de Investigación e Innovación tecnológica CIITEC of IPN in 2011. As part of his professional experience, he worked as a research engineer for Trench Electric Ltd. of Toronto, Canada from 1979 to 1981. He joined the Electrical Research Institute in Mexico as a researcher and head of the telecommunications laboratory, where he developed projects related to electronics, optical fibers and telecommunications systems for the electrical utilities in Mexico from 1982 to 1988. In the last four years, he has been working on MEMS Applications and optical fiber sensors for on-line monitoring of electrical power apparatus. He was professor at ITESM, the Universidad de Morelos and the Center for Research and Technological Development, all in Mexico. He has published many technical papers and participated in national and international technical meetings. He is recognized as a National Researcher in Mexico by the National Research System (SNI). José Ramírez-Niño. He received a BSc. in Mechanical Engineering in 1974 and an MSc. in Electrical and Electronics Engineering in 1980, both from the Universidad Autonoma de Mexico. He began his research activity in 1981 in the Department of Communications of the Division of Control Systems at the Instituto de Investigaciones Eléctricas in Cuernavaca Morelos Mexico. Initially he worked in the signal processing and analysis area, and later in the development of fiber optic terminal equipment area for both carrying the signal and for measuring physical parameters. His specialty is electronic design, instrumentation and signal analysis. He is recognized as a National Researcher in Mexico by the National Research System (SNI). He has been responsible for numerous projects contracted with companies like Comision Federal de Electricidad (CFE), Condumex , SA de CV, Public Transport System (METRO). He received his PhD in Science and Materials Engineering at the Universidad Autonoma de Morelos in 1998. Currently he works in the Unit of Power Equipment in the Division of Electrical Systems and he is responsible for the development of electronic Instrumentation for diagnosis of electrical equipment. He has written twelve international patents and articles, whose technology is currently applied in monitoring over forty power generators of the CFE, the biggest electrical utility in Mexico.

233


Numerical and experimental preliminary study of temperature distribution in an electric resistance tube furnace for hot compression tests Gabriel Torrente-Prato a & Mary Torres-Rodríguez b a b

Departamento de Mecánica, Universidad Simón Bolívar, Venezuela, gtorrente@usb.ve Departamento de Mecánica, Universidad Simón Bolívar, Venezuela, matorres@usb.ve

Received: October 19th, de 2013. Received in revised form: January 24th, 2014. Accepted: February 25th, 2014

Abstract Hot compression tests are performed when jaws, each one with a jacketed section to cool a part of its length, move through a tube furnace at elevated temperatures to compress a metal sample between them, changing the boundary conditions and the temperature distribution inside the furnace during the test. This paper presents a preliminary study about the variation of temperature inside a furnace for hot compression tests, when the jaws are positioned inside it. It also proposes a theoretical simulation to determine the temperature profile in the furnace, which is compared with experimental measurements. Both experimental measurement and simulation showed that the temperature inside the tube furnace for hot compression tests is not uniform. By comparing the simulated values with experimental measurements, it can be concluded that the simulation proposed in this paper is a useful tool which estimates the temperature inside a tube furnace in hot compression tests with an acceptable approximation (error less than 4.73%). Keywords: hot compression tests, electric resistance tube furnaces, temperature distribution, heat balance, convection, radiation.

Estudio preliminar numérico y experimental de la distribución de temperatura en un horno tubular de resistencia eléctrica para ensayos de compresión en caliente Resumen Los ensayos de compresión en caliente se realizan cuando mordazas, refrigeradas en una parte de su longitud, avanzan a través del interior de un horno tubular a temperatura elevada para comprimir una muestra metálica dentro de ellas, ocasionando que las condiciones de frontera y la distribución de temperatura dentro del horno cambien durante el ensayo. Este trabajo presenta un estudio preliminar acerca de la variación de temperatura en el interior de un horno para ensayos de compresión en caliente a medida que las mordazas se posicionan en su interior. Se propone una simulación para determinar teóricamente el perfil de temperatura en el horno, el cual se compara con mediciones experimentales. Los valores experimentales y simulados mostraron que la temperatura dentro del horno para ensayos de compresión en caliente no es uniforme, con una aproximación aceptable (error menor del 4,73%). Se concluye que la simulación propuesta en este trabajo representa una herramienta útil para estimar la temperatura dentro del horno en los ensayos de compresión en caliente. Palabras clave: ensayos de compresión en caliente, horno tubular de resistencia eléctrica, distribución de temperatura, balance de calor, convección, radiación.

1. Introduction Most industrial hot forming processes are developing during the cooling of the material being worked. It is not possible to completely insulate the working material, therefore the forming cannot be performed under adiabatic conditions [1, 2].

Extensive studies of hot forming processes, like rolling, wire drawing, and extrusion show that the temperature is one of the process variables that most affect the mechanical behavior of metals and alloys [3, 4]. Hot compression tests can better describe the mechanical behavior of metals and alloys during hot

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 234-241. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Torrente-Prato & Torres-Rodr鱈guez / DYNA 81 (186), pp. 234-241. August, 2014.

forming operations [4]. This has increased the interest in the study of these tests, for example, those made by Kolmogorov [5] in 1937 and Lutton and Sellar [6] in 1969, and more recently those by Cabrera et al. [7] in 1997, Garcia et al. [8] in 2001, Omar et al. [9] in 2006 and Torrente et al. [2] in 2011. As a result of their studies, they all agree that temperature plays an important role in the mechanical behavior of hot formed materials; therefore, it is of interest to understand the thermal behavior inside furnaces used in hot compression tests. This test involves compressing a sample or metallic specimen between the flat faces of two jaws subjected to a test press. During compression, both the specimen and the uncooled portion of the length the jaws, are inside of tube furnace. To perform the test at high temperatures, the furnace is turned so that the sample reaches the desired temperature, but there are discrepancies between the furnace temperature and that of the specimen, making it difficult to establish a value for the temperature when evaluating the behavior of the compressed metal. Therefore, it is important to use numerical simulation to establish and to predict the variation of the temperature inside the furnace, particularly in the region between the jaws. Fig. 1 shows the experimental setup for hot compression tests in the mechanical properties laboratory of the Simon Bolivar University [2,10]. The study of the temperature profiles inside furnaces has been of interest since they began to be used in the Roman era, but only recently, with the popularization of computers, it has been possible to simulate numerically these profiles. Thesis and articles have developed several numerical simulations to clarify thermal profiles in different furnaces, such as the studies presented by Zhaoa et al. [11], Paulsen et al. [12], Ahanj et al. [13], Cawley et al. [14], and Obregon et al. [15] and the theses of Gomez [16], Lee [17] and Courtin [18]. These works developed numerical and experimental studies on different types of natural convection furnaces used for various applications, none of them used for compression tests. The main difference is that in the present work, refrigerated jaws enter the furnace, modifying the temperature profile inside it. This paper presents a preliminary numerical analysis which aims to study the effect of the distance between the jaws in the temperature distribution inside an electric resistance tube furnace for compression tests. The results are compared with some experimental measurements to validate their approach. 2. Experimental measurements Equipment for performing hot compression tests is shown in Fig. 1 and the experimental setup to measure the temperature, at different points in the furnace for hot compression tests, is shown in Fig. 2. The experimental setup in Fig. 2 shows an electric resistance furnace ATS 速 2961, with a cylindrical body of 25 mm internal radius (R) and 80 mm length (L), whose temperature profile is desired to be established in this work. Also, it shows a detail of the opened furnace and the jaws inside it; these last are solid cylinders of steel AISI H-30 of

Figure 1. Experimental setup for hot compression tests in the Simon Bolivar University. Source: Torrente, G. et al, 2011.

Figure 2. Experimental setup: (a) and (b) K-type thermocouples, (c) multimeter, (d) pyrometer, (e) cooling jacket and (f) jaws. The yellow box shows control volume used in this study. Source: The authors.

15 mm radius and 200 mm length and are used in order to compress metallic samples. These jaws are cooled in order to maintain the temperature in the load cell within its operating range. Therefore, each jaw has a jacketed section of 150 mm length refrigerated with ethylene glycol (Fig. 2e) and a non-jacketed section of 50 mm length (Fig. 2-f); the last section has a radius of 15 mm which can be introduced inside the furnace. Experimental temperature measurements were carried out at two points inside the furnace: in the center of the furnace (Fig. 2-a) and on furnace wall (Fig. 2-b) with a type K Thermocouple, recording the temperature of the furnace center with a multimeter MASTECH 速 MAS-345 (Fig. 2c), and on the furnace wall with a pyrometer TAIE 速 FY400 (Fig. 2-d). The Saws areare centered inside the furnace in order to perform the temperature measurements (Fig. 2-f) with specific separations between them of 80, 60, 40, 20 and 0 mm. Once centered, the furnace is closed and the temperature is set to 1273 K. Then the registration of temperatures is carried out with the multimeter and the

235


Torrente-Prato & Torres-RodrĂ­guez / DYNA 81 (186), pp. 234-241. August, 2014.

pyrometer (Figs. 2-a and 2-d, respectively) for the necessary time until they stabilize at a value. The ambient temperature and that registered at the beginning of the test were both 298 K. Forty measurements were recorded of the temperature in the center and on the furnace wall, for each distance between the jaws, performing each experiment in triplicate. The graphs in Figs. 3 to 5 illustrate some of the curves obtained from experimental temperature measurements made in the center and on the furnace wall when the jaws were separated from each other a distance of 80 mm, 40 mm and 20 mm, respectively. In all of them it is observed a similar behavior, with a rapid rise in temperature to reach the steady state. Fig. 3 shows the results of the tests when the jaws were 80 mm apart. This figure shows the temperature values in the center and on the furnace wall are similar during heating, the temperature on the furnace wall was only 15 degrees higher.

Figure 5. Experimental measurements of the temperature on the wall and in the center of the furnace when the jaws were separated by 20 mm Source: The authors.

Figs. 4 and 5, show that the difference in temperature between the center and the furnace wall increases and that this difference increases as the jaws move closer. For the curves in Fig. 4, the temperature of the furnace wall is 58 K higher than the temperature in the center, while for Fig. 5 this difference increases to 118 K. All of the experimental measurements (Figs. 3, 4 and 5) show that at the beginning of the test, the temperature in the center of the furnace is slightly higher than that of the wall. Later on, the temperature on the wall is higher than in the center, and this remains so, even in steady state. This interesting unsteady behavior was not studied numerically, but is worth noticing that it is possibly due to heat transfer to the still cold wall of the furnace being greater than the heat transfer toward the center of the furnace. 3. Governing equations

Figure 3. Experimental measurements of the temperature on the wall and in the center of the furnace when the jaws were separated by 80 mm Source: The authors.

The finite difference method is used to perform the simulation of the temperature profile, using equations of heat transfer. The simulation was carried out in a control volume of cylindrical geometry, defined by the inner walls of the furnace and half the distance between the jaws (yellow box, Figs. 2 and 6). The Figs. 3, 4, and 5 show that at steady state, after 40 minutes, the distance between the jaws changes the temperature in the center and in the wall of the furnace. In order to clarify how changes the temperature profile inside the furnace with the distance between the jaws, we proposed a numerical simulation. To do this, we used equations to evaluate the values of temperature inside the furnace. 3.1. Heat Balance

Figure 4. Experimental measurements of the temperature on the wall and in the center of the furnace when the jaws were separated by 40 mm Source: The authors.

To determine the temperatures on the boundary of the furnace, we assumed that: 1) the furnace has reached steady state, 2) the interaction of the system with the environment is closed, 3) the temperature of the furnace wall is uniform, and 4) the environment is a heat reservoir, and its temperature is ambient. The temperatures of the furnace

236


Torrente-Prato & Torres-Rodríguez / DYNA 81 (186), pp. 234-241. August, 2014.

wall TP, the average temperature in the furnace TH, and the jaws temperature TM, were determined according to the eq. (1)-(3). (1)

hPH ⋅ (TP − TH ) ⋅ AH = hHM ⋅ (TH − TM ) ⋅ A1  T −T = Q  P a  Res

and then the values of hHM and hPH were recomputed according to eq. (5)-(9) listed below. The three temperatures were recomputed with the new values of hHM and hPH, until that the temperature values do not change with further calculation. 3.2. Temperature profile

  ⋅ Ae + hW (TM − Ta ) ⋅ A2 

(2)

hW ⋅ (TM − Ta ) ⋅ A2 = hHM ⋅ (TH − TM ) ⋅ A1

After determining the temperatures on the jaws and the walls of furnace, we proceeded to simulate the temperature profile inside the furnace by means of the balance of heat, eq. (10), and its boundary conditions, eq. (11)-(12). In this heat balance, it was assumed that the system is closed, with axial symmetry, without variation in the angular direction and steady state. The control volume considered is the space confined by the inner wall of the tubular furnace and half the height between the jaws (z = Z/2). The origin is considered to be at the center of one of the jaws (see the yellow box in Figs. 2 y 6). The system of equations (eq. 10-12) is solved by finite difference, applying the algorithm of Thomas, where TP, TM, and TH were already calculated with the eq. (1)-(3) and T|Z = 0 was determined with eq. (13).

(3)

Eq. (1) means that the heat transmitted from the inner walls of the furnace toward its center, escapes through the jaws. In Eq. (2) heat generated by the resistance of the furnace travels to the environment by the outer walls of the furnace and by the cooling system of the jaws. Eq. (3) means that heat transmitted to the jaws is the same exiting the jacketed length of the jaws. We assume that Q is equal to the energy consumed by the resistance (value provided by the manufacturer and is equal to 550 watts), Ae is the equivalent area of heat loss in  the furnace walls defined by 2πreL; the coefficient of forced  convection between the jaw and coolant is hW and the  thermal resistance of the walls of the furnace is Res: = Nu 0.825 +

  

  re    Ln  R  1  R es re  = +  ha ⋅ re   Kr  

= K 44.723 TH + 15598  g ⋅ mm 3   s K  hH =

Not jacketed length jaw

L=80 mm

Tube furnace

Control Volume

re=77.5 mm

2

(5)

(4)

R and re are shown in Fig. 6. To determine the coefficients of effective convection, we assumed the same values for hHM and hPH, and we perform the next iteration inside the furnace: we calculate the three temperatures, TP, TH and TM with eq. (1)-(3),

R=25 mm

  0.387 Ra 0.167  0.563 0.296    0.492    1 +  Pr       

Non jacketed length jaw

Figure 6. Schematic figure of the tubular furnace, the lengths of the jaws without jacket and volume control used in the study Source: The authors.

KNu 2R

(6)

(7)

hPH= hH + εσ

TP4 − TH4 TP − TH

(8)

hHM= hH + εσ

TH4 − TM4 TH − TM

(9)

K is the thermal conductivity of the air inside the furnace, according to Kreith [19]. Petter et al. [20], Torrent et al. [21] and Obregon et al. [15] have already used the eq. (10), heat balance, to determine the profile of temperature of a gas confined in a cylindrical geometry. The values considered for the boundary conditions were: along the axis of the furnace the temperature takes the minimum values (eq. 11) and the temperature in the vicinity of the wall of the furnace is approximate to the temperature on the furnace wall (eq. 12).

237


Torrente-Prato & Torres-Rodríguez / DYNA 81 (186), pp. 234-241. August, 2014.

1 ∂ ∂ ( ρ CP rVT ) = ( ρ CPUT ) + ∂z r ∂r  ∂  ∂T  1 ∂  ∂T    ∂z  K ∂z  + r ∂r  Kr ∂r   + (10)      2   ∂U 2  ∂V   + η η       ∂z     ∂r 

∂T ∂r T

=0

(11)

r =0

r=R

= TP

(12)

The temperature inside the furnace, when the jaws are closed (Z = 0), was determined by the balance of eq. (13).

T =z

0;=r r

K ⋅ TH + hHM ⋅ TM = ∆z K + hHM ∆z

(13)

The heat balance (eq. 10) takes into account the transfer of heat due to velocity and temperature profiles inside furnace. The velocity profile inside the furnace was determined using the relationship of Navier-Stokes (eq. 14) in cylindrical coordinates, the state equation of an ideal gas and as a boundary condition it was assumed that the velocity is zero at the walls of the furnace, and it presents a maximum on the axis. This boundary condition has been used by Torrente et al. [2] and Cuadrado et al. [26].

  

(V ⋅∇ )V ρ =

   

1   3 

Figure 7. Temperature profile in the furnace when the jaws are spaced at a distance of 80 mm Source: The authors.

η∇  ∇V + ∇ ⋅ V  + ρ g − ∇P

Figure 8. Temperature profile in the furnace when the jaws are separated by a distance of 40 mm Source: The authors.

(14)

The value considered for viscosity, η, in the equations (10) and 14, is 0.0000175 [g/mm*s]. The Navier-Stokes Equation (eq. 14) has been used to determine velocity in free convection furnaces, for example, in research conducted by Gomez et al. [16], Courtin et al. [18], Lee et al. [17], Cawley et al. [14], and Obregón et al. [15] . To solve the differential equation (eq. 14) we used the finite difference method and with the state equation of ideal gas and its boundary condition, we obtained three tridiagonal matrices. These three tridiagonal matrices were resolved simultaneously with the Thomas Algorithm to obtain the three components of the velocity profile. 4. Simulation results

Figure 9. Temperature profile in the furnace when the jaws are separated by a distance of 20 mm Source: The authors.

The results of the simulation in Figs. 7, 8 and 9 show that the temperature inside the furnace is not uniform, being colder near the refrigerated jaws (height = 0 mm) and at the axis of the furnace (radius=0 mm) and warmer near the walls of the furnace (radius=25 mm).

Fig. 7 shows that the highest temperature of the furnace is recorded at a height of 40 mm and a radius of 25 mm, just right on the inner wall of the furnace. This same figure also shows that at a height of 40 mm, right in the middle of the

238


Torrente-Prato & Torres-Rodríguez / DYNA 81 (186), pp. 234-241. August, 2014.

two jaws, there is a difference in temperature of 119 K between the center (around 1113 K) and the wall of the furnace (approximately 1232 K); in the vicinity of the jaws it is observed that the difference in temperature between the same points is similar. The difference observed between the furnace inner walls toward its interior becomes more abrupt in the vicinity of the jaws (height = 0 mm), because the temperature on walls of the furnace was assumed to be constant and the jaws are refrigerated. When the jaws move towards the inner of the furnace, the temperature inside it decreases as might be expected, since a cooled body is being introduced inside the furnace (Figs. 8 and 9). Another feature that can be seen by comparing Figs. 8 and 9 with Fig. 7, is that as the jaws advance towards the inside of the furnace, the difference in temperature between the furnace wall and the center increases, from a difference of 119 K, with 80 mm clearance between the jaws, to 350 K and 400 K, for 40 mm and 20 mm of separation, respectively; this is also appreciated in experimental measurements, although in lesser magnitude (see Figs. 3, 4 and 5). This discrepancy is because the simulation determines the temperature of the furnace and not the temperature measured by the thermocouple, for which the heating by radiation experimented by the thermocouple must be considered; this correction can be seen in eq. (15). Boundary conditions similar to those used in this work, were used by Paulsen et al. [12] in their investigation, in which the temperature of the wall of the heating cylinder was 100°C and the temperature the gas at the entrance of the heating cylinder was at room temperature. It is worth noting that their heating system was used for a different function, as an organic particle nebulizer. Without neglecting the differences in the magnitudes of temperature between the work of Paulsen et al. [12] and this study, the behavior of temperature profiles determined in both studies (Figs. 7, 8 and 9) are very similar. Hipolito [22] in his thesis also presented twodimensional temperature profiles, this time for a cylindrical furnace used in pyrolysis for biomasses. The behavior of the temperature profile in his work is also similar to those obtained in this work, with the difference that the furnace of Hipolito [22] was considered opened, with a slight current of ambient temperature air entering the furnace. His conclusions are consistent with the results obtained in this work: as it moving away from the ends of the furnace, the decrease of the temperature in the radial direction is less abrupt. Hipolito [22] determined these profiles using ANSYS FLUENT CFD®. In this work the simulation was conducted in finite difference, generating the mesh with the Thomas algorithm and using Visual Basic. 5. Experimental comparisons To compare the simulated values of temperature inside the furnace with those measured experimentally, it was necessary to estimate the temperature that the thermocouple should have registered, TTr (Tc.Sm.Tr in Fig. 10), due to radiation between the furnace and the thermocouple, with Tc= T|z=L/2, r=0, from eq. (15) [19].

Figure 10. Comparison between experimental measurements (Tc.Exp) and values simulated (Tc.Sm) of temperature in the center of furnace; experimental measurements (Tp.Exp) and values simulated (Tp.Sm) of temperature on walls furnace; and values predicted of temperature recorded in the furnace considering radiation between the furnace and the thermocouple (Tc.Sm.Tr) Source: The authors.

hHM (Tc − TTr= ) εσ (TTr4 − TP4 )

(15)

The value considered for emissivity, ε, in the eq. (15), is 0.7. This value for oxidized steel is between 0.6 and 0.95 [24] The simulated values of the temperature in the center of furnace (Tc.Sm) were compared with the corrected values of temperature (TTr in eq. 15) that should be recorded by the thermocouple (Tc.Sm.Tr) and those measured experimentally (Tc.Exp). These values are presented in Fig. 10. It is important to note that theoretically the temperature in the center of the furnace (T|z=L/2;r=0=Tc.Sm.) is not the same that can be registered with a thermocouple (Tc.Sm.Tr), and this difference increases with the separation between jaws. This difference is minor when the jaws are in the center of the furnace (see Fig. 10). The differences between the simulated values and the experimental measurements of temperatures inside the furnace were expected, because in the simulation we calculated only the temperature of the air inside the furnace (T in eq. 10). However, the thermocouple inside the furnace is heated by radiation from the electric resistance at the furnace wall, therefore, the temperature of the thermocouple is higher than the air inside the furnace, (eq. 15). Fig. 10 shows that the difference between the temperatures simulated in the center (Tc.Sm) and on the wall (Tp.Sm.) of the furnace is greater when the jaws are separated from each other. The temperature values obtained from the simulation are close to experimental measurements (see Fig. 10), taking into account the assumptions that were used to simplify calculations in the simulation: steady state, closed system, continuous power of 550 Watts to the resistance, and that the temperature of the jaws and the coefficient of effective convection are uniform.

239


Torrente-Prato & Torres-Rodríguez / DYNA 81 (186), pp. 234-241. August, 2014.

When comparing the values of temperature of the furnace wall measured experimentally (Tp.Exp. Fig. 10) with those obtained theoretically in the simulation (Tp.Sm. Fig. 10), it can be seen that only at a point, at 20 mm separation between the jaws, the results of the simulation are 33.11 K above the value measured experimentally, which represents an error of 3.18%; in all other cases, the simulation results predict satisfactorily the experimental values. In the case of temperatures in the center of the furnace, the prediction of the simulations, when radiation between the furnace and the thermocouple is considered, is satisfactory up to 40 mm separation of the jaws, from there, the difference between the experimental and simulated values (which the thermocouple should register) increases. Over 40 mm of clearance between the jaws, the maximum discrepancy was found to be as 60 mm of separation, the temperature recorded experimentally (Tc.Exp. Fig. 10) being 50.76 K greater than what the thermocouple should register (Tc.Sm.Tr Fig. 10), which is equivalent to a maximum error of 4.73%. Based on these results, the proposed simulation could be a useful tool to predict, with an acceptable approximation, the temperature of compression test specimens up to 40 mm length and diameters smaller to 26.67 mm, according to the standard ASTM E209 [23]. 6. Conclusions In the heating system for hot compression testing, jaws should be refrigerated in order to maintain the temperature in the load cell within its operating range. This produces heat loss by the jaws and makes the values of temperature in their vicinity lower than in the rest of the furnace. This behavior generates a peculiar temperature profile inside the furnace, the temperature being lower in the center than on the walls. When the jaws are farther from the center of the furnace, the temperature in its interior will be greater and the decrease in temperature in the radial direction will be less. The simulation that is proposed in this paper represents a useful tool which can be used to estimate, with an acceptable approximation (less than the 4.73% error), the temperature inside the furnace during hot compression tests. Nomenclature Ae AH A1 A2 Cp ha hH hHM hPH hW

Equivalent area for loss of heat in the furnace wall (2πreL) [mm2] Area of wall inner furnace [mm2] Area of jaws in the inner furnace [mm2] Area of the refrigerated jaws [mm2] Heat capacity at constant pressure of the air inside the furnace (0.9953+0.0001525*T mm2/s2K) Natural convection coefficient of air to room temperature [ha=K*Nu/(2R)] [Kg/s3K] Coefficient of free convection inside the furnace [Kg/s3K] Coefficient of convection effective between furnace and the jaws [Kg/s3K] Coefficient of convection effective between furnace and its wall [Kg/s3K] Convection forced coefficient of refrigerated jaws [Kg/s3K]

Thermal conductivity of the air inside the furnace (692000 g*mm/s3K) Kr Thermal conductivity of the wall the furnace [g*mm/s3K] L Length of the furnace [mm] Nu Nusselt number [dimensionless number] Pr Prandtl number [dimensionless number] Q Heat consumed by the resistance (voltage current) [W] R Internal radius of the furnace [mm] Ra Rayleigh number [dimensionless number] re Outer radius of the furnace [mm] Res Thermal resistance of the furnace wall [s3K /Kg] T Temperature of gas inside of furnace [K] Ta Room temperature (300 K) [K] Tc Values of temperature registered by thermocouple in the center of furnace [K] Tc.Exp. Experimental measurements of temperature registered by thermocouple in the center of furnace [K] Tc.Sm. Values simulated of temperature in the center of furnace [K] Tc.Sm.Tr. Values predicted of temperature recorded in the furnace considering radiation between the furnace and the thermocouple [K] TH Average temperature inside furnace [K] TM Jaws temperature [K] TP Temperature of the furnace wall [K] Tp.Exp. Experimental measurements of temperature of the furnace walls [K] Tp.Sm. Simulated temperature of the furnace walls [K] TTr Predicted temperature recorded by the thermocouple inside the furnace [K] U Axial component of the velocity the air inside the furnace V Radial component of the velocity of the air inside the furnace Density of air inside the furnace [Kg/m3] ρ Viscosity (0,0000175 g/mm*s) η Emissivity (0.7) [dimensionless number] ε Stefan-Boltzmann constant [W/m2K4] σ *Emissivity of oxidized steel is between 0.6 and 0.95 [24] *η and K from [19] and Cp from [25] K

Acknowledgment The authors would like to thank the Dean of Research and Development of the Universidad Simon Bolivar (DID), the Laboratory E, Eng. Luis Sanoja and Prof. Armando Blanco.

References [1]

Kalpakjian, S. y Schimd S. R., Manufactura, ingeniería y tecnología, Mexico, Pearson Educación, 2008.

[2]

Torrente, G., Torres, M. y Sanoja, L., Efecto de la velocidad de deformación en la recristalización dinamica de un cobre ETP durante su compresión en caliente con temperatura descendente, Rev. Metal. Madrid., 47 (6), pp 485-496, 2011.

[3]

Wang, Y., Zhou, Y. and Xia, Y., A constitutive description of tensile behavior for brass over a wide range of strain rates. Mater. Sci. Eng. A., 372, pp. 186-190, 2004.

[4]

Jin, N., Zhang, H., Han, Y., Wu, W., and Chen, J., Hot deformation behavior of 7150 aluminum alloy during compression at elevated temperature, Mater. Charact., 60, pp. 530-536, 2009.

[5]

Kolmogorov, A., A statistical theory for the recrystallisation of metals, Izv Akad Nauk SSSR, Ser. Matem., 3, pp. 355-359, 1937.

[6]

Luton, M. and Sellar, C., Dynamic recrystallization in nickel and nickel-iron alloys during high temperature deformation, Acta. Metall., 17, pp. 1033-1043, 1969.

[7]

Cabrera, J. M., Omar, A. y Prack, J., Simulación de la fluencia en caliente de un acero microaleado con un contenido medio de

240


Torrente-Prato & Torres-Rodríguez / DYNA 81 (186), pp. 234-241. August, 2014. carbono. II parte. Recristalización dinámica: Inicio y cinética, Rev. Metal. Madrid, 33, (3), pp. 143-152, 1997. [8]

García, V., Wahabi, M., Cabrera, J.M., Riera, L. y Prado, J. M., Modelización de la deformación en caliente de un cobre puro comercial, Rev. Metal. Madrid, 37, 2001, pp. 177-183.

[9]

Omar, A., Chenaoui, A., Dkiouak, R. y Prado, J. M., Aproximación al control de la microestructura de dos aceros microaleados con contenido medio de carbono en condiciones de conformado en caliente, Rev. Metal. Madrid, 42, pp. 103-113, 2006.

[10] Sanoja, L., Estudio experimental de la recristalización dinámica del cobre durante compresión en caliente, Tesis, Departamento de Ciencia de los Materiales, Universidad Simón Bolívar, 2011. [11] Zhao, X.L., Ghojel, J., Grundy, P. and Han, L. H., Behavior of grouted sleeve connections at elevated temperatures, Thin-Walled Struc., 44 (7), pp. 751-758, 2006. [12] Paulsen, D., Weingartner, E., Alfarra, M.R. and Baltensperger, U., Volatility measurements of photochemically and nebulizergenerated organic aerosol particles, J. Aerosol Sci., 37 (9), pp. 10251051, 2006. [13] Ahanj, M., Rahimi, M. and Alsairafi., A., Heat Mass Transfer, CFD modeling of a radiant tube heater, Inter. Commun., 39 (3), pp. 432438, 2012. [14] Cawley, M. and Mcbride, P., Flow visualization of free convection in a vertical cylinder of water in the vicinity of the density maximum, Inter. J. Heat Mass Transfer, 47, pp. 1175-1186, 2004. [15] Obregon, S., Molina, V. y Salvo, N., Simulación de conveccion natural en recintos cerrados, Av. Energ. Renov. Medio Ambient., 9, pp. 885-890, 2005. [16] Gomez, R., Determinación de un perfil de temperatura de un horno de mufla mediante COMSOL 3.2, Tesis, Universidad Autónoma del Estado de Hidalgo, Mexico, 2007. [17] Lee, A., Numerical investigation of the temperature distribution in a industrial oven, Thesis, Faculty of Enginnering and Surveying, University of Southern Queensland, Australia, 2004. [18] Courtin, S., Simulacion bidimencional de la conveccion natural en cavidades cuadradas de paredes horizontales perfectamente conductoras con alto numero de rayleigh, Tesis, Facultad de Ciencias Físicas y Matemáticas, Universidad de Chile, Chile, 2006.

[20] Kaczmarski, K., Kostka, J., Zapała, W. and Guiochon, G., Modeling of thermal processes in high pressure liquid chromatography: I. Low pressure onset of thermal heterogeneity, J. Chromatogr. A, 1216 (38), pp. 6560-6574, 2009. [21] Torrente, G., Puerta, J. and Labrador, N., Two-temperature single flow modelo of a thermal plasma reactor in fluidized bed sisted by magnetic mirror, Phy. Scr., T131, pp. 1-5, 2008. Available at: http://iopscience.iop.org/1402-4896/2008/T131/014010/pdf/14024896_2008_T131_014010.pdf [22] Hipólito, H., Caracterización y modeloamiento del perfil de temperatura al interior de un horno de pirolisis para biomasa, Tesis, Facultad de Minas,Universidad Nacional de Colombia, Sede Medellin, Colombia, 2009. [23] ASTM, Standard E-209-00, Standard practice for compression tests of metallic materials at elevated temperatures with conventional or rapid heating rates and strain rates, 03.01, ASTM International, 2010. [24] RAYTEC, Emissivity values for metals [view, 02/04/2014]. Available at: http://www.raytek.com/Raytek/enr0/IREducation/EmissivityTableM etals.htm [25] DeHoff, R, Thermodynamics in materials science, Second Edition, Taylor and Francis Group, 2006. [26]

Cuadrado, I., Cadavid, F., Agudelo, J. y Sánchez, C., Modelado de flujo compresible unidimensional y homoentropico por el método de volúmenes finitos, DYNA, 75 (155), pp. 199-210, 2008

G. J. Torrente-Prato, received the Bs. Eng in Material Engineering in 2000, the MSc degree in Material Engineering in 2004, and the PhD degree in Engineering in 2009, all of them from the Universidad Simon Bolivar. Caracas, Venezuela. He is Professor in the Mechanical Department, Universidad Simón Bolívar. His research interests include: simulation and modeling of fluids and solids. M. Torres-Rodríguez, received the Bs. Eng in Material Engineering in 1986 and the MSc degree in Material Engineering in 1991, all of them from the Universidad Simon Bolivar. Caracas, Venezuela. She is a Full Professor in Mechanical Department of the Universidad Simon Bolivar. Her research interests include mechanical properties and manufacturing processes.

[19] Kreith, F., Principios de Transferencia de calor, Herrero Hermanos Sucesores S. A., Mexico, 1970.

241


Attaining multiple dispatch in widespread object-oriented languages Francisco Ortin a, Jose Quiroga b, Jose M. Redondo c & Miguel Garcia d a Computer Science Department, University of Oviedo, Spain, ortin@uniovi.es Computer Science Department, University of Oviedo, Spain, quirogajose@uniovi.es c Computer Science Department, University of Oviedo, Spain, redondojose@uniovi.es d Computer Science Department, University of Oviedo, Spain, garciarmiguel@uniovi.es b

Received: October 23th, de 2013. Received in revised form: April 28th, 2014. Accepted: May 22th, 2014

Abstract Multiple dispatch allows determining the actual method to be executed, depending on the dynamic types of its arguments. Although some programming languages provide multiple dispatch, most widespread object-oriented languages lack this feature. Therefore, different implementation techniques are commonly used to obtain multiple dispatch in these languages. We evaluate the existing approaches, presenting a new one based on hybrid dynamic and static typing. A qualitative evaluation is presented, considering factors such as software maintainability and readability, code size, parameter generalization, and compile-time type checking. We also perform a quantitative assessment of runtime performance and memory consumption. Keywords: Multiple dispatch; multi-method; dynamic binding; reflection; method overload; hybrid typing.

Aproximaciones para obtener multi-métodos en los lenguajes orientados a objetos más extendidos Resumen Los multi-métodos seleccionan una de las implementaciones de un método sobrecargado, dependiendo en el tipo dinámico de sus argumentos. Aunque existen lenguajes que soportan multi-métodos, la mayoría de los lenguajes más extendidos no ofrecen esta funcionalidad. Por ello, es común ver el uso de distintos mecanismos auxiliares para obtener su funcionalidad. En este artículo evaluamos las alternativas existentes y presentamos una nueva basada en lenguajes con tipado híbrido. Una primera evaluación cualitativa analiza factores como la mantenibilidad, legibilidad, tamaño del código fuente, generalización de los parámetros y comprobación estática de tipos. También presentamos una evaluación cuantitativa del rendimiento en tiempo de ejecución y consumo de memoria. Palabras clave: Multi-métodos; enlace dinámico; reflexión; sobrecarga de métodos; tipado híbrido.

1. Introduction Object-oriented programming languages provide dynamic binding as a mechanism to implement maintainable code. Dynamic binding is a dispatching technique that postpones the process of associating a message to a specific method until runtime. Therefore, when the toString message is passed to a Java object, the actual toString method called is that implemented by the dynamic type of the object, discovered by the virtual machine at runtime. Although dynamic binding is a powerful tool, widespread languages such as Java, C# and C++ only support it as a single dispatch mechanism: the actual method to be invoked depends on the dynamic type of a single object. In these languages, multiple-dispatch is simulated by the programmer

using specific design patterns, inspecting the dynamic type of objects, or using reflection. In languages that support multiple-dispatch, a message can be dynamically associated to a specific method based on the runtime type of all its arguments. These multipledispatch methods are also called multi-methods [1]. For example, if we want to evaluate binary expressions of different types with different operators, multi-methods allow modularizing each operand-operator-operand combination in a single method. In the example C# code in Fig. 1, each Visit method implements a different kind of operation for three concrete types, returning the appropriate value type. As shown in Fig. 2, the values and operators implement the Value and Operator interface, respectively. Taking two Value operands and an Operator, a multi-method is

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 242-250. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Ortin et al / DYNA 81 (186), pp. 242-250. August, 2014. public class EvaluateExpression { // Addition Integer Visit(Integer op1, Double Visit(Double op1, Double Visit(Integer op1, Double Visit(Double op1, String Visit(String op1, String Visit(String op1, String Visit(Value op1, // EqualsTo Bool Visit(Integer op1, Bool Visit(Double op1, Bool Visit(Integer op1, Bool Visit(Double op1, Bool Visit(Bool op1, Bool Visit(String op1,

AddOp AddOp AddOp AddOp AddOp AddOp AddOp

op, op, op, op, op, op, op,

EqualToOp EqualToOp EqualToOp EqualToOp EqualToOp EqualToOp

Integer op2) Integer op2) Double op2) Double op2) String op2) Value op2) String op2)

op, op, op, op, op, op,

{ { { { { { {

Integer op2) Integer op2) Double op2) Double op2) Bool op2) String op2)

return return return return return return return

{ { { { { {

return return return return return return

new new new new new new new new new new new new new

Integer(op1.Value + op2.Value); } Double(op1.Value + op2.Value); } Double(op1.Value + op2.Value); } Double(op1.Value + op2.Value); } String(op1.Value + op2.Value); } String(op1.Value + op2.ToString()); } String(op1.ToString() + op2.Value); } Bool(op1.Value == op2.Value); } Bool((int)(op1.Value) == op2.Value); } Bool(op1.Value == ((int)op2.Value)); } Bool(op1.Value == op2.Value); } Bool(op1.Value == op2.Value); } Bool(op1.Value.Equals(op2.Value)); }

// And Bool Visit(Bool op1, AndOp op, Bool op2) { return new Bool (op1.Value && op2.Value); } // The rest of combinations Expression Visit(Value op1, Operator op, Value op2) { return null; } }

Figure 1. Modularizing each operand and operator type combination. The authors

able to receive these three parameters and dynamically select the appropriate Visit method to be called. It works like dynamic binding, but with multiple types. In our example, a triple dispatch mechanism is required (the appropriate Visit method to be called is determined by the dynamic type of its three parameters). Polymorphism can be used to provide a default behavior if one combination of two expressions and one operator is not provided. Since Value and Operator are the base types of the parameters (Fig. 2), the last Visit method in Fig. 1 will be called by the multiple dispatcher when there is no other suitable Visit method with the concrete dynamic types of the arguments passed. An example is evaluating the addition (AddOp) of two Boolean (Bool) expressions. In this paper, we analyze the common approaches programmers use to simulate multiple dispatching in those widespread object-oriented languages that only provide single dispatch (e.g., Java, C# and C++). To qualitatively compare the different alternatives, we consider factors such as software maintainability and readability, code size, parameter generalization, and compile-time type checking. A quantitative assessment of runtime performance and memory consumption is also presented. We also present a new approach to obtain multiple dispatch in languages that provide hybrid dynamic and static typing, such as C#, Objective-C, Boo and Cobra. This alternative provides high maintainability and readability, requires reduced code size, allows parameter generalization, and performs significantly better than the reflective approach. In contrast, it requires 31% more memory resources than the other alternatives. The rest of this paper is structured as follows. In Section 2, the common approaches to obtain multi-methods in widespread object-oriented programming languages are presented and qualitatively evaluated. Section 3 presents a new approach for hybrid typing languages, and a comparison with the previously analyzed systems. Section 4 details the runtime performance and memory consumption evaluation. Conclusions and future work are presented in Section 5. 243

2. Common approaches 2.1. The Visitor design pattern The Visitor design pattern is a very common approach to obtain multiple dispatch in object-oriented languages that do not implement multi-methods [2]. By using method overloading, each combination of non-abstract types is implemented in a specific Visit method (Fig. 1). Static type checking is used to modularize each operation in a different method. The compiler solves method overloading by selecting the appropriate implementation depending on the static types of the parameters. Suppose an n-dispatch scenario: a method with n polymorphic parameters, where each parameter should be dynamically dispatched considering its dynamic type (i.e., multiple dynamic binding). In this n-dispatch scenario, the n parameters belong to the H1, H2‌ Hn hierarchies, respectively. Under these circumstances, there are potentially âˆ?đ?‘›đ?‘›đ?‘–đ?‘–=1 đ??śđ??śđ??śđ??śđ?‘–đ?‘– Visit methods, CCi being the number of concrete (non-abstract) classes in the Hi hierarchy. Using polymorphism, parameters can be generalized in groups of shared behavior (base classes or interfaces). An example of this generalization is the two last addition methods in Fig. 1. They generalize the way strings are concatenated with any other Value. This feature that allows grouping implementations by means of polymorphism is the parameter generalization criterion mentioned in the previous section. As shown in Fig. 2, the Visitor pattern places the Visit methods in another class (or hierarchy) to avoid mixing the tree structures to be visited (Value and Operator) with the traversal algorithms (Visitor) [3]. The (single) dispatching mechanism used to select the correct Visit method is dynamic binding [2]. A polymorphic (virtual) method must be declared in the tree hierarchy, because that is the hierarchy the specific parameter types of the Visit methods belong to. In Fig. 2, the Accept method in Value provides the multiple dispatch. When overriding this method in a


Ortin et al / DYNA 81 (186), pp. 242-250. August, 2014.

+ + + + + + + + + + + + +

ÂŤinterfaceÂť

ÂŤinterfaceÂť

Value

Operator

Accept(Operator, Value, Visitor) : Value Accept3(Integer, AddOp, Visitor) : Value Accept3(Double, AddOp, Visitor) : Value Accept3(String, AddOp, Visitor) : Value Accept3(Bool, AddOp, Visitor) : Value Accept3(Integer, EqualToOp, Visitor) : Value Accept3(Double, EqualToOp, Visitor) : Value Accept3(String, EqualToOp, Visitor) : Value Accept3(Bool, EqualToOp, Visitor) : Value Accept3(Integer, AndOp, Visitor) : Value Accept3(Double, AndOp, Visitor) : Value Accept3(String, AndOp, Visitor) : Value Accept3(Bool, AndOp, Visitor) : Value

+ + + +

ÂŤinterfaceÂť Visitor

Accept2(Integer, Value, Visitor) : Value Accept2(Double, Value, Visitor) : Value Accept2(String, Value, Visitor) : Value Accept2(Bool, Value, Visitor) : Value

EqualToOp

+ + +

Visit(Integer, AddOp, Integer) : Integer Visit(Integer, AddOp, Double) : Double Visit(Double, AddOp, Integer) : Double ‌

AddOp

‌

‌

EvaluateVisitor

AndOp Bool +

Double

Value: bool

+

‌

Value: double ‌

String +

+ Accept2(op1:Integer,op2:Value,v:Visitor):Value

‌

Value: string ‌

+ + +

Visit(Integer, AddOp, Integer) : Integer Visit(Integer, AddOp, Double) : Double Visit(Double, AddOp, Integer) : Double ‌

return op2.Accept3(op1, this, v);

Visitor Hierarchy

Integer return op.Accept2(this, op2, v);

+

Value: int

+ +

Accept(op:Operator, op2:Value, v:Visitor) : Value Accept3(op1:Integer, op:AddOp, v:Visitor):Value

return v.visit(op1, op, op2);

Tree Hierarchy Figure 2. Multiple dispatch implementation with the statically typed approach (ellipsis obviates repeated members). Source: The authors

concrete Value class, the type of this will be non-abstract, and hence the specific dynamic type of the first parameter of Visit will be known. Therefore, by using dynamic binding, the type of the first parameter is discovered. This process has to be repeated for every parameter of the Visit method. In our example (Fig. 2), the type of the second operand is discovered with the Accept2 method in Operator, and Accept3 in Value discovers the type of the third parameter before calling the appropriate Visit method. In this approach, the number of AcceptX method implementations grows geometrically relative to the dispatch dimensions (i.e., the n in n-dispatch, or the number of the Visit parameters). Namely, for H1, H2‌ Hn hierarchies of the corresponding n parameters in Visit, đ?‘–đ?‘– the number of Accept methods are 1+∑đ?‘›đ?‘›âˆ’1 đ?‘–đ?‘–=1 âˆ?đ?‘—đ?‘—=1 đ??śđ??śđ??śđ??śđ?‘—đ?‘— . Therefore, the code size grows geometrically with the number of parameters in the multi-method. Additionally, declaring the signature of each single AcceptX method is error-prone and reduces its readability. Adding a new concrete class to the tree hierarchy requires adding more AcceptX methods to the implementation (see the formula in the previous paragraph). This feature reduces the maintainability of this e.g., GetType in C# or getClass in Java). Fig. 3 shows an example implementation in C# using the is operator. Notice that this single Accept method is part of the EvaluateExpression class in Fig. 1 (it does not need to be added to the tree hierarchy). Fig. 3 shows the low readability of this approach for our triple dispatch example with seven concrete classes. The

approach, causing the so-called expression problem [4]. This problem is produced when the addition of a new type to a type hierarchy involves changes in other classes. The Visitor approach provides different advantages. First, the static type error detection provided by the compiler. Second, the best runtime performance (see Section 4). Finally, parameter generalization, as mentioned, is also supported. A summary of the pros and cons of all the approaches is presented in Table 1. 2.2. Runtime type inspection In the previous approach, the dispatcher is implemented by reducing multiple-dispatch to multiple cases of single dispatch. Its high dependence on the number of concrete classes makes it error-prone and reduces its maintainability. This second approach implements a dispatcher by consulting the dynamic type of each parameter in order to solve the specific Visit method to be called. This type inspection could be performed by either using an is type of operator (e.g., is in C# or instanceof in Java) or asking the type of an object at runtime ( maintainability of the code is also low, because the dispatcher implementation is highly coupled with the number of both the parameters of the Visit method and the concrete classes in the tree hierarchy. At the same time, the code size of the dispatcher grows with the number of parameters and concrete classes. The is operator approach makes extensive use of type

244


Ortin et al / DYNA 81 (186), pp. 242-250. August, 2014.

casts. Since cast expressions perform type checks at runtime,

this approximation loses the robustness of full compile-time

public class EvaluateExpression { … // * Selects the appropriate Visit method in Figure 1 public Value Accept(Value op1, Operator op, Value op2) { if (op is AndOp) { if (op1 is Bool) { if (op2 is Bool) return Visit((Bool)op1, (AndOp)op, (Bool)op2); else if (op2 is String) return Visit((Bool)op1, (AndOp)op, (String)op2); else if (op2 is Double) return Visit((Bool)op1, (AndOp)op, (Double)op2); else if (op2 is Integer) return Visit((Bool)op1, (AndOp)op, (Integer)op2); } else if (op1 is String) { … } else if (op1 is Double) { … } else if (op1 is Integer) { … } else if (op is EqualToOp) { … } else if (op is AddOp) { … } Debug.Assert(false, String.Format("No implementation for op1={0}, op={1} and op2={2}",op1, op, op2)); return null; } }

Figure 3. Multiple dispatch implementation in C# using runtime type inspection with the is operator (ellipsis is used to obviate repeating code). Source: The authors

type checking. The GetType approach also has this limitation together with the use of strings for class names, which may cause runtime errors when the class name is not written correctly. Parameter generalization is provided by means of polymorphism. As discussed in Section 4, the runtime performance of these two approaches (is and GetType) is not as good as that of the previous alternative.

implementation with the exact signature specified does not exist, no other polymorphic implementation is searched (e.g., the last Visit method in Fig. 1 is never called). Finally, this approach showed the worst runtime performance in our evaluation (Section 4).

2.3 Reflection

Hybrid static and dynamic typing (henceforth referred to simply as hybrid typing) languages provide both typing approaches in the very same programming language. Programmers may use one alternative or the other depending on their interests, following the static typing where possible, dynamic typing when needed principle [8]. In the case of multiple dispatch, we have used static typing to modularize the implementation of each operand and operator type combination (Visit methods in Fig. 1). We propose the use of dynamic typing to implement multiple dispatchers that dynamically discover the suitable Visit method to be invoked. In a hybrid typing language, its static typing rules are also applied at runtime when dynamic typing is selected. This means that, for instance, method overload is postponed until runtime, but the resolution algorithm stays the same [9]. We have used this feature to implement a multiple dispatcher that discovers the correct Visit method to be invoked at runtime, using the overload resolution mechanism provided by the language. At the same time, parameter generalization by means of polymorphism is also achieved. Fig. 5 shows an example of a multiple dispatch implementation (Accept method) in C#. With dynamic, the programmer indicates that dynamic typing is preferred, postponing the overload resolution until runtime. The first maintainability benefit is that the dispatcher does not depend on the number of concrete classes in the tree hierarchy (the expression problem [4]). Besides, another dispatching dimension can be provided by simply declaring one more parameter, and passing it as a new argument to Visit. The dispatcher consists in a single invocation to the overloaded Visit method, indicating which parameters

The objective of the reflection approach is to implement a dispatcher that does not depend on the number of concrete classes in the tree hierarchy. For this purpose, not only the types of the parameters but also the methods to be invoked are discovered at runtime. The mechanism used to obtain this objective is reflection, one of the main techniques used in meta-programming [5]. Reflection is the capability of a computational system to reason about and act upon itself, adjusting itself to changing conditions [6]. Using reflection, the self-representation of programs can be dynamically consulted and, sometimes, modified [7]. As shown in Fig. 5, the dynamic type of an object can be obtained using reflection (GetType). It is also possible to retrieve the specific Visit method implemented by its dynamic type (GetMethod), passing the dynamic types of the parameters. It also provides the runtime invocation of dynamically discovered methods (Invoke). The code size of this approach does not grow with the number of concrete classes. Moreover, the addition of another parameter does involve important changes in the code. Consequently, as shown in Table 1, this approach is more maintainable than the previous ones. Although the reflective Accept method in Fig. 4 may be somewhat atypical at first, we think its readability is certainly higher than the one in Fig. 3. The first drawback of this approach is that no static type checking is performed. If Accept invokes a nonexistent Visit method, an exception is thrown at runtime, but no compilation error is produced. Another limitation is that parameter generalization is not provided because reflection only looks for one specific Visit method. If an

3. A hybrid typing approach

245


Ortin et al / DYNA 81 (186), pp. 242-250. August, 2014.

require dynamic binding (multiple dispatching) with a cast to dynamic. If the programmer wants to avoid dynamic binding for a specific

public class EvaluateExpression { … // * Selects the appropriate Visit method in Figure 1 public Value Accept(Value op1, Operator op, Value op2) { MethodInfo method = this.GetType().GetMethod("Visit", BindingFlags.NonPublic | BindingFlags.Instance, null, new Type[] { op1.GetType(), op.GetType(), op2.GetType() }, null); if (method == null) { Debug.Assert(false,String.Format("No implementation for op1={0}, op={1} and op2={2}",op1,op,op2)); return null; } return (Value)method.Invoke(this, new object[] { op1, op, op2 }); } }

Figure 4. Multiple dispatch implementation in C# using reflection. Source: The authors public class EvaluateExpression { … // * Selects the appropriate Visit method in Figure 1 public Value Accept(Value op1, Operator op, Value op2) { try { return this.Visit((dynamic)op1, (dynamic)op, (dynamic)op2); } catch (RuntimeBinderException) { Debug.Assert(false, String.Format("No implementation for op1={0}, op={1} and op2={2}",op1,op,op2)); } return null; } }

Figure 5. Multiple dispatch implementation in C# with the hybrid typing approach. Source: The authors

parameter, this cast to dynamic will not be used. This simplicity makes the code highly readable and reduces its size considerably (Table 1). At the same time, since the overload resolution mechanism is preserved, parameter generalization by means of polymorphism is also provided (i.e., polymorphic methods like the two last addition implementations for strings in Fig. 1). In C#, static type checking is disabled when the dynamic type is used, lacking the compile-time detection of type errors. However, there are research works on hybrid typing languages, such as the StaDyn programming language [10], which provide static type checking when the dynamic type is used. When this feature is not supported, the best approach is to use static types to declare the Accept parameters using polymorphism (restricting their types to Value and Operator, as shown in Fig. 5). At the same time, exception handling is another mechanism that can be used to make the code more robust –notice that parameter generalization reduces the number of possible exceptions to be thrown, compared to the reflection approach.

GetType Method

Runtime Performance

Memory Consumption

Code Size

Compile-time type checking

is Operator

Parameter Generalization

Visitor Pattern

Readability

Maintainability

Table 1. Qualitative evaluation of the approaches

✓ ✓

½

½

Reflection Hybrid Typing Source: The authors

✓ ✓

✓ ✓

✓ ✓

½

Finally, this approach shows a runtime performance between the statically typed implementation and the reflective one (see Section 4). Hybrid typing languages, including C#, commonly implement a dynamic cache to improve runtime performance of dynamically typed code [11]. This technique provides a significant runtime performance improvement compared to reflection [12]. 4. Evaluation In this section, we measure execution time and memory consumption of the five different approaches analyzed. Detailed information is presented to justify the performance and memory assessment in the two last columns of Table 1. 4.1. Methodology In order to compare the performance of the proposed approaches, we have developed a set of synthetic microbenchmarks. These benchmarks measure the influence of the following variables on runtime performance and memory consumption: − Dispatch dimensions. We have measured programs executing single, double and triple dispatch methods. These dispatch dimensions represent the number of parameters passed to the Accept method shown in Figs. 3, 4 and 5. − Number of concrete classes. This variable is the number of concrete classes of each parameter of the

246


Ortin et al / DYNA 81 (186), pp. 242-250. August, 2014.

Accept method. For each one, we define from 1 to 5 possible derived concrete classes. Therefore, the implemented dispatchers will have to select the correct Visit method out of up to 125 different implementations (53). − Invocations. Each program is called an increasing number of times to analyze their performance in long-running scenarios (e.g., server applications). − Approach. The same application is implemented using the static typing, runtime type inspection (is and GetType alternatives), reflection, and hybrid typing approaches. Each program implements a collection of Visit methods that simply increment a counter field. The idea is to measure the execution time of each dispatch technique, avoiding additional significant computation −we have previously evaluated a more realistic application in [13]. Regarding the data analysis, we have followed the methodology proposed in [14] to evaluate the runtime performance of applications, including those executed on virtual machines that provide JIT compilation. We have followed a two-step methodology: 1. We measure the elapsed execution time of running multiple times the same program. This results in p (we have taken p = 30) measurements xi with 1≤ i ≤ p. 2. The confidence interval for a given confidence level (95%) is computed to eliminate measurement errors that may introduce a bias in the evaluation. The confidence interval is computed using the Student's t-distribution because we took p = 30 [15]. Therefore, we compute the confidence interval [c1,c2] as: c1 = x� − t1−α/2;p−1 t1−α/2;p−1

s

�p

s

�p

c2 = x� +

(1)

where x� is the arithmetic mean of the xi measurements, α = 0.05(95%), s is the standard deviation of the xi measurements, and t1−α/2;p−1 is defined such that a random variable T, that follows the Student's tdistribution with p − 1 degrees of freedom, obeys Pr�T ≤ t1−α/2;p−1 � = 1 − α/2.

(2)

The memory consumption has been measured following the same methodology to determine the memory used by the whole process. All the tests were carried out on a lightly loaded 3.4 GHz Intel Core I7 2600 system with 16 GB of RAM running an updated 64-bit version of Windows 8 Professional. 4.2. Runtime performance Fig. 6 shows the execution time of single, double and triple dispatch, when each parameter of the multi-method has five concrete derived types. Each Visit method is executed at least once. To analyze the influence of the number of invocations on the execution time, we invoke

multi-methods in loops from 1 to 100,000 iterations. Fig. 6 shows the average execution time for a 95% confidence level, with an error interval lower than 2%. As can be seen in Fig. 6, all the approaches have a linear influence of the number of iterations on execution time. However, the dispatch dimension (i.e., the number of multimethod parameters) of the analyzed approaches shows a different influence. For single dispatch, the hybrid typing approach is 19% and 2,787% faster than GetType and reflection, respectively, but requires 157% and 876% more execution time than is and static typing. For double dispatch, the runtime performance of the hybrid approach improves in comparison with the rest of alternatives (Fig. 6). For triple dispatch, the hybrid static and dynamic typing alternative is the second fastest one, performing 1.4, 2.5 and 265 times better than is, GetType and reflection, respectively (static typing is 2.7 times faster than hybrid typing in this scenario). Fig. 7 shows execution time, when the number of concrete classes that implement each multi-method parameter increases (for 100,000 fixed iterations). For each parameter, we increment (from 1 to 5) the number of its derived concrete classes. In the case of triple dispatch and five different concrete classes, the multiple dispatcher has to select the correct Visit method out of 125 (53) different implementations. As shown in Fig. 7, the relative performance of the hybrid approach improves as the number of concrete classes increases. For single dispatch, hybrid typing requires 213% more execution time than GetType for one concrete type of the single parameter; however, the hybrid approach is 19% faster than GetType for five different concrete types. For double dispatch, the hybrid approach improves its relative performance, being faster than GetType for any number of classes. When the dimension of the dispatch is triple, the relative runtime performance of the hybrid approach also improves as the number of concrete classes increases. With five different types for each of the three parameters, the hybrid approach is the second fastest one, being 40% faster than is and 265 times faster than reflection (static typing is 2.7 times faster than hybrid typing). 4.3. Memory consumption We have measured memory consumption, analyzing all the variables mentioned in the Section 4.1. There is no influence of the number of iterations, the dimensions of dispatch, or the number of concrete classes, in the memory consumed by the benchmark. The memory required by all approaches except hybrid typing are similar (the difference is 1%, lower than the 2% error interval). However, the hybrid approach involves an average increase of 31% compared with the other approaches. This difference is due to the use of the Dynamic Language Runtime (DLR) [16]. The DLR is a new layer over the CLR to provide a set of services to facilitate the implementation of dynamic languages. The DLR implements a runtime cache to optimize runtime performance of dynamically typed operations, performing better than reflection (as shown in Figs. 6 and 7) [13].

247


Ortin et al / DYNA 81 (186), pp. 242-250. August, 2014.

Single Dispatch

Single Dispatch

1 E+07

1 E+03

1 E+06 1 E+05

1 E+02

1 E+04 1 E+03

1 E+01

1 E+02 1 E+01

1 E+00

1 E+00 1 E-01

10

1

100 1K Number of Iterations

10K

1 E-01

100K

1

2

3

4

5

Number of Concrete Classes

Double Dispatch

Double Dispatch 1 E+04

1 E+08 1 E+07

1 E+03

1 E+06 1 E+05

1 E+02

1 E+04

1 E+01

1 E+03 1 E+02

1 E+00

1 E+01 1 E+00

1

10

100 1K Number of Iterations

10K

1 E-01

100K

5

Triple Dispatch

Triple Dispatch

1 E+06

1 E+10 1 E+09

1 E+05

1 E+08

1 E+04

1 E+07

1 E+03

1 E+06 1 E+05

1 E+02

1 E+04

1 E+01

1 E+03 1 E+02

1 E+00

1 E+01 1 E+00

2 3 4 Number of Concrete Classes

1

1 E-01 1

10

100

1K

10K

100K

1

2 3 4 Number of Concrete Classes

Number of Iterations StaticTyping

Is

Reflection

HybridTyping

GetType

Figure 6. Execution time (microseconds in logarithmic scale) increasing the number of iterations. Source: The authors

StaticTyping

Is

Reflection

HybridTyping

5

GetType

Figure 7. Execution time (microseconds in logarithmic scale) increasing the number of concrete types.

However, this runtime performance improvement also requires additional memory resources. 5. Related work In this section, we describe the existing languages and frameworks that provide multiple dispatch [17]. CLOS [18]

and Clojure [19] are examples of dynamically typed languages that include multi-methods in their semantics. Clojure has recently created a port for .Net that makes use of the DLR [20]. These approaches are fully dynamic, detecting all the type errors at runtime. Xtend is a Java extension that provides statically typed multiple dispatch [21]. Method resolution and binding in

248


Ortin et al / DYNA 81 (186), pp. 242-250. August, 2014.

Xtend are done at compile time as in Java. Dylan [22], Cecil [1] and, recently, Groovy 2 [23] are programming languages that provide both dynamic and static typing. Although these three languages support dynamically typed multi-methods, multiple dispatch can also be achieved with the hybrid typing approach proposed in this article. Many different approaches exist to provide multiple dispatch for the Java platform. One of the first works is Runabout, a library to support two-argument dispatch (i.e., double dispatch) for Java [24]. Runabout is based on improving a previous reflective implementation of the Visitor pattern called Walkabout [25]. The appropriate method implementation is found via reflection, but method invocation is performed by generating Java bytecode at runtime performing better than Walkabout. Dynamic Dispatcher is a double-dispatch framework for Java [26]. Three different dispatch methods are provided, combining the use of reflection and dynamic code generation. It provides the generalization of multi-method parameters by means of polymorphism. Sprintabout is another double-dispatch alternative for Java, provided as a library [27]. Sprintabout uses a naming convention to identify multi-methods. Multi-methods implement a runtime type inspection dispatch (the GetType approach). The dispatch object implements a cache to efficiently obtain the different method implementations at runtime, avoiding the use of reflection. MultiJava is a backward-compatible extension of Java that supports any dispatch dimension (not just double dispatch) [28]. Given a set of multi-method implementations, the MultiJava compiler produces a single Java dispatch method containing the bodies of the set of multi-method implementations. The multi-method implements the runtime type inspection approach, using the instanceof Java operator (is in C#). The Java Multi-Method Framework (JMMF) uses reflection to provide multiple dispatch for Java [29]. Multimethods can be defined in any class and with any name. JMMF is provided as a library; it proposes neither language extensions nor virtual machine modifications. PolyD is aimed at providing a flexible multiple dispatch technique for Java [30]. PolyD generates Java bytecodes dynamically, and allows the user to define customized dispatching policies. Three standard dispatching policies are available: multiple dispatching (cached GetType runtime type inspection), overloading (static method overload) and a ‘non-subsumptive’ policy (only calls a method if the classes of the arguments match exactly those of the method parameters; i.e. no parameter generalization). 6. Conclusions Different alternatives are nowadays used to achieve multiple dispatch in widespread languages that do not provide multi-methods. A qualitative evaluate has shown the pros and cons of each approach. A new alternative has been described for hybrid typing languages. Their benefits are high readability and maintainability, loose coupling with the number of concrete classes and the dispatch dimensions, and parameter

generalization. The main limitation is no compile-time type error detection. Its runtime performance is analogous to the runtime type inspection approaches. The average execution time of all the measured hybrid programs took 3.9 times more execution time the Visitor design pattern, being 36.6 times faster than reflection. The proposed approach has consumed 31% more memory resources than the rest of alternatives. Since the main limitation of the hybrid typing approach is its lack of compile-time error detection, we are currently working on defining and implementing a hybrid language that provides compile-time type checking [10]. That language, called StaDyn, is an extension of C# that performs type inference over dynamic references. This C# extension may eventually detect some type errors of the hybrid typing approach at compile-time [31]. Another future work will be analyzing the suitability of implementing multi-methods in Java using the new invokedynamic opcode [32]. All the programs used in the evaluation of runtime performance and memory consumption, and the detailed measurement data are freely available at http://www.reflection.uniovi.es/stadyn/download/2013/dyna.zip

Acknowledgements This work has been partially funded by Microsoft Research and the Department of Science and Innovation (Spain) under the National Program for Research, Development and Innovation: project TIN2011-25978. References [1]

Chambers, G., Object-oriented multi-methods in Cecil. European Conference on Object-Oriented Programming (ECOOP). The Netherlands, 1992, pp. 33-56.

[2]

Erich, G., Richard, H., Ralph, J. and John, V., Design patterns: Elements of reusable object-oriented software. Addison Wesley, 1995.

[3]

Ortin, F., Zapico, D. and Cueva, J.M., Design patterns for teaching type checking in a compiler construction course, IEEE Transactions on Education 50, pp. 273-283, 2007.

[4]

Torgersen, M., The expression problem revisited. European Conference on Object-Oriented Programming (ECOOP). Oslo, Norway, 2004, pp. 123-146.

[5]

Ortin, F., López, B. and Pérez-Schofield, J.B.G., Separating adaptable persistence attributes through computational reflection, IEEE Software 21, pp. 41-49, 2004.

[6]

Maes, P., Computational Reflection. PhD Thesis, Laboratory for Artificial Intelligence, Vrije Universiteit, Amsterdam, The Netherlands, 1987.

[7]

Redondo, J.M. and Ortin, F., Efficient support of dynamic inheritance for class- and prototype-based languages, Journal of Systems and Software 86, pp. 278-301, 2013.

[8]

Meijer, E. and Drayton, P., Static typing where possible, dynamic typing when needed: The end of the cold war between programming languages. OOPSLA 2004 Workshop on Revival of Dynamic Languages. Vancouver, Canada, 2004, pp.1-6.

[9]

Bierman, G., Meijer, E. and Torgersen, M., Adding dynamic types to C#. European Conference on Object-Oriented Programming (ECOOP). Maribor, Slovenia, 2010, pp. 76-100.

249


Ortin et al / DYNA 81 (186), pp. 242-250. August, 2014. [10] Ortin, F., Zapico, D., Perez-Schofield, J.B.G. and Garcia, M., Including both static and dynamic typing in the same programming language, IET Software, 4, pp. 268-282, 2010. [11] Ortin, F., Redondo, J.M. and Perez-Schofield, J.B.G., Efficient virtual machine support of runtime structural reflection, Science of computer Programming 74, pp. 836-860, 2009. [12] Redondo, J.M., Ortin, F. and Cueva, J.M., Optimizing reflective primitives of dynamic languages, International Journal of Software Engineering and Knowledge Engineering 18, pp. 759-783, 2008. [13] Ortin, F., Garcia, M., Redondo, J.M. and Quiroga, J., Achieving multiple dispatch in hybrid statically and dynamically typed languages. World Conference on Information Systems and Technologies (WorldCIST), Advances in Information Systems and Technologies 206, pp. 703-713, 2013. [14] Georges, A., Buytaert, D. and Eeckhout, L., Statistically rigorous Java performance evaluation. Object-Oriented Programming, Systems, Languages & Applications (OOPSLA). Montreal, 2007. Pp.57-76. [15] Lilja, D.J., Measuring computer performance: A practitioner’s guide. Cambridge University Press, 2005. [16] Chiles, B. and Turner, A., Dynamic Language Runtime [May 2014] Available at: http://www.codeplex.com/Download?ProjectName=dlr&DownloadI d=127512. [17] Gómez-Luna, E., Fernando-Navas, D., Aponte-Mayor, G. and Betancour-Buitrago, L.A., Literature review methodology for scientific and information management, through its structuring and systematization, DYNA 81 (184), pp 158-163, 2014. [18] DeMichiel, L.G. and Gabriel, R.P., The common lisp object system: An overview. European Conference on Object-Oriented Programming (ECOOP). Paris, France, 1987, pp.151-170. [19] Hickey, R., The Clojure programming language. Symposium on Dynamic Languages (DLS). Paphos, Cyprus, 2008, pp.1-10. [20] ClojureCLR., A port of Clojure to the CLR, part of the Clojure project [May 2014]. Available at: https://github.com/clojure/clojureclr [21] Eclipse Project, Xtend, Java 10 today! [May 2014] Available at: http://www.eclipse.org/xtend. [22] Shalit, A., The Dylan reference manual: The definitive guide to the new object-oriented dynamic language. Addison Wesley Longman Publishing, 1996. [23] Groovy 2.0 release notes. A “static theme” for a dynamic language. [May 2014] Available at: http://groovy.codehaus.org/Groovy+2.0+release+notes [24] Grothoff, C., Walkabout revisited: The Runabout. European Conference on Object-Oriented Programming (ECOOP). Darmstadt, Germany, 2003, pp. 103-125. [25] Palsberg, J. and Jay, C.B., The essence of the visitor pattern. Computer Software and Applications Conference (COMPSAC). Vienna, Austria, 1998, pp. 9-15. [26] Büttner, F., Radfelder, O., Lindow, A. and Gogolla, M., Digging into the visitor pattern. International Conference on Software Engineering & Knowledge Engineering (SEKE). Banff, Alberta, Canada, 2004, pp. 135-141.

Applications (OOPSLA). Minneapolis, Minnesota, 2000, pp. 130145. [29] Forax, R., Duris, E. and Roussel, G., A reflective implementation of Java multi-methods, IEEE Transactions on Software Engineering 30, pp. 1055-1071, 2004. [30] Cunei, A. and Vitek, J., An efficient and flexible toolkit for composing customized method dispatchers, Software: Practice and Experience 38, pp. 33-73, 2008. [31] Ortin, F., Type inference to optimize a hybrid statically and dynamically typed language, Computer Journal 54, pp. 1901-1924, 2011. [32] Ortin, F., Conde, P., Fernandez-Lanvin, D. and Izquierdo, R., A runtime performance of invokedynamic: Evaluation with a Java library, IEEE Software 31, pp. 1-16, 2014. Francisco Ortin, Born in 1973, he is an Associate Professor of the Computer Science Department at the University of Oviedo, Spain. He is the head of the Computational Reflection research group (www.reflection.uniovi.es). He received his BSc in Computer Science in 1994, and his MSc in Computer Engineering in 1996. In 2002, he was awarded his PhD entitled A Flexible Programming Computational System developed over a Non-Restrictive Reflective Abstract Machine. He has been the principal investigator of different research projects funded by Microsoft Research and the Spanish Department of Science and Innovation. His main research interests include dynamic languages, type systems, aspect-oriented programming, computational reflection, and runtime adaptable applications. ORCID: 0000-0003-1199-8649 Jose Quiroga, Born in 1982, he is a Research Assistant of the Computer Science Department at the University of Oviedo. He was awarded his BSc degree in Computer Science in 2004 and, in 2009, an MSc in Computer Engineering. He worked in the Research and Development department of the CTIC Foundation until 2012, when he became a Research Assistant financed by the Spanish Department of Competitiveness and Productivity. As a PhD student, he is doing research on the optimization of dynamically typed programming languages, performing compile-time inference of type information. ORCID: 0000-0002-1646-4796 Jose M. Redondo, Born in 1978, he is an Assistant Professor of the Computer Science Department at the University of Oviedo, Spain. He received his BSc in Computer Science in 2000, and his MSc in Computer Engineering in 2002. In 2007, he was awarded his PhD entitled Improving the performance of structural reflection using JIT compilation techniques. He has participated in different research projects funded by Microsoft Research and the Spanish Department of Science and Innovation. His main research interests include virtual machines, JIT compilation, computational reflection, and runtime adaptable applications. ORCID: 0000-0002-0939-0186 Miguel Garcia, Born in 1979, he is a Postdoctoral Research Assistant of the Computer Science Department at the University of Oviedo. He received his BSc degree in Computer Science in 2005. In 2008, he was awarded an MSc in Web Engineering, and an MSc in Software Engineering Research in 2010. In 2013, he presented his PhD dissertation entitled Improving the Runtime Performance and Robustness of Hybrid Static and Dynamic Typing Languages. His research interests include compiler construction, programming languages design, and aspect-oriented software development. ORCID: 0000-0002-3150-2826

[27] Forax, R., Duris, E. and Roussel, G., Reflection-based implementation of Java extensions: The double-dispatch use-case. Symposium on Applied Computing (SAC). Santa Fe, New Mexico, 2005, pp. 1409-1413. [28] Clifton, C., Leavens, G.T., Chambers, G. and Millstein, T., MultiJava: Modular open classes and symmetric multiple dispatch for Java. Object-Oriented Programming Systems, Languages, and 250


Reanalysis of monthly precipitation fields in Colombian territory Andrés Felipe Hurtado-Montoya a & Óscar José Mesa-Sánchez b b

a HMV Ingenieros, Colombia. afhurtado@h-mv.com Facultad de Minas, Universidad Nacional de Colombia, Colombia. ojmesa@unal.edu.co

Received: October 22th, de 2013. Received in revised form: May 14th, 2014. Accepted: May 23th, 2014 Abstract The historical monthly precipitation fields in Colombia are estimated and studied for the period 1975 - 2006 at a spatial resolution of 5 minutes of arc, calculated using an optimal integration of information available at rain gauges and distributed monthly series of fields from satellite measurements and studies of reanalysis at different periods and various spatial resolutions. Space interpolation of point observations uses a variant of the PRISM model [1]. Based on a MDT, the relationship between precipitation and topography was studied, allowing the development and implementation of a model of interpolation similar to PRISM to estimate monthly precipitation fields. Considering the topographic effect as the most important factor in explaining the spatial variability of rainfall, the study area is discretized in homogeneous regions that allowed to represent adequately the presence of the pluviometric optimal height and the temporal variability imposed by the ITCZ. Keywords: fields of monthly precipitation, interpolation, information integration, point and spatial information, PRISM.

Reconstrucción de los campos de precipitación mensual en Colombia Resumen Se presenta la reconstrucción de los campos históricos de precipitación mensual en Colombia para el periodo 1975 – 2006, a una resolución espacial de 5 minutos de arco (aproximadamente 9,3 km). Cada uno de los 384 mapas fue estimado mediante la integración óptima de la información disponible de pluviómetros, con las series mensuales de campos distribuidos provenientes de mediciones satelitales y con estudios globales de reconstrucción disponibles en diferentes periodos de tiempo y a variadas resoluciones espaciales. Para incorporar el efecto de la topografía se desarrolló una variante del modelo PRISM [1] que tiene en cuenta la existencia de lo óptimos pluviográficos, ausentes en el modelo original por ser esta una característica propia de las zonas tropicales. Como el efecto topográfico es de mayor relevancia para explicar la variabilidad espacial de la lluvia, se dividió la zona de estudio en regiones homogéneas para representar adecuadamente la presencia del óptimo pluviográfico y la variabilidad temporal impuesta por la zona de convergencia intertropical (ZCIT). Palabras clave: campos mensuales de precipitación, clima de Colombia, integración de información, información puntual y espacial, PRISM.

1. Introducción Los registros hidrológicos en Colombia son en general escasos, tanto por su calidad, como por su longitud y cobertura espacial. A esta limitación se suma la complejidad geográfica y climática. El resultado es un desafío especial para el conocimiento de la hidrología a escalas espaciales y temporales adecuadas para aplicaciones fundamentales como el planeamiento para el desarrollo sostenible del territorio y de sus recursos hidráulicos, la prevención de desastres, un mejor conocimiento de la influencia de los fenómenos macro-climáticos lo que permite desarrollar a su vez mejores predicciones, o para evaluar los posibles impactos del cambio climático global. En este trabajo se

contribuye al conocimiento de la hidrología colombiana mediante la reconstrucción de los 384 mapas de precipitación mensual en el período 1975-2006. Entre los elementos que hacen difícil la estimación están la fisiografía con los tres ramales de la Cordillera de los Andes, la diversidad de fuentes de humedad provenientes de los océanos que nos circundan y de las cuencas del Amazonas y Orinoco, el efecto de la traslación meridional de la Zona de Convergencia Intertropical (ZCIT), la complicada dinámica tropical en la cual varios procesos son todavía sólo parcial-mente comprendidos como la convección, la recirculación de la precipitación, el papel activo de la vegetación sobre la circulación atmosférica mediante la evapotranspiración y la emisión de núcleos de

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 251-258. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Hurtado-Montoya et al / DYNA 81 (186), pp. 251-258. August, 2014.

condensación. Están además otros factores macroclimáticos como El Niño – Oscilación del Sur (ENSO) [2], sobre los cuales a pesar de los avances todavía tenemos preguntas importantes por responder. Por último, a este panorama se suma la perturbación antrópica, resultado del cambio climático global, la deforestación, la urbanización [3] y la intervención sobre los recursos hidráulicos mediante la construcción de embalses y desviaciones de las corrientes naturales. Aunque se ha avanzado bastante sobre el conocimiento de los impactos globales del cambio climático, subsiste mucha incertidumbre sobre los efectos locales y regionales, en particular con respecto a la precipitación. En conjunto todos estos elementos conforman un marco climático e hidrológico muy especial. En particular, la limitada información puntual de precipitación y su inadecuada distribución a lo largo y ancho del territorio nacional (Fig. 1), hace necesario recurrir a técnicas especiales para la estimación de campos distribuidos en el espacio, en las cuales se incorpore la topografía y la información secundaria como bases de datos provenientes de mediciones satelitales y estudios de datos asimilados disponibles en diferentes periodos de tiempo y a determinadas resoluciones espaciales, mapas promedios multianuales distribuidos y de isoyetas presentados en trabajos previos, entre otros, que permitan modelar adecuadamente la dinámica de la precipitación en Colombia. En este trabajo se presenta una metodología para la estimación de los campos mensuales de precipitación que integra la información pluviométrica disponible, de tal manera que se logre una buena representación a la escala mensual de la variabilidad de la precipitación en Colombia. La estimación de los campos mensuales de precipitación, así como de los correspondientes campos de incertidumbre, serán de gran utilidad para el apoyo en la planificación del recurso hídrico en nuestro país, para el avance en el entendimiento de nuestra hidrología y para favorecer la modelación distribuida y los beneficios que de esta se puedan obtener en campos como la hidrología, ecología, agronomía entre otros. En [4] se presentan algunas aplicaciones de esta reconstrucción, entre ellas el estudio de tendencias y homogeneidad temporal que eventualmente puedan indicar manifestación del cambio climático. También se presentará una exploración de las relaciones entre estos campos de precipitación y fenómenos macroclimáticos. Este estudio hizo parte del subproyecto Bases para un Modelo Hidrológico Nacional, en el marco del proyecto Grupo Red de Cooperación en Investigación sobre el Agua (GRECIA), desarrollado con el apoyo del Departamento Administrativo de Ciencia, Tecnología e Innovación (COLCIENCIAS) por las universidades Nacional y de Antioquia en cooperación con el Instituto de Hidrología, Meteorología y Estudios Ambientales de Colombia (IDEAM) 1.1. La precipitación en Colombia La complejidad de la hidrología colombiana se debe en gran parte a la cantidad de factores que intervienen en la distribución espacial y temporal de la precipitación.

La distribución espacial de la lluvia en el territorio colombiano la determina principalmente su dinámica tropical, el desplazamiento de la ZCIT a lo largo del año, las fuentes de humedad propias de la cuenca amazónica y las provenientes del Océano Pacífico y Atlántico y su fisiografía que tiene como principal componente la cordillera de los Andes, con valles oceánicos e interandinos, estos últimos presentando características especiales asociadas a la generación de circulaciones locales en el interior de los mismos. La variabilidad de los procesos de la hidrología superficial, tales como contrastes en humedad del suelo y evapotranspiración también son de gran importancia para el entendimiento de la variabilidad espacial de la precipitación [5]. Los trabajos [6-10] son referencia obligada para abordar este tema. La distribución espacial de la precipitación en los Andes colombianos también depende de la localización en cordillera y en vertiente [11]. La variabilidad temporal de la precipitación en Colombia está determinada por diversos factores que operan a diferentes escalas como el cambio climático, la Oscilación Decadal del Pacífico (PDO), la Oscilación del Atlántico Norte (NAO), la Oscilación Cuasi – Bienal, el ENSO, la ZCIT, el chorro del Chocó, la dinámica de los Sistemas Convectivos de Mesoescala, la oscilación de Madden Julian, la dinámica tropical y las características fisiográficas del país [12,8]. El papel del relieve en la climatología del país es de gran importancia por las consecuencias directas de la altitud sobre la temperatura y humedad, por el papel de obstáculo que juega la masa montañosa frente a los flujos de aire cargados de humedad, diferenciándose de esta manera climas de Barlovento y Sotavento, conocidos como efectos de abrigo sobre Colombia a los cuales se añaden una característica fundamental de su clima como lo son las circulaciones locales. El alejamiento de las fuentes de aire húmedo y la orientación de los valles y vertientes también son causas de gran variabilidad de la lluvia [6,9]. Oster [9] identifica el favorecimiento de las vertientes para recibir mayor precipitación que las llanuras o valles piedemontanos, además, de la presencia de un óptimo pluviométrico, en el cual existe una relación lluvia - altitud caracterizada por el aumento de la precipitación con la altura a partir de un nivel base, hasta alcanzar un valor máximo a determinada altitud en la cual la lluvia empieza a decrecer con la misma, anotando además que esta relación es diferente para los fondos de los valles que para las laderas de los mismos. Otros aspectos importantes señalados por Oster [9] son las lluvias preorográficas, la influencia de la altura del nivel base sobre la distribución de la precipitación, la variabilidad a la escala mensual del óptimo pluviográfico entre otros. Un elemento esencial en la explicación del óptimo pluviográfico principal en la explicación del óptimo pluviométrico es el carácter predominante convectivo de las lluvias tropicales [13], las zonas bajas reciben menos lluvia porque se benefician menos del ascenso orográfico y porque están afectadas por evaporación de la lluvia que cae desde la base de las nubes. Por encima del óptimo pluviográfico, la disminución de la humedad del aire con la altura a escala global y de la cantidad de agua precipitable en las nubes

252


Hurtado-Montoya et al / DYNA 81 (186), pp. 251-258. August, 2014.

convectivas a escala local son los dos factores que explican la disminución de la precipitación con la altura. 2. Datos La información utilizada para la elaboración de los campos mensuales de precipitación está conformada por información puntual a escala mensual y diferentes mapas distribuidos provenientes de mediciones satelitales y estudios de datos asimilados. La información puntual corresponde a registros mensuales de 2.270 estaciones dentro de la zona de estudio (5°S - 15°N y 80°O - 65°O) distribuidas principalmente en el interior del territorio colombiano. La longitud de registro de las estaciones es variable así como sus periodos de datos faltantes. En la Fig. 1 se muestra la zona de estudio, la cual incluye parte del territorio de países vecinos, y la distribución espacial de las estaciones recolectadas para este estudio. Las fuentes de las cuales se extrajo la información son: • 607 estaciones tomadas del software HidroSIG [14] desarrollado por Posgrado en Aprovechamiento de Recursos Hidráulicos (PARH) de la Universidad Nacional sede Medellín. La información proviene de diferentes entidades y fue adquirida por el PARH a través de proyectos de investigación, principalmente por medio del proyecto de Balances Hidrológicos [15]. • 1.192 estaciones adquiridas por medio del IDEAM para el proyecto GRECIA. • 46 estaciones de Empresas Públicas de Medellín (EPM), utilizadas en el proyecto [16]. • 45 estaciones del IDEAM, CAR y EAAB, utilizadas en el proyecto [17]. • 16 estaciones del Centro Nacional de Investigaciones de Café (Cenicafé). • 364 estaciones de The Global Historical Climatology Network (http://www.ncdc.noaa.gov/oa/climate/ghcnmonthly/index.php), necesarias para cubrir la zona de estudio correspondiente a los países vecinos. Los mapas distribuidos están disponibles gratuitamente en la web y son producto de diversos algoritmos o modelos que emplean mediciones satelitales y puntuales. De 11 bases de datos estudiadas por medio de análisis estadísticos comparativos con respecto a la información puntual, se seleccionaron 4 bases de datos espaciales: Global Precipitation Climatology Project (GPCP) - V2 [18], National Centers for Environmental Prediction (NCEP) / National Center for Atmospheric Research (NCAR) [19], Tropical Rainfall Measuring Mission (TRMM) [20] y Geostationary Satellite System (GOES). El registro histórico de las imágenes GOES está disponible desde el año de 1983 a una resolución espacial de aproximadamente 10 km. Las imágenes utilizadas corresponden a la banda del infrarrojo, en la cual se mide la temperatura de brillo de la superficie o de los elementos que se interponen a esta como las nubes. Esta información gracias a un archivo de calibración puede ser procesada la temperatura y de esta manera identificar las zonas frías relacionadas con la cobertura nubosa, muy frías relacionadas con posibles eventos lluviosos y calientes que

Figura 1. Zona de estudio e información puntual utilizada. Fuente: Los autores.

sugieren temperatura superficial o condiciones de cielo despejado. Ya que la información del GOES está constituida por imágenes cada 3 horas. La base de datos utilizada consiste en el promedio de las imágenes del mes, con lo cual se obtiene un promedio mensual de temperatura en cada pixel. La topografía se estudió por medio de un Modelo Digital de Terreno (MDT) con resolución de 30 segundos de arco descargado de la página oficial de HydroSHED (http://hydrosheds.cr.usgs.gov/). 3. Metodología Los mapas mensuales de precipitación son el resultado de la combinación óptima de la información espacial disponible en bases de datos y de la implementación del modelo PRISM [1] en el territorio colombiano, en ambos casos utilizando la información puntual disponible como se describe a continuación. Esta es la hipótesis fundamental a partir de la cual se formula la propuesta metodológica para la estimación de los campos mensuales de precipitación. Se definió 5' de arco como la resolución espacial para los campos mensuales de precipitación, la cual se determinó con base en la resolución de las bases de datos disponibles, de las cuales la más fina corresponde al GOES (5' de arco aproximadamente). Resoluciones mejores a la definida representan extrapolaciones que no estarían justificadas por la información base disponible. La limitación computacional, principalmente para el modelo PRISM, también fue determinante en la resolución espacial de trabajo. El periodo de tiempo (1975 - 2006) se determinó con base en la disponibilidad de información puntual y

253


Hurtado-Montoya et al / DYNA 81 (186), pp. 251-258. August, 2014.

espacial, la cual es variable año tras año según los periodos de datos faltantes en la información puntual y la disponibilidad de las bases de datos espaciales. Aunque la distribución espacial de la información puntual en la zona de estudio no es homogénea, por razones prácticas los campos de precipitación se estimaron a una misma resolución espacial, esperando además, que los algoritmos propuestos evidencien en los mapas de incertidumbre el efecto de la distribución espacial de la información puntual en la zona de estudio. 3.1. Mapas obtenidos a partir de las bases de datos La información espacial disponible es comparada con las series puntuales con el fin de estimar regresiones que serán utilizados para la estimación de la precipitación en los diferentes puntos donde no se cuente con registro pluviométrico. El análisis correspondiente a cada una de las bases de datos espaciales consiste en comparar cada serie de precipitación puntual con la correspondiente serie de precipitación espacial obtenida del pixel en el cual está ubicada la estación de análisis. Dicha comparación consiste obtener una regresión lineal (regresión de mejor ajuste) entre ambas series que permita calcular el valor de la precipitación en el punto de análisis en el caso de que no disponer registro puntual y sí espacial. De esta manera, en cada uno de los puntos en los cuales se cuenta con registro puntual, se obtiene un valor para la pendiente m y para el intercepto b asociados al ajuste lineal, así como un estimativo del error estándar correspondiente al ajuste. Los parámetros m y b son interpolados por medio de kriging ordinario con el fin de obtener campos continuos, los cuales permiten tener los elementos necesarios para la estimación de la precipitación en aquellos puntos en los cuales no se dispone de medición puntual. La incertidumbre al estimar los valores de precipitación por medio de una ecuación lineal queda determinada por la varianza del error en cada una de las regresiones obtenidos con la información puntual, así como por la varianza del error al interpolar los valores de la pendiente y el intercepto. Las estaciones puntuales en las cuales el grado de asociación lineal es despreciable para un nivel de significancia del 5% no se tuvieron en cuenta para la interpolación de los parámetros m y b . El número de estaciones no tenidas en cuenta para la interpolación de los campos de parámetros por no presentar correlaciones significativas fue de 108 para el GPCP, 390 para el NCEP, 107 para el TRMM y 102 para el GOES. El valor de la precipitación P y su error de estimación e , en determinado pixel y mes son calculados con base en las medidas de p i disponibles y sus correspondientes valores de la varianza del error σ i 2 . Para cada uno de los mapas estimados con los campos distribuidos de m y b correspondientes a cada una de las bases de datos espaciales se estima un campo de σ i 2 necesario para la ponderación de los mismos y para el cálculo del error de estimación. En la interpolación de los valores de σ i 2 se asume que la variable presenta continuidad espacial, poca variabilidad y que la

incertidumbre inherente al proceso de interpolación no es significativa comparada con los valores medidos de σ i 2 . La interpolación de la varianza del error se hace necesaria para contar con un campo continuo que permita la integración de la información. El valor de σ i 2 en determinado mes y pixel de análisis, es calculado de la siguiente manera: • En cada una de las estaciones puntuales se estima (Ppuntual − Pestimada )2 , lo cual representa una medida de la varianza del error. Estos valores son promediados en el interior del pixel de análisis para el caso en el que al interior del mismo se disponga de más de una estación puntual. • Para los pixeles en los cuales no se disponga de información puntual, el valor de σ i 2 es estimado por medio de interpolación empleando el método del inverso de la distancia. • De esta manera, para cada uno de los meses y bases de datos se dispone de un campo de la varianza del error, necesario para la integración de la información y estimación de los campos mensuales de precipitación y sus correspondientes errores de estimación. 3.2. Mapas obtenidos a partir del modelo PRISM En el planteamiento original del modelo PRISM [1] se asume que la topografía es el factor de mayor influencia sobre la variabilidad y cantidad de agua precipitada en determinada zona vía el efecto orográfico; además de existir una relación de tipo lineal entre la precipitación y la elevación. Bajo estas premisas y con la incorporación de diferentes elementos que dependen de la zona de estudio y del criterio del modelador [1] se han obteniendo buenos resultados en países como México y Estados Unidos donde la metodología ha sido ampliamente utilizada. Partiendo de las hipótesis del método original y luego de un análisis estadístico en el cual se estudió la relación entre la precipitación y la topografía en la zona de estudio, en este trabajo se implementó el modelo en Colombia el modelo PRISM teniendo en cuenta la complejidad que impone al sistema hidrológico las características fisiográficas y tropicales fundamentalmente, siendo el óptimo pluviográfico y la alta variabilidad topográfica y pluviográfica los rasgos más relevantes. Inicialmente se implementó el modelo PRISM estimando una regresión lineal ponderada en cada pixel según la distancia, dirección, faceta y cota del conjunto de estaciones más cercanas en el interior de la región de análisis. Como consecuencia de la limitada información puntual y su irregular distribución en el espacio, en muchos pixeles los ajustes de la regresión son muy deficientes y el valor de precipitación estimado no es coherente. Con el fin de adaptar el modelo PRISM a las características climáticas y geográficas de Colombia, así como a las limitaciones en la información y al uso de la misma de la mejor manera posible, se propone la siguiente metodología para estimar los valores mensuales de precipitación con base en sus relaciones con la topografía:

254


Hurtado-Montoya et al / DYNA 81 (186), pp. 251-258. August, 2014.

Figura 2. MDT y regiones definidas Fuente: Los autores.

Se definieron 22 regiones dentro de la zona de estudio (Fig. 2), la mayoría en el interior de los Andes y diferenciando cada una de las laderas de las tres cordilleras, los valles del Magdalena y el Cauca, y considerando las diferencias latitudinales por el efecto del paso de la ZCIT y la disponibilidad de información en cada uno de los meses de análisis. El trabajo [21] fue un punto de partida para la determinación de las regiones. Al considerar un mayor número de regiones se logra una mejor estimación de los campos mensuales de precipitación, sin embargo, la limitada información puntual no permitió considerar más regiones que las definidas en este trabajo. En la Fig. 2 se ilustra el MDT empleado para analizar la relación existente entre la topografía y la precipitación dentro de la zona de estudio, así como las regiones definidas para el desarrollo del modelo como se describe más adelante. Para cada mes y cada una de las regiones definidas se estima una regresión lineal o cuadrática según sea más apropiado entre la precipitación y la elevación correspondiente al MDT empleado. El valor de la pendiente en el ajuste permite conocer el gradiente (variación de la precipitación con la altura) característico de la región, el cual se supone constante en el interior de la misma. El valor del intercepto de la regresión lineal es variable en cada pixel. Este, así como la cota necesaria en la ecuación lineal son estimados según una función de ponderación, IDW por su sencillez y rapidez computacional, aplicada a las la diferencias relativas de cotas y a los valores de precipitación de las

estaciones más cercanas. Con el fin de estimar la incertidumbre al emplear el modelo, para cada estación puntual (pixel correspondiente) se estima el valor de la precipitación empleando el modelo y removiendo la estación de análisis. De esta manera en cada uno de los puntos en los cuales se cuenta con información puntual se calcula la diferencia entre el valor observado y el estimado por el modelo, lo cual representa una evaluación del modelo para la región y mes de análisis en cada uno de los puntos en los cuales se dispone de información puntual. La varianza del error al evaluar el modelo en cada estación puntual es estimada como 2 2 . Para cada pixel esta se σ ev − PRISM = (Ppuntual − Pestimada ) calcula como un promedio en el caso de disponer de más de una estación puntual dentro del mismo o es estimada interpolando empleando IDW, en el caso de que en el interior del pixel no se cuente con información puntual en el mes de análisis. El campo distribuido para la varianza del error obtenido según el numeral anterior representa la calidad del modelo evaluado en los puntos en los cuales se dispone de información puntual, más no una medida de la incertidumbre en dichos puntos. Para los pixeles en los cuales se cuenta con información puntual, la varianza del error, asimilada como una medida de la incertidumbre del modelo al emplear toda la información disponible y necesaria para la integración de la información, es calculada como σ PRISM 2 = (Ppuntual − Pestimada )2 sin remover estaciones como en el caso de la evaluación del modelo. Para los pixeles que no cuentan con información puntual que permita el cálculo de σ PRISM 2 , esta es calculada como el producto entre el campo de σ ev− PRISM 2 y un campo de ponderación con valores entre σ PRISM 2 / σ ev− PRISM 2 y 1. El campo de ponderación es

construido con base en un modelo de variación lineal con la distancia, con efecto pepita igual a σ PRISM 2 / σ ev− PRISM 2 y valor máximo de 1 correspondiente

al pixel sin información puntual más alejado en determinada región con respecto a aquellos en los cuales se dispone de información puntual y por ende de un valor para σ PRISM 2 . Esta metodología hace uso entonces de un campo de validación del modelo y de un campo de ponderación construido con base en un variograma lineal.

3.3. Integración de los mapas obtenidos a partir de las bases de datos y del modelo PRISM La estimación de la precipitación en cada pixel involucra la información de los diferentes campos construidos y sus correspondientes campos de varianza del error, lo cual permite establecer un factor de ponderación asociado. Los campos de precipitación empleados corresponden a cada

255


Hurtado-Montoya et al / DYNA 81 (186), pp. 251-258. August, 2014.

una de las bases de datos empleadas y los estimados con el PRISM, con el cual se tiene en cuenta las relaciones de la precipitación con la topografía en el territorio colombiano. Con base en los campos mensuales de precipitación estimados para cada base de datos y según el modelo PRISM, se busca hallar la mejor estimación para la precipitación en determinado punto o pixel dentro de la zona de estudio. A modo de ejemplo se muestran las ecuaciones a utilizar en caso de que en la estimación intervengan dos bases de datos con su respectiva varianza en el error y valor de precipitación: ∧

P=

σ 22 σ2 p1 + 2 1 2 p2 2 σ1 + σ 2 σ1 + σ 2

{ }

2

E e2 =

σ 12σ 2 2 σ 12 + σ 2 2

(1)

(2)

4. Resultados Al integrar toda la información, los factores de ponderación correspondientes a la metodología del PRISM fueron los predominantes debido a que la varianza del error según esta metodología es de menor magnitud con respecto a las demás bases de datos en la mayor parte de la zona de estudio. Sin embargo, la consideración de las demás bases de datos es de gran importancia principalmente en las zonas donde el PRISM presenta deficiencias o en los meses en los cuales la información puntual es muy reducida. Los mapas estimados a partir de las bases de datos presentaron errores significativos en comparación con la metodología PRISM debido a que se agrupa mayor cantidad de fuentes de incertidumbre. Primero, la calidad de la información espacial, lo cual se refleja en bondad en los ajustes lineales obtenidos con la información puntual. Segundo, al emplear mapas estáticos o invariantes en el tiempo no se permite capturar toda la variabilidad que exhibe el fenómeno. Tercero, la incertidumbre al interpolar los valores de de m y b . Con el fin de hacer un mejor uso de la información se deben proponer metodologías dinámicas que agrupen toda la información, mediante la estimación de campos de parámetros variantes en el tiempo que permitan la desagregación de la información espacial mes a mes. El mapa de precipitación media anual calculado con base en los mapas mensuales estimados en el periodo 1975– 2006 (Fig. 3) presenta las principales características de la distribución espacial de la lluvia en el territorio colombiano. La gran variabilidad de la precipitación en pequeñas distancias determinada por fuertes gradientes inducidos por la topografía, principalmente en la llanura Pacífica y el piedemonte llanero, y en general por el efecto de la fisiografía, la cual caracteriza las cantidades anuales de precipitación distribuidas según las vertientes y valles, son aspectos que se pueden identificar en el campo distribuido estimado. Los valores mínimos de precipitación media anual (250 800 mm/año) son característicos de regiones por encima de los 10° latitud norte, que corresponde a la península de la

Figura 3. Mapa de precipitación media multianual Fuente: Los autores.

Guajira y parte del territorio venezolano. La zona más crítica del departamento de la Guajira es la comprendida entre los 11,3 y 12,4° N, donde se encuentran zonas con valores entre los 250 y 500 mm/año. Valores de precipitación entre los 800 y 1.800 mm/año se presentan fundamentalmente en el norte de Venezuela, la región Caribe colombiana, las zonas más elevadas de la Cordillera de los Andes, el oeste del departamento de Antioquia y norte y sur de los departamentos de Casanare y Arauca respectivamente. Panamá, El sur occidente de Ecuador, el sur occidente y sur oriente de la región amazónica, la mayor parte de la cuenca del Orinoco y gran parte de los valles interandinos presentan valores medios de precipitación comprendidos entre los 1.800 y 3.000 mm/año. Valores de precipitación entre 3.000 y 4.000 mm/año son los característicos de la región Amazónica. El piedemonte llanero se caracteriza por presentan altas cantidades de precipitación, con valores entre 3.000 y máximos del orden de 7.000 mm/año alrededor de los 4,3° N. El piedemonte sobre la cuenca del amazonas, el norte de Norte de Santander y la frontera entre Venezuela y los departamentos de Norte de Santander, Boyacá y Arauca también presentan cantidades significativas de precipitación, comprendidas entre los 3.000 y 5.000 mm/año. En los valles del Cauca y el Magdalena se alcanzan grandes cantidades de precipitación, hasta de 6.700 mm/año en el occidente del departamento de Caldas (valle del Magdalena) y de 6.000 mm/año en el norte del departamento de Antioquia sobre los 7,1° N. Antioquia presenta un significativo rango de variación de sus valores medios anuales de precipitación, los cuales oscilan de 1.000 a valores máximos de 7.000 mm/año en el occidente donde limita con el departamento del Chocó.

256


Hurtado-Montoya et al / DYNA 81 (186), pp. 251-258. August, 2014.

precipitación media multianual, lo cual ha permitido el estudio de la variabilidad espacial de dicha variable y de los balances hidrológicos a largo plazo. En este trabajo no solo se ha obtenido dicho mapa sino la serie de tiempo histórica de mapas mensuales en el periodo 1975-2006, lo cual representa una gran herramienta para el estudio de la variabilidad espacial y temporal del recurso hídrico en el país. Los trabajos futuros en esta dirección deben estar enfocados en el análisis de los mapas obtenidos y en perfeccionar los mismos por medio de una optimización de los modelos de correlación entre la información espacial, puntual y topográfica, buscando a su vez una mejor resolución espacial de los mapas resultantes. 5. Conclusiones

Figura 4. Error porcentual Fuente: Los autores.

La región Pacífica colombiana es la región más lluviosa con valores mínimos de 3.000 mm/año en el norte del departamento del Chocó. El resto de la región se caracteriza por presentar valores de precipitación por encima de los 6.000 mm/año. Hacia los -76,55° O, 5,8° N sobre el departamento del Chocó se presentan valores de precipitación de 10.400 mm/año, en el departamento del Cauca hacia los -77,2° O, 2,95° N valores máximos de 12.204 mm/año, el cual es el valor máximo de precipitación sobre toda la zona de estudio y uno de los puntos más lluviosos del planeta. En la Fig. 4 e muestra el error porcentual calculado con base en el mapa de precipitación media anual (Fig. 3) y su incertidumbre, estimada como un promedio anual de los mapas de incertidumbre mensuales. En este se aprecian los puntos en los cuales la incertidumbre es mínima, correspondientes a disponibilidad de información puntual en el la mayor parte del periodo de tiempo considerado. En Panamá, Ecuador, Perú y la Amazonía colombiana los errores son significativos como consecuencia de la limitada información en dichas regiones. Otras zonas críticas se encuentran en la península de la Guajira y a lo largo de la cordillera de los Andes, donde la variabilidad de la precipitación como consecuencia de factores locales no es capturada por las bases de datos utilizadas ni por la metodología empleada. En general los errores son menores del 25% en la mayor parte de la zona de estudio. En general el campo estimado en este estudio conserva las mismas características de los presentados en estudios anteriores, diferenciándose de estos en el nivel de detalle como consecuencia de una mayor disponibilidad de información de diferentes tipos. En diferentes trabajos se han estimado mapas de

En esta investigación se propone y desarrolla una metodología para la reconstrucción de los campos mensuales de precipitación en Colombia, a una resolución espacial de 5 minutos de arco en el periodo 1975-2006, a partir de la integración de la información puntual y espacial disponible. Los mapas de precipitación obtenidos fueron el resultado de una combinación óptima entre los estimados a partir de bases de datos de campos distribuidos de precipitación y los estimados a partir de la implementación del modelo PRISM. Dicha combinación o ponderación se basó en los campos de varianza del error, lo cual a su vez permitió la estimación de los correspondientes mapas históricos de incertidumbre. Con base en la estimación de los mapas mensuales de precipitación para cada base de datos y para el modelo PRISM, y en los correspondientes campos de la varianza del error, se obtuvieron los mapas históricos mediante la integración óptima de ambas metodologías, además de los correspondientes campos de incertidumbre. Para el caso del modelo PRISM, se desarrolló un modelo de interpolación empleando la información puntual y la topografía partiendo de la hipótesis fundamental del modelo PRISM, la cual consiste en considerar el efecto topográfico como el principal factor para explicar la variabilidad espacial de la precipitación. El desarrollo de este modelo de interpolación se basó en representar adecuadamente el óptimo pluviográfico, la variabilidad interestacional y la cantidad de agua precipitada según la información puntual. La metodología llevada a cabo permitió reconstruir los campos históricos de precipitación obteniendo resultados muy coherentes y considerando la topografía como un factor fundamental para explicar la variabilidad de la precipitación en Colombia. La base de datos de precipitación estimada se convierte en una importante fuente de consulta y abre las puertas para futuros trabajos de investigación relacionados con el entendimiento de la hidrología colombiana y en general de la distribución espacio temporal del recurso hídrico en Colombia. Referencias [1]

257

Daly, C., Neilson, R.P. and Phillips, D.L., A statistical Topographic model for mapping climatological precipitation over mountainous terrain. Journal of Applied Meteorology, 33, pp. 140158, 1994.


Hurtado-Montoya et al / DYNA 81 (186), pp. 251-258. August, 2014. [2]

Bjerknes, J., Atmospheric teleconnections from the equatorial Pacific, J. Mon. Weather, 97. pp. 163-172, 1969.

[3]

Palacio, C. y Jimenez, J.F., Climatología urbana y de montaña. DYNA, 79 (175E), pp. 61-69, 2012.

[4]

Hurtado, A.F., Estimación de los campos mensuales históricos de precipitación en el territorio colombiano, MSc Tesis, Posgrado en Aprovechamiento de Recursos Hidráulicos, Facultad de Minas, Universidad Nacional de Colombia sede Medellín, Colombia, 2009.

[5]

Poveda, G., Mesa, O.J., Agudelo, P.A., Álvarez., J.F., Arias, P.A., Mejía, J.F., Moreno, H.A., Salazar, L.F., Toro, V.G. y Vieira, S.A. Diagnóstico cuantitativo del ciclo diurno de la precipitación en Colombia mediante información satelital y en tierra. Posgrado en Aprovechamiento de Recursos Hidráulicos, Facultad de Minas, Universidad Nacional de Colombia sede Medellín, 2003.

[6]

Trojer, H., Fundamentos para una zonificación meteorológica y climatológica del trópico y especialmente de Colombia. Cenicafé, X (8), pp. 287 – 371, 1959.

[7]

Snow, J. W., The climate of northern South America. Climates of Central and South America, in Schwerdtfeger,W., Ed., pp. 295 – 403, Elsevier, Amsterdam, 1976.

[8]

Mesa, O.J., Poveda, G. y Carvajal, L.F., Introducción al clima de Colombia. Posgrado en Aprovechamiento de Recursos Hidráulicos, Facultad de Minas, Universidad Nacional de Colombia sede Medellín, Colombia, 1997.

[9]

Oster, R., Las precipitaciones de Colombia. Colombia Geográfica, Instituto Geográfico Agustín Codazi, VI (2), 147 P., 1979.

[15] Vélez, J.I., Poveda, G. y Mesa, O.J., Balances hidrológicos de Colombia, Posgrado en Aprovechamiento de Recursos Hidráulicos, Facultad de Minas, Universidad Nacional de Colombia sede Medellín, Colombia, 2000. [16] Área Metropolitana del Valle de Aburrá, AMVA., Diseño y puesta en marcha de la red de monitoreo ambiental en la cuenca hidrográfica del río Aburrá en jurisdicción del AMVA. UPB, UDEA, UNAL, UDEM, 2008. [17] EMGESA - Universidad Nacional de Colombia sede Medellín, Reconstrucción de las series mensuales de caudal natural para la cuenca del río Bogotá, Posgrado en Aprovechamiento de Recursos Hidráulicos, Facultad de Minas, Universidad Nacional de Colombia sede Medellín, Colombia, 2007. [18] Adler, R.F., G.J. Huffman, A. Chang, R. Ferraro, P. Xie, J. Janowiak, B. Rudolf, U. Schneider, S. Curtis, D. Bolvin, A. Gruber, J. Susskind, and P. Arkin., The Version 2 Global Precipitation Climatology Project (GPCP) Monthly Precipitation Analysis (1979Present). J. Hydrometeor., 4, pp. 1147-1167, 2003. [19] Kalnay et al., The NCEP/NCAR 40-year reanalysis project. Bull. Amer. Meteor. Soc., 77, pp. 437-470, 1996. [20] National Aeronautics and Space Administration - NASA, Goddard Space Flight Center. 2007 Tropical Rainfall Measuring Mission Science Data and Information System. Interface Control Specification Between the TSDIS and the TSDIS Science User (TSU), vol. 4; File Specifications for TRMM Products-Levels 2&3. 2007. http://disc.gsfc.nasa.gov/data/datapool/TRMM DP/01 Data Products/02 Gridded/07 Monthly Other Data Source 3B 43/.

[10] Mejía, F., Mesa, O., Poveda, P., Vélez, J., Hoyos, C., Mantilla, R., Barco, J., Cuartas, A., Montoya, M., y Botero, B., Distribución espacial y ciclos anual y semianual de la precipitación en Colombia. DYNA, 127, pp. 7-24, 1999.

[21] Jaramillo, R.A. and Chaves, C.B., Distribución de la precipitación en Colombia analizada mediante conglomeración estadística. Cenicafé 51(2), pp. 102-113, 2000.

[11] Weischet,W., Klimatologische Regel zur Vertikalverteilung der Niederschläge in Tropengebirgen, Die Erde 100 Jg. H., 2-4, pp. 287310, 1969.

F. Hurtado-Montoya, Ing. Civil en 2006 y MSc. de la Facultad de Minas de la Universidad Nacional de Colombia, Esp. en Turbomáquinas de la Universidad Eafit en 2014. Del año 2006 al 2009 trabajó como auxiliar de investigación y docente de Cálculo Integral en la Universidad Nacional de Colombia, sede Medellín. Desde el año 2009 trabaja en HMV Ingenieros como ingeniero especialista en las áreas de hidráulica e hidrología y actualmente también es docente de cátedra en el Politécnico Colombiano Jaime Isaza Cadavid en la Facultad de Ingeniería. ORCID: 0000-0003-4928-3227

[12] Poveda, G., La hidroclimatología de Colombia: Una síntesis desde la escala inter-decadal hasta la escala diurna. Rev. Acad. Colomb. Cien., 28 (107), pp. 201-222, 2004. [13] Hastenrath, S., Climate dynamics of the tropics. Boston: Kluwer Academic Publ., 1991. [14] Poveda, G., Mesa, O.J., Vélez, J.I., Mantilla, R.I., Ramírez, J.M., Hernández, O.O., Borja, A.F. y Urzola, J.A., HidroSIG: An interactive digital atlas of Colombia's hydroclimatology. Journal of Hydroinformatics, 9(2), pp 145-156, 2007.

O. J. Mesa-Sánchez, Ing. Civil de la Facultad de Minas, Universidad Nacional de Colombia en 1978, MSc. En 1982 y PhD. En 1985 de la Universidad de Mississippi, Estados Unidos; Ingeniero de diseño en Integral de 1978 a 1983; Profesor Titular de la Universidad Nacional de Colombia desde 1985. Ha sido Decano de la Facultad, Vicerrector de la Sede de Medellín, Vicerrector de Investigación de la Universidad, Director del Área Metropolitana del Valle de Aburrá. ORCID: 0000-0001-8717-3489

258


Coordinating inventory in collecting raw milk. Case Region Sugamuxi – Colombia César H. Guzmán-Camacho a, Hugo F. Salazar-Sanabria b & Wilson Adarme-Jaimes c b

a Sab Miller Bavaria, Colombia. chguzmac@unal.edu.co Universidad Pedagógica y Tecnológica de Colombia - UPTC Seccional Sogamoso, Colombia. hfsalazar@hotmail.com c Facultad de Ingeniería, Universidad Nacional de Colombia - Sede Bogotá, Colombia. wadarmej@unal.edu.co

Received: May 12th, 2014. Received in revised form: July 1th, 2014. Accepted: July 28th, 2014

Abstract This work is based on the principles of Supply Chain Management, the relationship between two nodes belonging to the milk production chain in Sugamuxi (Boyacá, Colombia), and a supply policy determination from an inventory coordination methodology in which, the node with more negotiation power, i.e. the group of store centers, will be responsible for managing the inventory levels of the other node (the producers) in order to minimize the total operative cost. It is possible to assess that there exists an opportunity to improve the global performance of this supply chain, by means of the VMI (Vendor Management Inventory) principles and the changes included by Yao’s model [1]; with the purpose of getting a decrease in the system’s total cost. Keywords: Sugamuxi, inventories cooordination, logistics, supply chain, fresh milk.

Coordinación de inventarios en la recolección de leche cruda. Caso región Sugamuxi - Colombia Resumen El presente trabajo se aborda desde los principios de la administración de la cadena de suministro, la relación entre dos nodos de la cadena de producción de leche fresca de la provincia de Sugamuxi (Boyacá, Colombia) y la determinación de una política de abastecimiento a partir de una metodología de coordinación de inventarios, en la que el nodo con mayor poder de negociación, que para el caso en estudio corresponde a la agrupación de los centros de acopio; se responsabiliza de administrar los inventarios del otro nodo (los productores) con el fin de lograr la minimización de los costos totales de la operación. Es posible afirmar que existe una oportunidad de mejora del desempeño global de la cadena de suministro, haciendo uso de los principios del VMI (Vendor Management Inventory) y de las adaptaciones que incluye el modelo de Yao [1], con el objeto de lograr una disminución en el costo total del sistema. Palabras Clave: Sugamuxi, coordinación de inventarios, logística, cadena de suministro, leche fresca

1. Introducción Las MIPYMES (Micro, pequeñas y medianas empresas) en Colombia, como entidades generadoras de empleo y riqueza, han permitido el desarrollo de miles de emprendedores en el país, garantizando sin duda alguna una contribución al desarrollo económico de la nación. De acuerdo con estudios hechos por entidades como el Ministerio de Industria, Comercio y Turismo (MinCIT) y las Cámaras de Comercio regionales, se sabe que éstas representan un potencial importante de innovación y adaptación a nuevas tecnologías, así como también la oportunidad de generar modelos competitivos sostenibles y

sustentables acordes con la realidad económica en las cuales están inmersos. En general, el modelo económico de la MIPYME brinda la posibilidad de acomodarse a cambios repentinos en la demanda de productos, así como la facilidad de agruparse en clústeres para generar economías de escala y poder además, ubicarse en diferentes sectores productivos según le sea más rentable. En este sentido, las MIPYMES permiten que, con base en un estudio formal, se pueda generar valor en cuanto se puede llegar a corregir prácticas poco óptimas para su labor e incluso plantear nuevas formas de visualizar el negocio tanto desde el punto de vista estratégico como táctico operativo.

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 259-266. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Guzmán-Camacho et al / DYNA 81 (186), pp. 259-266. August, 2014. Tabla 1. Identificación de las cuatro regiones de producción de leche fresca en Colombia. Región 1 Región 3 Región 4 Boyacá Atlántico Valle Cundinamarca Guajira Tolima Magdalena Cauca Región 2 Sucre Huila Chocó Cesar N. Santander Nariño Antioquia Córdoba Putumayo Caldas Bolívar Arauca Risaralda Quindío

Santander Caquetá

Casanare Meta Vichada Guaviare Guainía Vaupés

Fuente: FEDEGAN [3]

Amazonas

Colombia es el cuarto productor de leche en América Latina, con un volumen de 6.500millones de litros al año [2]. A nivel nacional, alrededor de 473.000 pequeñas empresas se dedican exclusivamente al sector lácteo y en su mayoría son catalogadas como pequeños productores [3], lo que puede causar que la producción anual de leche se comercialice por canales informales, cerrando las puertas a futuras oportunidades de desarrollo e inversión. De acuerdo con FEDEGAN [3], de la producción de leche anual, la industria forma la copia tan sólo el 46,6% de la producción. Colombia se divide en cuatro regiones de producción de leche a nivel nacional (FEDEGAN) como puede apreciarse en la Tabla 1, para efectos de la evaluación. Cada región provee leche de diferentes propiedades, calidades y en volúmenes variados, siendo la región con mayor producción la región 1, compuesta por los departamentos de Boyacá y Cundinamarca y comúnmente llamada el altiplano cundiboyacense. Si se desea que un conjunto de protocolos y de buenas prácticas mejoren el desempeño global del sector lácteo en Colombia, la región 1 es el escenario más adecuado para realizar un estudio piloto, ya que, siendo la principal aportante de leche en el país; es aquella con mayor cantidad de retos. He ahí la motivación mediante la cual se seleccionó la provincia de Sugamuxi para el desarrollo del estudio, ya que, Sugamuxi es una de las 13 provincias de Boyacá y se destaca por ser la de mayor contribución en la producción de leche, con un 15,38% de la leche que produce Boyacá diariamente, correspondiente a un 1,64% del volumen diario de producción de leche en toda Colombia, según la Unidad Regional de Planeación Agropecuaria [3]. En aras de incentivar el desarrollo del sector lácteo en Colombia, el Ministerio de Agricultura y Desarrollo Rural, el Ministerio de Comercio, Industria y Turismo, el Ministerio de Protección Social, el SENA (Servicio Nacional de Aprendizaje), Colciencias y el DNP (Departamento Nacional de Planeación), desarrollaron la Política Nacional para mejorar la competitividad del sector lácteo en Colombia, identificando allí como principal problemática la baja competitividad reflejada en la baja

productividad, altos costos de producción en finca, bajo nivel de asociatividad y especialización de la cadena, informalidad de la comercialización e insuficiencia en capacidad de transformación [4]. En este contexto, la aproximación a los pequeños productores y a los primeros eslabones de la cadena de suministro de productos lácteos se presenta como una oportunidad de intervención que abre las puertas a investigadores interesados en aportar a la productividad y a la competitividad de las MIPYMES que componen el sector. De este modo, la investigación mostró que es posible reducir los costos logísticos de la red de acopio distribución de leche cruda mediante políticas de coordinación de inventarios entre el productor primario y centros de acopio. Para ello, se propone como principal objetivo diseñar una metodología para la adopción de un modelo de coordinación de inventarios en la cadena de distribución de alimentos perecederos del sector lácteo de la provincia de Sugamuxi, por medio de diferentes técnicas, herramientas, modos y medios de operación que incluyan modelos matemáticos y heurísticas acorde con la situación evaluada. Como resultados específicos del desarrollo de la investigación financiada por Colciencias a través del grupo de investigación SEPRO –Universidad Nacional de Colombia, con el apoyo de la Universidad Pedagógica y Tecnológica de Colombia, UPTC, Seccional Sogamoso, se tiene como hechos relevantes: la caracterización de la red de suministro de leche fresca, la determinación de parámetros, variables y sus relaciones que soportan la utilización de un modelo VMI (Vendor Management Inventory) dentro del proceso metodológico para la cadena de suministro de estudio, la propuesta de un modelo VMI adecuado a la red de suministro objeto de estudio, su validación y la metodología in situ para su implementación. 2. Materiales y Métodos 2.1. Marco teórico En general, no existe una estrategia universal de coordinación que se considere apropiada para todas las cadenas de suministro. De esta manera, el éxito de las estrategias de coordinación dependerá de las características, rasgos, sistemas, modo y medios por mencionar elementos relevantes, así como del entorno en el cual se desenvuelve la cadena [5]. De acuerdo al producto, la actividad logística necesaria para colocarlo en el mercado y las condiciones sobre las que se negocia, se podrá establecer la mejor estrategia de coordinación que garantice una reducción de costos, mejore el servicio y busque garantizar la inocuidad de la leche fresca, en un ambiente de beneficio común a los diferentes actores que intervienen. La coordinación, que involucra una administración conjunta de inventarios en la red de suministro, plantea un reto: establecer, entre clientes y proveedores, diversas políticas que contribuyan a la disminución de costos de la operación de cada actor y de la cadena en sí; sin que esto afecte en ningún grado el nivel de servicio. Esto se puede lograr de varias maneras. En general, los mecanismos de

260


Guzmán-Camacho et al / DYNA 81 (186), pp. 259-266. August, 2014.

coordinación son negociables entre las partes, o implícitamente inducidos por alguna de ellas para influir en el comportamiento de la otra [6]. La coordinación entre actores de la red puede abordarse desde diferentes perspectivas, en cualquier empresa del sector industrial, comercial o de servicios, los inventarios constituyen uno de los principales problemas y con altas complejidades cuando se trata de enfrentar en la práctica. Vidal, C [7]. Recientemente, varios autores coinciden en que el proceso de mejora de la cadena de suministro, uno de los aspectos más importantes es la administración de inventarios [8,10]. Jammernegg y Gerald Reiner mencionan más específicamente, que para dicho problema, se plantea una dicotomía importante: en una mano se tiene la necesidad de manejar diferentes tipos de inventario con el fin de dar respuesta a los requerimientos del mercado y la incertidumbre operacional, en la otra mano se tiene que los inventarios son algunas veces el resultado de una administración ineficiente de los procesos a lo largo de la red. Aun así, y como se ha mencionado, los inventarios han sido y serán un punto focal en la administración de la cadena de suministro con fuertes implicaciones en su sostenibilidad [8]. Para el presente caso y en general, en un entorno como el que corresponde a las redes de suministro de leche fresca, una estrategia basada en criterios VMI puede ser una alternativa funcional, útil como una aproximación a la coordinación de inventarios, en tanto se realice una inversión en sistemas de comunicación e información o se contemple algún mecanismo que permita compartir información respecto a los inventarios y a la oferta/demanda de los involucrados. Para efectos de la contextualización se citan autores como Yao Y.[1] quien ha trabajado en VMI. Además a Van der Vlist, Kuik y Verheijen, quienes presentan las desventajas del planteamiento de Yao y posibles maneras de enfrentarlas. También se hace referencia a Goyal y Glock, cuyos trabajos de coordinación permiten la elaboración de un modelo que permita simular escenarios sobre los que se puede inferir con la información recolectada en campo [11,12]. Para Yao Y. en una cadena de suministro que no utiliza VMI, el proveedor observa la demanda del comprador indirectamente sólo a través de su política de ordenamiento. Con el VMI, el proveedor recibe directamente la información de la demanda del comprador, permitiendo administrar el inventario del comprador con ciertos beneficios que se mencionan más adelante. La Fig. 1 muestra los dos ambientes planteados por Yao Y. con y sin VMI [1]. Para el caso, Yao, Y. maneja un esquema con un proveedor y un comprador. En este ambiente se puede demostrar que se cumple lo siguiente: • La frecuencia de reaprovisionamiento con VMI es mayor que la del ambiente sin VMI. • El porcentaje de ahorros en el costo total de inventarios con VMI crece en una proporción relacionada con los costos de ordenar del proveedor y el comprador. Entre mayor sea el costo de ordenar del proveedor comparado con el del vendedor, se incrementarán en mayor proporción los ahorros en los costos totales de

inventario.

Figura 1. Esquematización de los escenarios con VMI y sin VMI para una cadena de suministro. Fuente: Yao, Y. et al. 2008.

• El costo de mantener el inventario con la implementación de VMI se incrementa para el proveedor y decrece para el comprador. Pero se puede demostrar además, como lo hacen Van der Vlist, Kuik y Verheijen.; que existen falencias en los resultados del modelo de Yao Y.et al., por las siguientes razones: • Se ignoran los costos incurridos por el proveedor para enviar los productos al comprador. • El modelo maneja los flujos entrantes y salientes del proveedor en el peor caso, exagerando el inventario mantenido por el proveedor [13]. Dentro de la metodología para la coordinación de inventarios a proponer, se incluirá un modelo similar al propuesto por Yao en sus trabajos, considerando además, las críticas mencionadas por Van der Vlist, Kuik y Verheiren. 2.2. Mecanismo de muestreo y recolección de información Existen principalmente dos nodos en el estudio de la cadena objeto de estudio. Por una parte, se encuentra el nodo de los centros de acopio. En la provincia de Sugamuxi donde hay ocho (8) centros de acopio formales, y todos ellos se constituirán como elementos de estudio. Por otra parte, está el nodo de los productores de leche. Como uno de los objetivos del presente trabajo es brindar herramientas a las MIPYMES (micro, pequeñas y medianas empresas) para que incrementen su competitividad, se tendrán en cuenta los pequeños productores, quienes además proveen a los centros de acopio el 70% de su demanda. En la región, hay un total de 4.699 predios dedicados a la producción de leche fresca a pequeña escala. Debido a la complejidad de considerar a toda la población de productores para la realización del estudio (ya que no todos brindan el espacio para el desarrollo de este tipo de actividades o no están en grado de responder ciertas preguntas técnicas del funcionamiento de su actividad), sólo una parte fue considerada para la realización del estudio. El muestreo utilizado para dicha selección fue de tipo

261


Guzmán-Camacho et al / DYNA 81 (186), pp. 259-266. August, 2014.

intencionado (no aleatorizado) por dos motivos. Primero, con el muestreo intencionado se reducen los inconvenientes inesperados que puedan generar un sobrecosto del estudio. Segundo, se decidió escoger a los productores que se encuentran en la ruta de recolección de cada uno de los ocho (8) centros de acopio de la región, de esta manera, es posible correlacionar algunas características del productor con su respectivo centro de acopio como la distancia recorrida para realizar la recolección y el orden en que se hace la recolección. A partir del tipo de muestreo seleccionado se contó con 597 predios como muestra. Estos 597 predios contestaron un formulario cuyo objetivo era estimar costos de transporte y tasas de producción de los pequeños productores. De esta muestra, se tomó aquellos que quisieron cooperar y fácilmente accesibles, los cuales representaron un 17,08% del total. Estos fueron quienes respondieran las preguntas específicas orientadas a estimar costos de operación, almacenamiento y distribución. Al grupo de ocho centros de acopio se les aplicó un cuestionario de cuarenta preguntas tanto abiertas como cerradas, agrupadas en tres ejes temáticos: gestión de aprovisionamientos, gestión de almacenamiento y de inventarios, y gestión de la distribución. También se realizó una entrevista con el fin de contextualizar la operación del centro de acopio y obtener así más detalles. 2.3. Metodología La metodología de investigación se desarrolló teniendo en cuenta que el objeto de estudio estaba referido a la cadena de suministro de leche fresca. Con el fin de presentar coherencia entre dicho objeto (referido a dos nodos en la cadena de suministro de leche en la provincia de Sugamuxi), la investigación utilizó una adaptación de la metodología IIRSA (Iniciativa para la Integración de la infraestructura Regional Sud-Americana), ampliamente difundida y utilizada para la consultoría en proyectos logísticos[14]. La metodología permite desenvolverse en el marco geográfico y de ésta forma recopilar la información necesaria de manera óptima sin perder de vista los objetivos formulados. La metodología se basa en una primera aproximación a la cadena que permita, mediante el desenvolvimiento de las fases, la caracterización y el establecimiento de un concepto respecto al comportamiento de los eslabones analizados y la manera en que éstos operan en y con la cadena. La metodología IIRSA es una iniciativa de los países suramericanos para promover el desarrollo de la infraestructura de transporte, energía y comunicaciones bajo una visión regional y se compone de cinco etapas estructuradas que permiten, mediante un profundo estudio bibliográfico apoyado con la recolección y análisis de la información encampo, caracterizar la cadena de suministro. Dichas etapas siguen la secuencia lógica que se describe en la Fig. 2. El ciclo metodológico comienza con una etapa de definición en donde se presenta tanto el alcance funcional como el territorial del objeto de análisis. Determina si la

evaluación es pertinente, en función de las características propias de la cadena y de su potencial desarrollo. Se realizó una revisión intensiva de la literatura en redes y coordinación de inventarios para la realización de la

Figura. 2. Esquema de caracterización de las fases de la metodología IIRSA. Fuente: Yao Y, et al. 2008.

propuesta metodológica y el modelo respectivo. Continúa con la etapa de segmentación cuyo propósito fue evaluar de forma desagregada agrupamientos logísticamente homogéneos que sean susceptibles de un análisis diferenciado. Para el caso se analizaron, el grupo de productores y el de acopios. La siguiente etapa de estructuración consiste en organizar y construir, con la información obtenida durante la fase de segmentación, una estructura apropiada para la cadena logística de lácteos en la provincia, es decir, definir cómo se observó el flujo de materiales y de información de un nodo a otro. Durante esta etapa se lograron entender y relacionar los elementos estructurales que caracterizan cada uno de los eslabones y permiten una apreciación general de la capacidad de la red logística ante las exigencias de los consumidores. El trabajo de campo tuvo como propósito recolectar la información adecuada que permita ofrecer un panorama de la situación actual de la red, además de identificar los aspectos críticos sobre los que se puede actuar a futuro, con el objetivo de mejorar el desempeño de la cadena. Para tal fin, se planificó el trabajo decampo con los respectivos cronogramas y agendas de actividades, además se preparó una serie de guías o cuestionarios asegurando así que en las fases subsiguientes de la metodología se contará con información suficiente para realizar el análisis. La última etapa en la metodología, análisis y resultados, permitió observar la composición de la cadena, su grado de “madurez logística” y su desempeño logístico, organizar y depurar tanto la información como los datos obtenidos en campo, así como el estudio exhaustivo de la información obtenida en las tapas anteriores. En esta etapa, y con los insumos anteriores, se llegó a un desarrollo matemático en que se propone un modelo de coordinación, en el que mediante criterios VMI se definen como variables de decisión las cantidades de pedido en los dos nodos de la cadena y la frecuencia de reaprovisionamiento, así como los parámetros de costos. El modelo hace las veces de un instrumento que permite evaluar la política y aproximarse a un escenario ideal para la cadena teniendo en cuenta las condiciones propias tanto de distribución como de almacenamiento.

262


Guzmán-Camacho et al / DYNA 81 (186), pp. 259-266. August, 2014.

3. Resultados La red evaluada de leche fresca consta de cuatro nodos o eslabones, como se aprecia en la Fig.3.

Figura 3. Constitución de la cadena de suministro de leche fresca. Fuente: Autores, basado en la metodología IIRSA)

En la opinión de los dos tipos de agente (productor y centro de acopio) prevalece el hecho de que haya utilidad operacional, así sea mínima, como indicador para concluir que el negocio funciona correctamente. El modelo matemático se realizó con base en los estudios de Yao y Glock contextualizándolo a la realidad evidenciada en campo, para la alimentación de los parámetros requeridos se consideró la tabulación y análisis de los instrumentos aplicados, así como la evaluación in situ a pequeños productores y centros de acopio, permitiendo su estimación, segregados tanto en costos operativos como gastos financieros. Para el caso de los productores se crearon tres (3) categorías (pequeños, medianos y grandes) con base en la cantidad de cabezas de ganado y su producción promedio, para los centros de acopio se utilizó una sola categoría que incluye a los 8 lo que permitió mediante la elaboración de encuestas y las visitas realizadas en el trabajo de campo la estimación de los costos necesarios para el modelo analizando, cabezas de ganado productivas, producción diaria, insumos (sales, calcios, concentrados, elementos de aseo, etc.), impuestos, mantenimientos, costos de transporte, elementos de sujeción, fumigaciones, vacunas y demás asociados a su operación así los precios de venta para la estimación de márgenes de utilidad. A continuación se presenta la notación del modelo matemático que concluye el análisis de la red y propone una aproximación a la mejora de la operación desde el punto de vista de un mayor beneficio económico.

El primer nodo (producción de leche a través del ordeño). Allí, se encuentran productores pequeños, medianos y grandes. La clasificación depende del nivel de tecnificación con el que realizan la actividad y de la capacidad instalada que poseen. Estos aspectos se reflejan en la tasa de producción diaria de leche fresca. El 96% de los productores son pequeños (corresponden a 4699 según un censo de 2011) y son el objeto de estudio de este trabajo. Sus capacidades de producción oscilan entre 5 y 180 litros diarios y su número de cabezas de ganado varía de 1 a 23. La provincia de Sugamuxi cuenta con ocho (8) centros 3.1. Definiciones de acopio con características de pequeñas bodegas con tanques de enfriamiento, se encuentran ubicados en los hi : Costo del proveedor i − ésimo de mantener una unidad de inventario (COP$/litro) municipios de la provincia con mayor producción. La leche ci : Costo del proveedor i − ésimo de poner una orden (COP$) recogida por los centros de acopio es transportada a centros qi : Tamaño de pedido del proveedor i − ésimo (litro) de procesamiento, para su posterior consumo final. Este H : Costo del comprador de mantener una unidad de inventario (COP$/litro) nodo no hace parte del alcance del estudio. El centro de C : Costo del comprador de poner una orden (COP$) acopio es el encargado de visitar una vez por día (o con una D : Demanda del comprador (litro) frecuencia a veces mayor) a los pequeños productores con el Q : Tamaño de pedido del comprador (litro) fin de hacer la recolección de la leche. Se emplean medios mi : Número de particiones del lote qi del proveedor i − ésimo de transporte de todo tipo, desde bicicletas hasta viejos βi : Proporción de lo que aporta el proveedor i − ésimo con su lote qi al pedido Q camiones pequeños, haciendo uso incluso de carros Pi : Tasa de producción del proveedor i − ésimo (litros/día) particulares. La labor del transporte se realiza directamente F : Costo de transporte asumido por el proveedor i − ésimo (COP$) i por personal del centro de acopio o por transportistas A : Costo fijo asumido por el comprador al pedir una orden contratados para ello. CT : Costo total asumido por el comprador La investigación permitió establecer parámetros, rasgos CTA : Costo total asumido por los proveedores P y características, cuyos resultados relevantes se presentan a CTS : Costo total del sistema compuesto por n proveedores y 1 comprador continuación: El 33% de los centros de acopio decide comprar el La expresión para el costo total del comprador es producto de más alta calidad, mientras que el 67% restante realiza sus compras con base en el menor precio. La entonces: negociación del precio en un 72% de los casos depende del modo de pago, mientras que en el 24% depende de la n inversión en transporte necesaria para ir a recolectar la qi2 H AD (1) CTA = + ∑ leche. m Q Q 2 i =1 i En los centros de acopio se mencionó en su totalidad no conocer las necesidades de sus clientes; no poseen Mientras que la expresión para el costo total de cada uno algoritmo o regla de decisión para la planeación de las rutas de recolección, ni una política clara sobre la gestión y de los proveedores es: control de sus inventarios. 263


Guzmán-Camacho et al / DYNA 81 (186), pp. 259-266. August, 2014.

 1 CT = qi2  P  2 Pi

 1  1 1  m − 1  Dh D (2) − 1 −  −  − i  i + ( Fi mi + ci qi ) 2 m D P m D Q Q i  i  i  

Para simplificar los cálculos, se definen los siguientes términos:

 1  1  1 1  m − 1  − 1 −  −  − i   2 Pi  mi  D Pi  2mi D 

α=i 

χ= i

A + Fi mi

(3)

(4)

Utilizando así, las expresiones (3) y (4), es posible definir el costo total del sistema como:

las cantidades de pedido se deben canalizar en la cadena los litros de leche que no hacen parte de las recolecciones del centro de acopio para de esta manera no contemplar una pérdida de utilidad neta para el productor. Debido a que se propone una estructura en la cual el centro de acopio redefine las cantidades de pedido que se deben consolidar la diferencia entre el estado actual y las cantidades manejadas bajo el esquema de coordinación muestran un ahorro para cada nodo pero el modelo obliga para lograr una mayor eficiencia en costos subutilizar la capacidad de aquellos productores que presenten un mayor sobre costo a la cadena, es así como en cada nodo se puede generar un ahorro en promedio de 1.078 COP en lo que respecta a los costos de almacenamiento por día por productor logrando un mayor beneficio al total del desempeño de la cadena. 4. Discusión

 n β 2H n  n χ D (5) CT= Q  ∑ i + ∑ βi2α i hi D  + ∑ ci βi D + s Q 2mi i 1 = =  i 1=  i1 Si esta expresión se deriva y se iguala a cero, se obtiene como cantidad óptima a ordenar:

Q* =

χD    H  βi2    + α i hi D  ∑ i =1   2mi  

(6)

n

Como puede verse en (6), hay un claro inconveniente en la resolución de manera analítica del problema de optimización, ya que, los coeficientes β también son variables de decisión y por ende varían. Para la resolución de este problema, Glock propone que la búsqueda se haga de manera exhaustiva cambiando los valores de mi y de este modo los β i [12]. En este caso particular, las cantidades óptimas a ordenar fueron calculadas mediante los

mi encontrados en campo y

la implementación del algoritmo de optimización se realizó con la ayuda del software GAMS ®. Con la implementación propuesta del modelo se estima una reducción en los costos de la cadena de un 2.57% en la operación diaria, dentro de la metodología se debe contemplar que dicho ahorro permitiría una reinversión en telefonía para la comunicación entre pequeños productores y acopios, por el contexto tanto cultural como geográfico la opción más viable se basa en la comunicación telefónica apoyada con un sistema de toma de pedidos más eficiente en el que se conozcan mediante preventa en cada recolección las condiciones del productor para la siguiente entrega, como parte de la propuesta se establece que se tomaran registros en cada entrega y se realizaran retroalimentaciones de manera que se genere dicha cultura de preventa, atendiendo a que para cualquier caso en el que no exista un flujo de información constante y acertado en las políticas VMI no podrán ser implementadas. En el eslabón de los productores se evidencia que con la restructuración de

Atendiendo la estructura actual de la cadena de abastecimiento de leche fresca en la provincia de Sugamuxi, se propone una metodología que permita la reducción del costo total de la red, mediante un proceso de coordinación de inventarios que asegure la satisfacción de la demanda del cliente y minimice las pérdidas que se presentan actualmente en el proceso por el desconocimiento de necesidades entre los nodos de la cadena. Se propone como política para el sector evaluado adoptar una metodología integral que busca dar el control de los inventarios a los centros de acopio, ya que, son quienes mayor poder tienen en la cadena y se compone de tres fases que se definieron de acuerdo al contexto tanto cultural como económico que envuelve a la zona objeto de estudio. Las tres fases son:a. Determinación de necesidades; b. Seguimiento y evaluación y c. Retroalimentación. 4.1. Determinación de las necesidades Se recomienda para esta fase contemplar el desarrollo de las siguientes actividades de manera periódica sin que se llegue a presentar una posible dificultad que entorpezca la operación normal del acopio. i. Generación de una base de datos de la demanda del acopio en medio magnético, soportando las entregas con un formato sencillo de cantidades, tiempo y calidad de las entregadas. ii. Clasificación de los proveedores de acuerdo al volumen de producción y ubicación geográfica. iii. Registro en cada recolección de las cantidades y precios que se concibieron en la ruta, así como del kilometraje recorrido en la ruta. iv. Evaluación de la aplicación e impacto de los criterios de coordinación de inventarios bajo la óptica del VMI. v. Diseño de un sistema efectivo de recolección mediante la definición de medios de transporte y rutas óptimas para las visitas a los productores. 4.2. Seguimiento y evaluación

264

En esta fase se plantea desarrollar la recolección en cada


Guzmán-Camacho et al / DYNA 81 (186), pp. 259-266. August, 2014.

punto de producción llevando, in situ, los registros respectivos que permitan la trazabilidad del proceso y la evaluación del efecto de la misma en campo. Para tal se proponen las siguientes actividades: i. Preparación de la ruta y alistamiento, previo conocimiento de la capacidad de responder de los productores a los cambios en la demanda, para esta caso se deben tener en cuenta los registros que se llevan de la operación diaria, dado que la recolección y acopio de leche fresca se realiza día a día los registros que se pueden llevar históricos no requieren una antigüedad considerable. ii. Evaluación de la situación del proveedor y realización de seguimiento a sus necesidades. 4.3. Retroalimentación En esta etapa se realiza una retroalimentación acerca del funcionamiento de la operación, que se puede llevar a cabo una vez al mes por parte de los productores, en donde se indiquen sus sugerencias y comentarios acerca de la dinámica liderada por el centro de acopio. Adicional a la metodología anteriormente descrita y gracias al algoritmo de Yao (*) modificado, es posible modelar la situación de ordenamiento del centro de acopio mediante un modelo exacto, y así, determinar la cantidad óptima a pedir por parte del centro de acopio. La demanda del centro de acopio es constante a lo largo del año, así que algunas asunciones del modelo EOQ serán tenidas en cuenta. 5. Conclusiones En el siguiente apartado se presentan los principales hallazgos del estudio en conjunto con las sugerencias para discusión y futuras investigaciones. Estas conclusiones se derivan de las investigaciones que desarrolla el grupo SEPRO en el área logística, enmarcado en los actuales tópicos relevantes en este campo, por lo que se espera que el presente estudio sea utilizado como referente para la comunidad científica y el sector empresarial que puedan encontrar en estos resultados hechos relevantes y significativos para su análisis y consideración. La implementación de una política permanente de acopio/distribución para la recolección y almacenamiento de leche cruda en la provincia del Sugamuxi, desde una metodología integral que incluya dentro de sus modos, medios, técnicas y herramientas, en asocio con estrategias bajo criterios VMI, logrará una disminución en los costos de la cadena, mejora del servicio, así como buscar un procedimiento que apunte a asegurar la inocuidad de la leche, esto bajo una implementación gradual que incluye la adopción de apropiados sistemas de comunicación y rastreo gobernados por los proveedores(centros de acopio), con la participación clara de los productores en un ambiente ganagana. Dado que la información es un factor determinante en la adopción de la metodología, se propone la elaboración, seguimiento y control de medios (registros y formatos) para

llevar un histórico que permita una evaluación, revisión y adopción de parámetros medidos con exactitud en la cadena de suministro del sector lácteos. Los resultados en términos de costos, en promedio lograrían una reducción del 2.57 % en la operación diaria de almacenamiento en la red considerada. Este ahorro termina siendo significante y determinante de sostenibilidad, para una red de suministro donde los márgenes de rentabilidad son mínimos. La investigación determinó la importancia de hacer énfasis en las inversiones requeridas en mejorar infraestructura de información, donde además de los actores considerados (centros de acopio y productores), el estado juega un papel relevante promoviendo políticas públicas que propendan por la facilitación en la adopción de infraestructura adecuada de comunicaciones para este sector. Se concluye también en la importancia de adoptar la metodología descrita en este artículo, asociada con líneas futuras de investigación en este sector y en el tema de logística sobre reubicación de los centros de acopio o evaluación de puntos crossdocking flotantes necesario para seguir mejorando los procesos de recolección de leche cruda. Se recomienda el desarrollo de la relación comercial coordinada entre centros de acopio y productores, soportada en un sistema de información integral gobernada por el centro de acopio que permite una toma de decisiones que apunten a disminuir costos de operación, mejores niveles de servicio asociados a la operación logística. Se hace énfasis en la importancia de adoptar estrategias VMI, dirigidas por el centro de acopio, en armonía con la revisión de los modos y medios utilizados en las prácticas logísticas relacionadas con el manejo de la leche cruda, donde las incidencias fueron evaluadas en esta investigación con los resultados que anteriormente fueron explicitados. Referencias [1]

Yao, Y. and , M., The inventory value of information sharing, continuous replenishment, and vendor-managed inventory. Transportation Research Part E, Logistics and Transportation Review, 44 (3), pp. 361-378, 2008.

[2]

Proexport., Sector lácteo en Colombia 2011 [en línea]. Obtenido de http://www.proexport.com.co.[mayo 2014]

[3]

FEDEGAN., Informe de las MIPYMES del sector ganadero20082011 [en línea]. Obtenido de http://www.fedegan.org.co. [mayo 2014].

[4]

Colombia. Documento CONPES 3675. Política Nacional para mejorar la competitividad del sector lácteo colombiano, 19 de Julio de 2010, 50 P.

[5]

Sarmah, S., Acharya, D. and Goyal, S.K., Buyer vendor coordination models in supply chain management. European Journal of Operational Research, 105 (1), pp. 1-15, 2006.

[6]

Sucky, E., A bargaining model with asymmetric information for a single supplier single buyer problem, European Journal of Operational Research, 171 (2) pp. 516-535, 2006.

[7]

Vidal, C., Fundamentos de Gestión de Inventarios, 1ª edición, Universidad del Valle, Cali, Colombia. 2009. 364 P. ISBN: 978958-670-863-0.

265


Guzmán-Camacho et al / DYNA 81 (186), pp. 259-266. August, 2014. [8]

Jammernegg, W. and Reiner, G., Performance improvement of supply chain processes by coordinated inventory and capacity management, International Journal of Production Economics, 108 (1-2), pp. 183–190, 2007.

[9]

Disney, S., Potter, A. and Gardner, B., The impact of vendor managed inventory on transport operations, Transportation Research Part E: Logistics and Transportation Review, 39 (5) pp. 363-380, 2003.

[10]

Huang, W., Kulkarni, V., Swaminathan, J., Optimal EOQ for announced price increases in infinite horizon, Operations Research, 51 (2), pp. 336-339, 2003.

[11]

Goyal, S. and Gupta, Y.P., Integrated inventory models: The buyer vendor Coordination, European Journal of Operations Research, 41 (3), pp. 261-269, 1989.

[12]

Glock, C., A multiple-vendor single-buyer integrated inventory model with a variable number of vendors, Computers & Industtrial Engineering, 60 (1), pp. 173-182, 2011.

[13]

Van der Vlist, P., Kuik, R. and Verheijen, B., Note on supply chain integration in vendor-managed inventory, Decision Support Systems, 44 (1), pp. 360-365, 2007.

[14]

Martínez, M., Suarez, C., Pérez, J., et al., Metodología de análisis del potencial de integración productiva y desarrollo de servicios logísticos de valor agregado de proyectos IIRSA[en línea]. Enero 2003. Obtenido de: http://www.iirsa.org/admin_iirsa_web/Uploads/Documents/Analis is%20de%20la%20Cartera%20de%20Proyectos.pdf.> Mayo 2014.

H.F. Salazar-Sanabria, es Ing. Industrial, Esp. en Gerencia de la Producción, Mejoramiento Continuo, Esp. en Informática y MSc. en Ingeniería con Énfasis en logística de la Universidad Distrital. Actualmente se desempeña como profesor de planta en la Universidad Pedagógica y Tecnológica de Colombia - UPTC, Seccional Sogamoso, Colombia. Es investigador en Logística del Grupo Sociedad, Economía y Productividad (SEPRO). Ha dirigido investigaciones sobre logística para diferentes sectores de la economía colombiana. W. Adarme-Jaimes, es Ing. Industrial, Esp. en Gerencia de la Producción, Mejoramiento continuo, MSc. en Ingeniería con énfasis en logística y Dr. en Ingeniería Industria y Organizaciones con Énfasis en logística. Actualmente se desempeña como profesor asociado en el Departamento de Ingeniería de Sistemas e Industrial de la Facultad de Ingeniería, Universidad Nacional de Colombia - Sede Bogotá, Colombia. Es director del Grupo de investigación en Logística Sociedad, Economía y Productividad (SEPRO) de la Universidad Nacional de Colombia. Ha dirigido investigaciones sobre logística para diferentes sectores de la economía colombiana, con publicación de resultados en revistas indexadas. Consultor en política pública sobre logística para los Ministerios de Comercio, Transporte y Salud de en Colombia y la Alcaldía mayor de Bogotá. Director de tesis de maestría y doctorado en Logística. Ponente en congresos internacionales sobre logística en Alemania, México, Panamá, Venezuela y Colombia.

C.H. Guzman-Camacho, es MSc. en Ingeniería con énfasis en logística de la Universidad Nacional de Colombia. Actualmente se desempeña como Profesional de Planta de la empresa Sab Miller Bavaria, Bogotá, Colombia como Superintendente de Distribución. Es Investigador en Logística. Grupo Sociedad, Economía y Productividad (SEPRO).

266


Logistics process improvement of warehousing and picking in a colombian company textile sector Carlos Eduardo-Díaz a, Javier Arias-Osorio b & Henry Lamos c a.

Universidad Industrial de Santander, Colombia, cediazbo@uis.edu.co Universidad Industrial de Santander, Colombia, jearias@uis.edu.co c. Universidad Industrial de Santander, Colombia, hlamos@uis.edu.co b.

Received: May 12th, 2014. Received in revised form: July 1th, 2014. Accepted: July 28th, 2014

Abstract This research considers the design problem of distribution center and picking in a Colombian textile company. Through a literature review, the methodology for the design of the facility that best adjusts the company for minimize the time picking is set. As from the methodology selected the orders profiles is built, based on the characterization, the problems designing and picking is way comprehensive treated. Different scenarios of distribution center design and picking and routing policies are evaluated, in order to identify the influence of the scenarios and policies at time of picking and utilization factor of resources involved in the process. The results contribute to improvement of process indicators; it is reflected in operating costs and customer service. Keywords: Warehousing, Shaping batches, Layout, Picking.

Mejoramiento de los procesos logísticos de almacenamiento y preparación de pedidos en una empresa del sector textil colombiano Resumen Esta investigación considera el problema de diseño de centros de distribución y preparación de pedidos o alistamiento, en una empresa del sector textil colombiano. Mediante una revisión literaria se establece la metodología para el diseño del centro que mejor se ajusta a la empresa para minimizar el tiempo de alistamiento. A partir de la metodología seleccionada se construye el perfil de los pedidos, con base en la caracterización, se trata de manera integral el problema de diseño y alistamiento. Se evalúan distintos escenario de diseño del centro de distribución y políticas de alistamiento y de ruteo, con el propósito de identificar la influencia de los escenarios y políticas en el tiempo de alistamiento de pedidos y el factor de utilización de los recursos involucrados en el proceso. Los resultados contribuyen a la mejora de los indicadores de los procesos, reflejados en los costos de operación y el servicio al cliente. Palabras clave: Almacenamiento, Conformación de lotes, Layout, Picking.

1. Introducción Se considera que aproximadamente el 60% de todas las actividades y el 65% de los gastos operativos en un centro de distribución, los consume el alistamiento pedidos [1], el alto consumo de costos y actividades del proceso, revela la importancia de mejorar la eficiencia del mismo; por tanto, la evaluación y definición de políticas adecuadas que regulen el desarrollo de estas actividades, son la base para la eficiencia e innovación continua de la logística de la empresa, buscando mejorar el nivel de servicio que debe ser el objetivo del proceso [2]. Es válido aclarar que la elección de una política de alistamiento tiene efectos

trascendentales no solo en la eficiencia sino también en el costo de los sistemas de alistamiento en empresas comercializadoras [3], pero sus resultados están muy ligados a las decisiones en cuanto al diseño del layout del almacén, ya que como establece [4], es imperativo para el éxito de las organizaciones que los centros de distribución (CEDI) sean diseñados de forma que funcionen eficientemente, ya que los costos en gran medida están determinados en la fase de diseño. Políticas como las de alistamiento de pedidos y ruteo, buscan el mejoramiento del proceso e implican la caracterización de las actividades que forman parte del mismo, ya que por un lado, las políticas de alistamiento

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 267-275. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Eduardo-Díaz et al / DYNA 81 (186), pp. 267-275. August, 2014.

determinan la forma en que los artículos son agrupados según las órdenes de pedidos, la liberación de estos y la disposición de los productos previamente seleccionados [5]; mientras que por el otro, las políticas de ruteo, son las encargadas de definir la secuencia de desplazamientos del alistador para recoger el número de artículos requeridos de acuerdo a las órdenes de pedido liberadas. Así, la determinación de las políticas está íntimamente relacionada con la distribución física del almacén y la política de almacenamiento existente [6], [7] . En Colombia, el sector textil representa el 8% del PIB manufacturero y el 3% del PIB nacional, constituye más del 5% del total de las exportaciones del país y es uno de los principales generadores de empleo [8]. Este trabajo se realizó en una empresa comercializadora de productos textiles ubicada en la ciudad de Bucaramanga, reconocida como una de las 500 empresas más grandes de Colombia, orientada al mejoramiento de los procesos como clave para el crecimiento continuo de la organización, por lo cual dentro de su planeación estratégica proyecta cambios en el centro de distribución principal por medio del estudio y análisis de los procesos logísticos de la empresa, con el fin de aumentar su competitividad y la satisfacción de sus clientes. Por lo tanto, en este trabajo se contempla el problema integral de la operación del centro de distribución de la empresa comercializadora, centrado en las operaciones de alistamiento de pedidos, partiendo del diseño de la bodega. Este documento se basa en una revisión de literatura realizada en [9], como fundamento teórico para el desarrollo de la investigación; además tiene en cuenta los resultados obtenidos mediante la técnica muestreo de trabajo, que buscaba identificar el impacto de las actividades en el tiempo de alistamiento; las buenas prácticas identificadas en la literatura, las cuales tienen un impacto positivo en el alistamiento de pedidos y el modelo y los resultados obtenidos tras la simulación.

Fuente: Tompkins, J.A, et al, 2010

De acuerdo con [10], el diseño de distribución física del CEDI debe considerar no solo la asignación de los productos en los espacios de almacenamiento, sino también el arreglo o la disposición de las áreas funcionales, el número y la localización de los muelles de carga/descarga, el número de pasillos y sus dimensiones, su orientación, los requisitos de espacio, el patrón de flujo dentro de la bodega, y las zonas de alistamiento de pedidos. El diseño de la distribución física de un CEDI, es una tarea compleja; un esquema que clasifica los problemas de planeación operativa en el diseño se muestra en la Fig. 2. Entre las operaciones del almacén se encuentra el alistamiento de pedidos que se define como el proceso de selección de mercancía requerida del área de almacenamiento de acuerdo a las órdenes de los clientes [5], [11], [12]. El alistamiento es cada vez más importante en la cadena de suministro, tanto desde el punto de vista del sistema de producción, como en lo que respecta a actividades de distribución [13]. Esta importancia se debe a que el proceso puede implicar hasta un 60% de todas las actividades y ser responsable de más del 65% de los gastos operativos de un almacén [1], [14]. Por tanto, la diferencia entre las utilidades y pérdidas dependen de que tan bien se ejecuten las operaciones del alistamiento de pedidos [15]. La mayoría de los esfuerzos para mejorar la eficiencia operativa del alistamiento de pedidos pueden estar categorizados en tres grupos: política de ruteo, el procesamiento por lotes y la asignación de almacenamiento [2]. En [16] analizan el tiempo requerido para alistar una orden, el cual consta de tres componentes: el tiempo de recorrido entre productos, el tiempo de recolectarlos y las actividades restantes. De hecho, cerca del 50% del tiempo total del alistamiento de pedidos, se gasta en recorridos [17]. Las políticas de alistamiento determinan la forma en que los

2. Problema del diseño del layout En un centro de distribución se llevan a cabo varios procesos con el objetivo de cumplir con los pedidos solicitados por el cliente en el menor tiempo posible, y así potenciar las ventajas competitivas contempladas en la planeación estratégica de la empresa. Un resumen de las funciones que debe cumplir un Centro de Distribución, se describe en la Fig. 1.

Figura 1. Funciones y flujos comunes en un almacén.

Figura 2. Guía para el diseño de bodegas y problemas operacionales. Fuente: Gu, J., 2005. 268


Eduardo-Díaz et al / DYNA 81 (186), pp. 267-275. August, 2014.

SKU’s son agrupadas en órdenes de alistamiento, y posteriormente recogidas de su ubicación en el almacén por uno o varios operarios encargados del proceso. Según [18], existen cinco políticas de alistamiento de pedidos: discreta, por lotes, por zonas, brigadas de pedidos y por olas; mientras que, para [19] las estrategias más importantes son el alistamiento discreto, por zonas, por lotes y por olas. Por su parte, las políticas de ruteo permiten determinar la secuencia en que deben ser recogidos los productos en cualquier recorrido [20]; su objetivo es marcar el orden de los artículos que están en la lista a recoger, con el fin de asegurar una buena ruta a través del almacén [5], [19], [21]. Diversas políticas de ruteo se usan para almacenes con un solo bloque de pasillos, entre las más populares se encuentran: En forma de S o transversal, política de retorno, punto medio, el mayor espacio, combinada o compuesta. La asignación de las ubicaciones a los productos se hace a través de ciertos criterios: [22] 1. Popularidad, los productos de mayor popularidad son ordenados de manera decreciente y las clases de producto con mayor popularidad son asignadas a las mejores ubicaciones. 2. Inventario máximo, para esta política se ordenan los productos de manera incremental en cuanto al inventario máximo y los que tengan inventarios máximos más bajo, se asignan a las ubicaciones más convenientes. 3. Cube per order index, COI, propuesto por [23], toma en Tabla 1. Metodologías de diseño de distribución física (2000-2006) [27]. Rouwen Rushton et Rowley horst et al. al. Definir conceptos Recolecta r datos

Definir requerimientos del sistema y restricciones de diseño Definir y obtener datos relevantes Analizar datos

Definir y obtener datos Analizar datos

Definir especificacion es funcionales

Postular opciones operativas del sistemas

Definir especificacion es técnicas

Considerar características de maquinaria

Considerar características de maquinaria

Seleccion ar maquinaria y recursos

Calcular las necesidades de maquinaria

Calcular las necesidades de maquinaria Calcular las necesidades de personal Realizar un borrador de distintas distribuciones físicas

Definir otros servicios auxiliares Desarrolla r la distribución física

Realizar un borrador de distintas distribuciones físicas

Bodner

Definir requerimientos del sistema y restricciones de diseño

Establecer unidades de carga Postular operaciones y métodos básicos

Establecer unidades de carga

consideración tanto la popularidad de los productos, como los espacios de almacenamiento, ordenando el valor del COI de manera incremental. Los productos con el índice más bajo, son almacenados en las ubicaciones más convenientes [24]. Es uno de los métodos más populares para el almacenamiento dedicado y el que más se ha estudiado de forma exhaustiva según [25]. El tema de diseño de bodegas y centros de distribución, ha sido ampliamente tratado en la literatura científica, distintas metodologías describen el proceso en una serie de etapas variando de 3 hasta 20 pasos, en la Tabla 1 se presentan algunas metodologías en orden cronológico. En el caso de la empresa estudiada, el problema de diseño del layout se identificó mediante un diagnostico logístico realizado a la empresa en [26] que logró establecer falencias en el CEDI, como la dificultad de localización de la mercancía, lo que implica tanto largos desplazamientos como alto consumo de tiempo, no definición de una ruta o secuencia determinada de recolección de los pedidos a despachar, además durante el alistamiento de pedidos se presentan actividades especiales como cambios en la unidad de empaque y cortes que demandan la utilización de recurso humano, instalaciones, equipos, etc, ocasionando que el flujo de trabajo del CEDI se interrumpa constantemente, evidenciando la necesidad de una restructuración de las operaciones del CEDI, así como la definición de políticas de alistamiento de pedidos y ruteo.

Hassan

Walters

Definir los requerimientos del negocio y las restricciones de diseño

Especificar el tipo y propósito de la bodega Reunir datos Clasificar datos

Pronostico y análisis de la demanda Establecer políticas operativas

Estimar demanda Pronóstico de los movimientos en la bodega

Determinar niveles de inventario Determinar decisiones de alto nivel Definir especificaciones estructurales de alto nivel

Clasificar los productos por clases Departamentaliza r y realizar una distribución física general Dividir en áreas de almacenamiento

Fuente: Baker, P. and Canessa, M., 2009

269

Definir y obtener datos Formular un horizonte de planeación Definir los principios operativos

Comparar la maquinaria y equipo disponible Calcular requerimientos de espacio Definir la cercanía de los productos

Diseñar sistemas de manejo de materiales Diseñar los pasillos

Rushton et al.

Evaluar el tipo de maquinaria disponible Preparar distribuciones físicas internas y externas Definir los procedimientos operativos Evaluar flexibilidad del diseño

Realizar un bosquejo de la distribución física

Calculas necesidades de maquinaria


Eduardo-Díaz et al / DYNA 81 (186), pp. 267-275. August, 2014.

versión 6.0 y los resultados son analizados mediante análisis estadístico.

3. Metodología En este trabajo se aplica la metodología de Rushton et al. [28] para dar solución al problema del diseño del CEDI de la empresa., por ser la más completa en el análisis y consideraciones de cada una de las etapas del diseño de un centro de distribución, la más reciente encontrada en la literatura y considerar una etapa de definición de escenarios. De acuerdo con la metodología de [28], el desarrollo del diseño inicia con la definición de los requerimientos y restricciones, en las que se tendrán en cuenta los requerimientos tecnológicos (Sistema de información), operativos, tendencias del mercado y las restricciones (Espacio, equipos, financieras). Los datos necesarios que se tienen en cuenta para la evaluación son: Características físicas de los productos, perfil de los pedidos, niveles de servicio, operaciones en el CEDI y proyecciones de crecimiento. La información se recolectó de las bases de datos de recepciones y despachos de enero de 2011 a junio de 2012. Se realizó un estudio de muestreo de trabajo en la empresa, que permitió conocer las actividades que presentaban mayor consumo de tiempo en el proceso de picking; esta técnica se basó en los pasos planteados en [29]. Para la definición de las operaciones de la bodega, [24] se define el perfil de actividad de una bodega como el perfil de los pedidos y el de actividad de los productos, los cuales definen el volumen de operación para tomar decisiones tácticas y operativas como son: política de almacenamiento, maquinaria y equipo necesarios, y la distribución física de la mercancía. Se realizó un análisis para determinar el porcentaje de pedidos en los que se despacha una estiba completa o media estiba de una misma referencia de producto a fin de establecer si se necesitan áreas separadas para favorecer la eficiencia de la operación. Además se efectúo un análisis de Pareto para analizar la popularidad de las referencias de los productos, y se utiliza el criterio Cube per order index (COI) para determinar la ubicación de los productos y posteriormente determinar el área requerida. Por otra parte, se analiza la situación actual de cada uno de los procesos operativos del CEDI para identificar elementos susceptibles de mejora que definan una nueva operación. Se realiza un análisis de flujos de entrada y salida del CEDI por día con el propósito de definir principios operacionales y la maquinaria que logre soportar el nivel de operación. Para determinar la distribución física del área de almacenamiento se usó el software de optimización propuesto en [30], los resultados obtenidos se comprobaron a través del modelo de optimización propuesto por [31], además se utiliza un software de simulación para evaluar escenarios de distribución física del almacén. Establecido el diseño de la bodega, se realiza un análisis de los procesos desarrollados en el alistamiento de pedidos a fin de hacer un mejoramiento, en el que se pretende eliminar actividades que no agregan valor. Una vez seleccionadas las políticas de alistamiento y ruteo a evaluar, se conforman escenarios y se crea un modelo conceptual a partir del cual se desarrolló la simulación de los mismos utilizando el software FlexSim

4. Resultados A partir del estudio de muestreo del trabajo realizado en el CEDI de la empresa, se establece que la actividad que tiene mayor consumo de tiempo es el desplazamiento, los alistadores gastan alrededor del 25% de su tiempo desplazándose por la bodega; seguido por la actividad de ubicar que consume aproximadamente el 11%. Para el mejoramiento de esta condición, se inicia por el diseño del layout. 4.1. Perfil de los pedidos De acuerdo a [24], la caracterización de pedidos definirá la disposición más adecuada para almacenar los productos, de acuerdo a la solicitud del cliente, con el propósito de minimizar el tiempo de alistamiento y el costo de la operación. Esta caracterización identificó mezcla de líneas, mezcla de grupos, número de referencias, cantidades despachadas, popularidad de las referencias. Los resultados se resumen así: De 31.616 pedidos analizados, la mezcla entre líneas de producto (Tejido plano, tejido punto y no tejido) se presenta solo en un 2% de las ordenes, es decir, la tendencia es que cada pedido contenga una sola línea, lo que determinó una distribución dentro del CEDI por zonas de líneas de producto. Se realizó un análisis de la forma como se mezclan los grupos de productos en cada pedido resultando que el 89.62% de los pedidos contiene un solo tipo de tela y por lo tanto no se recomienda mezclar grupos de productos al momento de almacenarlos, lo anterior sugiere un almacenamiento por zonas de grupos de producto dentro de las líneas establecidas. Se realiza la asignación de porcentaje del almacén a cada línea de producto bajo los siguientes criterios: Ventas, rentabilidad, inventario promedio en cantidades, inventario promedio en pesos, espacio ocupado promedio y consulta de expertos. Con el propósito de disminución de requerimientos de área de almacenamiento, se establece un almacenamiento aleatorio para las referencias de producto bajo las líneas. También se determinó que el 89.61% de los pedidos contienen entre una y tres referencias de producto y que el 86.39% se realizan por menos de 10 rollos de tela; esto sugiere la posibilidad de conformación de lotes en el alistamiento de pedidos, elemento que será evaluado en alistamiento de pedidos. A partir del análisis para determinar el porcentaje de pedidos en los que se despacha una estiba completa o media, se establecieron cuatro referencias de materias primas en rollos en las que el despacho en promedio se realizaba el 42.27% de los días en cantidades de al menos una estiba y el 25.27% de los días en medias estibas. De la misma forma, el 40% de los despachos de láminas se realiza en cantidades superiores a medias estibas. Esta condición determinó la disposición de un área de reserva para almacenamiento de producto estibado bajo las condiciones en las que se solicitan los pedidos. Por la difícil manipulación de los productos y sus características físicas,

270


Eduardo-Díaz et al / DYNA 81 (186), pp. 267-275. August, 2014.

para este tipo de almacenamiento se requiere de herramientas que faciliten de manera efectiva el recibo, transporte, almacenamiento, manipulación y despacho; se optó por recomendar estibas auto-apilables para el almacenamiento de rollos. Se determinó la cantidad necesaria de estibas, su inversión y los beneficios en disminución de requerimientos de área y simplificación de la operación. Al contar con un área de estibas auto-apilables se atenderían el 9% de las ventas en tan solo 131 m², correspondiente al 2% del área del almacén principal de la empresa, permitiendo una reducción en el área requerida de 311 m2. Al analizar la popularidad de las referencias de los productos mediante un análisis de Pareto, se identificó que el 90% de las ventas de la empresa estaban concentradas en 333 productos que representan alrededor del 5% del total de productos. Esto sugirió el establecimiento de un área de alistamiento dedicado para estas pocas referencias, concentrando la mayor parte de la operación en un área pequeña con desplazamientos cortos en el alistamiento de los pedidos. Se calculó el área requerida y la ubicación de los productos se establece de acuerdo al COI. De esta forma, en el área de almacenamiento dedicado, el 40% de las ventas promedio se alistarían en el 15% de la estantería y Aproximadamente el 85% de la capacidad de almacenamiento en estantería se utilizaría con una política de almacenamiento aleatorio que permite alto aprovechamiento del espacio. 4.2. Diseño del layout El análisis de los procesos operativos del CEDI permitió encontrar los siguientes resultados, para los procesos de: recepción, inspección y etiquetado, se estableció el uso de estibas auto-apilables y equipos portátiles de información e identificación, que permiten la eliminación de los desplazamientos en la operación, la reducción del tiempo de la mercancía en inspección de 3 a 1 día y el área requerida en un 70.95%, cubriendo el 95.87% de las recepciones. En almacenamiento, se cambió la política de almacenamiento dedicado a una política por líneas de producto, dentro de las líneas zonas de almacenamiento por grupos de producto y dentro de estas zonas el almacenamiento será aleatorio, se definió un área de almacenamiento dedicado muy cerca del área de despacho para las 333 referencias de mayor movimiento, áreas de almacenamiento para despachos en estibas completas y medias estibas que produce un beneficio en la reducción de espacio de almacenamiento en un 22.4% y un área para almacenamiento en arrumes; para el almacenamiento de las láminas, por sus características físicas se ubican estibadas en los niveles 5 de la estantería, ya que pueden ser alistadas por el montacargas. En alistamiento de pedidos, se analizó la operación de corte, esta actividad se realiza debido a estrategias comerciales que tiene implementada la empresa, las cuales suponen ofrecer la mercancía en metros (m) más no en rollos, como consecuencia la cantidad solicitada por el cliente no equivale al contenido de cada referencia, ocasionando que se deba realizar el corte para completar la cantidad requerida, la evaluación de la operación encontró que del

total de pedidos facturados en el periodo analizado (31.616 pedidos) solamente el 3,71% requirió corte, se identificó que el segmento de clientes que está solicitando más del 50% de los cortes es Confección infantil, el cual aporta a la utilidad operativa un 3,2%. A pesar de generar utilidad operativa, se determinó la cantidad de desplazamientos que genera un corte para dimensionar el nivel de dificultad que requiere esta actividad, encontrando que los desplazamientos se aumentan en un 37,5%, generando un alto costo con respecto a la generación de utilidad. Otros procesos como despacho y devoluciones también fueron estudiados en otros proyectos incluidos dentro de la investigación raíz. El análisis de flujos de entrada y salida del CEDI se realizó para la formulación de una base de planeación que permita proveer información y proponer los sistemas y metodologías de operación adecuadas para el flujo de mercancías en términos de volumen. Con base en la revisión de la literatura, se identificaron buenas prácticas para este tipo de empresa y se implementaron así, Proceso de recepción: Envíos directos para pedidos en volúmenes altos definidos a través de negociación con el proveedor, programación de las recepciones para eliminar picos de recibos que causan congestión en recibo de productos, Plataforma de transferencia Cross docking para el despacho de los pedidos en “backorder” por falta de producto, realizado en el momento de reaprovisionar la referencia, almacenamiento primario, almacenamiento temporal, preparación de mercancía, y Proceso de despacho: unidades de carga. Para la descripción de la maquinaria y equipo, se estableció el sistema de preparación de pedidos, el medio de almacenaje, el medio de manutención y la forma de llevar a cabo el almacenamiento. De acuerdo al volumen de operación, las características de los productos y medios utilizados, se definieron las características y cantidad de equipos necesarios. Una vez definidos los procesos operativos para el CEDI, la distribución física supone la definición de las áreas según los requerimientos de la operación. De esta forma se establece el área para los procesos de recepción, almacenamiento, alistamiento de pedidos, despacho y zonas auxiliares (devoluciones, administración y servicios). En la distribución física del área de almacenamiento, se usó el software de optimización propuesto en [30], en el que se tienen las siguientes consideraciones: Número de cajoneras totales, número de niveles, cajoneras primer nivel, ancho de la cajonera, distancia total de pasillos, ancho de pasillos, ancho de pasillos transversales. Después de ingresados los datos los resultados indican que la mejor distribución para la operación de la empresa, es utilizar 2 bloques, 10 pasillos de alistamiento y un solo pasillo transversal. Estos resultados se comprobaron a través del modelo de optimización propuesto por [31], en el que se diseñan las dimensiones del área de almacenamiento minimizando los recorridos en el alistamiento de pedidos.

271

∝ . .:

1

2

,

(1) 0


Eduardo-Díaz et al / DYNA 81 (186), pp. 267-275. August, 2014.

Figura 3. Distribución física recomendada para el CEDI. Fuente: Los autores

Siendo m el número de cajoneras o ubicaciones necesarias, αx y αy las dimensiones de la cajonera, wx y wy el ancho de los pasillos laterales y central respectivamente, nz el número de ubicaciones en dirección del eje z (altura) y v la velocidad promedio de un operario Para el cálculo del número de muelles requeridos para cargar/descargar, se toma como base lo planteado por [31]. El área de los muelles se determina según los planteamientos de [32]. (2) Donde, nD es el número de muelles requerido, d es la demanda diaria de todas las ordenes requeridas, t es el tiempo promedio para cargar/descargar un camión, q es la capacidad del camión y T es el tiempo diario disponible para cargar/descargar un camión. De acuerdo a las condiciones de la empresa, el número de muelles requerido es de 2. Por medio de simulación en FlexSim versión 6.0, se evaluaron escenarios que contemplan: Distribución física del almacén en U y en T, con políticas de almacenamiento aleatorio y una mezcla de aleatorio dedicado por líneas. Se evalúan los resultados considerando área requerida, costos de inversión, distancia promedio recorrida y personal requerido. Los resultados permiten recomendar a la empresa que la distribución debe ser flujo en U con almacenamiento dedicado por líneas. La distribución se muestra en la Fig. 3. 4.3. Alistamiento de pedidos El análisis de los procesos de alistamiento de pedidos identificó que muchas de estas actividades, podían ser eliminadas apoyados en un sistema de información y equipos que tecnológicamente permitieran la transmisión de información a través de terminales portátiles. Las políticas

de alistamiento propuestas para evaluación son tres: política de conformación de lotes, política de ruteo y política de asignación de ubicaciones. Para la asignación de ubicaciones de los productos en el almacén, se desarrollaron consideraciones definidas en el diseño del CEDI. En la evaluación de la política de conformación de lotes, se consideran 2 escenarios a evaluar: La política de alistamiento pedido a pedido, debido a que se emplea actualmente en el CEDI principal, por tanto, se concluyó la importancia de conocer qué influencia tiene sobre el tiempo de alistamiento, y, el alistamiento por lotes; la cual se estableció como una de las más eficientes en pedidos de pocos productos [33], como es el caso de la empresa estudiada. De acuerdo al perfil de los pedidos, la agrupación de los pedidos se realiza según la línea a la que pertenecen las referencias de cada orden; así, cada lote de pedido se clasificaron y agruparon según la línea a la que pertenecen las referencias demandadas ya sea, punto, plano o no tejido. Los lotes se conforman en un lapso de tiempo determinado. Se determinó a partir del estudio de la llegada de los pedidos en un día que los lotes de pedidos deben ser entregados en las horas: 8 am, 10 a.m., 11 a.m., 2 p.m., 3 p.m., 4 p.m., 4:30 p.m. y 5 p.m. de tal manera que la carga de trabajo sea equilibrada y se logre alcanzar el nivel de servicio que ha establecido la empresa. Para la definición de la política de ruteo, se tiene en cuenta que [6] demostró que en las políticas de almacenamiento basadas en el índice COI, la ruta transversal presenta mejor desempeño que la política de retorno y que según [7], la política de punto medio, puede llegar a ser mejor que la transversal cuando el número de artículos a recoger por pasillo es pequeño; se decidió evaluar las políticas de ruteo transversal y de punto medio, debido la sencillez de su aplicación y la compatibilidad con

272


Eduardo-Díaz et al / DYNA 81 (186), pp. 267-275. August, 2014.

Figura 4. Medias del tiempo de alistamiento por pedido, obtenidos con el Software SPSS. Fuente: Los autores

el criterio de ubicación utilizado (COI). Una vez seleccionadas las políticas, se conformaron los cuatro escenarios y se creó un modelo conceptual a partir del cual se desarrolló la simulación de los mismos utilizando el software FlexSim versión 6.0. Se evaluaron los cuatro escenarios, a los resultados obtenidos tras la simulación, se les realizó un análisis de varianza que demuestra diferencias significativas en los distintos escenarios, y una prueba Post-hoc con el método DMS (Diferencia Mínima Significativa) a partir de los cuales se obtuvieron los resultados que se muestran en la Fig. 4.

La Fig. 5 presenta la política de ruteo, en la que se ve que para una bodega como la de la empresa en consideración, con dos bloques y el último bloque sin salida al final del pasillo, se ha diseñado un ruteo combinado de retorno y punto medio, en el que los bloques de estanterías ha sido dividido a la mitad. En un caso general, el alistador sale del depósito con el lote de pedidos asignado y recorre la bodega hasta el último pasillo a la derecha que contiene referencias por recoger; este pasillo se recorre longitudinalmente hasta el último bloque en contener referencias solicitadas. Si es el último bloque, alistará los productos bajo una política de retorno, entrando al pasillo y recogiendo las referencias en él y regresando a la entrada. Los productos de los demás bloques se recogerán aplicando el criterio de punto medio. Esta ruta estaría establecida para el alistador en el orden establecido por el sistema de información. Si se requiere alistamiento de producto por estibas completas o de arrume, es una operación que realiza el montacargas de forma separada. En cuanto al factor de utilización de los recursos, se obtuvo que el uso de las políticas de alistamiento y ruteo evaluadas, tienen una incidencia significativa en los mismos, disminuyendo los factores de utilización al 32.61% en alistadores; 27.93% en elevadores y 29.46% en el montacargas Tabla II, esto muestra la reducción significativa en las cargas de trabajo y permite hacer una redistribución de personal y equipos y la asignación de otras tareas de almacenamiento. Tabla 2. Factores de utilización con la política Lotes-Punto Medio. LOTES-PUNTO MEDIO Alista dor1

Alist ador2

32,51 %

32,66 %

Fuente: Los autores

Figura 5. Ruteo en el alistamiento de pedidos para el CEDI. Fuente: Los autores

273

Alist ador3

Elev ador1

32,67 %

Elev ador2

25,4 2%

30,4 4%

Montac argas 29,46%


Eduardo-Díaz et al / DYNA 81 (186), pp. 267-275. August, 2014.

5. Conclusiones La revisión de la literatura permitió desarrollar una metodología adaptada a las condiciones particulares de la empresa, y guio de forma organizada el diseño del CEDI. Para gestionar eficientemente un CEDI, se deben definir políticas para las operaciones que se llevan a cabo en él como son el almacenamiento y el alistamiento. Los resultados obtenidos en los indicadores de desempeño y los costos de operación están determinados por las políticas establecidas. Los resultados de una política de alistamiento de pedidos están determinados por el diseño de la bodega, de tal forma, el problema debe ser abordado de forma integral. La evaluación del perfil de los pedidos es una herramienta eficaz para determinar conjuntamente el diseño del CEDI y las políticas de alistamiento de pedidos. De acuerdo a la caracterización de los pedidos, se puede concluir que la operación del centro de distribución presenta una baja complejidad en cuanto a un bajo número de referencias saliendo en el picking a pesar del alto volumen que se maneja; indicando un predominio del almacenamiento sobre el alistamiento y requerimiento de una escasa automatización de acuerdo a la clasificación establecida en [32]. La evaluación de la operación de corte, permitió sugerir al comité gerencial de la empresa establecer una política de venta por rollos completos eliminando la actividad de corte en los despachos de pedidos y estableciendo cambios en la red de distribución para atender a estos clientes a través de distribuidores mayoristas. Esta política está implementada actualmente. La tecnología de apoyo a las operaciones de almacenamiento y alistamiento de pedidos, permite la eliminación de muchas actividades administrativas que solo agregan costo al proceso. El nivel de operación de la empresa y sus características propias, permite concluir que ajustados a la restricción de disponibilidad de equipos y bajo la consideración de un predominio del almacenamiento sobre el alistamiento se presenta un requerimiento escaso de automatización y los equipos actuales permiten la operación de forma eficiente. Se concluye finalmente que para un almacenamiento basado en el índice COI, la política ruteo punto medio y alistamiento por lotes presenta los menores tiempos promedios de alistamiento al igual que la menor distancia promedio recorrida. Agradecimientos Este trabajo es presentado como instrumento de difusión del proyecto de investigación modalidad cofinanciación, convocatoria Colciencias No. 502 de 2010. COD. 1102502-27270 - CT. 727-2011. Bibliografía

[1]

Gademann N and Van de Velde S. "Order batching to minimize total travel time in a parallel-aisle warehouse," IIE Transactions, vol. 37, no. 1, pp. 63-75, Enero 2005. .( DOI: 10.1080/07408170590516917)

[2]

Roodbergen K J and Vis I F A, "A model for warehouse layout," IIE Transactions, vol. 38, no. 10, pp. 799-811, 2006. (DOI:10.1080/07408170500494566)

[3]

Petersen C, "An Evaluation Of Order Picking Policies For Mail Order Companies," Production and Operations Management, vol. 9, no. 4, pp. 319-335, Diciembre 2000. (DOI: 10.1111/j.19375956.2000.tb00461.x

[4]

Rouwenhorst B, Reuter B, Stockrahm V, and et al. , "Warehouse design and control: Framework and literature review," European Journal of Operational Research, vol. 122, no. 3, pp. 515-533, Mayo 2000. .(DOI: 10.1016/S0377-2217(99)00020-X)

[5]

De Koster R, Le-Duc T, and Roodbergen K, "Design and control of warehouse order picking: a literature review," European Journal of Operational Research, vol. 182, no. 2, pp. 481-501, Octubre 2007. (DOI: 10.1016/j.ejor.2006.07.009)

[6]

Caron F, Marchet G, and Perego A, "Routing policies and COIbased storage policies in picker- to- part systems.," International Journal of Production Research, vol. 36, no. 3, pp. 713-732, 1998. .(DOI:10.1080/002075498193651).

[7]

Hall R, "Distance approximations for routing manual pickers in a warehouse.," IIE Transactions, vol. 25, no. 4, pp. 76-87, 1993. (DOI:10.1080/07408179308964306)

[8]

PROEXPORT, Ministerio de Comercio, Industria y Turismo de Colombia. Portal Oficial de Inversión de Colombia. [Online] http://www.inviertaencolombia.com.co/sectores/manufacturas/textily-confeccion.html

[9]

Páez-Garzon A M and Pineda-Reina J K, "Evaluación del proceso de alistamiento de pedidos y análisis de las mejores práctias del proceso para la empresa Comertex S.A.," Escuela de Estudios Industriales y Empresariales, Universidad Industrial de Santander, Bucaramanga, Tesis de grado (Ingeniería Industrial) 2012.

[10] Tompkins J A, White J, Bozer Y, and et al. , Planeación de Instalaciones, 3rd ed. Mexico: Thomson Learning, 2006. . ISBN: 9789706865397 [11] Hassan M M , "A Framework for the design of warehouse layout.," Facilities, vol. 20, no. 13/14, pp. 432-440, 2002. (DOI:10.1108/02632770210454377) [12] Gu J, "The forward reserve warehouse sizing and dimensioning problem.," Georgia Institute of Technology, Doctoral Thesis 2005. [13] Merkuryev Y, Merkuryeva G, Piera M.A., and et al. , SimulationBased Case Studies in Logistics. Berlin: Springer, 2009. ISBN 9781-84882-187-3 [14] Bukchin Y, Khmelnitsky E, and Yakuel P, "Optimizing a dynamic order-picking process," European Journal of Operational Research, vol. 219, no. 2, pp. 335-346, Junio 2012. .(DOI: 10.1016/j.ejor.2011.12.041) [15] Melacini M, Perotti S, and Tumino A, "Development of a framework for pick-and-pass order picking system design," The International Journal of Advanced Manufacturing Technology, vol. 53, no. 9-12, pp. 841-854, Abril 2011. .(DOI:10.1007/s00170-0102881-2) [16] Bartholdi J J and Hackman S T, Warehouse and distribution science.: Supply Chain & Logistics Institute, 2008. [17] Modern Materials Handling," Cahners Pub. Co, Boston, Casebook directory 1981.

274


Eduardo-Díaz et al / DYNA 81 (186), pp. 267-275. August, 2014. [18] Tompkins J A, White J A, Bozer Y A, and et al. , Facilities Planning, 2nd ed. New York, 1996. ISBN 9780471002529 [19] Tompkins J A, White J A, Bozer Y A, and et al., Facilities Planning, 4th ed.: John Wiley & Sons, 2010. ISBN 9780470444047 [20] Parikh P J and Meller R D, "Selecting between batch and zone order picking strategies in a distribution center," Transportation Research Part E: Logistics and Transportation Review, vol. 44, no. 5, pp. 696719, Septiembre 2008. .(DOI: 10.1016/j.tre.2007.03.002) [21] Renaud J and Ruiz A, "Improving product location and order picking activities in a distribution centre," Journal of the Operational Research Society, vol. 59, no. 12, pp. 1603-1613, Diciembre 2008.(DOI:10.1057/palgrave.jors.2602514) [22] Chan F TS and Chan H K, "Improving the productivity of order picking of a manual-pick and multi-level rack distribution warehouse through the implementation of class-based storage.," Expert Systems with Applications, vol. 38, no. 3, pp. 2686-2700, Marzo 2011. (DOI: 10.1016/j.eswa.2010.08.058) [23] Ling-Feng H, Chia-Yun F, and Yi-Cheng H, "The Design of Batch Construction Heuristic for Order Picking Systems," in The 10th Asian Pacific Industrial Engineering and Management System Conference (APIEMS), Kitakyushu, 2009. [24] Frazelle E, World-Class Warehousing and Material Handling.: McGraw Hill Professiona, 2001. [25] Heskett J L, "Cube-per-order index – a key to warehouse stock location," Transportation and Distribution Management, pp. 27-31, 1993. [26] Frezelle E, Supply Chain Strategy: The Logistics of Supply Chain Management.. New York: McGraw-Hill, 2002a. [27] Petersen C G, Siu C, and Heiser D R, "Improving order picking performance utilizing slotting and golden zone storage," International Journal of Operations & Production Management, vol. 25, no. 10, pp. 997-1012, 2005. [28] Baker P and Canessa M, "Warehouse design: A structured approach," European Journal of Operational Research, vol. 193, no. 2, pp. 425–436, Marzo 2009. .(DOI: 10.1016/j.ejor.2006.07.009) [29] Gomez-Rosales M M, Pinzon-Mariño C, Ruiz-Ojeda D, and et al., "Mejoramiento de los procesos logísticos de Comertex S.A.," Escuela de Estudios Industriales y Empresariales, Universidad Industrial de Santander, Bucaramanga, Tesís de grado (Ingeniería Industrial) 2011.

[30] Rushton A, Croucher P, and Baker P, The Handbook of Logistics and Distribution Management, 3rd ed.: Kogan Page, 2006. ISBN 9780749446697 [31] Heizer J and Render B, Principios de administración de operaciones. México: Pearson Educación, 2009. ISBN 9786074420999 [32] Roodbergen K J, Sharp G P, and Vis I F A, "Designing the Layout Structure of Manual Order-Picking Areas in Warehouses," IIE Transactions, vol. 40, no. 11, pp. 1032-1045, 2008. (DOI:10.1080/07408170802167639) [33] Ghiani G, Laporte G, and Musmanno R, Introduction to logistics systems planning and control.: John Wiley & Sons, 2004. ISBN: 9780470849163 [34] Saldarriaga D, Diseño, Optimización y Gerencia de Centros de Distribución. Almacenar menos, distribuir más, 1st ed.: Impresos Begón, 2012. ISBN 9789584602589 [35] De Koster M B M, Van der Poort E S, and Wolters M, "Efficient orderbatching methods in warehouses," International Journal of Production Research, vol. 37, no. 7, pp. 1479-1504, 1999. (DOI:10.1080/002075499191094) C.E. Díaz, es Ing. Industrial, MSc. en Ingeniería Industrial. Profesor asistente de la Escuela de Estudios Industriales y Empresariales de la Facultad de Ingenierías Físico-Mecánicas, Universidad Industrial de Santander, Colombia. Es investigador del Grupo Optimización y Organización de Sistemas Productivos, Administrativos y Logísticos OPALO. J. Arias-Osorio, es Ing. en Sistemas, MSc. en Administración de Negocios. Profesor asociado de la Escuela de Estudios Industriales y Empresariales de la Facultad de Ingenierías Físico-Mecánicas, Universidad Industrial de Santander, Colombia. Es investigador del Grupo Optimización y Organización de Sistemas Productivos, Administrativos y Logísticos OPALO. H. Lamos, es Matemático, PhD. en Matemáticas. Profesor titular de la Escuela de Estudios Industriales y Empresariales de la Facultad de Ingenierías Físico-Mecánicas, Universidad Industrial de Santander, Colombia. Investigador del Grupo Optimización y Organización de Sistemas Productivos, Administrativos y Logísticos OPALO.

275


Dynamic model to analyze pedestrian traffic policies in Bogota Germán Méndez-Giraldo a & Lindsay Álvarez-Pomar b a

Facultad de Ingeniería, Universidad Distrital Francisco José de Caldas, Colombia.gmendez@udistrital.edu.co Facultad de Ingeniería, Universidad Distrital Francisco José de Caldas, Colombia.lalvarez@udistrital.edu.co

b

Received: May 12th, 2014. Received in revised form: July 1th, 2014. Accepted: July 28th, 2014 Abstract Pedestrian systems are increasingly becoming important for transportation planning in cities, however, approaches are meant for microscopic analysis and representation, thus do not seem to be adequate for decision making at this specific strategic level, because of their feedback relationships between different levels, which cannot be easily represented with these approaches. This paper presents a prototype for analysis at strategic level of pedestrian systems, by making use of industrial dynamics. This approach allows to represent the relations of these feedback systems, through the use of both quantitative and qualitative, to analyze the responses of the system in the long run. It is concluded that the proposed prototype allows to be a support for the strategic decisions of these systems; allows analysis related to investment in education and regulation of deaths and injuries as well as their impact on the accident and the social cost. Keywords: Systems analysis and design; urban development; system identification; Computational modeling culture; socio-technical systems.

Modelo dinámico para analizar políticas relacionadas con el tráfico peatonal en Bogotá Resumen Los sistemas peatonales cobran cada vez más importancia en la planeación del transporte en las ciudades, sin embargo, los enfoques utilizados para su análisis y representación son de tipo microscópico y no son adecuados para la toma de decisiones en el nivel estratégico de los sistemas peatonales; principalmente, porque en ellos se presentan relaciones de realimentación entre los diferentes niveles, que no se pueden representar fácilmente de esa manera. En este artículo se presenta un prototipo para el análisis del nivel estratégico de los sistemas peatonales, haciendo uso de la dinámica industrial. Este enfoque permite representar las relaciones de realimentación propias de estos sistemas, a través del uso de información tanto cuantitativa como cualitativa, para analizar las respuestas del sistema en el largo plazo. Se concluye que el prototipo propuesto permite ser un soporte para la toma de decisiones estratégicas de estos sistemas. Palabras clave: Análisis y diseño de sistemas, desarrollo urbano, identificación de sistemas, modelado cultural computacional, sistemas socio-técnicos.

1. Introducción Uno de los principales desafíos de las ciudades es garantizar su movilidad, tanto de los vehículos como de los peatones. De hecho, su planeación se ha enfocado hacia los vehículos, especialmente los motorizados. Sin embargo, su rápido crecimiento porcentual ha generado problemas como la congestión en el tráfico de las ciudades, elevados niveles de contaminación y de accidentalidad. Estos fenómenos han hecho que se busquen medios alternativos de transporte que viabilicen la movilidad de las ciudades. Principalmente, se desplazarse en bicicleta o a pie, a través de la construcción

de infraestructuras que permitan que estos desplazamientos se realicen de forma segura e interconectada con otros medios como el transporte público. De hecho, cada vez es más común encontrar ciclo-rutas, así como vías peatonales, donde se ha restringido total o parcialmente el tráfico de vehículos motorizados, como es el caso de Grafton Street en Dublín, Rockefeller Plaza y Broadway en Manhatan y la carrera séptima en Bogotá. Sin embargo, estos cambios, que se son cada vez más comunes, en muchos casos no obedecen a políticas de peatonalización de las ciudades, sino que son resultado de decisiones que buscan dar respuesta a problemas existentes de movilidad.

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 276-283. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Méndez-Giraldo & Álvarez-Pomar / DYNA 81 (186), pp. 276-283. August, 2014.

En el caso específico de los sistemas peatonales, estrategias como las de reducción de velocidad de tráfico, implementación de barreras peatonales y semaforización peatonal, no son resultado del despliegue de decisiones de nivel estratégico, sino que son implementaciones de nivel operativo que buscan disminuir la accidentalidad peatonal. El problema de estas implementaciones es que se convierten en esfuerzos aislados geográficamente en las ciudades y el impacto real de largo plazo es difícil de cuantificar y de modelar. El modelado en transporte no se refiere únicamente a la estimación de la demanda de usuarios que desean desplazarse de un lugar a otro en la ciudad, sino que por tratarse de un sistema complejo, involucra muchas otras variables, actores y hechos [1]. Tampoco puede ser visto únicamente como un fenómeno en el que el objeto de estudio consiste en el actuar del grupo de usuarios del sistema de transporte, sino que implica considerar instituciones, reglamentaciones e incluso aspectos culturales que inciden directa o indirectamente en la gestión del sistema de transporte [2]. El objetivo de esta investigación es proponer un prototipo para el análisis del nivel estratégico de los sistemas peatonales, haciendo uso de la dinámica industrial, para reconocer y representar las relaciones de realimentación propias de estos sistemas, a través del uso de información tanto cuantitativa como cualitativa, para analizar las respuestas del sistema en el largo plazo y servir de base para su planeación y toma de decisiones, de manera que se puedan predecir los efectos de la implementación de políticas antes de su ejecución. En la primera sección se muestran aplicaciones de la dinámica industrial a los sistemas de transporte; en la segunda se analiza la dinámica del nivel estratégico de los sistemas peatonales, que sirve como base para el desarrollo del prototipo para evaluar políticas relacionadas con el tráfico peatonal de Bogotá, que se muestra en la última sección. Finalmente, se muestran los principales resultados del análisis de escenarios. 2. Dinámica industrial en sistemas de transporte La dinámica industrial o dinámica de sistemas de Jay Forrester [3], del Instituto Tecnológico de Massachusetts, es una metodología para el estudio de sistemas complejos, como los industriales y sociales, que permite construir modelos matemáticos de diversa índole. Se diferencia con otros métodos porque estudia la retroalimentación de los sistemas, a través de la identificación de causas y efectos, así como de las demoras en la información y materiales. La estructura de los modelos de dinámica de sistemas se compone de niveles o acumulaciones, flujos y tasas que regulan las entradas y salidas de los flujos a los niveles, para analizar los efectos de los bucles o ciclos de realimentación a través de ecuaciones diferenciales parciales [4]. La dinámica de sistemas permite incluir aspectos específicos en el modelado de los sistemas de transporte, así como su impacto en las condiciones de vida de sus habitantes, mientras que los métodos tradicionales para la evaluación de sistemas de transporte no son efectivos porque no consideran variables de tipo social y económico

[5]. De hecho, la aplicación de la dinámica de sistemas para la representación de los sistemas de transporte es evidente. En 1998, Peschon, Isaksen y Hajdu [6], propusieron una estrategia de planeación urbana, basada en el control del transporte y orientada hacia alcanzar los principios de Ahwahnee como modelo de desarrollo urbano. Los principios de Ahwanee fueron publicados en 1991 por la Local Government Commission, para proveer un plano para los gobernantes locales con el fin de crear desarrollos compactos de uso mixto, aptos para el peatón y orientados hacia la movilidad en sus comunidades. Bachels, Peet y Newman [7], evaluaron el uso de herramientas cualitativas (diagramas causales) para identificar lazos de retroalimentación causal en las políticas de planeación que inciden en los modos de transporte. En ese mismo año se dio inicio al proyecto ASTRA, cuyo objetivo fue desarrollar un modelo integral de Dinámica de Sistemas para evaluar políticas en materia de impuestos, redes de transporte, contaminación y mejora de la seguridad en Europa, de manera simultánea. Estos temas implican: transporte (TRA), economía regional y uso de la tierra (REM), macroeconomía (MAC) y medio ambiente (ENV) [8]. En el 2000, Emberger [9] hace una composición de sistemas socioeconómicos para identificar la estructura del estilo de vida y economía occidental por medio de la dinámica de sistemas, analizando un sistema de transporte con alto consumo energético. En el 2001, se consideró la interacción compleja entre el transporte y la contaminación del aire en la ciudad de Seúl [10], además de integrar un modelo de dinámica de sistemas y ciertos elementos de simulación basada en agentes, que establecieron las relaciones existentes entre propietarios de vivienda, empresas, transporte, uso de la tierra y medio ambiente [11]. Más adelante, el modelo Mobisim fue fruto de un proyecto financiado por el gobierno Francés con el fin de brindar una ayuda relevante en la toma de decisiones estratégica en transporte colectivo y desplazamiento individual diario con relación al desarrollo del territorio, analizando población, vivienda, trabajo, transporte, desplazamientos y medio ambiente [12]. Posteriormente, Raux, planteó tres ejemplos de modelos aplicados al transporte público en los que se mezclan concepciones de dinámica de sistemas y econometría. El primero de estos modelos busca generar escenarios para evaluar el efecto en las condiciones de auto-financiamiento de un sistema de transporte público a partir de la modificación en políticas tarifarias, de inversión pública en el sistema de transporte y de frecuencia de los buses en dicho sistema. El segundo, consiste en establecer un modelo basado en dinámica de sistemas para evaluar la decisión de los usuarios con respecto a utilizar vehículos particulares, transporte público o desplazarse a pie. El tercero, es un modelo combinatorio de tiempos de congestión y salida de Vickrey, utilizando funciones de cuello de botella [13]. Entrando en el ámbito de los avances más recientes, se encuentra el aporte de González y Winch, quienes proponen en su trabajo la formulación de escenarios factibles para la implementación de un sistema de vehículos puerta a puerta con mini - oficinas para que las personas puedan trabajar

277


Méndez-Giraldo & Álvarez-Pomar / DYNA 81 (186), pp. 276-283. August, 2014.

mientras se desplazan [14]. En el año 2007 [15] modelaron el crecimiento urbano basado en dinámica de sistemas y autómatas celulares. En el año 2008, [16] compararon las condiciones de transporte de la Carrera 13 y la Avenida Caracas en Bogotá y desarrollaron algunos modelos matemáticos que permitieron establecer relaciones de eficiencia entre ambos corredores urbanos. Finalmente, se tienden a integrar aspectos ya no puramente técnicos de los sistemas de transporte, sino que involucran aspectos políticos, sociales y culturales [1], como el modelo de [17], usando dinámica de sistemas para evaluar el impacto de distintas estrategias en el sistema de transporte de la ciudad de Teherán. Y en el 2013, Callejas, Valero y Alarcón [18] utilizaron la dinámica de sistemas para evaluar la calidad del servicio de transporte en términos de comodidad y rapidez en una ciudad intermedia. Como conclusión, a pesar de que no se han realizado modelos específicos para los sistemas peatonales, el desarrollo que ha tenido la aplicación de la Dinámica de Sistemas en el estudio de los problemas de transporte muestra que es una herramienta que permite realizar análisis integrales en sistemas de transporte. 3. Dinámica del nivel estratégico del sistema peatonal En los sistemas peatonales se pueden identificar los niveles de decisión estratégico, táctico y operativo. Sin embargo, el nivel operativo es el que más ha tenido contribuciones académicas y prácticas. Por otro lado, en los planes de movilidad peatonal de algunas ciudades se pueden identificar ciertos factores de los demás niveles, pero que no tienen en cuenta las relaciones de realimentación que se presentan entre sus componentes, sino que se enfocan principalmente hacia la toma de decisiones sobre elementos particulares como por ejemplo la seguridad o las multas. En el nivel estratégico se pueden identificar inicialmente las decisiones relacionadas con la infraestructura, el presupuesto [19], las políticas y la normatividad [20]. En el nivel táctico, se pueden identificar las campañas, las multas y la información. Y en el nivel operativo, se encuentran básicamente las que toman los peatones. La dinámica del nivel estratégico de los sistemas peatonales se puede representar con base en cinco factores clave que influyen en la toma de decisiones: los recursos económicos, las multas, la publicidad social, el cambio cultural y la accidentalidad. El análisis de la interacción de estos factores permite analizar a nivel macro el comportamiento del sistema en el largo plazo. El primero de ellos es el relacionado con los recursos económicos; se refiere al dinero que se destina para invertir y gastar en el sistema peatonal. Estos recursos pueden provenir de distintas fuentes, siendo la principal el presupuesto Distrital, cuya suma es definida por el Concejo de Bogotá, que es un grupo de personas elegidas popularmente para tomar ciertas decisiones de la ciudad. Otra fuente de recursos económicos es el dinero que se recibe por concepto de multas y sanciones, que se convierte en una fuente variable a lo largo del tiempo; no sólo por la incertidumbre para pronosticar la cantidad de multas, sino por la incertidumbre en el pago por parte de los sancionados.

Las multas son las sanciones económicas que se imponen a las personas, naturales o jurídicas, por infringir la normatividad. Las multas pueden ser impuestas tanto a peatones como a vehículos, pero sólo se considerarán aquellas sanciones económicas que se imponen directamente a quienes circulan a pie. La publicidad social tiene como fin motivar a las personas para que ejercer cambios en el sistema a través de cambios en su comportamiento individual, que se consideran necesarios para que el sistema evolucione de manera positiva. La publicidad social se presenta como campañas, ya sean televisivas o de cualquier tipo. El nivel cultural se considera como el nivel de cumplimiento de las normas que existen en el sistema. Se considera que un alto nivel cultural es deseable y necesario para que el sistema evolucione de la manera como se ha planeado o como se espera; asumiendo que las normas son la base de la planeación y buscan salvaguardar la vida y el bienestar de las personas. El nivel de accidentalidad se refiere a la cantidad de accidentes que involucran peatones. Los accidentes pueden provocar lesiones en las personas implicadas o incluso su muerte. Las relaciones entre los diferentes factores se pueden representar como lazos de retroalimentación positiva y/o negativa, creando un arquetipo sistémico haciendo uso de la metodología propuesta por Forrester, como se puede ver en la Fig. 1, con el fin de entender la dinámica del nivel de decisión estratégico y de las políticas relacionadas con peatones para poder evaluar su impacto real sobre el sistema peatonal. En este caso, la publicidad social afecta positivamente el cambio cultural; es decir, mientras más publicidad social en el sistema, habrá más cambio cultural, como respuesta a las intervenciones que se hacen por ejemplo a través de campañas. Por otro lado, la publicidad social afecta negativamente las multas; es decir, mientras más publicidad social, hay menos multas, debido a las modificaciones del comportamiento que realizan las personas como respuesta a las invitaciones a cumplir las normas. A su vez, mientras más multas, habrá más cambio cultural y más recursos económicos que afectan positivamente la publicidad social; las multas económicas se consideran una estrategia de tipo reactivo y correctivo, que busca generar en las personas un sentimiento de aversión a cometer nuevamente violaciones a las normas, por eso se considera que tienen carácter formativo. Por otro lado, su recaudo permite tener más recursos económicos que se pueden invertir en publicidad social. Mientras mayor sea el nivel de accidentalidad, habrá más multas, que se convierten en mayor cantidad de recursos económicos que permiten más publicidad que genera un mayor cambio cultural. Por otro lado, mientras más cambio cultural, habrá un menor nivel de accidentalidad. Aumentos en el nivel de accidentalidad provocan disminuciones en los recursos económicos del sistema, debido al gasto de recursos inherente a este tipo de sucesos. Por ejemplo, el pago que se hace al personal de tránsito para que restablezca la normalidad en el tráfico, el dinero que se debe invertir para arreglar la infraestructura afectada, entre otros.

278


Méndez-Giraldo & Álvarez-Pomar / DYNA 81 (186), pp. 276-283. August, 2014.

4.1.1. Niveles

Figura 1. Modelo dinámico de políticas en el Sistema Peatonal del Distrito. Fuente: Los autores

Adicionalmente, mientras más publicidad social se realice, se espera que disminuya la cantidad de multas. Sin embargo, esto genera una disminución en el recaudo de dinero por esta causa, que se ve reflejado en una disminución del nivel de recursos económicos con que cuenta el sistema peatonal de Bogotá. Una vez se tiene el arquetipo sistémico, se identifican los tipos de flujos que hay en el sistema, así como las variables y se representan las relaciones a través de ecuaciones para poder crear el prototipo que se muestra en la siguiente sección. 4. Prototipo para analizar las políticas relacionadas con el tráfico peatonal en Bogotá

Representan las acumulaciones. Mediante la investigación inicial, se concluye que en los sistemas peatonales se pueden identificar los siguientes niveles: − Recursos. Se refiere a los recursos económicos con que cuenta el sistema para invertir en educación. Se obtienen a través del presupuesto Distrital y de los recaudos por concepto de multas. − Publicidad. Es la cantidad de mensajes que se dan en el sistema, por cualquier medio, y que buscan mejorar el nivel cultural. Depende del presupuesto, del valor de la publicidad y del olvido de los mensajes. − Cultura. Es un intangible que se refleja en las medidas de desempeño del sistema, por lo que se considera el nivel más importante del modelo. Se afecta por todos los esfuerzos que se realizan en el sistema para influenciar de manera directa el comportamiento de los peatones y afecta el nivel de accidentalidad. Un máximo nivel de cultura es el respeto total por todas las normas y las personas. El mínimo es un estado de irrespeto total. Este nivel se alimenta por las contribuciones a la cultura, que vienen dadas por la relación entre el nivel de publicidad y el aporte real de este a la cultura (relaciona el costo social de la accidentalidad con la inversión en publicidad social). Es decir, que mientras el nivel de publicidad se acerca más al costo social de la accidentalidad, mayor es el nivel cultural. − Multas. Es el nivel de infracciones a las normas que son penalizadas. Se disminuye por los pagos realizados por los infractores o por la extinción de la vigencia de las multas. − Accidentalidad. Representa la cantidad de accidentes que suceden en el sistema y que provocan lesiones y muertes en los peatones.

Para realizar el prototipo se utilizó el software de simulación continua IThink versión 8.0. Este software cuenta con tres niveles de trabajo: el nivel de interfaz, el 4.1.2. Tasas mapa y modelo, así como el nivel de ecuaciones. El primer Las tasas son las encargadas de controlar los niveles, nivel permite crear interfaces de "alto nivel" pensadas para un usuario final, permite definir sectores y subsistemas tanto porque permiten la entrada, como la salida de los dentro del modelo general que se está trabajando, desplegar flujos en el sistema. Son las tasas de cambio de un nivel, gráficas de simulaciones, incorporar controles, etc. El nivel llenan o desocupan niveles; pueden ser de entrada (inflow) o mapa & modelo sirve para representar los modelos mentales de salida (outflow) y sus cambios se representan con con el fin de simular. En el nivel de “modelo” es donde se ecuaciones diferenciales de primer orden, que permiten la formalizan las relaciones numéricas, valores, ecuaciones y representación matemática del modelo mental. Las tasas se construyen los modelos de simulación. Finalmente, en el que se tienen en cuenta en el prototipo son las siguientes: nivel de ecuaciones se pueden ver las ecuaciones − Entrada de recursos. Regula la entrada al nivel de recursos económicos para educación que provienen del diferenciales asociadas al modelo. Distrito y de los pagos de las multas. − Inversión Educación. Regula la salida del nivel de 4.1. Bloques constructores recursos económicos con que se cuenta para la educación de los peatones. Se da en el nivel mapa/ modelo del software I Think. Con el fin de representar el comportamiento del sistema − Mensajes. Regula la entrada al nivel de publicidad, teniendo en cuenta el presupuesto para publicidad y el peatonal en Bogotá, se identifican algunas variables y costo de la misma. parámetros que influyen y se deben tener en cuenta para la toma de decisiones. Debido a que el prototipo se hizo − Olvido. Regula la salida del nivel de publicidad. Representa la falta de efectividad de la publicidad y se representa por la mediante dinámica industrial, se identificaron niveles, proporción de personas que a pesar de haber recibido tasas, parámetros y variables (convertidores y variables mensajes de publicidad social, incurren en faltas auxiliares), entendiendo por cada uno de ellos lo relacionadas con las que trataban de evitar los mensajes. siguiente: − Ganancia. Es la tasa de entrada de la cultura. Depende 279


Méndez-Giraldo & Álvarez-Pomar / DYNA 81 (186), pp. 276-283. August, 2014.

− − − −

de los aportes de la publicidad. Pérdida. Es la pérdida de cultura, que es afectada por la regulación y otros factores. Disminución de accidentes. Representa la tasa a la cual disminuyen los accidentes y es afectada por el nivel cultural. Aumento de accidentes. Es la tasa a la cual se presentan los accidentes de peatones en Bogotá. Aumento de multas. Es la tasa a la cual se imponen multas en el sistema peatonal. Es afectada por los comparendos que se le imponen a los peatones por incumplir las normas de tránsito. Salida de recursos. Es la tasa a la cual se disminuye el nivel de multas, a través del pago de los comparendos que se han impuesto y de la salida de los recursos captados que van a afectar el nivel de recursos económicos con que cuenta el sistema.

4.1.3. Convertidores o variables auxiliares Modifican entradas en salidas, son útiles para desagregar y romper en detalles la lógica del modelo, calculan relaciones algebraicas, pueden ser constantes utilizadas para calcular el valor de un flujo. Al contrario de los niveles, los convertidores no acumulan nada. La siguiente es la lista de los principales convertidores y/o variables auxiliares que se identificaron en el sistema peatonal: − Costo de lesiones. Es el costo promedio en el que se incurre por cada lesionado que se presenta en un accidente de tránsito [21]. − Costo de muerte. Es el costo promedio en el que se incurre por cada persona muerta a causa de accidentes de tránsito [21]. − Costo social. Es el costo que tiene para la sociedad la ocurrencia de las lesiones y muertes en los sistemas peatonales. Está afectado por los dos anteriores. Se le llama costo “social” porque involucra los costos por incapacidades, seguros, cuantificación de la afectación a familiares de víctimas, entre otras variables. − Costo de campañas. Es el costo aproximado de las campañas publicitarias. − Valor de recordación. Es un valor que representa el tiempo que dura un mensaje en la mente de las personas. Es el tiempo que la gente recuerda una campaña. − Presupuesto de publicidad. Es la cantidad de dinero que se destina para hacer publicidad social, con miras a mejorar el desempeño del sistema [22]. − Presupuesto Distrital. Es el total del dinero con que cuenta el Distrito al inicio de cada año [22]. − Valor de cada campaña. Cantidad promedio de dinero que cuesta cada campaña. − Recordación. Es la proporción de campañas que realmente recuerdan las personas a las cuales apunta la publicidad [23]. − Indicador de eficiencia. Es la relación entre lo invertido en campañas y el costo social. − Aportes de publicidad. Es la relación entre la publicidad y el indicador de eficiencia. − Regulación. Es el porcentaje de lesiones y muertes que se logran regular en el sistema.

− − −

− − − − − −

Regulación de muertes. Es el porcentaje de muertes que se logra regular en el sistema [24]. Regulación de lesiones. Es el porcentaje de lesiones que se logra regular en el sistema [24]. Otros Aportes. Son aportes que se hacen a la cultura de manera indirecta y que contribuyen con la toma de conciencia. Por ejemplo cuando se presencia un accidente, con mensajes que se dan en el hogar, en el colegio o en la universidad. Es una fracción de aporte cultural. Fracción de recaudo. Es el porcentaje de recaudo total de las multas impuestas en el sistema. Comparendos. Son las multas que se imponen a los peatones por parte de los agentes de tránsito [25]. Recaudo de multas. Es la porción del dinero proveniente de pagos de multas, que se logra recaudar [25]. Valor de multa. Es la cantidad de dinero que se impone a un peatón por incumplir las normas de tránsito [26]. Muertes. Es la tasa de muertes que hay en el sistema peatonal [24]. Lesiones. Representa la tasa a la cual los peatones sufren lesiones mientras permanecen en el sistema [24].

4.1.4. Conectores Pasan información de niveles a convertidores, de niveles a reguladores de flujos, de reguladores de flujos a reguladores de flujos, de reguladores de flujos a convertidores, de convertidores a reguladores de flujos y de convertidores a otros convertidores. La información utilizada para la construcción del modelo está basada en datos estadísticos de diferentes entidades del Distrito, como el Instituto de Medicina Legal y Ciencias Forenses, la Secretaría Distrital de Movilidad y la Secretaría de Planeación, así como de publicaciones académicas del año 2007 al 2013. Cabe resaltar que no existe una base de datos donde se encuentre consolidada la información necesaria para realizar el análisis estratégico del sistema peatonal de Bogotá y que se evidencia falta de continuidad tanto en el tipo de información que se recaba año tras año, como en las entidades que las generan. Se debería hacer esfuerzos por tener sistemas de información claros, coherentes y al alcance de los ciudadanos. Se hizo entonces necesario hacer aproximaciones estadísticas de datos faltantes o incoherentes. Sin embargo, luego de hacer aproximaciones del comportamiento de las variables definidas a través del uso de regresiones estadísticas univariadas y multivariadas, así como haciendo uso de funciones de probabilidad, al validar estadísticamente el modelo, hay un alto grado de ajuste y los comportamientos de las variables de desempeño son coherentes con el comportamiento real del sistema peatonal de Bogotá. Se tomaron como medidas de desempeño la accidentalidad y los comparendos peatonales impuestos. La validación estadística se realizó con un 95% de confianza y con una prueba t-student modificada para salidas sin comportamiento normal. Se tomó un tiempo de calentamiento (warm up) de cinco años calculado con el método de Welch. A continuación se presenta el prototipo del modelo, en el nivel mapa y modelo del software IThink, para analizar las políticas relacionadas con el tráfico peatonal en Bogotá.

280


Méndez-Giraldo & Álvarez-Pomar / DYNA 81 (186), pp. 276-283. August, 2014.

Figura 4. Niveles de accidentalidad, cultura y publicidad del Sistema Peatonal de Bogotá, con una regulación del total de accidentes y lesiones. Fuente: Los autores. Figura 2. Modelo del Sistema Peatonal de Bogotá. Fuente: Los autores.

5. Resultados La cultura en el sistema peatonal de Bogotá se concibe como el nivel de cumplimiento de las normas por parte de los individuos. El nivel cultural aumenta con la publicidad social y con otros factores como la educación impartida en los centros educativos y en los hogares. El nivel cultural se disminuye en la medida en que las personas olvidan los mensajes publicitarios y disminuye su flujo de entrada en la medida en que dicha publicidad reduce su eficiencia. El nivel de accidentalidad del sistema peatonal de Bogotá presenta un patrón de comportamiento que fluctúa de manera opuesta a como lo hace la cultura. Cuando el nivel cultural es más alto, el nivel de accidentalidad tiene los niveles más bajos. De manera similar ocurre en las empresas con respecto a la calidad, pues los efectos son cíclicos, ya que en las organizaciones productivas se trabajan ciclos donde se tiene una alta cultura y se va olvidando hasta que aparece una nueva campaña y lo refuerza. De hecho, las fluctuaciones de los niveles de publicidad se reflejan en los niveles culturales, con un retraso que puede representar el tiempo en el que se da la interiorización de las campañas. Aunque no se destina dinero por parte del distrito para educación, el patrón de comportamiento de los niveles se puede mantener con lo que aporta el fondo de prevención vial y los demás factores (educación en colegios, en empresas y autorregulación), pero los valores del nivel cultural son significativamente más bajos. Las lesiones y las muertes tienen el mismo tipo de fluctuaciones, que están asociadas al nivel cultural de la misma manera que la accidentalidad, como se puede ver en la Fig. 3.

Figura 3. Niveles de accidentalidad, cultura y publicidad del Sistema Peatonal de Bogotá. Fuente: Los autores.

La accidentalidad puede dividirse en muertes y lesiones, que no se regulan en un porcentaje considerable. En todo caso, dichos accidentes tienen asociados unos costos que están relacionados con la inversión en publicidad social, lo que permite dar una idea de la eficiencia real de la publicidad sobre el sistema. Sin embargo, la influencia de la regulación sobre los niveles de accidentalidad del Distrito no son tan influyentes como la educación. Si el Distrito lograra hacer una regulación del 100% de los accidentes y lesiones, es decir si bajara al mínimo la impunidad, lograría un aumento significativo en el nivel cultural del sistema sólo al final de la segunda década de su implementación, a pesar de la disminución significativa de la accidentalidad, como se puede ver en la Fig. 4. Es decir, la inversión en educación es preferible a la inversión en regulación, en términos de cultura y accidentalidad, pero no significa que no se deba hacer una mejor y mayor regulación sobre todo de carácter preventivo, pues existe una relación reforzadora mutua entre regulación y cultura para disminuir la accidentalidad. Sin embargo, el nivel cultural no se basa únicamente en la inversión en publicidad. Un nivel muy bajo o nulo de publicidad social no implica que el nivel cultural decaiga al límite, como se ve en la Fig. 5, pues hay otros factores que también lo afectan, como son la regulación y la educación que se da de manera indirecta en instituciones educativas. Incluso, cuando los peatones presencian un accidente, toman conciencia del peligro de incumplir las normas y puede crear una actitud reflexiva hacia el tema, que puede provocar disminución de la accidentalidad. Pero si no hay inversión por parte del Distrito, en una década se presenta el máximo nivel cultural que es la mitad del que se tiene en las condiciones actuales de operación y en adelante, se presenta una tendencia a su disminución, a pesar de la intervención del Fondo de Prevención Vial en materia de educación social. Las pequeñas fluctuaciones que se observan en el nivel cultural se deben a los estímulos indirectos mencionados, que se hacen evidentes ante la ausencia de los estímulos del Distrito. Por otro lado, si el Fondo de Prevención Vial no realizara intervenciones educativas sobre el sistema peatonal de Bogotá, la tendencia a la disminución de accidentes continuaría, aunque el nivel cultural disminuiría.

281


Méndez-Giraldo & Álvarez-Pomar / DYNA 81 (186), pp. 276-283. August, 2014.

Figura 5. Niveles de accidentalidad, cultura y publicidad del Sistema Peatonal de Bogotá, sin inversión en publicidad por parte del Distrito. Fuente: Los autores.

Figura 7. Niveles de accidentalidad, cultura y publicidad del Sistema Peatonal de Bogotá, si se invirtiera todo el presupuesto distrital en publicidad social.

Fuente: Los autores. 6. Discusión

Figura 6. Niveles de accidentalidad, cultura y publicidad del Sistema Peatonal de Bogotá, con ningún tipo de inversión en publicidad.

Fuente: Los autores.

De hecho, si no se tuviese ningún aporte en dinero para campañas educativas, el solo hecho de presenciar accidentes y la educación que proviene de otras fuentes, hace que el sistema se autorregule y que poco a poco aumente su nivel cultural, aunque al cabo de 30 años tome un valor apenas superior al mínimo, como se ve en la Fig. 6. El pico del nivel cultural es la respuesta a los altos niveles de accidentalidad que se presencian. Estos comportamientos evidencian que no es un sistema caótico, sino que muestra relaciones de auto-organización; es decir, puede sobrevivir sin intervenciones externas, pero que si las recibe de manera adecuada, mejora su desempeño en términos de cultura y accidentalidad. Los olvidos o el mantenimiento de los niveles culturales también se deben a los relevos generacionales, que pueden tener niveles culturales que permanecen en el tiempo. Por último, y yendo al otro extremo, el caso utópico que el Distrito invirtiera todo su presupuesto en publicidad social, los niveles de accidentalidad decrecerían considerablemente al cabo de tres décadas y se alcanzaría un nivel cultural muy elevado con respecto al actual, como se puede ver en la Fig. 7. Los picos de accidentalidad se deben a que en el modelo se usan intervalos de tiempo anuales, que permiten observar el nivel totalmente vacío, debido al comportamiento oscilatorio de la accidentalidad.

El prototipo presentado permite una aproximación cercana a la realidad del sistema peatonal de Bogotá, que intenta demostrar las tendencias y hacia donde deben orientarse los entes gubernamentales en materia de fijación de políticas. Sin embargo, es evidente la dificultad para obtener datos confiables, principalmente porque no se tiene una cultura de mantener estadísticas y segundo porque las cifras se manejan de forma aislada. Las decisiones sobre inversión en regulación e inversión en prevención se deben tomar con base en el impacto que estas generan sobre el nivel cultural, pues su influencia directa sobre la accidentalidad no se puede evaluar directamente en el corto plazo. La inversión en educación social o prevención, debería decidirse con base en el costo social por muertes y lesiones provocadas por los accidentes de tránsito que involucran peatones, pues dicha relación muestra la eficiencia en la inversión y permite una intervención tanto real como preventiva sobre el sistema peatonal de Bogotá. La autorregulación del sistema peatonal puede entenderse como la reflexión que hacen las personas cuando presencian accidentes y como la transmisión de la cultura entre las personas a través de la educación en los hogares y centros educativos. Sin embargo, para poder lograr mejoras significativas en su nivel cultural, es necesaria la intervención en educación. 7. Conclusiones Se deberían unificar las bases de datos disponibles para que se facilite su uso para la toma de decisiones estratégicas. Es preferible que el Distrito invierta en educación y no en regulación de muertes y lesiones, ya sea por medio de cámaras, policías, mallas para obstaculizar el paso no permitido de peatones, entre otros. Pues cada inversión en publicidad social influye sobre el nivel cultural y este último, en la disminución de la accidentalidad. Sin embargo, no se puede desconocer el aporte de la regulación para el funcionamiento del sistema y el mantenimiento de los niveles culturales.

282


Méndez-Giraldo & Álvarez-Pomar / DYNA 81 (186), pp. 276-283. August, 2014.

La inversión en educación debería equipararse con la de la accidentalidad, para poder disminuir la última de forma real y sostenida. A pesar de que la imposición de multas a los peatones influye en su nivel cultural como parte de la regulación, realmente el aporte de los recaudos por los pagos de las mismas, no es influyente sobre el nivel de publicidad social del Distrito. El sistema peatonal del Distrito exhibe comportamientos de auto-organización; es decir, puede sobrevivir sin intervenciones externas, pero las intervenciones relacionadas con educación, mejoran notoriamente su desempeño en términos de cultura y accidentalidad.

[15] Rueda, L. y Rico, D., Modelamiento inicial de ciudades de países en vía de desarrollo, utilizando dinámica de sistemas, Scientia et Technica, 34, pp.421-426, 2007.

Referencias

[19] Galvão, A. e Martins, N., Avaliação distributiva de benefícios e externalidades em sistemas de transportes. Proceedings of Congresso Latino Americano de Transporte Público E Urbano ALATPU, pp. 11-19, 1996.

[1]

Duarte, E., Desarrollo de un modelo para el sistema de transporte público de la ciudad de Bogotá, D.C., basado en dinámica de sistemas, MSc. Thesis, Industrial Engineering Department, Universidad Distrital Francisco José de Caldas, Bogotá, 2011.

[2]

Hensher, D. and Button, K., Handbook of transport modelling, 2nd ed. Netherland, Pergamon, 2005.

[3]

Forrester, J., Dinámica industrial, Buenos Aires, Editorial Ateneo, 1981.

[4]

Méndez, G. and Álvarez, L., Diseño de prototipo diagnóstico para la pequeña y mediana empresa, PyME, Bogotá, Fondo editorial Universidad Distrital, 2004.

[5]

Abbas, K., The use of system dynamics in modelling transportation systems with respect to new cities in Egypt, Proceedings of International Conference of the System Dynamics Society, pp. 1428, 1990.

[6]

Peschon, J., Isaksen, L. and Hajdu, L., Public decision making for land-use and transportation planning. Proceedings of International Conference of the System Dynamics Society, pp. 19-38, 1998.

[7]

Bachels, M., Peet, J., and Newman, P., Using a systems approach to unravel feedback mechanisms affecting urban transport. Proceedings of International Conference of the System Dynamics Society, pp. 45-57, 1999.

[8]

Schade, W, Martino, A. and Roda, M., ASTRA: Assessment of transport strategies. Proceedings of International Conference of the System Dynamics Society, pp. 53-72, 1999.

[9]

Emberger, G., Causal loop model to describe transport system’s effects on socio-economic systems. Proceedings of International Conference of the System Dynamics Society, pp. 32-40, 2000.

[10] Choi, N.H., Kim, S. K. and Hong, M.K., Feedback approach for the dynamic interactions between urban transportation and air pollution. Proceedings of International Conference of the System Dynamics Society, pp. 26-43, 2001. [11] Heimgartner, Ch., System dynamic modeling transport and land use. A first model draft, Proceedings of Swiss Transport Research Conference, Suiza, pp. 37-54, 2001. [12] Koltchanov, V., Karsky, M. and Casanova, P., The individual daily mobility simulation model MobiSim, Proceedings of International Conference of the System Dynamics Society, pp. 55-72, 2002. [13] Raux, C., A systems dynamics model for the urban travel, Proceedings of European Transport Conference, pp. 12-33, 2003. [14] González, J.J. and Winch, G., Coming to terms with traffic congestion. Proceedings of International Conference of the System Dynamics Society, pp. 35-54, 2006.

[16] Abril, S. y Useche, D., Comparación de la eficiencia del transporte público tradicional en la Carrera 13 frente al Transmilenio de la Avenida Caracas en la ciudad de Bogotá, Bogotá. Instituto Alberto Merani. 2008, 26 P. [17] Vakili, K., Isaai, M. and Barsari, A.J., Strategic assessment of transportation demand management policies: Tehran case study. Proceedings of International Conference of the System Dynamics Society, pp. 21-39, 2008. [18] Callejas, M., Valero H. and Alarcón, A., Simulation based on system dynamics for evaluating the quality of transport service in a complex social system, DYNA, 80 (180), pp. 33–40, 2013.

[20] Martins, N., Rainer, R. e Souza, R., A organização e a ocupação do espaço urbano nas cidades do século XXI: Impactos das políticas públicas do Brasil dos anos 90 no direito de ir e vir no ambiente local, Amic. Curiae, 9 (9), pp. 12-26, 2012. [21] Fondo de Prevención Vial, Uniandes, Costo económico de la accidentalidad vial en Colombia, Bogotá, Fondo de Prevención Vial, Bogotá, 2013, 104 P. [22] Secretaría de Hacienda. Presupuesto de movilidad de Bogotá, Bogotá. Alcaldía de Bogotá, 2014, 29 P. [23] Ipsos Napoleón Franco, Segundo estudio de comportamiento y seguridad vial, Bogotá, Fondo de Prevención Vial, 2012, 27 P. [24] Instituto de Medicina Legal y Ciencias Forenses, Bogotá, Forensis, 2012, 67 P. [25] Secretaría Distrital de Movilidad, Bogotá, Plan de cobro 2013 Secretaría Distrital de Movilidad, 2013, 92 P. [26] Banco de la República, Salario mínimo legal en Colombia. Serie histórica en pesos colombianos, 2014. [Online]. Disponible: http://obiee.banrep.gov.co/analytics/saw.dll?Go&Path=/shared/Cons ulta+Series+Estadisticas+desde+Excel/1.+Salarios/1.1+Salario+mini mo+legal+en+Colombia/1.1.1+Serie+historica&Options=rdf&NQU ser=salarios&NQPassword=salarios&lang=es. G. Méndez-Giraldo, received the Bs. Eng in Industrial Engineering in 1986, the Sp. degree in Industrial Informatics in 1995, from Universidad Distrital, Bogota, Colombia, MSc. degree in Industrial Engineering in 1997, from Universidad de Los Andes, Bogota, Colombia and PhD. degree in Technical Sciences, from Universidad Central de Las Villas, Cuba. From 1989 to 1994, he worked for Siemens S.A. and from 1984 to 1989, he worked for Laboratorios Protam. Currently, he is a Full Professor in the Industrial Engineering Department, Facultad de Ingeniería, Universidad Distrital Francisco José de Caldas, Colombia, and he is also business consultant. His research interests include: linear programming, simulation, modeling, industrial dynamic, and expert systems. ORCID: 0000-0002-0223-3575 L. Álvarez-Pomar, received the Bs. Eng in Industrial Engineering in 2000, the Sp. degree in Production Engineering in 2001, from Universidad Distrital, Bogota, Colombia, and MSc. degree in Industrial Engineering in 2004, from Universidad de Los Andes, Bogota, Colombia. Currently, she is a Full Professor in the Industrial Engineering Department, Facultad de Ingeniería, Universidad Distrital Francisco José de Caldas, Colombia. Her research interests include: industrial dynamics, optimization, simulation, modeling and stochastic processes applied to small and medium enterprises, urban traffic and pedestrian behavior. ORCID: 0000-0002-8818-0901

283


An algorithm based on granular tabu search for the problem of balancing public bikes by using multiple vehicles Rodrigo Linfati a, John Willmer Escobar b & Bernardo Cuevas c b

a Departamento de Ingeniería Industrial, Universidad del Bío-Bío, Chile. rlinfati@ubiobio.cl Pontificia Universidad Javeriana, Universidad del Valle, Cali, Colombia. jwescobar@javerianacali.edu.co c Departamento de Ingeniería Industrial, Universidad del Bío-Bío, Chile.

Received: May 12th, 2014. Received in revised form: July 1th, 2014. Accepted: July 28th, 2014

Abstract The use of public bicycle systems has gained great importance in European countries and around the globe; this has led to the need to seek advanced techniques to help decision making. A public bicycle system consists of a set of points where you can pick up and deliver bicycles; a headquarters where a group of vehicles taking leftover bikes and transported to the points where a deficit (the demand exceeds supply) exists. One of the major problems that arise in systems of public bike is balanced, which involves sending bikes from the point where an offer (bicycles left over) to the point where there is a demand (bikes missing) occurs. The way to model this problem is with an adaptation of the vehicle routing problem with pickup and delivery (VRPPD), allowing each route make partial deliveries to customers and limiting the number of customers to visit by each route. In this paper an integer linear programming model is introduced and a metaheuristic based on granular tabu search to find a local optimum. Instances from 15 to 500 customers adapted from the literature are used. The computational results show that the proposed algorithm finds solutions in short computational time. Keywords: Bike Sharing Problem; Routing; Tabu Search.

Un algoritmo basado en búsqueda tabú granular para el problema de balanceo de bicicletas públicas usando múltiples vehículos Resumen El uso de sistemas de bicicletas públicas ha cobrado gran importancia en países europeos y alrededor de todo el planeta; esto ha llevado a la necesidad de buscar técnicas avanzadas que ayuden a la toma de decisiones. Un sistema de bicicletas públicas consiste en un conjunto de puntos donde se pueden recoger y entregar bicicletas; un depósito central donde existe un conjunto de vehículos que toma las bicicletas sobrantes y las transportan a los puntos donde exista un déficit (es decir que la demanda supera la oferta). Una de las grandes problemáticas que se presentan en los sistemas de bicicletas públicas es el balanceo, que consiste en enviar bicicletas desde los puntos donde se produce una oferta (bicicletas que sobran) hacia los puntos donde existe una demanda (bicicletas que faltan). La forma de modelar este problema es con una adaptación del problema de ruteo de vehículos con recolección y entrega de mercancías (VRPPD), permitiendo que cada ruta realice entregas parciales a los clientes y limitando el número de clientes a visitar por ruta. En este artículo se introduce un modelo de programación lineal entera mixta y una metaheurística basada en una búsqueda tabú granular para encontrar soluciones. Se usan instancias desde 15 a 500 clientes adaptadas de la literatura. Los resultados computacionales evidencian que el algoritmo propuesto encuentra soluciones en tiempos acotados de cómputo. Palabras clave: Problema de Bicicletas Publicas, Ruteo de Vehículos, Búsqueda Tabú.

1. Introducción Uno de los problemas más estudiados en la literatura relacionada con la optimización combinatoria es el Problema de ruteo de vehículos (VRP, por su sigla en inglés); esto se debe a la gran importancia que ha tomado en

campos como el transporte, la distribución física y logística. Todo lo anterior debido al enorme crecimiento que ha vivido la industria en general, obligando a buscar métodos que ayuden a mejorar la eficiencia de los recursos que cada vez son más escasos. El diseño de un sistema logístico se vuelve cada vez más

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 284-294. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Linfati et al / DYNA 81 (186), pp. 284-294. August, 2014.

relevante y las decisiones relativas a la ubicación de los lugares de almacenamiento, las políticas de diseño de esos espacios, el manejo de la flota de vehículos y la entrega final de los productos, son decisiones que requieren un manejo apropiado de todas las variables para obtener la máxima eficiencia posible. El problema de ruteo de vehículos consiste principalmente en determinar la estructura de las rutas a seguir por una flota de vehículos para llegar de la manera más eficiente a los clientes. En general, los métodos exactos conocidos no son capaces de probar optimalidad para el VRP para instancias que contengan más de 100 clientes en un tiempo de computo reducido; debido a que el esfuerzo y tiempo computacional aumentan exponencialmente con el número de clientes. Por esta razón, el VRP es uno de los problemas de optimización combinatoria y programación entera más desafiante que existe, clasificado en el grupo de problemas NP-Hard [1]. Para este tipo de problemas es a menudo deseable obtener soluciones aproximadas, las cuales pueden ser encontradas en un tiempo computacional reducido y que sean suficientemente buenas para su propósito. Usualmente esta tarea es lograda usando métodos heurísticos, que dependen de cierta visión interna de la naturaleza del problema. El objetivo del presente artículo es proponer para el problema de balanceo de bicicletas públicas una solución aproximada basada en una mateheurística de búsqueda tabú granular, la cual entregue de forma rápida soluciones de buena calidad. Recientemente se ha considerado el problema llamado “bicicletas públicas” o “bicicletas compartidas”; el cual consiste en el alquiler de bicicletas, las cuales se encuentran ubicadas en una de las muchas estaciones distribuidas dentro de una ciudad para ser utilizadas en viajes cortos y devolverlas en cualquier otra estación. Un factor crucial para el éxito de un sistema de bicicletas públicas es la capacidad de satisfacer la demanda fluctuante de bicicletas en cada estación, además de ser capaz de proporcionar suficientes anclajes vacantes para la devolución de éstas. Este trabajo modela el problema de bicicletas públicas como una de las variantes del VRP: problema de ruteo de vehículos con recogida y entrega (Vehicle Routing Problem with Pickup and Delivery - VRPPD). El problema VRPPD consiste en equilibrar el sistema (oferta y demanda de bicicletas) mediante un conjunto de vehículos, donde se debe visitar cada una de las estaciones (clientes) que no se encuentren en equilibrio, ya sea porque presentan un número mayor de bicicletas que el deseado (oferta), o porque se encuentran desabastecidas (demanda). En particular, se desea determinar las rutas que minimicen los viajes partiendo desde un depósito sin oferta ni demanda. El primer programa de bicicletas públicas comenzó en el año 1965 en Ámsterdam con el White Bike Plan o bicicletas blancas; pero desafortunadamente no salió según lo planeado, por lo que el programa se derrumbó en cosa de días. En el año 2007 se da el caso más exitoso cuando en París se lanzó la propuesta Velib, con 15.000 bicicletas de alquiler. El enorme éxito generó un gran interés en este modo de transporte en todo el mundo, donde en 2008 se registraron nuevos programas en Brasil, Chile, China,

Nueva Zelanda, Corea del Sur, Taiwán y los EE.UU. [2] En los últimos años, los sistemas de bicicletas públicas han ido ganando mayor popularidad en los planes de transporte como una estrategia para multiplicar las opciones de viaje, fomentar el uso de modos de transporte activo, disminuir la dependencia del automóvil y, especialmente, reducir las emisiones de gases de efecto invernadero. 1.1. Bicicletas públicas o compartidas Son sistemas de alquiler o préstamo gratuito de bicicletas que se pueden encontrar dentro de centros urbanos, impulsados generalmente por la administración pública. Se diferencian de los servicios tradicionales de alquiler de bicicletas, más orientados al ocio o el turismo, por el hecho de prestar un servicio de movilidad práctico, rápido y pensado para el uso cotidiano [3]. Se pueden utilizar para trayectos entre diferentes sectores de una cuidad de manera de evitar el transporte público o como una manera complementaria y de acercamiento a éste, por lo que los sistemas de bicicletas públicas se pueden considerar un modo más de transporte público. Los sistemas de bicicleta pública, son una idea que tomó fuerza con rapidez en el mundo por los resultados positivos mostrados en ciudades como París, Lyon, Barcelona, Sevilla, Ámsterdam, Berlín, Washington, Nueva York, Santiago de Chile, Río de Janeiro y Ciudad de México, entre otras. La idea original de los sistemas de bicicletas públicas, pertenece a Laurens (Luud) Maria Hendrikus Schimmelpennink, con el Plan de Bicicletas Blancas (White Bike Plan), implementado hacia el año 1965 en Ámsterdam, que consistió en reunir un importante número de bicicletas, pintarlas de blanco y dejarlas en la ciudad para ser utilizadas libremente, con el fin de crear una “ciudad más habitable”. Esta iniciativa es realizada siendo miembro del movimiento holandés contractual “Provo” que era integrado por jóvenes que discutían contra las estructuras sociales de la sociedad burguesa y cuyo lema era: “provoquemos reacciones violentas entre la clase gobernante con acciones no violentas” [4]. En esa época se puso a disposición del público una flota de bicicletas sin puntos específicos donde recogerla o dejarla una vez finalizado el desplazamiento, de modo que se podían encontrar en cualquier lugar de la ciudad. Se obtenía un medio de transporte no contaminante, saludable y económico que funcionaba constantemente. Debido a que no se disponía de ningún sistema de seguridad o seguimiento de las bicicletas, los robos y el vandalismo disminuyeron en gran medida la cantidad de bicicletas disponibles por lo que al cabo de unos días el programa fracasó, siendo éste considerado como la primera generación del sistema de bicicletas públicas. La idea de bicicletas públicas se retomó en los años 90, donde se desarrolló un sistema informatizado, el cual a través de una tarjeta magnética, permitía a los usuarios elegir una bicicleta en un lugar, y dejarla en otro. A este sistema se le dio el nombre de sistema Depo/White Bikey, que era gestionado por la empresa Ytech Innovation Center, dirigida por Luud desde donde se desarrolló la base técnica conceptual de los

285


Linfati et al / DYNA 81 (186), pp. 284-294. August, 2014.

sistemas actuales de préstamos de bicicletas [5]. Una segunda generación de bicicletas publicas comenzó en 1995, cuando en la ciudad de Copenhague se puso en marcha un servicio de préstamo de bicicletas a gran escala llamado Bycyklen, que tenía como características el uso de bicicletas determinadas para cada estación, uso de colores distintivos y el uso de monedas para el acceso a las bicicletas. A pesar de las mejoras, el problema de este sistema continuo siendo el de los robos, ya que no había registro del usuario ni seguimiento de las bicicletas, y el depósito que se deja a cuenta de utilizar la bicicleta (una moneda) era muy bajo. En los albores del siglo XXI, los avances de la electrónica y de las telecomunicaciones se aplicaron al concepto de la bicicleta pública exitosamente. En 1998 se implantó en Rennes (Francia) el primer sistema de tercera generación, que incluía registro obligatorio y sistema automático de entrega de bicicletas. Este sistema fue implantado por Clear Channel, que junto a JC Decaux, son las dos empresas de publicidad en el mobiliario urbano que empezaron a ofrecer estos sistemas como parte de sus contratos con algunas ciudades. Estos avances supusieron la contención del vandalismo, al menos hasta valores afrontables económicamente, y la mayor optimización del servicio. Finalmente se encuentra la cuarta generación de bicicletas que es muy similar a la tercera, pero difieren principalmente en la forma de pago porque incluyen tarjetas de pago para varios servicios e incluso con tarifas integradas a las del resto del transporte público de la ciudad. Estos sistemas también introducen componentes tecnológicos más avanzados (de rastreo de bicicletas, etc.). Aunque no existen sistemas 100 por ciento de cuarta generación, el sistema Alemán Call‐a‐bike es el que más se les asemeja [6]. 1.2. Bicicletas públicas en el mundo

Europa es el continente con más sistemas de bicicleta pública. Alrededor del 88 por ciento de los sistemas están localizados en el “viejo continente”. Por su protagonismo en la tercera generación de bicicletas públicas y por el gran número de sistemas implementados, Francia se ha convertido en uno de los países referentes de la bicicleta pública. Sin embargo, otros países europeos con también gran presencia de bicicleta pública son Alemania, Italia y España. A pesar de la relevancia de Europa en la historia del sistema de bicicleta pública, en los últimos años este también ha ganado protagonismo más allá de sus fronteras. En América la bicicleta pública está presente desde el 2011 en Chile, Argentina, Brasil, México, Estados Unidos y Canadá representando un cuatro por ciento de los sistemas del mundo. En Latinoamérica son especialmente relevantes los casos de México DF, Sao Paulo, Rio de Janeiro, Buenos Aires y Santiago de Chile por el gran tamaño de sus urbes. En Norteamérica destacan por su tamaño e innovación los sistemas de Montreal y Toronto (en Canadá) y Washington DC (en Estados Unidos). En Toronto y Montreal, el sistema Bixi introdujo como novedad un modelo de estación flexible basada en unas placas de hormigón que no necesitan cimiento ni suministro eléctrico subterráneo. De este modo se evitan las costosas obras de instalación y se

Figura 1. Crecimiento del número de sistemas de bicicleta pública y Bicicletas en el mundo de 2000 a 2010. Fuente: Balance General de la Bicicleta Pública en España, Esther Anaya y Alberto Castro, Mayo 2012

deja la puerta abierta a sencillos cambios de localización de las estaciones [7]. Se ha estimado que en Asia están localizados un siete por ciento de los sistemas existentes en el mundo. Así, en Asia existe actualmente un sistema de bicicleta pública en Qatar, Irán, India, dos sistemas en Taiwán y tres sistemas en Corea y Japón. Sin embargo, es China el actual exponente de la bicicleta pública en Asia, no sólo por el número sino también por el tamaño de los sistemas implantados. Destaca especialmente el caso de Hangzhou, que con 50.000 bicicletas se ha convertido en el mayor sistema del mundo superando a Paris. Además del número de sistemas implantados es importante destacar el ritmo con el que se han ido implementando en los últimos años. El número de sistemas de bicicleta pública en el mundo ha crecido exponencialmente desde el año 2000 (ver Fig. 1). Se desconoce por cuánto tiempo continuará este ritmo de crecimiento. Podrían darse dos posibles escenarios futuros. Por una parte, las deficiencias de los sistemas de bicicleta pública pueden hacer que disminuya el “entusiasmo” de las ciudades a la hora de implementar estos sistemas o incluso puede provocar el cierre de algunos de los ya existentes. Por otra parte, la introducción de sistemas públicos en mercados emergentes aún no explorados en profundidad como la India, el Sudeste Asiático, Oriente Medio o África podría contribuir a mantener la expansión mundial de este método de movilidad basado en la bicicleta compartida. En la Sección 2 se describirá el problema de ruteo de vehículos, luego la variante de recolección y entrega de mercancía, para finalmente explicar la generalización sobre el problema de bicicletas públicas. Luego se presenta el modelo matemático propuesto, el algoritmo de solución inicial y el algoritmo de mejora basado en una búsqueda tabú granular. En la sección 3 de este artículo se presentan los principales resultados obtenidos sobre y en la sección 4 se presenta la discusión, conclusiones y trabajo futuro.

286


Linfati et al / DYNA 81 (186), pp. 284-294. August, 2014.

2. Materiales y Métodos

2.3. Problema de ruteo de vehículos con recolección y entrega de mercancía

2.1. Problema de ruteo de vehículos La planificación de las rutas es uno de los principales problemas en la optimización de las operaciones logísticas, pero su adecuada concepción puede significar grandes ahorros y aumentar el nivel de servicio al cliente. El gran número de aplicaciones al mundo real han demostrado ampliamente que la utilización de procedimientos informáticos para la planificación de los procesos de distribución produce un ahorro sustancial (por lo general entre un 5 y 20 por ciento) en los gastos de transporte globales [8]. En 1959 se presenta el primer problema de VRP, donde Dantzig y Ramser describen una aplicación al servicio de distribución de combustible en estaciones de servicio, proponiendo la primera formulación de programación matemática y un algoritmo de aproximación [9]. Luego, Clarke y Wright propusieron el popular algoritmo de Ahorros que resultó efectivo para su resolución [10]. El estudio y aplicación del ruteo de vehículos se ha desarrollado gracias a la mejora paralela de la tecnología de información y comunicación, lo cual ha permitido reducir el tiempo de ejecución de los algoritmos e integrar información operacional a través de componentes tales como los sistemas de información geográfica. La función objetivo depende de la tipología y características del problema. Lo más habitual es intentar: minimizar el costo total de operación, minimizar el tiempo total de transporte, minimizar la distancia total recorrida, minimizar el tiempo de espera, maximizar el beneficio total, maximizar el nivel de servicio al cliente, minimizar la utilización de vehículos, equilibrar la utilización de los recursos, etc. 2.2. Caracterización del VRP El problema VRP más básico supone la existencia de un depósito que cuenta con una flota de vehículos homogénea y debe atender a un conjunto de clientes geográficamente dispersos, quienes tienen la necesidad de ser abastecidos por algún producto. El objetivo es entregar bienes a este conjunto de clientes con demandas conocidas, al mínimo costo, encontrando las mejores rutas que se inician y terminan en el depósito. Cada cliente es visitado una única vez y los vehículos de transporte llevarán la carga sin exceder su capacidad máxima disponible. [11] Una ruta es un ciclo simple con origen y destino en el depósito, que representa la secuencia de visitas realizadas por el vehículo que recorre la ruta. El costo de una ruta se obtiene sumando los costos de los arcos que forman el ciclo. • Así, el objetivo último que persigue este tipo de problemas problema es diseñar un conjunto de rutas de costo mínimo, de modo que: Cada ruta comience y termine en el depósito. • Cada cliente sea visitado por exactamente una ruta. • La demanda de los clientes visitados en una misma ruta no supere la capacidad del vehículo (en el caso de que existan limitaciones de capacidad en el transporte) [12].

EL VRPPD (VRP with Pickup and Delivery) es una variante del VRP donde se contempla la posibilidad de que un cliente pueda entregar y recolectar (devoluciones) el producto, por lo tanto, se debe tener en cuenta que los productos que los clientes introducen en el vehículo no deben nunca exceder su capacidad. Esta restricción dificulta aún más el problema de planificación y puede conllevar una mala utilización de la capacidad de los vehículos, incrementar las distancias recorridas o la necesidad de utilizar una flota más amplia [13]. Por consiguiente, es habitual considerar situaciones restrictivas en las que todos los envíos comienzan en el depósito y todas las devoluciones vuelven al depósito central. Así se impide la posibilidad de intercambio de mercancías entre clientes. Una alternativa es la de relajar la restricción de que todos los clientes deben ser visitados al menos una vez. Otra simplificación habitual es la de considerar que cada vehículo debe entregar todos los productos antes de comenzar con las devoluciones. Así pues, el objetivo es minimizar la flota de vehículos y la suma de los tiempos de transporte con la restricción de que cada vehículo debe tener suficiente capacidad para transportar los productos que van a ser entregados y aquellos que debe recoger en cada cliente para traerlos de vuelta al depósito. Para que una solución se considere factible, la cantidad total asignada a cada ruta no debe exceder la capacidad del vehículo que sirve esa ruta y dicho vehículo deberá tener suficiente capacidad para recoger las devoluciones que cada cliente tenga en su poder, y con esto se logra que no ocurra que el vehículo tenga mercancías “negativas”. Este problema de ruteo de vehículo con recolección y entrega de mercadería se han ido introduciendo con mayor magnitud en la mente de los investigadores en los últimos tiempos, debido a las grandes aplicaciones que se pueden lograr con este tipo de problema en el área logística [3,5]. Por su complejidad se debe analizar y estudiar bien su

Figura 2. Instancia de VRPPD para 6 clientes y un solo vehículo Fuente: Los autores

287


Linfati et al / DYNA 81 (186), pp. 284-294. August, 2014.

método de resolución, el cual está directamente ligado al problema específico del cual se trata. Existen ciertas consideraciones que se deben tomar al momento de enfrentar un problema de este tipo las cuales son: • Cada ruta visita el depósito. • Cada cliente es visitado exactamente por una ruta, es decir por un solo vehículo. • Cada ruta comienza y termina en el depósito. • La demanda tanto a entregar como a recoger debe ser atendida por el mismo vehículo. • La carga del vehículo durante la dura debe ser no negativa y no debe de exceder la capacidad del vehículo [14]. En la Fig. 2, se observa una instancia del VRPPD, con 6 clientes, y una sola ruta. El número que acompaña a cada cliente corresponde a una oferta (número positivo) o una demanda (número negativo). La suma de las ofertas y demandas debe dar cero al completar la ruta, y en cada cliente visitado la capacidad debe estar dentro de los rangos permitidos, sin sobrepasar la capacidad del vehículo y sin quedar con utilización negativa de este. La optimización de este problema encuentra aplicaciones prácticas en el transporte de un producto entre clientes cuando las unidades de producto no tienen ni un origen ni un destino fijo. Un ejemplo sucede cuando un banco tiene que mover cantidades de dinero en efectivo entre diferentes sucursales; la sucursal principal (el depósito del vehículo) provee el dinero que falta o recoge el dinero sobrante. Otra aplicación importante del VRP ocurre en el contexto de reposición de inventarios. Una serie de minoristas están dispersos por una zona geográfica. A menudo, debido a la naturaleza aleatoria de las demandas, algunos minoristas tienen un exceso de inventario, mientras que otros tienen fuertes ventas y necesitan un stock adicional. En muchos casos, la empresa que suministra a los minoristas de un producto puede decidir mover cantidades de producto de unos minoristas a otros para equilibrar las demandas producidas. 2.4. Problema de los sistemas de bicicletas públicas El problema de las bicicletas públicas radica principalmente en el índice de “uso de un sistema” el cual está basado en el equilibrio demanda vs oferta. La demanda es la cantidad de veces que los usuarios acuden al sistema para realizar un préstamo, mientras que la oferta es la cantidad de bicicletas y estaciones que el sistema pone en servicio. Si la demanda es muy alta y la oferta es muy baja, este índice de uso adquirirá valores altos, que cuando son excesivos, pueden producir desajustes en el sistema. Al existir una excesiva demanda con respecto al número de bicicletas en servicio, el número de bicicletas en movimiento, es decir, circulando entre una estación y otra, aumenta. Esto provoca que el número de bicicletas en estaciones sea menor y que por lo tanto algunas estaciones puedan quedar desabastecidas, o bien puede ocurrir el caso contrario en el cual las estaciones se encuentren saturadas por lo que se tendrá que esperar o estar dispuesto a concurrir a otras estaciones para depositar la bicicleta. Esta

consecuencia se traduce en un efecto secundario que es el empeoramiento de la satisfacción del cliente y la imagen del sistema, que a la larga puede afectar a la intensidad de uso. Una posible medida para eliminar la sobreutilización y el desabastecimiento que se provoca es aumentar la redistribución de las bicicletas entre estaciones. En particular, se recomienda optimizar la redistribución mediante algoritmos y sistemas de información integrados, de forma que se reduzcan los viajes y que éstos sean más eficientes. Evidentemente, esto supone invertir en la mejora de este aspecto, pero los costos económicos derivados de la evolución técnica y tecnología compensarían los ahorrados por el combustible, el número de vehículos o el personal necesarios para la redistribución. Otra de las posibles medidas para reducir la sobreutilización y sus efectos es aumentar el número de estaciones y bicicletas disponibles. Sin embargo, la sobreutilización puede llevar a un mayor índice de averías y desequilibrio en el abastecimiento de las bicicletas. Por lo tanto, paralelamente será necesario aumentar el nivel de calidad del mantenimiento y de la disponibilidad del sistema. Por último, una medida que puede ayudar a disminuir la insatisfacción del usuario en casos de estaciones llenas o vacías es el suministro de información previa o in situ. Si antes de acudir a una estación el usuario puede consultar en internet o en su teléfono móvil el estado de las estaciones, acudirá directamente a aquellas con bicicletas disponibles (para el origen) y anclajes libres (para el destino). 2.5. Redistribución Cuando una estación de bicicleta pública está llena, el usuario que quiere devolver una bicicleta prestada no puede hacerlo. La única solución que le queda es desplazarse hasta la estación más próxima y esperar a que algún anclaje esté libre. Cuando ocurre lo contrario, es decir, cuando la estación está vacía, aquel cliente que quiere tomar prestada una bicicleta no puede acceder al servicio. Cuando esto ocurre, el cliente debe desplazarse caminando hasta la estación más próxima esperando que no esté también vacía. Para evitar este desajuste del sistema, el operador se encarga de redistribuir con vehículos las bicicletas desde estaciones llenas a estaciones vacías. Algunas de las causas que generan el desequilibrio entre las estaciones son las siguientes: • Baja accesibilidad ciclista: falta de infraestructura ciclista que facilite el acceso. • Efecto margen: las estaciones situadas cerca de los límites del área suelen tener más baja utilización. • Baja o alta demanda espacial: estaciones con poca o mucha demanda durante todo el día. • Baja o alta demanda temporal: estaciones con poca o mucha demanda en un preciso momento del día. • Excesiva homogeneidad de usos en ciertas estaciones: preponderancia de un uso por encima del resto de usos, por ejemplo, una estación situada en un punto de elevada atracción puntual de viajes, como un campus universitario [7]. La redistribución es uno de los problemas con mayor

288


Linfati et al / DYNA 81 (186), pp. 284-294. August, 2014.

impacto negativo relacionado a la operaciĂłn de un sistema de bicicletas pĂşblicas. Primeramente, supone un costo importante para el operador. Por ejemplo, Bicing en Barcelona, lo ha declarado en un 30 por ciento de los costos anuales [7]. Segundo, si esa redistribuciĂłn se produce con vehĂ­culos de carburantes fĂłsiles, el municipio debe considerar un aumento significativo de la contaminaciĂłn ambiental como efecto secundario de la implementaciĂłn del sistema. Finalmente, la redistribuciĂłn esconde de fondo otra problemĂĄtica que es la falta de disponibilidad de bicicletas y anclajes. Una disponibilidad parcial (no siempre serĂĄ posible disponer de bicicletas y anclajes en todos los momentos y en todas las ubicaciones) es connatural a un sistema de bicicleta pĂşblica con ciertos niveles de uso. La clave es hallar el equilibrio entre un nivel de redistribuciĂłn que permita una calidad del servicio aceptable por la mayorĂ­a de los usuarios y que a la vez sea coherente con el balance medioambiental y econĂłmico del sistema. Para hallar este equilibrio, deben estudiarse los balances ambientales y econĂłmicos del sistema, que son particulares en cada caso. La redistribuciĂłn es quizĂĄ uno de los aspectos mĂĄs complejos de las bicicletas pĂşblicas. Debe tenerse en cuenta desde las fases de planeamiento y preparaciĂłn del sistema y no abandonarse nunca su vigilancia a travĂŠs de la recopilaciĂłn de informaciĂłn, su modelizaciĂłn y sus sistemas de comunicaciĂłn. Los estudios de logĂ­stica pueden ser de gran ayuda para optimizar la redistribuciĂłn. Al ser un transporte individual generado por una red de localizaciones en el espacio, la cantidad y caracterĂ­sticas de los movimientos posibles y reales es abrumadora. Su gestiĂłn es, por tanto, compleja, y precisa de estudios de logĂ­stica especĂ­ficos. Son muy pocos los sistemas que han llevado a cabo este tipo de estudios, siendo uno de los primeros el Bicing de Barcelona, a finales de 2008. Estudios llevados a cabo sobre este sistema, definieron los clĂşster, agrupaciones de estaciones que funcionaban con cierta independencia, y descubrieron que respondĂ­an a diferentes tipologĂ­as. La dinĂĄmica de redistribuciĂłn respondĂ­a a las caracterĂ­sticas de los diferentes tipos de clĂşster, pues los hay receptores, emisores y cambiantes. Otro estudio mostraba la asimetrĂ­a de las estaciones, es decir la relaciĂłn entre el nĂşmero de viajes generados y los atraĂ­dos. El Ă­ndice de asimetrĂ­a revelaba si la estaciĂłn era demasiado receptora o emisora de bicicletas, lo cual generaba mayores necesidades de redistribuciĂłn. Las estaciones con valores situados en los extremos de este Ă­ndice contribuyen a un mayor desequilibrio del sistema. Algunos de los factores que causan el desequilibrio de las bicicletas y su redistribuciĂłn son conocidos. Por lo tanto, ya en el perĂ­odo de diseĂąo del sistema deberĂ­an ser descartadas en funciĂłn del nivel de afectaciĂłn relativo. Por ejemplo, se deben evitar estaciones en sitios muy altos o muy bajos que requieran un acceso con pendientes excesiva. Con respecto a las estaciones receptoras, es decir, las que se desequilibran porque hay una gran demanda para devolver la bicicleta, especialmente en ciertos momentos del dĂ­a, en algunos sistemas se han llegado a estudiar estaciones de gran capacidad en hora punta con intervenciĂłn de operarios y reposiciĂłn al momento para conseguir absorber de forma

rĂĄpida los picos de demanda y oferta en determinados puntos. En cualquier caso, dado que la redistribuciĂłn va Ă­ntimamente ligada a las necesidades de la oferta y la demanda, este es uno de los aspectos clave para determinar la necesidad de ampliaciĂłn del nĂşmero de estaciones. Entre principales estudios en el balanceo de bicicletas pĂşblicas, usando tĂŠcnicas de investigaciĂłn de operaciones, podemos mencionar los modelos matemĂĄticos propuestos por [5] para la versiĂłn dinĂĄmica de nuestro problema, los que son resueltos por generaciĂłn de columna y tĂŠcnicas descomposiciĂłn, siendo capaz de resolver instancias pequeĂąas, de hasta 100 clientes. La versiĂłn estĂĄtica de nuestro problema es estudiada por [15, 16, 17], en todos ellos se proponen nuevos modelos matemĂĄticos, cada uno con restricciones particulares del problema estudiado, en los trabajos anteriores se proponen tĂŠcnicas de soluciĂłn basadas en generaciĂłn de columna, generaciones de planos de corte y otros, solo logrando resolver instancias pequeĂąas, de hasta 100 clientes. Los estudios anteriores, basan sus modelos en adaptaciones del VRPPD al problema de balanceo de bicicletas pĂşblicas, por la similitud existente entre ambos. Hasta la fecha no existen estudios publicados con algoritmos aproximados que logren encontrar soluciones de buena calidad, en tiempos de cĂłmputo acotado. 3. MĂŠtodo de soluciĂłn propuesto El objetivo del modelo propuesto, es encontrar el conjunto Ăłptimo de rutas que cumplan las siguientes restricciones: • Cada ruta comienza y termina en el depĂłsito. • Satisfacer la demanda de recogida y entrega de mercaderĂ­a de todos los clientes. • En cada punto del recorrido el total de mercancĂ­a transportada por el vehĂ­culo no exceda su capacidad. • El vehĂ­culo comienza siempre recogiendo mercancĂ­a, puesto que inicia vacĂ­o. • Se debe visitar un mĂĄximo de clientes por ruta. • Al regresar al depĂłsito el vehĂ­culo no debe llevar mercancĂ­a. El problemas se modela a travĂŠs de un grafo G = (V, E). El conjunto de nodos V = {v0, v1,‌, vn} representa los lugares de la ciudad, que pueden corresponder al depĂłsito, o los clientes. El nodo 0 representa al depĂłsito y los nodos 1,‌,n representan clientes. Cada cliente i tiene asociada una oferta representada por Oi con un valor positivo, o una demanda representada por Oi con un valor negativo. Existe un conjunto de vehĂ­culos K = {k0, k1, ‌, km}, donde cada uno de ellos podrĂĄ realizar una ruta que inicia y termina en el depĂłsito; cada uno de los cuales tiene una capacidad Q positiva. Los vehĂ­culos no podrĂĄn visitar mĂĄs de un cierto nĂşmero de clientes al dĂ­a lo cual queda determinado por Rmax. La existencia de un arco (i, j) ∈ E indica que es posible transportarse desde el sitio representado por i al sitio representado por j. Cada arco (i, j) ∈ E se le asocia un costo Cij calculado como la distancia de transportarse de i a j. Se definen las siguientes variables binarias:

289

1, đ?‘‹đ?‘‹đ?‘–đ?‘–đ?‘–đ?‘–đ?‘˜đ?‘˜ = ďż˝ 0,

đ?‘ đ?‘ đ?‘ đ?‘ đ?‘’đ?‘’đ?‘’đ?‘’ đ?‘Žđ?‘Žđ?‘Žđ?‘Žđ?‘Žđ?‘Žđ?‘Žđ?‘Ž (đ?‘–đ?‘–, đ?‘—đ?‘—) đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘? đ?‘Žđ?‘Ž đ?‘™đ?‘™đ?‘™đ?‘™ đ?‘&#x;đ?‘&#x;đ?‘&#x;đ?‘&#x;đ?‘&#x;đ?‘&#x;đ?‘&#x;đ?‘&#x; đ?‘˜đ?‘˜ đ?‘’đ?‘’đ?‘’đ?‘’ đ?‘œđ?‘œđ?‘œđ?‘œđ?‘œđ?‘œđ?‘œđ?‘œ đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?


Linfati et al / DYNA 81 (186), pp. 284-294. August, 2014.

A continuaciĂłn se darĂĄ a conocer el modelo aplicado al problema, que corresponde a una adaptaciĂłn del VRPPD clĂĄsico al problema de las bicicletas compartidas. đ?‘˜đ?‘˜ đ?‘€đ?‘€đ?‘–đ?‘–đ?‘–đ?‘– ďż˝ ďż˝ đ?‘?đ?‘?đ?‘–đ?‘–đ?‘–đ?‘–đ?‘˜đ?‘˜ ∗ đ?‘Ľđ?‘Ľđ?‘–đ?‘–đ?‘–đ?‘– đ?‘˜đ?‘˜âˆˆK (đ?‘–đ?‘–,đ?‘—đ?‘—)∈đ??¸đ??¸

Sujeto a: ďż˝

ďż˝

đ?‘˜đ?‘˜âˆˆK đ?‘—đ?‘—:(đ?‘–đ?‘–,đ?‘—đ?‘—)∈đ??¸đ??¸

đ?‘˜đ?‘˜ đ?‘Ľđ?‘Ľđ?‘–đ?‘–đ?‘–đ?‘–

≼1

đ?‘˜đ?‘˜ ďż˝ đ?‘Ľđ?‘Ľ0đ?‘—đ?‘— =1

đ?‘—đ?‘—:(0,đ?‘—đ?‘—)∈đ??¸đ??¸

ďż˝

đ?‘—đ?‘—:(đ?‘–đ?‘–,đ?‘›đ?‘›+Ăą+1)∈đ??¸đ??¸

ďż˝

đ?‘—đ?‘—:(đ?‘–đ?‘–,đ?‘—đ?‘—)∈đ??¸đ??¸

(1)

đ?‘˜đ?‘˜ đ?‘Ľđ?‘Ľđ?‘–đ?‘–đ?‘–đ?‘–

đ?‘˜đ?‘˜ đ?‘Ľđ?‘Ľđ?‘–đ?‘–,đ?‘›đ?‘›+Ăą+1 =1

− ďż˝

đ?‘—đ?‘—:(đ?‘—đ?‘—,đ?‘–đ?‘–)∈đ??¸đ??¸

đ?‘Ľđ?‘Ľđ?‘—đ?‘—đ?‘—đ?‘—đ?‘˜đ?‘˜

=0

đ?‘˜đ?‘˜ đ?‘Ľđ?‘Ľđ?‘–đ?‘–đ?‘–đ?‘– = 1 → đ?‘„đ?‘„đ?‘—đ?‘—đ?‘˜đ?‘˜ = đ?‘žđ?‘žđ?‘–đ?‘–đ?‘˜đ?‘˜ + đ??źđ??źđ?‘—đ?‘—

max {0, −đ?‘‚đ?‘‚đ?‘–đ?‘– } ≤ đ?‘„đ?‘„đ?‘–đ?‘–đ?‘˜đ?‘˜ ≤ min{đ?‘„đ?‘„, đ?‘„đ?‘„ − đ?‘‚đ?‘‚đ?‘–đ?‘– } đ?‘˜đ?‘˜ ďż˝ đ?‘Ľđ?‘Ľđ?‘–đ?‘–đ?‘–đ?‘– ≤ đ?‘…đ?‘…đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š

đ?‘—đ?‘—:(đ?‘–đ?‘–,đ?‘—đ?‘—)∈đ??¸đ??¸

đ?‘˜đ?‘˜ đ?‘Ľđ?‘Ľđ?‘–đ?‘–đ?‘–đ?‘– ∈ {0,1}

∀ đ?‘–đ?‘– ∈ đ?‘‰đ?‘‰, đ?‘–đ?‘– <> đ?‘Łđ?‘Ł0

(2)

∀ đ?‘˜đ?‘˜ ∈ đ??žđ??ž

(3)

∀ đ?‘˜đ?‘˜ ∈ đ??žđ??ž

(4)

∀ đ?‘–đ?‘– ∈ đ?‘‰đ?‘‰, đ?‘–đ?‘– < > đ?‘Łđ?‘Ł0 ; ∀ đ?‘˜đ?‘˜ ∈ đ??žđ??ž

(5)

∀ (đ?‘–đ?‘–, đ?‘—đ?‘—) ∈ đ??¸đ??¸; ∀ đ?‘˜đ?‘˜ ∈ đ??žđ??ž ∀ đ?‘–đ?‘– ∈ đ?‘‰đ?‘‰; ∀ đ?‘˜đ?‘˜ ∈ đ??žđ??ž ∀ đ?‘˜đ?‘˜ ∈ đ??žđ??ž

∀ (đ?‘–đ?‘–, đ?‘—đ?‘—) ∈ đ??¸đ??¸; ∀ đ?‘˜đ?‘˜ ∈ đ??žđ??ž

corresponde al dominio de las variables binarias. Una de las principales diferencias de nuestro modelo y las presentadas por otros autores, es la inclusiĂłn de la restricciĂłn (8) y el permitir visitar a cliente por mĂĄs de una ruta. Este modelo matemĂĄtico, resulta difĂ­cil de resolver para instancias medianas y grandes, incluso por los mĂĄs sofisticados algoritmos publicados hasta la fecha [5,15-17], por esto se propone un algoritmo aproximado para su soluciĂłn. 3.1. Algoritmo basado en bĂşsqueda tabĂş granular propuesto Para la soluciĂłn de la problemĂĄtica, se propone un algoritmo de dos fases. La primera fase, de inicializaciĂłn, nos entrega una soluciĂłn inicial factible por un procedimiento (el algoritmo es descrito en la siguiente secciĂłn). La segunda fase, llamada fase de mejoramiento, nos permite mejorar la soluciĂłn actual por medio de la exploraciĂłn de vecindarios guiados por una bĂşsqueda tabĂş granular, (este algoritmo es descrito en la subsiguiente subsecciĂłn). 3.2. Fase 1: SoluciĂłn heurĂ­stica inicial Se tiene un depĂłsito central, en el cual estarĂĄn los vehĂ­culos que participarĂĄn y solucionarĂĄn el problema de desequilibrio en el sistema de bicicletas pĂşblicas. Dichos vehĂ­culos visitaran las diferentes estaciones ubicadas aleatoriamente en la cuidad, para ya sea cubrir una demanda o realizar el retiro de las bicicletas sobrantes de las estaciones. Los vehĂ­culos siempre deberĂĄn comenzar el recorrido retirando bicicletas puesto que salen vacĂ­os desde el depĂłsito, y la otra condiciĂłn es que al momento de terminar la ruta no pueden quedar con bicicletas en los vehĂ­culos. Las estaciones que serĂĄn llamadas clientes, presentaran una demanda (valor negativo) u oferta (valor positivo) conocida de bicicletas. En primer lugar se tiene una lista con los clientes, sus ubicaciones y sus demandas u ofertas. La sumatoria de las

(6)

(7)

(8) (9)

La ecuaciĂłn (1) corresponde a la funciĂłn objetivo, la cual es la minimizaciĂłn de la distancia total realizada por los vehĂ­culos. La ecuaciĂłn (2) corresponde a la restricciĂłn de que cada cliente debe ser visitado una o mĂĄs veces. La ecuaciĂłn (3) corresponde a la restricciĂłn que obliga a cada ruta a iniciar en un depĂłsito. La ecuaciĂłn (4) corresponde a la restricciĂłn que obliga a cada ruta a terminar en un depĂłsito. La ecuaciĂłn (5) corresponde a la restricciĂłn de conservaciĂłn de flujo. La ecuaciĂłn (6) corresponde a la restricciĂłn que calcula la capacidad utilizada del vehĂ­culo. La ecuaciĂłn (7) corresponde a la restricciĂłn que establece un mĂ­nimo (cero) y un mĂĄximo (la capacidad del camiĂłn) de carga que puede tener asignada el vehĂ­culo en cada cliente, considerando las ofertas y demandas de este. Las ecuaciones (6) y (7) pueden ser transformadas en restricciones lineales por el mĂŠtodo de la BigM. La ecuaciĂłn (8) corresponde a la restricciĂłn que establece el nĂşmero mĂĄximo de clientes por ruta. La ecuaciĂłn (9)

ENTRADA: SALIDA:

conjunto de clientes, con su oferta y demanda conjunto de rutas

REPETIR * -Buscar un cliente no atendido con la mayor oferta no satisfecha ** -Buscar entre 1 y Rmax-1 clientes que equilibren la oferta y demanda (suma cero) -Formar una nueva ruta factible usando los clientes del punto * y ** -Actualizar la lista de clientes no atendidos -Actualizar las ofertas y demandas no satisfechas. HASTA lista de clientes no atendidos vacĂ­a Algoritmo. 1. PseudoCĂłdigo del algoritmo de SoluciĂłn Inicial

290


Linfati et al / DYNA 81 (186), pp. 284-294. August, 2014.

Figura. 3. Ejemplo de Solución Factible Fuente: Los autores

demandas debe ser igual a las de las ofertas. Se debe definir un valor llamado Rmax, que limitará la cantidad de clientes a visitar por cada vehículo dentro de una ruta. Para encontrar una solución factible del problema es necesario considerar tres elementos importantes: 1. Qué clientes (estaciones) pueden formar parte de una misma ruta. 2. En qué orden deben ubicarse los clientes (estaciones) dentro de la ruta. 3. Que las demandas y oferta de una misma ruta estén equilibradas. Por lo cual lo primero que se realiza es visitar un cliente o (estación) que presente una oferta de bicicletas de tal manera que el vehículo tenga la capacidad de cubrir alguna demanda, luego buscar clientes de tal manera que se pueda equilibrar las ofertas con las demandas sin sobrepasar el Rmax. Luego de obtener las primeras rutas se deben evaluar la manera de recorrer las estaciones por un vehículo, sin violar la condición de presentar una carga negativa por parte del vehículo. Luego de realizar los pasos antes mencionados y si aún quedan clientes sin atender se vuelve a buscar un cliente que presente una oferta y se buscan más clientes de manera de cumplir con las condiciones de factibilidad, hasta satisfacer a todos los clientes y equilibrar el sistema. En la Fig. 3, se tiene un depósito, y 6 clientes enumerados desde 1 a 6, sobre el cliente esta anotada la oferta (números positivo) o la demanda respectiva (número negativo). De acuerdo a la Figura 3, el cliente 1 deberá ser visitado más de una vez puesto que su oferta no fue cubierta completamente, quedando aun siete bicicletas por retirar de la estación. Se observa que gracias a esta relajación de las restricciones se logra obtener una solución factible y que no sobrepase el valor del Rmax.

local consiste en partir de una solución inicial, y teniendo una función objetivo, realizar mejoras, hasta encontrar una solución que no pueda ser mejorada (optimo local). Según Fred Glover [18], la búsqueda tabú es una metaheurística que guía un procedimiento heurístico de búsqueda local en la búsqueda de un óptimo global. Su filosofía se basa en derivar y explotar una colección de estrategias inteligentes para la resolución de problemas, basadas en procedimientos implícitos y explícitos de aprendizaje [19]. Más detalles de la búsqueda tabú pueden ser encontrados en [20]. El algoritmo utiliza un espacio de búsqueda granular [21]. Una característica de la búsqueda tabú es que logra encontrar soluciones de buena calidad, pero para instancias grande el tiempo de computo es elevado, el uso apropiado de una lista de candidatos para obtener un espacio de búsqueda granular logra obtener soluciones de alta calidad, en pequeños tiempos de cómputo para instancias pequeñas, medianas y grandes [21]. El grafo original G = (V, E) se sustituye por un grafo que considera todos los arcos que tienen un costo menor a un umbral de granularidad, los arcos incidentes a los depósitos y los arcos que pertenecen a la mejor solución encontrada durante la búsqueda. Mediante el ajuste del umbral de granularidad se pueden realizar procesos de diversificación (valores grandes) e intensificación (valores pequeños). El umbral de granularidad es ajustado dinámicamente en las iteraciones del algoritmo de la forma sugerida en [21]. Para la búsqueda tabú granular propuesta en el presente estudio se realizan diferentes movimientos que se nombran a continuación.

3.3. Fase 2: Algoritmo de mejora basado en búsqueda tabú granular La búsqueda tabú surge en un intento de dotar de “inteligencia” a los algoritmos de búsqueda local. La búsqueda

Figura. 4. Ejemplo de Movimiento Unir Fuente: Los autores

291


Linfati et al / DYNA 81 (186), pp. 284-294. August, 2014.

4. Resultados

Figura. 5. Ejemplo de Movimiento Intercambio Fuente: Los autores

1. 2.

Unir rutas que contengan o visiten clientes en común. Unir rutas que no comparten o visiten los mismos clientes. 3. Intercambio de clientes dentro de una misma ruta y en diferentes rutas 4. 2-Opt en una misma ruta y en diferentes rutas 5. Los movimientos “Unir” buscan disminuir el número de rutas dentro de las diferentes instancias, para de esta forma obtener el menor número de rutas. El Movimiento “Intercambio” consta de dos partes: la primera parte intercambia el orden de las visitas a las diferentes estaciones o clientes dentro de una misma ruta, con el fin de encontrar la manera más adecuada de recorrer las rutas lo que favorece la distribución de las bicicletas, mientras que la segunda parte intercambia clientes de diferentes rutas para encontrar las mejores combinaciones de clientes a ser visitados por el mismo vehículo. Los intercambios realizados deben ser rigurosamente revisados, ya que no se pueden realizar todas las combinaciones posibles puesto que se puede caer en soluciones infactibles de recorrido. El movimiento 2-Opt corresponde al movimiento clásico de VRP, extendido para considerar recolección y entrega de mercadería, además de las características específicas del problema de bicicletas públicas o compartidas.

Se utilizaron un conjunto de 50 instancias, las cuales se dividirán en secciones de cinco instancias de 15, 25, 50, 75, 100, 150, 200, 300, 400 y 500 clientes cada una. Estas instancias fueron generadas usando la metodología propuesta por [22] para el problema del vendedor viajero, con recogida y entrega de mercadería. El computador usado para los experimentos computaciones posee un procesador Intel(R) Core(TM) i52400 CPU @ 3.10GHz, con 8Gb de memoria RAM, y Linux Ubuntu 12.04 de 64 bits. Para la selección de parámetros se siguió la metodología propuesta en [23]. Los parámetros que se calibraron fueron: 1. Número de Iteraciones 2. Tamaño de la Lista Tabú Las instancias fueron separadas en dos tipos, grandes (instancias con más de 100 clientes) y pequeñas (instancias menores o iguales a 100 clientes). Para las todas las instancias, se probaron diferentes valores para el número de iteraciones, siendo 50 veces el número de clientes, el valor que presenta el mejor desempeño. Para las instancias pequeñas, el tamaño de la lista tabú el mejor desempeño se logra con un valor de 30. Para las instancias grandes, el mejor desempeño del tamaño se logró con una lista tabú de 100 elementos, para evitar ciclos en el corto y mediano plazo. Los resultados finales obtenidos se presentan en la Tabla 1, la primera columna corresponde al nombre de la instancia, luego para la solución inicial, la solución final 50/30 y la solución final 50/100 se reporta el número de rutas generado, el valor de la función objetivo, y el tiempo de cómputo requerido. La solución final 50/30 corresponde a la calibración de las instancias pequeñas, y la solución final 50/100 a la calibración final de las instancias grandes. 5. Discusión y conclusiones En el presente artículo se desarrolló un algoritmo para resolver el sistema de bicicletas públicas mediante la conceptualización del problema de ruteo de vehículos con entrega y recibido de mercancía, incluyendo las restricciones propias del problema en específico. Se tratan varios temas relacionados con los VRP, más precisamente relacionados con VRPPD, también se entregó una amplia información sobre los sistemas de bicicletas públicas dentro del mundo. Se formuló un modelo para el el problema de las bicicletas públicas. Se diseñaron algoritmos de solución inicial, algoritmos de mejora y vecindarios para el problema de las bicicletas públicas. El algoritmo de mejora, basado en una búsqueda tabú granular se calibro, buscando los parámetros que potenciaran su funcionamiento, lo que permitió explorar un campo más amplio de soluciones. Nuestra propuesta de solución logra encontrar soluciones de buena calidad, en tiempos de cómputo reducido para instancias de tamaño pequeñas, medianas y grandes, diferenciando de la propuesta de otros autores donde logran encontrar soluciones optimas, solo para instancias de tamaño pequeño.

Tabla 1.

292


Linfati et al / DYNA 81 (186), pp. 284-294. August, 2014. Tabla de Resultados instancia N° rutas BS-n15-s1 5 BS-n15-s2 5 BS-n15-s3 4 BS-n15-s4 6 BS-n15-s9 5 BS-n25-s2 8 BS-n25-s3 9 BS-n25-s4 9 BS-n25-s9 8 BS-n25-s10 9 BS-n50-s1 20 BS-n50-s2 19 BS-n50-s3 17 BS-n50-s4 20 BS-n50-s9 21 BS-n75-s1 32 BS-n75-s2 27 BS-n75-s3 34 BS-n75-s4 31 BS-n75-s9 34 BS-n100-s9 45 BS-n100-s11 39 BS-n100-s12 39 BS-n100-s13 39 BS-n100-s15 46 BS-n150-s1 61 BS-n150-s2 63 BS-n150-s3 63 BS-n150-s4 62 BS-n150-s9 67 BS-n200-s1 90 BS-n200-s2 83 BS-n200-s3 89 BS-n200-s4 86 BS-n200-s9 88 BS-n300-s1 138 BS-n300-s2 128 BS-n300-s3 138 BS-n300-s12 132 BS-n300-s15 142 BS-n400-s3 184 BS-n400-s15 191 BS-n400-s17 174 BS-n400-s18 179 BS-n400-s19 169 BS-n500-s3 234 BS-n500-s12 222 BS-n500-s17 227 BS-n500-s18 231 BS-n500-s19 222 Fuente: Los autores.

Solución Inicial F.O Tiempo CPU (seg) 11.761,10 0,00 6.146,70 0,00 8.664,90 0,00 11.329,50 0,00 10.819,00 0,00 11.792,20 0,00 17.282,70 0,00 21.780,90 0,00 19.141,80 0,00 14.583,70 0,00 42.794,00 0,00 31.313,00 0,00 35.117,10 0,00 42.097,00 0,00 43.099,20 0,00 70.269,80 0,01 43.909,60 0,00 58.617,60 0,00 66.586,40 0,00 69.427,60 0,00 87.182,00 0,01 86.664,30 0,00 72.128,90 0,01 72.001,40 0,01 87.457,70 0,01 125.267,00 0,01 101.448,00 0,01 117.292,00 0,02 131.156,00 0,01 130.015,00 0,10 189.017,00 0,13 144.779,00 0,06 154.346,00 0,07 177.010,00 0,01 168.804,00 0,31 278.873,00 1,11 209.789,00 0,05 234.624,00 0,37 225.437,00 0,01 263.739,00 3,96 318.807,00 0,68 345.587,00 3,75 301.199,00 0,16 322.038,00 0,19 302.436,00 0,03 398.677,00 4,60 373.628,00 0,01 396.369,00 3,27 424.233,00 2,09 388.092,00 0,10

N° rutas 4 3 3 3 4 6 5 5 6 6 12 11 11 11 11 17 17 16 16 16 23 21 21 22 23 33 32 34 33 32 44 44 45 45 45 66 64 67 67 67 88 90 87 87 87 111 111 109 110 113

Solución Final 50/30 F.O Tiempo CPU(seg) 7.912,30 0,00 4.737,80 0,00 6.403,10 0,00 6.887,30 0,00 7.122,10 0,05 7.796,40 0,18 11.059,40 0,14 12.843,70 0,13 13.145,10 0,19 9.825,50 0,18 21.276,10 1,99 18.642,70 1,07 18.827,70 1,31 22.829,20 1,36 21.540,30 1,19 30.792,40 4,38 25.945,60 4,68 27.539,30 3,18 34.565,40 3,10 32.707,80 3,13 41.188,70 9,44 41.576,40 7,58 34.684,90 6,91 37.194,00 8,40 41.183,50 10,11 60.785,80 25,72 48.446,90 23,34 56.669,30 31,00 61.911,50 26,09 61.523,00 21,15 80.374,50 66,46 64.406,00 65,76 75.867,80 66,07 86.047,00 77,11 78.785,70 67,21 115.128,00 199,76 94.168,90 194,59 105.707,00 206,52 103.703,00 237,27 112.354,00 270,19 134.137,00 540,29 143.661,00 530,65 131.066,00 484,95 140.209,00 445,89 132.916,00 486,76 164.911,00 1.000,72 161.323,00 1,06 157.102,00 1.019,79 176.352,00 935,68 165.470,00 1.492,01

Se realizaron diversos experimentos computacionales para comprobar la eficiencia y precisión de los algoritmos propuestos al problema bajo estudio. Dentro de los resultados se aprecia que el enfoque de solución propuesto es capaz de resolver en tiempos computacionales razonables. Una vez obtenidos los resultados finales para el problema, se muestra un ahorro en costos por distancia recorrida, y existe una disminución en las rutas generadas inicialmente, y por ende de vehículos. Un trabajo futuro propuesto es estudiar la forma de obtener mejores soluciones iniciales al problema, nuevos vecindarios o movimientos. El modelo exacta propuesto es

N° rutas 4 3 3 3 4 6 5 5 6 6 12 11 12 11 11 18 18 16 16 16 23 21 22 22 23 32 32 34 32 32 44 44 44 45 45 66 64 66 67 67 88 90 87 87 87 111 111 109 110 113

Solución Final 50/100 F.O Tiempo CPU(seg) 7.912,30 0,01 4.737,80 0,00 6.403,10 0,00 6.887,30 0,00 7.122,10 0,01 7.796,40 0,02 11.059,40 0,01 12.882,10 0,01 13.400,00 0,01 9.825,50 0,03 22.061,90 2,15 19.637,50 1,59 21.932,60 1,97 23.738,90 1,77 22.086,20 1,52 32.600,80 6,12 26.329,30 6,31 29.277,50 5,84 33.448,20 5,54 31.285,90 5,42 39.991,90 14,11 40.412,80 11,84 34.025,80 12,81 36.343,20 12,86 38.546,20 14,37 55.744,50 44,77 45.875,00 59,39 51.708,10 63,65 60.008,30 48,52 57.280,90 48,59 78.606,00 100,12 60.007,10 102,39 70.059,30 97,50 81.735,30 102,86 76.121,40 118,88 110.351,00 334,06 89.800,90 322,93 100.514,00 341,75 99.980,30 336,78 107.729,00 354,34 128.712,00 822,38 139.674,00 875,03 128.114,00 962,87 136.136,00 952,39 126.872,00 818,60 162.665,00 1.610,28 157.939,00 1.794,19 154.219,00 1.655,65 172.402,00 1.689,03 162.050,00 1.725,95

complejo, y no puede ser resulto por software comerciales como CPLEX que representan el estado del arte en programación lineal entera, se propone estudiar descomposiciones, generación de columna y relajaciones para este modelo. El algoritmo propuesto podría ser mejorado en futuros desarrollos incluyendo procesos de búsqueda como Algoritmo de recocido simulado, Algoritmo genético, Algoritmo de la colonia de hormiga. Otro estudio que puede resultar interesante es incorporar a la metodología otras restricciones y parámetros presentes en los clásicos VRP, ya sea tiempos de servicios, calidad, etc.

293


Linfati et al / DYNA 81 (186), pp. 284-294. August, 2014.

Agradecimientos Este trabajo ha sido parcialmente financiado por la Pontificia Universidad Javeriana Cali (Colombia) y la Universidad del Bío-Bío (Chile). Esta ayuda es agradecida por los autores. Bibliografía

[13] Padilla, W. y Díaz, M., Modelo heurístico para el ruteo de vehículos de la empresa Sidauto S.A.. Tesis de Grado, Tecnología en logística, Corporación Universitaria Minuto de Dios, Colombia, 2011. [14] Nuño ,T.C., Problema de localización y ruteo con Pickup and Delivery, Tesis de Grado, Facultad de Ciencias Físicas y Matemáticas, Universidad de Chile, Chile, 2012. [15] Raviv, T., Tzur, M. and Forma, I.A., Static repositioning in a bikesharing system: Models and solution approaches. EURO Journal on Transportation and Logistics, 2 (3), pp. 187-229, 2013.

[1]

Vásquez, M., Desarrollo de un Framework para el problema de ruteo de vehículos, Chile, Tesis MSc. en Gestión de Operaciones, Facultad de Ciencias Físicas y Matemáticas, Universidad de Chile, Chile 2007, 23 P.

[16] Chemla, D., Meunier, F. and Wolfler-Calvo R., Balancing a bikesharing system with multiple vehicles. Proceedings of Congress annual de la société Française de recherche opérationelle et d’aidea la décision, ROADEF2011, Saint-Etienne, France. 2011.

[2]

Mora–Acero, J., Los sistemas de bicicleta pública vistos desde la relación servicio-producto, Colombia, Facultad de Ciencias Económicas, Universidad Nacional de Colombia, 2011, 54 P.

[17] Chemla, D., Meunier, F., and Wolfler-Calvo, R. ,Bike sharing systems: Solving the static rebalancing problem. Discrete Optimization, 10 (2), pp. 120-146, 2013.

[3]

DeMaio, P., Bike sharing: Its history, models of provision, and future, Proceedings of Velo City 2009 Conference, 2009.

[4]

Edu Sentis, Bicicletas públicas. [Online]. 2013. [fecha de consulta: December 20th of 2013]. Disponible en: http://edusentis.wordpress.com/category/bicicletas-publicas.

[18] Glover, F., Future paths for integer programming and links to artificial intelligence. Computers and Operations Research, 13 (5), pp. 533-549. 1986.

[5]

Contardo, C., Morency, C. and Rousseau, L.M., Balancing a dynamic public Bike-Sharing system. Bureaux de Montréal. Interuniversity research centre on Enterprise networks, Logistics and Transportation, 2012, 34 P.

[6]

Alonso, M.B., Los sistemas de bicicletas públicas urbanas. Tésis de Doctorado en Ingeniería, Departamento de Economía Aplicada, Universidad Autónoma de Barcelona, España, 2009, 76 P.

[7]

Anaya, E. y Castro, A., Balance general de la bicicleta pública en España. IDAE. Curbet Edicions, España, 2012, 30 P.

[8]

Toth, P. and Vigo, D., The vehicle routing problem. Philadelphia: SIAM, USA, 2001.

[9]

Dantzig, G.B. and Ramser, R.H., The truck dispatching problem. Management Science, 6 (1), pp. 80–91, 1959.

[10] Clarke, G.U. and Wright, J.W., Scheduling of vehicles from a central depot to a number of delivery points. Operations research, 12 (4), pp. 568–581, 1964. [11] Suárez, J.G., Análisis, diseño e implementación de un algoritmo e implementación de un algoritmo meta heurístico Grasp que permita resolver el problema de rutas de vehículos con capacidad, Tesis de grado, Facultad de Ciencias e Ingeniería, Pontificia Universidad Católica del Perú, Perú, 2009, 40 P. [12] Fumero, A.A., GMOR: Google maps para la optimización de rutas. Escuela de Ingeniería, Universidad de La Laguna, España, 2008.

[19] Cámara, J.G., Sistema de un diseño de recogida de residuos urbanos. Tesis de Doctorado en ingeniería, Universidad de Burgos, España, 2010. [20] Glover, F. and Laguna, M., Tabu search. Springer, New York, 2013. [21] Toth, P. and Vigo, D., The granular tabu search and its application to the vehicle-routing problem, INFORMS Journal on Computing, 15 (4), pp. 333–346, 2003. [22] Mosheiov, G., The travelling salesman problem with pick-up and delivery, European Journal of Operational Research, 79 (2), pp. 299–310, 1994. [23] Coy, S.P., Golden, B.L., Runger, G.C. and Wasil, E., Using experimental design to find effective parameter settings for heuristics. Journal of Heuristics, 7 (1), pp. 77–97, 2001. R. Linfati, es Dr. en Investigación de Operaciones de la Universidad de Bologna, Italia. Profesor en el Departamento de Ingeniería Industrial de la Universidad del Bío-Bío, Chile. Sus intereses de investigación incluyen el diseño e implementación de efectivos algoritmos exactos y heurísticos para problemas de optimización combinatoria. J.W. Escobar, es Dr. en Investigación de Operaciones de Universidad de Bologna, Italia. Docente de programas de Pregrado y Posgrado de la Pontificia Universidad Javeriana y de la Universidad del Valle, Cali Colombia. Sus intereses de investigación incluyen el diseño e implementación de efectivos algoritmos exactos y heurísticos para problemas de optimización combinatoria. B. Cuevas, es Ing. Industrial de la Universidad del Bío-Bío, Chile y Asistente de Investigación.

294


Coordination of inventory: A case study of city logistics Oscar Palacio-León a & Wilson Adarme-Jaimes b a

Facultad de Ingeniería, Universidad Militar Nueva Granada, Bogotá, Colombia, oscar.palacio@unimilitar.edu.co b Facultad de Ingeniería, Universidad Nacional de Colombia, Bogotá, Colombia, wadarmej@unal.edu.co Received: May 12th, 2014. Received in revised form: July 1th, 2014. Accepted: July 28th, 2014

Abstract The managerial organizations are betting to have best results by means utilization collaborative processes and coordinated with her strategic partners. Researchers that study logistics are concentrating the design of new methodologies, methods, techniques and tools that they allow managing adequately the policies for demand driven supply network. The objective of this paper is to propose a methodology that managed as a project the coordination of inventory for multiproduct with multiple companies for the optimization the costs joint logistics in an operating context of urban distribution of goods demand driven. The decisional vision of this methodology is based in the model of periodic review of economic order interval for multiple items extended to a system just in time that in general, consists of determining a common replenishment epoch for the efficient charging unit homogenizing its stock keeping unit in two containers base ten for the model of physical distribution between a supplier and multiple buyers. Finally, was tested in a company leader in the manufacture of parts for vehicles of Bogotá D.C achieving improve joint logistics costs of storage up to 0.85 points absolute in comparison with his own model of accounting cost the service of the storage, allowing him to estimate the unitary benefits of the service provided the inventory management in 1,7 USD/m2-month by warehouse position and the 2 USD/m2-month by container. Keywords: Logistics, supply chain, demand driven supply network, methodology, city logistics, coordination of inventory.

Coordinación de inventarios: Un caso de estudio para la logística de ciudad

Resumen

Las organizaciones empresariales están apostando a obtener mejores resultados vía procesos colaborativos y coordinados con sus socios estratégicos. Los investigadores en logística se están concentrando en el diseño de metodologías, métodos, técnicas y herramientas con el objeto de definir políticas adecuadas para la gestión de la red de suministro dirigida por la demanda. El objetivo del presente trabajo es proponer una metodología que gestione como un proyecto la coordinación de inventarios multiproducto inter empresa para la optimización de costos logísticos conjuntos bajo un contexto operativo de distribución urbana de mercancías dirigida por la demanda. La visión decisional de esta metodología está basada en el modelo de revisión periódica de intervalo económico de pedido para múltiples ítems extendido a un sistema justo a tiempo, que en general, consiste en determinar una época común de resurtido de la unidad de carga eficiente homogenizando su unidad básica de almacenamiento en dos contenedores base diez para el modelo de distribución física entre un proveedor y múltiples compradores en una ciudad. Finalmente, se probó en una empresa manufacturera líder del sector de las autopartes de la ciudad de Bogotá D.C lográndose mejorar los costos logísticos conjuntos de almacenamiento hasta 0.85 puntos absolutos frente a su modelo propio de costeo del servicio, permitiéndole estimar los beneficios unitarios de la prestación del bodegaje del inventario en 1.7 USD/m2-mes por posición de almacenamiento y de 2 USD/m2-mes por contenedor. Palabras clave: Logística, Cadena de Suministros, Red de suministros Dirigida por la Demanda, metodología, logística de ciudad, coordinación de inventarios.

1. Introducción El entorno empresarial tomó como bandera de la competitividad a la logística a mediados de la década de los noventa, por ser ésta función empresarial la responsable de proveer el producto correcto, la cantidad requerida, en las condiciones adecuadas, en el lugar preciso, en el tiempo

exigido, a un costo razonable y a entera satisfacción del cliente [1]. La logística es el medio que da vida a la planificación estratégica de la cadena de suministros [2], porque aporta los instrumentos necesarios para construir y sostener ventajas competitivas al integrar, sincronizar y coordinar por parte de los eslabones vendedor-comprador las “funciones fundamentales de la firma” [3], analizadas a

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 295-303. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Palacio-León & Adarme-Jaimes / DYNA 81 (186), pp. 295-303. August, 2014.

través de los flujos de información, materiales, de reversa y dinero tanto a nivel intra como inter empresa [1,3]. La logística de Colombia esta afronta en la actualidad la tarea de reducir los costos nominales de bodegaje en cerca del 250%, como consecuencias de la firma de Tratados de Libre Comercio (TLC) con países como Corea, USA, México entre otros, en procura de que los actores logísticos nacionales sean más competitivos con sus referentes a nivel mundial [3]. La interacción se hace más compleja cuando los eslabones vendedor-comprador incorporan en sus procesos cotidianos de negociación técnicas de cooperación [4] para administrar los inventarios en forma conjunta con una orientación de red de suministro dirigida por la demanda [5] (Demand Driven Supply Networks, DDSN) para productos no perecederos, con la meta de brindar un nivel de servicio adecuado al cliente a unos costos razonables [2,3]. Situación que obliga a los tomadores de decisiones a emplear metodologías de trabajo que mitiguen el nivel de complejidad al que se quiere planificar en conjunto para un sistema productivo en particular [5,6]. Los modelos metodológicos de coordinación de inventarios desarrollados al día de hoy se fundamentan en modelos matemáticos relajados de tipo mono producto inter empresa desarrollados para administrar patrones de demanda determinísticos o probabilísticos con media constante en el tiempo[3,9], que contemplan protocolos de consenso entre los eslabones vendedor-comprador [5] sin restricciones en: i) Capacidad de bodegaje [6,7]; ii) Capital inmovilizado por concepto de inventarios [8]; iii) Mitigación del efecto látigo [1]; iv) La unidad básica de almacenamiento (Stock Keeping Unit, SKU) [3,7]; v) Inversiones para la adecuación conjunta del proyecto inmobiliario de tipo industrial [6,7]; y vi) El precio del servicio de bodegaje [3,7]. La relajación consiste en quitarle complejidad matemática al modelo con la argumentación de que el mismo es escalable con facilidad a un escenario de negociación multiproducto [9]. El objetivo del presente trabajo es proponer una metodología de coordinación de inventarios para múltiples ítems inter empresa que optimice los costos logísticos conjuntos bajo un contexto de integración empresarial de distribución urbana de mercancías [10]. La visión decisional de esta metodología propone una variante al modelo de Intervalo Económico de Pedido para Múltiples Ítems [8] que permite administrar la capacidad de bodegaje del Centro de Distribución (CEDIS) con el modelo de las dos cajas [11] contemplando las siguientes limitaciones: i) Unidad de carga eficiente (UCE) homogénea [3,12]; ii) SKU de base diez [1]; iii) Capacidad de bodegaje [6,7]; iv) Capital inmovilizado referido al inventario conjunto [3,8]; y v) El modelo de coordinación de inventarios está constituido por un proveedor y múltiples compradores [9]. Siendo una metodología un conjunto de acciones que se elaboran a partir de un constructo epistemológico emanado por uno o varios modelos, los cuales a su vez requieren de procedimientos, técnicas, herramientas y soporte documental que indican el derrotero a seguir para el desarrollo de soluciones a problemas específicos, la cual deberá poseer características y criterios de cientificidad

[3,13]. El diseño de la metodología propuesta en el presente trabajo está inmersa en los protocolos del estudio de caso [14] universalmente aceptados, que basa su visión decisional en los principios rectores de la escuela de Taniguchi [15], que sugieren un procedimiento sistemático para diagnosticar y proponer soluciones inteligentes a las problemáticas que coexisten en la logística de ciudad [16] y la cual consta de los siguientes pilares fundamentales: • Parte de, analizar el problema con respecto al proceso de coordinación [9] de la unidad de carga eficiente (UCE) [3,12] requerida por los eslabones proveedorcomprador aguas abajo de la DDSN local [4,17]. • En segundo lugar, determinar un método de análisis, que permita establecer la estrategia, política y modelado matemático para la coordinación de la UCE [3,9], con el propósito de realizar lo planificado en el paso anterior. • Luego, generar la base de datos, fundamental para cubicar [8,11] y caracterizar la UCE [12] que permite coordinar los eslabones cliente-proveedor [4], en función de los costos conjuntos de Transporte [10,18], Gestión de Inventarios [8] y Procesamiento de Pedidos [7]. • Fijar las alternativas que puedan contribuir a solucionar el problema de coordinación planteado, en términos de la gestión de riesgos de la oferta y los flujos de efectivo en la DDSN local [19-21]. Luego, se recurre al planteamiento de modelos que combine la investigación de operaciones, estadística y administración de proyectos [1,3,22] que ayuden con la estimación de la UCE para cada alternativa. Los resultados obtenidos a partir del modelado son posteriormente sometidos a una evaluación, en la que se contrastan con los objetivos que fueron postulados [3,20], y en la que se involucran no sólo los aspectos cuantitativos, sino también cualitativos. El resultado de esta evaluación, robustecido a través de análisis de sensibilidad, permitirá al tomador de decisiones negociar la mejor alternativa que posea el menor costo logístico global conjunto [19,21]. Seguidamente, se procedería a la implementación de la alternativa negociada al interior de los eslabones clienteproveedor [3,4], con el compromiso de efectuar una revisión periódica a los resultados obtenidos como conjunto a partir de esa negociación, con el objeto de tomar acciones correctivas y preventivas frente al proceso como tal, en caso de que estos no fueran los deseados por los eslabones cliente-proveedor. Estos dos últimos pasos, implantación y revisión de resultados, quedarán fuera del ámbito de este trabajo, que sólo busca recomendar soluciones técnica y financieramente viables. El estudio de caso como herramienta de investigación de DDSN está vinculada con su estado actual: i) Manejo centralizado del inventario [22]; ii) Optimización colaborativa [23]; iii) Reducción del inventario y logística colaborativa [24]; y iv) Fabricación colaborativa [25], que dé respuesta a una pregunta del tipo por qué o cómo tratan el concepto de causalidad etnográfica donde se privilegian las limitaciones de tiempo y espacio presente en los estudios en logística de ciudad referente a la movilidad de pasajeros y carga de una forma eficiente, en el que la gestión de Inventarios de resurtido en Puntos de Venta y/o consumo [10,15,16,18] se aborda desde la casuística que en forma

296


Palacio-León & Adarme-Jaimes / DYNA 81 (186), pp. 295-303. August, 2014.

agregada tiene enorme impacto en los procesos de negociación para los eslabones proveedor-comprador [4], y permite la construcción del modelo de gestión del conocimiento vía diseño de metodologías de trabajo colaborativo [13,19,21]. Esta situación motivo el desarrollo de este trabajo buscando mejorar la visión decisional de las actuales metodologías [9] implementado la integración de modelos matemáticos preexistentes en el medio de empresarial relacionados con los sistemas justo a tiempo [8,11,26] y gestionando el proceso de coordinación entre los eslabones proveedor-comprador como un proyecto con exposición del flujo de caja al riego [20]. El documento se organiza como sigue. En la Sección 2, Materiales y Métodos, se presentará: i) Estado actual de la logística de ciudad; ii) Modelo metodológico propuesto; iii) Caso de aplicación de la metodología propuesta; y iv) Formulación del modelo de coordinación EOIESJIT. En la Sección 3, Resultados y discusión, se analizarán y discutirán los principales resultados, los cuales arrojan que: i) Que actor tiene el poder de Red de Suministros; ii) Época común del resurtido del inventario medido en semanas; iii) Cubicaje del CEDIS por administrador de cuenta clave filial; iv) Costo total de la administración del inventario conjunto; vi) El precio del servicio de bodegaje por posición y contenedor; y vii) Cuantificación de indicadores de bodegaje. En la Sección 4, Conclusión, se exponen los beneficios que brinda la propuesta metodológica y se hace algunas conclusiones relevantes en torno a la revisión bibliográfica. Finalmente, en la Sección 5, Investigaciones futuras, se hace un acercamiento de las líneas de investigación que pueden abordarse, a partir del presente estudio. 2. Materiales y métodos 2.1. Estado actual de la logística de ciudad DDSN de ciudad se compone de un modelo de negocio equilibrado apoyado en una arquitectura empresarial coherente con la planeación estratégica conjunta que implementen los agentes pertenecientes a una misma Red de Suministros (RdS), con el objeto de detectar y reaccionar ante las señales de la demanda en tiempo real que permita cumplir con las expectativas del mercado meta en cuanto a nivel de servicio [3,5]. La RdS de ciudad se caracteriza por el desarrollo de los siguientes procesos operativos: i) Administración de la demanda; ii) Cumplimiento del servicio; y iii) Gestión de pagos [5]. Accionada por los clientes finales, la demanda se articula a través de la colocación de los pedidos que se propagan por el canal de ventas directo y/o por intermediación [5,20]. El cumplimiento en las entregas de las órdenes de pedido obedecen al balance de la UCE coordinada entre los procesos físicos de manufactura, almacenamiento y transporte aguas arriba de la RdS [5,17]. La gestión de pagos culmina con las transacciones que transfieren los fondos hacia los proveedores de los bienes y servicios [5,19]. La logística de ciudad es aún un concepto en construcción, que se puede definir como la ciencia que se encarga de estudiar cómo el recurso humano, las

mercaderías y el flujo de información superan el tiempo y la distancia de forma eficiente, global y sostenible como una unidad de negocio cuyos servicios y operaciones están inmersos en un entorno urbano que son susceptibles de planificar y optimizar [15,16]. Este concepto abarca un conjunto de operaciones logísticas urbanas que necesita mitigar una sociedad moderna en términos de gestión eficiente de los deseos de movilidad al interior de la ciudad, entre las que se destacan: i) Distribución física urbanametropolitana de mercancías; ii) Gestión de residuos industriales; iii) Gestión de basura doméstica; iv) Ruteo para rutinas de servicios de policía y seguridad; v) Ruteo para rutinas de transporte de cargas peligrosas; vi) Asignación de sitios para atención de emergencias; vii) Ruteo troncal y ruteo de entrega a destinatario final para servicios postales; viii) Logística de producción de servicios de infraestructura urbana; ix) Logística de gestión de la infraestructura; y x) Señalización inteligente [16,18]. Después de haber percibido el panorama de las operaciones logísticas urbanas, se hace conveniente centrarse en la distribución física urbana-metropolitana de productos no perecederos, que incluye todos los procesos de las DDSN local, a saber: i) Transporte; ii) Gestión de Inventarios; iii) Procesamiento de Pedidos; iv) Servicio al Cliente; v) Resurtido en Puntos de Venta y/ o Consumo; y vi) Los procesos de Entrega Capilar, entre otros [2,16,19]. Y en particular la gestión de inventario conjunto en los eslabones cliente-proveedor, por representar en promedio poco más del 30% de los costos logísticos [16] y estar latente siempre la obsesión de reducirlos por parte de los interesados (Stakeholders) [27]. Las estrategias utilizadas en la actualidad por los interesados para la reducción del inventario conjunto son: i) Limitación logística a la expansión en SKU del mix ofrecidos en la UCE mediante una gestión del ciclo de vida del producto; ii) Reducción del número de CEDIS mediante la centralización de la distribución física gestionado por cuentas clave desde la perspectiva del cliente; iii) Evaluación y seguimiento de la tipología de los ítems que integran el mix de la UCE con base en el nivel de rotación que gestione la cuenta clave en su mercado; iv) Jerarquización del inventario con base en el nivel de rotación del flujo de dinero de los ítems del mix que conforman la UCE; v) Definir la estrategia y política de coordinación de inventarios para el CEDIS central; y vi) Zonificar el área de bodegaje del CEDIS que garantice un nivel de servicio homogéneo de atención a las cuentas clave [11,12,16,19,21]. La UCE está constituida por una agrupación de productos que sirve para facilitar el transporte, almacenaje y manipulación de las unidades de consumo, normalmente esta agrupación se conoce en el medio de la logística como SKU [3]. Asimismo, la UCE es considerada como un mecanismo de coordinación en el modelado conjunto del inventario con el ruteo (Inventory Routing Problem, IRP) de ciudad [10,12,17], cuando su cubicaje optimiza el transporte, manipulación y bodegaje al interior de una misma DDSN, situación que se da a través del proceso de negociación consensuado entre los eslabones clienteproveedor [3,5,12].

297


Palacio-León & Adarme-Jaimes / DYNA 81 (186), pp. 295-303. August, 2014.

Son diversos los protocolos de consenso utilizados por los agentes miembros de una misma DDSN para lograr procesos eficientes de coordinación entre ProveedorComprador, en donde la UCE es el elemento decisor [3,12], siendo los esquemas básicos más empleados los citados a continuación: i) Los modelos de carácter económico. Tienden a motivar de manera más “fácil” la adopción permanente de estrategias de negociación entre los agentes logísticos; y ii) Los relacionados con los acuerdos de colaboración empresarial. Facilitan la gestión y control de los inventarios de los SKU que hacen parte de la UCE [3,9]. Estos acuerdos de colaboración empresarial se consolidad a través de la implantación de mecanismos de coordinación, tales como: i) Alineación de metas comunes; ii) Incentivos de coordinación; iii) Mejoras en la exactitud de la información; iv) Diseño de un sólo control de suministro; v) Mejora del desempeño operativo; vi) Compartir más información; vii) Descuento basado en el volumen; y viii) Uso de sistemas multimodales de transporte, entre otros al permitir la adopción de estrategias, políticas y un modelado especifico de coordinación de la UCE en términos SKU por parte de dos o más actores logísticos consecutivos [9]. Los protocolos de consenso relacionados con la coordinación de la UCE pueden combinar las siguientes estrategias de gestión de inventarios: i) Desarrollo Conjunto de Ordenes; ii) Justo a Tiempo; iii) Respuesta Rápida; iv) Reaprovisionamiento Eficiente; v) Reaprovisionamiento Continuo; vi) Planeación, Pronostico y Reabastecimiento Colaborativo; vii) Inventario Administrado por el Proveedor; viii) Gestión de la Disponibilidad por el Proveedor; y ix) Épocas Comunes de Resurtido [9], con las subsiguientes políticas: i) Gestionada por el Proveedor; ii) Administrada por el Comprador; y iii) Conjunta de coordinación Proveedor-Comprador [9,17], le dan soporte a los siguientes modelados matemáticos: i) Coordinación entre un proveedor y un cliente; ii) Coordinación entre un proveedor y múltiples clientes; iii) Coordinación entre múltiples proveedores y un cliente; y iv) Coordinación entre más de dos eslabones de la DDSN [9,19,21], que están contenidos en el modelo metodológico propuesto, y al cual se le describió el procedimiento sistémico de optimización en la introducción de este trabajo. 2.2. Modelo metodológico propuesto Los procesos por los que pasa la presente propuesta metodológica de Coordinación de la UCE para DDSN están permeadas por los principios rectores del diseño, la ejecución y la evaluación de proyectos [3], lo que hace de esta metodología una herramienta de trabajo que facilita al planificador del sistema logístico el estudio, análisis, comprensión, adaptación, seguimiento, control y mejora de la UCE en términos de medidas de desempeño y efectividad, tales como [2,3,19]: i) Costo de Bodegaje y de Distribución; ii) Tiempos de Respuesta; iii) Suministro a Tiempo; y iv) Servicio al Cliente, entre otras, sin quitarle creatividad. Este proceso metodológico de integración empresarial se compone de las siguientes vistas: físico, decisional, de información y el funcional. En donde los tres primeros

constituyen el conjunto de conceptos y reglas que facilitan la construcción de futuros protocolos de consenso en coordinación de la UCE, mientras que la última documenta las principales funciones del sistema de almacenamientodistribución y los flujos, de cualquier tipo, entre los eslabones proveedor-comprador [2,21]. Esta propuesta metodológica, está inmersa en los lineamientos rectores de la Metodología General Ajustada con orientación hacia el cliente, permite dimensionar la UCE para productos no perecederos en un contexto de Coordinación de eslabones Proveedor-Comprador para DDSN de ciudad, la cual está conformada por los procesos que a continuación se describen: • Integración de los interesados en el proceso de Coordinación de la UCE. Este proceso requiere de la ejecución de las siguientes actividades: i) Identificar los involucrados con el proceso de planificación colaborativa de operaciones; ii) Clasificar los involucrados con relación al proceso de negocio; iii) Posicionar y caracterizar a los interesados en la integración empresarial; iv) Identificación, análisis y selección con los interesados en el proceso de integración empresarial; v) Acordar los canales de comunicación con los interesados en el proceso de negocio; y vi) Establecer el cronograma de reuniones de trabajo con los interesados en la integración empresarial [3,27]. • Análisis del problema de Coordinación de la UCE. Esta fase metodológica contempla el desarrollo de las actividades siguientes: i) Definir el perfil central a estudiar; ii) Establecer las causas más relevantes para el perfil meta; iii) Identificar los efectos que dan origen al perfil meta; y iv) Diseñar el mapa de perfil meta [3,14]. • Análisis a las metas perseguidas por la Coordinación de la UCE. Este paso del modelo metodológico demanda el estricto cumplimiento de las actividades que a continuación se citan: i) Elaborar el mapa de propósitos; ii) Asegurar la confiabilidad del mapa de propósitos; y iii) Examinar las relaciones causales que presenta el mapa de propósitos [3,14]. • Viabilidad Comercial del proceso de Coordinación de la UCE. Esta etapa metodológica deberá desarrollar las actividades descritas en seguida: i) Estudio de la demanda meta mitigando el efecto látigo; ii) Definir la estructura de costos para la integración empresarial; iii) Desarrollar la visión del modelo físico, el de información y el funcional para la integración empresarial; y iv) Estudio de la oferta del servicio en términos de bodegaje, medios de transporte y elementos de manipulación de las unidades de consumo [1,3,20]. • Viabilidad Técnica del proceso de Coordinación de la UCE. Este proceso metodológico contempla las actividades que a continuación se citan: i) Jerarquización del inventario con base en el nivel de rotación del flujo de dinero de los ítems del mix que conformen la UCE [8]; ii) Establecer el nivel de servicio homogéneo suministrado por la integración empresarial [11]; iii) Estandarizar el nivel de bodegaje

298


Palacio-LeĂłn & Adarme-Jaimes / DYNA 81 (186), pp. 295-303. August, 2014.

prestado por la integraciĂłn empresarial [3]; iv) Acondicionamiento del sistema inmotico de las terminales de almacenamiento [6]; v) ImplantaciĂłn de la arquitectura empresarial que mejor se amolde a los requerimientos de la integraciĂłn empresarial [3]; vi) Dimensionar el SKU requerido por Ă­tem siguiendo la Regla del 85% [3]; vii) Establecer la estrategia y la polĂ­tica de coordinaciĂłn a implementar en la integraciĂłn empresarial [9]; viii) Elegir el modelo matemĂĄtico de coordinaciĂłn de inventarios que viabiliza la integraciĂłn empresarial [9,19]; y ix) Simular el tamaĂąo de la UCE a negociar en la integraciĂłn empresarial [3]. • Viabilidad EconĂłmica del proceso de CoordinaciĂłn de la UCE. Para ello se deberĂĄ desarrollar las actividades que a continuaciĂłn se describen: i) Cuantificar el plan de inversiones de la integraciĂłn empresarial; ii) Evaluar las fuentes de financiaciĂłn que se amolden al proyecto de integraciĂłn empresarial; iii) PreselecciĂłn de alternativas de soluciĂłn; iv) FormulaciĂłn del flujo de caja descontado para cada una de las alternativas de soluciĂłn; y v) EvaluaciĂłn de las alternativas de soluciĂłn en tĂŠrminos de Ă­ndices de: Rentabilidad y riesgo [3,20]. Entre las alternativas que sean factibles y atendiendo los protocolos universalmente aceptados de evaluaciĂłn de alternativas de inversiĂłn se escogerĂĄ aquella como Ăłptima en tĂŠrminos de pertinencia, efectividad, eficiencia y eficacia para los interesados en el proyecto de integraciĂłn empresarial [3,20]. 2.3. Caso de aplicaciĂłn de la metodologĂ­a propuesta Se tomĂł como referente de aplicaciĂłn del modelo metodolĂłgico propuesto, una compaùía lĂ­der del sector de autopartes de la ciudad de BogotĂĄ D.C. Sistema productivo que posee las caracterĂ­sticas que a continuaciĂłn se citan con respecto a logĂ­stica de almacenamiento y distribuciĂłn fĂ­sica de ciudad: i) Posee una nave de almacenamiento a dos aguas con altura comercial de diez metros; ii) DiseĂąo espacial del ĂĄrea de bodegaje denominado entre plantas equipada con tecnologĂ­a de manutenciĂłn por rack para picking con alto volumen de movimiento; iii) Aforo de 6.080 contenedores Inbox con capacidad neta de almacenamiento de treinta litros cada uno; iv) La RdS aguas abajo estĂĄ constituido por un CEDIS central que surte a cinco Administradores de Cuentas Clave Filiales (ACCF); v) SKU homogĂŠneo administrado bajo la polĂ­tica de almacenamiento dedicada; vi) El poder de negociaciĂłn estĂĄ concentrado en los ACCF; vii) Los costos de bodegaje y distribuciĂłn fĂ­sica son administrados por CEDIS; viii) El lead time de proveedurĂ­a sigue un esquema justo a tiempo mientras que el lead time de distribuciĂłn fĂ­sica se ajusta a tiempos de ciclo de resurtido comunes; ix) El modelo de planificaciĂłn de las ventas sigue un modelo ingenuo propio; y x) El sistema de producciĂłn utiliza estrategias focalizadas en el proceso. Una vez desarrollado los tres primeros procesos del modelo metodolĂłgico propuesto, se procede a formular el modelo para la coordinaciĂłn de inventarios EOIESJIT, partiendo de los siguientes supuestos: i) El SKU es homogĂŠneo entre CEDIS y los cinco ACCF; ii) La demanda

agregada es estocĂĄstica y comĂşn para DDSN; iii) Tiempos de ciclo de resurtido comunes para los ACCF; iv) Tiempos de ciclo de surtido justo a tiempo para el CEDIS; v) El CEDIS supervisara el patrĂłn semanal de consumo en tĂŠrminos de SKU a los ACCF; vi) La visiĂłn de la informaciĂłn la soporta los sistemas Entornos Virtuales de Trabajo Colaborativo SincrĂłnicos; y vii) El CEDIS asume la visiĂłn decisional de la UCE suministrada a los ACCF [3]. EOIESJIT contempla el siguiente protocolo de consenso: i) Consolidar los consumos anuales en tĂŠrminos monetarios constantes [3]; ii) Proyectar los consumos con el modelo Promedio MĂłvil con Porcentaje Anual [26]; iii) Ajustar la proyecciĂłn con un Indicador MacroeconĂłmico [1]; iv) Actualizar los costos logĂ­sticos por ciclo contable [3]; v) Presupuestar los costos fijos de resurtir una orden de pedido por parte del CEDIS [8]; vi) Presupuestar los costos variables de resurtir una orden de pedido por cada ACCF [8]; vii) Verificar los tiempos de respuesta pactados en semanas con cada ACCF [1]; viii) Evaluar el nivel de servicio con la regla del 85% [3]; ix) Determinar el intervalo econĂłmico de pedido conjunto [8]; x) Calcular el SKU en base diez para cada ACCF [1,3]; xi) Cubicar el ĂĄrea de almacenamiento del CEDIS con el Modelo de los dos Contenedores [11]; xii) JerarquizaciĂłn del inventario con base en el nivel de rotaciĂłn del flujo de dinero de los Ă­tems del mix que conformen la UCE [1,3]; xiii) Simular la UCE que genere el mĂ­nimo incremento de costo total conjunto de administraciĂłn del inventario anual [3]; xiv) Compartir la informaciĂłn con cada ACCF [27]; y xv) Retroalimentar el sistema con la informaciĂłn validada en el proceso de negociaciĂłn con los ACCF [27]. 2.4. FormulaciĂłn del modelo de coordinaciĂłn EOIESJIT La ecuaciĂłn fundamental del modelo EOIESJIT estĂĄ conformada por los siguientes costos anualizados: AdquisiciĂłn del SKU + Pedido Conjunto + ConservaciĂłn del SKU de consumo + SKU de Seguridad [3]: MinTC(T) = đ??śđ??ś+đ?‘›đ?‘›đ?‘›đ?‘› ∑đ?‘›đ?‘›đ?‘–đ?‘–=1 đ?‘ƒđ?‘ƒđ?‘–đ?‘– đ?‘…đ?‘…đ?‘–đ?‘– + + đ?‘‡đ?‘‡

���� 2

∑đ?‘›đ?‘›đ?‘–đ?‘–=1 đ?‘ƒđ?‘ƒđ?‘–đ?‘– đ?‘…đ?‘…đ?‘–đ?‘– + đ??žđ??žđ?‘–đ?‘– ∑đ?‘›đ?‘›đ?‘–đ?‘–=1 đ??źđ??źđ??źđ??źđ?‘–đ?‘–

(1)

En donde: Ri = Requerimientos anuales de contenedores por Ă­tem i; Pi = Capital inmovilizado por contenedor y por Ă­tem i; n = NĂşmero total de Ă­tems por orden conjunta; C = Costo conjunto de ordenar; c = Costo de ordenar por Ă­tem; T = Intervalo de tiempo entre pedidos en tĂŠrminos anuales; F = Tasa de transferencia por aĂąo; IS = Inventario de seguridad del Ă­tem i; y Ki = Precio de venta del servicio de almacenamiento por posiciĂłn y por Ă­tem i. Realizando las correspondientes derivadas y operaciones matemĂĄticas, se obtiene el siguiente modelado matemĂĄtico para EOIESJIT:

299

2(C+nc)

T ∗ = ďż˝ ∑n F

i=1 Pi Ri

Sij =

Ri (T∗ +Lj) 52

(2) (3)


Palacio-León & Adarme-Jaimes / DYNA 81 (186), pp. 295-303. August, 2014.

(4)

ISi = z(SR )ij

(5)

(I ∗ )Maximo = Sij + ISi

TC(T ∗ ) = ( 1 + FT ∗ ) ∑ni=1 Pi R i + K i ∑ni=1 ISi (6) En donde: T* = Intervalo de Tiempo Óptimo entre Pedidos para múltiples ítems; Sij = SKU de consumo por ítem i y por ACCF j; Lj = Lead time negociado con cada ACCF j; La suma de (T* + L) debe ser un entero y estar dado en semanas; ISi = SKU de seguridad por ítem i; z = Variante tipificada de la distribución normal asociada al nivel de servicio deseado por el ACCF j en función de la desviación estándar de los requerimientos anuales de contenedores; (SR)ij = Representa la desviación estándar de los requerimientos anuales de contenedores por ítem i y por ACCF j; y TC(T*) = Costo total conjunto de administración de la UCE. Para finalizar, el proceso de negociación de la UCE entre los interesados, se desarrolla mediante el empleo de la regla de negociación denominada Sensibilidad de la Cantidad de Pedido (SCP), cuyo modelo matemático exacto es: CTCONJUNTO CS

CTAGENTE LIDER

=

1 IAL max

2 IAN max

+

IAN max IAL max

1 IAL

CTCONJUNTO CS = min � � max AN + 2 Imax

(7) IAN max IAL max

�� ∗ CTAGENTE LIDER

(8)

AL En donde: Imax = Cantidad de contenedores requeridos AN por ítem del agente líder miembro de la CS analizada; Imax = Cantidad de contenedores requeridos por ítem del agente 1 IAL IAN negociador miembro de la CS analizada; y � max + max �= 2 IAN IAL max max Factor de ajuste al costo de administración de inventarios conjunto a negociar.

3. Resultados y discusión Los datos de entrada del Modelo EOIESJIT para el proceso de negociación entre el CEDIS y los cinco ACCF para el periodo 2014, fueron suministrados por la firma con un nivel de confianza del 95% y un margen de error del 5%, así: i) Ventas históricas conjuntas para los eslabones CEDIS-ACCF del periodo comprendido entre 2009 a 2013 en términos monetarios con año base de referencia 2013; ii) Factor de ajuste al pronóstico de 1.0235; iii) Factor de ajuste financiero del 1.08; iv) Capital inmovilizado por contenedor 50 USD; v) Costo conjunto de ordenar 18 USD; vi) Tasa de comisión nacional 6%; vii) Tasa de comisión regional 3%; viii) Tasa de transferencia por año 48%; y ix) Nivel de servicio ofrecido 95%. En las tablas I a IV que se presentan a continuación se desarrolla el modelo de coordinación EOIESJIT para la firma líder en autopartes de Bogotá D.C. El intervalo de confianza para la demanda estimada oscila entre 1.062.590 USD – 1.247.390 USD, el cual representa el 85% del cumplimiento del presupuesto de ventas para el año 2014 por parte del sistema CEDIS-ACCF. Luego, se reemplaza la información suministrada y obtenida hasta este del modelado en la ecuación 2, para obtener el Intervalo de Tiempo Óptimo entre Pedidos para Múltiples Ítems que

Tabla 1. Demanda agregada proyectada común para los eslabones CEDIS-ACCF Ingresos Razón de Porcentaje de Cambio Año Operacionales Cambio (%) (USD/Año) (USD/Año) 2009 1.328.316 2010 1.250.695 (77.621) (5,84) 2011 1.244.744 (5.951) (0,48) 2012 1.129.641 (115.103) (9,25) 2013 1.164.742 35.101 3,11 Tasa promedio de crecimiento (3,12) Ventas Históricas Base (año 2013) 1.164.742 Ventas Proyectadas (año 2014) Índice de Ajuste al Pronostico Demanda Proyectada para 2014 (USD) Fuente: Elaboración propia

1.128.460 1,0235 1.154.978

Tabla 2. Estrategia de Coordinación de Época Común de Resurtido para los ACCF SKU de Demanda Promedio Lead Time Consumo ACCF (contenedores (semanas) (contenedores INBOX/año) INBOX) Local 1 5.549 220 Regional Centro 1 1.163 50 Nacional Zona 1 2 5.771 340 Nacional Zona 2 2 6.237 360 Institucional 1 4.382 170 Fuente: Elaboración propia

Tabla 3. Estrategia de Coordinación Justo a Tiempo para el sector autopartista para los ACCF Bahía de Bahía de Inventario Bodegaje 1 Bodegaje 2 Máximo ACCF (Contenedores (Contenedores (contenedores INBOX) INBOX) INBOX) Local 950 220 950 Regional Centro 200 50 200 Nacional Zona 1 1.100 340 1.100 Nacional Zona 2 1.190 360 1.190 Institucional 750 170 750 Fuente: Elaboración propia

para el caso en estudio es de una Semana (T* = 1). A continuación, se procede a cuantificar el tamaño del SKU de Consumo requerido por cada ACCF para ejercer su actividad económica de forma semanal haciendo uso de la ecuación 3, cuyos resultados se presentan en la tabla II. En la tabla III se presenta la cantidad de posiciones de almacenamiento que los ACCF demandan al CEDIS para que desarrollen su actividad logística con un nivel de servicio del 95%, en donde el Inventario Máximo se cuantifica con la ecuación 5. De la tabla III se logra establecer que los ACCF demandan un total de 4.190 Contenedores INBOX para realizar su actividad económica en forma semanal, la cual se constituye en la UCE a negociar con la administración del CEDIS. En el mismo sentido, la administración del CEDIS Tabla 4. Proceso de simulación de la UCE para los eslabones CEDIS-ACCF

300


Palacio-León & Adarme-Jaimes / DYNA 81 (186), pp. 295-303. August, 2014.

Interesados

UCE Requeridas (INBOX)

Gerencia 2.100 Logistica ACCF 4.190 Gerencia del 3.160 CEDIS Fuente: Elaboración propia

UCE Base (INBOX)

Costo de la Coordinacion

4.190

1,2482

4.190

1,0000

4.190

1,0400

limita el uso del aforo que constituye su bodegaje para la operación de distribución física a 3.160 Contenedores INBOX. El gerente logístico de la compañía Jerarquizo el SKU con base en el nivel de rotación del flujo de dinero de los ítems del mix que conforman la UCE, llegando a la conclusión que con 2.090 Contenedores INBOX los ACCF pueden desarrollen su operación de distribución física. En la tabla IV se presenta el proceso de simulación orientado por los deseos de los stakeholders en torno al proceso de negociación de la infraestructura requerida por la operación aguas abajo de la DDSN en términos de la UCE. La conclusión a que se llega con el modelo de simulación, es trabajar el canal de ventas con una UCE conformada por 3.160 Contenedores INBOX que inmovilizan un capital máximo de 158.000 USD con unos costos anuales de administración del inventario conjunto de 9.442 USD que contempla un sobrecosto del 4% anual, lo que implica que el poder de DDSN aguas abajo lo tiene la Gerencia del CEDIS. Esta coordinación de inventarios genera los siguientes indicadores financieros: i) El precio de venta del servicio de bodegaje es de 11,44 USD/Posición de Almacenamiento; ii) El precio de venta del servicio de almacenamiento es de 13,52 USD/Contendor INBOX; iii) Esta negociación tiene un riesgo financiero asociado de aproximadamente un 15% anual; iv) El índice calculado a partir de los flujos de caja proyectados a partir de la coordinación de inventarios arrojo un valor aproximado de 2,17, lo que traduce que se puede recuperar los capitales inmovilizados a la tasa mínima de rendimiento deseada por la junta directiva de la firma; y v) Los precios de venta del servicio de almacenamiento que permiten el equilibrio económico para el sistema coordinado es de 10,05 y 11,83 USD/Contenedor INBOX por posición y contenedor respectivamente. En lo que respecta a los indicadores técnicos, se lograron los siguientes resultados: i) La operación de bodegaje administrara un inventario promedio de 1.608 Contenedores INBOX/Año; ii) Los cinco ACCF van a generar sesenta pedidos al año; iii) Centralizar el bodegaje de los tres ACCF locales en el CEDIS le ahorra al canal de ventas un 39,6% en costos de almacenamiento; y iv) La implementación del sistema inmotico por había de almacenamiento representa los 4,23 USD/m2-mes. 4. Conclusiones La integración empresarial es una estrategia que permite mejorar el desempeño de los actores que integran la red de suministros de tipo capilar, los cuales mediante el empleo de metodologías de coordinación de inventarios como la propuesta logran obtener sinergias que conllevan a

racionalizar los costos logísticos de almacenamiento y distribución urbana de mercancías, mejorar los niveles de satisfacción del servicio mediante la incorporación del inventario de seguridad en los tres estadios de planificación (Estratégico, táctico y operacional) y hacer frente a los retos que en materia de competitividad requieren atender haciendo uso de la administración por proyectos para ser exitosos en el entorno actual, componentes que posee la metodología propuesta. Aunque son evidentes los beneficios que la integración empresarial trae para los eslabones proveedor-comprador, es común encontrar en la literatura científica y especializada que los esfuerzos por desarrollar protocolos de trabajo consensuados no siempre generan los resultados deseados. Esto se debe a que no se involucra durante todo el proceso de diseño a los interesados para que aporten evidencia que mitiguen los obstáculos que pueden frenar dichas iniciativas, a modo de ejemplo la falta de capacidad de bodegaje eficiente, por deficiencias tecnológicas, problemas de conectividad, deficiencia de la seguridad industrial y confort que afecte la productividad de los colaboradores asignados al CEDIS, falta de visión física, funcional y decisional por parte del tomador de decisiones que le impidan ver los beneficios de forma global sino particular. La metodología propuesta contempla esta situación con un nivel de confianza del 85% con relación a la planificación estratégica. La coordinación de inventarios es una alternativa atractiva para los eslabones proveedor-comprador que busquen efectividad en cuanto a costos y mejorar el nivel de servicio ofrecido a sus clientes. Esta metodología cubre estos aspectos y los relacionados con los procesos de optimización del cubicaje del CEDIS, los índices de negociación de la prestación del servicio de bodegaje en términos de posición y contenedor. Algunas de las conclusiones relevantes que se pueden establecer en torno a la revisión bibliográfica reportada en el apartado 2, se enuncian a continuación: Desde el punto de la visión decisional no existen soluciones universales y refinadas al problema de coordinación de inventarios de actores intra ciudad y las mejoras han de estudiarse en detalle según país, ciudad, área metropolitana, sector económico, mix de productos, tecnología disponible y necesidades. Deben adoptarse metodologías de trabajo según la tipología de ciudad en la que se pretenda diseñar una distribución física urbanametropolitana de mercancías, que garantice confiabilidad y validez. La Logística de Ciudad dispone de margen para la optimización y mitigación de algunas ineficiencias que afectan a la gestión de inventarios y procesamiento de pedidos por condiciones de normatividad local frente al uso del espacio público para la actividad empresarial (contemplado como bien escaso para la DDSN en las ciudades que superan los diez millones de habitantes en sus áreas metropolitanas). La UCE como unidad de negociación en los procesos de coordinación de inventario entre los eslabones proveedorcomprador deberá ser configurada en un ambiente tecnológicamente asistido por computador, para dotarla con las especificaciones que demande en términos de

301


Palacio-León & Adarme-Jaimes / DYNA 81 (186), pp. 295-303. August, 2014.

modularidad, garantizando de esta forma ahorros en costos logísticos a nivel de: i) Bodegaje; ii) Transporte; iii) Embalajes, entre otros. Ahorros que son cercanos al 85% en el largo plazo, debido a que: i) Racionaliza en forma adecuada el uso del cubo de almacenamiento; ii) Permite una adecuada selección del medio de transporte de carga de corta y larga distancia; iii) Permite el uso de transporte multimodal de carga; iv) Mitiga los excesos de energía en los procesos de bodegaje y transporte; y iv) A nivel de la distribución capilar de carga permite rutear adecuadamente los medios de transporte de las áreas metropolitanas de la ciudad. Existe un campo apropiado, que demanda de planeadores de ciudad, investigadores en logística mayor atención dado sus implicaciones que tienen sobre aspectos relevantes y condicionantes de la calidad de vida de los habitantes, situaciones de movilidad, accidentalidad, consumos energéticos, contaminaciones auditivas y visuales que están a la expectativas de ser atendidas. 5. Investigaciones futuras Acerca de las líneas de investigación que pueden abordarse, se han identificado las siguientes ideas: Extender los modelos de coordinación de inventarios existentes, considerando explícitamente a la unidad de carga eficiente como una variable de decisión para rentabilizar a todos los miembros que integran una misma red de suministros. Al respecto, se plantea el desarrollo de un modelo que determine el SKU que conforma la unidad de carga eficiente homogénea configurada por diversos productos para distintos modos de transporte ecológicos de carga urbana, considerando los términos internacionales de comercio como modelo de costeo. Asimismo, se plantea que los modelos de coordinación de inventarios de carácter económico y los relacionados con los acuerdos de colaboración empresarial puedan estar sujetos a modificaciones futuras, contemplando: a) las variables fundamentales del transporte ecológico de carga urbana; b) contemplar más eslabones en la Red de Suministros, es decir, tener en cuenta proveedores y compradores aguas arriba y aguas abajo en forma simultánea, ubicados en diferentes zonas del área metropolitana de la ciudad; c) para los mismos modelos desarrollados, evaluar el efecto de mitigar el efecto látigo; y d) modelar los mecanismos de coordinación citados en el numeral 2.1. no sólo en términos del precio unitario de la prestación del servicio de bodegaje de mercancías en términos de la posición de almacenamiento y del contenedor, sino que también por ahorros provenientes del manejo tarifario del transporte ecológico de ciudad. Referencias [1]

[2]

Palacio-León. O. Diseño del sistema logístico para la empresa MATROMOL Limitada. Tesis de grado, Facultad de Ingeniería, Universidad Tecnológica de Pereira, Colombia, 2005. Allen, J., et al., Global Logistics: New directions in supply chain management. 5th Ed. Kogan, London, 2007. 429 P. ISBN-13: 978-07494-4813-4

[3]

Palacio-León, O., Propuesta metodológica para el diseño y operación de instalaciones de almacenamiento modulares ecoeficientes para productos no perecederos. Tesis de grado, Departamento de Ingeniería de Sistemas e Industrial, Facultad de Ingeniería, Universidad Nacional de Colombia-Sede Bogotá, Colombia, 2012.

[4]

Díaz-Batista, J. and Pérez-Armador, D., Optimización de los niveles de inventario en una cadena de suministro, Ingeniería Industrial, 33 (2), pp. 126–132, 2012.

[5]

Mendes Jr., P., Demand driven supply chain: A structured and practical roadmap to increase profitability. Berlín. Springer, 2011. 185P. e-ISBN: 978-3-642-19992-9

[6]

Lahmar, M., Facility logistics: Approaches and solutions to next generation challenges. Boca Raton, Auerbach Publications, 2008. 336 P. ISBN-13: 978-0-8493-8518-6

[7]

Saldarriaga-R., D.L., Diseño, Optimización y Gerencia de centros de distribución: Almacenar menos, distribuir más, Medellín, Impresos Begón Ltda., 2012. 469 P. ISBN: 978-9-5846-0258-9

[8]

Tersine, R.J,. Principles of inventory and materials management. New York, Prentice-Hall International, 1994. 591 P. ISBN 978-01312-6484-7

[9]

Jiménez-Sánchez, J.E., Estado del Arte de los modelos matemáticos para la coordinación de inventarios en la cadena de suministro, Instituto Mexicano de Transporte. Publicación técnica 281, 2005.

[10] Small, K.A. and Verhoef, E.T., The economics of urban transportation. Toronto, Taylor & Francis Group, 2007. 269 P. eISBN: 0–203–64230–9 [11] García-S., J.P., et al., Gestión de stocks de demanda independiente. Valencia, Editorial UPV, 2004. 146 P. ISBN: 978-8-4970-5521-5 [12] Mauleón-Torres, M., Transporte, Operadores, Redes. Barcelona, Ediciones Díaz de Santos, 2013. 542 P. ISBN: 978-84-9969-637-9 [13] Charvat, J.J., Project management methodologies: Selecting, implementing, and supporting methodologies and processes for projects, New York, Jhon Wiley & Sons, Inc, 2003. 264 P. ISBN: 978-0-471-22178-4 [14] Yin, R.K. Case Study Research: Design and Methods. 4th Edition. California: SAGE Publications, 2008. 312p. e-ISBN: 978-1-45224256-9 [15] Taniguchi, E., et al., City logistics: Network modelling and intelligent transport systems, Amsterdam, Pergamon, 2001. 245 P. eISBN: 978-0-5854-7384-0 [16] Antún, J.P., Distribución urbana de mercancías: Estrategias con centros logísticos. Inter-American Development Bank, 2013. Disponible en web: http://www.iadb.org/document.cfm?id=37507441 [17] Meredith-Smith, J., Logistic & the out-bound supply chain. London, Penton Press, 2002, 129 P. ISBN: 1-8571-8032-1 [18] Liddle, J., et al., Managing the city, Diamond John Ed., London, Taylor & Francis Group, 2007, 198 P. e-ISBN: 0–415–38258–0 [19] Langevin, A. and Riopel, D., Logistics systems: Design and optimization, New York, Springer, 2005. 388 P. ISBN 978-0-38724977-3 [20] Li, J., Chen, J. and Wang, S., Risk management of supply and cash flows in supply chain, New York, Springer, 2011. 202 P. e-ISBN: 978-1-4614-0511-5 [21] Daganzo, C.F., Logistics systems analysis, 4th Edition. California, Springer, 2005. 296 P. ISBN 978-3-540-27516-9 [22] Ozen, U., Sosic, G. and Slikker, M., A collaborative descentralized distribution system with demand forecast updates, European Journal of Operational Research, 216 (3), pp. 573–583, 2012.

302


Palacio-León & Adarme-Jaimes / DYNA 81 (186), pp. 295-303. August, 2014. [23] Zhang, D., Liu, X. and Li, S., An optimization model for multiperiod collaborative inventory control based on target performance management, Proceedings of the 2012 IEEE 16th International Conference on Computer Supported Cooperative Work in Design, pp. 930–934, 2012 [24] Satir, B., Savasaneril, S. and Serin, Y., Pooling through lataral transshipments in service parts systems, European Journal of Operational Research, 220, pp. 370–377, 2012 [25] Chan, F.T.S. and Prakash, A., Inventory management in a lateral collaborative manufacturing supply chain: a simulation study, International Journal of production Research, 50 (16), pp. 46704685, 2012 [26] Elsayed, A.E. and Thomas, O., Boucher. Analysis and control of production systems. 2nd Ed. New York, Prentice Hall, 1994. 450 P. ISBN 978-0-1307-8759-0 [27] Chinyio, E. and Olomolaiye, P., Construction stakeholder management, Iowa, Jhon Wiley & Sons, 2010. 416 P. ISBN: 978-14443-1535-6 O. Palacio-León, es Ing. Industrial con especialidad en evaluación y desarrollo de proyectos en 1998 de la Universidad Colegio Mayor de Nuestra Señora del Rosario en Bogotá, Colombia. En 2005, se recibió

como MSc. en Investigación Operativa y Estadística de la Universidad Tecnológica de Pereira, en Pereira Colombia y en 2014 graduó como MSc. en Ingeniería con mención en Ingeniería Industrial de la Universidad Nacional de Colombia en Bogotá, Colombia. En la actualidad, está cursando el doctorado en ingeniería en la Universidad de Carabobo, Venezuela y un doctorado en Proyectos de la Universidad Internacional Iberoamericana, México. Es profesor asistente del Programa de Ingeniería Industrial de la Universidad Militar Nueva Granada. Sus principales áreas de investigación incluyen: Diseño de Sistemas Productivos; Formulación y evaluación de proyectos inmobiliarios de tipo industrial; y Diseños metodológicos en el área de la logística empresarial, modelación de coordinación de inventarios entre proveedor-comprador de una red de suministros. W. Adarme-Jaimes, es Ing. Industrial, Esp. en Gerencia de la Producción, Mejoramiento continuo, MSc. en Ingeniería con énfasis en logística y Dr. en Ingeniería Industria y Organizaciones con Énfasis en logística. Actualmente se desempeña como profesor asociado en el Departamento de Ingeniería de Sistemas e Industrial de la Facultad de Ingeniería, Universidad Nacional de Colombia - Sede Bogotá, Colombia. Es director del Grupo de investigación en Logística Sociedad, Economía y Productividad (SEPRO) de la Universidad Nacional de Colombia. Ha dirigido investigaciones sobre logística para diferentes sectores de la economía colombiana, con publicación de resultados en revistas indexadas. Consultor en política pública sobre logística para los Ministerios de Comercio, Transporte y Salud de en Colombia y la Alcaldía mayor de Bogotá.

303


An alternative solution for the repair of electrical breakdowns after natural disasters based on ant colony optimization Yasel José Costa-Salas a & William Ariel Sarache-Castro b a

b

Faculty of Economics, Universidad de Manizales, Colombia, yasel.costa@umanizales.edu.co Industrial Engineering Department, Universidad Nacional de Colombia Sede Manizales, Colombia, wasarachec@unal.edu.co Received: May 12th, 2014. Received in revised form: July 1th, 2014. Accepted: July 28th, 2014

Abstract Abundant literature is available for the route planning based on meta-heuristic algorithms. However, most researches in this field are developed under normal scenarios (e.g. normal weather conditions). The natural disasters, such as hurricanes, on the contrary, impose hard constraints to these combinatorial problems. In this paper, a route-planning problem is solved, specifically, for the repair of electrical breakdowns that occur after natural disasters. The problem is modeled using an assignment-based integer programming formulation proposed for the Multiple Traveling Salesman Problem (mTSP). Moreover, this paper proposes the creative application of an algorithm based on Ant Colony Optimization (ACO), specifically Multi-type Ant Colony System (M-ACS), where each colony represents a set of possible global solutions. Ants cooperate and compete by means of “frequent” pheromone exchanges aimed to find a solution. The algorithm performance has been compared against other ACO variant, showing the efficacy of the proposed algorithm on realistic decision-making. Keywords: Ant Algorithms, multiple traveling salesman problem, electrical breakdowns.

Solución alternativa para la reparación de averías eléctricas posterior a desastres naturales usando optimización basada en colonias de hormigas Resumen En la literatura especializada existe abundante literatura sobre la aplicación de meta-heurísticas en la planeación de rutas. Sin embargo, la mayoría de las investigaciones en este campo han sido desarrolladas bajo escenarios normales (ejemplo bajo condiciones meteorológicas normales). Los desastres naturales, por ejemplo los huracanes, incrementan la complejidad en este tipo de problemas combinatorios. En este artículo se resuelve un problema de planeación de ruta, específicamente para la reparación de averías eléctricas que suceden posteriores a un desastre natural. El problema es modelado empleando una formulación entera basada en asignación para Múltiples Viajeros Vendedores (mTSP). Por otra parte, en el artículo se propone una aplicación creativa de un algoritmo de optimización basado en Colonia de Hormigas (ACO), específicamente Sistema de Hormigas Multi-tipos, donde cada colonia representa un conjunto de posibles soluciones globales del problema. Las hormigas cooperan y compiten mediante frecuentes intercambios de feromonas para buscar una solución del problema. El desempeño del algoritmo ha sido comparado con otras variantes de ACO, mostrando la eficacia del algoritmo propuesto en ambiente realístico de la toma de decisiones. Palabras claves: Algoritmo de hormigas, múltiples agentes vendedores, averías eléctricas.

1. Introduction The natural disasters are unwanted phenomena that humans must to deal. Unfortunately, many important services are interrupted during and after the disasters. Medical services, transportation (people and goods) and electricity are some of the main services that can be seriously damaged. Restore these services is top priority,

which involve coordinated efforts among governments, private individuals and corporations [1]. Hurricanes are the more common natural disasters of Caribbean islands (e.g. in Cuba, the hurricane season comprises six months of the year). Strong winds are one of undesirable effects of these meteorological phenomena. The strong winds can destroy an electrical networks (mostly when the electrical networks are on the ground), causing many

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 304-310. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Costa-Salas & Sarache-Castro / DYNA 81 (186), pp. 304-310. August, 2014.

electrical breakdowns after the hurricanes. These breakdowns should be repaired in the smallest possible time. On the other hand, the issue of the electrical breakdown repair in electricity distribution networks has been treated in literature [2]. However, the main contributions are addressed to develop new technologies in order to make much more efficient the distribution networks. Furthermore, in some other, the proper size of power network [3] and the system reliability [4] are studied. Regarding optimization decision, the common researches are focused on minimizing the network size, and in particular cases the multi-objective optimization are proposed, where the network size and the system reliability are optimized simultaneously [5]. Inevitably, the power networks can be subject of often breakdowns, which have to be repaired as soon as possible. Sometimes, the number of breakdowns reaches impressive values, particularly after natural disasters, such as hurricanes. Obviously, to repair such breakdowns both human and material resources are required in order to reestablish so valuable service (the electricity). However, facilitating the proper sequence to repair and the quick departure of these resources towards the breakdown place could be crucial in the decision-making. In general, for repairing the breakdown is disposed of limited fleet of vehicles, which transport the specialists and necessary resources to the repair. When the repair sequence is planned, interesting constraints can be visualized. For instance, not all breakdowns have the same priority. Mostly, it depends on the region where the breakdown took place and the voltage level existing in the network line. Depending on the breakdown priorities, different repair time can be consumed for the repair activities. Another difficult situation occurs when an unexpected breakdown appears after dispatching the fleet of vehicle to the repairing process. Interestingly, the planning of repair sequence (route planning) in power networks resembles many extensions of Vehicle Routing Problems (VRPs). For instance, multiples vehicles must be assigned to different breakdowns (mTSP [6]), not all the repair times are the same (typical on the Traveling Repair Problems, TRP [7]) and dynamicity on the route process planning (is deep studied in the Dynamic Vehicle Routing Problems, DVRP [8-9]). As a result of the above, this paper proposes one of the well-known mTSP formulation (assignment-based integer programming formulation), which seem more appropriate for modeling the case study set up in the city of Santa Clara (Cuba). A creative application of a novel ACO proposal is developed for the mentioned case study. The proposed algorithm, called Multi-type Ant Colony System (M-ACS) has been successfully applied to benchmark problems (see in [10]) overcoming a formidable solution approach for mTSP, the Lin- Kernighan heuristic. In addition to the aforementioned, in this research, the algorithm is applied for real context, using multiple artificial ant colonies in order to solve the case study based on the mTSP formulation; each colony represents a set of possible global solutions of đ?‘šđ?‘šm salesmen. Same type ants cooperate among them, sharing experiences through “frequentâ€? pheromone exchange. Moreover, a competition between ant types (i.e. ants of different colonies) is also introduced in order to create certain diversity in the search process.

The remaining parts of the paper are structured as follows: in Section 2 is described the basic formulation of the case study. Subsequently, in the Section 3 is explained in details the application of M-ACS for the route planning in the repair of the electrical breakdowns, considering all problem complexity beside those aspects examined on the basic formulation (mTSP). An extensive experimentation is given in Section 4, including the algorithm performance analysis based on some statistical test. Finally, some conclusions are provided in Section 5. 2. Basic formulation of the case study The route planning to repair the electrical breakdown can be basically formulated as Multiple Traveling Salesman Problem (mTSP), due to some appreciable similarities with this well-known theoretical variant of the VRPs. The similarities reside in the classical dispatching of a homogeneous fleet of vehicles (with the technical staff to repair), to which a set of nodes (breakdowns) in the graph is assigned. Similar to the mTSP, the breakdowns are once visited by the vehicles and each breakdown can be visited by just one vehicle (salesman). The other particular characteristics of the case study (the occurrence of an unexpected breakdown and the priority level) will be examined in next sections, specifically when the algorithmic approach is proposed. Formally, the mTSP can be defined on a graph đ??şđ??ş = (đ?‘‰đ?‘‰, đ??´đ??´), where đ?‘‰đ?‘‰ is the set of đ?‘›đ?‘› nodes (vertices) and đ??´đ??´ is the set of arcs (edges). Let đ??śđ??ś = (đ?‘?đ?‘?đ?‘–đ?‘–đ?‘–đ?‘– ) be a cost (typically distance) matrix associated with đ??´đ??´. The matrix đ??śđ??ś is said to be symmetric when đ?‘?đ?‘?đ?‘–đ?‘–đ?‘–đ?‘– = đ?‘?đ?‘?đ?‘—đ?‘—đ?‘—đ?‘— , ∀(đ?‘–đ?‘–, đ?‘—đ?‘—) ∈ đ??´đ??´and asymmetric otherwise. The aim of this discrete combinatorial problem is to find đ?‘šđ?‘š routes (one for each salesman), which start and end in a same node (depot or dispatching center in the case study). Each salesman has to visit a node once and just one salesman can visit a node. Several integer programming formulation have been proposed for the mTSP in literature, the most commonly used one is the assignment-based integer programming formulation [11]. In this mathematical description, the mTSP is usually formulated using an assignment-based double-index integer linear programming formulation. The decision variable can be defined as follows: 1 if arc (i, j) is used on a route, xij = ďż˝ 0 otherwise.

(1)

The general formulation of assignment-based integer programming of the mTSP can be given as follows:

305

n

n

minimize ďż˝ ďż˝ cij ∙ xij n

(2)

i=1 j=1

s.t.

ďż˝ x1j = m,

(3)

ďż˝ xj1 = m,

(4)

j=2

n

j=2


Costa-Salas & Sarache-Castro / DYNA 81 (186), pp. 304-310. August, 2014.

n

ďż˝ xij = 1, i=1 n

ďż˝ xij = 1, j=1

ďż˝ ďż˝ xij ≤ |S| − 1, i∈S j∈S

j = 2, ‌ , n,

i = 2, ‌ , n, ∀S ⊆ V \ {1}, S ≠∅,

xij ∈ {0,1}, ∀(i, j) ∈ A

problem (repair tours). Each colony obtains a set of global solutions, where each ant of the colony obtain a repair tour, using an Ant Colony System (ACS) algorithm and during the route construction, the ants that belong to a same colony (type) cooperate, sharing experience through “frequent� pheromone exchange. However the different types of ants are also involved in a competition process, which is based on the fact that the ants are repulsed by the pheromone of ants that belong to other colony (other type of ants). Combining both mechanisms (collaboration as well as competition), a set of global solutions can be reached for all colonies (better exploration process as a main advantage), selecting the best solution after certain number of iterations.

(5) (6)

(7) (8)

The expression (2) describes the fact that the objective of the problem is the minimization of the sum of the associated costs (distance) for each arc (đ?‘–đ?‘–, đ?‘—đ?‘—). The constraints (3) and (4) ensure that exactly đ?‘šđ?‘š salesmen depart form and return back to node 1 (the dispatching center). Expressions (5) and (6) represent the classical assignment constraints. Finally, constraints (7) are used to prevent subtour-s (Subtour Elimination Constraints, SECs). 3. M-ACS for route planning The M-ACS applied as a solution alternative for the case study is taken from the original pseudocode reported in [11]. According to [11], there exist đ??śđ??śđ??śđ??ś, as a set of colonies, which represent different group of global solutions of the s=ďż˝

3.1. The adapted algorithm Concretely, each artificial ant makes the repair tour; thus, a breakdown is chosen until all of them are included in the tour. For the selection of a (not yet visited) breakdown three aspects are taken into account in the M-ACS: how good was the choice of the breakdown before (đ?œ?đ?œ?đ?‘&#x;đ?‘&#x;đ?‘&#x;đ?‘&#x; , pheromone trails), how promising is the choice of that breakdown (đ?œ‚đ?œ‚đ?‘&#x;đ?‘&#x;đ?‘&#x;đ?‘&#x; , measure of desirability) and how good were the choices of that city for the other colonies (đ?œ™đ?œ™đ?‘Žđ?‘Ž (đ?‘&#x;đ?‘&#x;, đ?‘ đ?‘ ), colony pheromone trail). For this reason, one interesting characteristic of the M-ACS is the creation of a pheromone matrix for each ant type. In our M-ACS the pseudo-randomproportional rule either considers the experience earned by each colony. The state transition rules (consider, from the basic formulation that đ?‘–đ?‘– → đ?‘&#x;đ?‘&#x; and đ?‘—đ?‘— → đ?‘ đ?‘ ) are given by:

arg maxu∈Jk (r) {[Ď„(r, u)] ∙ [Ρ(r, u)]β ∙ [1�ϕ (r, s)]âˆ’Îł } a

S

[Ď„(r, s)] ∙ [Ρ(r, s)]β ∙ [1�ϕ (r, s)]âˆ’Îł ⎧ a ⎪ S: pk (s) = ∑u∈J (s)[Ď„(r, u)] ∙ [Ρ(r, u)]β ∙ [1ďż˝ (r, u)]âˆ’Îł k Ď•a ⎨ ⎪0 ⎊

wheređ?œ™đ?œ™đ?‘Žđ?‘Ž (đ?‘&#x;đ?‘&#x;, đ?‘ đ?‘ ) indicates the average value of pheromone in the edge (đ?‘&#x;đ?‘&#x;, đ?‘ đ?‘ ) taken from the other colonies, excluding the pheromone trail of colony đ?‘Žđ?‘Ž (current colony), after some number of iteration (đ??šđ??š). Another parameter defined in the M-ACS is đ?›žđ?›ž, which denotes the sensibility of each ant for using its own colony experience (đ?›žđ?›ž = 0) or also the experience of the remaining colonies (đ?›žđ?›ž > 0). The frequent pheromone exchange is performed after a number of iteration đ??šđ??š, where đ??šđ??š is a user-defined parameter and can be established dividing the total number of iteration đ?‘ đ?‘ in equal amount or as the user decides. Finally, the frequent pheromone exchange can be computed as follows: Ď•a (r, s) =

∑co∈CO; co≠a Ď•co (r, s) CO − 1

(11)

where index đ?‘Žđ?‘Ž indicates the current colony, which performs the pheromone update, taking the average

if

if

q ≤ q0

otherwise f s ∈ Jk (s)

otherwise (

ďż˝

(9)

(10)

pheromone values of the other colonies, excluding its own pheromone trail. The repulsion mechanism, between ants of different types, can be inferred from the term [đ?œ™đ?œ™đ?‘Žđ?‘Ž (đ?‘&#x;đ?‘&#x;, đ?‘ đ?‘ )]−đ?›žđ?›ž in the expressions (10) and (11). An ant that belongs to colony đ?‘Žđ?‘Ž, has less probability to choice the breakdown đ?‘ đ?‘ if other ant types chosen this breakdown in the previous route constructions (the average pheromone value of the other ant types is increased). For this reason, ants of the same type have much more opportunities to preserve the chosen breakdowns when these are incorporated in the earliest route constructions. The initial pheromone is obtained from Nearest Neighbor Heuristic (NN). As in previous research developed by [10], the heuristic starts with random node and then the other “non-visited-nodeâ€? are incorporated according to the minimum traveled distance criterion. The M-ACS pseudocode adapted to the case study

306


Costa-Salas & Sarache-Castro / DYNA 81 (186), pp. 304-310. August, 2014.

(Pseudocode 1) is detailed as: Customers

initialize parameters obtain the initial solution (Ďˆnn ) using NN heuristic

Ďˆgb â†? Ďˆnn Lgb â†? Lnn

Vehicles

breakdowns

initiate the pheromone trail for each(r, s)

routes Dispatcher

Ď„(r, s) = (n ∙ Lgb )−1

end for do until IT = N ifIT % N = F then (N: total number of iteration) exchange pheromone between colonies, see Eq. (11) end if for each colonya for each ant k build a solution Ďˆk using (new-antsolution) ifLk ≤ Lgb then

Lgb = Lk Ďˆgb â†? Ďˆk

Static problems solutions

Pseudocode {2}: The new-ant-solution algorithm initialize the parameters locate ant k in depot initialize traveled distance: Lk � 0 while (ant k has not completed its solution) compute the desirability:

1 RTs ∙ ∙ PDs Cr,s TAT Cr,s = max(1, cr,s ) U(45,60) if priority degree is 1 U(25,35) if priority degree is 2 RTs = ďż˝ U(10,20) if priority degree is 3 Ρ(r, s) =

input

Figure 1. Optimization framework for dispatching the unexpected breakdowns. Source: The authors

end if end for end for update the global pheromone trail (see in [11]) IT = IT + 1 (IT: iteration) loop

Differing to [11], the subordinate pseudocodenew-antsolution is adapted to the real-life case study. Particularly, the main difference resides on the measure of desirability (đ?œ‚đ?œ‚đ?‘&#x;đ?‘&#x;đ?‘&#x;đ?‘&#x; ), which becomes better when the distance is minimum, the vehicle available time is efficiently spent (maximum đ?‘…đ?‘…đ?‘…đ?‘… ratio in đ?‘ đ?‘ ďż˝đ?‘‡đ?‘‡đ?‘‡đ?‘‡đ?‘‡đ?‘‡) and the breakdown priority is highest (the three priority level are established according to the voltage level, being the electrical breakdowns that occur in 220KV and 33KV lines of the first priority level, the second priority level for those which occur in 4KV lines, and the third in electrical lines with voltage level under 4KV (more frequent)). The đ?‘…đ?‘…đ?‘…đ?‘…đ?‘ đ?‘ values in the Pseudocode (2) follow a probabilistic distribution, uniform, with different parameters depending upon breakdown priority degree.

Optimizer

update the local pheromone trail Ď„(r, s), see [11] update the tour: Ďˆk â†? Ďˆk + ⌊sâŒŞ update traveled distance:Lk â†? Lk + dij end while where the pseudocode terms are:

Cr,s : Road distance between the breakdown r and the breakdown s. RTs : Repair time consumed by the breakdown s. TAT: Total available time of the vehicles in charge of the breakdown repair. PDs : Priority level of the breakdown s (0 ≤ PDs ≤ 1).

3.2. Treatment of the unexpected breakdowns

The proposal consists of two integrated modules (dispatcher and optimizer module), in which a sequence of static mTSP problems is created. Dispatcher module initializes all the data structures, controls the time, handle the occurrence of all breakdowns (pending breakdowns of unexpected breakdowns), provide to the Optimizer module the input data and update the routes according to the results of the Optimizer module. On the other hand, the Optimizer module is responsible for solving the static problems generated by the other module. The static problem solutions are given by M-ACS. In the Pseudocode (3) the main actions suggested by the proposed framework are explained in details. The pseudocode show the steps that should be followed when some unexpected breakdowns occurs.

select next node s using expression (9) or (10) 307

Pseudocode (3): Insertion of the unexpected breakdowns initialize () time � 0 Locate the vehicles at dispatching center PendingBreakdowns � InitialBreakdowns() do until PendingBreakdowns = {} breakdown arrival time � time


Costa-Salas & Sarache-Castro / DYNA 81 (186), pp. 304-310. August, 2014.

create the static problem with the breakdowns: PendingBreakdowns + NewBreakdowns(breakdown arrival time) Solution = Optimizer module (static problems) time = breakdown arrival time Update the route of the vehicles Update the PendingBreakdowns Loop

3.3. Complexity analysis of M-ACS

The time complexity of ACO algorithms is mainly based on its search strategies, where a set of đ?‘šđ?‘š ants develop a tour construction with complexity đ?‘‚đ?‘‚(đ?‘›đ?‘›2 ) until a number of iterations is reached. The pheromone trails are stored in a matrix with đ?‘‚đ?‘‚(đ?‘›đ?‘›2 ) entries (one for each edge) as in all ACO strategies [12]. In M-ACS a set of đ??śđ??śđ??śđ??ś colonies is defined, each colony represents a subgroup of the total number of ants đ?‘šđ?‘š. In the computational analysis this total number of ants is the important parameter and not the number of colonies. This is because the pheromone exchange between the colonies, which only is performed every 10% of the iterations, takes đ?‘‚đ?‘‚(đ?‘›đ?‘›2 ) as well and therefore does not increase the complexity of the standard pheromone updates within each colony. Yielding an overall time complexity of đ?‘‚đ?‘‚(đ?‘›đ?‘›2 ), equal to the other ACO strategies. 4. Computational results

In this section the M-ACS algorithm is tested on a reallife case study, set up in the city of Santa Clara, Cuba. This city, with a 300 000 population, has been one the most affected by the hurricanes over the last twenty years [13]. Therefore, the decision making related with route planning after natural disasters has received great deal of attention for the local authorities. The company involved in the decision making process presents serious financial difficulties, in particular with the computational resources. Hence, the approximate algorithm proposed in the paper is aimed to facilitate such computational resource lacks. This case study consists on route planning for repairing the electrical breakdowns after the hurricanes crossing the mentioned city. The Fig. 2 shows the road network of Santa Clara, where the traveled distance of each arc (đ?‘&#x;đ?‘&#x;, đ?‘ đ?‘ ) in the network is calculated using the professional software MapInfo 6.0. The dispatching center (the star in Fig. 2) and some electrical breakdowns after a devastating hurricane (e.g. hurricane IKE) are depicted as well. As we mention before, this case study can be modeled using the assignment-based formulation of the m-TSP, where each salesman represents a vehicle equipped with all resources for repair of the electrical breakdown. The algorithm proposed in this paper was coded in JAVA and all experiments were executed on a microcomputer Intel Dual Core with 2.4 GHz, 4 GB RAM. After a significant amount of executions, the parameters´ values were tuned for the M-ACS applied to the case study. The aforementioned parameter setting has been supported by the ANOVA statistical technique, resulting significantly better

Figure 2. View of dispatch center in Santa Clara city. Source: MapInfo 6.0.

(minimum criterion) the objective function value with the following parameters: • The đ?‘žđ?‘ž0 value is defined as 0.75; • Parameters đ?›źđ?›ź, đ?›˝đ?›˝, đ?›žđ?›ž were setting as 1; • The evaporation coefficient đ?œŒđ?œŒ performs better as 0.1; • Ten ants were assigned to each colony in the construction of solutions and; • Every 10 iterations, 10% of the total number of iteration (100), occurs the pheromone exchange. The temporal scope of the M-ACS application was shift of 8 hours. In this case is considered that the first moment in the route planning process (after the hurricane) starts at the beginning of the shift and every 30 minutes after the first moment is check for new unexpected breakdowns. If certain breakdown(s) occur(s), the proposed algorithm develops an insertion process to the previous route based on the strategy described in Pseudocode (3). Table 1. Shift description in all decision making process. Breakdowns Shift Fleet size Total P1 P2 01 8 02 12 03 4 04 15 05 16 06 11 07 20 08 12 09 8 10 6 11 23 12 4 13 10 14 13 15 11 16 16 17 13 18 21 19 15 20 12 Source: The authors

308

126 196 109 435 338 291 455 288 351 78 128 211 514 432 134 218 543 122 215 312

6 4 2 7 12 11 20 7 14 2 3 7 19 16 3 9 27 6 8 7

2 8 2 12 8 14 12 8 19 6 7 15 18 23 5 12 21 13 12 14

P3

Unexpected breakdown

118 184 105 416 318 266 423 273 318 70 118 189 477 393 126 197 495 103 195 291

16 21 11 37 27 30 52 32 36 5 13 21 34 45 8 15 42 11 19 31


Costa-Salas & Sarache-Castro / DYNA 81 (186), pp. 304-310. August, 2014.

In this computational experiment the algorithm performance is compared with other classical ACO variant, the Ant Colony System (ACS). Due to its similarities (excepting the competition and cooperation process of colonies) with the proposed algorithm was not explained in Section 3. However, the typical parameters of this algorithm (đ?‘žđ?‘ž0 , đ?›źđ?›ź, đ?›˝đ?›˝, đ?œŒđ?œŒand number of iteration) are tuned using the same values defined in MACS. The computational experimentation is based on the application of the ACO variants (M-ACS and ACS) for 20 shifts, in which a high diversity (related with different priority degree and unexpected) of breakdowns are under consideration. In the Table 1 are showed the main characteristics of every shift, including the fleet size, total number of breakdown during 8 hours, quantity of breakdown according to the priority degree and the amount of unexpected breakdown that occurred after the first route planning. Table 2 presents the objective function value (total traveled distance, in Km.) applying the solution approaches based on ACO, the M-ACS and ACS. The values in boldface represent the objective function value for each shift. First three columns indicate the shift code and the solution quality of both algorithmic approaches. The last column illustrates a descriptive analysis (∆) which is developed according to the follow expression: ∆= ďż˝1 −

SolM−ACS ďż˝ Ă— 100 SolACS

Table 2. Results of solution approaches of ACO for all shift of the case study. Shift M-ACS ACS ∆ 01 144.21 156.24 7.70 02 222.96 293.83 24.12 03 119.67 146.65 18.40 04 532.01 612.56 13.15 05 486.71 511.19 4.79 06 312.19 336.91 7.34 07 551.11 623.86 11.66 08 424.13 458.13 7.42 09 432.78 465.26 6.98 10 100.34 93.56 -7.25 11 150.32 162.44 7.46 12 411.03 416.78 1.38 13 623.21 648.19 3.85 14 514.45 531.73 3.25 15 114.13 126.11 9.50 16 421.83 429.14 1.70 17 661.36 664.21 0.43 18 112.44 121.75 7.65 19 401.92 418.33 3.92 20 456.11 472.16 3.40 Average ----6.84 Source: The authors Table 3. Results of Wilcoxon´s test. Comparison Shifts 1‌20

(12)

wheređ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘€đ?‘€âˆ’đ??´đ??´đ??´đ??´đ??´đ??´ and đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ??´đ??´đ??´đ??´đ??´đ??´ are the objective function values after applying the M-ACS and ACS respectively. A positive value of ∆ indicates in what percentage the proposed algorithm (M-ACS) overcomes the other ACO strategy (ACS); otherwise, the M-ACS performs worse than the ACS.The descriptive results depicted in Table 2 proof the efficacy of the proposed ACO solution approach (M-ACS). In only one shift, number 10, the classical ACS performs better regarding solution quality. It is quite interesting that only in minimum scale instance the ACS overcomes the M-ACS. In addition to the descriptive analysis, a nonparametric test is applied aimed to know whether the average improvement (∆) results significant. The objective function values have been introduced on the IBM SPSS 21, comparing both performance values (see in Table 3) using Wilcoxon Signed Rank Test. A đ?‘?đ?‘?-value is computed for this test, depending of it, is determined whether the hypothesis is rejected (when đ?‘?đ?‘?-value is lower than the significance value) or not. Having closer look to the đ?‘?đ?‘?-value figure can be decided that the M-ACS performs significantly better than the classical ACS, which means that the competition and cooperation process between colonies of ants is much more suitable in the route planning process to repair breakdowns which occur in power network distribution, the real-life case study examined in the present paper.

M-ACS vs. ACS

p-value 0.001

Hypothesis Rejected

Source: own creation using SPSS 20

5. Conclusions In this paper, we have adapted and then applied a previous introduced ACO algorithm, called Multi-type Ant Colony System (M-ACS) (see in [11]), which significantly improves the performance of other efficient ACO strategy, the Ant Colony System (ACS). Comparison of our algorithm to classical ACO algorithm have shown that, the M-ACS is currently one the best performing variant for the Multiple Traveling Salesman Problem (mTSP), which have identified as the basic formulation in a realist route planning process to repair electrical breakdowns. A case study, set up in the city of Santa Clara, confirms that our solution approach can be applied to real world instances. Thus, the proposed algorithm supports the decision making process related with the route planning to repair the electrical breakdown after natural disasters. References [1]

Asgary, A. and Levy, J., A review of the implications of prospect theory for natural hazards and disaster planning. International Journal of Environmental Research, 3 (3), pp. 379–394, 2009.

[2]

Tajnsek, V., Pihler, J. and Roser, M., Advanced logistical systems for the maintenance of overhead distribution lines through DCC with the use of laser monitoring. IEEE Transactions on Power Delivery, 26 (3), pp. 1337–1343, 2011.

309


Costa-Salas & Sarache-Castro / DYNA 81 (186), pp. 304-310. August, 2014. [3]

Wang, C. and Cheng, H.-Z., Optimization of network configuration in large distribution systems using plant growth simulation algorithm, IEEE Transactions on Power System, 23 (1), pp. 119– 126, 2008.

[4]

Borges, C.L.T. and Falcão, D.M., Optimal distributed generation allocation for reliability, losses, and voltage improvement, International Journal of Electrical Power & Energy Systems, 28 (6), pp. 413–420, 2006.

[12] Dorigo, M. and Stützle, T., ACO Algorithms for the traveling salesman problem, Evolutionary algorithms in engineering and computer science: Recent advances in genetic algorithms, Evolution strategies, volutionary programming, Genetic programming and industrial applications, New York, John Wiley & Sons, 1999.

[5]

Falaghi, H., Haghifam, M.-R. and Singh, C., Ant colony optimization-based method for placement of sectionalizing switches in distribution networks using a fuzzy multiobjective approach, IEEE Transactions on Power Delivery, 24 (1), pp. 268–276, 2009.

[13] Costa-Salas, Y.J., Algorithmic assistance to the optimization process in Vehicle routing problems, Doctoral Thesis, Department of Logistics System and Material Handling, Otto-von-Guericke University, Magdeburg, Germany, 2013.

[6]

Kivelevitch, E., Cohen K. and Kumar, M., A market-based solution to the multiple traveling salesmen problem, Journal of Intelligent & Robotic Systems, 72 (1), pp. 21–40, 2013.

[7]

Frederickson, G. and Wittman, B., Approximation algorithms for the traveling repairman and speeding deliveryman problems, Algorithmica, 62 (3-4), pp. 1198–1221, 2012.

[8]

Azi, N., Gendreau, M. and Potvin, J.-Y., A dynamic vehicle routing problem with multiple delivery routes, Annals of Operations Research, 199 (1), pp. 103–112, 2012.

[9]

Pillac, V., Gendreau, M., Guéret, C. and Medaglia A.-L., A review of dynamic vehicle routing problems, European Journal of Operational Research, 225 (1), pp. 1–11, 2013.

[10] Costa-Salas, Y. J., Abreu-Ledón R., Coello-Machado N. I. and Nowé, A. Multi-type ant colony system for solving the multiple traveling salesman problem, Revista Técnica de la Facultad de Ingeniería Universidad del Zulia, 35 (3), pp. 311–320, 2012.

[11] Bektas, T., The multiple traveling salesman problem: An overview of formulations and solution procedures, Omega, 34 (3), pp. 209 219, 2006.

Y.J. Costa-Salas, is an Industrial Engineer from the Universidad Central “Marta Abreu” de Las Villas, Cuba. He received the Doctor-Ingenieur degree in the prestigious German institution Otto-von-Guericke University. His research interests cover several topics of Applied Mathematics in decision making: mathematical programming and approximate algorithms for hard combinatorial problems, bio-inspired algorithms, and supply chain optimization, among others. Prof. Costa belongs to the referee staff of many well-known international journals such as European Journal of Operational Research, Expert System with Application and Decision Science. He works as Associate Professor in the Faculty of Economics at Universidad de Manizales, Colombia. W.A. Sarache-Castro, obtained his Industrial Engineer degree from the Universidad de Ibagué. He received the PhD in the Universidad Central “Marta Abreu” de Las Villas, Cuba. His has many contributions in the research field of Logistics and Operation Management. His is Associate Professor of the Industrial Engineering Department at Universidad Nacional de Colombia, Sede Manizales, Colombia.

310


New product forecasting demand by using neural networks and similar product analysis Alfonso T. Sarmiento a & Osman Camilo Soto b a

Programa de Ingeniería Industrial, Universidad de La Sabana, Colombia, alfonsosava@unisabana.edu.co b Ing. LOGYCA / INVESTIGACIÓN, Colombia, osoto@logyca.org Received: May 12th, 2014. Received in revised form: July 1th, 2014. Accepted: July 28th, 2014

Abstract This research presents a new product forecasting methodology that combines the forecast of analogous products. The quantitative part of the method uses an artificial neural network to calculate the forecast of each analogous product. These individual forecasts are combined using a qualitative approach based on a factor that measures the similarity between the analogous products and the new product. A case study of two major multinational companies in the food sector is presented to illustrate the methodology. Results from this study showed more accurate forecasts using the proposed approach in 86 percent of the cases analyzed. Keywords: demand forecasting; new products; neural networks; similar products.

Pronóstico de demanda de productos nuevos mediante el uso de redes neuronales y el análisis de productos similares Resumen Esta investigación presenta una metodología para pronosticar productos nuevos que combina el pronóstico de productos similares. La parte cuantitativa del método usa una red neuronal artificial para calcular el pronóstico de cada producto similar. Estos pronósticos individuales son combinados usando una técnica cualitativa basada en un factor que mide la similaridad entre los productos análogos y el producto nuevo. Para ilustrar la metodología se presenta un caso de estudio de dos grandes compañías multinacionales en el sector de alimentos. Los resultados de este estudio mostraron en el 86 por ciento de los casos analizados pronósticos más exactos usando el método propuesto. Palabras clave: pronóstico de demanda; productos nuevos; redes neuronales; productos similares.

1. Introducción Actualmente las empresas tienen que estar en constante cambio para poder enfrentar mercados cada vez más competitivos en un mundo globalizado, donde los consumidores se han vuelto menos leales y los ciclos de vida de los productos son cada vez más cortos. Debido a ello, la continua introducción de productos nuevos debe ser un componente vital en el planeamiento estratégico de las compañías [1] para mantener una ventaja competitiva. Un producto nuevo es aquel que posee características que los consumidores perciben como innovadoras con respecto a los productos ya existentes. Por ejemplo, el refinamiento de los productos existentes mediante una mejora o una nueva función o, por otro lado, productos con propiedades totalmente nuevas [2]. Justamente estas nuevas

características hacen que el comportamiento de compra del consumidor no pueda ser pronosticado exactamente con las curvas de demanda de productos actuales. Esto implica alterar curvas de demanda de productos similares (por ejemplo, en productos nuevos que son una mejora del producto actual) o generar nuevas curvas de demanda sin apoyo de datos históricos (por ejemplo, en productos totalmente innovadores que no existían anteriormente). Existe una gran variedad de métodos estadísticos desarrollados para generar pronósticos. El mayor inconveniente es que estos métodos están basados en supuestos sobre las tendencias de los datos, teniendo que utilizar generalmente un modelo distinto para diferentes comportamientos de demanda [3]. En el caso en que la demanda pueda ser expresada en función de otras variables (drivers) adicionales al tiempo, como el precio, canal,

© The authors; licensee Universidad Nacional de Colombia. DYNA 81 (186), pp. 311-317. August, 2014 Medellín. ISSN 0012-7353 Printed, ISSN 2346-2183 Online


Sarmiento & Soto / DYNA 81 (186), pp. 311-317. August, 2014.

publicidad, etc., los métodos tradicionales de pronóstico se basan en modelos lineales de tipo causal como el de regresión o de series de tiempo multivariadas como el modelo VARMA [4]. Los métodos de predicción basados en redes neuronales artificiales (RNA) han contribuido a mejorar la precisión de los pronósticos en situaciones de negocios [5]. Son métodos que aprenden de los datos, es decir, no tienen ecuaciones predeterminadas basadas en suposiciones sobre el comportamiento de los datos [6]. Eso les permite capturar las tendencias lineales y no-lineales presentes en la demanda. Entre las aplicaciones de las RNA como herramientas de predicción tenemos el pronóstico de: precios de mercados financieros, demanda de energía eléctrica y agua, tráfico de pasajeros, índices macroeconómicos, niveles de temperatura, caudal de los ríos y niveles de producción agregada entre otros [7]. La combinación de diversos métodos de pronóstico en un sólo modelo permite modelar diversos aspectos del negocio de las compañías y usar diferentes tipos de información. La integración de métodos estadísticos (cuantitativos) y métodos de juicio (cualitativos) pueden reducir la probabilidad de grandes errores de pronóstico [8]. La combinación de los métodos se realiza generalmente tomando una suma ponderada de los valores pronosticados por cada método en cada periodo de tiempo [9]. Existen varias formas de calcular las ponderaciones: usando pesos iguales, calculando los pesos mediante una regresión múltiple, usando pesos distintos basados en el conocimiento de expertos [10,11]. No existe una técnica de pronóstico que pueda ser aplicada con éxito a todos los tipos de productos nuevos. Este artículo se concentra en el análisis de productos nuevos cuyo pronóstico de demanda puede ser construido combinando los pronósticos de demanda de productos similares, los cuales son calculados usando RNA. Para combinar estos pronósticos se propone determinar el peso de los pronósticos de los productos similares a través de un factor de similaridad. El resto de este artículo se organiza de la siguiente manera: en la segunda sección se presentan los tipos de productos nuevos y su clasificación de acuerdo al mercado objetivo y al tipo de tecnología requerida para fabricarlos; en la tercera sección se muestra el modelo de redes neuronales usado para generar los pronósticos; en la cuarta sección se muestra la metodología propuesta para pronosticar productos nuevos; en la quinta sección se presentan los resultados de los pronósticos aplicados a varios productos nuevos de dos empresas de consumo masivo en el sector alimentos; en la última sección se exponen las conclusiones y el trabajo futuro en esta línea de investigación.

Figura 1. Matriz mercado-tecnología de producto. Fuente: Kahn, K.B., 2006

productos nuevos: 1) reducciones de costos (RC), 2) mejoramientos del producto (MP), 3) extensiones de línea (EL), 4) nuevos mercados (NM), 5) nuevos usos (NU), 6) nuevo para la compañía (NC) y nuevo para el mundo (NW). Estas decisiones son tomadas de acuerdo a la estrategia de crecimiento de la empresa: penetración de mercado, desarrollo de productos, desarrollo de mercado y diversificación, según se muestra en la Fig. 1. 3. Redes neuronales artificiales Las neuronas son las unidades básicas de las RNA, y cada una de ellas se encarga de procesar una serie de entradas provenientes del exterior o de otras neuronas interconectadas y generan una única salida. Las redes neuronales multicapa se distinguen porque las neuronas están ubicadas en varias capas: una capa de entrada, en donde se recibe la información de fuentes externas a la red neuronal; una o varias capas ocultas (también llamadas intermedias), las cuales no tienen contacto directo con el entorno exterior a la red neuronal; y una capa de salida, que transfiere la información de la red hacia el exterior [13-15]. En general, el funcionamiento de una RNA es el siguiente: la información que va a ser analizada es alimentada a las neuronas de la capa de entrada, es procesada y luego propagada a las neuronas de la siguiente capa para un procesamiento adicional. El resultado de ese proceso es transmitido hacia la siguiente capa y así sucesivamente hasta la capa de salida. Cada unidad (neurona) de la red recibe información proveniente de otras neuronas o del mundo externo y procesa dichos datos, generando un valor de respuesta [16]. La Fig. 2 muestra la estructura funcional detallada de una neurona de una RNA.

2. Tipos de productos nuevos Una forma de clasificar los productos nuevos es de acuerdo a las características que estos presentan con respecto al mercado objetivo al cual el producto está siendo lanzado y al nivel de tecnología usada para desarrollarlo [12]. De acuerdo a esta clasificación existen 7 tipos de

Figura 2. Estructura de una neurona de una RNA Fuente: Los autores

312


Sarmiento & Soto / DYNA 81 (186), pp. 311-317. August, 2014.

Como se aprecia en la Fig. 2, cada una de las neuronas artificiales (similar a como sucede con las neuronas biológicas) recibe unas entradas (pi) que pueden provenir del entorno externo o de las salidas de otras neuronas con las cuales se encuentre interconectada. A su vez, cada una de las entradas de las neuronas de una RNA tiene un peso asociado (Wi), conocido como peso sináptico, que proporcionan mayor o menor importancia a cada entrada y cuya función es emular el comportamiento existente entre las neuronas biológicas. Entre tanto, el parámetro B, se conoce como sesgo (bias) de la neurona. La entrada neta de una neurona corresponde a la sumatoria de los "m" valores de entrada que recibe, modificados por sus pesos sinápticos correspondientes más el bias de la neurona. En términos matemáticos esto es: m

Entrada neta= � pi Wi +B

(1)

i=1

La entrada neta es luego transformada por la función de transferencia (también conocida como función de activación), cuya objetivo es limitar la amplitud de los valores de respuesta de la neurona. Existen funciones de transferencia lineales y no lineales, entre las que se encuentran: la función paso o escalafón, la función lineal o identidad, la función rampa o a tramos, la función sigmoidal o logística y la función tangente hiperbólica. La función sigmoidal es la función de activación más utilizada en redes neuronales y es recomendada para problemas de predicción [17]. Según Abdi et al. [16] el objetivo de la RNA es aprender o descubrir alguna asociación entre los patrones de entrada y de salida. Dicho proceso de aprendizaje se logra mediante la modificación iterativa de los pesos sinápticos que conectan las neuronas. Este proceso se lleva a cabo de acuerdo a un algoritmo de aprendizaje seleccionado [17]. Una de las estructuras de RNA más utilizada en el pronóstico de series de tiempo es la "perceptrón multicapa" [16], que cuenta con las siguientes características: a) no existen bucles ni conexiones entre las neuronas de una misma capa, b) las funciones de activación son iguales para cada neurona de una misma capa [18]. 4. Metodología El presente trabajo propone una metodología que involucra el uso de una técnica cuantitativa (RNA) para el cálculo de pronósticos de demanda a partir de la información histórica de productos de línea similares al nuevo producto que va a ser introducido al mercado, y su posterior ajuste mediante la aplicación de un factor que califica la similaridad entre el nuevo producto y el producto de referencia escogido. La selección de la técnica de redes neuronales se debe a que ésta permite descifrar patrones de comportamiento de una serie de datos, determinando la influencia de diversas variables de entrada (drivers de la demanda) sobre una variable de salida (demanda); en contraste con las series de tiempo tradicionales, que sólo consideran la demanda histórica [19].

Figura 3. Pasos de la metodología de pronóstico Fuente: Los autores

Los pasos que constituyen la metodología propuesta se visualizan en la Fig. 3 y se detallan a continuación: 4.1. Definición de productos similares La definición del producto similar depende en gran medida del tipo de producto nuevo a pronosticar. Por ejemplo, para los casos de un producto nuevo del tipo RC o MP, se cuenta con los datos históricos de demanda del producto original, antes de la modificación del precio o alguna característica. En el caso de las EL se cuenta bien sea con información del mismo producto en una presentación de mayor o menor tamaño o con información de productos pertenecientes a la misma familia o línea, pero que tienen una característica diferente, por ejemplo, el sabor. Para el caso de un producto tipo NM se recomienda utilizar la información del comportamiento del mismo producto en otro mercado donde ya haya sido introducido. Para el caso de productos NC se sugiere escoger un producto similar de la competencia, si se dispone de información de éste, en caso contrario se deberá buscar dentro del portafolio de la compañía el producto que más se aproxime al nuevo lanzamiento en cuanto a características como precio, mercado objetivo, etc. Para los productos NW, se sugiere dar más relevancia a otras técnicas cualitativas como el método Delphi [20], para estimar la aceptación potencial del producto nuevo. 4.2. Recolección, depuración y preparación de las series de datos Esta actividad se centra en recopilar para cada uno de los productos similares, la información histórica de la demanda y de todas aquellas variables que también puedan

313


Sarmiento & Soto / DYNA 81 (186), pp. 311-317. August, 2014.

influenciar el comportamiento de dicha demanda. Estas variables son conocidas como drivers de demanda, entre las que se encuentran el precio, el canal de ventas, la ciudad o regiĂłn, la inversiĂłn en publicidad, la estacionalidad, entre otras. Una vez recopilada la informaciĂłn, se deben eliminar los registros atĂ­picos y preparar dichas series de datos para ser incluidas en el software de redes neuronales a utilizar. Por ejemplo, convertir una variable cualitativa como el canal de ventas en una variable numĂŠrica. 4.3. ConstrucciĂłn y ejecuciĂłn del modelo de RNA En este paso se debe definir la estructura de la RNA teniendo en cuenta la disponibilidad de informaciĂłn de los drivers de demanda. Para cada producto similar (seleccionado en el paso 4.1) se debe desarrollar una red neuronal. El pronĂłstico resultante de la RNA dependerĂĄ del nĂşmero de neuronas que se incluyan en la capa oculta, por tanto, se deben probar la inclusiĂłn de diferentes nĂşmeros de neuronas en dicha capa. Sin embargo, este nĂşmero no debe exceder un mĂĄximo de neuronas (lĂ­mite superior) dado por la Ec. 2, con el fin de evitar el sobre-entrenamiento de la RNA [21]: đ??żđ??żĂ­đ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘‘đ?‘‘đ?‘‘đ?‘‘ đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘› 1 = (đ?‘›đ?‘›Ăşđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š đ?‘‘đ?‘‘đ?‘‘đ?‘‘ đ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Ł đ?‘‘đ?‘‘đ?‘‘đ?‘‘ đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’ 2 + đ?‘›đ?‘›Ăşđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š đ?‘‘đ?‘‘đ?‘‘đ?‘‘ đ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Łđ?‘Ł đ?‘‘đ?‘‘đ?‘‘đ?‘‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ ) + √đ?‘›đ?‘›Ăşđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘šđ?‘š đ?‘‘đ?‘‘đ?‘‘đ?‘‘ đ?‘‘đ?‘‘đ?‘‘đ?‘‘đ?‘‘đ?‘‘đ?‘‘đ?‘‘đ?‘‘đ?‘‘ đ?‘‘đ?‘‘đ?‘‘đ?‘‘ đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’đ?‘’

(2)

Una vez definida la estructura de la red neuronal, se procede a entrenar la RNA. En el caso del cålculo del pronóstico de demanda esto equivale a resolver el siguiente problema de optimización: Minimizar el error del pronóstico Variando: los valores de los pesos sinópticos y el sesgo (bias) asociados con todas las neuronas de la RNA La validación del proceso de entrenamiento se realiza generando un modelo de regresión, el cual muestra la relación entre los valores de los pronósticos generados por la red neuronal y los valores de la demanda que se busca predecir. Si el entrenamiento fue perfecto, dichos valores serían iguales (se ubicarían sobre una línea de 45 grados) y el coeficiente de determinación R2 sería igual a 1. Pero esa relación perfecta rara vez se da en la realidad. Para propósitos pråcticos se tuvieron en cuenta sólo las opciones de configuración de redes neuronales que arrojaron R2≼ 0.5 (es decir, valores de R en valor absoluto mayores a 0.71) las cuales se consideran correlaciones fuertes [22] entre los pronósticos y los valores de la demanda. Una vez que la red neuronal estå entrenada, se encuentra en capacidad de generar los pronósticos. Para ello se debe definir un valor específico para cada una de las variables de entrada. La RNA toma dichos datos de entrada, los procesa y de acuerdo a los pesos que determinó para cada entrada y a las funciones de transferencia, genera un pronóstico de demanda. Para cada producto similar se deben ejecutar varias

"opciones" de configuraciĂłn de RNA, variando el nĂşmero de neuronas que contiene la capa interna y usando diferentes funciones de transferencia. Luego se selecciona la "opciĂłn" que genera un menor error de pronĂłstico para los datos de entrenamiento que se le suministren. Dicha opciĂłn de configuraciĂłn serĂĄ la utilizada para generar los pronĂłsticos de demanda. 4.4. CĂĄlculo del factor de similaridad El factor de similaridad (FS) se usa para ajustar el pronĂłstico obtenido por la red neuronal. El pronĂłstico de cada producto anĂĄlogo Ăł similar puede ser ajustado hacia arriba (incrementado) o hacia abajo (reducido) mediante la multiplicaciĂłn de su valor por el FS, dependiendo de si se considera que las cifras de demanda del producto nuevo serĂĄn mayores o menores que las calculadas para el producto similar. El mĂŠtodo de cĂĄlculo propuesto para hallar el valor del FS se basa en determinar que "tan similar" es el producto nuevo respecto al producto anĂĄlogo escogido. El FS se calcula con base en una combinaciĂłn de los valores otorgados a ciertas caracterĂ­sticas de los productos. CaracterĂ­sticas tĂ­picas en el uso de este cĂĄlculo son: empaque (tipo de empaque), capacidad (tamaĂąo), sabor y mercado objetivo. La evaluaciĂłn de estas caracterĂ­sticas se realiza entre el producto nuevo y cada uno de sus productos similares de forma independiente. A cada caracterĂ­stica se le da un valor entre 1 y 10. El valor de 10 indica que ambos productos son 100% similares en esa caracterĂ­stica, mientras que el valor de 1 indica que lo son sĂłlo en el 10%, es decir muy poco similares. La forma de combinar todos estos porcentajes en el nĂşmero resultante del FS puede hacerse de dos formas: a) aditiva, mediante un promedio simple de los porcentajes) y b) multiplicativa, por la multiplicaciĂłn de los porcentajes. El criterio multiplicativo es mĂĄs estricto que el aditivo, en cuanto requiere que exista un mayor grado de similaridad en cada una de las caracterĂ­sticas para que se consideren ambos productos altamente similares. La decisiĂłn para elegir una forma o la otra dependerĂĄ del impacto que el pronĂłstico del producto similar tendrĂĄ en el pronĂłstico del producto nuevo. Por ejemplo, el impacto en el cĂĄlculo de la demanda del producto nuevo por el ajuste (incremento/disminuciĂłn) de la demanda de sus productos similares mediante el FS, es mayor si se usa el criterio multiplicativo. A modo de ejemplo, la Tabla 1 muestra el cĂĄlculo de los posibles factores de similaridad que existen entre un producto nuevo denominado PN y su producto similar denominado PS. La parte izquierda de la tabla (Atributos) presenta los valores que se asignaron a cada uno de los atributos de similaridad evaluados al comparar que "tan parecidos" eran el producto nuevo y el producto usado como referencia; mientras que el lado derecho (Factores) muestra los valores resultantes al computar los puntajes de similaridad bajo el enfoque multiplicativo y bajo el mĂŠtodo aditivo.

Tabla 1.

314


Sarmiento & Soto / DYNA 81 (186), pp. 311-317. August, 2014. Tabla 1. CĂĄlculo del factor de similaridad

Puntaje de similaridad Porcentaje de similaridad Fuente: Los autores

Empaque

Capacidad

Atributos Sabor

Mercado objetivo

Factor por debajo

Factores Factor de diferencia

Factor por arriba

5

9

7

5

0.16

0.84

1.84

50%

90%

70%

50%

0.65

0.35

1.35

En el mĂŠtodo multiplicativo, el valor de la columna "factor por debajo" es obtenido al multiplicar los porcentajes de similaridad de la parte izquierda de la Tabla 1. Es decir, factor por debajo = 0.5*0.9*0.7*0.5 = 0.16. Este resultado indica que las ventas del PN serĂĄn sĂłlo el 16% de las ventas del PS. Entre tanto, la columna "factor de diferencia" muestra el resultado de la no similaridad entre los dos productos analizados, se obtiene como el complemento del factor por debajo. En otras palabras, factor de diferencia = (1- factor por debajo) = (1-0.16) = 0.84. Por Ăşltimo, en la columna "factor por arriba" se presenta el escenario de incremento de las ventas del PN en relaciĂłn al PS como consecuencia de su no similaridad, o sea aplicando el factor por arriba = 1+factor de diferencia = 1+0.84 = 1.84. Lo cual se puede interpretar como que las ventas del nuevo producto serĂĄn 84% superiores o 1.84 veces las ventas del producto similar. Por otra parte, en el mĂŠtodo aditivo, el valor de la columna "factor por debajo" se estima como un promedio simple de los porcentajes de similaridad de cada caracterĂ­stica, incluidos en la parte izquierda de la Tabla 1. Esto es, el factor por debajo = (0.5+0.9+0.7+0.5)/4 = 0.65. Lo cual significa que las ventas de PN serĂĄn el 65% de las ventas de PS. Los valores del "factor de diferencia" y el "factor por arriba" del mĂŠtodo aditivo se obtienen mediante el mismo procedimiento descrito para el mĂŠtodo multiplicativo. En consecuencia, los factores de similaridad cercanos a 1 indican que la demanda del producto nuevo serĂĄ muy cercana a la demanda pronosticada del producto similar. En consecuencia, que tanto el factor se aleje de 1 (por encima o por debajo) indica el grado de no similaridad. 4.5. CĂĄlculo del pronĂłstico de demanda del producto nuevo El pronĂłstico de demanda de un producto nuevo para un punto especĂ­fico en el tiempo se obtiene al multiplicar el pronĂłstico del producto similar para ese periodo especĂ­fico (calculado por la RNA escogida) por el factor de similaridad definido en el paso 4.4. Si se da el caso que para un producto nuevo se definan varios productos similares, su pronĂłstico de demanda se obtendrĂĄ como el promedio simple de los resultados de la multiplicaciĂłn del pronĂłstico de cada producto similar por el factor de similaridad correspondiente. Entonces, el pronĂłstico para el periodo t de un producto nuevo que tiene "q" productos similares estarĂĄ dado por la Ec. 3:

MĂŠtodo Multiplicativo MĂŠtodo Aditivo

Figura 4. Arquitectura de la RNA Fuente: Los autores

đ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒĂłđ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘‘đ?‘‘đ?‘‘đ?‘‘đ?‘‘đ?‘‘ đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘? đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘›đ?‘› đ?‘’đ?‘’đ?‘’đ?‘’ đ?‘’đ?‘’đ?‘’đ?‘’ đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘?đ?‘? đ?‘Ąđ?‘Ą đ?‘žđ?‘ž

= ďż˝(đ??šđ??šđ?‘Žđ?‘Žđ?‘Žđ?‘Žđ?‘Žđ?‘Žđ?‘Žđ?‘Žđ?‘Žđ?‘Ž đ?‘‘đ?‘‘đ?‘‘đ?‘‘ đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘†đ?‘–đ?‘– đ?‘–đ?‘–=1

(3)

∗ đ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒĂłđ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘‘đ?‘‘đ?‘‘đ?‘‘ đ?‘™đ?‘™đ?‘™đ?‘™ đ?‘…đ?‘…đ?‘…đ?‘…đ?‘…đ?‘…đ?‘–đ?‘– đ?‘’đ?‘’đ?‘’đ?‘’ đ?‘Ąđ?‘Ą) /đ?‘žđ?‘ž

5. Caso de estudio y resultados

Con el propósito de evaluar la efectividad de la metodología propuesta para pronosticar la demanda de nuevos productos, se realizó una prueba de la misma en dos grandes compaùías que tienen presencia en Colombia y Ecuador y que fabrican y comercializan principalmente productos alimenticios. Por la confidencialidad de la información, a estas compaùías se les denominarå A y B. Para probar la metodología en estas dos compaùías, el primer paso seguido fue identificar la disponibilidad de información sobre los drivers de demanda de los productos similares. Se determinó la disponibilidad de sólo 5 drivers de demanda (aùo, mes, canal, ciudad y precio). En consecuencia, y adoptando el modelo perceptrón multicapa descrito en la sección 3, se definió la siguiente estructura para las RNA utilizadas en el caso de estudio desarrollado, como se muestra en la Fig. 4: Para la selección de las funciones de transferencia, despuÊs de la realización de varias pruebas preliminares, se encontró que el uso de la función de transferencia sigmoidal en la capa oculta y la función de transferencia tangente hiperbólica en la capa de salida proveían los menores errores de pronóstico. Este resultado se corrobora con lo expuesto en la literatura sobre el uso de estas dos funciones de transferencia en RNA con estructuras no-lineales [23]. La prueba de la metodología se llevó a cabo para tres nuevos lanzamientos de la compaùía A (denominados: 1A, 2A, 3A) y cuatro nuevos lanzamientos de la compaùía B (denominados: 1B, 2B, 3B, 4B). Para los productos 1A y 4B, se determinaron 2 productos similares para cada uno; mientras que para los demås productos se eligió un producto

315


Sarmiento & Soto / DYNA 81 (186), pp. 311-317. August, 2014.

Figura 5. ComparaciĂłn de la demanda y pronĂłstico del producto nuevo 3B Fuente: Los autores

similar para cada uno. En dicha prueba se calcularon los pronĂłsticos de demanda de cada producto para sus primeros tres o cuatro meses de vida en el mercado mediante la metodologĂ­a propuesta y mediante la metodologĂ­a actualmente utilizada por cada compaùía. La metodologĂ­a usada por la compaùía A se basa en el anĂĄlisis de los datos de productos similares y las sugerencias de las ĂĄreas de Mercadeo y Ventas. La metodologĂ­a usada por la empresa B genera pronĂłsticos con base principalmente en anĂĄlisis de mercado realizados sĂłlo por el ĂĄrea de Mercadeo. Para analizar comparativamente la asertividad de los pronĂłsticos generados por las dos metodologĂ­as, se decidiĂł estimar como medida de desempeĂąo el error medio absoluto porcentual (conocido como MAPE por sus siglas en inglĂŠs: mean absolute percentage error). El MAPE se obtiene usando la Ec. 4: đ?‘€đ?‘€đ?‘€đ?‘€đ?‘€đ?‘€đ?‘€đ?‘€ =

��

1 đ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ?‘Ąđ?‘Ą − đ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒđ?‘ƒĂłđ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘ đ?‘Ąđ?‘Ą �� ďż˝ đ?‘›đ?‘› đ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ??ˇđ?‘Ąđ?‘Ą đ?‘Ąđ?‘Ą=1

(4)

Donde "n" es el horizonte de tiempo para el cual se calcularĂĄ indicador MAPE. En la Fig. 5 se muestra el caso del producto nuevo 3B que fue lanzado en Agosto del 2010. Este era un producto nuevo tipo RC. Es decir, era el mismo producto que iba a ser lanzado con un menor precio de venta. Los Ăşltimos 4 valores en color gris (2010-8 al 2010-11) muestran los valores reales de la demanda (en unidades) para los meses de Agosto a Noviembre 2010; mientras que los Ăşltimos 4 valores en color negro muestran los valores pronosticados por la RNA. Al pronĂłstico calculado por la red neural mostrado en la Fig. 5 se le debĂ­a

aplicar el factor de similaridad. Se usó un factor de similaridad de 1, ya que en esencia era el mismo producto pero con un precio menor. En consecuencia, para este caso, al aplicarle el factor de 1, el pronóstico final de la metodología coincidía con el generado por la red neuronal. Se obtuvo un MAPE 7.1% menor que el del pronóstico generado por la compaùía B. La Tabla 2 presenta los resultados obtenidos para cada una de las 7 pruebas (pronósticos de productos) realizadas con las dos compaùías objeto de estudio. Dicha tabla indica para cada una de las pruebas el tipo de producto nuevo analizado, el número de productos similares considerados para la estimación del pronóstico con sus correspondientes factores de similaridad, el límite måximo de neuronas estimado mediante la fórmula descrita en la sección 4.3, la mejor configuración encontrada al analizar el desempeùo de la RNA y finalmente la comparación de los errores de pronóstico (MAPE) de la metodología aquí propuesta y la metodología actualmente usada por las compaùías estudiadas. En el caso de la compaùía B, la determinación de los factores de similaridad fue hecha por el årea de Mercadeo y la determinación del mÊtodo a aplicar estos factores (aditivo o multiplicativo) recayó en el årea de Planeación de Demanda. En el caso de la compaùía A, tanto la determinación de los factores de similaridad como el mÊtodo a aplicar fueron definidos por el årea de Planeación de Demanda. Como se puede observar en la Tabla 2, la metodología propuesta generó un pronóstico mås acertado para 6 de las 7 pruebas realizadas, obteniendo un MAPE entre 1.3% y 13.9% mås bajos que el MAPE obtenido por las compaùías respectivas.

Tabla 2. Comparación de resultados obtenidos por la metodología propuesta vs mÊtodos actuales de las compaùías Tipo de Límite MAPE MAPE Producto Opción Factor de MAPE mÊtodo propuesto vs Producto Producto superior de mÊtodo mÊtodo similar elegida similaridad MAPE mÊtodo compaùía Nuevo Nuevo neuronas propuesto compaùía PS1A-I 9 4 neuronas 1.2 (a)* 1A EL 28.6% 27% 1.6% mayor PS1A-II 9 5 neuronas 1.3 (a) 2A EL PS2A-I 10 5 neuronas 1.8 (m) 42.1% 43.4% 1.3% menor 3A EL PS3A-I 9 9 neuronas 1.1 (m) 22.6% 24.5% 1.9% menor 1B RC PS1B-I 15 15 neuronas 1 22.7% 36.6% 13.9% menor 2B RC PS2B-I 15 10 neuronas 1 32.6% 34.6% 2.0% menor 3B RC PS3B-I 15 12 neuronas 1 22.6% 29.7% 7.1% menor PS4B-I 41 5 neuronas 0.2 (m) 4B NC 15.3% 18.5% 3.2% menor PS4B-II 36 20 neuronas 0.2 (m) *(a) significa calculado con el mÊtodo aditivo; (m) significa calculado con el mÊtodo multiplicativo Nomenclatura del producto similar: sigla PS seguida de la etiqueta del producto nuevo-número del producto similar en romano Fuente: Los autores 316


Sarmiento & Soto / DYNA 81 (186), pp. 311-317. August, 2014.

6. Conclusiones La metodología propuesta en este artículo demostró ser efectiva en la generación de pronósticos de demanda de productos nuevos para los cuales existe un producto similar que pueda tomarse como referencia. Los resultados obtenidos fueron superiores en el 86 por ciento de los casos probados con respecto al método actual usado por las dos compañías participantes. En el peor escenario se obtuvo un MAPE 1.6% mayor que el de la compañía; y en el mejor escenario se obtuvo un MAPE 13.9% menor que el de la compañía. El método tiene un componente cuantitativo, que es el cálculo de los pronósticos de los productos similares usando RNA. Los autores proponen un método cualitativo, basado en un factor de similaridad, para combinar los pronósticos de los productos similares y calcular el pronóstico del producto nuevo. La selección de los productos similares y la estimación de los factores de similaridad, deben ser el resultado del consenso entre las opiniones de un equipo multidepartamental, que involucre diversas áreas de la compañía. Permitir que sólo un área de la empresa determine los factores de similaridad y su impacto puede originar pronósticos demasiado optimistas o demasiado conservadores según sea el caso. Aunque no se puede justificar como la única razón, en cierta manera, esto quizás podría indicar el porqué se obtuvieron mejores resultados con la metodología propuesta en la compañía B que en la compañía A, donde en esta última sólo el área de Planeación de Demanda intervino en la determinación de los factores de similaridad. Se deberán hacer pruebas adicionales para verificar esta hipótesis. Como trabajo futuro, se propone agregar a la metodología propuesta la estimación de un valor esperado del pronóstico de la demanda a partir de la generación de varios escenarios de pronósticos (optimistas, neutrales y pesimistas) y la definición de sus probabilidades de ocurrencia correspondientes en cada uno de los periodos a analizar. También se destaca la posibilidad de incluir otras variables que afectan la demanda como las inversiones en publicidad o las promociones, bien sea como datos de entradas de las redes neuronales o como factores de ajuste adicionales. Referencias

[7]

Zhang, G., Patuwo, B.E. and Hu, M.Y.. Forecasting with artificial neural networks: The state of the art, International Journal of Forecasting, 14 (1), pp. 35-62, 1998.

[8]

Sanders, N.R. and Ritzman, L.P., Judgmental adjustment of statistical forecasts, In J.S. Armstrong (Ed.), Principles of forecasting: A handbook for researchers and practitioners, Kluwer Academic Publishers, 2001, pp. 405-416.

[9]

Yelland, P.M., Kim, S. and Stratulate, R., A bayesian model for sales forecasting at sun microsystems, Interfaces, 40 (2), pp. 118-129, 2010.

[10]

Krishnamurti, T.N., Kishtawal, C.M., LaRow, T.E., Bachiochi, D.R., Zhang, Z., Williford, C.E., Gadgil, S. and Surendran, S., Improved weather and seasonal climate forecasts from multimodal ensemble, Science, 285, pp. 1548-1550, 1999.

[11]

Armstrong, J.S., Combining forecasts, In J.S. Armstrong (Ed.), Principles of forecasting: a handbook for researchers and practitioners, Kluwer Academic Publishers, 2001, pp. 417-439.

[12]

Kahn, K.B., New Product Forecasting: An applied approach, New York, M.E. Sharpe Inc., 2006.

[13]

Ariza, A., Métodos utilizados para el pronóstico de demanda de energía eléctrica en sistemas de distribución, Tesis de grado en Ingeniería Electricista, Universidad Tecnológica de Pereira, Colombia, 2013.

[14]

Flórez, R. y Fernández, J.M.F., Las redes neuronales artificiales: Fundamentos teóricos y aplicaciones prácticas. España, Netbiblo, 2008.

[15] Charytoniuk, W., Box, E.D., Lee, W.J., Chen, M.S., Kotas, P. and Van Olinda, P., Neural-network-based demand forecasting in a deregulated environment, IEEE Transactions on Industry Applications, 36 (3), pp. 893-898, 2000. [16]

Abdi, H., Valentin, D. and Edelman, B., Neural networks, California: SAGE Publications, 1999.

[17]

Jiménez, J.M., Pronóstico de demanda de llamadas en los call center, utilizando redes neuronales artificiales, Tesis de grado en Ingeniería Industrial y de Sistemas, Universidad de Piura, Piura, Perú, 2013.

[18]

Medina, S., Moreno, J. and Gallego, J.P., Pronóstico de la demanda de energía eléctrica horaria en Colombia mediante redes neuronales artificiales. Revista Facultad de Ingeniería, 59, pp. 98-107, 2011.

[19]

Vaisla, K.S. and Bhatt, A.K., An analysis of the performance of artificial neural network technique for stock market forecasting, International Journal on Computer Science and Engineering, 2 (6), pp. 2104-2109, 2010.

[20]

Fang-Mei, T., Ai-Chia, C. and Yi-Nung, P., Assessing market penetration combining scenario analysis, Delphi, and the technological substitution model: The case of the OLED TV market, Technological Forecasting & Social Change, 76, pp. 897–909, 2009.

[21]

Ward Systems Group (WSG). Neuroshell 2, User’s Guide, 2000.

[22]

Taylor, R., Interpretation of the correlation coefficient: a basic review, Journal of Diagnostic Medical Sonography, 6, pp. 35-39, 1990.

[23]

da S. Gomes, D.S., Ludemir, T.B. and Lima, L.M.M.R., Comparison of new activation functions in neural network for forecasting financial time series, Neural Computing and Applications, 20 (3), pp. 417-439.

[1]

Kahn, K.B., The hard and soft sides of new product forecasting, The Journal of Business Forecasting, 28 (4), pp. 29-32, 2009.

[2]

Jain, C.L., Benchmarking new product forecasting, The Journal of Business Forecasting, 26 (4), pp. 28-29, 2007.

[3]

Thiesing, F.M. and Vornberger, O., Sales forecasting using neural networks, Proceedings of the 1997 IEEE International Conference on Neural Networks, Huston, Texas, 4, pp. 2125-2128, 1997.

[4]

Lütkepohl, H., Forecasting with VARMA models, In G. Elliott, C.W.J. Granger and A. Timmermann (Eds.), Handbook of Economic Forecasting, Vol. 1, chapter 6, Netherland, Elsevier, pp. 287-325, 2006.

[5]

Adya, M. and Collopy, F., How effective are neural networks at forecasting and prediction?: A review and evaluation, Journal of Forecasting, 17, pp. 481-495, 1998.

A.T. Sarmiento, es PhD. en Ingeniería Industrial. Se ha desempeñado como investigador de CLI- Logyca y actualmente es investigador y profesor de planta de la Facultad de Ingeniería de la Universidad de La Sabana, Colombia. Además es miembro del grupo de investigación en Sistemas logísticos de dicha universidad. Sus líneas actuales de investigación incluyen la planeación de la demanda para productos nuevos, riesgo en la cadena de suministro, optimización de tamaños de empaques en productos de consumo masivo y modelos que combinan la optimización de la cadena logística, precios y beneficios (EPOEnterprise Profit Optimization).

[6]

Mittal, P., Chowdhury, S., Roy, S., Bhatia, N. and Srivastav, R., Dual artificial neural network for rainfall-runoff forecasting, Journal of Water Resource and Protection, 4, pp. 1024-1028, 2012.

O.C. Soto, es MSc. en Ingeniería Industrial de la Universidad Nacional de Colombia - Sede Bogotá, Colombia. Se desempeñado como investigador Junior en Logyca / Investigación, Colombia.

317


DYNA

81 (186), August 2014 is an edition consisting of 350 printed issues and 300 CDs (electronic versions) which was finished printing in the month of August of 2014 in Todograficas Ltda. MedellĂ­n - Colombia The cover was printed on Propalcote C1S 250 g, the interior pages on Hanno Mate 90 g. The fonts used are Times New Roman, Imprint MT Shadow


• Editorial: Minimum Aspects of Using Signs ranking Proofreading and Proofreading • Chemical-mineralogical characterization of copper smelting flue dust • Revalidation of Elder´s equation for accurate measurements of dispersion coefficients in natural flows • Simplified calculation of vibrations in shell and tube heat exchangers with liquids • A robust neuro-fuzzy classifier for the detection of cardiomegaly in digital chest radiographies • Three-dimensional oil spill transport and dispersion at sea by an event of blowout • Service quality management based on the application of the ITIL standard • Photorealistic simulated modelling from fractals applied to mined-out pit restoration • Estimation of land use conflicts due to the dynamic of african Palm cultivation using remote sensing in Cesar, Colombia • Techniques to correct and prevent acid mine drainage: A review • The influence of osmotic pretreatments on melon (Cucumis melo L.) quality during frozen storage • Coal acid mine drainage treatment using cement kiln dust • Carbon nitride films grown by cathodic vacuum arc for hemocompatibility applications • Molecular dynamics simulation of nanoindentation in Cr, Al layers and Al/Cr bilayers, using a hard spherical nanoindenter • Effect of a superconducting defect on the Cooper pairs of a mesoscopic sample • Applying TOC Heuristics to Job Scheduling in a Hybrid Flexible Flow Shop • Apparent molar volume and modeling of volumetric properties of ionic liquid aqueous solutions 1-butyl-3-metilmidazolium chloride [Bmim+][Cl-] at various temperatures • A framework for consistences in association relations between classes in UML • Test effort: A pre-conceptual-schema-based representation • Model for a vehicle dynamics through a sequence of traffic lights • Alternative methods to attach components in printed circuit boards to improve their recyclability • Occupational injuries in the mining sector (2000-2010). Comparison with the construction sector • Study of the effect of silver in the mechanical properties and electrical conductivity of duralumins (Al-4%Cu-0.5%Mg) • Application of structural equation and servqual in a health service • Elements that define the social responsibility of a product • Kinetic modelling of drying of three varieties of yucca industrial • Impact estimates of the actions for the rehabilitation of energy efficiency in residential building • Specification of problems from the business goals in the context of early software requirements elicitation • Effects of regional infrastructure and offered services in the supply chains performance: Case Ciudad Juarez • Viscosity and viscometric properties of Glycine in aqueous solutions of Sodium Thiosulfate Pentahydrate (Na2S2O3 .5H2O) at different temperatures • Damage detection in ACSR cables based on ultrasonic guided waves • Numerical and experimental preliminary study of temperature distribution in an electric resistance tube furnace for hot compression tests • Attaining multiple dispatch in widespread object-oriented languages • Reanalysis of monthly precipitation fields in Colombian territory • Dynamic model to analyze pedestrian traffic policies in Bogota • An algorithm based on granular tabu search for the problem of balancing public bikes by using multiple vehicles • Coordination of inventory: A case study of city logistics • An alternative solution for the repair of electrical breakdowns after natural disasters based on ant colony optimization • New product forecasting demand by using neural networks and similar product analysis • Coordinación de inventarios en la recolección de leche cruda. Caso región Sugamuxi Colombia • Logistics process improvement of warehousing and picking in a colombian company textile sector

DYNA

Publication admitted to the Sistema Nacional de Indexación y Homologación de Revistas Especializadas CT+I - PUBLINDEX, Category A1

• Editorial: Aspectos Mínimos del Uso de Signos de Puntuación en Corrección de Estilo y Proofreading • Caracterización químico-mineralógica de polvos de fundición de cobre • Revalidación de la ecuación de Elder para la medición precisa de coeficientes de dispersión en flujos naturales • Cálculo simplificado de vibraciones en los intercambiadores de calor de tubo y coraza con fluidos líquidos • Clasificador robusto neuro-difuso para la detección de cardiomegalia en radiografías digitales del tórax • Transporte y dispersión tridimensional de un derrame de petróleo en el mar debido a un evento "blowout” • Gestión de la calidad de servicios apoyados en la aplicación del estándar ITIL • Modelo de simulación fotorrealística a partir de fractales aplicados a la restauración de entornos mineros • Estimación de conflictos de uso de la tierra por la dinámica de cultivo de Palma africana usando sensores remotos en el Cesar, Colombia • Técnicas correctoras y preventivas de las aguas ácidas de mina: Una revisión • Influencia de pretratamientos osmóticos sobre la calidad de muestras de melón (Cucumis melo L.) durante almacenamiento en congelación • Tratamiento de drenaje ácido de minería de carbón usando polvo de horno de cemento • Películas de nitruro de carbono crecidas por arco catódico en vacío para aplicaciones en hemocompatibilidad • Simulación del proceso de nanoindentación con dinámica molecular en capas de Cr y Al y bicapas de Al/Cr, empleando un nanoindentador esférico • Efecto de un defecto superconductor sobre los pares de Cooper de una muestra esoscópica • Aplicando la Heurística TOC a la Secuenciación de Trabajos en un Flow Shop Híbrido Flexible • Volumen molar aparente y modelamiento de propiedades volumétricas de soluciones acuosas del líquido iónico cloruro de 1-butil-3-metilmidazolio [Bmim+][Cl-] a varias temperaturas • Un framework para consistencias en relaciones de asociación entre clases en UML • El esfuerzo en pruebas: Una representación basada en esquemas preconceptuales • Modelo para la dinámica de un vehículo a través de una secuencia de semáforos • Métodos alternativos de fijación de componentes de circuitos impresos para mejorar su reciclabilidad • Las lesiones por accidente de trabajo en el sector de la minería (2000 – 2010). Comparación con el sector de la construcción • Estudio del efecto de la plata en las propiedades mecánicas y conductividad eléctrica de los duraluminios (Al-4%Cu-0,5%Mg) • Aplicación de ecuaciones estructurales y servqual en un servicio de salud • Aspectos que definen la responsabilidad social del producto • Modelado de las cinéticas de secado de tres variedades de yuca industrial • Estimación del impacto de acciones en la rehabilitación de la eficiencia energética en la edificación residencial • Especificación de problemas a partir de objetivos de negocios en el contexto de la educción temprana de requisitos de software • Efectos de la infraestructura regional y los servicios en el desempeño de la cadena de suministro: Caso Ciudad Juárez • Viscosidades y propiedades viscosimetricas de la Glicina en soluciones acuosas de Tiosulfato de Sodio Pentahidratado (Na2S2O3 .5H2O) a diferentes temperaturas • Detección de daño en cables ACSR basada en ondas guiadas ultrasónicas • Estudio preliminar numérico y experimental de la distribución de temperatura en un horno tubular de resistencia eléctrica para ensayos de compresión en caliente • Aproximaciones para obtener multi-métodos en los lenguajes orientados a objetos más extendidos • Reconstrucción de los campos de precipitación mensual en Colombia • Modelo dinámico para analizar políticas relacionadas con el tráfico peatonal en Bogotá • Un algoritmo basado en búsqueda tabú granular para el problema de balanceo de bicicletas públicas usando múltiples vehículos • Coordinación de inventarios: Un caso de estudio para la logística de ciudad • Solución alternativa para la reparación de averías eléctricas posterior a desastres naturales usando optimización basada en colonias de hormigas • Pronóstico de demanda de productos nuevos mediante el uso de redes neuronales y el análisis de productos similares • Coordinación de inventarios en la recolección de leche cruda. Caso región Sugamuxi Colombia • Mejoramiento de los procesos logísticos de almacenamiento y preparación de pedidos en una empresa del sector textil colombiano


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.