Revista ingenierías Universidad de Medellín - V12n23

Page 1


Revista Ingenierías Universidad de Medellín

Editorial Presentamos a nuestros lectores el número 23 de Revista Ingenierías Universidad de Medellín. En un entorno editorial que le demanda a las revistas científicas niveles de especialidad cada vez más altos, en Revista Ingenierías Universidad de Medellín seguimos apostando por el compromiso interdisciplinario de ofrecer contenidos amplios en ingeniería con el fin de atender a un público igualmente diverso. En este sentido el lector encontrará en este número contenidos que, como siempre, atienden las necesidades de información y de consulta de algunos temas clave de la ingeniería ambiental como los relacionados con caudales y sedimentos; de la ingeniería civil, acerca del comportamiento de estructuras y el transporte; de la ingeniería financiera, con reflexiones sobre riesgo y valoración y de la de sistemas con aportes en los campos de inteligencia artificial, estrategias de colaboración y soluciones de comercio electrónico. No obstante, desde el Comité Editorial se harán esfuerzos por especializar los números con el fin de ordenar mejor las discusiones y la divulgación que a futuro deseamos realizar.

Fredy López Pérez Editor

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 ISSN 1692  -  3324   -   julio  -  diciembre de 2013/184 p. Medellín, Colombia


10

Editorial This is Issue No. 23 of our “Ingenierías” Journal of Universidad de Medellin. Being in an editorial environment which demands from scientific journals an increasingly high degree of specialization, Universidad de Medellin “Ingenierías” Journal does not stop betting on the interdisciplinary proposal intended to offer wide engineering contents with the purpose of reaching equally wide audiences. In this issue readers will then find contents which, as usually, meet the information needs to consult some key environmental engineering topics such as those related to stream flows and sediments, as well as civil engineering topics about the behavior of structures and transportation, or topics in the financial engineering field, which include reflections on risk and valuation, and topics of the computer science area which include contributions in the fields of artificial intelligence, collaboration strategies, and electronic commerce solutions. The Editorial Committee is doing its best efforts to have increasingly special issues with the purpose of having better organized discussions and having the expected future circulation. Fredy López Pérez Editor

Revista Ingenierías Universidad de Medellín


Revista Ingenierías Universidad de Medellín

INFLUENCIA DE LAS CONDICIONES FISICOQUÍMICAS DEL SEDIMENTO Y LA INTERFASE AGUA - SEDIMENTO EN LA TRANSFERENCIA EXPERIMENTAL DEL O,O - DIETIL O -  3,5,6 TRICLORO - 2 - PIRIDINIL FOSFOROTIATO (CLORPIRIFOS) Y EL 3,5,6 TRICLORO - 2 - PIRIDINOL (TCP), EN EL EMBALSE RIOGRANDE II Diana María Agudelo* María Teresa Flórez** Carlos López*** Jaime Palacio**** Recibido: 08/03/2013 Aceptado: 25/10/2013 RESUMEN En esta investigación experimental se evaluó la influencia de algunas variables fisicoquímicas de sedimentos procedentes del embalse Riogrande II y de la interfase agua - sedimento en la transferencia de Clorpirifos y TCP. El análisis de clorpirifos y TCP en sedimentos y agua se realizó por extracción en fase sólida. Las muestras fueron detectadas por cromatografía de gases acoplada a espectrometría de masas (Trace GC Ultra MS 2030  -  Thermo Scientific). Se evidenció una fuerte adsorción de ambos compuestos en los sedimentos, dado el alto contenido de arcillas y de carbono orgánico, lo cual limitó su movilidad hacia la interfase. La interfase agua - sedimento se caracterizó por una condición de hipoxia durante toda la fase experimental, mientras que la conductividad eléctrica aumento en el tiempo. Se determinó que un pH neutro o ligeramente alcalino favoreció el aumento de la concentración de clorpirifos en la interfase agua - sedimento, lo cual sugiere un incremento de su transferencia desde el sedimento a la interfase, mientras que un pH ligeramente ácido favorece la transformación del compuesto parental en el sedimento. Palabras clave: sedimento, interfase agua - sedimento, transferencia, clorpirifos, TCP. *

Diana María Agudelo Echavarría. Ingeniera biológica. Estudiante de Maestría en Ingeniería Énfasis Ambiental. Estudiante Grupo de Investigación en Gestión y Modelación Ambiental –GAIA–, Sede de Investigación Universitaria Calle 62 52-59, laboratorio 230. Tel. 2196568. Correo: diana.agudeloe@gmail.com

**

María Teresa Flórez Molina. Ingeniera geóloga. M. Sc. Ph. D., Profesora Titular, Facultad de Ingeniería, Grupo de Investigación GAIA, Sede de Investigación Universitaria Calle 62 52-59, laboratorio 230. Tel. 2196568. Correo: mtflorez@udea.edu.co

***

Carlos López. Químico. M. Sc. Ciencias Químicas. Grupo de Investigación Análisis de Residuos, Universidad de Antioquia. Calle 67 N.° 53-108, Medellín-Colombia. carlopez@exactas.udea.edu.co. Tel: 054-2195663

****

Jaime Palacio. Biólogo. Ph. D., Profesor Titular. Docente investigador. Grupo de Investigación en Gestión y Modelación Ambiental –GAIA–, Universidad de Antioquia, Sede de Investigación Universitaria Calle 62 52-59, laboratorio 230. Tel. 2196568. Correo: japalaci@udea.edu.co

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 13 - 22  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


14

Diana María Agudelo - María Teresa Flórez - Carlos López - Jaime Palacio

INFLUENCE OF PHYSICAL-CHEMICAL CONDITIONS OF SEDIMENT AND WATER-SEDIMENT INTERFACE ON EXPERIMENTAL TRANSFER OF O,O-DIETHYL O-(3,5,6-TRICHLORO-2-PYRIDINYL PHOSPHOROTHIOATE AND 3,5,6-TRICHLORO-2-PYRIDINOL (TCP) AT “RIOGRANDE II” RESERVOIR ABSTRACT By this experimental research influence of some physical-chemical variables of sediments coming from “Riogrande II” Reservoir and water-sediment interface on the transfer of Chlorpyrifos and TCP has been evaluated. The analysis of Chlorpyrifos and TCP in sediments and water was performed by extraction in solid phase. Samples were detected by gas chromatography coupled to mass spectrometry (Trace GC Ultra MS 2030-Thermo Scientific). There were evidences of a strong adsorption of both compounds in sediments given the elevated content of clays and organic carbon, which limited their mobility towards the interface. The water-sediment interface was characterized by a condition of hypoxia during the entire experimental phase, while electrical conductivity increased through time. It was determined that a neutral pH or a slightly alkaline pH caused an increase of chlorphyrifos concentration in the water-sediment interface, which suggests a transfer increase from the sediment to the interface, while a slightly acid pH caused the transformation of parental compound in the sediment. Key words: Sediment; water-sediment interface; transfer; chlorpyrifos; TCP.

Universidad de Medellín


Influencia de las condiciones fisicoquímicas del sedimento y la interfase agua-sedimento en la transferencia experimental ...

INTRODUCCIÓN En la zona de influencia del embalse Riogrande II se desarrollan actividades fundamentalmente agropecuarias, lo cual significa el empleo de numerosas sustancias químicas para el control de plagas y la aplicación de fertilizantes orgánicos e inorgánicos a los suelos [1]. Las características geomorfológicas, geoambientales y climáticas de las cuencas de los principales tributarios favorecen el lavado de los suelos y el ingreso de las sustancias por escorrentía a las corrientes, las corrientes superficiales y finalmente al embalse, donde se pueden acumular en los sedimentos. Teniendo en cuenta que el embalse surte de agua a la planta de potabilización Manantiales, fuente de agua potable para parte de la población del Valle de Aburrá, el conocimiento del comportamiento ambiental de los plaguicidas es de vital importancia para aplicar estrategias eficaces que permitan minimizar sus impactos sobre el ambiente. En un estudio de la Universidad de Antioquia [2] se evidenció la presencia de clorpirifos en el agua del embalse Riogrande II en concentraciones de 0.00022 mgL–1 y 0.00056 mgL–1. El comportamiento de los plaguicidas en la fase ambiental depende de innumerables factores que están asociados a la naturaleza de las sustancias y a las condiciones fisicoquímicas de los compartimentos [3]. El uso indebido (aplicaciones continuas, dosis excesivas, mala manipulación, entre otras) de estos compuestos favorece el ingreso de estas sustancias al ambiente en niveles muy superiores a los esperados en condiciones adecuadas de aplicación. La transferencia de los plaguicidas entre los diversos compartimentos ambientales (suelo, aire, agua, sedimento y biota) es un fenómeno complejo que incorpora procesos como la volatilización, la adsorción/desorción, la hidrólisis química y biológica, entre otros [4]. El clorpirifos (figura 1 - A) es empleado en cultivos de papa, tomate de árbol, aguacate y pastos, entre otros, y es considerado moderadamente

15

tóxico (clase II) [5], además de que presenta gran afinidad por suelos y sedimentos [6]. El principal metabolito del clorpirifos es el 3, 5, 6 tricloro - 2 - piridinol (figura 1 - B), el cual es más persistente, soluble y móvil que el compuesto parental y, por tanto, se transfiere fácilmente a la fase acuosa. El estudio de la transferencia de estas sustancias entre diferentes fases permite establecer el riesgo potencial de la presencia de los compuestos parentales y sus metabolitos en cada compartimento. En esta investigación se analizó la transferencia del clorpirifos y del 3,5, 6 tricloro - 2 - piridinol (TCP) desde el sedimento hacia la interfase agua - sedimento bajo condiciones de laboratorio y se estableció la relación de la concentración del clorpirifos y del TCP con algunas variables fisicoquímicas.

(A)

(B)

Figura 1. Estructura química del Clorpirifos (A) y del TCP (B) Fuente: elaboración propia.

1. MATERIALES Y MÈTODOS 1.1 Área de estudio El embalse Riogrande II está localizado al noroccidente de la ciudad de Medellín (Antioquia), en jurisdicción de los municipios de Don Matías, San Pedro, Belmira, Santa Rosa de Osos y Entrerríos, entre 75º32’30’’ W - 75º26’10’’ W y 6º33’50’’ N 6º28’07’’ N. El embalse, que entró en operación en 1991, recibe las aguas de los ríos Grande y Chico y de la quebrada Las Ánimas. Tiene un volumen máximo de 240 millones de m3 y cubre un área media de 1214 ha.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 13 - 22 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


16

Diana María Agudelo - María Teresa Flórez - Carlos López - Jaime Palacio

1.2 Muestreo En marzo de 2011 se muestreó el sedimento superficial (20 cm) y el agua de la interfase agua - sedimento en las tres estaciones (figura 2 y tabla 1). Las muestras de sedimentos se tomaron por medio de una draga Eckman, se almacenaron en bolsas sello pack, previamente rotuladas y se refrigeraron hasta su tratamiento en el laboratorio. Las muestras de agua de interfase se tomaron mediante una botella Van dorn, se almacenaron en recipientes plásticos

de 20 litros y se refrigeraron hasta las pruebas de laboratorio. 1.3 Montaje en laboratorio El análisis de la transferencia de clorpirifos y TCP se realizó en columnas experimentales de 20 cm de diámetro, altura efectiva de 70 cm, con un volumen de trabajo de aproximadamente 22 litros. Las columnas se perforaron a 6, 11, 16, 26, 41 y

Figura 2. Localización de los sitios de muestreo. Fuente: elaboración propia.

Tabla 1. Características de las estaciones de muestreo. Descripción de la localización

Características generales

Estación

Latitud (N)

Longitud (W)

2

6°30’34.128”

75°30’23.648”

Confluencia quebrada Potreros, donde se hace uso extensivo de agroquímicos, Yerbabuena y río Chico en cultivos de papa, maíz y frijol.

5

6°30’4.997”

75°27’41.9”

Parte media brazo que- Zona afectada por los residuos agroindustriales, cultivos brada Las Ánimas de tomate de árbol y aguas residuales sin tratamiento de las viviendas localizadas en el área.

7

6°31’42.523”

Parte media brazo río Zona receptora de la mayoría de vertimientos de aguas reGrande siduales, agroquímicos y fertilizantes del Altiplano Norte. 75°27’47.303” Uso del suelo principalmente pastos para la ganadería y cultivos de tomate de árbol. Fuente: elaboración propia

Universidad de Medellín


Influencia de las condiciones fisicoquímicas del sedimento y la interfase agua-sedimento en la transferencia experimental ...

56 cm desde la base de la columna, con el objeto de evaluar los cambios de concentración. Las columnas se cubrieron para garantizar condiciones de oscuridad. 1.4 Variables fisicoquímicas En cada columna se establecieron las características mineralógicas, el tamaño de partícula, la humedad (%), la densidad (kg m–3), la porosidad y el carbono orgánico (%) en los sedimentos. En el agua de la interfase se midieron la temperatura (°C), el oxígeno disuelto (mg L–1) y la conductividad eléctrica (µS cm–1). Para evaluar el efecto del pH en la transferencia de los compuestos desde los sedimentos hacia el agua de la interfase, se montaron tres columnas con pH diferentes (5, 7 y 9) y un tratamiento con agua destilada (Tad) por estación. 1.5 Análisis cromatográfico Los analitos se extrajeron en fase sólida (SPE) mediante cartuchos de Florisil para la matriz sedimento, y cartuchos Isolute 101 para la matriz agua. La identificación y cuantificación de clorpirifos y TCP, se hicieron en un cromatógrafo de gases Trace GC Ultra MS 2030 Thermo Scientific, acoplado a un detector selectivo de masas ISQ 101130 Single Quadrupole. Para el análisis de TCP por cromatografía de gases se realizó una derivatización final con N - Metil - N - tert - butyldimetilsililtrifluoroacetamida (MTBSTFA). 1.6 Ensayos de transferencia Se inyectaron 9.5 mg/kg de clorpirifos en los sedimentos y luego se cuantificaron el clorpirifos y TCP en los sedimentos a 6, 11 y 16 cm de altura de la columna y en el agua de interfase a 26, 41 y 56 cm a las 0, 12, 24 y 168 horas. 1.7 Procesamiento y análisis de la información Los resultados fueron descritos con base en la media aritmética, la desviación estándar y el coefi-

17

ciente de variación. Adicionalmente, se exploró la relación entre las variables fisicoquímicas y las concentraciones de clorpirifos y TCP en cada matriz, mediante un análisis de componentes principales (ACP). Se realizó un análisis de varianza para establecer si existían diferencias espacio - temporales en las concentraciones del clorpirifos y el metabolito, en los sedimentos y en la interfase. El análisis fue ejecutado en el software STATGRAPHICS Centurión XVI. 2. RESULTADOS Mientras en los sedimentos procedentes de las estaciones 2 y 7 predominaron minerales y silicofósiles, en los sedimentos de la estación 5 prevalecieron los silicofósiles. En los sedimentos se registraron bajos contenidos de organominerales. Las medidas de tendencia central y dispersión de las variables fisicoquímicas de los sedimento se presentan en la tabla 2. De acuerdo con el análisis de varianza, el contenido de humedad en los sedimentos de las estaciones 2 y 5 no presentó diferencias estadísticamente significativas. Tabla 2. Variables fisicoquímicas del sedimento. Media Aritmética

Desviación estándar

Coeficiente de Variación (%)

76.25

5.59

7.34

6.04

1.19

19.77

2413.47

26.99

1.12

Arenas (%)

1.45

1.78

122.94

Limos (%)

44.56

9.25

20.76

Arcillas (%)

46.93

9.59

20.44

Variable Humedad (%) CO (%) Densidad (kg/m ) 3

Fuente: elaboración propia.

El mayor promedio en el contenido de carbono orgánico (CO) en los sedimentos se encontró en la estación 2 (7.25 %) y, además, se observaron diferencias estadísticamente significativas en el CO asociadas a la procedencia de los sedimentos. La densidad también presentó diferencias estadís-

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 13 - 22  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


18

Diana María Agudelo - María Teresa Flórez - Carlos López - Jaime Palacio

ticamente significativas, con un mayor promedio para la estación 7 (2442.2 kg/m3). La granulometría de los sedimentos mostró diferencias estadísticamente significativas para arenas, limos y arcillas, mientras que en la estación 5 se registró un mayor contenido de arenas, en las columnas con material procedente de las estaciones 2 y 7, predominó la fracción limosa. Como se evidencia en la tabla 3, se registraron condiciones hipóxicas en el agua de la interfase de las columnas experimentales, con un mayor promedio en la estación 2 (1.8 mg/L). La temperatura no varió en forma importante y se mantuvo en promedio en 21.5 °C. La conductividad eléctrica presentó diferencias significativas, con los valores más bajos en el agua de las columnas con el material de la estación 7 y los más altos para las columnas con material proveniente de la estación 5.

Tabla 3. Variables fisicoquímicas de la interfase agua - sedimento.

Variable

Media Aritmética

Desviación Coeficiente de estándar Variación (%)

Temperatura (°C)

21.63

0.63

2.93

Conductividad Eléctrica (µS/cm)

58.47

37.66

64.41

Oxígeno Disuelto (mg/L)

1.17

0.92

70.06

Fuente: elaboración propia

El comportamiento experimental de la concentración de clorpirifos y TCP en sedimento mostró un decaimiento exponencial con respecto a la profundidad y al tiempo. Sin embargo, la concentración de TCP aumentó a los 11 cm de profundidad (figuras 3 - A y 3 - B).

(A)

(B)

Figura 3. Superficie de respuesta de la concentración (µg.kg-1) de clorpirifos (A) y TCP (B) en sedimento. Fuente: elaboración propia.

(A)

(B)

Figura 4. Análisis de varianza para la concentración (µg.kg-1) del clorpirifos (A) y TCP (B) con respecto al pH. Fuente: elaboración propia.

Universidad de Medellín


Influencia de las condiciones fisicoquímicas del sedimento y la interfase agua-sedimento en la transferencia experimental ...

(A)

19

(B)

Figura 5. Superficie de respuesta de la concentración (µg.L-1) de clorpirifos y TCP en la interfase agua-sedimento. Fuente: elaboración propia.

No se presentaron diferencias estadísticamente significativas en las concentraciones de clorpirifos y TCP entre los tratamientos con diferentes valores de pH y el tratamiento con agua destilada (Tad) (figura 4). La concentración del clorpirifos en las columnas con valores de pH 7 y 9 alcanzó un valor medio mayor que en las columnas con tratamientos para pH 5 y Tad, mientras que para el TCP no se evidenció una tendencia definida. En el agua de la interfase agua - sedimento, el clorpirifos y el TCP no presentaron diferencias estadísticamente significativas con respecto a la profundidad de la columna. En consecuencia, el comportamiento de las concentraciones de estos dos compuestos depende fundamentalmente del tiempo y del pH. Como se observa en la figura 5 las mayores concentraciones de clorpirifos y TCP se encontraron en el tratamiento con agua destilada.

El pH presentó un efecto estadísticamente significativo sobre la concentración del clorpirifos y del TCP en la interfase agua - sedimento. El análisis de varianza mostró diferencias con respecto al tratamiento con agua destilada, lo que podría indicar una resistencia por parte de la interfase a la transferencia del plaguicida y su metabolito (figura 6). De acuerdo con el análisis de componentes principales (figura 7 - A) la fracción de arcillas tiene una relación directa con clorpirifos y TCP en sedimento, mientras que el pH y las fracciones de limos y arenas presentan correlaciones inversas. Como se evidencia en la figura 7 - B las concentraciones de clorpirifos y TCP en el agua de la interfase se relacionan directamente con el oxígeno disuelto e inversamente con la conductividad eléctrica, el pH y la temperatura.

3. DISCUSIÓN Los sedimentos de las columnas experimentales presentaron tamaños de partículas fundamental-

(A)

(B)

Figura 6. Efecto del pH en la concentración (µg.L-1) de clorpirifos (A) y TCP (B) en agua. Fuente: elaboración propia.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 13 - 22 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


20

Diana María Agudelo - María Teresa Flórez - Carlos López - Jaime Palacio

(A)

(B)

Figura 7. Análisis de componentes para las variables en sedimento (A) y agua de interfase agua-sedimento (B). Fuente: elaboración propia

mente limo - arcillosas, lo cual implica una fuerte adsorción del clorpirifos. Castro [10] sostiene que los plaguicidas organofosforados experimentan procesos de hidrólisis en la superficie arcillosa, debido a su interacción con el agua retenida en el interior de estas partículas [7]. La concentración de clorpirifos fue mucho mayor en el sedimento que en el agua en todos los muestreos, lo cual corrobora la adsorción del plaguicida. El carbono orgánico es responsable en gran medida de la adsorción de contaminantes orgánicos y metales [8]. Un promedio de 6.04 % del contenido de carbono orgánico sugiere importantes aportes de materia orgánica de los afluentes al embalse, especialmente en la confluencia de la quebrada Yerbabuena y río Chico (7.25 %) [9]. Estos aportes son producto de las actividades agroindustriales en la zona de influencia, al igual que del vertimiento de aguas residuales por parte de la población cercana al embalse. El contenido de carbono orgánico está frecuentemente asociado a partículas inorgánicas del sedimento, tales como las arcillas, formando complejos importantes que determinan las dinámicas de adsorción del sedimento [10]. De esta forma la transferencia bajo condiciones de laboratorio fue determinada en gran medida por el contenido de carbono orgánico de los sedimentos provenientes del embalse. Bajo condiciones de laboratorio, la temperatura 21.63 °C fue superior a los valores registrados en Universidad de Medellín

condiciones naturales (en promedio 16 °C). Este hecho pudo acelerar considerablemente el proceso, ya sea por aumento de la actividad microbiana o por la aceleración de los procesos fisicoquímicos que median la transformación, tales como la reducción de oxígeno o procesos de hidrólisis [10]. La conductividad eléctrica mostró incrementos importantes a través de los muestreos (coeficiente de variaciòn de 64.41 %), lo cual indica un aumento progresivo de los sólidos y un aporte constante de material desde el sedimento a la interfase en las columnas. Estos sólidos pueden poseer una gran capacidad de adsorción de compuestos orgánicos, debido a la naturaleza hidrofóbica de estas sustancias [11]. Por tanto, un aumento en la conductividad eléctrica puede sugerir una interacción importante entre las particulas suspendidas o disueltas en la interfase agua sedimento, con la adsorción de sustacias orgánicas como los plaguicidas. Tao et al. indicaron que valores bajos de pH favorecen la solubilización de clorpirifos en agua, reducen la adsorción en sedimento y aumentan su movilidad [12]. En las columnas experimentales, se evidenció la retención del clorpirifos en el sedimento a pH cercanos a la neutralidad y ligeramente alcalinos (pH 9). La estabilidad del clorpirifos en ambientes acuosos decrece al incrementar el pH [13], lo cual corrobora lo obtenido experimentalmente. Aunque no se presentó un comportamiento definido del TCP con respecto al pH, se ha estable-


Influencia de las condiciones fisicoquímicas del sedimento y la interfase agua-sedimento en la transferencia experimental ...

cido que las reacciones de hidrólisis de plaguicidas organofosforados como el clorpirifos, predominan a pH y temperaturas elevadas, y son catalizadas por cationes metálicos como Cu2+ y Mn2+ [7]. En consecuencia, se podría afirmar que las condiciones en el sedimento y en el agua de la interfase provenientes del embalse, y analizadas bajo condiciones de laboratorio, favorecen la degradación hidrolítica del clorpirifos. La degradación de clorpirifos en suelos aumenta al incrementarse el pH [14], lo cual sugiere que el proceso que predomina a valores de pH altos en las columnas y posiblemente en el embalse es la transformación del clorpirifos y no su transferencia entre las fases. La concentración de clorpirifos descendió a través del tiempo debido a los procesos de transformación en las columnas, los cuales se hicieron evidentes con la presencia de TCP. En todos los sitos de muestreo se presentó la mayor concentración de TCP al inicio del experimento, disminuyó a las 12h, aumento a las 24h y finalmente se redujo a las 168h. Este comportamiento sugiere en principio la degradación del clorpirifos, lo cual implica un aumento en la concentración de TCP y posteriormente una posible degradación del TCP en otros compuestos como 3, 5, 6 - tricloro - 2 - metoxipyridina, ácidos orgánicos, CO2 [15]. 4. CONCLUSIONES Las características fisicoquímicas de los sedimentos del embalse Riogrande II favorecen la inmovilización del clorpirifos en el sistema. Los valores de variables como el carbono orgánico, tamaño de partícula (predominancia de limos y arcillas), porosidad, humedad y densidad facilitan el proceso de adsorción del plaguicida y limitan su transferencia a la interfase. En contraste, la transferencia del TCP al agua de la interfase se favorece por su alta solubilidad. Las condiciones de hipoxia en la interfase agua - sedimento favorecen la degradación del clorpirifos, por lo cual la fracción transferida desde los

21

sedimentos podría sufrir una rápida degradación debido a la baja concentración de oxígeno presente. Por otro lado, el incremento de la conductividad con el tiempo de los ensayo puede afectar la adsorción del plaguicida por parte de los sólidos, lo que de igual manera afecta directamente la concentración del clorpirifos. De acuerdo con los resultados, se tiene que valores de pH cercanos a la neutralidad o ligeramente alcalinos (pH 7 y pH 9) en la interfase agua - sedimento favorecen la degradación del clorpirifos en el agua y la inmovilización de este en los sedimentos. Es decir el clorpirifos se transfiere a una baja tasa y la fracción que es transferida se degrada fácilmente, lo cual determina el incremento en la concentración de TCP en la interfase. 5. AGRADECIMIENTOS El estudio fue realizado en el marco del macroproyecto “Estudio de la problemática ambiental de tres embalses de empresas públicas de Medellín para la gestión integral y adecuada del recurso hídrico en los procesos de generación de energía y suministro de agua potable” liderado por el Grupo de Investigación en Gestión y Modelación Ambiental (GAIA) de Universidad de Antioquia y por el Posgrado de Recursos Hidráulicos de la Universidad Nacional de Colombia -  Sede Medellín y con la financiación de Empresas Públicas de Medellín. REFERENCIAS [1] J. Dickinson. Organización de las Naciones Unidas para la Agricultura - FAO. “Report on natural resources for food and agriculture in Latin America and the Caribbean”. FAO Environment and Energy Paper. N° 8, pp. 107, 1986. [2] Universidad de Antioquia. “Análisis de calidad del agua de los embalses y quebradas que abastecen el acueducto de EPM”. Grupo de Investigación en Gestión y Modelación GAIA, Grupo en ingeniería y gestión ambiental (GIGA), Grupo de Limnología básica y experimental, Medellín. 2002.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 13 - 22  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


22

Diana María Agudelo - María Teresa Flórez - Carlos López - Jaime Palacio

[3] J. Palacio. “Ecotoxicología acuática”. Imprenta Universidad de Antioquia. pp. 45 - 62, 2007. [4] D. Yanggen, C. Crissman, y P. Espinosa. “Los plaguicidas: impactos en producción, salud y medio ambiente en Carchi, Ecuador”. International Potato Center. 2003. [5] A World Compendium The Pesticide Manual. Fourteenth Edition. British Crop Production Council (BCPC). UK. pp. 1347, 2006. [6] NIST (National Institute of Standards and Technology). “Libro Web de Química”. Base de Datos de Referencia Estándar del NIST.http//webbook.nist.gov/chemistry/. No 69, 2005. (última entrada: noviembre 7 de 2011). [7] U. Mingelgrin, S. Saltzman, y B. Yaron. “A possible model for the surfaceinducted hydrolysis of organophosphorus pesticides on kaolinite clays”. Soil Sci. Soc. Am. J. Vol. 41, pp. 519  -  523, 1977. [8] A. N. Al  -  Ghadban, P. G. Jacob, y F. Abdali. “Total organic carbon in the sediments of the Arabian Gulf and need for biological productivity Investigations”. Marine Pollution Bulletin. Vol. 28, pp. 356  -  362, 1994. [9] M. Jacome de Solorzano, y L. Llanos de Bonilla. “Estudio de la materia orgánica en los sedimentos del río Jubones, en el área comprendida entre el puente La Iberia hasta su desembocadura”. Acta oceanográfica del pacifico. INOCAR. Ecuador 6 (1). 1990 [10] J. Castro. “Determinación, persistencia y distribución de insecticidas de uso agrícola en el medio ambiente”. Tesis doctoral. Universidad autónoma de Madrid. Facultad de ciencias. Departamento de Química Agrícola, Geología y Geoquímica. 2002.

Universidad de Medellín

[11] E. M. Perdue. “Chemical composition, structure and metal binding properties”. En: Hessen D. O. y Tranvik L. J. (eds). Aquatic Humic Substances: Ecology and Biogeochemistry. Springer  -  Verlag. Heidelberg, Alemania. pp. 41  -  61, 1998. [12] S. Tao, L. Guo, X. Wang, X. Liu, T. Ju, R. Dawson, J. Cao, F. Xu, y B. Li. “Use of sequential ASE extraction to evaluate the bioavailability of DDT and its metabolites to wheat roots in soils with various organic carbon contents”. Sci. Total Environ. Vol. 320, pp. 1  -  9. 2004. [13] T. Joo, M. Mohd, y N. Mohd. “Hydrolysis oh Chlorpyrifos in Aqueous solutions at diferent temperatures y pH”. The Malasian Journal of Analytical Sciences. Vol. 14, N° 2, pp. 50  -  55, 2010. [14] A. Vijaya, V. Madhavi, y G.Madhavi. “Remediation of chlorpyrifos contaminated soils by laboratory synthesized zero  -  valent nano iron (zvni) particles: effect of pH and aluminium salts”. International Journal of Chemistry Research. Vol. 3, N° 2, pp. 30  -  35, 2012. [15] B. Liu, L. McConnell, y A. Torrents. “Hydrolysis of chlorpyrifos in natural waters of the Chesapeake Bay”. Chemosphere. Vol. 44, N° 6, pp. 1315  -  1323, 2001.


Revista Ingenierías Universidad de Medellín

MODELO AUTORREGRESIVO BILINEAL APLICADO A LA PREDICCIÓN MENSUAL DE CAUDALES EN COLOMBIA Juan David Cadavid* Luis Fernando Carvajal ** Recibido: 03/11/2011 Aceptado: 25/10/2013 RESUMEN Se aplica un modelo estocástico bilineal, el cual inicialmente es propuesto para análisis de retornos financieros y otros sistemas complejos combinando la alta no linealidad y multiplicidad del ruido. Este modelo, por su carácter aleatorio, no tiene componente determinística que permita considerar la persistencia de los caudales en una aplicación a la Hidrología. Por lo tanto, se propone el acoplamiento entre la parte determinística de un modelo autorregresivo de orden 2 y el modelo estocástico bilineal como componente aleatorio, y se obtiene un modelo autorregresivo bilineal (MAB). El MAB se empleó para la predicción de caudales en ventanas de 3, 6 y 12 meses en 12 ríos de Colombia de diferentes regiones del país. El MAB tiene una estructura simple y muestra una mejora sustancial en la disminución de los errores para los caudales máximos y mínimos en el período de validación respecto de los modelos estocásticos tradicionales. Palabras clave: modelación estocástica, modelo autorregresivo bilineal, predicción de caudales.

*

Estudiante Posgrado en Ingeniería de Recursos Hidráulicos, Universidad Nacional de Colombia, Sede Medellín, Cra 80 x Calle 65, Bloque M2 – 303, Medellín, Colombia, e-mail: jdcadavia@unal.edu.co

**

Profesor Asociado, Universidad Nacional de Colombia, Sede Medellín, Cra 80 x Calle 65, Bloque M2 – 323, Tel: (574) 425 51 09, Fax: (574) 425 51 03, Medellín, Colombia, e-mail: lfcarvaj@unal.edu.co

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 23 - 34  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


24

Juan David Cadavid - Luis Fernando Carvajal

STREAM FLOWS IN COLOMBIA ABSTRACT A bilinear stochastic model is applied, which is initially proposed for analyzing financial returns and other complex systems by combining high non-linearity and multiplicity of noise. Due to its random character, this model does not have a deterministic component which allows considering persistence of stream flows in a hydrology application. Therefore, the combination of a deterministic segment of an order 2 auto-regressive model and the bilinear stochastic model as the random component, and a bilinear auto-regressive model (BAM) is obtained. The BAM was employed to predict stream flows in windows of 3, 6, and 12 months in 12 rivers from several regions of Colombia. The BAM exhibits a simple structure and shows a substantial improvement in error reduction for maximum and minimum flows during the validation period compared to traditional stochastic models. Key words: Stochastic modeling; bilinear auto-regressive model; stream flow prediction.

Universidad de MedellĂ­n


Modelo autorregresivo bilineal aplicado a la predicción mensual de caudales en Colombia

INTRODUCCIÓN Actualmente existen muchos modelos para la simulación de caudales, entre los que están: redes neuronales artificiales, análisis espectral singular, modelos de ajuste no lineal por partes, modelos de onditas, modelos adaptativos de regresión múltiple, modelos estocásticos (AR(p), MA(q), ARMA(p,q), ARIMA(p,i,q)) [1, 2, 3, 4], además de modelos derivados de estos. Estos modelos van desde consideraciones lineales hasta no lineales para la predicción de caudales. La alta no linealidad de los procesos físicos en una cuenca y que generan los caudales requiere de nuevos enfoques tanto en los modelos físicos como en los matemáticos. Además, se requiere que los modelos predigan mejor los caudales en condiciones de fenómeno ENSO (El Niño- Oscilación del Sur), el cual modula fuertemente el clima en Colombia [5]. En este artículo se hace el desarrollo de un modelo autorregresivo bilineal (MAB) el cual consta de una parte autorregresiva [1] que aporta la componente lineal y de persistencia hidrológica, y una parte bilineal [6, 7], que aporta la componente no lineal y de carácter estocástico. Este último modelo es propuesto inicialmente para sistemas complejos de multiplicidad del ruido y para retornos financieros. La motivación para proponer el MAB responde a la búsqueda dentro del campo de los modelos estocásticos del desarrollo de modelos que mejoren el desempeño en la predicción de caudales. Los modelos estocásticos, por ser lineales, se han quedado rezagados en su desempeño con respecto a otros modelos de inteligencia artificial, análisis espectral, modelos paramétricos, etc. El modelo que se presenta ofrece muy buenas expectativas ya que los resultados obtenidos son prometedores en un primer ejercicio de calibración y validación para 12 ríos en Colombia.

25

1 MARCO TEÓRICO 1.1 Modelo autorregresivo bilineal El modelo autorregresivo bilineal (MAB) es una combinación de la componente autorregresiva de un AR(p) y un modelo bilineal. La fundamentación del MAB no es diferente a la de los dos modelos mencionados. La aplicación del MAB requiere que las series de tiempo cumplan con estacionariedad y ergodicidad, y la generación de una componente estocástica con distribución normal, N (0, s2). La metodología para la estimación de los parámetros del modelo MAB es simple, se basa en la estimación de los parámetros del modelo autorregresivo [1, 7] y bilineal [6]. En el modelo bilineal los parámetros son b y la varianza s2 y la estandarización de la serie para su cálculo está determinada por la relación: æQ ö r (t ) = ln çç t ÷÷÷ çè Qt -1 ÷ø

(1)

Donde: r(t): Serie estandarizada para el cálculo de los parámetros del modelo bilineal. Para los parámetros b y s2 del modelo bilineal se emplearon las ecuaciones (2) y (3) [6]. b 2 3/ 2

(1 + b )

=

zt × zt -1 × zt -2

(

zt2

3/ 2

)

2 E éê r (t ) ùú = s 2 (1 + b 2 ) ë û

(2) (3)

Donde: zt–i: Estimadores del valor esperado en el instante t, con i = 0, 1, 2. E[r(t)]: Valor esperado de la serie estandarizada. El cálculo de los parámetros del modelo autorregresivo de orden p queda determinado por las ecuaciones de Yule-Walter [1]. Para el caso del

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 23 - 34  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


26

Juan David Cadavid - Luis Fernando Carvajal

modelo MAB de orden 2 el sistema de ecuaciones que determinan los parámetros de la componente autorregresiva son: r1 = f1 + f2 × r1

(4)

r2 = j1 × r2 + j2

(5)

Donde: ρi: Coeficiente de correlación, con i = 1, 2. φi: Parámetros del Modelo Autorregresivo, con i = 1, 2. Así la ecuación que rige el MAB de orden p es: Z (t ) = e (t ) + b × e (t -1)× e (t - 2) + j1 × Z t -1 +j2 × Z t -2 +  + j p × Z t - p

(6)

Donde: Z(t): Valor de la variable estandarizada en el instante t. e(t): Proceso de ruido blanco con distribución normal, N (0, s2). b: Parámetro de la componente bilineal. φp: Parámetros del modelo autorregresivo. 1.2 Independencia de las componentes del MAB La componente determinística o la autorregresiva del MAB deben ser independientes para asegurar que no exista correlación entre los caudales y el ruido blanco, y poder establecer un modelo como el que se plantea y estimar los parámetros tal como se hace para un AR(p), en este caso un AR(2). Para esto se presenta a continuación la independencia de la parte autorregresiva respecto de la estocástica. El análisis de la independencia de la componente autorregresiva para un AR(2) parte de la premultiplicación de la ecuación 6 por Zt–1 y se toman valores esperados a ambos lados de la ecuación. ée (t )× Z t -1 + b × e (t -1) ù ê ú ê 2 ú E [ Z t × Z t -2 ] = E ê× e (t - 2)× Z t -1 + j1 × Z t -1 ú ê ú ê+ j2 × Z t -2 × Z t -1 ú ë û Universidad de Medellín

Cov [ Z t × Z t -2 ] = j1 × s z2 + j2 × Cov [ Z t -2 × Z t -1 ] Cov [ Z t × Z t -2 ] s

2 z

= j1 +

j2 × Cov [ Z t -2 × Z t -1 ] s z2

r1 = j1 + j2 × r1

(8) (9) (10)

De igual forma obtenemos para Zt–2: r2 = j1 × r2 + j2

(11)

Las expresiones 10 y 11 son la mismas que se usan para la estimación de los parámetros de la componente determinística de un AR(2). 1.3 Media y varianza del MAB Es importante mostrar la media y la varianza del modelo planteado. Para el caso de la media se toma el valor esperado en cada miembro de la ecuación para un MAB de orden 2. ée (t ) + b × e (t -1)× e (t - 2)ù ú E [ Z t ] = E êê ú + × + × j Z j Z 2 t -2 ëê 1 t -1 ûú

(12)

E [ Z t ] = E éëe (t )ùû + b × E éëe (t -1)× e (t - 2)ùû + j1 × E [ Z t -1 ] + j2 × E [ Z t -2 ] E [ Z t ] = 0 + b × 0 + j1 × 0 + j2 × 0

(13) (14)

Es decir, E[Zt ] = 0, el ruido de carácter bilineal no afecta la media del proceso. Para la varianza del proceso se multiplica a ambos lados del MAB de orden 2 por Zt y se toma el valor esperado: E éêë Z t2 ùúû = E éë Z t × e (t )ùû + b × E éë Z t × e (t -1)× e (t - 2)ùû +j1 × E [ Z t × Z t -1 ] + j2 × E [ Z t × Z t -2 ] (15)

(7) E éë Z t × e (t )ùû = 0

(16)


Modelo autorregresivo bilineal aplicado a la predicción mensual de caudales en Colombia

E éë Z t × e (t -1)× e (t - 2)ùû = 0

(17)

E [ Z t × Z t -1 ] = r1

(18)

y E [ Z t × Z t -2 ] = r 2

Por lo tanto, la varianza del proceso Zt queda de la siguiente forma: s z2 = j1 × r1 + j2 × r2

(19)

La ecuación 19 corresponde a la varianza de un proceso AR(2) en su parte determinística. La componente aleatoria e(t) tiene distribución normal con media cero y varianza s2, N(0,s2). De aquí se deduce que la varianza del proceso no está afectada por el ruido bilineal. 2 DESCRIPCIÓN DE LA INFORMACIÓN 2.1 Características del régimen de caudales en Colombia Colombia se encuentra ubicada en la esquina noroccidental de América del Sur, sobre la línea ecuatorial, en plena zona tórrida. No obstante, la mayor parte de su extensión se encuentra en el hemisferio norte. Las fronteras y áreas de influencia climática son el Atlántico tropical y el mar Caribe por el norte, el Pacífico ecuatorial por el oeste, la zona andina del Ecuador y la vertiente del Amazonas por el sur, y los Andes y los llanos venezolanos con el norte brasileño por el este. Ocasionalmente hay influencia de frentes de latitud media, tanto del hemisferio sur como del norte; la posición de las respectivas corrientes de chorro en ambos hemisferios es otro factor extratropicale a considerar. Hacia el este se tienen las perturbaciones tropicales del este que se originan en África. Y del oeste se tiene la influencia del Pacifico que alcanza hasta el Índico y la zona de monzones en el subcontinente Índico y el sureste asiático [5]. Regionalmente, Colombia tiene una gran variabilidad de climas, debido a los factores generales de circulación global y del cambio en la posición

27

aparente del Sol durante el año, la topografía, la convección profunda, la cercanía de las costas y la vegetación. Estos factores y su interrelación generan el clima colombiano, dado que la circulación es débil en lo que se refiere a la presión, temperatura, humedad y velocidad del viento [5]. 2.2 Ubicación y registro de caudales medios mensuales El estudio de las series de caudales medios mensuales se centra en la región Andina, parte de la región del Caribe y la Orinoquia. Las series de caudales de estas regiones presentan ciclos unimodales para Batá y Guavio, y ciclos bimodales para Guadalupe, Guatapé, Magdalena, Miel, Nare, Riogrande, Salvajina, San Carlos, San Lorenzo y Urrá, esto debido a los aspectos climatológicos y orográficos del territorio colombiano (ver figura 1). El comportamiento de la ZCIT genera en la zona andina un régimen de caudales bimodal. En la zona oriental la topografía de piedemonte y el régimen de los vientos alisios generan un régimen de caudales unimodal. Las estaciones de caudales consideradas se muestran en la tabla 1. Tabla 1. Registro de las estaciones de caudales. Estación

Departamento

Año Inicio

Final

1. Batá

Boyacá

1956

2006

2. Guadalupe

Antioquia

1952

2006

3. Guatapé

Antioquia

1959

2006

4. Guavio

Cundinamarca

1963

2006

5. Magdalena

Neiva

1961

2006

6. Miel

Caldas

1963

2006

7. Nare

Antioquia

1956

2006

8. Riogrande

Antioquia

1952

2006

9. Salvajina

Cauca

1952

2006

10. San Carlos

Antioquia

1965

2006

11. San Lorenzo

Antioquia

1956

2006

12. Urra

Córdoba

1960

2006

Fuente: elaboración propia.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 23 - 34  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


28

Juan David Cadavid - Luis Fernando Carvajal

Figura 1. Localización de las estaciones de caudales. Fuente: elaboración propia.

3 APLICACIÓN DEL MODELO El MAB fue empleado para la predicción de series de caudales mensuales sobre 12 ríos en diferentes regiones de Colombia. En la sección 3.1 se presenta la calibración del modelo y los resultados de la validación. Para la validación se hicieron 20 ejercicios de predicción para cada ventana y río, obteniéndose los errores mínimo, y se obtuvieron los errores mínimo, medio y máximo así como el promedio de las 20 predicciones (ver tablas 2 y 3).

Universidad de Medellín

3.1 Calibración y validación del modelo autorregresivo bilineal La estimación de los parámetros del MAB para cada río se hizo de acuerdo con el numeral 2.1, (ver tabla 2). La validación del modelo se trabajó con los registros de las series descritas en la tabla 1. Se tomó % del total de la serie de caudales medios mensuales un 70 % para realizar la calibración del modelo y un 30 % para el proceso de validación del mismo. La validación se hizo para las ventanas de predicción de 3, 6 y 12 meses sobre las estaciones mencionadas, y se calculó la raíz del error cuadrático promedio (ver tabla 3).


Modelo autorregresivo bilineal aplicado a la predicción mensual de caudales en Colombia

A continuación se presentan los ajedreces de predicción que significan el error porcentual del período de validación (figuras 2 a 10). En las abscisas se da el mes de inicio de la predicción, y en las ordenadas encontramos la ventana de predicción. Estos ajedreces permiten observar cómo cambia el error en el período de validación para cada mes predicho según el mes de inicio de la predicción. Las figuras 11 a 13 muestran las predicciones obtenidas para los ríos Guatapé, Magdalena y Riogrande en las tres ventanas de predicción de 3, 6 y 12 meses.

Φ1

Φ2

Batá

0,0038

0,400

0,052

Guadalupe

0,0039

0,531

0,198

Guatapé

0,0038

0,445

0,198

Guavio

0,0037

0,369

0,053

Magdalena

0,0037

0,385

0,128

b

Φ1

Φ2

Miel

0,0038

0,496

0,138

Nare

0,0040

0,598

0,136

Ríogrande

0,0039

0,521

0,251

Salvajina

0,0039

0,559

0,116

San Carlos

0,0036

0,350

0,299

San Lorenzo

0,0038

0,483

0,227

Urra

0,0038

0,494

0,089

Fuente: elaboración propia.

4 ANÁLISIS DE RESULTADOS Y CONCLUSIONES La aplicación del MAB a la predicción mensual de series de caudales en Colombia superó las expectativas dentro de los modelos de carácter estocástico, ya que siendo un modelo simple es capaz de capturar la dinámica de los caudales con una buena aproximación para ventanas de 3, 6 y 12 meses. Además, este modelo es parsimonioso respecto a otros modelos más estructurados y empleados para los mismos fines.

Parámetros - Ventana 3, 6 y 12 meses b

Parámetros - Ventana 3, 6 y 12 meses

RÍO

Tabla 2. Parámetros del MAB para los 12 ríos de Colombia RÍO

29

Tabla 3. Raíz del error cuadrático medio en porcentaje en el período de validación RIO

Ventana 3 meses

Ventana 6 meses

Máximo Mínimo

Media

Ventana 12 meses

Mínimo

Media

Máximo Mínimo

Media

Máximo

1. Batá

25

33

43

25

34

53

25

35

53

2. Guadalupe

11

23

39

11

25

39

11

27

39

3. Guatapé

15

23

37

14

25

41

14

27

41

4. Guavio

21

32

60

21

33

59

19

33

59

5. Magdalena

16

27

52

16

28

52

16

28

52

6. Miel

12

27

41

12

28

42

12

29

43

7. Nare

18

28

42

18

31

47

18

33

47

8. Riogrande

13

25

39

13

28

46

13

30

48

9. Salvajina

13

28

47

13

30

56

13

32

56

10. San Carlos

14

34

55

14

36

60

14

37

63

11. San Lorenzo

17

29

59

17

31

60

17

31

60

12. Urra

12

25

56

12

26

62

10

27

62

Fuente: elaboración propia.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 23 - 34  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


30

Juan David Cadavid - Luis Fernando Carvajal

Figura 2. Error porcentual en el periodo de validación para la ventana de 3 meses del río Guatapé. Fuente: elaboración propia

Figura 3. Error porcentual en el periodo de validación para la ventana de 6 meses del río Guatapé. Fuente: elaboración propia.

Figura 5. Error porcentual en el periodo de validación para la ventana de 3 meses del río Magdalena. Fuente: elaboración propia.

Figura 6. Error porcentual en el periodo de validación para la ventana de 6 meses del río Magdalena. Fuente: elaboración propia.

Figura 4. Error porcentual en el periodo de validación para la ventana de 12 meses del río Guatapé.

Figura 7. Error porcentual en el periodo de validación para la ventana de 12 meses del río Magdalena.

Fuente: elaboración propia.

Fuente: elaboración propia.

Universidad de Medellín


Modelo autorregresivo bilineal aplicado a la predicción mensual de caudales en Colombia

Figura 8. Error porcentual en el periodo de validación para la ventana de 3 meses del Ríogrande.

Figura 9. Error porcentual en el periodo de validación para la ventana de 6 meses del Ríogrande.

Fuente: elaboración propia.

Fuente: elaboración propia.

31

Figura 10. Error porcentual en el periodo de validación para la ventana de 12 meses del Ríogrande. Fuente: elaboración propia.

Figura 11. Validación del río Guatapé para las ventanas de 3, 6 y 12 meses. Fuente: elaboración propia.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 23 - 34 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


32

Juan David Cadavid - Luis Fernando Carvajal

Figura 12. Validación del río Magdalena para las ventanas de 3, 6 y 12 meses. Fuente: elaboración propia.

RÍOGRANDE 70 60

C a u d a l [m 3/s]

50 40

30 20 10 0 Ene-92

Feb-93

Mar-94

Abr-95

May-96

Jun-97

Jul-98

Sep-99

Oct-00

Nov-01

Dic-02

Ene-04

Feb-05

Periodo Validación [Años] Caudal Real

Qs V3M

Qs V6M

Qs V12M

Figura 13. Validación de Ríogrande para las ventanas de 3, 6 y 12 meses. Fuente: elaboración propia.

Los parámetros estimados del MAB a cada uno de los ríos en su componente determinística muestran la persistencia hidrológica de los caudales. Solo se calibró el modelo para un AR(2), ya que para los ejercicios de predicción en Colombia este rezago ha mostrado ser adecuado. Respecto al parámetro b de la componente bilineal todos los ajustes muestran un valor similar alrededor de 0,0039. Es un valor bajo pero la componente bilineal, e(t-1)e(t-2), es no lineal y le introduce al modelo MAB un peso Universidad de Medellín

importante, lo que hace que la respuesta sea mejor que un AR(2) tradicional. Regionalmente, las estaciones presentan errores similares dentro de la aplicación de los modelos: los ríos Batá, Magdalena y Guavio tienes errores medios de alrededor del 30 %; Nare y San Lorenzo de un 29 %, y Guadalupe y Riogrande alrededor de 26 % en el error medio. En cuanto a los errores mínimos y máximos, los valores mínimos se obtienen para los ríos de Antioquia,


Modelo autorregresivo bilineal aplicado a la predicción mensual de caudales en Colombia

es decir, Riogrande, Guatapé, Nare, San Carlos, San Lorenzo y Guadalupe. Igualmente para el río Miel en Caldas.

Como era de esperarse, el comportamiento de los errores medios y máximos aumenta a medida que lo hace la ventana de predicción, no superando en el mayor caso una diferencia del 5 % para el error medio y del 8 % para el error máximo. En cuanto a la variación del error mínimo se observa que prácticamente se puede considerar un comportamiento constante, es decir, este error es independiente de la longitud de la ventana de predicción. Se puede concluir que el modelo se muestra bastante robusto para un río en sus tres diferentes ventanas de predicción. Los ajedreces de error en el período de validación, figuras 2 a 10, muestran un patrón general. Los períodos de menores errores de predicción se obtienen para los meses de mitad de año. También se presenta una banda de errores máximos que se desplaza en forma constante a lo largo del año y una concentración de los errores máximos para los primeros meses de predicción al final de año calendario. El modelo autorregresivo bilineal incluye una componente no lineal que genera que la componente aleatoria, cuya distribución queda determinada completamente por la formulación del modelo, sea capaz de representar de forma parcial los eventos extremos en la serie y así los máximos y mínimos se acercan más a los valores reales. Este hecho hace que la magnitud de los errores se reduzca considerablemente. En conclusión este artículo presenta un modelo (MAB) que tiene como componente determi-

33

nística la parte autorregresiva de un AR(2) y como componente estocástica una bilineal que depende de una distribución normal, característico de los modelos estocásticos. La característica fundamental del MAB es que introduce la no linealidad a través de la parte bilineal. Este modelo mostró su bondad en el ejercicio de validación obteniendo errores muy por debajo a los obtenidos con los modelos estocásticos tradicionales, cuya característica fundamental es la linealidad del proceso. REFERENCIAS [1] G. E. P. Box, G.M. Jenkins and G.C. Reinsel. Time Series Analysis: Forecasting and Control. New Jersey, John Wyley and Sons, Fourth Edition, 2008, 746 p. [2] N. Matalas. Mathematical assessment of synthetic hydrology. Water Resources Research 3(4), 1967, pp. 937-945. [3] J. Moreno y J. E. Salazar. Generación de series sintéticas de caudales usando un modelo Matalas con medias condicionadas. Universidad Nacional de Colombia. Avances en Recursos Hidráulicos – Número 17, Medellín, pp. 17-24, mayo de 2008. [4] Coulibaly P. and C. K. Baldwin. Nonstationary hydrological time series forecasting using nonlinear dynamic methods. Journal of Hydrology 3007, pp. 164-174, 2005. [5] Mesa, O, Poveda, G. y L. F. Carvajal, 1997. Introducción al Clima de Colombia, Universidad Nacional de Colombia, 1997, 390 p. [6] Sornette, D. and V. F. Pisarenko. Properties of a simple bilinear stochastic model: Estimation and predictability. Physica D: Nonlinear Phenomena, Vol 37, issue 4, pp. 429-445, April 2008. [7] J. E. Salazar y O. Mesa. Aplicación de dos modelos no lineales al estudio de series temporales en hidrológica. Tesis de Maestría en Ingeniería - Recursos Hidráulicos. Universidad Nacional de Colombia, 1994, 114 p.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 23 - 34  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


Revista Ingenierías Universidad de Medellín

CONSUMO DE COMBUSTIBLE EN VEHÍCULOS PARA TRANSPORTE POR CARRETERA –MODELOS PREDICTIVOS– John Jairo Posada Henao* Carlos A. González - Calderón** Recibido: 22/10/2012 Aceptado: 25/10/2013 RESUMEN En este artículo se presentan modelos para la estimación del consumo de combustible en vehículos para transporte por carretera, con base en literatura especializada del tema y de costos de operación vehicular en los cuales está inmerso el combustible necesario para la locomoción de los vehículos. El consumo de combustible está asociado a variables como las características del vehículo, carga transportada y carretera por la que se circula, por lo que se considera dentro de la estructura de costos de operación vehicular como una componente variable, representando entre el 20 % y 60 % de estos costos. Para su cuantificación existen métodos directos e indirectos que han permitido la creación de algunos modelos que predicen, con cierto grado de exactitud, el consumo para condiciones particulares de operación de los vehículos, los cuales deben ser adaptados a las condiciones particulares de cada lugar. Palabras clave: consumo de combustible, costo de operación vehicular, modelos de predicción, evaluación de proyectos.

*

Ingeniero Civil – Especialista en Vías y Transporte – PhD en Ingeniería. Profesor Asociado, Departamento de Ingeniería Civil, Facultad de Minas, Universidad Nacional de Colombia – Sede Medellín. Carrera 80 65-223 Bloque M5, Tel: 4+4255183, Fax: 4+4255152, jjposada@ unal.edu.co

**

Ingeniero Civil, Magíster en Ingeniería – Infraestructura y Sistemas de Transporte, Master of Engineering – Transportation. Profesor Universidad de Antioquia. Research Assistant – Center for Transportation, Infrastructure and the Environment Rensselaer Polytechnic Institute. 110 8th Street, Room JEC 4037, Troy, NY 12180 USA. Phone: +1 518-276-3121. Fax: +1 518-276-48331. gonzac4@rpi.edu

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 35 - 46  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


36

John Jairo Posada Henao - Carlos A. González-Calderón

FUEL CONSUMPTION IN VEHICLES FOR HIGHWAY TRANSPORTATION – PREDICTIVE MODELS ABSTRACT This article deploys models intended for estimating fuel consumption in vehicles for highway transportation, based on literature specialized in this topic and vehicle operation costs which include the fuel needed for reaching vehicle locomotion. Fuel consumption has been associated to variables such as vehicle characteristics, transported load, and circulation highway, so fuel consumption is deemed as a variable component within the vehicle operation costs structure, accounting for 20% and 60% of such costs. For its quantification, there are direct and indirect methods which can be used which allow creating some prediction models which, with a certain degree of accuracy, may predict consumption for specific operation conditions of vehicles which should be adjusted to certain conditions of each site. Key words: Fuel consumption; vehicle operation costs; prediction models; project evaluation.

Universidad de Medellín


Consumo de combustible en vehículos para transporte por carretera –modelos predictivos–

INTRODUCCIÓN Al considerar el ciclo de vida de una carretera, los costos de operación vehicular son el componente más significativo del costo total. El consumo de combustible es el mayor componente en estos costos de operación vehicular [1]; de otro lado en la mayoría de los países el transporte por carretera es el principal modo de transporte [2]. El consumo de combustible es un importante elemento dentro del costo de operación de un vehículo que puede incluso, para algunos tipos de vehículos en algunas regiones, representar hasta el 50 % de los costos de transporte por unidad vehicular [3 - 6]. Desde que se inventó el vehículo, se han realizado numerosas investigaciones [7 - 36] tendentes a conocer el consumo de combustible utilizado para su locomoción y mejor, aún, a predecirlo. Como ejemplo, Agg [7] investigó el consumo de combustible y Moyer y Winfrey [8] fueron los primeros en realizar encuestas y estudios de costos operacionales en vehículos. Recientemente estos estudios se han orientado a conocer el efecto que en el consumo de combustible tienen aspectos como velocidad, geometría vial y estado del pavimento, entre otros. Inicialmente los investigadores usaron datos empíricos gruesos que posteriormente se han remplazado por resultados de estudios experimentales en los cuales se ha relacionado el consumo de combustible con las condiciones específicas de operación y modelación usando una aproximación empírica. En las últimas épocas se ha modelado el consumo de combustible usando principios mecanicistas que lo relacionan con las fuerzas de oposición al movimiento [1]. Para calcular el consumo de combustible se recurre a modelos de estimación estadística o mecanicista; los primeros son económicos y sencillos de construir, y los segundos requieren gran cantidad de recursos para su desarrollo y formulación [4]. Lo actual de estos modelos es que sean de tipo meca-

37

nicista y se consideran parte integral de otros cuyo objeto es apoyar la evaluación técnica y económica de proyectos viales. 1. LOS MODELOS Los modelos de evaluación técnico - económica han surgido para hacer más ágil, eficiente y segura la distribución de los recursos en el área vial, debido a la situación que se origina a partir de que los recursos asignados ese sector son cada vez más escasos, las carreteras se van envejeciendo y el tránsito en volumen y carga, que los solicita y deteriora, aumenta cada vez más. Estos modelos determinan la alternativa óptima de inversión, entre alternativas de diseño, construcción y mantenimiento que se consideren, utilizando el principio de minimización del costo total del transporte, concepto que ha ganado consenso entre administradores, economistas e ingenieros en los países desarrollados y economías emergentes [37]. La metodología de estos modelos contempla la interacción entre los componentes del costo de transporte (estudios y diseños, construcción, operación, mantenimiento, expansión, y de los usuarios de los vehículos), para obtener el menor costo total. Estos costos no son independientes, tienen una relación que es determinante al calcularlos. El costo de los usuarios se compone por los de operación de los vehículos (VOC, por sus siglas en Inglés) y del tiempo de viaje, seguridad y accidentes, y comodidad. Al seleccionar la mejor alternativa de inversión, los costos de los usuarios son cerca del 90 % del costo total de transporte en carreteras de dos carriles con pocos miles de vehículos diarios [38]. El costo de operación de los vehículos es el asociado con la propiedad, operación y mantenimiento del vehículo, e incluye el costo por consumo de combustible y lubricantes, desgaste de neumáticos, repuestos, mano de obra en mantenimiento, depreciación e interés, licencias, seguros y salario de la tripulación, entre otros.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 35 - 46  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


38

John Jairo Posada Henao - Carlos A. González-Calderón

Los modelos VOC se basan en que el consumo de recursos y la velocidad de los vehículos dependen de características de los vehículos y de variables relativas al diseño, construcción y mantenimiento de la carretera, que pueden controlarse según las decisiones de inversión tales como pendiente, curvatura, peralte y rugosidad, entre otras. El objetivo de estos modelos VOC es simular los efectos de las características físicas y la condición de la carretera sobre el consumo de recursos de los vehículos. Al considerar las características de carretera, antes y después de alguna intervención, se puede con los modelos VOC determinar el costo total de usuario asociado a cada opción y luego comparándolos se obtienen los beneficios logrados por la intervención prevista. Entre los beneficios más importantes obtenidos por las mejoras realizadas en un sistema carretero está la reducción en el consumo de combustible con el uso de modelos precisos y sencillos, para su determinación; sobre todo cuando se requiere diseñar y evaluar acciones de administración de carreteras y específicamente de pavimentos [3, 4]. De esta manera surgen los modelos para la determinación en forma predictiva del consumo de combustible en los vehículos automotores. El consumo de combustible es influenciado por la geometría y condición de la carretera, por las condiciones de circulación y el tipo de vehículo [39], y también por las características del conductor y del ambiente en el cual se encuentra inmerso [6]. Para predecir el consumo de combustible se recurre a modelos de estimación estadística o empíricos, y los mecanicistas [4]. Los de estimación estadística, que han sido los más usados, surgen de relacionar, mediante técnicas como la regresión, el consumo, con las características geométricas y estado de una carretera; su obtención es económica y sencilla, y su limitación o problema está en la elección y uso de la técnica de regresión. Los modelos mecanicistas se fundamentan en tener en cuenta las

Universidad de Medellín

fuerzas que están involucradas en el movimiento de los vehículos, considerando así la energía necesaria para lograr el movimiento; estos modelos están libres de muchas limitaciones y se pueden adaptar más fácilmente a entornos diferentes a aquel en el cual fueron creadas. Es necesario calibrar cualquier modelo cuando su aplicación es en condición diferente al de su elaboración, ya que aspectos como las condiciones particulares de estudio, desactualización o alcance alteran, y seriamente en algunos casos, el proceso de elección de alternativa produciendo resultados alejados de la realidad. Los modelos de costo de operación vehicular poseen, entre otros, aspectos relacionados con la región en la que fueron desarrollados, tecnología del vehículo, comportamiento del conductor y decisiones del operador de flota, por lo que no escapan de tener que ser calibrados [3]. A continuación se describen algunos de los modelos más conocidos para estimar el consumo de combustible de vehículos que utilizan combustible tipo gasolina o aceite combustible para motores (ACPM) para su locomoción. 1.1 Modelos empíricos También conocidos como clásicos o de estimación estadística. Una aproximación a los modelos para costos de operación vehicular considera para cada componente, como el combustible, las características de la carretera con análisis de datos por la técnica de los mínimos cuadrados teniendo un término de error [3], como se muestra en la ecuación (1). c = (x * f ) + e

(1)

Donde: c = costo o consumo del elemento x = vector de características de la carretera f = vector de coeficientes e = error. El error “e” no puede estar correlacionado con


Consumo de combustible en vehículos para transporte por carretera –modelos predictivos–

“x”, usualmente “f” se determina por mínimos cuadrados, y es posible que “c” se remplace por log(c) con el fin de facilitar la obtención de resultados de manera lineal, por lo que el modelo será semilogarítmico, y puede presentar un mejor ajuste. Otros estudios plantean que el consumo de combustible es función solo de la velocidad del vehículo [3], y se establece la relación funcional que se muestra con la ecuación (2): F = a + b / V + c *V 2

(2)

39

entre 40 y 60km/h, con el mínimo de consumo [1]. El coeficiente “a” es función de características de la carretera y del vehículo en las cuales tienen participación el peso y la relación peso/potencia del vehículo [3]. Se muestra en la ecuación (3) otra expresión obtenida con pruebas de laboratorio [41]. L = a + b *V + c *V 2 + d *V 3

(3)

Donde: L = consumo en lt/km V = velocidad media en km/h

Donde: F = consumo de combustible por unidad de distancia a, b y c = coeficientes V = velocidad del vehículo El consumo de combustible tiene comportamiento de curva en “U” [40], como se muestra en la figura 1, en el que el mayor consumo de combustible se presenta a velocidades relativamente altas o bajas, y un valor mínimo cuando la velocidad del vehículo es igual a (b/2c)1/3 [3]; o bien una denominada velocidad “óptima”, generalmente

a, b, c y d son parámetros definidos para cada tipo de vehículo Con (3) se tiene comportamiento del consumo de combustible similar al que se ilustra en la figura 1, es decir, en forma de “U”; aunque no es muy adecuado debido a que sus resultados no se han validado con datos reales de vehículos en operación. Un avance en el desarrollo de estos modelos se evidencia con la ecuación (4) [1, 40] que igualmente muestra, como la figura 1, que el consumo de combustible es en forma de “U”. El avance citado corresponde a que se considera en forma explícita

Figura 1. Efecto de la velocidad sobre el consumo de combustible en automóviles Fuente: [40] y elaboración propia

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 35 - 46 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


40

John Jairo Posada Henao - Carlos A. González-Calderón

la pendiente de la carretera y el estado superficial del pavimento, como variables significativas. Fc = a0 +

a1 + a2V 2 + a3 R + a4 F + a5 IRI V

(4)

Donde: Fc: consumo de combustible (lt/1000km) V: velocidad del vehículo (km/h) R: promedio de subidas de la carretera (m/km) F: promedio de bajadas de la carretera (m/km) IRI: rugosidad en la escala del IRI  -  Índice de Regularidad Internacional  -  (m/km) ai: parámetros del modelo Los modelos estadísticos clásicos, los más utilizados, han surgido de bases de datos obtenidas con encuestas, consultas a transportadores y trabajos experimentales en los que se relacionan el consumo de combustible con las características geométricas y de estado de la carretera mediante técnicas de regresión lineal múltiple. Son económicos y sencillos de construir, no involucran gran cantidad de variables, pero requieren buena base de datos. Por lo general son estadísticamente significativos y conceptualmente válidos. Las limitaciones más comunes de estos modelos están asociadas a la técnica de regresión; por ejemplo, la aplicación de un modelo estadístico es válida solo para el vehículo considerado en la modelación, rango de variables analizado, y región donde fue desarrollado, no siendo posible utilizarlo para condiciones diferentes (los resultados no se pueden extrapolar). Esta limitación se acentúa si se desean introducir cambios por avances tecnológicos, o remplazar alguno de sus componentes, por lo que se debe realizar una nueva modelación [4]. 1.2 Modelos mecanicistas Los modelos mecanicistas, modernos para estimar el consumo de combustible de los vehículos, emplean principios que relacionan el consumo Universidad de Medellín

de combustible con las fuerzas que actúan sobre el vehículo. Los más exactos son utilizados por diseñadores y fabricantes de vehículos para evaluar la sensibilidad del consumo ante cambios en componentes del motor, cuerpo del vehículo o características aerodinámicas. Estos modelos, llamados de “mapeo del motor”, requieren datos particulares y específicos que generalmente no son públicos. Además están asociados normalmente a un tipo de vehículo lo que hace difícil su uso en el área de evaluación de proyectos o de gestión de pavimentos [4], en la que se necesita conocer el consumo de una flota vehicular. Los modelos comunes de tipo mecanicista relacionan el consumo instantáneo de combustible (ml/s) con las fuerzas que actúan sobre el vehículo en su movimiento [42]. Para calcular el consumo de combustible se relaciona este con la energía requerida para vencer las fuerzas que se oponen al movimiento, obteniendo un modelo en función de la resistencia del aire, pendiente, curvatura, rodadura e inercia del motor y del vehículo. Estudios hechos indican que las fuerzas que se deben considerar para la determinación del consumo de combustible, y otros aspectos que deben ser tenidos en cuenta son [1, 39, 40]: • Fuerzas de oposición al movimiento: la inercia por ejemplo • Fuerzas internas del vehículo: la fricción interna de las partes del vehículo • Velocidad del motor: efectos por cambio en la velocidad del motor (revoluciones) • Apropiado cálculo del consumo por eventos de aceleración y desaceleración • Aplicable a diferentes vehículos: diferentes tipología y tecnología Los modelos mecanicistas no tienen limitaciones, ya que pueden considerar cambios tecnológicos y ser aplicados a otros ambientes, siendo su mayor ventaja que poseen una mayor flexibilidad de apli-


Consumo de combustible en vehículos para transporte por carretera –modelos predictivos–

cación modificando el parámetro de interés sin necesidad de realizar nuevos ensayos. La principal desventaja de estos modelos es que requieren gran cantidad de recursos para su desarrollo y formulación [4]. Tres grandes estudios se han hecho para desarrollar modelos mecanicistas: el estudio auspiciado por el Banco Mundial para el Highway Design and Maintenance Standars Model (HDM - III), investigación en Sur África, y en Australia [39], en los que se usó la magnitud de las fuerzas que se oponen al movimiento como base para las predicciones. En los estudios de Sur África y Australia se pretendió obtener un factor de eficiencia. El consumo de combustible fue el producto del total de potencia requerida para vencer fuerzas de oposición al movimiento, y este factor de eficiencia [40]. El modelo del HDM - III se ha considerado como mecanicista híbrido, ya que usa como base para sus cálculos las fuerzas que se oponen al movimiento y luego recurre al uso de una serie de parámetros de regresión para convertir dichas fuerzas en consumo de combustible. A diferencia del modelo de Sur África, Greenwood [40] explica que este explícitamente considera la velocidad del motor, aunque adopta un valor constante. Otros modelos son: Australian Road Fuel Consumption Model (ARFCOM) es un modelo mecanicista cuya ventaja es que permite conocer el consumo de combustible en ralentí (motor funcionando pero caja de velocidades en neutro) [39]. El International Study of Highway Development and Management –ISOHDM– se realizó para ampliar el ámbito del HDM - III y armonizar los sistemas de gestión de carreteras con software adaptable a las necesidades de los administradores de carreteras [43]; el principal resultado es la Herramienta para Desarrollo y Gestión de Carreteras (Highway Development and Management Tool) –HDM - 4–, con

41

el que el ámbito de aplicación del sistema HDM se ha ampliado pues supera las evaluaciones tradicionales de proyectos, y proporciona un potente sistema para el análisis de gestión y de alternativas de inversión en carreteras; su uso inició en el año 2000. A continuación se presentan los modelos más representativos destacando su importancia, como los de HDM - III y HDM - 4 por ser considerados los mejores y por el apoyo y casi exigencia que hace el Banco Mundial para que los proyectos carreteros sean evaluados con estos modelos [44]. Por ejemplo Zaabar y Chatti [22] calibraron el modelo HDM - 4 para estimar el efecto de la rugosidad del pavimento en el consumo de combustible para las condiciones de USA. 1.2.1 Modelo del HDM - III Este modelo emplea un principio básico de los motores de combustión interna: bajo condiciones ambientales ideales como temperatura ambiente, presión y humedad constantes, el consumo de combustible por unidad de tiempo se puede expresar como función de la potencia de salida y las revoluciones del motor [38], con la ecuación (5): UFc = f ( HP; RPM )

(5)

Donde: UFc: consumo instantáneo de combustible (ml/s) HP: potencia aplicada en las ruedas (HP) RPM: velocidad del motor en revoluciones (rpm) Los datos para determinar la función de consumo de combustible del modelo HDM - III se obtuvieron experimentalmente para 11 vehículos. El ensayo consideró observar el consumo en ambos sentidos sobre tramos de longitud definida con pendiente constante y diferentes niveles de carga, manteniendo constante la velocidad de viaje y la

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 35 - 46  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


42

John Jairo Posada Henao - Carlos A. González-Calderón

posición de la caja de cambios. Las pruebas se realizaron a velocidades de 10 a 120km/h, con incrementos de 10km/h. En cada observación se registra la cantidad de combustible que se consume y el tiempo empleado en recorrer el tramo de carretera utilizado. El consumo de combustible instantáneo o unitario (UFc) se calcula como la cantidad de combustible que se consume en el tramo dividido entre el tiempo de viaje. Se hacen varias réplicas para cada combinación de vehículo, nivel de carga, sección, dirección, velocidad de viaje y posición en la caja de velocidades. El promedio de las observaciones para cada conjunto de combinaciones se trata como una observación individual en el análisis estadístico. La estimación de los coeficientes de la ecuación se realiza a partir de regresiones ordinarias de mínimos cuadrados, aplicada en forma separada para tramos en subida y en bajada, empleando diferentes modelos [38]. La función estimada UFc es continua en HP y RPM. Para RPM fijo el consumo UFc aumenta con HP, así si el vehículo necesita mayor potencia el consumo de combustible aumenta. De la misma forma el consumo aumenta con las revoluciones del motor para valores fijos de la potencia aplicada. Cuando la potencia aplicada es nula, HP = 0, se tiene consumo mínimo en función de RPM, que se aproxima al consumo en ralentí. Finalmente, el consumo de combustible promedio, para un viaje en ida y vuelta o “round trip”, está dado por la ecuación (6). æUFcu UFcd ö÷ ÷ Fc = 500 * a1 * a2 * çç + çè Vu Vd ø÷÷

(6)

Donde: Fc: consumo de combustible (litros por cada 1.000 km) α1: parámetro de ajuste por eficiencia del motor α2: parámetro de ajuste por forma de operación Universidad de Medellín

Vu: velocidad en tramos ascendentes (m/s) Vd: velocidad en tramos descendentes (m/s) UFcu: consumo de combustible instantáneo en tramos ascendentes (ml/s) UFcd: consumo de combustible instantáneo en tramos descendentes (ml/s) Una de las falencias del modelo de consumo del HDM III es la alta estimación para automóviles grandes y medianos, por lo que se sugiere una reducción del factor α1 para estos vehículos con el fin de tener una estimación más realista [45]. Otro aspecto está relacionado con las revoluciones del motor; se estima el consumo con la velocidad nominal del motor (CRPM) constante, equivalente a 75 % de la tasa de potencia máxima (máxRPM) del vehículo correspondiente, en vez de la real del motor. 1.2.2 Modelo del HDM - 4 En el HDM - 4 se tiene el modelo ARFCOM que se citó previamente. El HDM - 4 es un modelo para la gestión de infraestructura vial que permite realizar evaluaciones técnicas y económicas para proyectos de inversión en carreteras [44]. Los resultados obtenidos con este modelo permiten verlo como el que mejor ajuste tiene con datos reales, y por consiguiente, es el más confiable para predicciones de consumo de combustible para condiciones de flujo de tránsito ininterrumpido [46]. En este, el consumo de combustible se predice en forma proporcional a los requerimientos de potencia que tenga el vehículo [40]. Su expresión genérica es la ecuación (7). IFC = f ( Ptr , Peng + Paccs )

(7)

Donde: IFC: Consumo de combustible instantáneo (ml/s) Ptr: potencia requerida por fuerzas tractivas (kW)


Consumo de combustible en vehículos para transporte por carretera –modelos predictivos–

Paccs: potencia requerida por accesorios (kW) Peng: potencia requerida por fricción interna del motor (kW) Para estimar el consumo de combustible, el modelo calcula primero la suma de los componentes de potencia externa (potencia tractiva, incluyendo la eficiencia del tren de tracción, y la potencia de accesorios) y la potencia para sobreponerse a la fricción interna del motor [4]. Luego, de acuerdo con la ecuación (8) el consumo instantáneo de combustible se estima usando el factor de eficiencia consumo - potencia, así: UFc = max éëa; b (Potencia total)ùû

(8)

Donde: UFc: consumo de combustible instantáneo (ml/s) α: consumo de combustible mínimo, usualmente el de ralentí (ml/s) β: factor de eficiencia consumo de combustible - potencia (ml/kw/s) Potencia Total: la requerida para vencer las resistencias externas: rodadura, inercia, aerodinámica, curvatura y pendiente (Potencia tractiva: Ptr), mover los accesorios del vehículo (Potencia de accesorios: Paccs), y vencer la fricción interna del motor (Peng). El modelo considera que el consumo de combustible para una potencia total reducida no será inferior a la tasa de ralentí (α), que es el mínimo combustible requerido para mantener el motor en funcionamiento sin presionar el acelerador y caja de velocidades en neutro. Este consumo incluye el combustible necesario para vencer la fricción interna del motor y mover los accesorios con el vehículo detenido. Si esta tasa en ralentí es desconocida, el modelo original permite determinarla; igual sucede con el resto del modelo HDM - 4 que proporciona valores por defecto para otras muchas variables [44].

43

En condiciones generales de conducción, el consumo de combustible continuamente varía debido a los cambios permanentes en la velocidad del vehículo y las condiciones de la carretera. En niveles bajos de aceleración el consumo de combustible toma un valor mínimo que depende de la tecnología del motor. Motores con control computarizado de inyección de combustible y algunos carburados de los más recientes, tienen la capacidad de restringir el consumo de combustible a un nivel muy bajo (conocido como combustible cero), incluso menor al de “ralentí” durante períodos en donde la potencia tractiva es suficiente para atender requisitos por accesorios y fricción interna del motor. Esto es relevante en casos de altas pendientes longitudinales de la carretera, o niveles de congestión en los que es alta la cantidad de maniobras [40]. Este modelo es el mejor según varios investigadores [1, 4, 40, 46]. Y aunque su descripción puede ser consultada en Odoki y Kerali [47], también está disponible con mayor detalle en Posada [48] donde incluso se presenta corrección a una de las fórmulas del modelo. Sin embargo, luego de revisiones al software correspondiente se detecta que fue un error tipográfico en los respectivos manuales. 1.2.3 Modelo COPER Este es un modelo de costos de operación vehicular desarrollado en Chile [4], pero no es un modelo original, ya que realmente es una calibración del modelo del HDM - III. En Chile se estimó conveniente adaptar algún modelo existente de consumo de combustible en lugar de desarrollar uno nuevo, debido al alto costo que implica. La selección comenzó con el análisis de diversos modelos disponibles en el momento (1990), de tal manera que por su formulación teórica, se pudiera adaptar a condiciones locales. Se recomendó utilizar la formulación del HDM - III, por los siguientes aspectos: • Permite incluir explícitamente características de vehículos (masa, área frontal, etc.).

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 35 - 46  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


44

John Jairo Posada Henao - Carlos A. González-Calderón

• Aumenta el rango de validez de funciones para variables geométricas y de rugosidad. • Incorpora los efectos de la tecnología automotriz en el rendimiento de los vehículos. • Permite validaciones con experimentos por su concepción físico - experimental. La modificación de los parámetros que establece la regresión para el HDM - III permitió ajustar el modelo a condiciones locales. No obstante, se aconsejó la realización de pruebas de consumo de combustible para asegurar la bondad del modelo. Los camiones pequeños y buses presentaron mejor ajuste que los automóviles y camionetas, pero para camiones medianos y pesados las diferencias fueron mayores. 2. NECESIDAD DE ADAPTACIÓN Y CALIBRACIÓN Varios estudios que fundamentan los modelos existentes se realizaron con vehículos de la década de 1980 [4, 49], por lo que se resta actualidad y precisión al modelo debido a los avances en la tecnología de los vehículos durante el tiempo transcurrido desde que dichos estudios se realizaron. Además, varios de ellos se han hecho con vehículos nuevos del momento [3], situación que influye en el rendimiento del vehículo hasta que todas sus piezas se acoplen y el funcionamiento del vehículo se estabilice. Las características de los modelos hacen imprescindible, por las condiciones normales bajo las cuales son creados, que sean adaptados a las condiciones del lugar donde se utilizarán para lo cual es necesario realizar investigaciones que permitan efectuar en forma adecuada tal adaptación y así los resultados obtenidos sean fiables [48]; situación que no es ajena a la realidad de muchos lugares como Colombia, en donde no se han realizado trabajos

Universidad de Medellín

de este tipo [50]. Esto se estima de alta conveniencia para poder conocer con mayor precisión el efecto de las intervenciones en las carreteras. Algunos estudios se han hecho para adaptar y calibrar estos modelos a condiciones locales de uso [42]. Se ha encontrado en estos estudios que existen diferencias, entre los datos del modelo y los reales, cercanas al 200 % [46]; y en particular para el caso del HDM - 4 se presenta un rango entre 110 % y 270 %, para camiones [48]. 3. CONCLUSIONES La correcta estimación del consumo de combustible es indispensable en la evaluación de proyectos viales, debido a la importancia que este tiene dentro de los costos de usuario que son vitales en dicho proceso de evaluación. Los modelos para el cálculo del consumo de combustible son de dos tipos básicamente: empíricos, clásicos o de estimación estadística, y los de tipo mecanicista. Estos últimos son más versátiles y permiten una mejor adaptación a condiciones locales o particulares de estudio, pero para su desarrollo y formulación se requieren muchos recursos. Los modelos mecanicistas se identifican como mejores que los empíricos, ya que permiten modelar el consumo acorde con características del vehículo y de factores que tienen influencia en las fuerzas que se oponen al movimiento. Los modelos para la estimación del consumo de combustible deben ser analizados con cuidado para adaptarlos y calibrarlos a las condiciones locales de uso, de tal manera que los resultados obtenidos sean válidos para los fines propuestos en los estudios, como es el caso de evaluación de proyectos viales. El modelo de mayor validez que se tiene actualmente es el que se encuentra inmerso en el HDM - 4, de amplio uso en el ámbito internacional.


Consumo de combustible en vehículos para transporte por carretera –modelos predictivos–

REFERENCIAS [1] I. D. Greenwood and C. R. Bennett, HDM - 4 Fuel Consumption Modelling. Birmingham: University of Birmingham, 1995. [2] I. Sarmiento and M. Franco, “El transporte de mercancías por carretera, un elemento esencial en la economía colombiana,” in V Congreso de ingeniería de transporte – CIT Santander, 2002. [3] A. Chesher and R. Harrison, “Vehicle operating costs: evidence from developing countries,” International Bank for Reconstruction and Development, Washington, DC (USA) PB - 88 - 208574/XAB, 1987. [4] A. L. Altamira, “Determinación del consumo de combustible de vehículos pesados sobre distintos tipos de pavimento,” Doctorado, Pontificia Universidad Católica de Chile, Santiago de Chile, 2003. [5] J. Cañadas Salas, “Costes de operación del tráfico en la carretera”, Tesina, Universidad Politécnica de Cataluña, Barcelona, 2007. [6] J. A. Arroyo Osorno and R. Aguerrebere Salido, “Estado superficial y costos de operación en carreteras,” Instituto Mexicano de Transporte, Sanfandila2002. [7] T. R. Agg, “The Economics of Highway Grades,” Ames, Iowa 1923. [8] R. A. Moyer and R. Winfrey, “Cost of Operating Rural Mail Carrier Motor Vehicles on Pavement, Gravel and Earth,” 1939. [9] R. Harrison, “Influence of road - surface roughness on Vehicle Operating Costs: reviewing the evidence from developing countries,” in Surface characteristics of roadways: international research and technologies, 1990, pp. 416 - 429. [10] R. Bonney and N. F. Stevens, “Vehicle Operating Costs on Bituminous, Gravel and Earth Roads in East and Central Africa,” Road Research Lab Tech Papers/UK/, 1967.

45

[13] J. P. Zaniewski, B. Butler, G. Cunningham, G. Elkins, and M. Paggi, “Vehicle operating costs, fuel consumption, and pavement type and condition factors,” 1982. [14] I. De Vlieger, “On board emission and fuel consumption measurement campaign on petrol - driven passenger cars,” Atmospheric Environment, vol. 31, pp. 3753 - 3761, 1997. [15] M. Ross, “Automobile fuel consumption and emissions: Effects of vehicle and driving characteristics,” Annual Review of Energy and the Environment, vol. 19, pp. 75 - 112, 1994. [16] A. Cappiello, I. Chabini, E. K. Nam, A. Lue, and M. Abou Zeid, “A statistical model of vehicle emissions and fuel consumption,” in Intelligent Transportation Systems, 2002. Proceedings. The IEEE 5th International Conference on, 2002, pp. 801 - 809. [17] J. Van Mierlo, G. Maggetto, E. Van de Burgwal, and R. Gense, “Driving style and traffic measures - influence on vehicle emissions and fuel consumption,” Proceedings of the Institution of Mechanical Engineers, Part D: Journal of Automobile Engineering, vol. 218, pp. 43 - 50, 2004. [18] R. Akçelik and M. Besley, “Operating cost, fuel consumption, and emission models in aaSIDRA and aaMOTION,” in 25th Conference of Australian Institutes of Transport Research (CAITR 2003), University of South Australia, Adelaide, Australia, 2003, pp. 3 - 5. [19] R. Akçelik and D. Biggs, “Acceleration profile models for vehicles in road traffic,” Transportation Science, vol. 21, pp. 36 - 54, 1987. [20] R. Akçelik and M. Besley, “Acceleration and deceleration models,” in 23rd Conference of Australian Institutes of Transport Research (CAITR 2001), Monash University, Melbourne, Australia, 2001, pp. 10 - 12. [21] H. Rakha and Y. Ding, “Impact of stops on vehicle fuel consumption and emissions,” Journal of Transportation Engineering, vol. 129, pp. 23 - 32, 2002.

[11] H. W. Du Plessis, A. T. Visser, and P. C. Curtayne, “Fuel consumption of vehicles as affected by road - surface characteristics,” Surface characteristics of roadways: International research and technologies, ASTM STP, vol. 1301, pp. 480 - 496, 1990.

[22] I. Zaabar and K. Chatti, “Calibration of HDM - 4 models for estimating the effect of pavement roughness on fuel consumption for US conditions,” Transportation Research Record: Journal of the Transportation Research Board, vol. 2155, pp. 105 - 116, 2010.

[12] J. P. Zaniewski and B. C. Butler, “Vehicle operating costs related to operating mode, road design, and pavement condition,” ASTM Special Technical Publication, vol. 884, pp. 127 - 142, 1985.

[23] E. Pelensky, W. Blunden, R. Munro, W. SAGGERS, N. D. Clark, T. Soloman, and N. Fisher, “Operating costs of cars in urban areas,” in Australian Road Research Board Conference Proc, 1968.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 35 - 46  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


46

John Jairo Posada Henao - Carlos A. González-Calderón

[24] L. Ferreira, “Estimating Vehicle Fuel Consumption in Urban Areas,” 1981. [25] S. Ardekani, E. Hauer, and B. Jamei, “Traffic impact models,” Chapter 7 in Traffic Flow Theory, Oak Bridge National Laboratory Report, 1992. [26] L. Evans, R. Herman, and T. Lam, “Multivariate analysis of traffic factors related to fuel consumption in urban driving,” Transportation Science, vol. 10, pp. 205 - 215, 1976. [27] K. Post, J. Kent, J. Tomlin, and N. Carruthers, “Fuel consumption and emission modelling by power demand and a comparison with other models,” Transportation Research Part A: General, vol. 18, pp. 191 - 213, 1984. [28] G. Song, L. Yu, and Z. Wang, “Aggregate fuel consumption model of light - duty vehicles for evaluating effectiveness of traffic management strategies on fuels,” Journal of Transportation Engineering, vol. 135, pp. 611 - 618, 2009. [29] D. J. Graham and S. Glaister, “The demand for automobile fuel: a survey of elasticities,” Journal of Transport Economics and Policy (JTEP), vol. 36, pp. 1 - 25, 2002. [30] K. A. Small and E. T. Verhoef, The Economics of Urban Transportation, 2nd ed.: Routledge, 2007. [31] C. R. Bennett, The New Zealand Vehicle Operating Costs Model vol. 2, 1987. [32] A. Ihs and L. Sjögren, An overview of HDM - 4 and the Swedish Pavement Management System (PMS): VTI, 2003. [33] I. D. Greenwood and C. R. Bennett, “The effects of traffic congestion on fuel consumption,” Road and Transport Research, vol. 5, pp. 18 - 35, 1996. [34] L. Gyenes and C. Mitchell, “The effect of vehicle - road interaction on fuel consumption,” ASTM Special Technical Publication, vol. 1225, pp. 225 - 225, 1994. [35] L. Schipper and W. Tax, “New car test and actual fuel economy: yet another gap?,” Transport Policy, vol. 1, pp. 257 - 265, 1994. [36] H. Hide, S. Abaynayaka, I. Sayer, and R. Wyatt, “The Kenya road transport cost study: research on vehicle operating costs,” 1975. [37] H. Solminihac, Gestión de infraestructura vial. Santiago de Chile: Ediciones Universidad Católica de Chile, 2001. [38] T. Watanatada, A. M. Dhareshwar, and P. Rezende,

Universidad de Medellín

“Vehicle speeds and operating costs: Models for road planning and management,” World Bank  -  International Bank for Reconstruction and Development, , Washington, DC. 1987. [39] C. Bennett and I. D. Greenwood, Modelling Road User and Environmental Effects in HDM - 4 vol. 7: The World Road Association (PIARC) on behalf of the ISOHDM sponsors, 2001. [40] I. D. Greenwood, “A new approach to estimate congestion impacts for highway evaluation: effects on fuel consumption and vehicle emissions,” Ph.D. , University of Auckland, Auckland, 2003. [41] ITEA, “Values of Time and Operating Costs,” UK Department for Transport, London, 2007. [42] A. Altamira, H. De Solminihac, R. Harrison, and J. P. Covarrubias, “Calibration of fuel consumption model in HDM4 model: An Application to observed consumption in Canada and Chile,” in 84th Transportation Research Board Annual Meeting, Washington, DC., 2004. [43] M. Pradena and J. J. Posada, “Análisis de Inversiones en Carreteras Utilizando Software HDM - 4,” Revista de la Construcción, vol. 6, pp. 35 - 47, 2007. [44] J. J. Posada, Evaluación de proyectos de inversión en carreteras con el HDM - 4. Medellín: Universidad Nacional de Colombia Sede Medellín, 2006. [45] R. Archondo - Callao and A. Faiz, Estimating vehicle operating costs. Washington, DC: World Bank 1994. [46] I. Greenwood, R. Dunn, and R. Raine, “Estimating the effects of traffic congestion on fuel consumption and vehicle emissions based on acceleration noise,” Journal of Transportation Engineering, vol. 133, pp. 96 - 104, 2007. [47] J. B. Odoki and H. G. R. Kerali, “Analytical Framework and Model Descriptions,” The World Road Association (PIARC) on behalf of the ISOHDM sponsors, 2000. [48] J. J. Posada, “Efecto de la cantidad de carga en el consumo de combustible en camiones “ Doctorado, Ingeniería Civil, Universidad Nacional de Colombia, Medellín, 2012. [49] D. Biggs, ARFCOM: Models for Estimating Light to Heavy Vehicle Fuel Consumption. Vermont South: Australian Road Research Board, 1988. [50] ACCEFYN, “Línea base para proyectos de transporte masivo,” Academia Colombiana de Ciencias Exactas, Físicas y Naturales, Bogotá D.C., 2003.


Revista Ingenierías Universidad de Medellín

CARACTERIZACIÓN DE CARGAS DE BAILE EN UNA PLATAFORMA EXPERIMENTAL Diana Carolina Millán Yusti* Patricia Valenzuela** Peter Thomson*** Recibido: 20/09/2012 Aceptado: 25/10/2013 RESUMEN La utilización de materiales ligeros y resistentes ha permitido la construcción de sistemas de entrepisos que satisfacen condiciones ideales espaciales y geométricas para albergar grandes cantidades de personas. A pesar que estas características de peso y resistencia representan una disminución de costos en la construcción, estos entrepisos tienden a ser más susceptibles a presentar problemas de vibraciones, especialmente cuando la excitación puede ser clasificada como actividad rítmica. En este artículo se presenta la caracterización de cargas producidas por personas realizando actividades de baile, a partir de mediciones en una plataforma experimental de escala real. Se identifican los factores de impacto y coeficientes de Fourier que representan la carga debida a personas que bailan, a la que es sometida la estructura. Los resultados de la presente investigación fueron obtenidos dentro de un proyecto de investigación financiado por Colciencias y la Universidad del Valle contrato .382 - 2009. Palabras clave: Coeficientes de Fourier, factores de impacto, actividades rítmicas, vibración excesiva, entrepisos flexibles.

*

Ingeniera Civil, Estudiante de Maestría en Ingeniería con énfasis en ingeniería Civil, Universidad del Valle. Integrante del Grupo de Investigación en Ingeniería Sísmica, Ingeniería Eólica y Estructuras Inteligentes, G-7, Universidad del Valle, (Cali). Dirección: Calle 13 No 100-00 Ed. 350, laboratorio LINSE. Teléfono (57-2) 339 2420. Correo electrónico diana.c.millan@correounivalle.edu. co. Fax:3392086.

**

Ingeniera Civil, Universidad del Valle. Integrante del Grupo de Investigación en Ingeniería Sísmica, Ingeniería Eólica y Estructuras Inteligentes, G-7, Universidad del Valle, (Cali). Dirección: Calle 13 No 100-00 Ed. 350, laboratorio LINSE. Teléfono (57-2) 339 2420. Correo electrónico patricia.valenzuela@hotmail.com. Fax:339 2086

***

Ingeniero aeroespacial, Ph.D, Profesor Titular de la Universidad del Valle, Director del Grupo de Investigación en Ingeniería Sísmica, Ingeniería Eólica y Estructuras Inteligentes, G-7, Universidad del Valle (Cali). Dirección: Calle 13 No 100-00 Ed. 350, Oficina 2001: Teléfono (57-2) 339 2086. Correo electrónico: peter.thomson@correounivalle.edu.co. Fax: 339 2086 Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 47 - 58  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


48

Diana Carolina Millán Yusti - Patricia Valenzuela - Peter Thomson

CHARACTERIZATION OF DANCE LOADS ON AN EXPERIMENTAL PLATFORM ABSTRACT The use of light and strong materials has allowed the construction of mezzanines which meet ideal spatial and geometric conditions to accommodate a significant number of people. Despite these weight and resistance characteristics represent decreased construction costs, these mezzanines tend to be more susceptible to vibration problems, especially when excitement can be classified as a rhythmic activity. This article shows characterization of loads produced by people performing dancing activities from measurements in a real scale experimental platform. Impact factors and Fourier’s coefficients, which represent the load to which the structure is subject, caused by people dancing, are identified. Results of this research were obtained in a research project sponsored by COLCIENCIAS and Universidad del Valle according to Contract 382-2009. Key words: Fourier’s coefficients; impact factors; rhythmic activities; excessive vibration; flexible mezzanines.

Universidad de Medellín


Caracterización de cargas de baile en una plataforma experimental

INTRODUCCIÓN La industrialización de la construcción y el desarrollo de materiales ligeros de alta resistencia han creado una tendencia hacia el uso de sistemas de entrepisos livianos, con menores razones de amortiguamiento y mayores separaciones entre elementos estructurales. Esto lleva a que las losas sean susceptibles a presentar problemas de vibraciones, que afecta sus condiciones de servicio y provocan incomodidad y sensación de inseguridad en los usuarios. El número de quejas con respecto a estas oscilaciones de piso ha aumentado en los últimos años, y restaurantes, aeropuertos, centros comerciales, salones de baile y edificios de oficinas con entrepisos ligeros han presentado el problema [1]. Lo anterior hace de las vibraciones en losas un tema de gran interés, por lo que muchas de las investigaciones realizadas han sido orientadas a determinar límites de frecuencia y aceleraciones pico, con el fin de desarrollar escalas de perceptibilidad humana que permitan determinar las condiciones de servicio de la estructura desde el punto de vista del confort [2, 3]. En los últimos años, con el avance de investigaciones sobre los efectos de la interacción humano/ estructura, se han descrito los cambios modales de las estructuras debido a la influencia de las personas. También se ha trabajado en la determinación de las cargas dinámicas producidas por actividades humanas en estructuras como estadios, losas y puentes peatonales [4-6]. Autores como B. R. Ellis y T. Ji han desarrollado modelos analíticos para carga rítmica partiendo de la caracterización del salto de una persona, ya que se considera una acción de alto impacto [7]. Por otro lado, investigadores del Reino Unido han realizado estudios para la obtención de cargas de grupos incluyendo efectos de sincronización y las características dinámicas de la estructura [8]. Los sistemas de entrepiso donde se hacen actividades rítmicas tienen en común que el diseño no está controlado por los estados límite sino por criterios de servicio (deflexiones o vibraciones) [9].

49

Por esta razón la determinación de la carga viva constituye el parámetro más importante a tener en cuenta por el diseñador estructural debido a la magnitud y condiciones de servicio que se deben garantizar para lograr un desempeño óptimo. En este documento se presentan los resultados de la caracterización de las cargas dinámicas generadas en actividades rítmicas de baile, obtenidas en ensayos grupales en laboratorio sobre una plataforma experimental monitoreada con sensores de fuerza y aceleración, con el fin de analizar los efectos dinámicos producidos por las personas sobre sistemas de entrepiso en discotecas y gimnasios. 1. METODOLOGÍA 1.1. Cargas rítmicas Las actividades rítmicas como el baile, los ejercicios aeróbicos, saltos, etc. son consideradas cargas dinámicas armónicas. En la figura 1 se presenta el modelo básico de una pareja bailando sobre un sistema de entrepiso, el cual es considerado como un sistema masa - resorte con amortiguamiento viscoso.

Figura 1. Sistema con cargas rítmicas inducidas por personas.

La ecuación diferencial ordinaria que gobierna este sistema es:

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 47 - 58 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


50

Diana Carolina Millán Yusti - Patricia Valenzuela - Peter Thomson

¨

m u + cu + ku = p ( t )

(1)

La mayoría de los problemas de vibraciones en los sistemas de piso incluyen cargas repetidas provocadas por las máquinas o por actividades humanas tales como el bailar, saltar o caminar. En términos simplificados una fuerza que se repite se puede representar por una combinación de fuerzas sinusoidales cuyas frecuencias, f, son múltiplos o armónicos de la frecuencia básica de la fuerza característica. La fuerza total aplicada está dada por la suma de la carga estática Wp y el coeficiente dinámico F(t) [10], como se expresa en la ecuación 2.

losa, las cuales se ubicaron en medio de platinas de nivelación, como lo muestra la figura 2. El sistema (losa de hormigón y celdas de carga) posee una frecuencia natural superior a las frecuencias esperadas producidas por las actividades humanas, para minimizar la interacción entre la carga y la plataforma de medición.

P ( t ) =Wp +F( t ) ∞   P(t)=Wp 1 + ∑ ∝n sin(2πnft + ϕn )   n=1

( 2)

Donde:

Figura 2. Plataforma experimental Fuente: elaboración propia.

• ∝n = Factor dinámico de carga.

1.3. Equipos de adquisición

• ϕn = Ángulo de fase

En la adquisición de datos fueron usados cuatro acelerómetros sísmicos de baja frecuencia tipo Wilcoxon Research Model 731A con una sensibilidad de 10V/g. Cada uno cuenta con su acondicionador de señal WR Modelo P31 que amplificaban las señales análogas y proveían un filtro pasa - bajo con frecuencias de corte en 100 o 450 Hz. La señal fue transmitida por cables coaxiales a una caja de conexiones National Instruments CS - 2345. Esta última se conectó a un computador portátil marca Dell precisión M2400 donde la señal análoga fue convertida en digital por medio de una tarjeta de adquisición DAQ Card 6024E. Para la caracterización de la fuerza se utilizaron cuatro celdas de carga Omega - Dyne LCD 401 - 10K que permiten obtener el registro de la carga en el tiempo, mediante señales análogas que luego de ser acondicionadas y filtradas fueron digitalizadas. Las celdas están dispuestas en las cuatro esquinas de la plataforma (figura 3) con el fin de permitir la distribución de la carga de manera uniforme.

• f = Frecuencia forzada • Wp = Peso de los participantes El factor de carga dinámico ∝n, está definido como el coeficiente Fourier de la fuerza dinámica de la función normalizada por el peso estático de participantes [11]. 1.2. Plataforma experimental Para cuantificar las cargas dinámicas generadas por actividades rítmicas se ejecutaron ensayos de laboratorio en una plataforma experimental de hormigón armado. Esta consiste en una losa aligerada a escala real de 4 m de ancho y 4 m de largo, con una loseta de 8 cm de espesor, soportada por vigas perimetrales de 25 cm de base por 32cm de altura y viguetas de 10 cm x 32cm. El entrepiso está apoyado sobre cuatro celdas de carga situadas en las esquinas de la Universidad de Medellín


Caracterización de cargas de baile en una plataforma experimental

51

Figura 3. Celdas de carga Omega-Dyne LCD 401-10K. Fuente: elaboración propia.

1.4. Procesamiento de los registros de carga Para analizar la influencia de las cargas producidas por actividades rítmicas se ejecutó una secuencia de baile sincronizado al ritmo de los géneros salsa, merengue, bachata y reggaetón. Cada rutina se ejecutó repetidas veces, incrementado de uno en uno el número de personas hasta llegar a un total de nueve individuos. Cada registro inició 80 segundos antes con la losa vacía con el fin de verificar el peso de la persona y la calibración de los equipos de adquisición. También se llevó a cabo un control visual del comportamiento de las personas durante las actividades para identificar en el análisis rangos de mayor sincronización, movimientos de alto impacto y el estado de ánimo de los participantes. Las señales fueron separadas

según el género musical en diferentes intervalos para determinar las características de cada uno de los movimientos ejecutados, como se observa en la figura 4. Dichas señales se analizaron mediante un algoritmo desarrollado en el paquete matemático MATLAB, que permite obtener la transformada rápida de Fourier (FFT). A partir de los resultados suministrados por la FFT se obtuvieron los coeficientes de Fourier para cada una de las frecuencias predominantes y sus respectivos armónicos. Además, se determinó el factor de impacto (Kp), calculado como el cociente entre la amplitud máxima de la fuerza dinámica y la fuerza estática a partir de los registros de carga. La fuerza dinámica fue calculada como el promedio de las cargas máximas producidas en el tiempo.

Señal Fuerza Total Producida por una Persona de 54Kg Vs Tiempo

250

Fuerza máxima producida 200

Fuerza [Kg]

150

Trote y salto en el mismo sitio

Step con salto Fuerza producida durante la bachata

100

50 Losa vacia 0

-50 0

50

100

150

200

250 300 Tiempo [Seg]

350

400

450

500

550

Figura 4. Registro de carga de una persona bailando. Fuente: elaboración propia.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 47 - 58 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


52

Diana Carolina Millán Yusti - Patricia Valenzuela - Peter Thomson

2. RESULTADOS 2.1. Frecuencia natural plataforma de laboratorio La frecuencia fundamental de la plataforma se determinó a partir de registros ambientales obtenidos a una frecuencia de muestreo de 256 Hz. Cada viga y vigueta se instrumentaron con cuatro acelerómetros (figura 5). Igualmente se efectuaron ensayos de vibración forzada, utilizando un agitador de masa (shaker) con una excitación variable entre 1 Hz a 30 Hz. Dada la configuración estructural de la plataforma y la distribución de las viguetas, se encontró que la frecuencia fundamental de la losa es de 20.5 Hz correspondiente a un modo de vibración vertical. Esta frecuencia y su respectivo registro de aceleración se muestran en la figura 6.

La frecuencia modal de vibración vertical obtenida permite diferenciar la respuesta de la estructura de otro tipo de frecuencias como las producidas durante las actividades rítmicas que hacen parte de este trabajo (menores a 10 Hz). 2.2. Ensayo de baile grupal sincronizado Se ejecutó una secuencia de baile sincronizado al ritmo de géneros como la salsa, el merengue, la bachata y el reggaetón. Cada rutina se realizó repetidas veces, aumentando de uno en uno, el número de personas hasta llegar a un total de nueve individuos. 2.2.1. Factor de impacto (Kp) Para la obtención de los factores de impacto, la fuerza producida por las personas al bailar de manera sincronizada es normalizada por su peso estático. La tabla 1 presenta los factores de impacto obtenidos experimentalmente para cada uno de las actividades rítmicas coordinadas. Tabla 1. Factores de impacto ensayo grupal Factor de Impacto (Kp) Nº de personas

Salsa

1 2 3 4

1.28 1.35 1.23 1.23

Figura 5. Instrumentación para registros de vibración ambiental. Fuente: elaboración propia.

Señal Filtrada Aceleración Vs Tiempo

0.03

x 10

1.83 1.84 1.59 1.22

2.24 1.96 1.89 1.86

1.83 1.69 1.61 1.30

Frecuencia Fundamental

-6

X: 20.5 Y: 2.081e-006

2

0.02 0.01

1.5 Amplitud

Amplitud

Bachata Merengue Reggaetón

0

1

-0.01

0.5

-0.02 -0.03 0

100

200

300 tiempo[s ]

400

500

600

0

10

15

20 25 Frecuencia (Hz)

Figura 6. Registro, a.) Aceleraciones vs tiempo y b.) Espectro de frecuencias. Fuente: elaboración propia.

Universidad de Medellín

30

35


Caracterización de cargas de baile en una plataforma experimental

(continuación Tabla 1)

Factor de Impacto (Kp) Nº de personas

Salsa

5 6 7 8 9

1.20 1.29 1.18 1.21 1.21

Bachata Merengue Reggaetón 1.35 1.37 1.34 1.36 1.37

1.79 1.93 1.57 1.66 1.63

1.44 1.41 1.48 1.32 1.35

53

valor del kp se debe a las dificultades de coordinación que se presentan en grupos de personas. Este fenómeno ha sido reportado por gran cantidad de investigaciones relacionadas con interacción humano - estructura [12, 13]. 2.2.2. Coeficientes de Fourier (αn)

Fuente: elaboración propia.

En la figura 7, se observa cómo a medida que aumenta el número de participantes, el factor de impacto tiende a disminuir, hasta tornarse constante como en el caso de la bachata. El decaimiento del

Con el fin de obtener la distribución de la carga dinámica generada por las actividades rítmicas, se obtuvieron los coeficientes de Fourier para cada una de las rutinas ejecutadas en forma sincronizada para los géneros de salsa, bachata, merengue y reggaetón. En la tabla 2 se presentan los valores de los

Tabla 2. Coeficiente de Fourier, ritmo salsa. SALSA 1 Armónico Frecuencia [Hz] 1.56 1.59 1.63 1.59 1.56 1.59 1.59 1.59 1.59 o

No. de personas

Peso [Kg]

1 2 3 4 5 6 7 8 9

54 106 160 210 264 319 382 442 497

Coeficiente de 2 Coeficiente de Fourier Armónico Fourier α prom α máx Frecuencia [Hz] α prom α máx 0.10 0.13 3.13 0.11 0.13 0.06 0.08 3.19 0.14 0.25 0.07 0.10 3.19 0.11 0.20 0.08 0.11 3.19 0.08 0.13 0.09 0.15 3.19 0.06 0.09 0.06 0.07 3.17 0.08 0.15 0.06 0.08 3.19 0.16 0.07 0.05 0.08 3.19 0.08 0.13 0.06 0.07 3.19 0.07 0.10 o

3° Armónico Frecuencia [Hz] 4.69 4.78 4.75 4.78 – 4.77 – 4.78 –

Coeficiente de Fourier α prom 0.05 0.05 0.04 0.02 – 0.02 – 0.02 –

α máx 0.09 0.07 0.04 0.03 – 0.03 – 0.03 –

Fuente: elaboración propia. VARIACIÓN DEL FACTOR DE IMPACTO

2.2

Factor de Impacto, Kp

2 1.8 1.6 1.4 1.2 1 Aeróbicos

Salsa

Bachata

Merengue

Reggaetón

9 10 7 8 5 6 4 nas er so 2 3 de p 0 1 ero Núm

Figura 7. Factor de impacto para baile sincronizado. Fuente: elaboración propia.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 47 - 58 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


54

Diana Carolina Millán Yusti - Patricia Valenzuela - Peter Thomson

coeficientes de Fourier y las frecuencias asociadas para el ritmo de salsa. En la figura 8 se muestra la gama de frecuencias asociadas a los coeficientes de Fourier para el género de salsa, donde el armónico principal se encuentra alrededor de 1.56 Hz. A pesar de esto, el mayor aporte de carga se da en el segundo armónico, es decir en 3.19 Hz, el cual fue identificado en todos los registros. Este fenómeno se presenta porque el paso básico de salsa se ejecuta en ocho tiempos, donde el cuarto y el octavo tiempo son considerados como pausas, llevando a la persona a tener mayor contacto con la plataforma en algunos instantes, ya que durante dicho baile no se transmite el peso del cuerpo a los dos pies al mismo tiempo. En la tabla 3, se presentan los resultados para el género bachata en la modalidad de baile sincronizado donde se puede apreciar la variación del coeficiente de Fourier y sus frecuencias asociadas, los cuales demuestran que en una frecuencia alrededor de 2.16 Hz se presenta el mayor aporte de carga.

Estos datos se muestran en la figura 9 donde se grafica la gama de frecuencias asociadas a los coeficientes de Fourier para la bachata. Se puede observar una frecuencia marcada alrededor de 2.16 Hz, la cual corresponde a los tres primeros tiempos del paso básico donde se realiza el mayor impacto. Asímismo, se puede observar la presencia de una frecuencia marcada en 1.094 Hz, donde se genera un aporte de fuerza menor, debido a que en la ejecución en dicho tiempo se da un leve toque del pie sin llegar a pasar el peso. La variación del coeficiente de Fourier para el género de merengue y sus frecuencias asociadas se muestran en la tabla 4. En la figura 10, se muestra la gama de frecuencias asociadas a los coeficientes de Fourier para merengue. En esta figura se pueden observar las amplitudes del armónico principal en 2.5 Hz, con un coeficiente de Fourier máximo de αmáx=0.86, con sus respectivos armónicos. Esta frecuencia da el mayor aporte de carga, ya que el merengue se caracteriza por sostener un paso básico que se com-

VARIACIÓN DEL COEFICIENTE DE FOURIER RUTINA SALSA

0.25

Coeficiente de Fourier

0.2

0.15

0.1

0.05

0 9 m Nú

8

7

o er

6

5

de

4

as on rs pe

3

2

1

0

0

1

2

3

4

5

Frecuencia (Hz)

Figura 8. Coeficiente de Fourier para el género salsa. Fuente: elaboración propia.

Universidad de Medellín

6

7


Caracterización de cargas de baile en una plataforma experimental

55

Tabla 3. Coeficiente de Fourier, ritmo bachata BACHATA

1o Armónico

Coeficiente de Fourier

2o Armónico

Coeficiente de Fourier

3o Armónico

Coeficiente de Fourier

No. de personas

Peso [Kg]

1

54

2.17

0.53

0.60

4.38

0.05

0.06

6.44

0.05

0.06

2

106

2.16

0.43

0.49

4.30

0.08

0.06

6.45

0.04

0.05

3

160

2.13

0.38

0.38

4.30

0.02

0.02

6.45

0.03

0.03

4

210

2.16

0.15

0.17

4.31

0.05

0.06

5

264

2.16

0.20

0.45

4.31

0.05

0.05

6

319

2.15

0.18

0.31

4.30

0.06

0.06

6.45

0.03

0.03

7

382

2.16

0.18

0.23

3.22

0.05

0.07

8

442

2.13

0.38

0.38

4.30

0.02

0.02

6.45

0.03

0.03

9

497

2.15

0.24

4.30

0.03

6.45

0.02

Frecuencia [Hz] α prom α máx Frecuencia [Hz] α prom α máx Frecuencia[Hz] α prom α máx

Fuente: elaboración propia VARIACIÓN DEL COEFICIENTE DE FOURIER BACHATA

0.6

Coeficiente de Fourier

0.5 0.4 0.3 0.2 0.1 0 9 8 7 6 5 Número de personas 4 3 2 1 0 0

1

2

4 3 Frecuencia (Hz)

5

6

7

Figura 9. Coeficiente de Fourier para el género bachata. Fuente: elaboración propia.

bina al ejecutarlo en diferentes direcciones. Cabe resaltar que existen unos cambios de frecuencia debido a que los participantes bailan con el contenido frecuencial de cada tema musical. Finalmente, para el género de reggaetón los resultados obtenidos se resumen en la tabla 5, donde Nú m

er o

de

pe rs Revista on as

se muestran la variación del coeficiente de Fourier y sus frecuencias asociadas. Los componentes dinámicos principales de la carga rítmica para dicho género son significativos hasta el tercer armónico. A diferencia de los géneros musicales anteriores, este se caracteriza por sostener una frecuencia principal similar a la de salto de una persona, ya

Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 47 - 58 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia Frecuencia (Hz)


56

Diana Carolina Millán Yusti - Patricia Valenzuela - Peter Thomson

Tabla 4. Coeficiente de Fourier, ritmo merengue MERENGUE Coeficiente de Fourier

2° Armónico

Coeficiente de Fourier

3° Armónico

Coeficiente de Fourier

Frecuencia [Hz]

α prom

α máx

Frecuencia [Hz]

α prom

α máx

Frecuencia [Hz]

α α máx prom

54

2.50

0.42

0.69

5.00

0.16

0.32

7.47

0.06

0.14

2

106

2.50

0.35

0.66

5.00

0.13

0.23

7.56

0.03

0.03

3

160

2.50

0.51

0.68

5.00

0.16

0.23

4

210

2.50

0.48

0.86

5.00

0.12

0.25

7.50

0.04

5

264

2.50

0.42

0.82

5.00

0.13

0.31

6

319

2.50

0.52

0.72

5.00

0.15

0.19

7.50

0.05

0.08

7

382

2.50

0.31

0.53

5.00

0.07

0.12

7.50

0.02

0.02

8

442

2.50

0.51

0.68

5.00

0.16

0.23

9

497

2.47

0.20

0.37

4.97

0.04

0.09

7.44

0.03

No. de personas

Peso [Kg]

1

1° Armónico

Fuente: elaboración propia.

Tabla 5. Coeficiente de Fourier, ritmo reggaetón REGGAETON Coeficiente de Fourier

2° Armónico

Coeficiente de Fourier

3° Armónico

Coeficiente de Fourier

Frecuencia [Hz]

α prom

α máx

Frecuencia [Hz]

α prom

α máx

Frecuencia [Hz]

α prom

α máx

1° Armónico

No. de personas

Peso [Kg]

1

54

2.16

0.42

0.83

4.34

0.36

0.42

6.50

0.08

0.09

2

106

2.13

0.28

0.61

4.38

0.16

0.25

6.75

0.08

0.10

3

160

2.13

0.63

1.19

4.25

0.26

0.33

6.50

0.07

4

210

2.13

0.18

0.22

4.38

0.12

0.25

6.50

0.03

0.06

5

264

2.16

0.29

0.50

4.34

0.14

0.26

6

319

2.23

0.17

0.21

4.50

0.11

0.32

6.50

0.02

0.06

7

382

2.13

0.22

0.42

4.34

0.12

0.13

8

442

2.13

0.63

1.19

4.25

0.26

0.33

6.50

0.07

9

497

2.25

0.17

0.21

4.50

0.11

0.32

6.50

0.02

0.06

Fuente: elaboración propia.

que los dos pies tienden a estar en contacto con la plataforma al mismo tiempo. En la figura 11 se muestra la gama de frecuencias asociadas a los coeficientes de Fourier, donde Universidad de Medellín

se pueden observar las amplitudes del armónico principal en 2.19 Hz, con un coeficiente de Fourier máximo de αmáx=0.98 y sus respectivos armónicos en 4.31 Hz, con un αmáx=0.19 y el tercero en 6.44 Hz con un αmáx=0.11.


Caracterización de cargas de baile en una plataforma experimental

57

Figura 11. Coeficiente de Fourier para el género reggaetón. Fuente: elaboración propia. VARIACIÓN DEL COEFICIENTE DE FOURIER RUTINA MERENGUE

0.9 0.8 0.7

Coeficiente de Fourier

0.6 0.5 0.4 0.3 0.2 0.1 0 9 8 7 Nú 6 5 m er 4 o 3 de 2 1 pe 0 rs on as

0

1

4

3

2

5

6

7

8

Frecuencia (Hz)

Figura 10. Coeficiente de Fourier para el género merengue. Fuente: elaboración propia.

3. CONCLUSIONES La variación de la carga, debido a actividades rítmicas, depende en gran medida de diferentes factores como la sincronización, el ritmo de cada persona y el estado de ánimo al momento de la prueba. Debido a la combinación de estos elementos es posible explicar la dispersión observada en los resultados experimentales con situaciones de carga de real.

El análisis de los datos adquiridos en la plataforma experimental permitió establecer las frecuencias, factores de impacto y coeficientes de Fourier, para los géneros musicales considerados: salsa, merengue, bachata y reggaetón. Las mayores aceleraciones y factores de carga dinámicos se presentaron durante los tiempos de mayor sincronización de los participantes. Esto permitió

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 47 - 58 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


58

Diana Carolina Millán Yusti - Patricia Valenzuela - Peter Thomson

establecer que la variación de la energía producida por la carga y la forma de la función de fuerza es proporcional a la altura de los saltos en las rutinas. Entre más alto sea el salto, mayor será el impacto sobre la estructura. En la caracterización de las cargas de baile se observa que el segundo armónico de la fuerza producida por las personas en movimiento puede generar vibraciones en estructuras que poseen frecuencias naturales alrededor de 5 Hz el cual corresponde al límite establecido por la norma de diseño sismorresistente NSR - 10 [14]. Por lo anterior se recomienda que el límite mínimo de frecuencia natural de sistemas de entrepiso usados como salones de baile o discotecas sea de 7.5 Hz con el fin de garantizar un buen desempeño en condiciones de servicio. AGRADECIMIENTOS Agradecemos a Colciencias por el apoyo económico brindado a este proyecto a través del Programa Jóvenes investigadores e innovadores, año 2011, a la Universidad Industrial de Santander y a Ecopetrol - Instituto Colombiano del Petróleo por el apoyo general que ha hecho posible el desarrollo de este estudio. REFERENCIAS [1] M. Setareh. Evaluation and assessment of vibrations owing to human activity. ICE publishing. Structures and Buildings, Vol 165, Pages 219–231, 2012 [2] T. Murray, E. Allen and E. Ungar. Floor vibrations due to human activity. Design to prevent floor vibrations. Chicago: Engineering Journal/American Institute of Steel Construction. ISO 2631 - 2, 2003. [3] L. Bruno y F. Venutti, “Crowd - structure interaction in footbridges: Modelling, application to a real case - study and sensivity analyses”. Journal of Sound and Vibration, 475 - 493, 2009. [4] S. Zivanovic, A. Pavic and P. Reynolds, “Vibration serviceability of footbridges under human - induced excitation: a literature review”. Journal of Sound and Vibration, Vol. 279, No. 1 - 2, Pages. 1 - 74, 2005. Universidad de Medellín

[5] A. Ortiz, D. Gómez, y P. Thomson, “Caracterización del efecto de la interacción Humano - Estructura en el Estadio Olímpico en Cali, Colombia”. Ingeniería e Investigación, 29 (1), 2009. [6] C.A. Jones, P. Reynolds, A. Pavic (2010). “Review Vibration serviceability of stadia structures subjected to dynamic crowd loads: A literature review”, Journal of Sound and Vibration. Volume 330, Issue 8, Pages 1531–1566, 2011. [7] B. R. Ellis and T. Ji, “Floor vibration induced by dance - t ype loads: Verification”. The Structural Engineer, Volumen 72No. 3/1, 1994. [8] S. Yao, J. R. Wright, A. Pavic, and P. Reynolds,. “Experimental Study of Human - Structure Interaction for Jumping on a Perceptibly Moving Structure”. Journal of Sound and Vibration, Vol. 296, No. 1 - 2, pp. 150 - 165, 2006. [9] B. R. Ellis and T. Ji, “Floor vibration induced by dance - t ype loads: Theory”. The Structural Engineer, Volumen 72No. 3/1, 1994. [10] H. Bachman et al. Vibration problems in structures: Practical guidelines. Boston: Library of congress cataloging in publication data, Birkhäuser, 1995a. [11] K. Hong, “Dynamic Load Factor for Floor Vibration due to Lively Concert”. Presentado en the 32nd International Congress and Exposition on noise Control Engineering Jeju International Convention Center. Seogwipo, Korea:, August 25 - 28, 2003. [12] A. Ortiz, D. Gómez, y P. Thomson, “Efectos de la interacción humano - e structura en las propiedades dinámicas de una tribuna”, Revista Ingeniería y Competitividad, Volumen 14, No. 1, p. 63 – 73, 2012. [13] N. Alves, N. Roitman, y C. Magluta, “Dynamic response under human movements”. Materials and Structures, 32, 31 - 37, 1999. [14] AIS. Reglamento colombiano de construcción sismo resistente, NSR - 10. Asociación Colombiana de Ingeniería Sísmica, 2011.


Revista Ingenierías Universidad de Medellín

MODELO DE VALORACIÓN FINANCIERA PARA UN PRODUCTO INNOVADOR: APLICACIÓN A UN PRODUCTO DE LA UNIVERSIDAD NACIONAL DE COLOMBIA SEDE MEDELLÍN Diana Milena Osorno Alzate* Sergio Botero Botero** Recibido: 21/10/2012 Aprobado: 25/10/2013 RESUMEN Este trabajo incorpora los resultados de una investigación asociada con la gestión de la innovación y con métodos de valoración financiera, e incluye una propuesta de modelo para valorar financieramente productos innovadores existentes en la Universidad Nacional de Colombia, Sede Medellín. Al final, se presenta el modelo aplicado a un producto innovador existente en la Universidad Nacional de Colombia, Sede Medellín. Palabras clave: innovación, modelos de gestión de innovación, valoración, métodos de valoración financiera.

*

Magíster en Ingeniería Administrativa, Facultad de Minas, Universidad Nacional de Colombia, Sede Medellín. Calle 59 A 63 - 20 Bloque 19 (Autopista Norte). (4) 4309665 – 3005143487. Correo electrónico: dmosorno@unal.edu.co

**

D.Sc. Profesor Asociado, Departamento de Ingeniería de la Organización, Facultad de Minas, Universidad Nacional de Colombia Sede Medellín. Carrera 80 N.° 65-223. Tel (4)4255212. Correo electrónico: sbotero@unal.edu.co

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 59 - 70  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


60

Diana Milena Osorno Alzate - Sergio Botero Botero

FINANCIAL VALUATION MODEL FOR AN INNOVATIVE PRODUCT: APPLICATION TO A PRODUCT OF UNIVERSIDAD NACIONAL DE COLOMBIA (MEDELLÍN CAMPUS) ABSTRACT This work incorporates results of a research associated to innovation management and financial valuation methods; it also includes a model proposal to financially valuate innovative products existing at Universidad Nacional de Colombia (Medellin Campus). At the end, the article shows a model applied to an innovative product existing at Universidad Nacional de Colombia (Medellin Campus). Key words: Innovation; innovation management models; valuation; financial valuation methods.

Universidad de Medellín


Modelo de valoración financiera para un producto innovador: aplicación a un producto de la Universidad Nacional de Colombia Sede Medellín

INTRODUCCIÓN En Colombia, la Ley 1286 [1] aprobada por el Congreso de la República de Colombia el 23 de enero de 2009, establece como su objetivo general fortalecer el Sistema Nacional de Ciencia y Tecnología y a COLCIENCIAS para lograr un modelo productivo sustentado en la ciencia, la tecnología y la innovación, para darles valor agregado a los productos y servicios de nuestra economía, y propiciar el desarrollo productivo y una nueva industria nacional. La Universidad Nacional de Colombia y su Sede Medellín no son indiferentes a los lineamientos nacionales y, por el contrario, orientan dentro de sus pilares fundamentales la investigación y la consolidación de grupos de investigación, la innovación, la gestión tecnológica y la transferencia del conocimiento a la sociedad. Adicionalmente, incorporan entre las líneas de acción de su documento Rector, Plan Global de Desarrollo 2010–2012 [2], la línea de ciencia, tecnología, innovación y creación artística, que busca, entre otras, la articulación de la investigación con la extensión, dada su poca visibilidad de interacción y su importante función para contribuir al desarrollo del país. En efecto, vale la pena referenciar a Abello [3], quien resalta el papel protagónico que tiene la universidad dentro del entorno científico para apoyar la innovación sustentado en la capacidad para desarrollar investigaciones científicas y tecnológicas. Este trabajo tiene relevancia debido a que en la Institución se promueve la investigación y la transferencia de sus resultados a la empresa, pero actualmente no está definida una metodología oficial adoptada por la Universidad Nacional de Colombia, Sede Medellín, para valorar los productos innovadores con fines transferibles. Por tanto, es relevante adelantar un modelo de valoración financiera que retome aspectos importantes de los métodos existentes en el mercado y que integre elementos particulares de la Institución para que el modelo pueda ser reconocido y validado. Para ello, en primer lugar, se presentan

61

conceptos o elementos teóricos de innovación, valoración, gestión de innovación en Colombia, en la Universidad Nacional de Colombia y en la Sede Medellín. Seguidamente, se presentan los métodos de valoración financiera, un cuadro comparativo con sus ventajas y desventajas, y el análisis de los métodos, aplicados a la evaluación de productos innovadores. En tercer lugar, se propone un modelo de valoración financiera para la Universidad Nacional de Colombia Sede Medellín, sus variables, su comportamiento simulado y su aplicación a un producto innovador existente en la Universidad Nacional de Colombia y, finalmente, las conclusiones de la investigación. 1. MATERIALES Y MÉTODOS Para obtener la propuesta de valoración financiera aplicada a uno de los productos innovadores de la Universidad Nacional de Colombia, Sede Medellín, fue necesario hacer una revisión documental de conceptos, de metodologías de valoración financiera y de productos innovadores resultantes de las investigaciones adelantadas en la Universidad; realizar entrevistas a investigadores y personas vinculadas a la institución y conocedoras del tema, así como también hacer simulaciones para conocer el comportamiento de los métodos de valoración financiera existentes en el mercado y de la propuesta de valoración. 2 MARCO TEÓRICO 2.1 El concepto de innovación Aunque la literatura ofrece un variado conjunto de definiciones y términos relativos al concepto Innovación y a sus tipologías, se relacionan tres connotaciones importantes que cobran relevancia en este trabajo porque son explícitas al asociar el concepto con las necesidades y la introducción de los resultados al mercado: • “La innovación es el conjunto de actividades inscritas en un determinado período de tiempo

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 59 - 70  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


62

Diana Milena Osorno Alzate - Sergio Botero Botero

y lugar, que conducen a la introducción con éxito en el mercado, por primera vez, de una idea en forma de nuevos productos, servicios o técnicas de gestión y organización” [4].

la letra e, en honor del matemático suizo Leonardo Euler (1707 - 1783):

• Una invención se refiere al resultado directo de las actividades de investigación, mientras que la innovación implica un producto comercial. Las innovaciones parten de la idea de un producto/proceso que ha tenido en cuenta tanto la viabilidad como la necesidad del mercado; se trata, por tanto, de un proceso [5].

Aunque la función exponencial natural puede parecer una base extraña, surge de manera natural en cálculo. También surge en el análisis económico y en problemas que implican crecimiento o decrecimientos naturales como estudios poblacionales, interés compuesto y decaimiento radioactivo.

• La innovación es un factor básico de desarrollo en los países avanzados, no consiste únicamente en la incorporación de tecnología, sino que ayuda a prever las necesidades de los mercados y a detectar nuevos productos, procesos y servicios de mayor calidad, generando nuevas prestaciones con el menor costo posible [6].

2.4 El concepto de utilidad

2.2 El concepto de valoración Según Fernández [7], el valor no debe confundirse con el precio, que es la cantidad a la que el vendedor y comprador acuerdan realizar una operación de compra - venta. Afirma que algunos propósitos para una valoración son: • Operaciones de compra–venta: Para el comprador, la valoración le indica el precio máximo a pagar; mientras que para el vendedor, la valoración le indica el precio mínimo por el que debe vender. • Identificación de los impulsores de valor. La valoración permite identificar las fuentes de creación y destrucción de valor. 2.3 La función exponencial natural Haeussler y Paul [8] exponen que uno de los números más útiles como base de una función exponencial es cierto número irracional denotado por

Universidad de Medellín

e = 2.71828

(1)

En economía se llama utilidad a la capacidad que tiene una mercancía o servicio de dar satisfacción a una necesidad. En un sentido más amplio, utilidad es equivalente a bienestar, satisfacción, etc. Se dice que un bien o servicio tiene utilidad para alguien si esta persona prefiere poseerlo a no poseerlo. A partir de esta idea se construye la llamada función de utilidad que indica que la utilidad total de un individuo depende de los bienes que consume y de las cantidades consumidas de cada uno [9]. 2.5 Elementos teóricos asociados a la gestión de la innovación en Colombia, en la Universidad Nacional de Colombia y en la Sede Medellín En Colombia, la institucionalización de la investigación científica y tecnológica ha avanzado en los tres últimos lustros soportada por el Sistema Nacional de Ciencia y Tecnología (SNCyT), cuyas instancias de dirección y coordinación y sus principales programas y estrategias fueron establecidos por ley a comienzos de los 90, con COLCIENCIAS como su Secretaría Técnica y Administrativa. En este contexto, y como una iniciativa específica para fortalecer la comunidad científica colombiana, COLCIENCIAS viene impulsando, desde 1992, la creación y consolidación de Grupos de Investigación en universidades y centros de investigación y desarrollo tecnológico [10].


Modelo de valoración financiera para un producto innovador: aplicación a un producto de la Universidad Nacional de Colombia Sede Medellín

Por su parte, y de manera congruente con esta propuesta del SNCyT, un significativo número de universidades ha avanzado en la institucionalización de la investigación, dándole a esta actividad un lugar destacado en sus planes de desarrollo institucional y dotándola de instancias administrativas y financieras, a la vez que impulsando la creación de nuevos grupos de investigación y el fortalecimiento de los existentes. Producto de esta congruencia estratégica entre el SNCyT y las universidades, el número de grupos de investigación ha crecido vertiginosamente en el país, como puede observarse de los resultados de las convocatorias COLCIENCIAS [10]. Es por esto que las instituciones universitarias desempeñan un papel importante dentro del SNCyT por concentrar el mayor número de grupos de investigación e investigadores, por definir en la mayoría de ellas la investigación como área misional, y por ser receptoras de la mayor parte de los recursos destinados al sistema por parte del Estado colombiano. Por su complejidad institucional, la Universidad Nacional de Colombia ha estructurado su propio sistema al servicio de la investigación que está conformado por los investigadores, grupos, centros e institutos, organismos de apoyo, infraestructuras y recursos, y una normatividad apropiada para la gestión. En relación con la Universidad Nacional de Colombia Sede Medellín, es de resaltar el crecimiento de grupos y el crecimiento de número de grupos clasificados en las categorías A1 y A. Entre el año 2009 y 2010 se pasó de 5 a 9 grupos en categoría A1, y de 10 a 18 en categoría A. 2.6 Los métodos de valoración financiera Existen diversas metodologías para la valoración financiera de productos en economía, administración e ingeniería. Cruz et al. [11] destacan cuatro métodos principales que son de tipo contable, de mercado, de flujo de caja descontado y de opciones reales.

63

2.6.1 Métodos contables En el caso de la valoración de una empresa, la base de estimación es el valor de su patrimonio. A partir del valor constatado en los libros de contabilidad, se puede determinar el valor contable, el valor contable ajustado, el valor de liquidación y el valor sustancial, todos los cuales tienen por base el balance general. El valor contable es el valor –nominal– del patrimonio que figura en los libros de contabilidad y puede calcularse también como la diferencia entre el activo total y el pasivo exigible. 2.6.2 Métodos de mercado Son varias las metodologías asociadas a este método: el valor del mercado, método de múltiplos, valor de reposición y valor de liquidación. 2.6.3 Métodos de flujos de caja En este tipo de metodología se asume que el valor de la empresa será la suma de los flujos futuros que genere la compañía, descontados a una tasa que representa el costo del dinero. De esta forma puede observarse que para estas metodologías no es importante el precio de los activos en el mercado, sino el flujo de efectivo que los mismos puedan generar formando parte de la firma. 2.6.4 Método de Opciones Reales Hernández [12], considera que las opciones reales no son más que los derechos, sin obligaciones, de realizar acciones concretas que permitan maximizar el lado favorable o limitar el lado negativo de una inversión de capital. Cruz et al. [11] definen que las opciones reales reciben denominaciones o tipos según el objeto de cada una. Los principales tipos de opciones reales son: • Opción de aplazar o aprender. Existe cuando se puede tomar la decisión de esperar un tiempo para invertir, ya sea para obtener mayor información o porque se cree que en futuro las condiciones de mercado serán mejores.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 59 - 70  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


64

Diana Milena Osorno Alzate - Sergio Botero Botero

• Opción de salir o desinvertir. Se presenta cuando el proyecto tiene la flexibilidad necesaria para que una vez iniciado no se lleve a cabo o no se siga sin él. La opción de desinvertir se presenta cuando un proyecto se lleva a cabo por etapas, y en la finalización de cada segmento se toma de nuevo la decisión de continuar o retirarse del proyecto. En la tabla 1 se presentan las ventajas y las desventajas que ofrece cada uno de los métodos para una posible valoración financiera de productos innovadores. Como los métodos de valoración tienen aspectos a favor y desventajas, la pertinencia de utilizar uno u otro radica en el producto que se vaya a realizar y en la información disponible para realizar la valoración.

2.7 Análisis de los métodos de valoración financiera, aplicado a la evaluación de productos innovadores Por analogía con la valoración de empresas, la valoración singular de un producto con métodos contables implica considerar como valor contable o base, el valor registrado en libros al momento de su adquisición. Para el caso de un producto innovador de la Universidad Nacional de Colombia Sede Medellín, que es resultado de varios proyectos de investigación, se podría disponer de información de los presupuestos de los proyectos discriminados por rubros de inversión pero no de los elementos que integran un método contable (activos, pasivos, patrimonio). Entre los métodos de mercado, no cabe aplicar el valor de un producto nuevo entre los métodos que consideran el valor de las acciones en bolsa el cual es válido para empresas con tra-

Tabla 1. Ventajas y desventajas de los métodos en evaluación financiera Método

Contables

De mercado

De flujo de caja

De opciones reales

Ventajas

Desventajas

En la gran mayoría de los casos, es posible recopilar información para determinar el valor contable en especial si las necesidades de información están asociadas a compras, gastos, recursos de funcionamiento, etc.

Su información no es suficiente para realizar una valoración de productos y para determinar su precio de venta. Para el caso de la Universidad Nacional de Colombia, la información contable asociada a productos innovadores no es fácilmente identificable. No refleja lo que pasa en el mercado ni incorpora la ley de oferta y demanda. La mayor parte de la información de sus parámetros Para conocer el valor de los parámetros es necesario hacer puede consultarse en el mercado. algún tipo de estudio de mercado. Cuando el producto es similar a otros ya existentes en el El valor de mercado no tiene en cuenta la productividad mercado, el valor del producto puede estar referenciado del activo en el largo plazo. por el valor de otro producto. Son los métodos más aceptados y probados en el medio. Para la valoración requiere información contable y de mercado. Además de considerar el valor de mercado del producto, Requiere elaborar la información contable del producto ajusta ese valor según las ganancias que se espera a (flujos de caja) y consultar información en el mercado. futuro. Reconocido y aceptado en el mercado financiero. Contiene más parámetros de información que los demás No todos los parámetros de cálculo son adaptables a prométodos buscando obtener una estimación que permita ductos innovadores que salen por primera vez al mercado. acercarse a la realidad. Conocido y aplicado para negociaciones en el mercado bursátil. Fuente: elaboración propia

Universidad de Medellín


Modelo de valoración financiera para un producto innovador: aplicación a un producto de la Universidad Nacional de Colombia Sede Medellín

yectoria en el mercado bursátil. En teoría, podría determinarse o adaptarse un método de múltiplos para productos nuevos en el mercado (en este caso, si se considera que el producto innovador es un producto mejorado de otro existente). No es directa la aplicación de los métodos de flujo de caja por las variables que intervienen en el procedimiento de cálculo. Aunque se considera el mejor método de valoración de empresas, para aplicarlo a la valoración de productos innovadores sería necesario seleccionar y adaptar algunos conceptos según la información disponible en la institución en la que se valoraría el producto. Un concepto importante de los métodos de flujo de caja es que consideran un valor actual del producto por una expectativa futura de beneficios y un valor pasado de inversión a precios actuales. Los métodos de opciones reales son aplicables a la valoración de un producto innovador en la medida que este sea considerado un activo o una inversión productiva y se disponga de información adicional de su posible comportamiento en el mercado para determinar y valorar las opciones. Aun disponiendo de esta información, es necesario contar con un valor inicial del producto, sea contable, estimado por precios de mercado de productos similares o por flujo de caja descontado o por el precio inicial que se quiera asignar. 3. RESULTADOS 3.1 Variables del método compuesto 3.1.1 Variables del método compuesto asociada al método de flujo de caja I0: Inversión realizada al producto a precios de hoy. Esta variable incorpora elementos de la teoría del método de flujo de caja. Para poder calcularlo, es necesario conocer los valores de tres variables. La primera, está constituida por los costos totales de las inversiones valorados en el tiempo y equivalentes al valor presente de cada una de los proyectos

65

(VP); la segunda, por los períodos de inversión en los cuales fueron ejecutados los proyectos (n) y la tercera, es la tasa de interés (i) que se incorpore en la fórmula. Dado lo anterior, al momento de calcular I0, es posible disponer de varios VP cada uno con un valor diferente de n. 3.1.2 Variable del método compuesto asociada al método de mercado Esta propuesta de modelo incorpora como referencia el método de múltiplos por considerar que un múltiplo propio de la Institución da “especificidad” al modelo de valoración y permite incorporar elementos importantes y propios para la valoración de los productos de la empresa que lo está adoptando: pública, con fines sociales y con misión investigadora. Para la obtención del múltiplo, se procedió de la siguiente manera: • Identificación de elementos importantes. Se identifican teniendo como referencia las definiciones de innovación, los modelos de gestión de innovación y el contexto universitario e institucional. • Definición de las siguientes condiciones que debe cumplir el múltiplo:

Nunca puede tomar el valor de cero (0).

Debe estar en función de elementos importantes identificados.

Debe permitir incluir variables que ponderan la importancia de los elementos.

Si fuese necesario, el múltiplo debe permitir la incorporación de nuevos elementos y nuevas variables.

Debe representar, al momento de la valoración, “utilidad” para la institución, debido a que representa la posibilidad de obtener “algún beneficio” de transferir un producto innovador al mercado.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 59 - 70  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


66

Diana Milena Osorno Alzate - Sergio Botero Botero

• Validación de los elementos y de las condiciones del múltiplo. De acuerdo con Giraldo [13], una fórmula válida para incorporar un múltiplo con las condiciones adecuadas es la función de utilidad exponencial, puesto que cumple las condiciones anteriormente descritas. En consecuencia, un múltiplo para la fórmula del método compuesto que cumple las condiciones mencionadas y que representa una función de utilidad exponencial es: eb1´I +b2´R +b3´U

(2)

Del múltiplo expuesto, se resalta: • Independientemente del valor que se obtenga en el exponente, siempre se podrá valorar el producto innovador debido a que el mínimo valor del múltiplo será 1 y en ese caso el valor del producto innovador será igual a I0. • Contempla elementos importantes que permiten determinar “con identidad institucional” el valor del múltiplo:

Nivel de innovación del producto (I), es decir, si el mejorado o nuevo. Como se pueden tener dos resultados posibles (mejorado o nuevo), la utilidad podrá tomar dos valores posibles: cero si es mejorado y uno si es nuevo. Riesgo de incorporación en el mercado (R): al momento de la valoración, el producto es o no, demandado en el mercado. En este caso, el riesgo es no disponer de mercado para el resultado de la investigación. Como se puede tener dos resultados posibles, se considerará cero si no hay mercado y uno cuando el mercado exista y sea conocido. Uso del producto o del proceso innovador (U): social o comercial. Este elemento tiene una relación directa con la misión institucional. Tiene dos resultados posibles: fines sociales o comerciales. Se considerará un

Universidad de Medellín

valor de cero cuando el producto innovador esté relacionado con usos sociales y uno cuando su uso sea comercial.

Incorpora conceptos de la función de utilidad exponencial.

Cumple las propiedades de la función exponencial natural.

• Contiene valores b1, b2 y b3 que corresponden a los pesos porcentuales que representan la importancia de cada uno de los elementos I, R, U. Por ser valores porcentuales, la suma de b1, b2 y b3 debe ser igual al 100%. • Aunque la propuesta del múltiplo en el método compuesto se hace incorporando tres elementos importantes en función de la valoración del producto innovador, el múltiplo permite incorporar nuevos elementos que pueden ser relevantes para la Institución y para el evaluador. En caso que se requiera incorporar nuevos elementos de evaluación puede hacerse, siempre y cuando se tenga en cuenta que debe existir igual número de valores de b como de elementos y que siempre la sumatoria de los valores de b debe ser igual al 100 %. 3.2 Modelo de valoración financiera: método compuesto La propuesta de valoración financiera es un método compuesto que incorpora referencias importantes de dos métodos de valoración: el de flujo de caja y el de mercado (múltiplo). La construcción matemática del método compuesto es: VPI ( I , R,U ) = I 0 eb1´I +b2´R +b3´U

(3)

Donde: VPI (I,R,U): Valor del producto innovador (para productos innovadores en la Universidad Nacional de Colombia) en función de los elementos:


Modelo de valoración financiera para un producto innovador: aplicación a un producto de la Universidad Nacional de Colombia Sede Medellín

I0:

e

Nivel de innovación del producto (I), Riesgo de incorporación en el mercado (R) y Uso del producto o del proceso innovador (U)

La tendencia que presenta el valor del producto innovador cuando es fijo el valor de la inversión al momento de la valoración (Io) y el múltiplo varía, es ( eb1´I +b2´R +b3´U ) en dirección creciente.

Inversión realizada al producto a precios de hoy.

3.2.2 Aplicación a un caso práctico

b1´I +b2 ´R +b3´U

: múltiplo.

3.2.1 Simulación del método compuesto En el figura 1 se simulan valores teóricos para 21 productos, considerando que la inversión realizada al producto al momento de la valoración es de 100 (y se mantiene constante) y variando el valor del múltiplo un rango de 1 a 2.71828. La variación del múltiplo se hace teniendo como referencia que el valor mínimo que puede alcanzar el múltiplo es cuando el producto es mejorado, sin mercado y para uso social. En este caso el exponente b1*I+b2*R+b3*U equivale a cero (0). Por otro lado, se considera que el valor máximo que puede alcanzar el múltiplo es cuando el producto es nuevo, con mercado y para uso comercial. En este caso el exponente b1*I+b2*R+b3*U equivale a uno (1). VPI 300

Para validar el modelo propuesto, se tomó información del producto innovador “Gasificador combustor”, el cual ha sido resultado de tres proyectos de investigación financiados por instituciones públicas y por la empresa privada. Por cuestiones de confidencialidad institucional no se presentan datos reales, pero con la siguiente información y los siguientes valores, se puede obtener el valor del producto: • Los proyectos se iniciaron en los años 1995, 2000 y 2006 y tuvieron una duración de cuatro años, el primero, y tres años, los dos siguientes. • La inversión total de los proyectos de investigación es de 776 millones de pesos. • La inversión asociada directamente al producto innovador corresponde a 233 millones de pesos. • El valor de la inversión al año 2011 equivalente a VF(proyecto 1) + VF(proyecto 2) + VF(proyecto 3) es de 323 millones de pesos. • El Gasificador Combustor es considerado un producto nuevo, con mercado y con usos comerciales.

250 200

• Las variables que determinan el peso porcentual de cada uno de los elementos tienen el mismo valor, y es equivalente a 0.3333.

150 100 50 0

67

m 000

001

001

002

002

003

003

Figura 1. Valoración de un producto innovador en función de su múltiplo. Fuente: elaboración propia.

Al incorporar los valores en la formula, se determina el siguiente valor para el producto innovador: VPI ( I , R,U ) = I 0 * eb1´I +b2´R +b3´U

(4)

VPI ( I , R,U ) = 393* e0,33´1+0,33´1+0,33´1

(5)

VPI ( I , R,U ) = 1.067

(6)

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 59 - 70 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


68

Diana Milena Osorno Alzate - Sergio Botero Botero

4 CONCLUSIONES Aunque son diversas las definiciones referentes a la innovación y todas tienen su relevancia en el tiempo, es importante resaltar que en las definiciones se han incorporado elementos importantes para la innovación como introducción con éxito en el mercado [7], producto comercial [2] y necesidades de los mercados [8]. Estos nuevos elementos representan en cierta medida una evidencia de la pertinencia de este documento. Retomando el concepto de valoración de Fernández [9], en el que “el valor no debe confundirse con el precio”, la valoración financiera de un producto innovador resultante del modelo propuesto en este documento puede considerarse un valor de referencia para iniciar negociaciones. El resultado de las negociaciones que permitirá la obtención del precio del producto se obtendrá bajo los conceptos de la teoría económica relacionados con las leyes de oferta y demanda. Son diversas las metodologías existentes para la valoración de empresas o de productos, cada una de ellas con debilidades y fortalezas particulares que deben ser consideradas por quien seleccione una metodología con el objetivo de hacer una valoración. La selección de la metodología debe hacerse teniendo en cuenta el objetivo de la valoración y la información disponible para llevarla a cabo.

Universidad Nacional de Colombia, Sede Medellín, incorpora elementos importantes de dos métodos de valoración: el de flujo de caja y el de mercado. La variable asociada al método de mercado es propia para la Institución porque integra elementos relevantes obtenidos de los conceptos de innovación, cumple condiciones establecidas para la obtención de la valoración e incorpora conceptos de la función de utilidad exponencial. Esta variable está formulada de manera que permite incluir, si fuese necesario, nuevos elementos importantes para la institución y también, variables ponderadoras. REFERENCIAS [1] Colombia. Congreso de la república. Ley 1286 de 2009 “Por la cual se modifica la Ley 29 de 1990, se transforma a Colciencias en Departamento Administrativo, se fortalece el Sistema Nacional de Ciencia, Tecnología e Innovación en Colombia y se dictan otras disposiciones”. Bogotá: Diario Oficial No. 47.241, 2009. Artículo 1. [2] Universidad Nacional de Colombia. Plan Global de Desarrollo 2010 - 2012, Por una Universidad de excelencia, investigadora, innovadora y a la vanguardia del país. Bogotá: 2009. [3] R. Abello, “La Universidad: un factor clave para la innovación tecnológica empresarial”, Pensamiento y Gestión, N° 16, pp. 28 - 42, 2004. [4] J. Pavon. R. Goodman, “Proyecto Modeltec. La planificación del desarrollo tecnológico”, CDTI - C SIC, Madrid, 1981.

No existe un modelo de valoración financiera que esté relacionado directamente con la determinación del valor de un producto innovador. En este sentido, para valorar un producto innovador en una organización (para nuestro caso, en la Universidad Nacional de Colombia Sede Medellín) es posible retomar de los modelos de valoración existentes y aplicables a las empresas y a los productos, elementos importantes de los cuales se pueda obtener información financiera en el interior de la compañía.

[5] W.G. Biemans, “Managing Innovation within Networks”, Routledge, Londres/New York, 1992.

El método compuesto como propuesta de valoración financiera para los productos de la

[9] C. Sabino, Diccionario de Economía y Finanzas. Venezuela. Editorial Panapo. 1991. 301 p.

Universidad de Medellín

[6] H. Aranda Gutiérrez. M. L. De La Fuente Martínez. M. N. Becerra Reza, “Propuesta metodológica para evaluar la gestión de la innovación Tecnológica (GIT) en pequeñas y medianas empresas (PYMES)” Revista Mexicana de Agronegocios, vol. XIV, n.° 26, pp. 226 - 238, 2010. [7] P. Fernández, Valoración de empresas ¿Cómo medir y gestionar la creación de valor? Barcelona: Ediciones Gestión S. A., 2000, 932 p. [8] E. Haeussler. R.S. Paul . Matemáticas para la Administración y la Economía. México. Prentice Hall. 2003. 973 p.


Modelo de valoración financiera para un producto innovador: aplicación a un producto de la Universidad Nacional de Colombia Sede Medellín

69

[10] J. Robledo, “De los grupos consolidados de investigación a los sistemas dinámicos de innovación: El desafío actual del desarrollo científico y tecnológico colombiano”, Dyna, vol. 74, n.° 152, pp. 1 - 7. 2007.

[12] M. Hernández. “Aplicación de la teoría de opciones reales en un contexto de globalización financiera”, InterSedes: Revista de las Sedes Regionales, vol. VIII, n.° 14. pp. 65 - 73, 2007.

[11] S. Cruz. J. Villareal. J. Rosillo. Finanzas corporativas: Valoración, Política de Financiamiento y Riesgo. México: Internacional Thomson Editores, 2003, 636 p.

[13] Entrevista con Norman Diego Giraldo Gómez, Profesor asociado en dedicación exclusiva de la Escuela de Estadística de la Universidad Nacional de Colombia, Medellín, 12 de abril de 2011.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 59 - 70  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


Revista Ingenierías Universidad de Medellín

CONSTRUCCIÓN DE LA DISTRIBUCIÓN DE PÉRDIDAS Y EL PROBLEMA DE AGREGACIÓN DE RIESGO OPERATIVO BAJO MODELOS LDA: UNA REVISIÓN Andrés Mora Valencia* Recibido: 22/03/2012 Aprobado: 25/10/2013 RESUMEN Este artículo revisa la literatura más reciente en cuanto a la obtención de la distribución de pérdidas para riesgo operativo cuando se emplea el modelo de distribución de pérdidas agregadas (LDA, por sus siglas en inglés), y dependencia entre las líneas operativas. Cuando LDA es el método escogido para cuantificar riesgo operativo existen algunas cuestiones a resolver. Entre ellas está la obtención de la distribución de pérdidas, puesto que no existe una fórmula cerrada para obtenerla; sin embargo, existen métodos numéricos para resolver este problema. Finalmente, se presenta una revisión en cuanto a la obtención del riesgo operativo total de una entidad financiera, teniendo en cuenta la dependencia existente entre las diferentes líneas operativas. Palabras clave: enfoque de distribución de pérdidas agregadas, valor en riesgo, agregación, cópulas.

*

Magíster en Ingeniería Industrial de la Universidad de los Andes, especialista en Matemáticas Avanzadas de la Universidad Nacional de Colombia e Ingeniero Industrial de la Universidad del Valle. Profesor Asistente de la Universidad EAFIT, Escuela de Economía y Finanzas, Departamento de Finanzas. E-mail: amvalencia@eafit.edu.co

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 71 - 82  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


72

AndrĂŠs Mora Valencia

CONSTRUCTION OF LOSS DISTRIBUTION AND OPERATING RISK AGGREGATION PROBLEM UNDER LDA MODELS: A REVIEW ABSTRACT This article performs a review of the most recent literature associated to the obtaining of loss distribution for operating risk when the LDA (Loss Distribution Approach) and dependency among operating lines is employed. When the LDA is the method of election to quantify operating risks, there are several questions to be solved, such as the obtaining of loss distribution, since there is not a closed formula to obtain it; however, there are numerical methods to solve this problem. Finally, a review associated to the obtaining of total operating loss of a financial entity is shown, bearing in mind the dependency among the existing operating lines. Key words: loss distribution approach; value at risk; aggregation.

Universidad de MedellĂ­n


Construcción de la distribución de pérdidas y el problema de agregación de riesgo operativo bajo modelos LDA: una revisión

INTRODUCCIÓN En 2009, la OCC (US Office of the Comptroller of the Currency) reunió varios investigadores y profesionales dedicados al tema riesgo para discutir acerca de los desafíos más importantes que conlleva la cuantificación de riesgos. En cuanto a riesgo operativo, el resultado es un artículo divulgativo, denominado “Operational Risk – Modeling the Extreme”. Uno de los hallazgos de este artículo es que el modelo más usado por la industria en Estados Unidos es la distribución de pérdidas agregadas (Loss Distribution Approach, LDA), y para obtener la distribución de pérdidas, Monte Carlo es el preferido. Métodos que combinan LDA con la teoría del valor extremo (EVT, por sus siglas en inglés), son los más empleados por los bancos. Sin embargo, la principal crítica que se le hace al modelo LDA es que tiende a subestimar la cola de la distribución de pérdidas, donde se presenta la mayoría de eventos de pérdida. De acuerdo con Basilea, se requiere que las instituciones financieras calculen VaR al 99.9 % en un horizonte de un año como medida de riesgo operativo cuando se utiliza un enfoque de medición avanzada, como por ejemplo LDA. Para estimar este cuantil al 99.9 % se necesita la distribución de pérdidas agregadas y esta es la primera parte que trata este artículo, ya que realiza una revisión de los métodos numéricos existentes para obtener dicha distribución. Un estudio de revisión en cuanto a cuantificación de riesgo operativo en Colombia fue realizado por Franco et al. [1] publicado en Revista Ingenierías de la Universidad de Medellín. De esta manera, a escala nacional, este artículo puede ser visto como la continuación de [1] y al de Mora [2]. Estos artículos tratan el problema de estimación de cuantiles altos para riesgo operativo y hacen una revisión de la literatura más importante en los métodos sugeridos (enfoque de indicador básico, enfoque estándar y enfoque de medición avanzada) por Basilea para cuantificar este tipo de riesgos.

73

Existe una amplia literatura en administración de riesgo operativo como por ejemplo Cruz [3, 4], ; King [5], Alexander [6], Panjer [7], entre otros. Este artículo se divide de la siguiente manera: la sección 1 describe brevemente el enfoque de distribución de pérdidas agregadas; la sección 2 trata de los métodos para obtener la distribución de pérdidas agregadas; la sección 3 revisa los trabajos más recientes en el tratamiento de dependencia entre las líneas operativas, y finalmente la sección 4 cierra con las conclusiones. 1. EL ENFOQUE DE LA DISTRIBUCIÓN DE PÉRDIDAS AGREGADAS (LDA) Este enfoque consiste en estimar la distribución de pérdidas a partir de la combinación del proceso de frecuencia de eventos de pérdidas y el proceso de severidades. Este método tiene sus raíces en la actuaría, donde se desea calcular las pérdidas de una aseguradora por reclamos. Sea S(t) la suma N (t )

agregada de pérdidas dada por: S (t ) = å X i . i =1

• Donde Xi representa las pérdidas generadas por eventos de riesgo operativo. Por lo general, se asume una distribución continua para simular el proceso de severidades. Si se cuenta con suficientes datos históricos se procede a ajustar una distribución paramétrica a los datos, de lo contrario se puede usar datos externos. • N(t) representa el proceso de recuento, es decir, la frecuencia de eventos de pérdida y por lo general se asume una distribución discreta para simular este proceso. Generalmente se usa la distribución Poisson; sin embargo, se puede utilizar la binomial negativa o mixturas de distribuciones Poisson para simular sobre - dispersión. El enfoque LDA puede arrojar mayor o menor requerimiento de capital dependiendo de la entidad; sin embargo, en estudios de Haubenstock y Hardin [8], el enfoque LDA presenta menores

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 71 - 82  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


74

Andrés Mora Valencia

cargos de capital que los enfoques de indicador básico y estándar. Para combinar los dos procesos (de frecuencia y severidad) y obtener la distribución de pérdidas agregadas, lo más simple es utilizar una simulación Monte Carlo, pero existen otros métodos como la transformada rápida de Fourier (FFT, por sus siglas en inglés) o recursión de Panjer, que serán objeto de estudio en la primera parte de este artículo. El enfoque LDA es explicado en detalle por Frachot et al. [9], mientras que Aue y Kalkbrener [10] lo aplican a Deutsche Bank. Un ejemplo sencillo de cómo se emplea el enfoque LDA se encuentra en la sección 8.5 de [8], quienes modifican datos reales de una entidad financiera para asegurar confidencialidad. 2. CONSTRUCCIÓN DE LA DISTRIBUCIÓN DE PÉRDIDAS El proceso de calcular la distribución de pérdidas agregadas conlleva analizar métodos numéricos, puesto que en este proceso se obtienen convoluciones de la distribución de pérdida que no son tratables desde el punto de vista analítico. Entonces, existen varios métodos para obtener la distribución de pérdidas agregadas cuando se utiliza el método LDA. Entre ellos están la transformada rápida de Fourier (Robertson [11] y Wang [12]), la simulación Monte Carlo y la recursión de Panjer [13]. En la mayoría de estudios en riesgo operativo, se observa que el método preferido es la simulación Monte Carlo por su facilidad, pero, por ejemplo, Mignola y Ugoccioni [14] utilizan FFT. Algunos textos que discuten los métodos mencionados anteriormente son [7] y Klugman et al. [15]. Embrechts et al. [16] detallan los métodos más importantes en la obtención de distribución de pérdidas que se describen brevemente a continuación. • Métodos recursivos

El método más conocido en el área de seguros es el método recursivo de Panjer. Para emplear este método, es necesario que la distribución de la severidad sea discreta, pero si es continua

Universidad de Medellín

se necesita discretizarla. Técnicas de discretización se pueden encontrar en la sección 6.15 de Panjer y Willmot [17]. • Métodos de inversión Dentro de estos métodos se encuentra FFT que es un algoritmo para invertir la función característica y así obtener densidades de variables aleatorias discretas. • Métodos de aproximación Se pueden usar distribuciones paramétricas como por ejemplo la normal y otras asimétricas como el caso de la gamma trasladada y Pareto generalizada. Existen otros tipos de aproximaciones como la expansión de Edgeworth y por punto de silla (saddlepoint). • Métodos de simulación Aparte de la simulación Monte Carlo, también se puede realizar un bootstrapping para obtener la distribución de las pérdidas agregadas. Un algoritmo para obtener la distribución de pérdidas mediante este método se puede encontrar en la sección 7.6 de [6] y Reynolds y Syer [18]. a) Recursión de Panjer Sea: pk = P[N = k] la probabilidad de los eventos de pérdida. f k = P[Xi = k] la probabilidad de las severidades. gk = P[S = k] la probabilidad de la pérdida agreN

gada, como se vio anteriormente, S = å X i . i =1

Además suponga que: g0 = P[S = 0] = P[N = 0] = p0 Esto es, si no hay eventos, no hay pérdida. Entonces, se dice que N pertenece a la clase Panjer æ bö (a,b) si: pn = ççça + ÷÷÷ pn-1 è

para

n ³ 1.

Las distribuciones que cumplen con esta clase son la binomial, binomial negativa y Poisson. Los valores de a y b que cumplen la clase de Panjer son:


Construcción de la distribución de pérdidas y el problema de agregación de riesgo operativo bajo modelos LDA: una revisión

• Distribución Binomial(n,p):

• Distribución Binomial Negativa(α,p): a = 1- p

b = (a -1)(1 - p )

• Distribución Poisson(λ): a = 0

b =l

æ bi ö g r = å çça + ÷÷÷ f i g r -i ç rø i =1 è r

0.03

Entonces, el algoritmo para encontrar los valores de pérdida agregada está dado por: (1)

b) Métodos de inversión La transformada rápida de Fourier (FFT) es un algoritmo utilizado para invertir la función característica fS ( z ) = E éêëeiSz ùúû , para obtener densidades de variables aleatorias discretas. Para calcular las probabilidades se utiliza la siguiente relación: pk =

0.05

1- p

0.04

(n + 1) p

1 -iks å fˆ (s j )e j . n j = 0 ( n)

FFT con theta>0 FFT Panjer

0.02

b=

0.01

p 1- p

pesadas. Para el proceso de frecuencia se usa un proceso de Poisson homogéneo y un proceso de Cox. El primer caso es un proceso con intensidad (tasa de llegada) constante, mientras que en el proceso de Cox la intensidad depende del tiempo, pero además es estocástica.

0.00

a =-

75

0

5

10

15

20

25

Figura 1. Comparación del método de Panjer y FFT para severidad distribuida Pareto(4,3) y frecuencia distribuida Poisson(20). Fuente: elaboración propia basado en [21]

n-1

Para más detalles del cálculo de probabilidades a través de este método se puede consultar por ejemplo Embrechts y Klüppelberg [19], Grübel y Hermesmeier [20]. El siguiente gráfico reproduce la figura 1 de Embrechts y Frei [21], donde se asume que las pérdidas siguen una distribución Pareto(4,3) y las frecuencias una distribución Poisson(20). Para el método recursivo de Panjer se utilizó el método de redondeo para discretizar la distribución Pareto. Un ejemplo reciente de uso de estos métodos es el de Jang y Fu [22], quienes obtienen una expresión analítica de las transformadas de Laplace de las distribuciones de la pérdida agregada y luego invierten sus transformadas rápidas de Fourier para calcular medidas de riesgo. Los autores emplean las distribuciones loggamma, Fréchet y Gumbel truncada para simular las distribuciones de severidad con la característica de presentar colas pesadas, y exponencial que no presenta colas

c) Aproximaciones Suponga que el monto de las pérdidas es i.i.d. e independientes del proceso de frecuencia de eventos, y retome que las pérdidas agregadas son: N

S = å Xi. i =1

El valor esperado de las pérdidas agregadas está dado por E[S] = µE[N]. Donde µ es el valor esperado de la distribución de pérdidas y E[N] el valor esperado de la frecuencia de los eventos. La varianza de las pérdidas agregadas está dada por: var[S] = var[N]µ + E[N]var[X] Donde var[N] es la varianza del proceso de frecuencia y var[X] es la varianza de la distribución de las pérdidas, que es equivalente a µ2 - µ2, donde µ2 es el segundo momento de la distribución de pérdidas.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 71 - 82 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


76

Andrés Mora Valencia

• Aproximación a la normal Se puede entonces utilizar una aproximación normal para las pérdidas agregadas: P[S £ x] » P[Z £ x] = æ ÷÷ö çç x - E [ N ]m ÷÷ F çç çç var [ N ]m 2 + E [ N ](m - m 2 ) ÷÷÷ 2 è ø

(2)

Donde Φ es la distribución acumulada de una normal estándar. Si se asume que las frecuencias siguen una distribución Poisson, donde E[N] = var[N] = λ, entonces: æ x - lm ÷ö P [ S £ x ] » F ççç ÷÷ çè lm2 ø÷÷

(3)

• Aproximación a la gamma Otra propuesta es aproximar las pérdidas agregadas a k + G donde k es una constante y G es una distribución gamma Γ(γ,α) con parámetro de forma γ y de escala α. Puesto que a la distribución gamma se le adiciona la constante k, esta aproximación también recibe el nombre de gamma trasladada. La idea consiste en coincidir los tres primeros momentos de la distribución gamma con los de la pérdida agregada. Sea m, σ y β el valor esperado, la varianza y el coeficiente de asimetría de las pérdidas agregadas, entonces los parámetros de la distribución gamma y la constante k se pueden expresar como: g=

4 , b2

a=

2 , bs

k = m-

2s b

(4)

El siguiente gráfico muestra la aproximación de la gamma trasladada con los mismos datos del ejemplo en los gráficos anteriores. Se puede mostrar que µ3 = 27.

Panjer Normal

0.00

0.00

0.01

0.01

Panjer Gamma Trasladada

0.02

0.02

0.03

0.03

0.04

0.04

0.05

0.05

0.06

0.06

Para el caso del gráfico anterior (figura 1), donde se asume que las pérdidas siguen una distribución Pareto(4,3) y la frecuencia Poisson(20), los valores faltantes son µ = 1 y µ2 = 3. Con estos valores se grafica la densidad con la aproximación normal y se compara con la densidad obtenida mediante la recursión de Panjer.

sesgadas y la normal es una distribución simétrica; por ende, no brindaría un buen ajuste. Para ello se propone el uso de la distribución gamma como una mejor aproximación.

0

5

10

15

20

25 0

Figura 2. Comparación del método de Panjer con la aproximación normal para la misma distribución usada en la Figura 1. Fuente: elaboración propia

El problema, como se ve en el gráfico anterior, es que las distribuciones de pérdida pueden ser Universidad de Medellín

5

10

15

20

25

Figura 3. Comparación del método de Panjer con la aproximación gamma trasladada con la misma distribución de la Figura 1. Fuente: elaboración propia.

Al compararla con la aproximación normal, se observa que la gamma trasladada ofrece una


Construcción de la distribución de pérdidas y el problema de agregación de riesgo operativo bajo modelos LDA: una revisión

mejor aproximación a la distribución de pérdidas agregadas. d) Simulación

0.02

0.03

0.04

0.05

0.06

El método más sencillo de obtener pérdidas agregadas es la simulación Monte Carlo y a continuación se presenta una comparación de las densidades con el método recursivo de Panjer.

0.00

0.01

Panjer Sim MC N=1000 Sim MC N=100000

0

5

10

15

20

25

Figura 4. Comparación del método de Panjer con 1.000 y 100.000 simulaciones Monte Carlo. Los datos son los mismos de la Figura 1. Fuente: elaboración propia.

Como se observa en la anterior figura, entre más datos se simulen, se obtiene una mejor aproximación a la distribución de pérdidas agregadas. Para una comparación en velocidad y confiabilidad de simulación Monte Carlo, métodos de recursión y FFT, ver Temnov y Warnung [23]. Peters y Sisson [24] y Peters et al. [25] emplean simulación Monte Carlo de Cadenas de Markov (MCMC, por sus siglas en inglés) y modelos bayesianos para estimación de parámetros y la obtención de la distribución de pérdidas agregadas. Los autores aconsejan usar estas técnicas puesto que son más eficientes que los métodos tradicionales de simulación Monte Carlo. Comentarios Para más detalles de los métodos de recursión y FFT como sus problemas, ver [21] y las referencias allí contenidas. Aunque el algoritmo recursivo de Panjer ha sido ampliamente usado en actuaría y pre-

77

senta una aproximación confiable a la distribución de pérdidas agregadas, los autores reconocen que FFT posee dos ventajas sobre este algoritmo. Una es que funciona con cualquier tipo de distribución discreta, puesto que la recursión de Panjer solo funciona para distribuciones binomial, binomial negativa y Poisson. Otra ventaja de FFT es que es mucho más eficiente. Un método que mejora algunos de los problemas de recursión de Panjer es presentado en Guégan y Hassani [26]. Otro artículo donde se realizan comparaciones de los métodos mencionados es el de Shevchenko [27], quien concluye que cada método tiene sus fortalezas y debilidades. Por ejemplo, la simulación Monte Carlo es lenta pero es fácil de implementar y permite modelar dependencia. Esta última característica no es fácil de incluir en los métodos de FFT y Panjer; sin embargo, el método de Panjer es el más fácil de implementar aunque incluye error de discretización. El método de FFT es generalmente más rápido. A continuación se presenta la segunda parte del artículo que respecta a la revisión de literatura de métodos de agregación. 3. CÓPULA COMO MÉTODO DE AGREGACIÓN DE RIESGOS El problema de agregación involucra la dependencia que puede existir entre los tipos de riesgo y líneas de negocio. Al existir dependencia en las líneas de negocio, y si se calcula el cargo de capital como la suma de los VaR individuales, puede ocurrir una sobre - estimación del verdadero cargo. Si las severidades presentan distribuciones con colas pesadas, el VaR puede violar la propiedad de subaditividad, y por ende, obtener un cargo de capital subestimado. Al obtener el VaR al 99.9 % de cada línea operativa por tipo de riesgo, los bancos pueden obtener el cargo por capital total (CxCRO), sumando todos los VaR y aplicar un factor de diversificación δ, de acuerdo con Basilea (Sección 657 y 669 (d) de BCBS [28]). En la práctica, los bancos reclaman que δ esté entre el 10 % y 30 %. Esto es:

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 71 - 82 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


78

Andrés Mora Valencia

 d  = = CxC RO VaR 99.9%  ∑Si   i =1  d

(1 − δ ) ∑VaR99.9% ( Si )

(5)

i =1

Donde Si denota la pérdida por riesgo operativo anual en cada línea operativa i para todas las d líneas. Y δ es un porcentaje por beneficios de diversificación. Nešlehová et al. [29] encuentran que bajo modelos de “media infinita” 1, los bancos no podrían justificar beneficios de diversificación, puesto que el VaR es no subaditivo (ver Artzner et al. [30]). Para el caso específico de riesgo operativo, esto es: æ d ö d VaR99.9% ççåSi ÷÷÷ ³ åVaR99.9% ( Si ) çè i=1 ÷ø i=1

(6)

El artículo de Degen et al. [31] realiza sensibilidades de los beneficios de diversificación con respecto a niveles de confiabilidad al cual se desea estimar el VaR con severidades distribuidas Pareto, Burr y g - h. Uno de los principales resultados del artículo es que no solamente para modelos de media infinita se obtiene la violación del axioma de subaditividad del VaR, pero podría darse también con modelos de media finita (por ejemplo, distribución Burr con parámetros τ = 0.25 y κ = 8, y distribución g - h con parámetros g = 2 y h = 0.5). Es decir, agregar riesgos puede conllevar beneficios negativos de diversificación sin importar cuán pesada es la cola de la distribución de las pérdidas cuando se estima VaR. Pueden existir varios tipos de dependencia en las celdas, y Böcker y Klüppelberg [32] realizan 1

Estos modelos son llamados así porque las colas de las distribuciones son muy pesadas y puede conllevar a estimación de cargos de capital absurdos mediante VaR. Bajo estos modelos, medidas como expected shortfall no tienen sentido. Para más detalles y discusión de estos modelos, ver [29].

Universidad de Medellín

en la primera sección una revisión de la literatura acerca de estos tipos de dependencia. Los autores encuentran que modelar dependencia en la frecuencia de pérdida no es tan relevante. En aplicaciones financieras la medida estadística más utilizada para medir dependencia es la correlación lineal; sin embargo, esta medida solo captura dependencia lineal. Embrechts et al. [33] señalan que el uso de correlación lineal no trae problemas cuando los factores de riesgo se distribuyen normal, pero en la mayoría de riesgos financieros este no es el caso. Para solucionar este y otros problemas, se propone el uso de otras medidas de correlación (basadas en rangos) o el uso de cópulas. Las cópulas representan una manera de extraer la estructura de dependencia de una distribución conjunta. Para una discusión de las ventajas y desventajas del uso de cópulas frente a correlación, ver por ejemplo Moosa [34]. Acerca de cópulas existe una amplia literatura, entre ellos están: Joe [35], Nelsen [36], Cherubini et al. [37], Trivedi y Zimmer [38], Fredheim [39], Rank [40], entre otros. Una cópula puede ser vista como una función para obtener una distribución conjunta a partir de dos o más funciones de distribución marginal. La representación más conocida se debe a Sklar [41]: F ( x1 ,, xm ) = C ( F1 ( x1 ),, Fn ( xn ))

.

Donde F es la distribución conjunta, F1,..., Fn son las distribuciones marginales y C es la cópula. Si las distribuciones marginales son continuas, entonces la cópula es única. Dependencia de las pérdidas por riesgo operativo entre las diferentes líneas operativas se pueden obtener de diferentes maneras. Una manera es tener en cuenta la dependencia en la frecuencia de eventos vía cópulas. Algunos de estos estudios son: [9], [10] y Bee [42]. Otra manera es tener en cuenta dependencia entre las severidades anuales mediante cópulas, y es la que se presenta en este artículo. A continuación se detallan algunos de estos estudios más recientes.


Construcción de la distribución de pérdidas y el problema de agregación de riesgo operativo bajo modelos LDA: una revisión

El - Gamal et al. [43] utilizan datos de un banco (del The 2004 Operational Risk Loss Data Collection Exercise  -  LDCE) y la cópula - t, puesto que permite modelar colas pesadas y mayor dependencia en las colas. Para las marginales se utiliza una distribución cuyo cuerpo es lognormal y en las colas la distribución de Pareto generalizada (GPD, por sus siglas en inglés). Finalmente, los autores obtienen como resultado una diversificación entre 0.5 % y 10.7 % en sus cálculos de VaR. Otro estudio que utiliza la cópula - t es el de Giacometti et al. [44]. Los autores utilizan distribuciones de colas pesadas para simular severidades, un proceso de Poisson no homogéneo para las frecuencias y emplean dos casos de cópulas. Una la tradicional t y otra t - sesgada al caso de un banco europeo. Uno de los resultados del artículo es que la reducción de capital que se obtiene al usar severidades con colas cortas o medianas en las marginales de la cópula es menor a la reducción obtenida con marginales de colas pesadas. Al estimar VaR al 99.9 % los resultados arrojan una reducción de cargo de capital entre el 21 % y el 30 % mediante las cópulas t y t - sesgada. Lee y Fang [45] también utilizan cópulas Gaussiana, t y Clayton en bancos comerciales de Taiwan. Para modelar dependencia entre frecuencia y severidad en las diferentes celdas, [32] usan la cópula Lévy. Para ello, asumen que el proceso de frecuencia sigue un proceso de Poisson homogéneo y todas las severidades son iid. Uno de los resultados más importantes de su artículo es la extensión del caso univariado LDA de una celda a un modelo de Poisson compuesto multivariado. El VaR puede ser obtenido mediante simulación, puesto que no existe una fórmula cerrada en este caso. Un estudio que se enfoca en las diferencias de cálculo de VaR al 99.9 % entre la agregación por tipo de línea operativa y agregación por tipo de riesgo es el realizado por Embrechts y Puccetti [46]. Los autores llaman a esta diferencia Δ y estiman tres casos donde modelan dependencia entre severidades como también entre frecuencias. Este último caso

79

no es tan sencillo, puesto que las marginales no son distribuciones continuas. Para un tratamiento de este tipo de cópulas se recomienda ver el artículo de Genest y Nešlehová [47]. Para el proceso de frecuencia se asume un proceso de Poisson homogéneo con parámetro λ igual a 20 y se utilizan severidades con distribuciones lognormal y Pareto con un índice de cola entre 1 y 4. Esto quiere decir que no se utilizan modelos de media infinita. El principal resultado de [46] es que Δ disminuye a medida que se incrementa la dependencia. Adicionalmente, esta diferencia disminuye más con interdependencia entre las severidades que entre las de frecuencia. Un estudio que sí involucra modelos de media infinita es el de Abbate et al. [48], donde los autores emplean la base de datos de cuatro años de un banco. Los autores usan distribuciones de severidad donde el cuerpo es lognormal y las colas GPD, y el proceso de frecuencia sigue un modelo Poisson homogéneo. Al estimar el índice de cola de las distribuciones, se encuentra que una línea operativa sigue un modelo de media infinita. Al seguir la recomendación de Basilea, de obtener el VaR por líneas operativas, se encuentra que el VaR no es coherente a varios niveles de confiabilidad, al incluir la línea operativa con distribución de media infinita. Esta no subaditividad conduce a subestimaciones del VaR en el caso de perfecta dependencia (llamado también caso comonotónico), lo cual es consistente con un hallazgo previo de Embrechts y Puccetti [49]. Uno de los principales resultados de este artículo es que para modelos de media finita, el VaR es subaditivo, y agregar pérdidas mediante cópulas ayuda disminuir el cargo por capital, mientras que para modelos de media infinita, VaR no es coherente, y por ende, conduce a que las cópulas no reducen cargo de capital. Es decir, para el último caso no hay beneficios de diversificación. [48] también prueban las cópulas Frank y Cook - Johnson, pero no encuentran mucha diferencia en los estimados de cargos de capital con estas dos cópulas.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 71 - 82  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


80

Andrés Mora Valencia

Comentarios Modelar dependencia entre pérdidas es aún un desafío en riesgo operativo. En la revisión de la literatura se observa que la técnica más utilizada es cópulas. Se debe tener especial cuidado con el uso de cópulas al querer reducir los estimados de cargos de capital en un gran porcentaje. La revisión de la literatura muestra que se pueden lograr grandes reducciones en el VaR total de una entidad financiera (en especial cuando las distribuciones no tienen colas tan pesadas); sin embargo, se debe usar la cópula adecuada para modelar la dependencia entre las líneas de negocios. Cuando se presenta el caso de distribuciones de pérdida con colas muy pesadas, el VaR es no subaditivo, y por ende, dependencia puede conducir a subestimaciones en los cargos de capital. Sin embargo, aun para algunos casos donde la distribución no exhibe colas tan pesadas, el VaR puede ser no subaditivo como lo muestran [31]. Se observa que en la mayoría de los estudios se utiliza la distribución GPD para ajustar la cola de las marginales (de las pérdidas). La cópula gaussiana es muy empleada, pero tiende a subestimar capital de riesgo, por no capturar de manera efectiva los eventos de cola. Por lo tanto, se compara con la cópula t, puesto que esta cópula soluciona el problema de la cópula gaussiana cuando los grados de libertad son bajos. Los autores argumentan que esta distribución se ajusta mejor en las colas de las pérdidas que otras distribuciones. 4. CONCLUSIONES Bajo el enfoque LDA existen varios métodos para construir la distribución de pérdidas agregadas. La simulación Monte Carlo es el método más sencillo y usado en la práctica, pero es lento. Métodos de Panjer también son sencillos de implementar, pero incluyen error de discretización y FFT es rápido desde el punto de vista computacional, pero no es tan sencillo de implementar como los otros métodos. En cuanto a dependencia, si los bancos Universidad de Medellín

desean persuadir al regulador de obtener beneficios por diversificación, deben emplear una técnica convincente. El uso de cópulas es adecuado en la agregación de riesgos y captura dependencia. Sin embargo, los beneficios de diversificación, al usar una medida como VaR, se pueden desvanecer dependiendo del comportamiento de las colas de las distribuciones de pérdida. Es por esto que se sugiere comenzar a revisar otras medidas de riesgo. En principio, expected shortfall puede ser una buena alternativa, pero esta medida no existe en modelos de media infinita. Por ejemplo, Heyde et al. [50] recomiendan el uso de la mediana condicional de la cola, también sugerido por Moscadelli [51]. REFERENCIAS [1] L. C. Franco, J. G. Murillo, et al., “Riesgo Operacional: Reto actual de las entidades financieras”. Revista Ingenierías Universidad de Medellín. Vol. 5, no. 9, pp. 97 - 110, 2006. [2] A. Mora, “Consideraciones en la estimación de cuantiles altos en riesgo operativo”. Análisis – Revista del Mercado de Valores. Número 1, pp. 181 - 216, 2010. [3] M. Cruz, Modelling, Measuring and hedging operational risk. Wiley, Chichester, 2002. [4] M. Cruz (editor), Operational risk modelling and analysis: Theory and Practice. Risk Waters Group, London, 2004. [5] J. King, Measurement and modelling operational risk. Wiley, 2001. [6] C. Alexander, “Statistical models of operational loss”, in Alexander C. (2003), pp. 129 - 170. Operational Risk: Regulation, Analysis and Management, Prentice Hall, Upper Saddle River, NJ, 2003. [7] H. Panjer, Operational risk: Modeling analytics. Wiley Series in Probability and Statistics, 2006. [8] M. Haubenstock y L. Hardin, “The loss distribution approach”, in Alexander C. (2003), pp. 229 - 240, Operational Risk: Regulation, Analysis and Management, Prentice Hall, Upper Saddle River, NJ, 2003. [9] A. Frachot, O. Moudoulaud y T. Roncalli, “Loss distribution approach in practice”. The Basel Handbook: A Guide for Financial Practitioners. Ong, M. (ed). Risk Books, London, pp. 527 - 554, 2004.


Construcción de la distribución de pérdidas y el problema de agregación de riesgo operativo bajo modelos LDA: una revisión

[10] F. Aue y M. Kalkbrener, “LDA at work: Deutsche Bank’s approach to quantifying operational risk”, Journal of Operational Risk, 1(4), 49 - 93, 2006. [11] J. Robertson, “The computation of aggregate loss distributions”, PCAS LXXIX pp. 57 - 133, 1992. [12] S. Wang, “Aggregation of correlated risk portfolios: Models and algorithms”, Report. Disponible: www. casact.org/cotor/wang.pdf, 1998. [13] H. Panjer, “Recursive evaluation of a family of compound distributions”, ASTIN Bulletin, 12, 22 - 26, 1981. [14] G. Mignola y R. Ugoccioni, “Sources of uncertainty in modeling operational risk losses”. Journal of Operational Risk, Vol. 1, N° 2, 33 - 50, 2006. [15] S. A. Klugman, H. Panjer, y G. E. Willmot, Loss models: From data to decisions. Wiley, 1998. [16] P. Embrechts, Furrer, H. y R. Kaufmann, “Quantifying regulatory capital for operational risk”. Derivatives Use, Trading & Regulation, 9(3): 217 - 233, 2003. [17] H. Panjer y G. Willmot, Insurance risk models, Society of Actuaries, Schaumberg, IL, 1992. [18] D. Reynolds y D. Syer, “A general simulation framework for operational loss distributions”. En C. Alexander, Operational Risk: Regulation, Analysis and Management, Prentice Hall, Upper Saddle River, NJ, pp. 193 - 214, 2003. [19] P. Embrechts y C. Klüppelberg, “Some aspects of insurance mathematics”. Theory of Probability and its Applications, 38 pp. 262 - 295, 1994. [20] R. Grübel, y R. Hermesmeier, “Computation of compound distributions II: discretization errors and Richardson exptrapolation”. ASTIN Bulletin 30, 309 - 331, 1999. [21] P. Embrechts y M. Frei, “Panjer recursion versus FFT for compound distributions”. Mathematical Methods of Operations Research, 69(3):497 - 508, 2009. [22] J. Jang y G. Fu, “Transform approach for operational risk modeling: Value - at - R isk and Tail Conditional Expectation”. Journal of Operational Risk, 3 N° 2, 2008. [23] G. Temnov y R. Warnung, “A comparison of loss aggregation methods for operational risk”. Journal of Operational Risk, 3 N° 1, 2008. [24] G. Peters W. y S. Sisson, “Bayesian inference Monte Carlo sampling and operational risk”. Journal of Operational Risk, 1, N° 3, 2006.

81

[25] G. W. Peters, A. M. Johansen y A. Doucet, “Simulation of the annual loss distribution in operational risk via Panjer recursions and Volterra integral equations for value at risk and expected shortfall estimation”. Journal of Operational Risk, 2, N° 3, 2007. [26] D. Guégan y B. Hassani, “A modified Panjer algorithm for operational risk capital calculations”. Journal of Operational Risk, 4 N° 4, 2009. [27] P. V. Shevchenko, “Calculation of aggregate loss distributions”. The Journal of Operational Risk, 5(2), pp. 3 - 40, 2010. [28] BCBS, “International convergence of capital measurement and capital standards: A revised framework”. Bank for International Settlements, Basel, 2006. [29] J. Nešlehová, V. Chavez - Demoulin, y P. Embrechts, “Infinite - mean models and the LDA for operational risk”. Journal of Operational Risk, 1 (1) pp. 3 - 25, 2006. [30] P. Artzner, F. Delbaen, J. M. Eber y D. Heath, “Coherent measures of risk”. Mathematical Finance 9: 203 - 228, 1999. [31] M. Degen, D. Lambrigger, y J. Segers, “Risk concentration and diversification: Second - order properties”. Insurance: Mathematics and Economics, 46: 541 - 546, 2010. [32] K. Böcker, y C. Klüppelberg, “Modeling and measuring multivariate operational risk with Lévy copulas”. Journal of Operational Risk, 3 N° 2, 2008. [33] P. Embrechts, A. J. McNeil y D. Straumann, “Correlation: Pitfalls and alternatives A short, non - technical article”, RISK Magazine, May, 69 - 71, 1999. [34] I. A. Moosa, Operational risk management. London: Palgrave, 2007. [35] H. Joe, Multivariate models and dependence concepts. Chapman & Hall, London, 1997. [36] R. B. Nelsen, An introduction to copulas. Springer, New York, 1999. [37] U. Cherubini, E. Luciano y W. Vecchiato, Copula methods in finance. Wiley, 2004. [38] P. K. Trivedi y D. M. Zimmer, Copula modeling: An introduction for practitioners. Now Publishers Inc, 2007. [39] M. Fredheim, Copula methods in finance. VDM Verlag, 2008. [40] J. Rank, Copulas: From theory to application in finance. Risk Books, 2006.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 71 - 82  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


82

Andrés Mora Valencia

[41] A.Sklar, “Fonctions de répartition à n dimensions et leurs marges”, Publications de l’Institut de Statistique de L’Université de Paris, 8, pp. 229 - 231, 1959. [42] M. Bee, “Copula - based multivariate models with applications to risk management and insurance”. Working Paper, Università degli Studi di Trento, 2005. [43] M. El - Gamal, H. Inanoglu, y M. Stengel, “Multivariate estimation for operational risk with judicious use of extreme value theory”. Journal of Operational Risk, 2 N° 1, 2007. [44] R. Giacometti, S. Rachev, A. Chernobai, y M. Bertocchi, “Aggregation issues in operational risk”. Journal of Operational Risk, 3 N° 3, 2008. [45] W. - C. Lee y C. - J. Fang, “The measurement of capital for operational risk in Taiwanese commercial banks”. Journal of Operational Risk, 5 (2) pp. 79 - 102, 2010. [46] P. Embrechts y G. Puccetti, “Aggregating risk across matrix structured loss data: the case of operational risk”. Journal of Operational Risk 3(2), 29 - 44, 2008.

Universidad de Medellín

[47] C. Genest y J. Nešlehová, “A primer on copulas for count data”. The Astin Bulletin, 37, 475 - 515, 2007. [48] D. Abbate, W. Farkas y E. Gourier, “Operational risk quantification using extreme value theory and copulas: From theory to practice”. Journal of Operational Risk, 4 N° 3, 2009. [49] P. Embrechts y G. Puccetti, “Aggregating risk capital, with an application to operational risk”. The Geneva Risk and Insurance Review, 31(2): 71–90, 2006. [50] C.C. Heyde, S.G. Kou y X.H. Peng, “What is a good risk measure: Bridging the gaps between data, coherent risk measures, and insurance risk measures”. Columbia University. Preprint, 2006. [51] M. Moscadelli, “The modelling of operational risk: Experience with the analysis of the data collected by the Basel Committee”. Technical Report 517. Banca d’Italia, 2004.


Revista Ingenierías Universidad de Medellín

VALORACIÓN DE PROYECTOS DE ENERGÍA TÉRMICA BAJO CONDICIONES DE INCERTIDUMBRE A TRAVÉS DE OPCIONES REALES Mónica A. Arango Arango* Elizabeth T. Arroyave Cataño** Juan D. Hernández*** Recibido: 14/05/2013 Aprobado: 25/10/2013 RESUMEN Este trabajo valora una planta a base de carbón para la generación de energía térmica en un país latinoamericano considerando sus opciones reales. El trabajo presenta, en primer lugar, el comportamiento probabilístico de cada una de las variables que afectan la viabilidad financiera del proyecto. Para ello, se proponen modelos ARIMAGARCH que permiten pronosticar las medias y la volatilidad de las variables que determinan el flujo de caja. Debido a la alta volatilidad en los precios de la energía y al incremento del precio internacional del carbón en los últimos años, se espera que estos proyectos no sean viables financieramente. Sin embargo, al considerar las opciones reales de expansión, de abandono y de continuar puede dar como resultado escenarios en los cuales esta tecnología sea competitiva. Los resultados obtenidos sugieren disminución de los riesgos de pérdida e incremento del valor del proyecto. Palabras clave: opciones reales, valoración, simulación Monte Carlo, energía.

*

Economista, Universidad de Antioquia, Medellín, Colombia. Candidata a Doctora en Ingeniería Industria y organizaciones, Universidad Nacional de Colombia. Magíster en Administración Financiera y Magíster en Finanzas, Universidad EAFIT, Medellín, Colombia. Especia¬lista en Finanzas, Universidad EAFIT, Medellín, Colombia. Profesora tiempo completo, Programa de Ingeniería Financiera, Universidad de Medellín, Medellín, Colombia. Miembro activo del Grupo de Investigación en Ingeniería Financiera GINIF. Carrera 87 N° 30 - 65 Medellín, Colombia. Teléfono +57(4) 3405288. Correo electrónico: moarango@udem.edu.co

**

Administrador de negocios, Universidad EAFIT, Medellín, Colombia. Magíster en Administración Financiera y Magíster en Finanzas, Universidad EAFIT, Medellín, Colombia. Especialista en Finanzas, Universidad EAFIT, Medellín, Colombia. Profesora tiempo completo, Programa de Ingeniería Financiera, Universidad de Medellín, Medellín, Colombia. Miembro activo del Grupo de Investigación en Ingeniería Financiera GINIF. Carrera 87 N° 30 - 65 Medellín, Colombia. Teléfono +57(4) 3405420. Correo electrónico: etarroyave@udem.edu.co

***

Contador Público, Universidad de Antioquia, Medellín, Colombia. Magíster en Finanzas, Universidad EAFIT, Medellín, Colombia. Catedrático, Programa de Ingeniería Financiera, Universidad de Medellín, Medellín, Colombia. Carrera 87 N° 30 - 65 Medellín – Colombia. Teléfono: 3405233. Correo: jdhernandez@udem.edu.co

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 83 -1 0 0  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


84

Mónica A. Arango Arango - Elizabeth T. Arroyave Cataño - Juan D. Hernández

VALUATION OF THERMAL ENERGY PROJECTS UNDER UNCERTAINTY CONDITIONS THROUGH REAL OPTIONS ABSTRACT This article shows the valuation of carbon-based plant for generation of thermal energy in a Latin American country, taking real options into consideration. The work first shows the probabilistic behavior of each variable which affects financial viability of the project. For this purpose, ARIMA-GARCH models which allow foreseeing means and volatility of variables which determine the cash flow are proposed. Due to the high volatility of energy prices and the increased international price of carbon during the last years, these projects are not expected to be financially viable. However, when considering the real option to expansion, abandonment and continue can result scenarios in which this technology is competitive. Results obtained suggest a decrease of loss risks and an increase of the project value. Key words: Real options; valuation; Monte Carlo simulation; energy.

Universidad de Medellín


Valoración de proyectos de energía térmica bajo condiciones de incertidumbre a través de opciones reales

INTRODUCCIÓN En el año 2006 Colombia contaba con un parque de generación de energía eléctrica compuesto principalmente por plantas hídricas, con una capacidad que representaba el 64.1 % del total de la capacidad efectiva del Sistema Interconectado Nacional (SIN); el resto de la generación se encontraba representada por un 32.1 % en térmica y un 3.8 % en otros tipos de generación. A enero de 2012 Colombia cuenta con un parque de generación de energía eléctrica compuesto, de un 78.4 % hidráulica, 15.4 % térmica y 6.2 % para menores y cogeneradores, lo que evidencia que la generación de energía hidráulica es aún la de mayor participación en Colombia. La posición geográfica y la riqueza hídrica del país han permitido el desarrollo de la energía hidráulica, posicionándola como la mayor fuente en el mercado energético nacional, lo que constituye un riesgo al depender principalmente de esta alternativa de generación de energía. Si bien es importante para el país el desarrollo del sector eléctrico a partir de su riqueza hídrica, esta dependencia podría atentar contra la confiabilidad de la prestación continua y sostenible del servicio, considerada como una de las principales preocupaciones del Gobierno después de la crisis energética de los noventa. Esta realidad ha motivado el interés del Estado colombiano por crear mecanismos e incentivar inversiones en combustibles sustitutos para la generación de energía que aseguren la disponibilidad para cubrir la demanda creciente. Una alternativa complementaria a la generación de energía hidráulica consiste en la producción de energía térmica a través de carbón como combustible. Esta alternativa de generación es de gran confiabilidad para el sistema interconectado nacional, pues existe garantía de reservas del carbón en el largo plazo, y la generación a través de este combustible no depende de las condiciones climáticas del país, como es el caso de las fuentes hídricas. La evidencia empírica en Colombia indica que la generación térmica actúa como un bien comple-

85

mentario en época de sequía. Según el Ministerio de Minas y Energía de Colombia [1] durante 2010, la composición hidráulico  -  térmica de la generación estuvo impactada por la finalización del fenómeno climático El Niño en el primer trimestre, acompañado de bajos aportes hídricos, y el desarrollo del fenómeno La Niña en el segundo semestre, asociado con altos aportes. El impacto combinado de ambos fenómenos climáticos sobre los aportes hídricos al Sistema Interconectado Nacional, SIN llevó a finalizar un año en condiciones hídricas promedio, con aportes totales anuales de 52.302,1 GWh equivalentes al 106,9 % del promedio histórico. Fue así como la generación térmica participó en la generación del SIN hasta en un 53,3 % (enero de 2010) en pleno desarrollo de El Niño. Considerando las diferentes tecnologías de generación de energía existentes, se hace necesario evaluar cada una de estas de acuerdo con la disponibilidad de recursos naturales y las necesidades del país. En este sentido, se resalta la importancia de evaluar la factibilidad financiera de la implementación de proyectos de generación de energía térmica. Cada una de las tecnologías de generación de energía térmica tiene características específicas en términos de costos, operación, escala requerida, tiempo de construcción y vida útil, flexibilidad o impactos sociales y ambientales. El presente trabajo pretende evaluar a través de opciones reales la factibilidad financiera de desarrollar un proyecto de generación de energía térmica empleando carbón. Siendo este una fuente alterna de generación de energía especialmente en períodos de sequía, se convierte en una alternativa ideal al buscar garantizar la sostenibilidad, la confiabilidad y la seguridad del sistema eléctrico. En este trabajo se valora financieramente una planta de generación de energía térmica en condiciones de incertidumbre. En primer lugar, se construye un marco teórico sobre la teoría de opciones reales y la utilización de esta metodología en proyectos de estas características. En segundo

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 83 -1 0 0  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


86

Mónica A. Arango Arango - Elizabeth T. Arroyave Cataño - Juan D. Hernández

lugar, se hace la valoración del proyecto bajo incertidumbre utilizando la metodología de opciones reales, donde se concluye que el proyecto por sí solo es de alto riesgo, y en muchas trayectorias, inviable financieramente. Sin embargo, al considerar la flexibilidad de las decisiones, existen trayectorias donde puede ser una alternativa financieramente viable y complementaria a la energía hidráulica. Por último, se plantean propuestas de investigación que surgen de los resultados encontrados. 1. MARCO TEÓRICO La evolución del mercado eléctrico ha motivado el desarrollo de múltiples investigaciones que abordan el análisis desde diferentes perspectivas: en primer lugar, se encuentra el interés por abordar los temas de regulación, que tienen efectos en los mercados del sector, ya que influyen en el comportamiento de los agentes, así como en la expansión tecnológica y financiera del sector. Esta línea de estudio ha incentivado el desarrollo de estudios teóricos y matemáticos. En segundo lugar, se destaca el interés por pronosticar el comportamiento futuro de las variables macroeconómicas, sectoriales y macroclimáticas que determinan el comportamiento del precio de la energía. La incertidumbre que enfrentan el inversionista y el regulador del mercado determina su interés por desarrollar modelos que permitan identificar los momentos óptimos de inversión para generar valor a las firmas y minimizar los costos para el consumidor final. Un tercer enfoque en los trabajos desarrollados consiste en la evaluación financiera y la valoración de los proyectos de estas características. Teniendo en cuenta el nivel de volatilidad de las variables que afectan la rentabilidad de este tipo de proyectos y las particularidades de cada uno de los casos de estudio, ha sido necesario buscar herramientas alternativas que incluyan la flexibilidad y la incertidumbre en la valoración.

Universidad de Medellín

Así se encuentran trabajos como: La valoración tradicional de proyectos de inversión se ha caracterizado por la estimación de flujos de caja futuros (FC) que reflejan las expectativas del comportamiento de variables exógenas y endógenas –variables macroeconómicas y sectoriales–. Estos flujos se descuentan al costo de capital promedio ponderado (i), para ser comparados con los desembolsos requeridos al inicio (I) del proyecto, obteniéndose el valor presente neto (VPN) del proyecto. Este resultado permitirá determinar la aceptación o rechazo del proyecto, de tal manera que si el VPN es positivo será factible la ejecución del proyecto; de lo contrario, este se rechazará. n

VPN = -I + å t =1

FCt = - I + FCD (1 + i )t

(1)

En los modelos convencionales de flujos de caja descontados (FCD), el efecto del riesgo está usualmente involucrado en la tasa de descuento (i). Esta tasa considera el costo de todas las fuentes de financiación de un proyecto, que se ajustan por el riesgo involucrado en este. La estructura del flujo de caja libre para realizar la valoración es: FCLt = E + j + Dw + Dn - tax

(2)

Donde, E: Utilidad operativa después de impuestos j: Depreciaciones Dw : Cambio en capital de trabajo Dn : Reposición en activos fijos

tax: Pago efectivo de impuestos. La estimación de los flujos de caja requiere de información confiable que refleje el verdadero desempeño del proyecto. En el caso de un proyecto de energía térmica se requiere considerar un gran número de variables que generan múltiples incertidumbres. Por ello, es necesario modelar la


Valoración de proyectos de energía térmica bajo condiciones de incertidumbre a través de opciones reales

volatilidad asociada a cada una de dichas variables, con el objetivo de estimar el valor del proyecto con un mayor ajuste. No obstante, aunque la utilización de la metodología del flujo de caja descontado es importante, no es suficiente para proyectos con este nivel de incertidumbre, y con la necesidad de tomar decisiones ante las trayectorias futuras del proyecto. La teoría de opciones reales otorga a los directivos de las compañías flexibilidad respecto a la ejecución de proyectos, a la capitalización de nueva información y a las cambiantes condiciones del mercado, a fin de mejorar la oferta de servicios y el beneficio económico. El análisis de las opciones reales constituye una forma para determinar el valor de la flexibilidad implícita en cada proyecto y aprovecha positivamente la incertidumbre para

87

aumentar el valor del proyecto. Al involucrar opciones reales en la valoración de un proyecto, se trata de estimar un valor presente neto expandido o modificado, el cual estaría conformado por dos componentes: el valor presente neto de los flujos de caja y el valor de la opción, lo que se conoce como un valor presente neto expandido [2]. VPN = VPN + Valor de la opción

(3)

De acuerdo con las condiciones de cada proyecto se presentan varios tipos de opciones, tales como: abandonar, expandir, contraer, diferir, posponer, cerrar, opciones compuestas, entre otras (ver tabla 1). Estas opciones asumen flexibilidad en la toma de decisiones a futuro, lo que representa enfrentarse a cambios en el riesgo asumido y, por

Tabla 1. Tipos de Opciones reales. Tipos de opciones reales

Definición

Tipo de opción financiera

Autores

Opción de crecimiento

Se presenta cuando una empresa espera crecer de una forma secuencial mediante acceso a nuevos mercados, fortalecimiento de la capacidad interna, mejoramiento en procesos internos.

Opción de compra americana Max[s – x; 0]

Brealey and Myers (1991), Chung and Charoenwong (1991), Kester (1984), Kester (1993), Myers (1977), Pindyck (1988), Trigeorgis (1988).

Opción de cambio en productos y procesos

Los tomadores de decisiones podrían cambiar sus insumos, procesos y productos cuando los precios de estos varían desfavorablemente

Opción de compra americana Max[s – x; 0]

John son, H.E (1987), Kensinger (1987), Kulatilaka (1988), Kulatilaka y Trigeorgis (1994), Margrabe (1978), Stulz (1982).

Opción de diferir

Se origina ante la posibilidad de posponer un proyecto de inversión durante un período determinado, con el objetivo de disminuir la incertidumbre asociada a cambios en los precios de lo insumos y del producto a ofrecer.

Opción de compra americana Max[s – x;0]

Ingersoll and Ross (1992), Majd and Pindyck (1987), McDonald and Siegel (1986);, Paddock et al. (1988), Titman (1985), Tourinho (1979).

Opción de Ampliar o Expandir

Se presenta cuando las condiciones del mercado tienen un comportamiento mejor que el esperado, propiciando una mayor inversión que permita aumentar la producción.

Opción de compra americana Max[s – x; 0]

Trigeorgis and Mason (1987), Pindick (1988), McDonald y Siegel (1985), Brennan y Schartz (1985).

Opción de abandono

Ante condiciones desfavorables del mercado, una empresa puede decidir cerrar definitivamente la empresa

Opción de venta americana Max[x – s; 0]

Myers and Majd (1990)

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 83 -1 0 0  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


88

Mónica A. Arango Arango - Elizabeth T. Arroyave Cataño - Juan D. Hernández

Tipos de opciones reales

Definición

Tipo de opción financiera

Autores

Opción de disminuir o cerrar Temporalmente

De acuerdo al comportamiento del mercado, una empresa puede decidir disminuir o cerrar temporalmente la producción de una línea de negocio o todas sus operaciones.

Opción de venta americana Max[x – s; 0]

Trigeorgis and Mason (1987), Pindick (1988), McDonald y Siegel (1985), Brennan y Schartz (1985).

Opción con múltiples interacciones

Dependiendo de las condiciones del mercado y de la compañía, la empresa tomará decisiones que les permitan crecer o protegerse ante cambios, de forma conjunta ya que pueden interactuar entre si.

Opción financiera compuesta que puede ser de compra o venta. Max[s – x; 0] Max[x – s; 0]

Carr (1988), Geske, R. (1979), Trigeorgis (1993).

Fuente: elaboración propia.

tanto, a variaciones en la tasa de descuento. En efecto los tomadores de decisiones se encuentran en condiciones de reaccionar ante las circunstancias cambiantes, y al hacerlo, afectan el comportamiento del flujo de efectivo. El análisis de opciones reales es adecuado para la inversión en los activos de generación de energía eléctrica, ya que la inversión en dichos bienes es intensiva en capital y se caracteriza por ser en gran medida irreversible y generar costos hundidos. En consecuencia, la flexibilidad del proyecto tiene un impacto significativo en el valor de la inversión; adicionalmente en los últimos años los cambios climáticos han generado gran incertidumbre sobre la capacidad de generación a través de la riqueza hídrica; así, el carbón se ha convertido en una posibilidad de generación alternativa. La incertidumbre sobre los precios futuros del carbón introduce riesgos considerables en la toma de decisiones que afectan directamente el margen de utilidad esperada de proyectos de generación de energía, y por tanto, la capacidad instalada limitando la oferta. El enfoque desarrollado en este campo mediante opciones reales ha sido amplio, debido principalmente a la gran cantidad de factores que influyen en las expectativas de los precios de la electricidad, lo que origina incertidumbre en el resultado financiero, y frena en muchos casos las inversiones. Esta relación ha sido siempre Universidad de Medellín

c­ onocida intuitivamente, pero con la introducción de la teoría de opciones reales, el analista tiene una herramienta para calcular y medir con más precisión el impacto que tiene la incertidumbre sobre el comportamiento de la inversión agregada [3]. Sin embargo, no existe un consenso sobre la metodología a utilizar para modelar la volatilidad lo que permite desarrollar investigaciones utilizando el Método Monte Carlo propuesto por Boyle [4] y el modelo utilizado por Cox  -  Ross  -  Rubistein [5], denominado generalmente modelo binomial. La metodología propuesta por Black  -  Scholes ha sido descartada por varios autores. Para Kjærland, la discusión para seleccionar entre los dos modelos de valoración de opciones tiene su origen en las características especiales que posee la electricidad: por un lado, la tecnología actual no permite almacenarla, lo que implica que no pueda ser prestada, ni vendida en corto; no se puede comprar, ni devolverse más tarde. Esto viola los supuesto de la teoría tradicional de no arbitraje para la valoración de opciones [3]. Pero el supuesto de riesgo neutral no solo se está incumpliendo por las condiciones de la energía, sino también por las características del proyecto mismo, ya que se hace difícil encontrar un proyecto réplica en el que se puedan tomar posiciones cortas o largas, o incluso es difícil mantener el supuesto de que parte del proyecto que se está valorando o de sus opciones se pueda vender.


Valoración de proyectos de energía térmica bajo condiciones de incertidumbre a través de opciones reales

Para identificar el modelo que se debe seleccionar es necesario analizar los parámetros considerados en la valoración del proyecto, comparándolos con aquellos empleados para las opciones financieras. • El precio del activo subyacente: en el caso de las opciones financieras es el precio del activo sobre el cual se plantea la opción, el cual es conocido por el inversionista en cada momento en el que evalúa su ejercicio. En contraste, en un proyecto de inversión este hace referencia al valor presente de los flujos de caja, los cuales no son conocidos por el inversionista, ya que no se tiene certeza sobre los resultados del proyecto en el futuro. • El precio de ejercicio: es el precio que se debe pagar para ejercer una opción; es un parámetro que depende del tipo de opción a desarrollar, esto es, si es una opción de inversión, es el desembolso adicional para ampliar la planta y generar nuevos beneficios, y si se trata de una opción de desinversión, es el valor que se percibe por desinvertir en el proyecto. El comportamiento de este parámetro podría ser variable, o incluso, de comportamiento estocástico. Para el caso de las opciones financieras indica el precio al que el propietario de la opción puede ejercerla, y dicho valor es conocido a priori y permanece constante durante todo el tiempo del contrato. • Tiempo hasta el vencimiento: tanto para la opción financiera como para la real es el plazo que dispone su propietario para ejercer la opción. En el caso de la opción financiera, el tiempo es definido en el contrato, mientras que en opciones reales depende del ciclo de vida del proyecto y es una variable definida por el analista. • El riesgo: indica la volatilidad del activo subyacente. Para el caso de un proyecto de inversión en una planta térmica la incertidumbre depende del comportamiento de múltiples factores cuyo pronóstico es complejo, lo que conduce a una

89

elevada exposición al riesgo. Algunos autores como Maya, Gallego y Hernández [6]; Lamothe [7] proponen las siguiente metodología para el cálculo de la volatilidad:

o Factor predominante: consiste en tomar la volatilidad del factor que le imprime un mayor nivel de riesgo al proyecto.

o Portafolio replica: consiste en tomar la volatilidad de un proyecto o una empresa con características similares.

o Simulación Monte Carlo: consiste en calcular la volatilidad de alguno de los parámetros de rentabilidad del proyecto, a partir del estudio estocástico de las variables y de la simulación Monte Carlo de los flujos de caja futuros.

Aunque las tres metodologías han sido utilizadas por diferentes autores, se comparten los argumentos planteados por Maya, Gallego y Hernández [6], donde se plantea que las dos primeras metodologías pueden sobrevalorar o subvalorar el riesgo del proyecto, en el caso del factor predominante al asumir una única variable de riesgo, y en el caso del portafolio réplica, al utilizar un proyecto diferente al que se está evaluando. Adicionalmente, se puede esgrimir este mismo argumento para utilizar Simulación Monte Carlo como metodología de valoración para un proyecto de energía, pues en lugar de calcular la volatilidad por este método y después utilizarla como un input en arboles binomiales, ya al realizar dicha simulación se tiene el comportamiento estocástico inherente al proyecto, y por lo tanto, se puede utilizar el mismo para valorar las opciones ante las posibles trayectorias futuras, sin correr el riesgo de mutilar alguna parte del comportamiento.

• Tasa de interés sin riesgo: en las opciones financieras refleja el valor temporal del dinero.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 83 -1 0 0  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


90

Mónica A. Arango Arango - Elizabeth T. Arroyave Cataño - Juan D. Hernández

El hecho de que los flujos de caja de los proyectos de centrales de generación térmica tengan un comportamiento estocástico implica la necesidad de realizar la valoración a través de Simulación Monte Carlo, ya que uno de los supuestos del modelo binomial es que el precio del activo subyacente evoluciona según un proceso binomial multiplicativo.

Se han realizado aplicaciones atractivas de la planificación de las inversiones de generación de energía y el uso de opciones en operación de centrales eléctricas, empleando el ROA [8]. Estos desarrollos se deben principalmente al interés manifiesto de los gobiernos en el ámbito mundial por asegurar la prestación continua del servicio a la población y por las diferentes incertidumbres que dificultan su alcance. En la tabla 2 se presentan los aportes realizados por autores como: Kjærland [3], Kumbaroğlu, Madlener, & Demirel, [9], Fernandes, Cunha, & Ferreira [10], Boomsma, Meade, & Fleten, [11], Barria & Rudnick [12], Serati, Manera, & Plotegher [13], Madlener & Stoverink [8] quienes han abordado el estudio del mercado desde diferentes ángulos. Sin embargo, todos los trabajos manifiestan varios puntos en común: la necesidad de modelar el precio de la energía y las variables de incertidumbre en el mercado, la dificultad para estimar el costo de capital asociado a los proyectos, así como el interés por identificar los efectos de los cambios regulatorios en el precio [14]. En Colombia, la literatura relacionada con la aplicación de esta metodología en la valoración de proyectos es reciente y se ha aplicado desde diversos frentes. Mora, Agudelo y Dyner, (2004) proponen el empleo de la metodología de opciones reales para valorar un proyecto de inversión en generación de energía eólica en Colombia. Cayón y Sarmiento (2005) se concentran en el desarrollo de herramientas metodológicas de opciones reales y en el análisis de la información adicional con la que cuenta el inversionista al aplicar la primera y segunda derivadas del modelo de Black  -  Scholes, Universidad de Medellín

conocidas como delta y gamma. Maya, Hernández y Gallego [6] valoran un proyecto de energía eólica bajo ROA, donde su principal aporte es el estudio estocástico de las variables que lo afectan, para el cálculo de la volatilidad a través de simulación Monte Carlo. 2. DESCRIPCIÓN MODELO Y LAS VARIABLES La evaluación de proyectos de generación de energía ha sido abordada desde varias perspectivas que van desde el diagnóstico hasta la valoración de los proyectos, por lo cual han permitido una amplia aplicación de diversas metodologías. Los directivos de las compañías generalmente tienen flexibilidad respecto a la ejecución de proyectos, la capitalización de nueva información y las cambiantes condiciones del mercado, a fin de mejorar la oferta de servicios y el beneficio económico. El análisis de las variables estocásticas constituye una forma para determinar el valor en cada proyecto. 2.1. Ingresos Las variables explicativas que requiere la valoración de la opción real se concentran en la determinación de los ingresos y egresos que describen el proyecto. En este sentido, los ingresos se consideran determinados por la cantidad de energía producida y el precio de la energía. La cantidad se estima como la capacidad de generación de una planta térmica media en Colombia, cuyo combustible principal es carbón; en este caso se asume una capacidad de 150 MW. Para construir un modelo de proyección del precio de la energía, se asume que este se encuentra en función del clima y del mismo precio con rezagos de períodos anteriores, descrito por un modelo ARIMAX  -  GARCH (1,1). Como variable que mide el comportamiento del clima se analiza el indicador atmosférico denominado El Niño/ Southern Oscillation (Enso). Para introducir el Enso en el modelo se derivaron de este dos variables dummy, considerando


Valoración de proyectos de energía térmica bajo condiciones de incertidumbre a través de opciones reales

91

Tabla 2. Aportes en los mercados de generación energética Subtema

Autor

Mercado hidroeléctrico Kjasrland_2007 (Noruega)

Aporte Valora la opción de invertir considerando que el precio sigue un movimiento Browniano geométrico. Excluye la discusión difícil y compleja de las preferencias de riesgo y las tasas de descuento al considerar que los precios de los activos están perfectamente correlacionados con el precio de la electricidad. Contratos forward 1999-2006.

Nuevas tecnologías de generación renovables (Turquía)

Kumba Roglu_2008

Las curvas de aprendizaje de las tecnologías de energías renovables se pueden integrar en un modelo de programación dinámica, basado en el enfoque de opciones reales. Debido a sus costos relativamente altos, la difusión de las tecnologías de energías renovables sólo se produce si existen políticas específicas. La principal debilidad de este estudio es asumir la tasa de descuento en 5% y no proponer un cálculo, considera que no se puede aplicar el CAPM.

El uso de las opciones Fernandes, Cunha, reales en la inversión del y Ferreira_2011 sector energético

Presentan una revisión del estado del arte de las opciones reales aplicadas al mercado energético, considerando el periodo comprendido entre 1987 y 2010.

Inversiones en energías Boomsma, Meade y renovables: una aproxi- Fleten_2012 mación desde las opciones reales

Realizan una revisión de los cambios en regulación para introducir la necesidad de considerar energías renovables en el mercado de generación.

Gasificación de carbón Concha A., para generación de en- Alejandro;Andalaft ergía eléctrica Chile Ch., Alejandro;Farías F., Osear 2009

Evalúan económicamente la utilización de la tecnología de gasificación de carbón en la generación de energía eléctrica utilizando el enfoque de opciones reales mediante arboles binomiales.

Valoración de proyecto Reinhard Madlener de una planta de carbón Simon Stove rink 2011 en Turquía

Realiza una revisión de la literatura sobre opciones reales yalgunas aplicaciones en los mercados de energía.

Aproximan el valor de la inversión en el momento óptimo y la capacidad de elección utilizando mínimos cuadrados con el enfoque Monte Carlo para valorar opciones americanas.

Modelan los precios de los combustibles a través de Movimiento Browniano Geométrico No Homogéneo (IGBM).

Considera una opción real secuencial para valorar la inversión en una planta de carbón en Turquía. Utiliza el Método Monte Carlo simular las fuentes de la volatilidad del precio de la electricidad, el precio del carbón, el petróleo y el precio de las tarifas de fletes para el carbón Para valorar la volatilidad del proyecto considera que la æ S + FCF1 ö÷ ÷÷ rentabilidad esta formada por: R p = ln ççç 1 S èç ø÷ 0

Inversión bajo incerti- C. Barría, y H. dumbre en generación Rudnick 2011 en el mercado chileno

Considera un modelo de reversión a la media en el comportamiento del precio y analiza un árbol trinomial para valorar las oportunidades de inversión en el largo plazo.

Estado del arte sobre la M. Serati, M. modelación del precio Manera, M. de la energía Plotegher 2007

Este estudio se centra en aquellos estudios cuyo objetivo es la determinación de las tendencias en los precios spot de la electricidad y el pronóstico de estos precios en el corto plazo. Presenta desarrollo en modelos autorregresivos, modelos de cambios de régimen y modelos de volatilidad GARCH. Fuente: [14]

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 83 -1 0 0  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


92

Mónica A. Arango Arango - Elizabeth T. Arroyave Cataño - Juan D. Hernández

que valores del índice inferiores a –0.5oC indicaba presencia de fenómeno de La Niña, mientras que valores superiores a 0.5oC indicaba presencia del fenómeno de El Niño, es decir, sequía. Para proyectar el comportamiento en el tiempo, se hizo la prueba de bondad de ajuste Kolmogorov - Smirnov (K - S) (ver figura 1) a la serie histórica mensual del Enso desde abril de 2004 a marzo de 2012, como resultado se obtuvo una distribución normal con la siguiente media y desviación estándar: Enso N (–0.177083, 0.775477). Para el modelo proyectado se incluyen las correlacciones históricas existentes entre el resultado del Enso de un mes y los meses subsiguientes, de esta forma se evita que el modelo genere datos atípicos entre los meses. La matriz de correlaciones indica que a medida que el diferencial de tiempo se incrementa (Dtiempo = T – t), la presencia de invierno o verano en el período t tiene una relación lineal que disminuye,

e incluso presenta un comportamiento inverso en T. Dado que para el comportamiento del precio de la energía no se obtuvo ajuste en la distribución normal, y teniendo en cuenta estudios de algunos autores como Gil y Maya [15], Villada, et al [16], entre otros, que concluyen que el precio de la energía no tiene volatilidad constate, se busca un a ARIMA - GARCH para la media y la varianza, respectivamente. A continuación se presentan tres de los modelos analizados (tabla 3). En el modelo el precio actual tendrá crecimiento de 18 veces en el período en el que hay presencia de sequía, con respecto al precio del período anterior. Sin embargo, la presencia de sequía en un período determinado descuenta el efecto sobre el precio, dado que se presentó una temporada de lluvias tres períodos antes y el fenómeno de sequía había iniciado desde el período anterior.

Distribución del ENSO Jerarquización

Correlación Enero Enero Febrero Febrero Enero Enero Febrero Febrero Marzo Marzo Abril Abril Mayo Mayo Junio Junio Julio Julio Agosto Agosto Septiembre Septiembre Octubre Octubre Noviembre Noviembre Diciembre Diciembre

Marzo Marzo

Abril MayoMayo Junio Abril

1.00 1 0.95 0,95 0.78 0,776 0.53 0,527 0.30 0,304 0.17 0,168 0.12 0,121 0.11 0,112 0.11 0,111 0.11 0,114

11.00 0.93 0,927 0.73 0,734 0.53 0,527 0.39 0,394 0.35 0,347 0.34 0,339 0.34 0,337 0.34 0,342

JunioJulio

Julio Agosto

Agosto Octubre Septiembre Octubre Septiembre Noviembre Diciembre

1.00 1 0.99 0,986

0.93

0,931 0.80 0,796 0.55 0,554 0.29 0,29 0.06 0,064 -0.07 –0,073 -0.12 –0,123 -0.13 –0,127 -0.12 –0,121 -0.12 –0,117

1.00 1

0.97

0,973 0,867 0.65 0,646 0.38 0,384 0.16 0,16 0.02 0,024 -0.02 –0,025 -0.03 –0,03 -0.03 –0,027 -0.02 –0,025 0.87

1 1.00 0.92 0,925 1 0.78 0,776 0,948 0.66 0,659 0,866 0.62 0,615 0,821 0.61 0,609 0,811 0.61 0,607 0,806 0.61 0,611 0,802

1.00 0.95

1.00

0.87

0.97

1.00

0.94

0.99

1 0,973 0.82 0,941 0.81 0,924 0.81 0,912 0.80 0,899

1 0,987 0.92 0,968 0.91 0,948 0.90 0,93

1 0,991 0.95 0,973 0.93 0,953 0.97

1.00 0.99

1 0.97 0,993 1 0.95 0,977 0,993

Figura 1 Distribución del Enso y matriz de correlación Fuente: elaboración de los autores

Universidad de Medellín

1.00 0.99 0.98

1


Valoración de proyectos de energía térmica bajo condiciones de incertidumbre a través de opciones reales

93

2.2.1. Otros egresos

2.2. Egreso por combustible: pronóstico de los precios de carbón

El estudio contiene los costos y gastos operativos considerados para una empresa de generación térmica con una capacidad de producción de 150 MW. Las erogaciones adicionales al carbón para una planta de estas características son tomados de la UPME [17], las cuales estaban en dólares a valores del año 2005, por lo que se actualizaron con la inflación de Estados Unidos para el año 2011 y se convirtieron a pesos con la tasa de cambio de diciembre de ese año.

Uno de los principales determinantes en la valoración de proyectos de generación de energía es el costo del combustible empleado en la operación. Para el presente análisis se considera el carbón como principal combustible, por lo que es necesario modelar el precio de este insumo. La información que se empleó en esta estimación es el precio FOB de exportaciones mensual expresado en Us$/Ton publicado por la UPME.

Asimismo, las inversiones consideradas se tomaron del informe realizado por la UPME (2005) [17]. Para estimar los gastos se siguió la misma metodología empleada en la proyección de los costos. En la tabla 5 se muestra el tipo de inversiones para una planta de producción de 150 MW a valores en dólares de 2005, y la conversión a valores en dólares y pesos de 2011.

El modelo de mayor ajuste es un GARCH (1,1), el cual sugiere que la rentabilidad sobre el precio del carbón para el período analizado depende de su comportamiento en los dos últimos meses, así como de la presencia de El Niño en el período (tabla 4). La cantidad de carbón necesaria para la generación de una planta media se considera de 715.962 toneladas anuales.

Tabla 3. Modelo del precio de la energía Pt - Pt -1 = cˆ + bˆ1 Pt -1 + bˆ2 MA(1) + bˆ3 Dniñot + bˆ4 Dniñat -1 + bˆ5 Dniñat -3 st2 = w + ai et2-1

bˆ1

Modelo

bˆ2

bˆ3

bˆ4

bˆ5

aˆ i

GARCH(1,0) Coeficiente 6.732784 0.387459 –0.968498 18.34592 –9.037265 –29.06198 291.4558 1.040852 p-valor

[0,016]

[0,0078]

[0,0003]

[0]

[0]

[0]

[0]

[0]

Fuente: elaboración propia

Tabla 4. Modelo del precio del carbón æ c ö æc ö æc ö ln ççç t ÷÷÷ = cˆ + bˆ1 ççç t -1 ÷÷÷ + bˆ2 ççç t -3 ÷÷÷ + q1at -1 + bˆ3 Dniño èç ct -1 ø÷ èç ct -2 ÷ø èç ct -2 ÷ø st2 = wˆ + aˆ i et2-1 + bˆ j st2-1

cˆ GARCH(1,1) 0.002757 0.483

bˆ1

bˆ2

–1.299922 0

–0.417418 0

Modelo

bˆ3

aˆ1

bˆ j

0.019349 0.0083

0.936081 0

0.000459 0.2589

1.420209 0

0.182251 0.0956

Fuente: elaboración propia

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 83 -1 00 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


94

Mónica A. Arango Arango - Elizabeth T. Arroyave Cataño - Juan D. Hernández

Tabla 5. Inversiones para una planta de producción de 150 MW Ítem

Valor USD (2005)

%

Valor USD (2011)

COP$ 2011

175.000,00

0,1%

200.688,00

373.319.429,00

Vías de acceso

5.002.750,00

2,9%

5.737.084,00

10.672.135.838,00

Líneas de conexión

1.650.000,00

1,0%

1.892.197,00

3.519.868.899,00

Planta + instalación

131.482.929,00

77,3%

150.782.782,00

280.486.468.185,00

Inversión ambiental

690.100,00

0,4%

791.397,00

1.472.158.501,00

Ingeniería

12.588.485,00

7,4%

14.436.298,00

26.854.434.445,00

Imprevistos Obras

5.095.827,00

3,0%

5.843.823,00

10.870.692.710,00

Imprevistos Equipo

13.394.325,00

7,9%

15.360.424,00

28.573.495.750,00

Total Inversión Inicial

170.079.416,00

100%

195.044.693,00

362.822.573.757,00

Predios

Fuente: elaboración de los autores

Estos datos sirven como input para el modelo de valoración realizado con el método de flujo de caja libre, sin tener en cuenta endeudamiento. Para la elaboración de flujo de caja se asume que el proyecto demorará dos años en la construcción y luego se hacen proyecciones a 10 años del estado de resultados y del flujo de caja libre. La depreciación de las inversiones se toma al mismo plazo de proyección; el flujo de pago de impuestos tiene en cuenta los momentos de desembolso y los anticipos necesarios. Para el capital de trabajo se asumen 5 días de efectivo requerido para la operación sobre las ventas, 34 días de cartera, 25 días de inventarios sobre las compras de carbón y 35 días de proveedores sobre el pago del carbón y otros insumos para la producción. El capex se dividió en un 50 % para cada uno de los dos años de ejecución de la obra. Se estima el valor terminal con la metodología del valor en liquidación del proyecto, calculando la recuperación del capital de trabajo y el pago de impuestos para el año 11 de proyecciones. El costo de capital se hace partiendo de la teoría del CAPM [18], desde la perspectiva de un inversionista internacional invirtiendo en Colombia. Para la tasa libre de riesgo se utilizaron los bonos del tesoro de Estados Unidos a 10 años, calculando el promedio Universidad de Medellín

de la rentabilidad anual desde enero del año 2009 hasta diciembre del año 2010; la serie fue tomada con una periodicidad mensual. Para el Beta del sector se toma el calculado por Damodaran [19] del sector energía en mercados emergentes. Como rentabilidad esperada del mercado se hizo el cálculo del promedio de las variaciones porcentuales mensuales de S&P500 desde enero de 2009 hasta diciembre 2011 y luego la tasa encontrada se convierte a efectiva anual. Como devaluación futura se toma la proyección del dólar siguiendo el modelo econométrico construido para la divisa, mostrado anteriormente. 3. ALTERNATIVAS DE INVERSIÓN EN EL PROYECTO Una vez modeladas todas esta variables en Excel y bajo el programa @RisK se hace una simulación con 10.000 iteraciones y se pone como variable de salida el VPN del proyecto (Ver figura 2). Los resultados del VPN indican una gran variabilidad y ancho en las posibles trayectorias. El VPN promedio es de –181.000 millones de pesos y el 90 % de los resultados se encuentran entre –1 billón y +1 billón de pesos colombianos. Los resultados de la valoración son poco satisfactorios, desde el punto de vista financiero, debido a: la variabili-


Valoración de proyectos de energía térmica bajo condiciones de incertidumbre a través de opciones reales

Figura 2. Función de distribución del Valor Presente Neto del proyecto

en la generación de ingresos. No obstante, el proyecto se valoró dejando como valor terminal el valor de liquidación, dado que utilizar otra metodología sería introducir un mayor riesgo al mismo, pues si bien en algunas de las trayectorias del proyecto el valor terminal sería positivo, en otras se podría hacer bastante negativo, dadas las condiciones de volatilidad del precio de la energía y del precio del carbón. Por esta razón se opta por deja el valor terminal como una opción real existente, donde si el valor presente de los flujos de caja del año 11 al año 20 es positivo, entonces se continuará con el proyecto; de lo contrario, se liquida el proyecto (ecuación 5) OPc = Max(VPDt - VTL ;0)

Fuente: elaboración de los autores.

dad de los posibles resultados, la tendencia a que los mismos sean negativos, la alta probabilidad de que el VPN sea negativo y los múltiples escenarios que no son satisfactorios bajo el criterio del VPN. Teniendo en cuenta los grandes niveles de inversión en este tipo de proyectos, se plantean tres opciones reales en la construcción de un proyecto de estas características. La primera opción consiste en la posibilidad de continuar a los 10 años de operación. Según la UPME [17], una planta de estas características puede tener una duración de 20 años

95

(5)

Donde: OPc: Valor de la opción de continuar a los 10 años. VPDt: Valor presente de los flujos de caja del año 11 al año 20. VTL: Valor terminal calculado por el método de valor en liquidación. Dt: Período de proyección Esta oportunidad es semejante a una opción financiera de compra de tipo europeo, donde solo

Figura 3. Función de distribución del valor de la opción de continuar Fuente: elaboración de los autore

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 83 -1 00 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


96

Mónica A. Arango Arango - Elizabeth T. Arroyave Cataño - Juan D. Hernández

existe una fecha posible de ejercicio, con la flexibilidad de continuar o no continuar el proyecto después del año 10. Esto sólo se dará cuando los resultados del año 11 hasta el año 20 sean satisfactorios; de lo contrario, se preferirá dejar el proyecto, asumiendo que se recupera el capital de trabajo como valor en liquidación, y bajo el supuesto de que el valor de recuperación de los activos fijos es solo suficiente para pagar su desmantelamiento. La flexibilidad de tomar la continuación del proyecto como una opción genera un valor incremental entre cero y 5,7 billones de pesos, con un valor medio de 520.000 millones de pesos. El VPN del proyecto, contemplando la opción de continuar, traslada la media de   -  181.000 millones a 346.800 millones de pesos, evidenciando el impacto positivo de valorar la flexibilidad; sin embargo los valores mínimos posibles, y la probabilidad de que el VPN sea menor a cero siguen haciendo del proyecto, un resultado financiero no satisfactorio. La segunda opción que se evalúa es la de abandonar el proyecto, que consiste en dimitir al proyecto y a sus flujos de caja futuros, cuando exista la posibilidad de que los mismos sean reiteradamente negativos, en aquellas trayectorias donde el margen generado por el precio de la energía y del precio del carbón es insuficiente para solventar los costos de funcionamiento y de inversión en la planta. En estos casos existe esta opción estratégica en el proyecto, pues no tiene sentido incurrir en pérdidas repetitivas. La opción de abandono tiene valor cuando el valor presente de los flujos de caja es negativo, como se indica en la ecuación 6. OPA = Max(0 - VPx-10 ;0)

(6)

Donde: OPA: Valor de la opción de abandono. VPx–10: Valor presente de los flujos de caja desde cualquiera año hasta el año 10. Para cada una de las trayectorias posibles y en cada uno de los años se evalúa el valor presente Universidad de Medellín

de los flujos hasta el año 10 de la siguiente forma: 10

VPx-10 = å i= x

fci (1 + td )i + x-1

Donde x es el año desde al cual una trayectoria hace que el VP del proyecto sea totalmente negativo, fci son los flujos de caja de dicha trayectoria y se traen a valor presente con la tasa de descuento. Es así como se evalúa para todas las trayectorias posibles. Adicionalmente, se supone en este caso que el valor de recuperación de activos, como el terreno o la planta, cubre los gastos de liquidación del mismo. Esta es una opción que se puede asemejar a una opción financiera de venta de tipo americano; sin embargo, en el mundo de las finanzas corporativas es difícil asumir que las decisiones se toman en tiempo continuo; por lo tanto, se podría asemejar a una opción de tipo bermuda, donde las decisiones y las trayectorias se evalúan al final de cada uno de los años de forma discreta. La opción de abandono genera un valor agregado para el proyecto entre cero y 2,5 billones de pesos con un valor esperado de 494.000 millones de pesos. El resultado del VPN del proyecto teniendo en cuenta la opción de abandono, oscila entre –1 billón de pesos y 4 billones de pesos y la media es de 313.200 millones de pesos (ver figura 4). Ahora bien, el aporte fundamental de tener en cuenta la opción de abandono consiste en considerar la posibilidad de eliminar estratégicamente muchas de las trayectorias negativas que toma el proyecto en el tiempo. En el gráfico se observa cómo el 90 % del VPN toma valores entre –430.000 millones de pesos y 1.32 billones de pesos, que comparados con los resultados iniciales, disminuyen el riesgo y la probabilidad de que el VPN tome valores menores a cero, por lo tanto, se reduce la posibilidad de destruir valor. Quizás uno de los aportes fundamentales de la opción de abandono es aumentar el valor del proyecto, a través de la flexibilidad de poder tomar decisiones estratégicas que dejan de


Valoración de proyectos de energía térmica bajo condiciones de incertidumbre a través de opciones reales

impactar negativamente el proyecto, situación que no se evidencia cuando se evalúa el proyecto de forma determinística. Existen otros casos donde la opción de abandono le genera explícitamente valor al proyecto, y hay un valor de salvamento o de venta de los activos del mismo, pero no es interés de este trabajo abordar dicha alternativa. La tercera opción consiste en ampliar el proyecto en un 50 %, dada la existencia de economías de escala y el no tener que hacer nuevamente algunas de las inversiones. Esta opción existe siempre que el margen generado por el precio de la energía y el costo del carbón sea suficiente para que el valor presente de los flujos de caja incrementales sea superior a la inversión adicional requerida. El valor de la opción está expresado en la ecuación 7:

OPE = Max(VP * f - I e ;0)

97

(7)

Donde: OPE: Valor de la opción de expansión. VP: Valor presente de los flujos del proyecto. f: Factor porcentual de expansión. I e : Inversión incremental asociada a la expansión. Una de las características de la opción de expansión, a diferencia de la opción de crecimiento, es que la misma depende de los flujos de caja del proyecto convirtiéndose el VP en el subyacente. En este caso al ejercer la opción de expansión en un porcentaje, se generan ingresos y beneficios adicionales en dicho porcentaje y se aumenta el VP

Figura 4. Valor de la opción de abandonar el proyecto Fuente: elaboración de los autores

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 83 -1 00 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


98

Mónica A. Arango Arango - Elizabeth T. Arroyave Cataño - Juan D. Hernández

en la proporción de la expansión. Para este caso en concreto se asume una expansión del 50 % de los beneficios, para un lapso de tiempo de 10 años, equivalente al tiempo considerado en la inversión inicial. De igual manera, se asume que la inversión asociada a la expansión representa el 50 % de las inversiones que se deben repetir, ajustadas por inflación para cada uno de los años (ver tabla 6). Un argumento para no asumir la expansión del proyecto en un porcentaje mayor es el límite existente de las economías de escala; si se quisiera hacer una expansión mayor es posible que se deban hacer

inversiones adicionales en vías de acceso, predios, etc. Adicionalmente, se asume que una inversión adicional del 50 % y, por lo tanto, un incremento de la capacidad instalada y de la posibilidad de generar energía en 75 MW, no genera impacto en el mercado de la energía. Los resultados de la opción de expansión se presentan a continuación: Similar a la opción de continuar, la opción de expansión le genera un mayor valor al proyecto pero no disminuye el riesgo de que el proyecto tome valores extremos. La opción de expansión puede tomar un valor entre cero y 38 billones de

Tabla 6. Inversiones para la expansión del proyecto Ítem

Tipo

COP$ 2011

Inversión Expansión

Predios

No se repita

373.319.429

Vías de acceso

No se repita

10.672.135.838

Líneas de conexión

No se repita

3.519.868.899

Planta + instalación

Se repite

280.486.468.185

140.243.234.093

Inversión ambiental

No se repita

1.472.158.501

Ingeniería

Se repite

26.354.434.445

13.427.217.222

Imprevistos Obras

No se repita

10.370.692.710

Imprevistos Equipos

Se repite

28.573.495.750

14.286.747.875

362.822.573.757

167.957.199.190

Total Inversión Adicional

Fuente: elaboración de los autores

Figura 5. Valor de la opción de expandir el proyecto Fuente: elaboración de los autores

Universidad de Medellín


Valoración de proyectos de energía térmica bajo condiciones de incertidumbre a través de opciones reales

pesos, con un valor medio de 3,8 billones de pesos. El VPN del proyecto, contemplando la opción de continuar, traslada la media de   -  181.000 millones a 3,6 billones de pesos, que muestra la importancia de tener en cuenta esta opción; es evidente el valor adicional que le genera la opción de expansión al proyecto. Sin embargo, este valor se presenta en las trayectorias donde los márgenes del proyecto se hacen importantes, dado un precio de la energía alto y un precio del carbón lo suficiente por debajo para generar rentabilidad. Pero con esta opción poco puede hacer en las trayectorias negativas del proyecto, pues ante los escenarios muy rentables se puede tomar la decisión de ampliar y ganar más dinero, pero ante las pérdidas esta opción genera efecto nulo. 4. CONCLUSIÓN La restructuración del mercado de electricidad en Colombia ha incentivado la inversión en nuevos proyectos de generación de energía. La utilización de la valoración de éstos a través de flujo de caja descontado se asocia a un análisis estático que no considera el comportamiento estocástico de las variables que lo determinan. Esta omisión puede generar una sobrevaloración o subvaloración de los proyectos, afectando la exposición del riesgo y los beneficios esperados de los inversionistas. El desconocimiento del valor económico futuro de los proyectos de generación energética incentiva el estudio sobre las variables que determinan sus resultados, proporcionando a los inversionistas indicios sobre las alternativas que pueden aprovechar, en diferentes escenarios. Este trabajo incorpora la modelación de la volatilidad estocástica de variables exógenas que consideran la incertidumbre en la decisión de inversión. Para ello, se emplearon como herramientas modelos ARIMA  -  GARCH. Los resultados sugieren que el modelo de mayor ajuste, para el caso de los retornos sobre el precio de mercado de la energía, es un ARIMAX  -  GARCH (1,0), donde

99

el fenómeno de sequía de los tres meses anteriores implica un incremento porcentual sobre el precio de este commodity; intuitivamente, se pude afirmar que dicho resultado se debe a la disminución de los caudales ocasionada por los comportamientos extremos del clima, los cuales requieren tiempo para contar con los niveles óptimos. El comportamiento del clima, según el pronóstico del Enso, se modelo mediante Monte Carlo, el cual se reconoce como un método de simulación numérica que suele utilizar para simular un conjunto muy grande de procesos estocásticos. Para las condiciones analizadas la simulación indica una probabilidad del 19 % de presencia de sequía extrema, que es el contexto requerido para optimizar la producción de las generadoras térmicas. La modelación de la volatilidad de las diferentes variables exógenas se considera como insumo para valorar el proyecto a través de flujo de caja descontado. Sin embargo, los resultados recomiendan la no ejecución de este, debido principalmente al crecimiento de los costos, explicado por el incremento exponencial del precio del carbón. Estos resultados sugieren la necesidad de implementar herramientas complementarias que involucren diferentes escenarios. El análisis de opciones reales es una herramienta que permite valorar la flexibilidad de los proyectos de inversión ampliando el margen de estrategia de los tomadores de decisiones. En este caso se contrastan los resultados obtenidos a través de la metodología de flujo de caja descontado y de opciones reales para valorar una planta térmica con capacidad de generación de 150 MW. La existencia de proyectos con variables estocásticas que tienen cambios continuos y periódicos en pequeñas fracciones de tiempo origina la posibilidad y la existencia de una opción de cierre temporal. En este contexto existe la posibilidad de realizar trabajos que contribuyan al desarrollo teórico y la valoración de este tipo de opciones. También es de gran importancia considerar en futuros trabajos la influencia de las restricciones

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 83 -1 0 0  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


100

Mónica A. Arango Arango - Elizabeth T. Arroyave Cataño - Juan D. Hernández

e incentivos que concede el gobierno en la negociación de proyectos de energía. REFERENCIAS [1] M. d. M. y. E. Minminas, “Sector Energía Eléctrica,” ed. Bogotá: Ministerio de Minas y Energía, 2011. [2] L. Trigeorgis, Real Options: Managerial Flexibility and Strategy in Resource Allocation. United States of America: Asco Trade Typesetting Ltd, 1999. [3] F. Kjærland, “A real option analysis of investments in hydropower—The case of Norway,” Energy Policy, vol. 35, pp. 5901  -  5908, 2007. [4] P. P. Boyle, “Options: A Monte Carlo approach,” Journal of Financial Economics, vol. 4, pp. 323  -  338, 1977. [5] J. C. Cox, et al., “Option pricing: A simplified approach,” Journal of Financial Economics, vol. 7, pp. 229  -  263, 1979. [6] C. Maya, et al., “La valoración de proyectos de energía eólica en Colombia bajo el enfoque de opciones reales,” Cuadernos de Administración 2012. [7] P. Lamothe, Opciones financieras y productos estructurados MADRID MCGRAW HILL, 2006. [8] R. Madlener and S. Stoverink, “Power plant investments in the Turkish electricity sector: A real options approach taking into account market liberalization,” Applied Energy, vol. 97, pp. 124  -  134, 2012. [9] G. Kumbaroğlu, et al., “A real options evaluation model for the diffusion prospects of new renewable power generation technologies,” Energy Economics, vol. 30, pp. 1882  -  1908, 2008. [10] B. Fernandes, et al., “The use of real options approach in energy sector investments,” Renewable and Sustainable Energy Reviews, vol. 15, pp. 4491  -  4497, 2011.

Universidad de Medellín

[11] T. K. Boomsma, et al., “Renewable energy investments under different support schemes: A real options approach,” European Journal of Operational Research, vol. 220, pp. 225  -  237, 2012. [12] C. Barria and H. Rudnick, “Investment under Uncertainty in Power Generation: Integrated Electricity Prices Modeling and Real Options Approach,” IEEE Latin America Transactions, 2011. [13] M. Serati, et al., “Modelling electricity prices: from the state of the art to a draft of a new proposal,” LIUC Papers in Economics, 2008. [14] M. A. A. Arango, “Modelo para determinar una canasta hidro  -  térmica óptima en proyectos de inversión en el mercado de generación de energía, bajo condiciones de incertidumbre,” Doctorado, Universidad Nacional de Colombia, Medellín, 2012. [15] M. M. Gil Zapata and C. Maya Ochoa, “Modelación de la volatilidad de los precios de la energía eléctrica en Colombia,” Revista Ingenierías Universidad de Medellín, vol. 7, pp. 87  -  114, 2008. [16] F. Villada, et al., “Pronóstico del Precio de la Energía Eléctrica usando Redes Neuro  -  Difusas,” Información tecnológica, vol. 22, pp. 111  -  120, 2011. [17] U. M. e. d. C. UPME, “Costos indicativos de generación eléctrica en Colombia,” ed. Bogotá: Unidad Minero energética de Colombia UPME, 2005. [18] T. E. Copeland, et al., Financial Theory and Corporate Policy 4ed.: Pearson Addison Wesley, 2005. [19] A. Damodaran. (2012). Betas by Sector. Available: http:// pages.stern.nyu.edu/~adamodar/


Revista Ingenierías Universidad de Medellín

EFECTO DE LA COMPOSICIÓN DEL GAS DE REFINERÍA SOBRE LAS CARACTERÍSTICAS DEL PROCESO DE COMBUSTIÓN O. M. Cala* L. Meriño** V. Kafarov*** J. Saavedra**** Recibido: 20/05/2013 Aprobado: 25/10/2013 RESUMEN En este artículo de investigación científica se analiza el efecto del cambio de la composición del gas combustible (Gas de Refinería (GR) por Gas Natural (GN)) sobre las características del proceso combustión en hornos de la industria de refinación del petróleo; se evaluó el poder calorífico, el índice de Wobbe (IW) y exceso de oxígeno, para mezclas combustibles de composición variable. Mediante simulación computacional del proceso de combustión se calculó la temperatura adiabática de llama, eficiencia y la composición de los productos de combustión. Se evaluaron mezclas de gases combustibles con poderes caloríficos entre 800-2500 Btu/pie3 y se compararon con la combustión de gas natural. Se registró variabilidad en la temperatura adiabática y la eficiencia en función de la composición del gas y el exceso de oxígeno, lo que genera inestabilidad en el horno y mayor impacto ambiental. Palabras clave: gas de refinería, combustión, eficiencia energética, combustible.

*

Oscar Mauricio Cala. Ingeniero Químico, Centro de Investigación para el Desarrollo Sostenible en Industria y Energía (CIDES), Universidad Industrial de Santander. Cra 27 calle 9 ciudad universitaria, Bucaramanga, Colombia. Tel. 6344000 Ext: 2603, E-mail: oscar.cala@correo. uis.edu.co

**

Lourdes Meriño Stand, MSc en Ingeniería Química, Candidata a doctor, Centro de Investigación para el Desarrollo Sostenible en Industria y Energía (CIDES), Universidad Industrial de Santander. Cra 27 calle 9 ciudad universitaria, Bucaramanga, Colombia. Tel. 6344000 Ext: 2603, E-mail: lourdes.merino@correo.uis.edu.co

***

Viatcheslav Kafarov, P.h.D. Docente de planta, Escuela de Ingeniería Química, Director del Centro de Investigación para el Desarrollo Sostenible en Industria y Energía (CIDES), Universidad Industrial de Santander. Cra 27 calle 9 ciudad universitaria, Bucaramanga, Colombia. Tel. 6344000. email: kafarov@uis.edu.co

****

Jaqueline Saavedra Rueda, P.h. D. en Ingeniería Química, Líder de plantas piloto, Instituto Colombiano del Petróleo – ECOPETROL Km. 7 Vía a Piedecuesta, Colombia. Tel: +57 (7) 6847331. email: jaqueline.saavedra@ecopetrol.com.co

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 101 - 112  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


102

O. M. Cala - L. MeriĂąo - V. Kafarov - J. Saavedra

EFFECT OF REFINERY GAS COMPOSITION ON CHARACTERISTICS OF COMBUSTION PROCESS

ABSTRACT This scientific research article is an analysis of the effect fuel gas composition change (from Refinery Gas to Natural Gas) has on the characteristics of combustion process in industrial oil refining furnaces; heat power, Wobbe Index, and oxygen excess were evaluated for combustible mixtures of variable composition. Through computational simulation of the combustion process, adiabatic temperature of the flame, efficiency, and composition of combustion products were calculated. Mixtures of combustible gases with heat powers between 800 and 2500 Btu/cubic feet were evaluated and compared to natural gas combustion. Variability of adiabatic temperature and efficiency in function of gas composition and oxygen excess occurred; and this resulted in furnace instability and higher environmental impact. Key words: Refinery gas; combustion; energy efficiency; fuel.

Universidad de MedellĂ­n


Efecto de la composición del gas de refinería sobre las características del proceso de combustión

INTRODUCCIÓN Actualmente el mundo se está enfrentado a grandes retos causados por el desarrollo económico global, que se reflejan en un incremento en la demanda de energía mundial y el aumento de las emisiones de dióxido de carbono [1]. En una planta química, tal como una refinería, la energía representa el 40 % del costo total de operación, por lo cual la industria petroquímica ha venido implementando estrategias para aumentar la eficiencia energética, entre las que se destacan: el fortalecimiento de la gestión de la energía, el cambio de las fuentes de energía y la recuperación y posterior reutilización de residuos de energía [2]. Actualmente, los procesos petroquímicos que se desarrollan en una refinería utilizan como fuente principal de energía una mezcla de gas natural (GN) y gas gastado de proceso, el cual es recuperado de los distintos procesos (Unidad de cracking catalítico, unidad de desulfurización y unidad de reformado catalítico) y reutilizado como sustituto del gas natural, y se le denomina gas de refinería (GR); dicho gas presenta una composición que variará ampliamente dependiendo del proceso del cual provenga, con altos contenidos de hidrógeno, etileno, propano y propileno. Este tipo de sustitución en la fuente del combustible ha sido estudiada desde el siglo anterior y se ha encontrado una amplia diversidad de compuestos que pueden ser utilizados en procesos de combustión dependiendo de la fuente de origen y su disponibilidad; de esta manera surgió el término intercambiabilidad de gases el cual hace referencia a la posibilidad de remplazar un combustible por otro sin que se afecten las características de operación del aparato doméstico, comercial o industrial [3]. Wobbe [4] presentó “el Índice de Wobbe” (poder calorífico dividido entre la raíz cuadrada de la gravedad específica), el cual describe la habilidad de un gas para liberar calor al quemador como una función de su densidad. De igual forma surge una diversidad de índices para evaluar la intercambiabilidad: como los índices de American Gas Association [5], el método de Delbourg [6], y el

103

Factor de Weaver [7] entre los más importantes; sin embargo, en dichos estudios no se tiene en cuenta el gas de refinería. Recientemente los investigadores se han centrado en el gas de refinería y han estudiado este cambio de combustible como una manera de reducir el costo de la energía Hsieh analizó la influencia de utilizar un gas de refinería rico en hidrógeno (50 - 80 % mol) y encontró una reducción en las emisiones de CO2 y NOx del 16,4 y 8,2 % respectivamente [8]. Otros estudios analizan las emisiones de NO y CO2 utilizando diferente relación combustible/gas de refinería, rico en hidrógeno, en calderas de media y alta presión, cuyos resultados muestran que se puede ahorrar costos en el combustible y reducir las emisiones de gases de efecto invernadero utilizando el GR [9, 10], todas estas investigaciones se basan en el hecho de que el hidrógeno es catalogado como un combustible limpio por su poder calorífico sin la generación de contaminantes o residuos [11]. Otro parámetro a analizar con el GR es el exceso de aire, pues afecta tanto la eficiencia térmica como a los impactos ambientales generados en los hornos [12]. Cuando el exceso de oxígeno es elevado, se incrementa la concentración de O2 en el área de combustión que conduce a un aumento de la temperatura de llama, y por tanto, una caída de temperatura en el área de radiación (Zona de reacción) que disminuye la eficiencia del horno [13]. La alta temperatura de llama, junto con combustión turbulenta en el horno, causa la reacción del oxígeno con el nitrógeno, formando NO (óxido nítrico) y NO2 (Dióxido de nitrógeno) [14]. De igual forma, al emplear bajos excesos de aire se obtiene un incremento en la eficiencia térmica, pero se corre el riesgo de tener mezclas poco íntimas de aire y combustible que pueden ocasionar combustión incompleta [15], por lo cual es necesario determinar el valor óptimo de oxígeno a utilizar en todo proceso combustión. Sin embargo, las investigaciones mencionadas anteriormente utilizan GR con alto contenido de

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 101 - 112  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


104

O. M. Cala - L. Meriño - V. Kafarov - J. Saavedra

hidrógeno (50 - 80 %), pero en los procesos petroquímicos dichos gases se producen en menor cantidad, por lo cual este estudio se enfoca en simular varias corrientes de GR con diferentes composiciones, las cuales son recuperadas y alimentadas a un horno de combustión, con el objetivo de evaluar la influencia de usar el GR sobre las propiedades fisicoquímicas de los productos de la combustión. 1. MATERIALES Y MÉTODOS Las reacciones de combustión, utilizando como combustible el gas de refinería, fueron simuladas mediante modelos químicos y termodinámicos usando el software comercial Aspen Hysys 2006.5. Para el cálculo de las propiedades fisicoquímicas de las corrientes de GN, GR y aire se seleccionó la ecuación de estado de Peng Robinson pues es el paquete de fluidos recomendado para aplicaciones en el gas, petróleo y petroquímica, ya que se garantiza la precisión de la misma para una gran variedad de sistemas en un amplio rango de condiciones con alto grado de eficiencia y confiabilidad. La metodología planteada para la simulación consta de las siguientes etapas: 1.1 Revisión de antecedentes históricos y selección de componentes a evaluar El primer paso para realizar la simulación del proceso de combustión consistió en la selección de los componentes presentes en el GR; para ello se realizó la revisión de los datos históricos de aproximadamente 120 cromatografías pertenecientes a corrientes de GR provenientes de distintas unidades de una refinería. Posteriormente se procedió a seleccionar una mezcla representativa del GR, mediante un análisis estadístico realizado por el software Statgraphics, utilizando como criterio base el PCI. 1.2 Evaluación de propiedades La composición del gas combustible genera impactos significativos sobre la operación y la vida útil de Universidad de Medellín

los equipos de combustión (hornos y calderas), pues puede variar de tal forma que modifica el poder calorífico de la mezcla de combustible presentándose un amplio rango que va desde 800 - 2500 Btu/ pie3. Para medir el efecto de la composición sobre el proceso de combustión, se estudiaron algunas variables influyentes en el proceso, tales como el poder calorífico inferior, el índice de wobbe, la temperatura adiabática de llama, exceso de oxígeno, composición de los productos de combustión y la eficiencia del proceso. Todo esto como una herramienta en la toma de decisiones en cuanto al uso del gas de refinería. 1.3 Poder calorífico inferior (PCI) El PCI es la variable más importante del proceso, pues depende directamente de la composición y mide el contenido energético por unidad de masa o unidad volumen del combustible. Para mezclas gaseosas se define como: PCI = å yi PCI i

(1)

Donde yi es la fracción molar del componente i y PCIi es el poder calorífico inferior del componente i. 1.4 Índice de Wobbe Para analizar el efecto del poder calorífico de la mezcla se calculó el índice de Wobbe (IW), el cual es utilizado como un buen indicador de la intercambiabilidad de los combustibles, suministrando una medida indirecta del contenido energético. Se define como: IW =

PCI dr

( 2)

Donde dr es la densidad relativa del gas y PCI es el poder calorífico inferior del combustible.


Efecto de la composición del gas de refinería sobre las características del proceso de combustión

105

1.5 Temperatura adiabática de llama

1.7 Simulación del proceso

La temperatura adiabática de llama es la máxima temperatura que pueden alcanzar los productos de combustión, es decir, aquella que se obtiene si todo el calor generado durante el proceso se utilizará para calentar los productos o asumiendo un proceso adiabático. Esta temperatura fue calculada mediante el software Aspen Hysys 2006.5, asumiendo un proceso adiabático.

El proceso de combustión descrito en este trabajo utiliza como cámara de combustión un reactor de conversión tipo “batch”. La figura 1 muestra el esquema utilizado para la simulación. En la primera etapa las corrientes de gas combustible (GR o GN) y aire son llevadas a un mezclador con el fin de asegurar una correcta mezcla aire -combustible; entonces la mezcla es enviada al reactor de conversión que se encuentra a presión atmosférica. Inicialmente los productos de combustión salen a condiciones adiabáticas, con el fin de obtener la temperatura adiabática de llama; posteriormente, es retirado el calor necesario para mantener la temperatura de salida del proceso a 320 °C y de esa manera obtener los productos de combustión a la temperatura de chimenea. Las condiciones de proceso de las corrientes de entrada son mostradas en la tabla 1.

1.6 Eficiencia del proceso La eficiencia de combustión en hornos es la medida del calor liberado en la llama que es absorbido por el fluido a calentar; se calcula a partir de las pérdidas de calor en la chimenea y la energía que libera el combustible utilizado. Para su evaluación se utilizó el modelo de entradas y salidas (indirecto) descrito en la norma ASME PTC 4.1 [16]. Se define como:

Tabla 1. Condiciones de los flujos de entrada al proceso Corriente

η=

PCI − Qchimenea *100 PCI

( 3)

Donde PCI es el poder calorífico inferior del combustible y el Qchimenea es el calor perdido en chimenea.

Gas de Refinería C1

Mezcla

Temperatura [°C]

Presión [KPa]

Combustible

32,22

101,4

Aire

32,22

101,4

Fuente: elaboración propia

Se utilizó un flujo de gas combustible de 1 kmol/h y el flujo de aire fue variado de acuerdo con el exceso de

E-101

CRV-101

1

MIX-100 liq

Flujo de aire

Q-102

Fig. 1. Simulación del proceso de combustión en Aspen Hysys. Fuente: elaboración propia.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 101 - 112 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


106

O. M. Cala - L. Meriño - V. Kafarov - J. Saavedra

oxigeno (% O2) desde n=0, mínimo o estequiométrico, hasta n=10 %, máximo valor reportado en la literatura.

1.8 Reacciones de combustión A continuación se muestran las reacciones linealmente independientes que se dan en el reactor de conversión.

GR obtenidas previamente, mediante un análisis estadístico utilizando Statgraphics, que permitió establecer 8 componentes principales que forman un mezcla representativa de la red de gas combustible con PCI entre 800Btu/ft3 y 2000 Btu/ft3 (C1, C2, C3 y C4) y una corriente de gas natural típico Colombiano (tabla 2).

CH 4 + 2O2 ® CO2 + 2 H 2O + 882,81 Btu / pie3 (4)

Tabla 2. Composiciones representativas del GR. Tipo gas

2C2 H 6 + 7O2 ® 4CO2 + 6 H 2O + 1580,96 Btu / pie3

(5)

C3 H 8 + 5O2 → 3CO2 + 4 H 2O + 2282,34 Btu / pie3

13 O2 → 4CO2 + 5H 2O + 2 3003, 21 Btu / pie3

(6)

n − C4 H10 +

(7)

C2 H 4 + 3O2 → 2CO2 + 2 H 2O + 1462, 02 Btu / pie

3

9 C3 H 6 + O2 → 3CO2 + 3H 2O + 2 2146,89 Btu / pie3 2 H 2 + O2 → 2 H 2O + 265, 40 Btu / pie3

C1

C2

C3

C4

CH4

97

55

70

25

35

C2H6

1

10

0

8

3

C3H8

1

0

16

25

35

C4H10

0

4

5

10

12

C2H4

0,5

5

3

10

7

C3H6

0,5

2

0

5

8

H2S

0

4

1

2

0

H2

0

20

5

15

0

PCI

913

955

1200

1530

1800

Fuente: elaboración propia

(8)

(9) (10)

2. ANÁLISIS DE RESULTADOS En esta sección se analizan los efectos de la composición del gas combustible sobre las características de la combustión, y se evaluó: poder calorífico, índice de wobbe, aire teórico, temperatura adiabática de llama, eficiencia y concentración de CO2 y vapor de agua. 2.1 Influencia de la composición del gas combustible (GR) sobre el poder calorífico de la mezcla Para la simulación se tomaron 4 corrientes de Universidad de Medellín

GN

La figura 2 muestra la variación del poder calorífico inferior que se presenta al utilizar los 4 tipos de GR a estudiar, calculados mediante la ecuación (1). Se utilizó un rango de PCI entre [800 - 2000 BTU/pie^3]. El poder calorífico de un combustible depende netamente de su composición, afecta el rendimiento del horno, incluyendo las características de la combustión (longitud de la llama, estabilidad de la llama y temperatura), la eficiencia térmica y las emisiones. Por lo tanto, es un parámetro de vital importancia en el estudio de la combustión [17]. Como se observa en la figura 2 se puede tener un amplio rango en el poder calorífico del GR, donde el GN oscila entre 850 - 1000 Btu/pie3; asimismo, encontramos GR con PCI entre los 1000 - 1500 Btu/pie3, los cuales presentan alto contenido de metano pero se incrementan hidrocarburos como el etano, el etileno y el hidrógeno; también se encuentran GR con PCI superior a los 1500 Btu/pie3,


Efecto de la composición del gas de refinería sobre las características del proceso de combustión

107

2000

Poder calorífico [BTU/pie^3]

1800 1600 1400 1200 1000 800 600 400 200 0 GN

C1

C2

C3

C4

Típo de gas

Fig. 2. Poder calorífico inferior de las mezclas combustibles de GR. Fuente: elaboración propia.

en los cual se presenta bajo contenido de metano, pero se tienen altas concentraciones de propano y butano. De esa forma, se tiene una amplia gama de GR, el cual es utilizado como combustible en las refinerías; de esa manera se hace importante validarlos teniendo en cuenta su intercambiabilidad y los impactos que generan al utilizarse como combustibles.

sobre la combustión. 2.3 Influencia de la composición del GR sobre el exceso de oxígeno La cantidad de aire necesario para garantizar la combustión completa para el GN y el GR es calculado mediante la ecuación (11).

 2CH 4 + 3,5C2 H 6 + 5C3 H 8 +  1   A0 = 6,5C4 H10 + 3C2 H 4 + 4,5C3 H 6  (11)  0, 21   El índice de Wobbe se calculó por medio de la  +0,5 H 2  ecuación (2). Ya que dicho índice tiene en cuenta el efecto de la composición, y el PCI, se pueden tener Donde CH4, C2H6, C3H8, C4H10, C2H4, C3H6 dos combustibles con diferentes composiciones y y H2 se expresan como la fracción molar del PCI, que puedan tener el mismo valor en el IW;por combustible. tanto, presentarían características similares para la combustión y de esa manera se considerarían En la figura 3 se observa que para 1 kmol de intercambiables. GN es necesario suministrar 9,82 kmol de aire; al realizar el cambio de combustible se observa que C1 En la tabla 3 se observa que el GN y C1 prerequiere una cantidad menor al GN (1 %), debido senta prácticamente el mismo índice de Wobbe, a la adición de hidrógeno (20 %), tal como reporta por lo cual se considerarían intercambiables; en el Lee CH et al. [12], ya que dicho componente dismicaso de C2, C3 y C4, sus IW difieren totalmente nuye la cantidad de aire, pues requiere 0,5 mol de respecto al del GN por lo no se deben considerar oxígeno por mol de combustible, mientras que para como sustitutos del GN. Sin embargo, dichos gases C2, C3 y C4 se presenta un aumento del 28, 59 y son utilizados comúnmente en las refinerías; por 89 % en la cantidad de aire, respecto al GN; dicho consiguiente, se analizará el efecto de dicho gases

2.2 Índice de Wobbe

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 101 - 112 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


O. M. Cala - L. Meriño - V. Kafarov - J. Saavedra

aumento se presenta porque estos gases poseen la mayores concentraciones de propano, butano y propileno, que de acuerdo con las reacciones de combustión (6,7,9), necesitan mayor cantidad de moles de oxigeno por mol de combustible (5 para el propano, 6,5 para el butano y 4,5 para el propileno) para asegurar la combustión completa, comparado con el metano (principal componente del GN) que solo necesita 2 mol de oxígeno. Por tanto, la presencia de hidrocarburos de alto peso molecular en el GR incrementa la cantidad de aire requerido para la combustión, y de ese modo, se corre el riesgo de presentarse combustión incompleta. Aire requerido [Kmol/h]

20 15 10 5 0

GN

C1

C2

Tipo de gas

C3

C4

Fig. 3. Aire teórico requerido por el GR. Fuente: elaboración propia.

2.4 Influencia de la composición del GR sobre la temperatura adiabática de llama La figura 4 muestra la variación de la temperatura adiabática de llama en función del exceso de oxígeno para cada clase de GR y para el GN. Se observa que la máxima temperatura se obtiene para 0 % de exceso de aire, la cual corresponde a la condición estequiométrica para cada uno de los gases, tal como se reporta en la literatura. De igual forma, se observa que a un mismo exceso de aire la temperatura adiabática del GN es de 2036 °C; al usar el GR se obtienen temperaturas adiabáticas superiores que van desde 2066 hasta 2106 °C; estas altas temperaturas hacen que en la zona de reacción se presente combustión a alta temperatura (>1300 °C), la cual favorece los mecanismos de formación del NOx térmico, pues a estas temperaturas, Universidad de Medellín

el NOx es iniciado principalmente por la formación de tres radicales libres: nitrógeno, oxígeno y OH, que provienen de la oxidación del nitrógeno circundante bajo el calor liberado durante la combustión, y reaccionan con las moléculas presentes en el aire, llevando a una rápida formación de NOx [9], además, se debe tener en cuenta que las emisiones de NOx aumentan exponencialmente con la temperatura [9]. De igual forma se ha encontrado que las altas temperaturas influyen sobre la vida útil de los hornos, Ul - Hamid et al, mostraron que al exponer el material excesivamente a altas temperaturas (superiores a 900 °C), se presentan grietas en la superficie de los tubos como resultado de la aceleración de la carburación por la temperatura [18]; asimismo, se ha encontrado que en los procesos petroquímicos la causa principal de las fallas en los tubos se presenta por corrosión a alta temperatura, pues se genera oxidación, sulfidación, carburación y formación de polvo metálico [19]. 2150

C1 C2 C3 C4 GN

2100

Temperatura adiabática [°C]

108

2050

2000 1950 1900 0

2

4

6

Exceso de aire [%]

8

10

Fig. 4. Efecto del exceso de oxígeno sobre la temperatura adiabática de llama. Fuente: elaboración propia.

Los resultados también muestran que la temperatura no aumenta directamente con el poder calorífico del gas, pues la máxima temperatura adiabática se obtiene al utilizar C3 [1530 BTU/ pie^3]. En la figura 4 también se observa que al aumentar el exceso de aire, la temperatura adiabática de llama disminuye linealmente a una razón de 12,37 °C por unidad de aire; por lo tanto, el exceso


Efecto de la composición del gas de refinería sobre las características del proceso de combustión

2.5 Influencia de la composición del GR sobre los productos de combustión

Concentración [%]

En la figura 5 se muestra la cantidad de CO2 y vapor de agua generado por la combustión completa de los gases estudiados (GN y GR) para un exceso de oxígeno del 2 %. Se observa que la concentración molar de CO2 aumenta al utilizar el gas de refinería, desde 9.4 % hasta 11,3 % respecto al GN, lo cual significa un aumento en la generación de emisiones de gases de efecto invernadero. Este aumento en la concentración de CO2 se presenta debido al alto contenido de propano y butano en el GR, pues dichos hidrocarburos emiten más CO2 que el metano, tal como muestran las reacciones de combustión (4 - 10); por tanto, a mayor contenido de propano y butano en el GR se generarán mayores emisiones de CO2, convirtiéndose en una desventaja ambiental. 11,5

19

11

18

10,5

17

10

16

9,5

15 CO2

9

H2O

8,5

GN

C1

C2

C3

C4

Fig. 5. Efecto del GR sobre la composición de los productos de combustión. Fuente: elaboración propia.

14 13

2.6 Influencia de la composición GR sobre la eficiencia del proceso En la figura 6 se muestra la variación de la eficiencia del proceso de combustión en función del tipo de gas (GR y GN) utilizado, para un exceso de oxígeno del 2 %. Se observa que la eficiencia disminuye respecto al GN para los gases C1, C2 y C3, donde C1 presenta una disminución significativa del 2 %, atribuido a la presencia de hidrógeno en el combustible [12]; en el caso de C2 y C3 la disminución es muy baja, por lo cual dichos gases no generarían impactos negativos sobre la eficiencia; finalmente en el caso de C4 se logra un aumento del 0,4 %, debido a la presencia de hidrocarburos de alto poder calorífico y a la ausencia de hidrógeno. 88,5 88 87,5

Eficiencia [%]

de aire a utilizar no debe ser alto, pues disminuye drásticamente la temperatura causando una disminución en la eficiencia del proceso [15]. Este resultado es similar al reportado por Nabi [20], quien afirma que para motores de combustión, al incrementar el contenido de oxígeno en el combustible se disminuye linealmente la temperatura adiabática de llama, logrando así una disminución en las emisiones de NOx. De ese modo el exceso de oxígeno debe ser mínimo pero se debe asegurar combustión completa.

109

87

86,5 86

85,5

Tipo de gas

85 GN

C1

C2

C3

C4

Fig. 6. Efecto del GR sobre la eficiencia del proceso Fuente: elaboración propia.

3. CONCLUSIONES La simulación de las mezclas combustibles de GR en Aspen Hysys ayudó a valorar las características de la combustión, mediante la variación de la composición del combustible, permitiendo establecer las variables que afectan la combustión. De esa manera se encontró que la presencia de hidrocarburos de alto peso molecular en el GR incrementa la cantidad de aire a utilizar para asegurar la combustión completa, y aumenta las emisiones de CO2 convirtiéndose en una desventaja ambiental. Igualmente el GR aumenta la temperatura adiabática de llama, causando de esa forma un aumento en las emisiones de NOx y de igual forma

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 101 - 112 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


110

O. M. Cala - L. Meriño - V. Kafarov - J. Saavedra

favorece los mecanismos de falla por corrosión a alta temperatura; sin embargo, no se encontró una relación directa entre la temperatura y el PCI del GR. Por otra parte las mezclas combustibles evaluadas presentan una variabilidad en la eficiencia respecto al GN, disminuyendo con el aumento en la concentración de hidrógeno.

REFERENCIAS

Finalmente los resultados de este estudio ponen en evidencia la variabilidad en la temperatura adiabática, eficiencia y emisiones que se presenta al utilizar el GR como combustible, sin embargo es posible encontrar rangos de composición en los cuales se pueda hacer un mejor uso del GR, que maximice el uso de energía y minimice la generación de contaminantes.

[3]. A. AMELL, “Tecnología de la Combustión de Gases y Quemadores Atmosféricos de Premezcla”. [En línea], Disponible: http://es.scribd.com/ doc/73707395/3 - Quemadores - Atmosfericos - 1,1996.

4. AGRADECIMIENTOS Agradecemos a Colciencias por el apoyo económico brindado a este proyecto a través del Programa Jóvenes investigadores e innovadores, año 2011, a la Universidad Industrial de Santander y a Ecopetrol - Instituto Colombiano de Petróleo por el apoyo general que ha hecho posible el desarrollo de este estudio.

[1]. J.L. Hu, C. H. Kao, “Efficient energy - saving targets for APEC economies”. Energ. Pol, vol. 35, pp. 373–82, 2007. [2]. P. Lunghi, R. Burzacca, “Energy recovery from industrial waste of a confectionery plant by means of BIGFC plant”. Energy, vol. 29, pp. 2601 - 17, 2004.

[4]. Wobbe, G., “A new definition of the Quality of gas”. L´Industria de Gas e degli Acquedotti, vol. 30, 1926. [5]. American Gas Association Laboratories, “Interchangeability of Other Fuel Gases with Natural Gases, Research Bulletin Number 36”. AGA Committee on Mixed Gas Research, Joint Committee of Natural Gas Department and Technical Section, American Gas Association, 1946. [6]. P. Delbourg, H. Schneck, “Interchangeability of Gases”. Presentado en 47th Congress of I’Industrie du Gaz, Paris, 1957. [7]. E. R. Weaver, “Formulas and Graphs for Representing the Interchangeability of Fuel Gases”. Journal of Research of the National Bureau of Standards, vol. 46, n.° 3, 1951. [8]. S.C. Hsieh, C. J. G. Jou, “Reduction of greenhouse gas emission on a medium - pressure boiler through hydrogen - rich fuel control”. Appl. Therm. Eng, vol. 27, pp. 2924–2928, 2007. [9]. C. L. Lee, C. J. G. Jou, H. S. Tai, C.H. Wang, S.C. Hsieh, H. P. Wang, “Reduction of nitrogen oxides emissions of a medium - pressure boiler through fuel control”. Aerosol Air Qual. Res, vol. 6, n.° 2, pp. 123–133, 2006. [10]. C. J. G. Jou, C. L. Lee, C. H. Tsai, H. P. Wang, “Enhancing the performance of a high - pressure cogeneration boiler with waste hydrogen - r ich fuel”. Inter. Jour. Hydrogen Energy, vol. 33, pp. 5806–5810, 2008. [11]. A. M. Mastral, R. Murillo, T. García, M. V. Navarro, M. S. Callen, J. M. López, “Study of the viability of the process for hydrogen recovery from old tyre oils”. Fuel Processing Technology, vol. 75, pp. 185–199, 2002. [12]. C. L. Lee, S. S. Hou, W. J. Lee, C. J. Jou, “Improving cost - effectiveness for the furnace in a full - scale refinery plant with reuse of waste tail gas fuel”. International

Universidad de Medellín


Efecto de la composición del gas de refinería sobre las características del proceso de combustión

111

Journal of Hidrogen Energy, vol. 35, pp. 1797 - 1802, 2010.

compositions”. Energy Conversion and Management, vol. 44, pp. 3001–3014, 2003.

[13]. T. Rogaume, M. Auzanneau, F. Jabouille, C. J. Goudeau, J. L. Torero, “The effects of different airflows on the formation of pollutants during waste incineration”. Fuel, vol. 81, pp. 2277 - 2288, 2002.

[18]. A. Ul - Hamid, H. M. Tawancy, A. R. Mohammed, M. A. Nureddin, “Failure analysis of furnace radiant tubes exposed to excessive temperature”. Engineering Failure Analysis, vol. 13, pp. 1005–1021, 2006.

[14]. F. Wildy, “Fired heater optimization” Technical sales support manager, AMETEK process instruments, Pittsburgh, PA 15044.

[19] J. Serna, “Oxidación, carburación y sulfidación de aleaciones ferríticas Fe - 9Cr - 1Mo modificadas en ambientes con hidrocarburos a temperaturas entre 550 y 750°C”. Tesis de Doctorado en Ingeniería Química, Universidad Industrial de Santander. Bucaramanga. 2004.

[15]. J. Serrano, Y. Carranza, “Análisis teórico de la combustión en quemadores de gas natural”. Scientia et Technica, vol. 29, pp. 139 - 143, 2005. [16]. ASME, Fired Steam Generators, Performance Test Code 4, ASME PTC 4.1, 1998. [17]. Y. C. Ko, T. H. Lin, “Emissions and efficiency of a domestic gas stove burning natural gases with various

[20]. M. N. Nabi, “Theoretical investigation of engine thermal efficiency, adiabatic flame temperature, NOx emission and combustion - related parameters for different oxygenated fuels”. Applied Thermal Engineering, vol. 30, pp. 839–844, 2010.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 101 - 112  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


Revista Ingenierías Universidad de Medellín

MODELOS CINÉTICOS DE DEGRADACIÓN TÉRMICA DE POLÍMEROS: UNA REVISIÓN Laura María Aranzazu Ríos* Paula Victoria Cárdenas Muñoz* Juan Manuel Cárdenas Giraldo* Guillermo Humberto Gaviria* Andrés Felipe Rojas González** Javier Ignacio Carrero Mantilla** Recibido: 26/11/2012 Aprobado: 25/10/2013 RESUMEN Esta revisión se dedica al ajuste de parámetros para modelos cinéticos de degradación térmica de polímeros usando termogravimetría. Primero se describen los fundamentos del análisis de datos y se resumen las ecuaciones básicas. Luego los modelos cinéticos se clasifican según estas categorías: isotérmicos, diferenciales, integrales, e isoconversionales. Las aproximaciones para la integral de Arrhenius se presentan en una sección aparte. Por último se da un esquema de clasificación para elegir el método de análisis de datos y se muestran algunas expresiones nuevas, desarrolladas a partir de aproximaciones de la integral de Arrhenius. Palabras clave: cinética, polímeros, degradación térmica, integral de Arrhenius

*

Personal de apoyo al Grupo de Investigación en Aprovechamiento de Residuos, GIAR. Universidad Nacional de Colombia, sede Manizales (Cra. 27 # 64 – 60). Tel: (+57+6) 8879300 ext. 50129. E - mail: lmaranzazur@unal.edu.co, pvcardenasm@unal.edu.co, jumcardenasgi@unal. edu.co

**

Ph.D. Profesores Asociados. Departamento de Ingeniería Química, Grupo GIAR. Universidad Nacional de Colombia, sede Manizales (Cra. 27 # 64 – 60). Teléfono: (+57+6) 8879300 ext. 50352. E - mail, anfrojasgo@unal.edu.co, jicarrerom@unal.edu.co Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 113 - 130  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/182 p. Medellín, Colombia


114

Laura M. Aranzazu R. - Paula V. Cárdenas M. - Juan M. Cárdenas G. - Guillermo H. Gaviria - Andrés F. Rojas G. - Javier I. Carrero M.

KINETIC MODELS OF POLYMER THERMAL DECOMPOSITION: A REVIEW

ABSTRACT This review is focused on the adjustment of parameters for kinetic models of polymer thermal decomposition by using thermogravimetry. First, fundamentals of data analysis are described and basic equations are summarized. Then, kinetic models are classified according to the following categories: isothermal, differential, integral, and isoconversional. Approaches to the Arrhenius integral are shown in a separate section. Finally, a classification scheme is provided in order to choose the data analysis method and some new expressions developed from approaches to the Arrhenius integral are depicted. Key words: Kinetics; polymers; thermal decomposition; Arrhenius integral.

Universidad de Medellín


Modelos cinéticos de degradación térmica de polímeros: una revisión

115

INTRODUCCIÓN La predicción de la estabilidad de los materiales poliméricos es de gran utilidad práctica, y requiere establecer su cinética de degradación térmica. En los estudios cinéticos se emplean técnicas de análisis térmico, ensayo mecánico, y cromatografía. En el análisis térmico una propiedad física de una sustancia, o de sus productos de reacción, se mide como una función de la temperatura. Dentro de esta categoría la termogravimetría (TG por sus siglas en inglés) y la calorimetría diferencial de barrido (DSC) se usan para determinar parámetros cinéticos [1].

una evaluación fácil de parámetros; y iii) evita gradientes de temperatura en la muestra debidos a la conducción de calor no estacionario. Pero también tiene limitaciones [7]: i) puede llegarse a una conversión considerable sin alcanzar la temperatura predefinida del análisis; ii) no permite conocer la temperatura de inicio de la reacción; iii) requiere varios experimentos a diferentes temperaturas, por lo que, iv) necesita cantidades considerables de muestra, además de trabajo tedioso y largo tiempo; y v) la temperatura se puede alejar del valor especificado debido a reacciones exotérmicas o endotérmicas, invalidando los datos.

La TG es muy utilizada para estudiar la cinética global o macroscópica de la degradación térmica de polímeros porque de sus resultados se pueden obtener los parámetros cinéticos [2, 3]. Hay dos tipos de termogravimetría: el análisis termogravimétrico (TGA) y la termogravimetría diferencial (DTG). En el TGA se mide la masa de la muestra o el porcentaje remanente durante su calentamiento en condiciones controladas, mientras que en la DTG se mide la velocidad de pérdida de masa. Los resultados en función del tiempo o la temperatura representan el perfil termogravimétrico de un material [4]. Tanto en TGA como en DTG el tipo de calentamiento define la termogravimetría y los principales tipos son [4, 5]:

De otro lado, la termogravimetría no isotérmica es más precisa para determinar los parámetros cinéticos y resuelve las limitaciones del método isotérmico. Tiene otras ventajas [7]: i) uso de pequeñas cantidades de muestra, ii) facilidad y rapidez del análisis, iii) mayor reproducibilidad debido al gran número de datos obtenibles en un solo experimento, iv) eliminación del error inducido por el periodo de inducción térmico, v) permite barrer en forma rápida un amplio rango de temperaturas, y vi) permite estudiar la influencia de la velocidad de calentamiento.

• Isotérmica: temperatura constante. • Cuasi   -   isotérmica: la muestra se calienta hasta masa constante en cada uno de una serie de incrementos de temperatura. • No isotérmica, o dinámica: la temperatura cambia de una manera predeterminada, preferiblemente lineal (velocidad de calentamiento constante). La termogravimetría isotérmica presenta estas ventajas [6]: i) permite detectar cambios de orden y mecanismo de reacción; ii) la velocidad de descomposición se obtiene resolviendo analíticamente una ecuación diferencial o integral, permitiendo

La elección de un tipo de análisis para determinar la cinética de degradación depende del tipo de material. Existen al menos 52 métodos analíticos distintos [8   -   12], que se han aplicado en degradación térmica [10], pirólisis [13], y combustión [5]. Por tipo de material hay métodos publicados para termoplásticos [10   -   11, 14   -   15], elastómeros [16], materiales compuestos y nonocompuestos [12], mezclas de polímeros [17], biopolímeros [18], carbón [5], residuos de petróleo [19], cauchos [20], pino [21], celulosa [6], quitina y quitosano [22], resinas epóxicas [23], fibras naturales   -   biomasa [24], aceites vegetales [7], y biodiesel [9]. Sin embargo, hay un punto común y es que cualquiera que sea el tipo de análisis, el propósito del tratamiento matemático de datos TG es obtener el “triplete cinético”: energía de activación, orden de

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 113 - 130  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/182 p. Medellín, Colombia


116

Laura M. Aranzazu R. - Paula V. Cárdenas M. - Juan M. Cárdenas G. - Guillermo H. Gaviria - Andrés F. Rojas G. - Javier I. Carrero M.

reacción, y factor preexponencial (llamado también factor de frecuencia). El objetivo de este trabajo es clasificar y resumir las aproximaciones y modelos matemáticos empleados para calcular el triplete cinético en la degradación térmica de polímeros. De esta forma, el experimentador tiene un esquema que le permite elegir la forma en que procesará los datos. También se presentan algunos modelos nuevos, obtenidos a partir de aproximaciones encontradas en la literatura. 1. ASPECTOS COMUNES DEL TRATAMIENTO DE DATOS EXPERIMENTALES La termogravimetría se basa en la medición de la masa de muestra en función del tiempo durante el calentamiento. Pero en lugar de la masa los cálculos se basan en la fracción de pérdida de peso, o conversión, definida como:

α=

w0 − wt w0 − w∞

(1)

donde w0, wt, y w∝ son, respectivamente, las medidas de masa en el inicio, en el tiempo t, y al finalizar el análisis. Los valores de a quedan en el intervalo [0,1] . La variable dependiente puede ser una función de a, da/dt, o ambas. La variación da/dt se mide experimentalmente (DTG) o se calculada a partir de datos a vs. t (TGA). En termogravimetría no isotérmica se usa la variación respecto a la temperatura, da/dT. Sin embargo, da/dt y da/dT están relacionadas por la velocidad de calentamiento B: æ da ö d a æç d a öæ dT ö = ç ÷÷÷çç ÷÷÷ = B çç ÷÷÷ , çè dT ø dt èç dT øèç dt ø

(2)

así, con B se puede obtener da/dt de datos no isotérmicos. Y usar varios valores de B reduce los efectos limitadores de la transferencia de calor. La variación da/dt se toma como el producto de dos funciones, una de T y otra de a Universidad de Medellín

dα = k ( T ) f (α ) . dt

(3)

La constante de velocidad k(T) sigue la ecuación de Arrhenius, = k (T ) Aexp ( − E / RT ) ,

(4)

donde E es la energía de activación (o de “activación aparente”), A es el factor preexponencial, y R=8.31451J/mol×K. La función f(a) depende del orden de reacción n. Por ejemplo, para un modelo de ley de potencia [7] f (α )=

(1 − α )

n

(5)

pero existen otras formas de f [25, 13]. El triplete cinético A, E, n es el conjunto de parámetros que gobierna la Ec. (3) y se obtiene de los datos experimentales da/dt, T, y a en las formas que se describen en las siguientes secciones. 2. CLASIFICACIÓN El criterio de mayor uso divide a los modelos en diferenciales e integrales según su variable dependiente [7, 22]. En los modelos diferenciales se ajustan datos de da/dt en función de T y a. Por ejemplo, empleando la forma lineal de la Ec. (3), dα = ln ln k (T ) + ln f (α ) dt

(6)

se puede obtener el orden de reacción y luego los parámetros A y E. Para obtener la ley cinética y el mecanismo de reacción de la degradación térmica de polímeros se consideran preferibles los modelos diferenciales que los integrales [25]. Sin embargo hay excepciones, por ejemplo el modelo Freeman   -   Carroll (ver tabla 3) no permite discernir el mecanismo de reacción dado que produce siempre un orden de reacción aparente [27]. Los modelos integrales usan datos de a, o una integral de a, en función de t o T. Por ejemplo, al emplear la Ec. 5 la forma integral de a es


Modelos cinéticos de degradación térmica de polímeros: una revisión

α

F (α ) = ∫ 0

(1 − α )

n

(7)

de esta forma en un análisis isotérmico los parámetros de Arrhenius (A, E) se pueden obtener de datos de t en función de 1/T. No son aplicables a muy bajos o muy altos grados de conversión [22]. También existen categorías definidas por el tipo de velocidad de calentamiento: inicial, o cíclica. Y modelos diferenciales   -   diferenciales, que emplean diferencias entre da/dt [26]. Una clasificación general es la de modelos de ajuste frente a modelos libres [26]. La categoría de ajuste incluye todos los modelos con una forma de f(a) asumido de antemano. En cambio, en los modelos libres no es necesario definir la función f(a). En los métodos libres isoconversionales, del conjunto total se seleccionan datos con el mismo valor a, aunque a distintas temperaturas o velocidades de calentamiento. De esta manera f(a) se vuelve constante, y los parámetros A y E son independientes de la forma de f. Por ejemplo, en la Ec. 6 da/dt depende solo de la temperatura, a través de la constante de reacción k(T). Sin embargo, el tratamiento isoconversional se puede aplicar sin importar si los datos son TGA (a) o DTG (da/dt).

117

3. MÉTODO DIFERENCIAL FRENTE A MÉTODO INTEGRAL En análisis isotérmico se puede aplicar el método diferencial porque se obtienen datos de a y da/dt a diferentes valores fijos de temperatura. Por ejemplo, de la Ec. 6, con f(a)=(1–a)n ln

dα = ln k (T ) + n ln (1 − α ) , dt

(8)

y para cada temperatura la gráfica ln(da/dt) frente a ln(1–a) proporciona el orden de reacción n de la pendiente, y k(T) del intercepto. Luego al usar la forma lineal de la ecuación (4) ln k (= T ) ln A −

E RT

(9)

los parámetros A y E se obtienen del intercepto y la pendiente de la gráfica lnk(T) frente a 1/T. El método integral se basa en la Ec. 3, por ejemplo con f(a)=(1–a)n dα n = Aexp ( − E / RT )(1 − α ) , dt

(10)

y al integrar se obtiene ln= t ln F (α ) − ln A +

E RT

(11)

De los resultados de E obtenidos en los métodonde F(a) está definido en la Ec. 7. En forma dos isoconversionales se puede deducir el tipo de similar al caso diferencial el parámetro E se obtiene cinética; si con distintos a se obtiene prácticamente de la pendiente de la gráfica ln t frente a 1/T. el mismo E la cinética es simple de un solo paso; de Con datos no isotérmicos el análisis integral lo contrario, es de varias etapas [28]. Sin embargo, se basa en la velocidad de calentamiento definida también tienen desventajas; para empezar, necesien la Ec. 2. Remplazando da/dT=(1/B)(da/dt) en tan muchas mediciones a diferentes B para obtener las Ecs. 3   -   4 se obtiene suficientes datos a cada valor de a [6]. Además, en modelos integrales están limitados a valores de E redα A exp ( − E / RT ) f (α ) , (12) lativamente altos y son propensos a la acumulación = dT B de errores. Esto se debe a condiciones de frontera con frecuencia mal definidas y a los métodos de que se integra desde la temperatura de arranaproximación utilizados en las integrales. que (T = T0 para a = 0) y la temperatura final (T = T para a = a) Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 113 - 130  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/182 p. Medellín, Colombia


118

α

∫ 0

Laura M. Aranzazu R. - Paula V. Cárdenas M. - Juan M. Cárdenas G. - Guillermo H. Gaviria - Andrés F. Rojas G. - Javier I. Carrero M.

T

dα A  E = F= exp  − (α ) ∫ f (α ) B T0  RT

  dT . 

(13)

Si las temperaturas del proceso son mucho mayores que la temperatura inicial se acostumbra hacer T0 = 0 en la integral del lado derecho [1] T

A  E exp  − ∫ B0  RT

F (α ) ≈

  dT . 

(14)

4. APROXIMACIONES PARA LA INTEGRAL DE ARRHENIUS El término ∫exp ( − E / RT ) dT es la “temperatura integral” o “integral de Arrhenius”. Cuando el calentamiento es hiperbólico, es decir T = (a – Bt)–1 la integral tiene solución analítica y la Ec. 14 es [30] AR  E exp  − BE  RT

F (α ) ≈

 . 

(15)

Aunque en el caso general solo queda estimar la integral de Arrhenius con métodos numéricos de cuadratura su valor se puede aproximar si se reescribe en términos de la variable x = E / RT [29]. De esta forma T

E 

E

p ( x) ∫exp  − RT  dT = R

(16)

0

donde ∞

p ( x) = ∫ x

exp ( − x ) x2

dx

(17)

su límite superior es indeterminado. Sin embargo, el cambio de variable T ® x es útil porque la forma de p(x) la hace similar a las funciones especiales G(x) y erf(x) (función error). Se han publicado cientos de aproximaciones para p(x) [29, 32   -   33], que en su mayoría siguen la expresión [34   -   35] p ( x) =

x2

h ( x).

(19)

La aproximación es de tipo exponencial si h(x) tiene la forma [36] ln h ( x= ) a ln x + bx + c.

(20)

Pero también se les llama exponenciales a las formas análogas para p(x), ln p ( x= ) a ln x + bx + c

(21)

o ln p ( x ) =−ax + b + y ln x

(22)

(en estas expresiones los parámetros a y b no pueden ser ambos cero). En la tabla 1 se presentan algunas aproximaciones exponenciales, y en las referencias [29, 36] se dan varios ejemplos de la forma de la Ec. 22 incluyendo los parámetros a, b, y y. Las aproximaciones racionales vienen de la integración por partes p(x) = e–x/x–E1(x) y de la expansión en fracciones continuadas de la función integral E1(x) [32, 37]. Se les llama racionales porque h(x) es el cociente de dos polinomios [37] h ( x) =

Así por ejemplo la Ec. 14 se reduce a

exp ( − x )

am x m + am −1 x m −1 +  + a1 x + a0 . bn x n + bn −1 x n −1 +  + b1 x + b0

(23)

(18)

En la tabla 2 se dan varios ejemplos en forma lineal de aproximaciones racionales.

Al igual que la forma original, la integral p(x) no se puede evaluar analíticamente [2], y además,

La precisión y exactitud de las aproximaciones exponenciales y racionales han sido revisadas a fondo [29, 32   -   33, 35]. Para un mismo conjunto

 A  E  F (α ) ≈     p ( x )  B  R 

Universidad de Medellín


Modelos cinéticos de degradación térmica de polímeros: una revisión

119

Tabla 1. Aproximaciones exponenciales para la integral de Arrhenius en la forma lineal: ln p ( x ) = −a0 − a1 ln ( x ) − a2 x . Nombre

a0

a1

a2

Agherhiner I

0.679165

1.7276

1.01179

Agherhiner II

0.398956

1.88582

1.00174

0.460120…

1.868479…

1.001748…

5.3308

0

1.0516

5.26936572

0

1.0516296

Madhusudanan - Krishnan - Ninan I

0.29758

1.921503

1.000953

Madhusudanan - Krishnan - Ninan II

0.299963

1.920620

1.000974

Madhusudanan - Krishnan - Ninan III

0.389677

1.884318

1.001928

Starink I

0.235

1.95

1

Starink II

0.312

1.92

1.008

0.37773896

1.8946610

1.00145033

Cai - Liu Doyle Liu - Chen - Shu - Statheropoulos

Tang - Liu - Zhang - Wang

Fuentes: [12, 29, 40 - 41]

h(= x)

(a

m

Tabla 2. Aproximaciones racionales para la integral de Arrhenius.

)(

)

x m + am −1 x m −1 +  + a1 x + a0 / bn x n + bn −1 x n −1 +  + b1 x + b0 , excepto donde se muestra otra forma. Primera fila: ai , segunda fila: bi .

a4 , b4

a3 , b3

a2 , b2

a1 , b1

a0 , b0

1

- 2

1

0

1

0

1

2

1

1

1

3

Fischer - Jou - Gokalgandhi h(x) = 1 Coats Redfern, m = n = 1 Gorbachev - Lee - Beck, m = n = 1 Van Tets, m = n = 1 Wanjun, m = n = 1 Cai, m = n = 1

1

0

1.00198882

1.87391198

1

0.66691

1

2.64943

M=1

1

- 2

0

n= 2

1

0

- 6

Li (II), m = 3

1

0

- 5

0

n= 3

1

2

- 6

- 12

Li (II), m = 3

1

0

- 16/3

0

n= 3

1

2

- 6

- 12

Li (I)

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 113 - 130  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/182 p. Medellín, Colombia


120

Laura M. Aranzazu R. - Paula V. Cárdenas M. - Juan M. Cárdenas G. - Guillermo H. Gaviria - Andrés F. Rojas G. - Javier I. Carrero M.

a4 , b4

a3 , b3

a2 , b2

a1 , b1

a0 , b0

Agrawal - Sivasubramanian

1

- 2

0

1

0

- 5

0.99962

0.60642

1

2.56879

m=n=2

Cai - He, m = n = 1 Urbanovici - Segal I m=n=1 Urbanovici - Segal II m=n=2 Urbanovici - Segal III m=n=2 Chen Liu I m=n=2 Chen Liu II m=n=2 Chen Liu III m=n=2 Órfao I

2

- 2

4

0

1

2

- 2

1

4

0

1

5.347

1.376

1

7.347

10.069

1

2

0

1

4

2

1

16/3

4/3

1

22/3

10

1

6

2

1

8

12

0.995924

1.43091

0

1

3.330657

1.681543

0.99997

3.03962

0

1

5.03637

4.1916

m=n=2 Órfao II

1 1

m=n=2 Órfao III, m = n = 4 0.9999936

7.5739391

12.4648922

3.6907232

0

1

9.5733223

25.6329561

21.0996531

3.9584969

1

4

0

1

6

6

Senum Yang I m=n=2 Senum Yang II

1

10

18

0

m=n=3

1

12

36

24

1

18

86

96

0

1

20

120

240

120

1

- 4

84

0

0

1

- 2

76

152

- 32

1

4.45239

0.76927

1

6.45218

7.6943

Senum Yang III, m = n = 4

Zsakó, m = n = 4

Ji I

m=n=2

Ji II, h ( x )=

Ji III,

Universidad de Medellín

(a x 3

2

)(

)

+ a2 x + a1 ln x + a0 / b3 x 2 + b2 x + b1 ln x + b0 . 1

16.99864

3.65517

5.41337

1 1

18.99977

3.43593

38.49858

9.27052

16.7944

1.20025


Modelos cinéticos de degradación térmica de polímeros: una revisión

a4 , b4

a3 , b3

a2 , b2

a1 , b1

a0 , b0

m=n=3

1

11.27052

33.33602

24.21457

121

Junmeng - Fang - Weiming - Fusheng I, h ( x ) =( a2 x + a1 ln x + a0 ) / ( b2 x + b1 ln x + b0 ) 1

0.25403

0.36665

1

0.24598

2.41457

Junmeng - Fang - Weiming - Fusheng II, h ( x ) =( a2 x + a1 ln x + a0 ) / ( b2 x + b1 ln x + b0 )

Ran - Ye I, Ran - Ye II

0.999940…

0.278603...

0.367233...

1

0.264770…

2.438326…

m=2

1

- 2

0

n=2

1

0

- 4.6

m=2

1

- 2

0

n=2

1

0

- 5.2

= h ( x)

Balarin Chen Liu IV

x / ( x + 4)

h ( x )=  x 2 + 8 x + 6 − ( 4 / x )  /  x 2 + 10 x + 20  h ( x ) = 2 + ( 2 / x )  / 1 + 8 / x + 4 / x 2

Urbanovici - Segal IV

Fuentes [29, 31, 42]

de datos, distintas aproximaciones de p(x) pueden producir resultados de A y E diferentes [3]. En las propuestas más recientes no se ha notado una mejora y los resultados obtenidos con las expresiones de las referencias [34, 37] siguen siendo aceptables, en particular el cociente de dos polinomios de grado 4 se considera de gran exactitud [33]. 5. ELECCIÓN DE MODELOS Y MÉTODOS El análisis de datos requiere elegir una forma de f(a) y la manera de calcular los parámetros A y E. Existen numerosas formas de f(a) reportadas en la literatura [13, 25]. Para el caso particular de degradación térmica de polímeros, se recomienda la forma de ley potencia f(a) = (1–a)n, Ec. 5 [9, 17, 24, 38   -   39]. De otro lado, hay tres criterios clave para elegir el método de cálculo de los parámetros de Arrhenius: • Si los datos son isotérmicos o no.

• El tipo de datos disponible: a o da/dt Para el caso, de un conjunto de datos a(t) se puede calcular da/dt en forma numérica. • Si hay series de datos a diferentes velocidades de calentamiento. Esto permite hacer un análisis isoconversional. En la figura 1 se muestra un esquema de clasificación basado en los criterios anteriores. Para datos isotérmicos el análisis puede ser integral (con a) o diferencial (con da/dt). Esas dos opciones se pueden usar también para datos no isotérmicos, pero con estos el análisis puede ser isoconversional o no. Además del esquema de clasificación se presenta un resumen de modelos reportados en la literatura para el estudio cinético de la degradación térmica de polímeros (tablas 3 y 4). Son variaciones de las ecuaciones 8 y 11, en las que se pueden aplicar aproximaciones exponenciales o racionales para p(x). Los modelos están clasificados en no isoconversionales (tabla 3) e isoconversionales

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 113 - 130  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/182 p. Medellín, Colombia


122

Laura M. Aranzazu R. - Paula V. Cárdenas M. - Juan M. Cárdenas G. - Guillermo H. Gaviria - Andrés F. Rojas G. - Javier I. Carrero M.

(tabla 4). En la tabla 3 los modelos Diferencial de Arrhenius, Kissinger, Flynn   -   Wall, Chang y Dinámico son modelos diferenciales; el modelo Freeman   -   Carroll es diferencial   -   diferencia; los demás

modelos son integrales. En la tabla 4 los modelos de Friedman, Sharp y Friedman   -   Reich   -   Levi son diferenciales, mientras que los demás son modelos integrales.

Tabla 3. Ecuaciones empíricas de modelos cinéticos no isoconversionales = ln f ( n, α , T ) ln g ( A, B, E , T ) − E / RT , excepto donde se muestra otra forma

f ( n, α , T )

Nombre

g ( A, B, E , T )

Agrawal [31],

( n = 1)

− ln (1 − α ) / T 2

( n ≠ 1)

..

Arrhenius Diferencial [9] Arrhenius Integral [39] Briodo [17] Chang [15] Chatterjee - Conrad [8]

(1 − α )−1 ( dα / dT )

Coats - Redfern [25], ( n = 1)

( dα / dt ) / (1 − α )n ( dα / dt ) / (1 − α )

A

− ln (1 − α ) / T 2

1 - (1 - α )1-n  / T 2 (1 - n )  

Junmeng [42],

( n = 1)

− ln (1 − α ) / T 2

( n ≠ 1)

1− n 

/T 

2

(1 − n )

F (α ) / T 2 − ln (1 − α ) / T 2

,

( n = 1)

1 − (1 − ± )1− n  / T 2 (1 − n )  

Piloyan y Novikova [21]

AR  2 RT  1− BE  E 

AR  E + 0.66691RT  BE  E + 2.64943RT  AR /  B ( E + RT ) 

  1 − 2 RT AR  E 2 BE  RT    1− 6    E  

      

α /T2

AR / BE

   1 − 2 RT  AR   E 2  BE   1 − 4.6  RT      E   

Ran y Ye [31]

( n = 1)

− ln (1 − α ) / T 2

( n ≠ 1)

1 − (1 − ± )1− n  / T 2 (1 − n )  

Universidad de Medellín

A − ART 2 /  B ( E + 2 RT ) 

( n ≠ 1)

Li Chung y Hsiung [31],

)

/ BE 1 − ( 2 RT / E )  ARTm2 / BE

Lee y Beck [44]

2

−1 ln (1 − α )   

1 − (1 − ± ) 

      

A/ B

( ART

−ln (1 − α )

1−α

Chen y Nuttal [43]

  1 − 2 RT AR  E 2 BE  RT   1 − 5     E  


Modelos cinéticos de degradación térmica de polímeros: una revisión

f ( n, α , T )

Nombre

123

g ( A, B, E , T )

ln  B / (Tm − T0 )  = ln A − E / RTm

Augis y Bennet [45]

E

Flynn - Wall [39]

nRTm2

= n −1

(1 − α m )

 E  A exp  −  B  RTm 

∆ ln ( dα / dt ) n∆ ln (1 − α ) E = − ∆ (1/ T ) ∆ (1/ T ) R

Freeman - Carroll [14, 27]

 F (α )  E   A E + 2 = ln   ln   −     B  RT  T  RT

Gorbachev [43]

ln  −ln (1 − α )  = Eθ / RTm2

Horowitz - Metzger [8, 46]

( n = 1)

,

 1 − (1 − α )1− n  ARTm2 E Eθ  ln ln  = − + ( n ≠ 1) BE RTm RTm2 ,    (1 − n )    Junmeng Modificado [42]  − ln (1 − α )  ln   T2  

 AR  E + 0.25403 RT ln ( E / RT ) + 0.36665 RT ln    BE  E + 0.24598 RT ln ( E / RT ) + 2.41457 RT

 E , ( n = 1)   − RT  

 1 − (1 − ± )1− n   AR  E + 0.25403 RT ln ( E / RT ) + 0.36665 RT  = ln  ln  2   T (1 − n )   BE  E + 0.24598 RT ln ( E / RT ) + 2.41457 RT  

(

 E   − ,   RT

( n ≠ 1)

)

ln = B / Tm2 ln ( AR / E ) − ( E / RTm )

Kissinger [46]

F (α ) log ( AE / BR ) − 0.4828 E 0.4351 − ( 449 + 217 E ) / T  MacCallum - Tanner [38, 40] log=

 F (α ) Madhusudanan [29] ln  1,921503  T Método Dinámico [46]

  AE   E  ln   =  + 3, 772049679 − 1,921503 ln ( E ) − 1, 000953  RT  BR     

 E 3 E 1 ln ( B= − ln  +  ) ln ( n ) + ( n − 1) ln (1 − α m ) + ln ( A0 ) + ln (Tm ) − 2 RTm  RTm 2 

dα E = − Phadnis y Deshpande [3] G (α ) = con f (α )= f (α ) g (α ) RT AR  2 RT   E  g (α ) =1 − exp  −  BE  E   RT 

Reich y Stivala [47]

Satava y Sesták [48]

(1 − α )n

y

 1 − (1 − α )1− n  T  2  E1 1  1 2 ln  −  −   = 1+ n  R  T1 T2   1 − (1 − α 2 )  T1     log  F= (α ) log ( AE / BR ) − 2.315 − 0.4567 ( E / R )

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 113 - 130  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/182 p. Medellín, Colombia


124

Laura M. Aranzazu R. - Paula V. Cárdenas M. - Juan M. Cárdenas G. - Guillermo H. Gaviria - Andrés F. Rojas G. - Javier I. Carrero M.

f ( n, α , T )

Nombre

 E   1 − (1 − α )  A  0.368  RTm   ln ln  = Van Krevelen [49] B T  1− n       m   1− n

 E   1 − (1 − α )1− n  RTm   A 0.368  ln   ln  = B T  1− n       m  

g ( A, B, E , T )   1  +  E + 1 ln T , n 1 . = ( )    E    RTm  + 1    RTm  

   E  1  . + + 1 ln T ,  RT  E   + 1   m   RTm  

( n ≠ 1)

  E  − ln (1 − α )  AR Wanjun [42] ln  , = −  ln  2 T    B (1.00198882 E + 1.87391198 RT )  RT

 1 − (1 − ± )1− n    E AR  = ln  , ln  2 − 1 . 00198882 1 . 87391198 B E RT + RT  T (1 − n )  ( )       Zsakó [34, 42]

  E  − ln (1 − α )  AE , ln  = −  ln  2 T    B ( E + 2 RTY )  RT

( n = 1)

( n ≠ 1) ( n = 1)

2  1 − (1 − ± )1− n    E 16 ( RT ) AE E  ,   n ≠ 1 . ( ) = Y − ln = ln  − RT  E 2 − 4 ERT + 84 ( RT )2  T 2 (1 − n )   B ( E + 2 RTY )  RT   

   

Tm : temperatura a la máxima velocidad de pérdida de peso, T0 : temperatura inicial, α m : conversión a Tm , θ=

T − Tm

Fuente: elaboración propia.

Las formas de los modelos reportados en la tabla 4 con un asterisco, 12 en total, fueron desarrollados en este trabajo a partir de aproximaciones de p(x) descritas por Deng [29]. Por ejemplo, la aproximación de Cai   -   He 0.60642 + 0.99962 x h ( x) = 2.56879 + x

(24)

Universidad de Medellín

B E + 2.56879 RT ln  2   T  0.99962 E + 0.60642 RT  AR  E ln  . −  EF (α )  RT

  =  (26)

El mismo procedimiento se aplicó para todas las otras formas mencionadas.

se remplazó en la Ec. 19  A   E  exp ( − x ) F (α ) ≈     2  B  R  x  0.60642 + 0.99962 x    2.56879 + x  

y con la definición x = E / RT se obtuvo la forma lineal

(25)

6 CONCLUSIONES Al reducir la clasificación de los modelos para analizar datos termogravimétricos a cuatro categorías (isotérmicos, diferenciales, integrales, e isocon-


Modelos cinéticos de degradación térmica de polímeros: una revisión

125

Tabla 4. Ecuaciones empíricas de modelos cinéticos isoconversionales. Método

Ecuación  AE   B  E  E  ln  1.7276=  ln  R F α  − 0.679165 − 1.7276 ln  R  − 1.01179  RT  ( ) T      

Agherhiner I [29]

 AE   B  E  E  ln  1.88582=  ln  R F α  − 0.398956 − 1.88582 ln  R  − 1.00174  RT  ( ) T      

Agherhiner II [29]

 AE  0.467 E = log  − 2.315 − ( B ) log  RT  R F (α ) 

Flynn - Wall - Ozawa – Doyle [6, 10 - 12]

E n  dα  = ln  A (1 − α )  − ln     RT  dt 

Friedman [46]

E n  dα  = ln  A (1 − α )  − ln  B    RT  dT 

Friedman - Reich - Levi [50]

 A  621.302 E 0.95823 ln= B ln  + 8.1614 − 0.915784 ln E −   F (α )  T  

Gyulai - Greenhow [40]

 AR  E  B  = − ln  2  ln   EF (α )  RT T   

Kissinger - A kahira - Sunose [13]

 (1 − α )n  − E ln [ B ] ln  A =  dα  RT dT  

Sharp [19]

 AE   B  E E ln  = ln   − 0.235 − 1.95ln   − 1.95   α F R T   R  RT  ( ) 

Starink I [29]

Tang [41]

Cai -  He *

ln

B T 1.89466100

=ln

AE E  E − 0.37773896 −1.89466100  ln  − 1.00145033 R F (α ) RT  R

 B   AR  E E + 2.56879 RT ln  2 = ln  −  T ( 0.99962 E + 0.60642 RT )   EF (α )  RT    

(

)

Chen Liu I *

2 2    AR  E B E + 4 RT + 2 R T / E  ln  2 = ln  −  E F (α )  RT  T  ( E + 2 RT )    

Chen Liu II *

2 22 2 2    AR  E B E + 3 ERT + 10 R T  = ln  2 ln  − 2 2 2   T ( E + 16 ERT − 4 R T )  E F (α )  RT  3 3  

Chen Liu III *

 AR  E  B E 2 + 8 ERT + 12 R 2T 2  ln  2 = ln  −  T ( E 2 + 6 ERT − 2 R 2T 2 )   E F (α )  RT    

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 113 - 130  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/182 p. Medellín, Colombia


126

Laura M. Aranzazu R. - Paula V. Cárdenas M. - Juan M. Cárdenas G. - Guillermo H. Gaviria - Andrés F. Rojas G. - Javier I. Carrero M.

Método

Ecuación

Chen Liu IV *

 AR  E  B  E ( E + 10 ERT + 20 R 2T 2 = ln  − ln  2  T ( E 3 + 8 E 2 RT − 4 R3T 3 + 6 ER 2T 2 )   E F (α )  RT    

Li II *

 AR  E  B E 3 + 2 E 2 RT + 6 ER 2T 2 − 12 R 3T 3  = − ln  2 ln   3 2 2 T   E F (α )  RT ( E − 5 ER T )    

Li III *

 AR  E  B E 3 − 2 E 2 RT − 6 ER 2T 2 − 12  = − ln  2 ln   3 2 2 T   E F (α )  RT ( E − 16 ER T )    

2

Senum Yang I *

 B E + RT + 6 R 2T 2 / E   AR  E ln  2 ln  = −  T   E F (α )  RT ( E + 4 RT )    

Senum Yang II *

 AR  E  B E 2 + 12 ERT + 36 R 2T 2 + 24 / E  = ln  2  −  ln  2 2 2 T ( E + 10 ERT + 18R T )    E F (α )  RT

Urbanovici - Segal I *

 AR  E  B  E ( E + 4 RT ) ln  2 = ln  −  T ( E 2 + 2 ERT − 2 R 2T 2 )   E F (α )  RT    

Urbanovici - Segal II *

2 2    AR  E B E + 5.5 RT + 5 R T / E   ln 2 = ln  −   T  E F (α )  RT ( E + 3.5RT )    

Urbanovici - Segal III*

 AR  E  B E 2 + 7.347 ERT + 10.069 R 2T 2  ln  2 = ln  −  T ( E 2 + 5.347 ERT − 1.376 R 2T 2 )   E F (α )  RT    

(

)

Fuente: elaboración propia. En los métodos marcados con * las ecuaciones fueron desarrolladas en este trabajo a partir de las expresiones en la Ref. [29]

versionales) siempre es posible elegir un método para obtener el triplete cinético. En particular los métodos isoconversionales requieren más datos experimentales, pero se basan en el mismo conjunto de ecuaciones que los demás.

libres, mientras que las aproximaciones exponenciales son específicamente aplicables en modelos de métodos libres, especialmente en métodos isoconversionales.

Como la mayoría de los métodos para calcular los valores de los parámetros cinéticos se basa en formas lineales, el uso de aproximaciones para la integral de Arrhenius facilita el ajuste de datos al remplazar la integral por una función. De esa forma se pueden obtener nuevas expresiones, tal como se mostró en este trabajo.

AGRADECIMIENTOS

En cuanto a las aproximaciones, se establece que las aproximaciones racionales son utilizadas en métodos analíticos de modelos de ajuste y modelos Universidad de Medellín

A la Dirección de Investigación de Manizales DIMA, de la Universidad Nacional de Colombia, por el apoyo económico a los semilleros de investigación 15704 y 15599 (Estudio cinético de la degradación térmica de PMMA y PLA).


Modelos cinéticos de degradación térmica de polímeros: una revisión

127

Tratamiento de datos experimentales w®a=

a w0 - wt da ® f (a ) = (1 - a ) n ® F (a ) = ò n 0 (1 - a ) w0 - w¥

¯ t®

da d a 1 æç d a ö÷ = k (T ) f (a ) ® = ç ÷¬ B dt dT B çè dt ÷ø

Análisis isotérmico Diferencial (modelo de Arrhenius) ln

Diferencial (modelo de McCallum)

da = ln k (T ) + ln f (a ) dt

ln t = ln F (a ) - ln A +

E RT

Integral (modelo de McCallum-Schoff) w t 1 n = + con P = 1 - 0 p k 2t wt

Análisis no isotérmico Isoconversional Integral (racional)

Diferencial ln

da E = ln( Af (a )) dt RT

æ B ö æ AE ö÷ æEö E ÷÷ + b - y ln çç ÷÷÷ - a ln çç y ÷÷÷ = çç çè R ø èç T ø çè F (a ) R ø÷ RT

–v– No Isoconversional Diferencial

Integra

é B da ù E ú = ln( A) ln ê ê f (a ) dT ú RT ë û

é AR 1 ù é1 ù E úln ê 2 F (a )ú = ln ê ê ú ëê T ûú ë BE h( x) û RT

Diferencial-diferencial D ln(d a / dt ) nD ln(1 - a ) E = D(1 / T ) D(a / T ) RT Figura 1. Esquema de los tipos de análisis de datos cinéticos Fuente: elaboración propia

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 113 - 130  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/182 p. Medellín, Colombia


128

Laura M. Aranzazu R. - Paula V. Cárdenas M. - Juan M. Cárdenas G. - Guillermo H. Gaviria - Andrés F. Rojas G. - Javier I. Carrero M.

REFERENCIAS [1] W. M. Wendlandt, Thermal Analysis, 3 ed., New York: John Wiley & Sons, 1986. [2] D. S. Achilias, et al., “Thermal degradation kinetics and isoconversional analysis of biodegradable poly(3   -   hydroxybutyrate)/organomodified montmorillonite nanocomposites,” Thermochimica Acta, vol. 514, pp. 58   -   66, 2011.

[15] R. Narayan et al., “Degradation profiles of polyester   -   urethane (HP   -   MDI) and polyester   -   melamine (HP   -   HMMM) coatings: a thermal study,” Journal of Applied Polymer Science, vol. 97, pp. 518   -   526, 2005. [16] C. Gamlin et al., “Influence of ethylene   -   propylene ratio on the thermal degradation behavior of EPDM elastomers,” Thermochimica Acta, vol. 367   -   368, pp. 185   -   193, 2001.

[3] B. Liu, et al., “Thermal degradation kinetics of poly(N   -   adamantyl   -   e xo   -   nadimide) synthesized by addition polymerization,” Journal of Applied Polymer Science, vol. 103, pp. 3003   -   3009, 2007.

[17] J. Mano et al., “Thermal properties of thermoplastic starch/synthetic polymer blends with potential biomedical applicability,” Journal of Materials Science: Materials in Medicine, vol. 14, pp. 127   -   135, 2003.

[4] C. L. Wagoner and E. Winergartner, “Further development of the burning profile,” Journal of Engineering for Power, vol. 95, no. 2, p. 119–123, 1973.

[18] N. Grauper et al., “Natural and man   -   made cellulose fibre   -   reinforced poly(lactic   -   acid)(PLA) composites: An overview about mechanical characteristics an application areas,” Composites: Part A, vol. 40, pp. 810   -   821, 2009.

[5] O. Fadzilah and S. Halim, “Coal combustion studies using thermogravimetric analysis,” Journal Mekanikal, vol. 15, pp. 97   -   107, 2003. [6] J. Dahiya, et al. “Kinetics of isothermal and non   -   isothermal degradation of cellulose: model   -   based and model   -   f ree methods,” Polymer International, vol. 57, pp. 722   -   729, 2008. [7] M. Torrente and M. A. Galán, “Kinetics of the thermal decomposition of oil shale from Puertollano (Spain),” Fuel, vol. 80, pp. 327   -   334, 2001. [8] J. Cooney, et al., “Thermal degradation of Poly(ethylene Terephthalate): A kinetic analysis of thermogravimetric data,” Journal of Applied Polymer Science, vol. 28, pp. 2887   -   2902, 1983. [9] S. Jain and M. Sharma, “Application of thermogravimetric analysis for thermal stability of Jatropha curcas biodiesel,” Fuel, vol. 93, pp. 252   -   257, 2012. [10] J. W. Park et al. “A kinetic analysis of thermal decomposition of polymer using a dynamic model,” Polymer Degradation and Stability, vol. 67, pp. 535   -   540, 2000. [11] J. Park et al. “Kinetic analysis of thermal decomposition of polymer using a dynamic model,” Korean Journal of Chemical Engineering, vol. 17, pp. 489   -   496, 2000. [12] H. Yu et al., “Nonisothermal decomposition kinetics of Nylon 1010/POSS composites,” Journal of Applied Polymer Science, vol. 113, pp. 17   -   23, 2009. [13] A. Aboulkas et al., “Thermal degradation behaviors of polyethylene and polupropylene. Part I: Pyrolysis,” Energy Conversion and Management, vol. 51, pp. 1363   -   1369,2010. [14] J. E. Barrera et al., “Estudio de la degradación térmica de poli(alcohol vinílico),” Revista Ingeniería e Investigación, vol. 27, no. 2, pp. 100   -   105, 2007. Universidad de Medellín

[19] A. Guo et al., “Simulated delayed coking characteristics of petroleum residues and fractions by thermogravimetry,” Fuel Processing Technology, vol. 89, pp. 643   -   650, 2008. [20] W. Kim et al., “Kinetic characterization of thermal degradation process for commercial rubbers,” Journal of Industrial and Engineering Chemistry, vol. 6, no. 5, pp. 348   -   355, 2000. [21] M. Safi et al., “Global degradation kinetics of pine needles in air,” Thermochimica Acta, vol. 412, pp. 155   -   162, 2004. [22] D. Viquez   -   Murillo et al., “Estudio cinético de la degradación isotérmica de la quitina y el quitosano obtenidos a partir del camarón Heterocarpus Vicarius por medio de análisis termogravimétrico,” Revista Iberoamericana de Polímeros, vol. 11, no. 2, pp. 118   -   133, 2010. [23] L. Nuñez and M. Villanueva, “Influence of the curing cycle selection on the thermal degradation of an epoxy   -   diamine system,” Journal of Thermal Analysis and Calorimetry, vol. 80, no. 1, pp. 141   -   146, 2005. [24] S. Betancourt et al., “Degradación térmica de fibras naturales procedentes de la calceta de plátano (estudio cinético),” Suplemento de la Revista Latinoamericana de Metalurgia y Materiales, vol. 1, no. S1, pp. 215   -   219, 2009. [25] J. Criado et al., “Un nuevo método de análisis térmico: el análisis térmico a velocidad de transformación controlada (ATVC),” Boletín de la Sociedad Española de Cerámica y Vidrio, vol. 26, pp. 3   -   11, 1987. [26] S. Montero, “Estudio de la cinética implicada en la descomposición termogravimétrica del residuo de acei-


Modelos cinéticos de degradación térmica de polímeros: una revisión

tuna. Emisiones asociadas.”, Tesis de maestría, Dpto. Fís. Apl., Univ. Zaragosa, Zaragosa, España, 2011. [27] J. Criado et al., “A critical study of the suitability of the Freeman and Carroll method for the kinetic analysis of reactions of thermal decomposition of solids,” Thermochimica Acta, vol. 54, p. 1982, 1982. [28] Y. Márquez et al., “Estudio de la degradación térmica de mezclas de polilactonas y poli(carbonato de trimetileno) con interés en aplicaciones biomédicas”, Tesis de maestría, Dept. Eng. Quím., Univ. Politècnica de Catalunya, Barcelona, España, 2012.

129

[39] W. B. Wan et al., “Thermal stability evaluation of palm oil as energy transport media,” Energy Conversion & Management, vol. 46, pp. 2198   -   2215, 2005. [40] S. Mallakpour and M. Taghavi, “The accuracy of approximation equations in the study of thermal decomposition behavior of some systhesized optically active polyamides,” Iranian Polymer Journal, vol. 18, no. 11, pp. 857   -   872, 2009. [41] W. Tang et al., “New approximate formula for Arrhenius temperature integral,” Thermochimica Acta, vol. 408, pp. 39   -   43, 2003.

[29] C. Deng et al., “Kinetic analysis of solid   -   state reactions: evaluation of approximations to temperature integral and their applications,” Solid State Science, vol. 11, pp. 1375   -   1379, 2009.

[42] C. Junmeng et al., “A new formula approximating the Arrhenius integral to perform the non   -   i sothermal kinetics,” Chemical Engineering Journal, vol. 124, pp. 15   -   18, 2006.

[30] V. M. Gorbachev, “A solution of the exponential integral in the non   -   isothermal kinetics for linear heating,” Journal of Thermal Analysis and Calorimetry, vol. 8, pp. 349   -   350, 1975.

[43] R. J. Flores, “Study of the behavior of non   -   arrhenius first order kinetic expressions”, M.S. thesis, Dept. Chem. Eng., Texas Tech Univ., Lubbock, TX, USA, 1988.

[31] H. Chen et al., “Error of kinetic parameters for one type of integral method for thermogravimetric measurements,,” Polymer Degradation and Stability, vol. 90, pp. 132   -   135, 2005.

[44] L. Liau and D. S. Viswanath, “Thermal Degradation of Poly(vinylbutyral)/Ceramic Composites: A Kinetic Approach,” Industrial Engineering Chemical Research, vol. 37, no. 1, pp. 49   -   57, 1998.

[32] J. H. Flynn, “The ‘Temperature Integral’ — Its use and abuse,” Thermochimica Acta, vol. 300, pp. 83   -   92, 1997.

[45] K. Baloch et al., “Application of different methods for the thermogravimetric analysis of,” Journal of Applied Polymer Science, vol. 120, pp. 3511   -   351, 2011.

[33] J. Orfão, “Review and evaluation of the approximations to the temperature integral,” AIChE Journal, vol. 53, pp. 2905   -   2915, 2007. [34] J. Zsakó, “Empirical formula for the exponential integral in non   -   isothermal kinetics,” Journal of Thermal Analysis and Calorimetry, vol. 8, pp. 593   -   596, 1975. [35] N. Liu et al., “Error evaluation of integral methods by consideration on the approximation of temperature integral,” Journal of Thermal Analysis and Calorimetry, vol. 81, pp. 99   -   105, 2005. [36] H. Chen and N. Liu, “Approximations for the temperature integral,” Journal of Thermal Analysis and Calorimetry, vol. 92, pp. 573   -   578, 2008. [37] G. I. Senum and R. T. Yang, “Rational approximations of the integral of the Arrhenius function,” Journal of Thermal Analysis and Calorimetry, vol. 11, pp. 445   -   447, 1977. [38] C. L. Chiang et al., “Flame retardance and thermal degradation of new epoxy containing silicon and phosphorous hybrid ceramers prepared by the sol   -   gel method,” Polymer Degradation and Stability, vol. 77, pp. 273   -   278, 2002.

[46] H. T. Kim and S. Oh, “Kinetics of thermal degradation of waste polypropylene and high   -   density polyethylene,” Journal of Industrial and Engineering Chemistry, vol. 11, no. 5, pp. 648   -   656, 2005. [47] L. Reich and S. S. Stivala, “Computer   -   determined kinetic parameters from TG curves,” Thermochimica Acta, vol. 36, no. 1, pp. 103   -   105, 1980. [48] X. Li et al., “Non   -   isothemal termal decomposition reaction kinetics of dimethylhexane   -   1,6   -   dicarbamate (HDC),” Journal of Hazardous Materials, vol. 198, pp. 376   -   380, 2011. [49] J. C. Santos et al., “Thermal stability and kinetic study on thermal decomposition of commercial edible oils by thermogravimetry,” Journal of Food Science, vol. 67, no. 4, pp. 1393   -   1398, 2006. [50] X. L. Wang et al., “Thermogravimetric analysis of the decomposition of poly(1,4   -   dioxan   -   2   -   one)/starch blends,” Polymer Degradation and Stability, vol. 81, pp. 415   -   421, 2003.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 113 - 130  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/182 p. Medellín, Colombia


Revista Ingenierías Universidad de Medellín

MODELO DE IMPLEMENTACIÓN DE SOLUCIONES DE COMERCIO ELECTRÓNICO Giovanny Tarazona Bermúdez* Víctor Hugo Medina García** Lylliana Giraldo*** Recibido: 25/01/2013 Aprobado: 25/10/2013 RESUMEN El auge del comercio electrónico en la industria mundial y su impacto en la estructura organizacional, han llevado al desarrollo de múltiples soluciones informáticas de manera paralela al comercio tradicional. La incursión en comercio electrónico requiere evaluar condiciones iniciales en la empresa para lograr su éxito. Con el objetivo de disminuir el fracaso que implican inversiones no planificadas en tecnología, se presenta en este artículo de reflexión, un modelo de evaluación de aspectos críticos al momento de implementar una solución de comercio electrónico. La propuesta tiene un enfoque integral sustentado en instrumentos cualitativos y cuantitativos útiles en el diagnóstico. Palabras clave: comercio electrónico, estrategia de negocio, analítica web, ERP, Web 2.0

*

Doctor en Servicios Informáticos para Internet de la Universidad de Oviedo, DEA en Informática de la Universidad Pontificia de Salamanca, especialización en Ingeniería de Software de la Universidad Distrital. Ingeniero Industrial de la Universidad Distrital. Docente de la Especialización en Ingeniería de Software e Informática Industrial y del programa de Ingeniería Industrial en la Universidad Distrital “Francisco José de Caldas”. Carrera 7 No 40-53 Piso 5, Teléfono 3017907883, Bogotá. gtarazona@udistrital.edu.co

**

Doctor en Informática de la Universidad Pontificia de Salamanca. Maestría en Informática de la Universidad Politécnica de Madrid. Especialización en Marketing de la Universidad del Rosario. Ingeniero de Sistemas de la Universidad Distrital. Docente del Doctorado en Ingeniería, Maestría en Ciencias de la Información y las Comunicación y del programa de Ingeniería de Sistemas de la Universidad Distrital “Francisco José de Caldas”. Carrera 7 No 40-53 Piso 4, Teléfono 3133338842, Bogotá. vmedina@udistrital.edu.co

***

DEA en el Doctorado en Informática de la Universidad Pontificia de Salamanca. Ingeniera de Sistemas de la Universidad de Medellín. Docente del programa de Ingeniería de Sistemas en la Universidad de Medellín. Teléfono 3147288152. lmgiraldo@udem.edu.co

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 131 - 144  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


132

Giovanny Tarazona Bermúdez - Víctor Hugo Medina García - Lylliana Giraldo

IMPLEMENTATION MODELS OF ELECTRONIC COMMERCE SOLUTIONS ABSTRACT The boom of electronic commerce in the global industry and its impact on the organizational structure has led to the development of several information technology solutions in parallel with traditional commerce. Involvement in electronic commerce requires the evaluation of initial conditions in a company in order to succeed. With the purpose of reducing failures which imply unplanned investments in technology, this reflection article shows a model to evaluate critical aspects at the time of implementing an electronic commerce solution. The proposal has an integral approach supported by useful diagnostic qualitative and quantitative instruments. Key words: Electronic commerce; business strategy; web analytics; ERP; Web 2.0.

Universidad de Medellín


Modelo de implementación de soluciones de comercio electrónico

INTRODUCCIÓN Las empresas se ven obligadas a implementar cambios en su organización para aprovechar al máximo las oportunidades que les brinda el comercio electrónico; de lo contrario, se verán forzados a la quiebra. Por lo tanto, la aplicación efectiva de la estrategia de transformación de negocios electrónicos resulta ser un factor crítico para obtener una ventaja competitiva sostenible [1]. Los sistemas de información y la estrategia de tecnología de información (TI) suelen depender de una estrategia de negocio. Una aplicación tecnológica por sí sola no es la solución, si no obedece a una realidad empresarial; las posibilidades de éxito serán proporcionales a la planeación de la solución de manera coherente con la planeación corporativa; la alineación de las dos estrategias es clave para la mejora de la función de planeación. Desde una perspectiva externa de negocios competitivos, la alineación de TI es el grado en que la estrategia de TI permite e impulsa la estrategia de negocio [2]. La implementación de una solución de comercio electrónico debe obedecer a un ejercicio de planificación, en el cual es necesario identificar el grado de preparación empresarial [3]. Por lo tanto, se propone un modelo de organización para la planeación estratégica del e - Commerce denominado: Modelo PESCE, el cual facilita un método para permitir a las empresas evaluar sus condiciones organizacionales y técnicas para implementar una solución de comercio electrónico coherente con su plan de negocios. 1. FUNDAMENTACIÓN DEL COMERCIO ELECTRÓNICO El comercio electrónico es la compra y venta de productos o servicios a través de medios electrónicos, tales como Internet y otras redes informáticas; su implementación ofrece ventajas a vendedores y compradores; la aplicación y uso de comercio electrónico facilita a vendedores acceder a segmentos de mercados estrechos que se distribuyen ampliamente, mientras que los compradores pueden beneficiarse

133

al acceder a los mercados mundiales con mayor disponibilidad de los productos de una variedad de ofertas a costos reducidos. Esta situación mejora la calidad del producto y la creación de nuevos formas de negocio [4]. Originalmente, el término se aplica a la ejecución de operaciones a través de las transacciones electrónicas, tales como intercambio electrónico de datos. Sin embargo, con el advenimiento de Internet a mediados de los años 90 comenzó refiriéndose principalmente a la venta de productos y servicios en Internet, básicamente mediante pago electrónico. La cantidad de comercio realizado por medios electrónicos ha crecido extraordinariamente desde la difusión de Internet [5]. Una gran variedad de comercio se realiza de esta manera, estimulando la creación y utilización de innovaciones como la transferencia electrónica de fondos, la gestión de la cadena de suministro, marketing en Internet, el procesamiento de transacciones en línea, intercambio electrónico de datos, sistemas de gestión de inventario y recopilación de datos automatizada. El comercio electrónico (e - Commerce) también se define como la compra de productos de proveedores y su venta a clientes que utilizan las TIC. Entre los modelos de comercio electrónico más reconocidos tenemos empresa a empresa (B2B), empresa a consumidor (B2C) y empresas y gobierno (B2G). En un sentido amplio, negocios electrónicos (e - Business) cubre todo tipo de colaboraciones con socios comerciales, utilizando las TIC, y contempla los efectos legales. Una interacción de negocios es el intercambio electrónico de documentos comerciales o un mensaje que contiene un documento de negocios vital en un proceso empresarial; este tipo de actividades desempeña un papel clave en la colaboración. Desde finales de los años 1960, las empresas han utilizado los sistemas de información para el intercambio electrónico de datos con sus socios comerciales. La integración electrónica ha dado lugar a cambios dramáticos en la definición de una empresa

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 131 - 144  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


134

Giovanny Tarazona Bermúdez - Víctor Hugo Medina García - Lylliana Giraldo

con el surgimiento de empresas virtuales cuyas capacidades para ofrecer sus productos al mercado se definen en gran medida por su capacidad para organizar y mantener una red de relaciones de negocios, en lugar de por su capacidad para fabricar un producto o prestar un servicio. Para entender una empresa individual, es necesario estudiar las redes de negocios en que está inmersa [6]. Existe un consenso sobre la influencia en Internet como plataforma de desarrollo de canales alternativos y/o complementarios de distribución. La proliferación del comercio electrónico puede estar relacionada con múltiples procesos de negocio [7]. Frente a la evidencia de que la Web resultó ser un canal efectivo para el comercio, se han sugerido diversos puntos de vista sobre la forma en que las empresas deben desarrollar una estrategia de comercio electrónico. 1.1. La empresa como sistema y la integración de la arquitectura de soluciones de e - business Analizar a la empresa como sistema abierto ha sido propuesto por diversos autores, tomando como base los preceptos del biólogo Ludwig von Bertalanffy [8] al definir que el notable y a la vez improbable proceso de permanente equilibrio e incrementado nivel de organización de los sistemas vivos y de muchas de las estructuras sociales, económicas e industriales creadas por el hombre no podía ser explicado bajo la perspectiva de una entropía creciente. La razón de ello habría que buscarla en el hecho de que estos sistemas interaccionan con su entorno: son sistemas abiertos. Estos sistemas intercambian con su entorno flujos de materia, energía e información, y estos flujos marcan diferencias esenciales con los sistemas cerrados. La empresa, vista como un sistema complejo, supera el enfoque analítico en el que se estudian de forma detallada y minuciosa las partes en un reducido ámbito de realidad, perdiéndose la visión de conjunto. Bajo el enfoque de sistemas se elaboran Universidad de Medellín

modelos que se utilizan en las decisiones empresariales para hacer manejables los sistemas, que permiten simplificar sus dimensiones operativas. La empresa está relacionada con su entorno, del cual recibe entradas en forma de recursos humanos, financieros, materiales, etc., que mediante la adecuada transformación permiten obtener unos resultados en forma de productos y/o servicios como salidas del sistema. Las aplicaciones informáticas en la empresa han sido útiles en el logro de competitividad haciendo más eficiente su gestión; ejemplo de esto son las herramientas de ofimática, almacenamiento de datos, sistemas contables, sistemas de soporte de toma de decisiones, soluciones de comercio electrónico, Enterprise Resource Planning (ERP), redes sociales, etc. En la figura 1 se concibe la arquitectura de una solución de comercio electrónico en el contexto de la WEB 2.0; esta debe tener en cuenta elementos de entornos como inversionistas, proveedores, competidores, canales de distribución y entidades de regulación que le permitan satisfacer al cliente externo, con una estructura organizacional coordinada (clientes internos) orientada a crear valor para clientes y accionista. La estructura empresarial está compuesta por los subsistemas de dirección y gestión, productivo, talento humano, financiero y comercial. Esta arquitectura propuesta no puede alejarse del concepto de planificación de recursos empresariales (Enterprise Resource Planning  -  ERP) y de sus ventajas por tratarse de una propuesta integradora, flexible, escalable y que facilita la planeación de capacidades para la toma de decisiones [9]. Un elemento clave es la infraestructura tecnológica que debe ser gestionada con sus activos más importantes, la gente, la conectividad, el hardware, aplicaciones y portal web. Esta infraestructura debe estar orientada a una gestión de la relación con el cliente (Customer Relationship Management - CRM) [10] utilizando las potencialidades de Internet e - CRM.


Modelo de implementación de soluciones de comercio electrónico

135

Figura 1. Arquitectura de una solución de Comercio Electrónico en el contexto de la WEB 2.0. Fuente: elaboración propia.

También debe contemplar en su funcionalidad aspectos clave en el contexto de la Web 2.0: redes sociales en virtud de las posibilidades de interacción dinámica con clientes e interesados [11], analítica web como herramienta de toma de decisiones a partir de indicadores de accesibilidad en la Web [5], mercadeo en línea, computación en la nube como infraestructura tecnológica disponible con moderada inversión [12], social media, reglas y procesos de negocio y gestión de conocimiento [13]. 2

MODELO DE ORGANIZACIÓN PARA LA PLANEACIÓN ESTRATÉGICA DEL E - COMMERCE (MODELO PESCE) La herramienta se sustenta en los conceptos de planeación estratégica y mapas de conocimiento como instrumento para reducir la complejidad

[14], atendiendo los lineamientos relacionados con tecnología para un diagnóstico organizacional con el fin de determinar si la empresa es apta o no para implementar soluciones de comercio electrónico. La integración de sistemas e infraestructuras de TIC en el proceso de gestión es esencial para obtener resultados efectivos, y refleja la visión estratégica de la organización. Sin embargo, la identificación de las necesidades de la organización está lejos de ocurrir en una manera directa; las políticas dentro de la organización y los intereses e intenciones de los participantes afectan la difusión e implantación de las innovaciones en las TIC [15]. En este sentido se propone un instrumento que viabilice una implementación favorable para la empresa y así garantizar el éxito de la implementación de soluciones de comercio electrónico.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 131 - 144 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


136

Giovanny Tarazona Bermúdez - Víctor Hugo Medina García - Lylliana Giraldo

El procedimiento de evaluación de condiciones se desarrolla en tres etapas que se detallan en la figura 2: - Formulación. - Organización. - Implementación y control.

2.1. Formulación Inicia con el conocimiento de la empresa a través de la misión y la visión, seguido por la formulación de objetivos a corto mediano y largo plazo; se propone un análisis interno y externo de la

Figura 2. Modelo PESCE - Planeación Estratégica del e-Commerce. Fuente: elaboración propia.

Universidad de Medellín


Modelo de implementación de soluciones de comercio electrónico

empresa. Con el enfoque del análisis del entorno competitivo se obtiene una evaluación y elección de estrategias orientadas a la implementación de soluciones de comercio electrónico. Se proponen preguntas orientadoras, como lo muestra la tabla 1, a la misión y la visión extrayendo puntos clave que indiquen si la organización en estudio es apta para la implementación de soluciones de comercio electrónico. Los objetivos a corto, mediano y largo plazo se utilizan como instrumento para proponer las actividades de la empresa, estableciendo metas a corto, mediano y largo plazo. Los objetivos nos son estáticos, por lo tanto, se pueden modificar en relación con las necesidades de la empresa la cual debe revisarlos constantemente frente a los cambios que exige el entorno con respecto a la tecnología. Una vez la empresa tenga establecidos la misión, la visión y los objetivos, debe hacer un análisis interno y externo con un enfoque competitivo de la organización, a su vez, realizar auditorías, internas y externas, y de esta manera llegar a la determinación de estrategias que conduzcan a la implementación del modelo de planeación estratégica de comercio electrónico. El análisis externo es un aspecto clave de la planeación estratégica; factores exógenos como economía, política, tecnología, demografía, gobierno,

137

cultura y sociedad son fuentes de oportunidades y amenazas; de allí la importancia de conocerlos y utilizarlos para obtener los objetivos empresariales. De la misma manera, el análisis interno pretende comprender las características que permitan cumplir los objetivos planteados, especificando debilidades y fortalezas e identificando cuáles son los recursos y capacidades tecnológicas de la organización. Finalmente en la etapa de formulación se hace una evaluación y una elección de las estrategias de acuerdo con los resultados obtenidos dentro del proceso de análisis de la organización. 2.2. Organización Es la siguiente etapa a partir del resultado obtenido en la fase de formulación; los datos son empleados para la aplicación de la matriz de diagnóstico para implementación de soluciones de comercio electrónico; esta matriz proporciona coordenadas que luego serán ubicadas en un plano bidimensional y de acuerdo con la distribución de los puntos se podrá establecer si la empresa tiene o no condiciones para la implementación de una solución de comercio electrónico. Una vez evaluadas las condiciones de favorabilidad para una organización se toma como referente de planificación y estructuración de un proyecto tecnológico aplicando lo previsto en el “Diamante Organizacional y Tecnológico” propuesto.

Tabla 1. Preguntas orientadoras de la formulación. Qué

Cómo

Por qué

Misión

La misión estará orientada hacia la empresa, proyectando la singularidad de la organización. Identificando, seleccionando e implantando las tecnologías que se acomoden mejor al entorno y a los clientes, conservando una perspectiva lucrativa.

Para que la empresa se adapte al entorno, teniendo en cuenta la tecnología y las ventajas que se pueden encontrar a través de implementación de soluciones de comercio electrónico.

Visión

Analizar lo que la empresa busca crear y lograr a través de Para darle un rumbo a la empresa, enfocándola hacia el la utilización de una Plataforma de comercio electrónico. constante cambio e innovación en procura de la vanguardia de la tecnología. Fuente: elaboración propia.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 131 - 144  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


138

Giovanny Tarazona Bermúdez - Víctor Hugo Medina García - Lylliana Giraldo

2.2.1. Matriz de diagnóstico para implementación de soluciones de comercio electrónico Esta matriz es el resultado de una valoración cualitativa, a juicio de expertos, que valora el estado organizacional en cada uno de los factores críticos para la implementación de soluciones de comercio electrónico tales como arquitectura tecnológica, aplicaciones informáticas para Internet, personal capacitado y cultura tecnológica, como lo muestra la tabla 2. Se valora cualitativamente en un rango de cero (0) a cinco (5) el nivel de cumplimiento e integración con las variables provistas por la Planeación Estratégica (objetivos, análisis interno - externo, estrategias y entorno cliente - competencia); así, cero es el que indica una relación nula, y se incrementa sucesivamente hasta llegar a cinco como el valor más alto de relación entre las variables. Después de calificar la empresa, estos valores son localizados en un plano bidimensional donde los factores críticos para la implementación de soluciones de comercio electrónico se ubican en el eje (x) y la valoración de expertos en el eje (y), de acuerdo con la figura 3. Los datos localizados en la figura 3 son ponderados y se establece la cantidad de valores que se localiza en cada uno de los rangos. Si el mayor porcentaje de los valores se localizan en el rango

de cero (0) a dos (2) significa que la empresa no se encuentra preparada para la implementación de una solución de comercio electrónico; por lo tanto, podría hacer una revaluación de sus estrategias para volver a la etapa de formulación; si se localiza en el rango de cuatro a cinco se infiere que la empresa está posicionada en el mercado y seguramente ya tiene soluciones de este tipo; por último, si se localiza en el rango de dos a cuatro está en condiciones para la implementación de una solución de comercio electrónico. 5

No aplica

4 Tiene las condiciones para la implementación 3 2 1 0

No se encuentra preparada para la implementación

Figura 3. Rangos de aplicación organizacional de e-Commerce. Fuente: elaboración propia.

2.2.2. El diamante organizacional y tecnológico El diamante organizacional y tecnológico obedece en su diseño a la adaptación del diamante competitivo de Porter [16]; el mismo permite

Tabla 2. Matriz de diagnóstico para implementación de soluciones de comercio electrónico. Factores Críticos Planeación Estratégica

Arquitectura Tecnológica (A)

Aplicaciones informáticas para internet (B)

Personal capacitado (C)

Cultura tecnológica (D)

Objetivos

0-5

0-5

0-5

0-5

Análisis Interno

0-5

0-5

0-5

0-5

Análisis Externo

0-5

0-5

0-5

0-5

Estrategias

0-5

0-5

0-5

0-5

Entorno Cliente

0-5

0-5

0-5

0-5

Entorno de Competencia

0-5

0-5

0-5

0-5

Fuente: elaboración propia.

Universidad de Medellín


Modelo de implementación de soluciones de comercio electrónico

identificar las variables contingentes, las cuales se denominan como causales externas o de contexto de los cambios existentes en una organización; se trata de establecer la influencia de estas variables explicando la realidad organizacional y su nivel de influencia en la obtención de ventajas competitivas. Las mismas se definen a partir de la propuesta de Mintzberg [17] en lo referente a la estrategia y la cultura organizacional: • La tecnología: se refiere a los recursos de los que disponemos, incluyendo técnicas, diseño, producción, procesos y tareas. Influye directamente en la base operativa de la empresa, la división de tareas, hardware, software, comunicación, humanware, redes, portales web, Internet, los cuales varían según el tipo de organización. • El tamaño: afecta la estructura de la empresa, ya que la influencia de la dimensión en la empresa determina las unidades organizativas y la complejidad de la estructura. • La antigüedad: la edad de la empresa influye en el diseño, funciones y la formalización de la organización. Esta variable conjuntamente con la de tamaño afectan en gran medida a la dirección intermedia y al staff directivo, lo cuales son esenciales para que se cumplan con efectividad, especialización y diferenciación los procesos en la organización. • Poder: condiciona la actuación y el proceso de toma de decisiones según la estructura y jerarquías, y depende de donde se situé la variable, es decir, si es externa o interna. • Propiedad: según el tipo de organización pública, privada o mixta determina la actuación y el diseño de la organización; tiende a afectar directamente a la alta dirección. • Cultura: los valores, creencias, el estilo de liderazgo, las normas formales e informales, los procedimientos y las características generales de los miembros de la empresa condicionan

139

el diseño y los resultados de la organización, establecen los procesos de funcionalidad y recogen los estilos de comunicación. • Entorno: representa aquel que se adaptará o desaparecerá del mercado; esta variable nos explica la interacción de la empresa con el entorno.

Una organización que busque implementar soluciones de comercio electrónico debe controlar lo señalado en el Diamante Organizacional y Tecnológico: la cultura tecnológica, la estructura organizacional, la visión estratégica y las ventas y el marketing.

• Cultura tecnológica: la cual converge con el desarrollo tecnológico, a través de cambio, innovación, infraestructura, en concordancia con la clase de clientes que tiene la organización respecto a su planeación; todo esto conlleva a la repotenciación de la cultura tecnológica de la empresa con todas las variables la afectan, y permiten una reorganización que se adapte a la necesidades tecnológicas que el medio exige, para de esta manera, llegar a la implementación de soluciones de comercio electrónico. El factor crítico para implementar procesos innovadores sustentados en modelos de comercio electrónico es la apropiación de TIC por parte de la compañía y la capacitación del recurso humano en el manejo de esas herramientas [18]. • Estructura organizacional: con los factores que afectan a la implementación de soluciones de comercio electrónico se conduce a la organización a adoptar estrategias para el mejoramiento de su estructura a través de la división del trabajo, especialización de tareas, utilizando el recurso humano, sus habilidades y conocimientos, para llegar a la estandarización de procesos de trabajo; de esta manera se evidencian nuevos roles, funciones, cargos que permitan a la organización orientarse con seguridad a la tecnología propuesta.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 131 - 144  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


140

Giovanny Tarazona Bermúdez - Víctor Hugo Medina García - Lylliana Giraldo

• Visión estratégica: propende por que la empresa se adapte al entorno competitivo y tecnológico; que sea una organización flexible, y que utilice la información como una cadena de conocimiento e interacción con el medio interno y externo; que garantice la toma correcta de las decisiones contempladas en la visión de la empresa y de acuerdo con una ideología que permita entender la organización como una realidad cambiante y dinámica que se enfoca hacia el futuro, acorde con la percepción del entorno. • Venta y marketing: permite a la empresa que esta área, a través del rediseño de tareas, sea competitiva, interactiva, para que actúe en forma eficiente con el entorno, los proveedores, y clientes, en relación con la oferta y la demanda que establece el mercado, brindando soluciones eficientes, a tiempo y en línea a los clientes que lo requieran. Adicionalmente, se adaptan elementos convergencia digital, computación en la nube, redes sociales, etc. El plan de negocio en Internet es vital en esta etapa, a fin de priorizar los productos y/o servicios a ser comercializados por Internet, así como los beneficios percibidos por los clientes como, seguridad de las transacciones, privacidad de la información, y condiciones de equidad, una vez los consumidores en línea entran en fase de intercambio de información con el sitio Web [19]. El diamante organizacional y tecnológico (figura 4), permite una abstracción de los factores que afectan directamente la implementación de soluciones de comercio electrónico en la organización. 2.2.3 Implementación y control Es la adopción de las estrategias que posibilitan la implementación de plataformas de comercio electrónico en cualquier tipo de organización; debe tener en cuenta aspectos como el enfoque

Universidad de Medellín

de procesos, la adaptación al cambio y una visión flexible e innovadora. En esta etapa se deben atender criterios como: • Capacitación: es necesario que las personas involucradas en el proceso cuenten con el conocimiento necesario para el manejo de la solución. • Presupuesto de implementación: la empresa objeto de estudio en la implementación de soluciones de comercio electrónico previamente debe realizar una evaluación de los recursos existentes (inventario tecnológico) que permita especificar las inversiones y la evaluación costo beneficio de las mismas. • Implementación de soluciones de comercio electrónico: previa evaluación de las condiciones existentes atendiendo la metodología propuesta se procede a adaptar las soluciones. Internet es un medio con dos aplicaciones: comunicación y transacción. Muchos autores consideran que la reducción de los costes asociados a estas dos funciones constituye el principal valor añadido de esta tecnología. Del mismo modo a lo que ocurre en los mercados de consumo, las empresas hacen uso de Internet en sus compras como una fuente de información y, a veces, como un canal de operación. • Adecuación tecnológica al modelo de negocio: la planeación estratégica debe orientar este proceso en función de los recursos, capacidades internas, oportunidades y riesgos definidos en el análisis interno y externo, estableciendo técnicas en las que la adecuación tecnológica de la organización permita cumplir con los objetivos empresariales y soportar el modelo de negocio, definido este como una descripción de los roles y las relaciones entre los consumidores de una empresa, clientes, aliados y proveedores que identifican la información importante, flujos de producto y dinero, así como beneficios para los participante [20].


Modelo de implementación de soluciones de comercio electrónico

141

Diamante organizacional y tecnológico lunes, 24 de agosto de 2009

Tecnología Influye sobre la base operativa de la empresa, jerarquías, proc. funcionales que varían según el tipo de organización

Tamaño Determina las unidades organizativas y la complejidad de la estructura.

Antiguedad Afecta la dirección intermedia y el staff directivo.

Poder Condiciona la actuación y el proceso de la toma de decisiones.

Propiedad Determina la actuación y el diseño de la organización, afecta directamente a la alta direccion.

Cultura Establece los procesos de funcionalidad y recoge los estilos de comunicación

Entorno Estudia la conversión de las entradas y salidas entre la empresa y el entorno.

Cultura Tecnológica

Ventas y Marketing

Contexto Variables Contingentes

Organización:

O Conjunto de y normas R Reglas de comportamiento. G A N Sujetas a: - Todos sus I miembros en la Z Organización. A Para: C I Alcanzar los objetivos. Ó N

· · · · · · · ·

· · · · · · · ·

Comunicación Interpersonal Ventaja Competitiva Innovación Entorno Mercados Cliente Proveedores Oferta y Demanda

Cultura Tecnológica

Ventas y Marketing

SOLUCIONES DE COMERCIO ELECTRONICO

Estructura Organizacional

Visión Estratégica Visión Estratégica · · · · · ·

Desarrollo tecnológico Arquitectura Tecnológica Cambio tecnológico Habilidades y conocimientos Innovación Infraestructura Tipología de Usuarios Implementación de portal WEB

Toma de decisiones Organización Flexible Realidad cambiante y dinámica de la organización Enfoque hacia el futuro Percepción del entorno Adaptación

Estructura Organizacional · · · · · ·

División del trabajo Estandarización de procesos de trabajo Especialización de tareas Capacitación Recurso Humano Habilidades y conocimiento organizacional.

Figura 4. Diamante organizacional y tecnológico. Fuente: elaboración propia

3 VALIDACIÓN DEL MODELO Para validar el modelo PESCE, se realizó una encuesta para detectar la apropiación tecnológica en el sector textil de la ciudad de Bogotá, Colombia. El análisis de la cadena productiva se realizó a través de la aplicación de un formulario virtual a una muestra de 62 empresas pertenecientes al eslabón de transformación - confección del sector textil. Se encontró que solo el 37,1 % de las empresas encuestadas usan Internet como vitrina para comercializar sus productos mediante un portal web, por lo cual se demuestra un desaprovechamiento de las tecnologías de la información teniendo en cuenta que todas afirmaron poseer como mínimo un computador personal (el 95,16 % con acceso a Internet) y una cámara de fotografía digital (97 %), por lo cual se detecta que existen herramientas para promocionar sus productos en la Web. En cuanto a la realización de negocios en general se encontró que el 89 % de los empresarios prefieren el pago en efectivo, el 68 % prefiere el pago con

tarjeta débito o crédito, y el 65 %, las transacciones bancarias. A pesar de que se detecta una preferencia por los medios tradicionales de hacer negocios, los encuestados manifiestan interés por el comercio electrónico. Las empresas que han realizado negocios a través de la web afirman que sus motivaciones para hacerlo, en un 79 %, son la disminución de costos, el ahorro de tiempo en un 85 % y la agilidad del servicio en un 66 %, por lo cual se detecta una percepción positiva. En general un 53 % cree que incurre en un ahorro de dinero con la salvedad de que la realización de negocio debe ser con alguien de confianza (el 69,3 % de los encuestados manifestaron que importa mucho y el 23 % que importa un poco). Se vislumbra un interés de las compañías en la comercialización dado el 84 % que afirmaron que les gustaría encontrar nuevos clientes en Internet y el 71 % que consideran Internet un medio factible para comercializar sus productos. Con los datos obtenidos, haciendo uso del juicio de expertos, se procesaron los datos en las

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 131 - 144 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


142

Giovanny Tarazona Bermúdez - Víctor Hugo Medina García - Lylliana Giraldo

matrices de diagnóstico y se encontró que del total de empresas el 8 % está en el tercer rango de (4 a 5), con lo cual implementar una solución seguramente es un tema superado. El 71 % tiene condiciones para la implementación y el 21 % no cuenta con las condiciones para llevarla a cabo. 4 CONCLUSIONES En general la comercialización de productos por medios electrónicos es una opción que no se debe descuidar por parte de las compañías encuestadas. El comercio electrónico es bien percibido y las mismas poseen la infraestructura que lo posibilita.Existen oportunidades de mejora en este sector. La implementación de una metodología de planeación estratégica para organizaciones que orientan su acción transaccional en la Web garantizará la mejora sostenible en la estructuración e implantación de soluciones tecnológicas que fortalecen su modelo de negocio. La metodología define una serie de parámetros a seguir para culminar con el conocimiento global de la empresa y, de esta manera, evaluarla, determinando las necesidades que esta tiene para la implementación de soluciones de comercio electrónico. REFERENCIAS BIBLIOGRAFÍCAS [1] Z. Qingfeng, C. Wenbo, and H. Lihua, “E - Business Transformation : An Analysis Framework Based on Critical Organizational Dimensions,” Tsinghua Science and Technology, vol. 13, n.° 3, pp. 408 - 413, 2008. [2] C. Llanos, B. Andres, and O. Angel, “An enterprise engineering approach for the alignment of business and information technology strategy,” International Journal of Computer Integrated Manufacturing, vol. 24, n.° 11, pp. 974 - 992, 2011. [3] G. M. Tarazona  - Bermudez, L. A. Rodriguez Rojas, and V. H. Medina, Modelos de Negocios Electronicos con Tecnologias WEB 2.0, 1ra. Oviedo, 2012, p. 190. [4] Grandon E. and Pearson M., “Electronic commerce adoption: an empirical study of small and medium US Universidad de Medellín

businesses,” Information & Management, vol. 42, n.° 1, pp. 197 - 216, 2004. [5] C. Carmona, S. Ramírez - Gallego, F. Torres, E. Bernal, M. J. del Jesus, and S. García, “Web usage mining to improve the design of an e - commerce website: OrOliveSur.com,” Expert Systems with Applications, vol. 39, n.° 12, pp. 11243 - 11249, 2012. [6] V. Zwass, “Electronic Commerce : Structures and Issues,” International Journal of Electronic Commerce, vol. 1, n.° 1, pp. 3 - 23, 1996. [7] F. F. Faroughian, S. P. Kalafatis, L. Ledden, P. Samouel, and M. H. Tsogas, “Value and risk in business - to - business e - banking,” Industrial Marketing Management, vol. 41, n.° 1, pp. 68 - 81, Jan. 2012. [8] B. Ludwing Von, Teoría general de los sistemas: fundamentos, desarrollo, aplicaciones, Segunda. Mexico, D.F.:, 2006, p. 356. [9] A. Leon, Enterprise Resource Planning, Segunda Ed. New Delhi: Tata McGraw - Hill, 2008. [10] G. Raab, R. Ajami, V. Gargeya, and G. J. Goddard, Customer Relationship Management: A global Perspective. Hampshire, England: Gower Publishing Limited,, 2008, p. 199. [11] Y. Yu and K. Kong, “The research of enterprise boundary from the perspective of social network,” E - Business and E - Government (ICEE), 2011 …, 2011. [12] S. Marston, Z. Li, S. Bandyopadhyay, J. Zhang, and A. Ghalsasi, “Cloud computing  -  The business perspective,” Decision Support Systems, vol. 51, n.° 1, pp. 176 - 189, Apr. 2011. [13] B. Öztayşi and T. Kaya, “Performance comparison based on customer relationship management using analytic network process,” Expert Systems with Applications, vol. 38, n.° 11, pp. 9788 - 9798, 2011. [14] I. Georgiou, “Messing about in transformations: Structured systemic planning for systemic solutions to systemic problems,” European Journal of Operational Research, vol. 223, n.° 2, pp. 392 - 406, Dec. 2012. [15] A. Andrade and L. A. Joia, “Organizational structure and ICT strategies in the Brazilian Judiciary System,” Government Information Quarterly, vol. 29, pp. S32 - S42, Jan. 2012. [16] M. E. Porter, On competition. Boston: 2008, p. 544. [17] H. Mintzberg, The Strategy Process: Concepts, Con-


Modelo de implementación de soluciones de comercio electrónico

texts, Cases : Global. Edinburgh Gate Harlow: , 2003, p. 489. [18] G. M. Tarazona, L. Rodriguez, C. Pelayo - Garcia, and O. Sanjuan, “Model Innovation of Process Based on the Standard e - commerce International GS1,” International Journal of Interactive Multimedia and Artificial Intelligence, vol. 1, n.° 7, p. 70, 2012.

143

[19] H. Li, Han; Sarathy, Rathindra; Xu, “The role of affect and cognition on online consumers’ decision to disclose personal information to unfamiliar online vendors,” Decision Support Systems, vol. 51, n.° 3, pp. 434 - 445, 2011. [20] M. A. Rashid, Z. Riaz, E. Sayin, H. A. Qureshi, G. Yilmaz, M. Shami, and H. Ping, “Strategic e - Commerce Model Driven - Architecture for e - Learning : TQM & e - ERP Perspective,” 2011.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 131 - 144  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


Revista Ingenierías Universidad de Medellín

ESTRATEGIAS DE COLABORACIÓN 2.0 PARA LA TRANSFERENCIA DE CONOCIMIENTO Lillyana María Giraldo Marín* Luis Joyanes Aguilar** Víctor Hugo Medina García*** Recibido: 04/02/2013 Aprobado: 25/10/2013 RESUMEN En este artículo de investigación se analiza la colaboración 2.0, donde los empleados pueden participar e interactuar de manera individual y colectiva. La Enterprise 2.0 pone en práctica nuevos modelos de colaboración en la organización los cuales permiten a los empleados establecer escenarios donde pueden mejorar o crear nuevos productos y servicios desde estrategias colaborativas que los conduzcan al logro de un objetivo colectivo. Por lo tanto, se realiza una revisión del concepto de colaboración 2.0 en la organización y como resultado se definen algunas estrategias de colaboración 2.0 en las organizaciones que usan intensamente las tecnologías y los servicios de la Web 2.0 como apoyo a sus estrategias de negocio. Palabras clave: colaboración 2.0, Enterprise 2.0, organización 2.0, estrategias de colaboración, web 2.0.

*

DEA en el Doctorado de Ingeniería Informática de la Universidad Pontificia de Salamanca. Maestría en Educación de la Universidad de Manizales-CINDE, Especialista en Gerencia de Información Universidad de Medellín, Ingeniera de Sistemas de la Universidad de San Buenaventura- Medellín. Profesora asociada programa de Ingeniería de Sistemas en la Universidad de Medellín. Carrera: 87 No. 30-65 Medellín- Colombia. Teléfono: 3405392 o 3147288152. lmgiraldo@udem.edu.co

**

Doctor en Ingeniería Informática de la Universidad Pontificia de Salamanca, profesor catedrático de la Escuela Superior de Ingeniería y Arquitectura de la Universidad Pontificia de Salamanca. Paseo Juan XXIII, 3 - 28040 – Madrid- España. Teléfono: +34 900 101 829. joyanes@ gmail.com

***

Doctor en Informática de la Universidad Pontificia de Salamanca. Maestría en Informática de la Universidad Politécnica de Madrid. Especialización en Marketing de la Universidad del Rosario. Ingeniero de Sistemas de la Universidad Distrital. Docente del Doctorado en Ingeniería, Maestría en Ciencias de la Información y las Comunicación y del programa de Ingeniería de Sistemas de la Universidad Distrital “Francisco José de Caldas”. Carrera 7 No 40-53 Piso 4, Teléfono 3133338842, Bogotá. vmedina@udistrital.edu.co

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 145 - 156  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


146

Lillyana María Giraldo Marín - Luis Joyanes Aguilar - Víctor Hugo Medina García

COLLABORATION 2.0 STRATEGIES FOR TRANSFER OF KNOWLEDGE ABSTRACT This research article analyzes the Collaboration 2.0, where employees can participate and interact either individually or collectively. Enterprise 2.0 puts into practice new collaboration models within an organization; these models allow employees to establish scenarios where they can improve or create new products and services from collaborative strategies which may drive them to achieve a collective objective. Accordingly, a review of the concept of Collaboration 2.0 within the organization is performed, and some Collaboration 2.0 strategies (which intensively use technologies and services of the Web 2.0 as support of their business strategies) within the organization are defined. Key words: Collaboration 2.0; Enterprise 2.0; Organization 2.0; collaboration strategies; Web 2.0.

Universidad de Medellín


Estrategias de colaboración 2.0 para la transferencia de conocimiento

INTRODUCCIÓN La organización 2.0 es una estructura en constante cambio y donde las personas participan, colaboran, son abiertas, con visión global, y sin miedo al cambio, estos empleados son los nuevos protagonistas y agentes capaces de dar respuestas a los nuevos desafíos. Como resultado de estas nuevas dinámicas surge la nueva organización, donde pueden participar agentes desconocidos hasta el momento, que deberá aprender a reinventarse de forma permanente y en clara sintonía con tales cambios. Y donde el éxito de la empresa, su fuerza, energía y permanencia no está en sus fuentes de producción, sino en el conocimiento, talento y competencias de sus trabajadores, actuando colectivamente, adaptados a las nuevas tecnologías y sin miedo a lo nuevo e inesperado [1]. Obviamente, ante esta coyuntura, los modelos o formas de gestión tradicionales no pueden dar respuesta a estas nuevas demandas y por lo tanto deben ser remplazados por otros que presten su atención de manera prioritaria en las redes que conectan la empresa y que, además, son los facilitadores del uso pleno de las capacidades y conocimientos de los trabajadores que usan intensamente las tecnologías y los servicios de la Web 2.0 [1], como soporte a estas nuevas demandas de la organización 2.0. Al respecto, los autores Frost y Sullivan (2009) establecen que todos los días más y más personas incrementan su trabajo en los espacios virtuales, trabajando desde diferentes ubicaciones, separados por grandes distancias de sus compañeros de trabajo, socios y clientes. Algunos trabajan desde oficinas tradicionales, mientras otros trabajan desde sus casas, oficinas remotas, hoteles, aeropuertos, etc. Es por esto que los empleados, clientes, grupos, socios, entre otros necesitan estar conectados y listos para trabajar juntos, es decir, en ambientes colaborativos, sin tener que viajar, sin tener que encontrarse de manera presencial y lograrlo sin perder la productividad en sus puestos de trabajo y, para

147

ello, las empresas están recurriendo a una variedad de tecnologías de colaboración basadas en IP, tales como: audio, video, conferencia Web, gestores de contenido, mensajería con video inmerso, blogs, wikis, postcast, etc. Estas herramientas, servicios y tecnologías buscan aumentan la experiencia colaborativa de las personas, potencian su productividad y mejoran el flujo de conocimiento del proceso empresarial intra e interorganizacional [2]. 1. FUNDAMENTOS DE LA COLABORACIÓN 2.0 Si bien la colaboración es un concepto que puede tener varias definiciones según su contexto de aplicación, en los siguientes apartados veremos el concepto de colaboración como escenario que se construye a partir del uso y aplicación de los principios, servicios y tecnologías de la Web 2.0, como soporte a la transferencia de conocimiento intra e interorganizacional. La colaboración, es definida por los autores [3], en su texto Collaboration 2.0 Technology and Best Practices for Successful Collaboration in a Web 2.0 World, como “la adopción de un conjunto de herramientas y modos de interacción basada en la Web 2.0”. De igual modo, [4] especifica que “[…] la «generación Y» ha desarrollado un nuevo tipo de práctica intensiva de colaboración a través del uso de las tecnologías de la Web 2.0. La colaboración 2.0 es una de las principales actividades de la Empresa 2.0”. De otro lado, los autores Coleman y Levine (2008) definen que “la colaboración 2.0 es una colaboración emergente (no planeada e informal), abierta (indiferente a las fronteras organizacionales) y masiva (implica multitudes)”. Ampliando las anteriores definiciones sobre como el uso exponencial de las tecnologías y servicios de la Web 2.0 ha mejorado los niveles de colaboración en las organizaciones, los autores [7] definen que: “Un gran número de empresas han

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 145 - 156  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


148

Lillyana María Giraldo Marín - Luis Joyanes Aguilar - Víctor Hugo Medina García

adoptado exitosamente la Empresa 2.0 para las diferentes actividades de colaboración. Shuen (2008); McAfee (2008); Sari, Schaffers, Kristensen, Loh y Slagter (2008) utilizaron el concepto Enterprise 2.0 para hacer referencia a cómo las tecnologías de la Web 2.0 se pueden personalizar para mejorar la forma de comunicarse en un entorno empresarial y, por ende, mejorar la colaboración”. En resumen estas definiciones apuntan a que la colaboración 2.0 es un proceso donde dos o más individuos, grupos u organizaciones trabajan juntos, con el fin de realizar una tarea o alcanzar una meta. Se trata de una serie de interacciones, comunicaciones, reflexiones y otras actividades como la búsqueda de información, el hacer preguntas, y recoger las respuestas, generar ideas y resolver problemas. La colaboración es un proceso donde las personas unen sus esfuerzos y trabajo para lograr mejorar o innovar sobre el diseño de productos y servicios, desarrollar una estrategia, trabajar con socios de negocios, resolver problemas y aprovechar las oportunidades. La colaboración en el contexto de este artículo se presenta como las plataformas tecnológicas que van a soportar el proceso de transferencia de conocimiento 2.0, en esencia estas plataformas tecnológicas están conformadas por un gran número de herramientas y tecnologías electrónicas. En relación con lo dicho, los autores Frost y Sullivan (2009); Turban et al. (2010) y Boughzala (2012) manifiestan que la colaboración cuenta con un gran número de herramientas electrónicas que la soportan. La colaboración requiere que los individuos trabajen juntos de manera coordinada, para lograr un objetivo común. Así, la colaboración es trabajar con otros para lograr objetivos compartidos y explícitos. La colaboración 2.0 se enfoca en realizar tareas o misiones y, por lo general, se lleva a cabo en una empresa y entre empresas, los empleados demandan estar conectados y usan los medios para lograrlo. Por tanto, la colaboración destaca dos aspectos importantes: primero, la sincronía y Universidad de Medellín

la asincronía de las tecnologías, es decir, el tiempo y, segundo, el espacio, ya que estas tecnologías permiten la comunicación entre diferentes personas sin importar su ubicación geográfica [8]. Una de las componentes más importantes de las plataformas colaborativas basadas en la Web 2.0 es la motivación de los participantes a realizar contribuciones que generen valor, para lograr este objetivo los directores de TI de las organizaciones 2.0 deberán reinventar las estrategias hasta ahora desarrolladas con las tecnologías tradicionales y definir estrategias que permitan a los individuos, los grupos, las redes y la organización participar e interactuar en un escenario de colaboración abierto y disponible. En el siguiente apartado se definen algunos principios de las plataformas colaborativas 2.0: 1.1. Principios de la Colaboración 2.0 El proceso de colaboración deberá proporcionar a los distintos actores del proceso de transferencia de conocimiento 2.0 las características que se describirán a continuación; de tal manera que estos se sientan motivados a permanecer en el espacio virtual, donde se les ofrezcan las condiciones necesarias que permitan la interacción y la participación; asimismo, donde puedan conformar redes de cooperación basadas en relaciones de confianza que permita el establecimiento de vínculos fuertes y de largo plazo, estos son: • La transparencia entre los usuarios, esta se puede dar a través del uso de las tecnologías o servicios de la Web 2.0, tales como: blogs, microbloggings (Twitter), gestores de contenidos, wikis, entre otras. La transparencia entre usuarios motiva a los participantes del proceso de transferencia de conocimiento 2.0 a establecer relaciones basadas en la confianza, lo que se traduce en el establecimiento de vínculos fuertes entre los usuarios de las redes sociales y en acuerdos de cooperación basados en la transparencia. Esta transparencia es posible


Estrategias de colaboración 2.0 para la transferencia de conocimiento

gracias a las tecnologías de la web 2.0, las cuales permiten identificar, entre otras características del participante: su perfil, el valor de la contribución, la actualidad de la contribución y el impacto de la contribución en la redes sociales internas y externas de las cuales haga parte el participante. • La participación espontánea o natural de los usuarios, la cual se puede dar a través de las tecnologías y servicios de la Web 2.0 tales como: blogs, comunidades en línea y redes sociales, videoconferencias, RSS, mensajería instantánea, wikis, postcats, comunidades, redes sociales etc. En este sentido, [9] expresa que en la Web 2.0 hay una “arquitectura implícita de participación, una ética de cooperación inherente, en la que el servicio actúa sobre todo como intermediario inteligente, conectando los extremos entre sí y aprovechando las posibilidades que ofrecen los propios usuarios”. Esta característica es muy importante para el proceso de transferencia de conocimiento 2.0, ya que la participación espontánea de los actores del proceso de transferencia de conocimiento permite la creación o el refinamiento de las redes sociales existentes en la organización, como estructuras de cooperación a través de las cuales se lleva a cabo la transferencia de conocimiento. • La confianza en el grupo: la confianza es un componente determinante para el proceso de transferencia de conocimiento 2.0. Esta se logra cuando algún usuario o contacto hace un aporte individual y deja que la comunidad decida sobre la importancia del mismo. De esta forma, la confianza se convierte en un factor fundamental para motivar la participación de los individuos, grupos, proveedores y clientes. Además, es una característica muy importante en la exteriorización del conocimiento, pues los individuos proponen sus ideas a los grupos o redes intra o interorganizacionales y son los

149

grupos los que, en consenso, definen la validez del concepto para luego continuar con la fase de combinación del conocimiento. • La disponibilidad de información y conocimiento: Hace referencia al acceso a diferentes fuentes de almacenamiento de información y conocimiento como son: repositorios (bases de datos), programas como SharePoint o wikis, comunidades, sitios Web, blogs, entre otros. La disponibilidad de la información motiva a la participación de los actores de la transferencia de conocimiento (empleados, grupos o redes intra o interorganizacionales), porque pone a su disposición bases de conocimientos individuales y organizacionales actualizadas. Esta característica es muy importante en la fase de combinación del conocimiento. • La cooperación: los escenarios de colaboración sirven como soporte a las redes sociales, como estructuras a través de las cuales avanza la transferencia de conocimiento; por tal motivo, es importante que la organización tenga una cultura orientada a la colaboración que permita la conformación espontánea de redes sociales y donde sus miembros estén dispuestos a cooperar y a compartir lo que saben. • La interactividad: La posibilidad que brindan las tecnologías y servicios de Web 2.0 para que las personas interactúen y participen, es uno de los muchos beneficios que su uso en un contexto organizacional generan. La interactividad posibilita la participación y la participación permite la creación y la mejora de servicios o productos en la organización. De acuerdo a lo anterior, y como ejemplo del impacto que ha tenido la colaboración en algunas empresas del mundo, se presentan algunos de los resultados del estudio Meetings Around the World II: Charting the Course of Advanced Collaboration, llevado a cabo en tres continentes (Asia, América y Europa) y en más de 3000 empresas y realizado

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 145 - 156  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


150

Lillyana María Giraldo Marín - Luis Joyanes Aguilar - Víctor Hugo Medina García

por los autores Frost y Sullivan (2009) en el cual mencionan que “dentro las compañías que han desarrollado herramientas colaborativas el 72% creen que han tenido mejor rendimiento, comparado con un 46% que no las han implementado. La diferencia entre las que desarrollaron una estrategia de colaboración en ventas y las que no es de 76% vs. 50% de crecimiento en ventas respectivamente y un crecimiento en beneficios del 71% y 45% respectivamente”. Por otra parte, entre las múltiples aplicaciones que tienen los modelos de colaboración 2.0 en la actualidad, una de ellas es apoyar escenarios que favorezcan la transferencia de conocimiento entre individuos, redes, en la organización y entre organizaciones de manera más consciente, donde todas las contribuciones queden registradas y se puedan valorar y apreciar como activos de conocimiento. La colaboración 2.0 permite no solo valorar la transferencia de conocimiento como tal, sino también otros componentes que surgen de la relación que se establece entre emisores y receptores en un escenario de colaboración soportado por acuerdos de cooperación, estos otros activos de conocimiento pueden ser: identificación de expertos, actualizar contactos, establecer nuevas relaciones, identificar flujos de conocimiento intra e interorganizacionales, actualización de bases de conocimiento individuales y organizacionales, mejores prácticas sobre estrategias de colaboración, participación y construcción social de conocimiento con empleados, clientes, proveedores, socios, etc. Para que estas dinámicas de colaboración se logren, la organización debe facilitar la construcción de redes donde las personas puedan interactuar libremente, registrar sus contribuciones y colaborar en la organización y por fuera de esta. En ese sentido, los autores Turban et al. (2010) proponen que “la colaboración 2.0 ofrece la implementación de la Web 2.0 basada en herramientas del software social y servicios, tales como wikis, blogs, foros, canales RSS, encuestas de opinión, chats de la comunidad Universidad de Medellín

y las redes sociales, para facilitar la colaboración en la organización”. 2. ARQUITECTURA DE LA COLABORACIÓN 2.0 Con el objetivo de tener un mejor entendimiento de la colaboración 2.0 y complementando la definición sobre la misma, Turban et al. (2010) hacen énfasis en las tecnologías al expresar que “la colaboración 2.0 incluye un gran número de herramientas informáticas, infraestructuras, servicios y entornos y con frecuencia hace referencia a lo que se denomina como software social”. En relación con lo dicho, para este artículo se considera que no solo la arquitectura de la colaboración 2.0 está conformada por tecnologías y servicios de la Web 2.0, sino que también la conforman: las personas y los procesos organizacionales (véase figura 1). La arquitectura de colaboración propuesta tiene tres componentes dinámicos e interactivos, a continuación se explica cada uno de ellos: • Las personas: son los individuos, los participantes de las redes sociales, los expertos, los grupos, las comunidades de práctica, las organizaciones que interactúan, participan y cooperan en un entorno colaborativo; donde se les facilita la transferencia de conocimiento. En el contexto del proceso de transferencia de conocimiento 2.0, las personas que interactúan en un escenario de colaboración son: el emisor, el receptor y los participantes, a saber, los trabajadores del conocimiento (por ejemplo, ingenieros de software, arquitectos, ingenieros, científicos), el equipo de dirección de transferencia de conocimiento, el líder del proceso de transferencia de conocimiento, los directores de las unidades, el director de talento humano, clientes, proveedores, socios, etc. • Los procesos: son los procesos del negocio y el proceso de transferencia de conocimiento 2.0, sobre los cuales se definen las políticas de colaboración.


Estrategias de colaboración 2.0 para la transferencia de conocimiento

151

Figura 1. Arquitectura de la colaboración 2.0. Fuente: [10]

• Tecnologías y servicios de la Web 2.0: son las plataformas tecnológicas de la Web 2.0 que soportan y facilitan las estrategias de colaboración definidas por la organización y el área de TI, estas pueden ser: tecnologías o servicios de la Web 2.0. En este nuevo contexto se plantean retos interesantes para el área de TI de la organización, pues se deben replantear las formas y rutinas de trabajo tradicionales y entrar en las nuevas formas de trabajo y definición de nuevas políticas que el uso de estas tecnologías implican en los modernos escenarios organizacionales. La arquitectura de colaboración antes descrita alineada con la estructura, la estrategia y la cultura organizacional, establecen nuevos escenarios para el trabajo en red. Desde esta perspectiva surgen nuevos modelos de colaboración basados en las tecnologías y servicios de la Web 2.0, los cuales están orientadas a resolver las barreras del tiempo y la distancia que pueden ser inhibidores de la colaboración en un

contexto organizacional, a continuación se presenta la matriz de colaboración propuesta por los autores Laudon y Laudon (2012), (véase figura 2).

Tecnologías y Servicios de la Web 2.0

Personas

Componentes de la Colaboración 2.0

Procesos

Figura 2. Matriz de tiempo/espacio de herramientas de colaboración. Fuente: Laudon y Laudon (2012)

La matriz de tiempo y espacio propone una serie de herramientas que pueden ser utilizadas en los contextos organizacionales de acuerdo a cuatro

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 145 - 156 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


152

Lillyana María Giraldo Marín - Luis Joyanes Aguilar - Víctor Hugo Medina García

componentes combinadas definidas a partir de las características de sincronía y asincronía y de espacio propias de las tecnologías y servicios de la Web 2.0. Sin embargo para lograr esta transición de la colaboración tradicional o colaboración 1.0 a la colaboración 2.0 algunas de los cambios a ser implementados en la organización son los especificados en la tabla 1.

(ERP, CRM, BI, etc.) y la colaboración 2.0 utiliza herramientas del software social y da lugar a nuevas configuraciones tales como las redes sociales o los mundos virtuales (Turban et al., 2010). Este cambio propone la definición y la configuración de nuevos marcos de trabajo en la organización tradicional, y la reta a enfrentar los siguientes cambios, (véase tabla 1)

3. DE LA COLABORACIÓN 1.0 A LA COLABORACIÓN 2.0 La colaboración 1.0 está basada en sistemas de información propietarios, como son los sistemas de soporte a la toma de decisiones tradicionales

En resumen, la colaboración 2.0 tiene ventajas significativas sobre la colaboración 1.0 en aspectos como: su bajo costo (algunas de las herramientas son gratuitas), la capacidad de interoperabilidad (debido a su base de código abierto), su marco único participativo (contenido generado por el

Tabla 1. Comparación entre colaboración 1.0 y colaboración 2.0 en un contexto empresarial. Área

Colaboración 1.0

Colaboración 2.0

Contexto

Controlada por la empresa

Generada por los usuarios, f lexible y dinámica

Facilidad de uso

Puede ser compleja

Muy fácil de usar

Costos

Pueden ser muy altos

Muy bajos

Plataforma

Propietarias

Software libre, flexible

Enfoque

Apoyo a transacciones

Basada en interacciones

Nivel de interactividad

Bajo

Alto

Naturaleza de la colaboración

Estructurada, se inicia por la orga­­nización

No estructurada, iniciada por los usuarios

Aplicaciones adicionales

Creadas por la organización

Pueden ser creada fácilmente por los usuarios

Canales para intercambio de información

Correo electrónico, mensajes de texto RSS, microblogging (Twitter), blogs, wikis

Flujo de información

Estructurado de arriba hacia abajo

Contexto de marcado para la búsqueda de información

Por lo general no se hace, se utiliza el Creado por los usuarios, folcsonomías que brindan los buscadores

Combinación de aplicaciones

Requiere programación compleja

Contacto con expertos externos

Correo electrónico, contactos propios Redes sociales, colaboración masiva, foros, chats, video conferencia, podcast, etc.

Ambientes e infraestructura de apoyo

Intranets, extranets.

Redes sociales, intranets y mundos virtuales

Flexibilidad

Baja

Alta

Software para colaboración

Estructurado, no puede ser modificado No estructurado y no necesita estar instalay debe estar instalado do, los usuarios lo proponen. Fuente: Turban et al. 2010.

Universidad de Medellín

No estructurado, de abajo hacia arriba

Fácil de hacer gracias a los mashups


Estrategias de colaboración 2.0 para la transferencia de conocimiento

153

usuario, controlado por el usuario y con mayor participación), la capacidad de ser fáciles y rápidas al momento de implementarlas o de crear aplicaciones innovadoras y, por último, las múltiples posibilidades que ofrecen para generar escenarios de colaboración en masa basados en la interactividad.

• Innovación del modelo empresarial: cambiando la manera en que se dirige la organización para conseguir diferenciación competitiva (orientada al cliente, creando nuevos valores), es decir, una organización creadora de conocimiento.

De las anteriores definiciones y aportes hechos por diferentes autores sobre el emergente concepto de colaboración 2.0 se pueden deducir dos perspectivas o enfoques sobre la misma, uno de ellos es el enfoque tecnológico el cual proponen e impulsan autores como Coleman y Levine (2008) y, otro, es el enfoque socio-técnico el cual proponen autores como McAfee (2009, 2010), Frost y Sullivan (2009), Boughzala (2009) y Boughzala y Dudezert (2012). Sin embargo, para esta investigación interesa la integración adecuada de las dos perspectivas, tanto la organizacional como la tecnológica. En el apartado siguiente se proponen una serie de estrategias que podrán mejorar la colaboración en el modelo de transferencia de conocimiento 2.0.

• Colaboración: creando un entorno e infraestructura que fomenten la transferencia de conocimiento e información para la empresa ampliada (empleados, socios y clientes).

4. ESTRATEGIAS DE COLABORACIÓN Debido al crecimiento exponencial que ha tenido el uso de los servicios y tecnologías de la Web 2.0 en las organizaciones y los beneficios que se han obtenido de este uso, una de las inquietudes de los gerentes y los directores de TI es definir las estrategias a seguir para su implementación. Sin bien, al igual que con las tecnologías tradicionales y por las características únicas de los servicios y tecnologías de la Web 2.0, no existe una fórmula mágica que defina cuál es la mejor estrategia para su implementación en la organización, si existen algunas aproximaciones desde la literatura. Al respecto del uso de la colaboración en la organización, IBM Corporation (2006) expresa que para definir una estrategia integrada de colaboración basada en las tecnologías de la Web 2.0, que favorezca la transferencia de conocimiento en una organización, se deben tener en cuenta los siguientes aspectos:

• Integración entre TI y el negocio: combinando los conocimientos tecnológicos y los principios de la Web 2.0 con la percepción comercial y de marketing para conseguir los objetivos empresariales, una arquitectura de colaboración. La clave de estas estrategias es la integración, es decir, la construcción de arquitecturas de colaboración que integren personas, procesos y tecnologías y servicios de la Web 2.0. En este sentido, al compartir información y conocimiento entre las distintas líneas de negocio, los empleados impulsan de forma natural la transferencia de conocimiento desde su base. Por lo que estas actividades pueden ser una potente fuente de ideas, contactos, redes, flujos de conocimiento y acciones y, por eso, ya muchas organizaciones disfrutan de las ventajas de un personal más conectado, informado y flexible. 4.1. Tendencias de la Colaboración 2.0 Como respuesta a la aplicación y el uso cada vez más frecuente de las tecnologías y servicios de la Web 2.0 en las organizaciones, se pueden encontrar estudios recientes realizados por las firmas interesadas en este mercado de las tecnologías. Un ejemplo de estos estudios es el “IBM Global CEO Study 2012”, el cual a partir de sus resultados define las tendencias o futuras aplicaciones de estas tecnologías en la organización y los retos que ello implica. Para comprender mejor los retos

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 145 - 156  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


154

Lillyana María Giraldo Marín - Luis Joyanes Aguilar - Víctor Hugo Medina García

y objetivos de los directores ejecutivos de hoy, los consultores de IBM se encontraron cara a cara con la muestra más grande conocida de estos ejecutivos. Entre septiembre de 2011 y enero de 2012, 1.709 consejeros delegados, directores generales y altos dirigentes del sector público fueron entrevistados en todo el mundo para comprender mejor sus planes hacia el futuro y los retos de una economía cada vez más conectada. Algunos de los resultados del estudio de IBM (2012) describen lo siguiente: Los gerentes consideran las habilidades interpersonales de colaboración (75 %), comunicación (67 %), creatividad (61 %) y flexibilidad (61 %) como factores clave de éxito de los empleados para operar de una manera más compleja, en el medio ambiente interconectado. Para construir su próxima generación de mano de obra, las organizaciones tienen que reclutar activamente y contratar a los empleados que tienen éxito en el trabajo en equipo, abiertos, basados en entornos. Al mismo tiempo, los líderes deben desarrollar y apoyar las prácticas para ayudar a los empleados a prosperar, prácticas como fomentar el desarrollo de los equipos convencionales, la promoción de técnicas de aprendizaje experiencial y el empoderamiento de la utilización de redes de empleados de alto valor. La tendencia hacia una mayor colaboración se extiende más allá de la corporación, es decir, hacia las relaciones de asociación. La asociación se encuentra ahora en su punto más alto de todos los tiempos. En 2008, poco más de la mitad de los gerentes entrevistados IBM planeaba asociarse ampliamente. Ahora, más de dos tercios tienen la intención de hacerlo. “La innovación, junto con sus socios es un gana-gana para ambos”, Peter Voser, consejero delegado de Shell Holandesa Inc., dice. “En Shell, no sólo hay que hacer frente a la energía, también hay que centrarse en los retos, como el agua y los Universidad de Medellín

alimentos, ya que todos están relacionados entre sí. Es por eso que impulsar la innovación colaborativa, también a través de las industrias, es muy importante”. En este mismo estudio se encontró que una mayoría (71 %) de los gerentes ven la tecnología como el factor “número 1” para afectar el futuro de la organización durante los próximos tres años, considerándolo como el agente de cambio más grande de las cambiantes condiciones económicas y de mercado. En todos los aspectos de la organización, desde las finanzas, competidores y las operaciones, los gerentes están más centrados en ganar un conocimiento más profundo acerca de sus clientes. Siete de cada diez ejecutivos están haciendo inversiones importantes en la capacidad de sus organizaciones para sacar conclusiones significativas de los clientes a partir de datos disponibles. 5 CONCLUSIONES En conclusión, el estudio de IBM Corporation (2006) define que: “las prácticas de colaboración dentro de una organización determinada pueden ser complejas, con procesos, herramientas y requisitos cambiantes y solapados en los distintos roles de la transferencia de conocimiento, segmentos de la empresa y dominios de actividad. Implementar tecnologías de colaboración, como la mensajería instantánea o la videoconferencia para toda la empresa, sin considerar su uso práctico y valor empresarial puede tener un efecto más negativo que positivo. Si la tecnología no está adecuada a las necesidades de los empleados o no se proporciona con suficiente soporte durante la transición, es posible que nunca se logre el objetivo propuesto”. Además, la cultura corporativa y la estructura empresarial se han convertido en aspectos muy importantes para ofrecer un ambiente fértil para la colaboración. En otras palabras, las organizaciones que tienen un proceso de cultura abierto y una estructura descentralizada de toma de decisiones son


Estrategias de colaboración 2.0 para la transferencia de conocimiento

las que tienen entornos óptimos para la adopción y uso de la colaboración entre los empleados y con socios externos. Por consiguiente, las organizaciones que despliegan herramientas de colaboración pueden aumentar su rendimiento y obtener un retorno positivo de su inversión en la colaboración. En los estudios anteriormente expuestos se muestra que prácticamente cualquier colaboración es buena. Por último, las organizaciones que sean capaces de hacer inversión en las tecnologías y servicios de la Web 2.0 y estén dispuestas a asegurarse de que su estructura corporativa y el medio ambiente sean propicios para la utilización de las mismas, serán las que luego aprovecharán los beneficios de ellas. Beneficios escalables, que permitirán que los departamentos puedan desarrollar sus capacidades de colaboración de forma inteligente. De esta manera, la colaboración puede convertirse en un activo estratégico de alto desempeño para la organización. AGRADECIMIENTOS Agradecimientos a la Universidad de Medellín por el apoyo dado al proyecto de investigación “Experimentación Modelo de Transferencia de Conocimiento 2.0”, realizado en la empresa de TI Colombiana MVM Ingeniería de Software S.A.

155

REFERENCIAS [1] L. Sáiz, M. Manzanedo, R. del Olmo y R. Alcalde, «Business Management 2.0. Since the hierarchical structure to Knowledge Networks. Model CIACO_RED,» de 5th International Conference on Industrial Engineering and Industrial Management, XV Congreso de Ingeniería de Organización, Cartagena, 2011. [2] Frost & Sullivan, «Meetings Around the World II: Charting the Course of Advanced Collaboration,» Verizon and Cisco, 2009. [3] D. Coleman y S. Levine, Collaboration 2.0: technology and best practices for successful collaboration in a Web 2.0 world., Happy about info publishing company, 2008. [4] I. Boughzala y A. Dudezert, Knowledge Management 2.0: Organizational Models and Strategies, United States of America: IGI Global, 2012. [5] E. Turban, . T.-P. Liang y . S. P. J.Wu, «A Framework for Adopting Collaboration 2.0 Tools for Virtual Group Decision Making,» Springer Science+Business Media B.V., 2010. [6] K. Laudon y J. Laudon, Sistemas de Información Gerencial, México: PEARSON, 2012. [7] T. O’Reilly, «What Is Web 2.0: Design Patterns and Business Models for the Next Generation of Software,» 2005a. [En línea]. Available: http://www.oreilly.com/ pub/a/oreilly/tim/news/2005/09/30/what-is-web-20. html. [Último acceso: 2012]. [8] IBM Corporation, «Uso de la colaboración para fomentar la innovación en su organización,» IBM Global Services, 2006. [9] IBM Global Study, «IBM CEO Study: Command & Control Meets Collaboration,» 2012. [En línea]. Available: http://www-03.ibm.com/press/us/en/pressrelease/37793.wss. [Último acceso: 2012]. [10] L. Giraldo, «Modelo de transferencia de conocimiento 2.0 - COOPIN,» Universidad Pontificia de Salamanca, Madrid, 2013. [11] A. McAfee, «Andrew McAfee’s Blog,» Mayo 2006. [En línea]. Available: http://andrewmcafee.org/2006/05/ enterprise_20_version_20/. [Último acceso: Oct 2012]. [12] P. Anderson, «What is Web 2.0?,» JISC Technology and Standards Watch, 2007. [13] E. Brynjolfsson y A. McAfee, «Beyond enterprise 2.0.,» MIT sloanmanagement review spring, p. 50–55, 2007. [14] J. Bernoff y C. Li, «Harnessing the power of theOh-SoSocial web,» MIT Sloan manage, p. 36–42, 2008.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 145 - 156  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


Revista Ingenierías Universidad de Medellín

MÉTODO PARA LA FORMACIÓN DE STAKEHOLDER EN PROYECTOS DE INGENIERÍA USANDO LA METODOLOGÍA PMI Y TÉCNICAS DE INTELIGENCIA ARTIFICIAL Luis Eduardo Vahos Hernández* Danilo Mauricio Pastor Ramírez** Jovani Alberto Jiménez Builes*** Recibido: 22/05/2013 Aprobado: 25/10/2013

RESUMEN En este artículo de investigación se presenta un método para la formación de interesados (stakeholder) en la ejecución de proyectos de ingeniería. El método integra investigaciones recientes en las áreas de la educación en ingeniería y técnicas de inteligencia artificial. El método es modelado a través de un sistema tutorial inteligente, el cual permite hacer un seguimiento cognitivo del interesado y del desarrollo del proyecto. También se utiliza el razonamiento basado en casos para ofrecer alternativas de solución cuando el stakeholder encuentra dificultades en la adquisición de los conocimientos. Palabras clave: proyectos en ingeniería, interesados, elearning, planeación estratégica, entrenamiento de personal, inteligencia artificial.

*

M. Sc. Departamento de Ciencias de la Computación y de la Decisión, Facultad de Minas, Universidad Nacional de Colombia. Teléfono 5744484884. Correo levahosh@unal.edu.co. Autor para correspondencia.

**

M. Sc. Escuela de Ingeniería de Sistemas, Facultad de Informática y Electrónica, Escuela Superior Politécnica del Chimborazo, Ecuador. Tel 593032998200. Correo: danilo.pastor@espoch.edu.ec

***

Ph. D. Departamento de Ciencias de la Computación y de la Decisión, Facultad de Minas, Universidad Nacional de Colombia. Teléfono 5744255222. Correo jajimen1@unal.edu.co

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 157 - 168  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


158

Luis Eduardo Vahos Hernández - Danilo Mauricio Pastor Ramírez - Jovani Alberto Jiménez Builes

METHOD FOR STAKEHOLDER FORMATION IN ENGINEERING PROJECTS USING THE PMI METHODOLOGY AND ARTIFICIAL INTELLIGENCE TECHNIQUES ABSTRACT This research article shows a method for those persons (stakeholders) interested in executing engineering projects. The method integrates recent research works in the fields of education in engineering and artificial intelligence techniques. The method is modeled through an intelligent tutorial system which allows performing a cognitive monitoring of the interested person and the project development as well. Also, reasoning based on cases is used as a way to offer solution alternatives when stakeholders find difficulties to acquire knowledge. Key words: Engineering projects; stakeholders; e-learning; strategic planning, staff training; artificial intelligence.

Universidad de Medellín


Método para la formación de stakeholder en proyectos de ingeniería usando la metodología PMI y técnicas de inteligencia artificial

INTRODUCCIÓN Las estadísticas a nivel mundial avaladas por firmas encargadas de la medición de los proyectos en ingeniería, indican que solo el 22% de los mismos cumplen con todas las expectativas de los interesados (stakeholder). Esto se lo podemos atribuir a la poca educación que tiene los stakeholder en ejecución de proyectos. El éxito de los proyectos no solo se basa en el nivel de gestión de los administradores del mismo, si no que requiere que todos los stakeholder lo apoyen y participen activamente [1]. Los stakeholder son un factor importante en el éxito de los proyectos en ingeniería. La revisión de la literatura y la experiencia indican que los stakeholder no son capaces de interactuar de una manera ordenada y no tienen una relación armónica. Este es un factor importante en la insuficiencia de los proyectos. La cooperación de las partes interesadas tiene un impacto positivo importante en el éxito del mismo. La causa fundamental de fracaso de los proyectos son los intereses de sus participantes [2], [3]. La educación es la base del desarrollo del ser humano. Cuando se cuenta con el conocimiento y las competencias, el desarrollar nuestras actividades se realiza con un mejor desempeño logrando, de esta manera, una buena educación de nuestros interesados, y logrando un mejor entendimiento entre ellos y el éxito de los proyectos. La educación mediada por computador (e  -  learning) permite ofrecer enseñanza de manera distribuida respetando los diferentes ritmos de aprendizaje [4]. Diferentes investigaciones le han integrado técnicas de la inteligencia artificial, con el propósito de construir ambientes de enseñanza  -  aprendizaje ricos en aspectos pedagógicos y tecnológicos. El principal aporte de la inteligencia artificial queda plasmado en tres variables: adaptación, autonomía y flexibilidad. Uno de estos ambientes son los sistemas tutoriales inteligentes (Intelligent Tutoring Systems, ITS) los cuales permiten ofrecer de manera autónoma enseñanza adaptada y flexible de

159

acuerdo con el perfil cognitivo de cada uno de los estudiantes. Los ITS planifican y replanifican la enseñanza de acuerdo al seguimiento realizado a cada uno de los estudiantes [5]. El Razonamiento basado en casos (Case  -  Based Reasoning, CBR) es otra de las técnicas y funciona tratando de llegar a la solución de problemas, de manera similar como lo hacemos los seres humanos, es decir, utilizando la experiencia acumulada en situaciones problemáticas similares [6]. El trabajo mostrado en este artículo presenta un método para la formación de stakeholder en proyectos en ingeniería modelado a través de un ITS. El método permite mejorar el éxito en la ejecución de los proyectos. El artículo está distribuido de la siguiente manera: en el capítulo dos se presentan los materiales y métodos haciendo hincapié en los proyectos en ingeniería, stakeholder y las técnicas de la inteligencia artificial (ITS y CBR). El capítulo tres exterioriza los resultados del modelo de ITS para la formación de stakeholder y su respectiva discusión. Finalmente se presentan las conclusiones y la bibliografía. 1. MATERIALES Y MÉTODOS 1.1 Proyectos en ingeniería Actualmente existen varias metodologías para la dirección de los proyectos. Las más importantes son Scrum, Prince2 y PMI. El Project Management Institute (PMI) es una de las asociaciones profesionales de miembros más grandes del mundo que cuenta con medio millón de miembros e individuos titulares de sus certificaciones en 180 países. Esta organización americana funciona sin fines de lucro y busca profesionalizar la dirección de proyectos a través de estándares y certificaciones reconocidas mundialmente, por medio de comunidades de colaboración, de un extenso programa de investigación y de oportunidades de desarrollo profesional. Su desarrollo intelectual lo fundamenta el libro PMBOK® Guide donde expresa toda su metodología

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 157 - 168  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


160

Luis Eduardo Vahos Hernández - Danilo Mauricio Pastor Ramírez - Jovani Alberto Jiménez Builes

para el perfecto desarrollo y ejecución de los proyectos. El PMBOK® Guide está compuesto por nueve áreas de conocimiento, cinco grupos de procesos base y 42 procesos. Con esta estructura busca que los proyectos tengan un flujo de trabajo adecuado para ser exitosos [7]. Los cinco grupos de procesos para la dirección de proyectos son [8] (ver figura 1): 1.1.1 Iniciación: se definen los objetivos del proyecto. Se identifican a los principales interesados, se nombra al director y se autoriza formalmente el inicio. 1.1.2 Planificación: Se define el alcance, se refinan los objetivos y se desarrolla el plan para la dirección, que será el curso de acción para que el proyecto sea exitoso. 1.1.3 Ejecución Se integran todos los recursos a los fines de implementar el plan para la dirección. 1.1.4 Monitoreo y control Se supervisa el avance del proyecto y se aplican acciones correctivas. 1.1.5 Cierre Se formaliza con el cliente la aceptación de los entregables del proyecto.

Todos estos procesos están apoyados de nueve áreas de conocimiento, expresados bajo el término de gestión, a saber [8]: 1.1.6 Integración Define los procesos y actividades que integran los diversos elementos de la dirección. 1.1.7 Alcance Muestra los procesos involucrados en garantizar que el proyecto incluya todo (y únicamente) el trabajo requerido para completarlo exitosamente. 1.1.8 Tiempo Se centra en los procesos que se utilizan para garantizar la conclusión a tiempo. 1.1.9 Costos Describe los procesos involucrados en planificar, estimar, presupuestar y controlar los costos de modo que se complete el proyecto dentro del presupuesto aprobado. 1.1.10 Calidad Describe los procesos involucrados en planificar, dar seguimiento, controlar y garantizar que se cumpla con los requisitos de calidad.

Figura 1. Grupos de procesos [8]

Universidad de Medellín


Método para la formación de stakeholder en proyectos de ingeniería usando la metodología PMI y técnicas de inteligencia artificial

1.1.11 Recursos humanos Describe los procesos involucrados en la planificación, adquisición, desarrollo y gestión del equipo. 1.1.12 Comunicaciones Identifica los procesos involucrados en garantizar que la generación, recopilación, distribución, almacenamiento y disposición final de la información, sean adecuados y oportunos. 1.1.13 Riesgos Describe los procesos involucrados en la identificación, análisis y control de los riesgos. 1.1.14 Adquisiciones Describe los procesos involucrados en la compra o adquisición de productos, servicios o resultados. 1.2 Stakeholder Stakeholder es definido como el grupo de interés en un proyecto, como por ejemplo las personas, entidades, leyes, medio ambiente, entre otros. Para transmitir conocimiento a múltiples interesados, es importante tener en cuenta los canales de comunicación, la infraestructura social, infraestructura técnica, espacio físico, interacción estilo y contenido. La infraestructura social implica las relaciones sociales entre los ejecutores y los usuarios. La infraestructura técnica comprende la arquitectura de la red, hardware y componentes de software, espacio físico, evaluar el espacio local para la instalación de cámaras, micrófonos, la iluminación el tamaño del salón, tipo de muebles, tamaño de la pantalla, tamaño de la presentación. La interacción estilo y contenido se refiere a los actores que van a participar, cuántos usuarios, contenido tipo de información que se va a trabajar [9], [10]. Todo proyecto en ingeniería es diferente, tiene diferentes circunstancias y requieren de diferentes enfoques. Un proyecto depende de los resulta-

161

dos finales. El principal factor determinante que hace que un proyecto sea diferente a otro son las personas. Todo proyecto es impulsado por las partes interesadas, por sus deseos, temores, sueños y apuestas que determinan el curso del proyecto. El análisis de los actores es una técnica para identificar y analizar los grupos de interés que rodean a un proyecto; este análisis proporciona información sobre los actores y sus relaciones, intereses y expectativas. Un análisis adecuado de los grupos de interés le ayudará a construir un proyecto y a dar el enfoque adecuado a la situación, y permite además, negociar mejor con el grupo de interés, con los temores hay juego que perder, y con los deseos de que hay algo que ganar [11, 12]. El éxito del proyecto no solo se basa en el nivel de gestión de los administradores del proyecto. Requiere que todos los interesados apoyen y participen del mismo. Los interesados son un factor importante de éxito. La investigación teórica de proyectos indica que los interesados no son capaces de interactuar de una manera ordenada y no tienen una relación armónica; este es un factor importante en la insuficiencia del proyecto. La cooperación de las partes interesadas tiene un impacto importante en el éxito del proyecto. La causa fundamental de fracaso de los proyectos son los intereses de los interesados, y cómo los beneficios del proyecto se distribuyen, es de gran preocupación para todos los socios, ya que la injusta distribución puede dar lugar a malentendidos y conflictos entre partes [12]. 1.3 Inteligencia artificial La inteligencia artificial es una disciplina dentro del campo de la informática encargada del estudio del comportamiento del ser humano para trasladarlo a una maquina. Las características humanas estudiadas son: aprendizaje, adaptación, razonamiento, autocorrección, mejoramiento implícito, percepción

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 157 - 168  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


162

Luis Eduardo Vahos Hernández - Danilo Mauricio Pastor Ramírez - Jovani Alberto Jiménez Builes

modular del mundo. Algunas de las técnicas son la lógica difusa, el razonamiento basado en casos, el reconocimiento de patrones, las redes neuronales, el sistema de expertos, el aprendizaje de máquina, el tratamiento del lenguaje natural, la robótica, entre otros [13]. La inteligencia artificial en la educación es un campo creciente de interés, donde se trata de aportar en la formulación y aplicación de técnicas al desarrollo de sistemas que soporten los procesos de enseñanza y de aprendizaje, con el propósito de construir sistemas más inteligentes. El término “inteligente” utilizado en estos sistemas queda determinado fundamentalmente por su capacidad de adaptación continua a las características del aprendizaje y del conocimiento de los diferentes usuarios. Los sistemas tutoriales inteligente (Intelligent Tutoring Systems, ITS) están diseñados para impartir instrucción y apoyar los procesos de enseñanza y de aprendizaje mediante la interacción con el estudiante [14]. Se le da el calificativo particular de “inteligentes” para contrastarlo con los sistemas tradicionales de enseñanaza asistida por computador, siendo la principal diferencia el reconocimiento de la evolución del nivel de aprendizaje de cada uno de los estudiantes. La arquitectura genérica de los ITS está compuesta por tres módulos, a saber: tutor, estudiante y conocimiento. El primer módulo genera un plan basado en las necesidades específicas del estudiante. Este plan es diseñado para identificar y definir los métodos que ayudan al estudiante a adquirir el conocimiento. Es constantemente replanificado de acuerdo con los hallazgos encontrados. El segundo módulo se encarga de administrar toda la información del estudiante. El tercer módulo almacena los contenidos de la asignatura que se está ofreciendo. Algunos ITS presentan un cuarto módulo llamado Interfaz, el cual se encarga de recibir los datos del estudiante y desplegar la información en la pantalla [15]. Universidad de Medellín

El Razonamiento Basado en Casos (Cases  -  Based Reasoning, CBR) es una técnica que intenta llegar a la solución de nuevos problemas de forma similar a como lo hacen los seres humanos, es decir, utilizando la experiencia acumulada hasta el momento en acontecimientos similares. Un nuevo problema se compara con los casos almacenados previamente en la base de casos y se recuperan uno o varios casos. Posteriormente se utiliza y evalúa una solución sugerida por los casos que han sido seleccionados con anterioridad, para tratar de aplicarla al problema actual. Un caso se compone de tres elementos: la descripción del problema, la solución que se aplicó y el resultado de la solución. Los sistemas CBR son capaces de adquirir nuevo conocimiento a través de la incorporación de casos, y su mantenimiento es más sencillo [16], [17]. 2. RESULTADOS Y DISCUSIÓN El método propuesto para la formación de interesados (stakeholder) en la ejecución de proyectos de ingeniería se fundamentó en técnicas de la inteligencia artificial. Para lograr lo anterior, se modeló el ambiente de enseñanza y aprendizaje a través de la arquitectura de un ITS. De igual manera, para la selección y visualización de ejemplos presentados a los estudiantes, se tomó como referencia el funcionamiento de un CBR. Se aclara que de ahora en adelante se utilizarán los términos “estudiante” para referirse dentro del stakeholder, solo a las personas interesadas en aprender, y “profesor” a la persona encargada de capacitar. Ambos usuarios pueden ser conocidos también como “actores” y son las entidades externas al sistema [17]. De igual manera, el ambiente de enseñanza y aprendizaje puede ser enfocado como un ambiente instruccional de capacitación o entrenamiento. Se utilizaron los ITS y CBR en vez de utilizar las plataformas y técnicas comunes del elearning, porque los primeros ofrecen una serie de bondades, como permitir planificar y replanificar los contenidos y


Método para la formación de stakeholder en proyectos de ingeniería usando la metodología PMI y técnicas de inteligencia artificial

información se encuentran las veces que ha ingresado al ambiente, el tiempo que se ha demorado en cada una de las sesiones iniciadas, los contenidos que ha visualizado, las actividades que ha realizado, los problemas propuestos que ha concluido de manera individual o colaborativa, las evaluaciones que ha efectuado, el tiempo que se ha demorado en la producción de cada una de las actividades (evaluaciones, contenidos, etc), los resultados de las evaluaciones, las dificultades que ha hallado, preferencias de uso, las páginas que ha visitado, las ayudas que ha necesitado, entre otros. Para algunos autores, esta información es conocida como el perfil cognitivo del estudiante. Esta información permite adaptar los contenidos a las características específicas de cada uno de los estudiantes.

actividades de acuerdo con el ritmo de aprendizaje de cada uno de los estudiantes, así como también, ofrecer ejemplos similares a la problemática, cuando un estudiante ha encontrado una dificultad. Ambas bondades son regularmente utilizadas por los profesores humanos. A continuación se presentan los casos de uso para cada uno de los actores (estudiante y profesor), la arquitectura modelada a través del ITS y un comparativo de una serie de variables que demuestran las ventajas del método propuesto frente a la enseñanza tradicional. 2.1 Casos de uso Los casos de uso permiten describir las posibles interacciones o usos de un usuario con el sistema [17, 18]. A continuación se presenta inicialmente, el conjunto de los casos de uso que ocurren para el usuario estudiante el desarrollo de una sesión típica de aprendizaje, luego se exponen los casos de uso para el profesor (ver figura 2).

Mirar los contenidos. Permite que los estudiante visualicen y los contenidos desplegados en la pantalla. Los contenidos también recibe la denominación de objetos de aprendizaje y pueden ser: animaciones, presentaciones, videos, audios, archivos en diferentes formatos, entre otros. Los contenidos se encuentran distribuidos en unidades, de acuerdo al tema tratado.

Realizar las actividades. Asociados a los contenidos se encuentran las actividades las cuales permiten ejercitar o reforzar los conocimientos adquiridos en el caso anterior. Dentro de las

2.1.1 Estudiante El estudiante puede realizar cuatro casos dentro del ambiente, a saber: – Iniciar sesión. Este caso de uso le permite al usuario ingresar al ambiente instruccional y realizar todas las operaciones y procesos que se encuentran en su alcance. – Historia del estudiante. Permite guardar toda la información del estudiante. Dentro de la

163

Figura 2. Casos de uso para el estudiante y el profesor. Fuente: elaboración propia.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 157 - 168 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


164

Luis Eduardo Vahos Hernández - Danilo Mauricio Pastor Ramírez - Jovani Alberto Jiménez Builes

actividades se encuentran, la realización de simulaciones, cuestionarios, ejercicios, participación en foros, redes sociales y construcción de wikis, entre otras.

– Construir contenidos. Le permite al profesor la elaboración de los diferentes objetos de aprendizaje de acuerdo a los temas planteados en cada una de las unidades.

– Actualizar el CBR. Este caso permite adicionar información nueva a la base de casos del CBR, cuando un estudiante ha encontrado un problema y lo ha solucionado de manera satisfactoria. También permite recuperar un caso, cuando un estudiante encuentra una solución problemática y trata de solucionarla, teniendo en cuenta la experiencia de otros estudiantes en casos similares.

– Actualizar el ambiente. Permite distribuir y renovar los objetos dentro del ambiente. También permite mejorar el concepto visual que utiliza el ambiente.

– Solucionar problemas. El ambiente instruccional presenta una serie de problemas propuestos para que el estudiante los solucione de manera individual o colaborativa. El propósito de estos problemas es que el estudiante realice una serie de ejercicios relacionados con los contenidos – Realizar evaluaciones. En este caso de uso, el estudiante puede realizar cada una de las evaluaciones que el ambiente instruccional le ofrece de acuerdo a los contenidos que se estén abarcando. Cuando los resultados de la evaluación son satisfactorios, la información es registrada en la historia del estudiante. Cuando no logra lo propuesto en la evaluación, la información también es registrada en el historial; sin embargo, se activa el mecanismo de CBR para ofrecerle al estudiante una serie de actividades que otros estudiantes han realizado para tratar de ganar la evaluación. – Salir. Le permite al estudiante salir del ambiente instruccional. 2.1.2 Profesor El profesor puede realizar siete casos de uso en el ambiente de enseñanza y aprendizaje (ambiente instruccional), a saber: – Iniciar sesión. Le permite al profesor ingresar al ambiente instruccional. Universidad de Medellín

– Recomendar CBR. Actualiza los casos dentro de la memoria, sacando aquellos que no cumplen las características de la situación problemática del contexto o los perfiles los estudiantes. El profesor también puede sugerir casos para ser utilizados en la memoria del CBR. – Construir evaluación. Le permite construir los diferentes instrumentos evaluativos de acuerdo con los contenidos de las unidades. – Construir actividades. Le permite generar diferentes actividades para que sean abordados los contenidos. – Hacer seguimiento al estudiante (planificar y replanificar). El profesor siempre está atento a cada una de las acciones que realiza el estudiante, con el propósito de sugerirle temas, actividades (ejercicios o colaboración) o guiarlo. 2.2 Arquitectura La arquitectura del ambiente instruccional está conformada por cuatro módulos, cinco bases de datos (incluyendo la base de casos del CBR) y dos tipos de usuarios que pueden realizar las operaciones descritas en los casos de uso. A continuación se presenta la descripción de cada módulo y sus bases de datos (ver figura 3). 2.2.1 Módulo tutor Es el módulo central de la arquitectura. Se encarga de ejercer el control y permitir la planificación y replanificación del aprendizaje del estudiante


Método para la formación de stakeholder en proyectos de ingeniería usando la metodología PMI y técnicas de inteligencia artificial

165

Figura 3. Arquitectura del ambiente de enseñanza y aprendizaje. Fuente: elaboración propia.

de acuerdo con sus hallazgos. Decide cuándo un estudiante está preparado para presentar una evaluación. Se comunica con los otros módulos para coordinar el correcto funcionamiento del ambiente. Ofrece diferentes estrategias pedagógicas (actividades) para que el estudiante aprehenda los contenidos. 2.2.2 Módulo conocimientos Es el encargado de gestionar los contenidos almacenados en la base de conocimientos a manera de objetos de aprendizaje. También se encarga de la gestión de la base de casos dentro del CBR. Los contenidos y casos son desplegados cuando el módulo tutor los solicita. 2.2.3 Módulo estudiante Es el encargado de gestionar toda la información del estudiante. 2.2.4 Módulo interfaz Su función es la de permitir la comunicación de los usuarios con el ambiente instruccional.

2.2.5 Base de evaluaciones Almacena el conjunto de evaluaciones teniendo en cuenta cada una de las unidades y los diferentes niveles de aprendizaje de los usuarios. 2.2.6 Base de estrategias pedagógicas Contiene el conjunto de actividades propuestas. 2.2.7 Base de información del estudiante Almacena el perfil cognitivo del estudiante. 2.2.8 Base de conocimientos Acopia los objetos de aprendizaje teniendo en cuenta las diferentes unidades. 2.2.9 Base de casos (CBR) Contiene el conjunto de casos que se les presentan a los estudiantes cuando encuentran una situación problémica. 2.3 Comparativos A continuación se presentan una serie características comparativas entre los dos modelos (tradicional versus propuesto).

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 157 - 168 - ISSN 1692 - 3324 - julio-diciembre de 2013/184 p. Medellín, Colombia


166

Luis Eduardo Vahos Hernández - Danilo Mauricio Pastor Ramírez - Jovani Alberto Jiménez Builes

Tabla 1. Comparativo del método tradicional de entrenamiento de los stakeholder frente al método propuesto Método tradicional

Método propuesto

Materiales: guías impresas, formularios genéricos en internet, ejemplos, actividades. El origen de los contenidos es centralizado. No ofrece ayudas adicionales.

Materiales: ambiente instruccional (con inclusión de técnicas de la inteligencia artificial que permiten recomendar material y actividades cuando el estudiante ha encontrado dificultades; además de planificar continuamente el aprendizaje), evaluaciones personalizadas, canales colaborativos de comunicación, ejemplos y actividades. El estudiante puede acceder al material en cualquier momento y sin importar el lugar. El origen de los contenidos es distribuido. Ofrece ayudas adicionales y motivación para buscar otras fuentes de información. Se hace énfasis en el uso de la tecnología.

Profesor: asume el rol de experto Profesor: es un facilitador  -  asesor, los estudiantes toman la responsabilidad de aprender. o autoridad formal, transmite la Incrementan la motivación de los estudiantes presentando problemas reales. Ofrecen retroainformación a los estudiantes. limentación en las sesiones. La iteración profesor  -  estudiante es frecuente. Las exposiciones se basan en la comunicación unidireccional; la información se transmite a un grupo de alumnos. La iteración profesor  -  e studiante es poca o nula. Estudiantes: son vistos como “recipientes vacíos” o receptores pasivos de información. Absorben, transcriben, memorizan y repiten la información para las evaluaciones. El estudiante puede asumir responsabilidades.

Estudiantes: son vistos como sujetos que pueden aprender teniendo en cuenta su ritmo de aprendizaje. Trabajan de manera individual o en equipos para resolver problemas, adquiriendo y aplicando el conocimiento en una variedad de contextos. Participan activamente en la resolución de problema, exploran alternativas de solución, identifican necesidades de aprendizaje, investigan, aprenden, aplican y resuelven problemas. Se requiere responsabilidad del estudiante.

Evaluación: formularios predefinidos. Los estudiantes buscan la “respuesta correcta” para tener éxito en un examen. Se brinda calificación. Es sumatoria y el profesor es el único evaluador. No se pueden repetir las evaluaciones.

Evaluación: tiene en cuenta las características de aprendizaje de cada uno de los estudiantes. Se brinda calificación y retroalimentación personalizada. Se ofrecen alternativas de remediación cuando el estudiante ha perdido una evaluación (CBR). Permite repetir las evaluaciones. Existen simulacros preparatorios para las evaluaciones. Además, el profesor implementa una evaluación integral, en la que es importante tanto el proceso como el resultado y está compuesta por: una evaluación individual, una colaborativa (efectuada por los demás miembros del grupo de estudiantes), una autoevaluación (el estudiante evalúa su propio proceso) y una coevaluación (realizada entre el estudiante y profesor), todo en un mismo escenario.

Aprendizaje: es individual y de Aprendizaje: utilizan el ambiente instruccional rico en recursos, donde además pueden competencia. experimentar con diversos recursos con retroalimentación inmediata. Pa r a d i g m a i n s t r u c c i o n a l : Paradigma instruccional: integración de conductismo, constructivismo e histórico  -  social. clases magistrales basadas en el constructivismo o conductismo. Centro del proceso: profesor.

Centro del proceso: estudiante.

Retroalimentación: el estudiante Retroalimentación: en cualquier momento cuando el estudiante lo requiere. Al finalizar puede preguntar en las sesiones una evaluación le ofrece información de retorno y una serie de contenidos y actividades si el presenciales. estudiante no alcanzó lo propuesto. Fuente: elaboración propia.

Universidad de Medellín


Método para la formación de stakeholder en proyectos de ingeniería usando la metodología PMI y técnicas de inteligencia artificial

3. CONCLUSIONES Cuando existen contratiempos dentro del tiempo de la ejecución de los proyectos en ingeniería, regularmente los stakeholder argumentan que la culpa la tiene el aspecto financiero del mismo. Sin embargo, la dificultad puede que no tenga sus raíces en el aspecto financiero sino en la formación misma de los stakeholder, sin dejar a un lado diversas variables como la programación de la ejecución del proyecto o la concienciación de las diversas variables del problema a atacar, entre otras. Dentro del entrenamiento o formación de los stakeholder se encuentran diversas ambigüedades. Uno de ellas es la falta de aprehensión, profundización y concientización en los contenidos educativos y los grupos de procesos después de realizado un proceso de entrenamiento. Los stakeholder en ocasiones no tienen una idea global de la transformación que se está adelantando; de igual manera desconocen las fases iniciales como la identificación de la problemática a enfrentar y elicitación de sus requisitos. En los procesos educativos, la continua innovación, la inclusión de las didácticas y una excelente actitud de los actores son factores obligatoriamente necesarios para lograr mejores resultados en la transmisión y apropiación del conocimiento. En este artículo se presentó un método para la formación de stakeholder en la ejecución de proyectos de ingeniería. El método fue modelado a través de un ITS y se utilizó además la técnica del CBR, ofreciendo ventajas significativas frente a métodos tradicionales de instrucción en empresas. Dentro de los resultados, se puede apreciar que el reforzamiento continuo propio del CBR cuando un estudiante no alcanza lo propuesto en un tema, permite una mayor profundización de los contenidos. De igual manera, el ambiente instruccional no es un ambiente plano, sino que siempre tiene en cuenta las características propias de los estudiantes para planificar y replanificar continuamente las

167

actividades que se están enseñando. La utilidad en la formación de proyectos de ingeniería es evidente debido a que se logra una mayor aprehensión y conscienciación de los contenidos y grupos de procesos por parte de los stakeholder. Es imperiosamente necesario cambiar los métodos tradicionales de enseñanza, pero primero debe de hacerse una fuerte labor de concientización a los actores del proceso educativo referente al cambio de paradigma. REFERENCIAS [1] Ciocoiu, L., Henshaw, M. J. D. C., & Hubbard, E. M. (2012). A systems  -  of  -  systems approach to the development of flexible, cost  -  effective training environments. In System of Systems Engineering (SoSE), 2012 7th International Conference on (pp. 531  -  536). IEEE. [2] Li, X., & Mingsheng, S. (2010). The Research on Benefit Coordination Mechanism of Project Stakeholder. In Computational Intelligence and Design (ISCID), 2010 International Symposium on (Vol. 2, pp. 248  -  251). IEEE. [3] Huang, J., & Sun, J. (2009). The Provision of Incentives in the Construction Projects. In Management and Service Science, 2009. MASS’09. International Conference on (pp. 1  -  4). IEEE. [4] Saowapakpongchai, K. (2010). The development of elearning model for higher education in Thailand. Educational and Network Technology (ICENT), 2010 International Conference on pp.16,19, 25  -  27. [5] Wang, L.; Lu, W.; Wang, C. (2012). Research on Key Technology of Cheerleading Intelligent Tutoring System Design. In Computer Science & Education (ICCSE), 2012 7th International Conference on (pp. 1498  -  1501). IEEE. [6] Zhou, P.; Yin, W.; Zhao, J. (2012). Research on case retention strategy for industrial case  -  based reasoning (CBR) system: A practical case study. International Conference on Computer Science and Information Processing (CSIP), 2012. Page(s): 376 – 380. IEEE Conference Publications. [7] PMI (2013) Proyect Manager Institute. [En línea http:// www.pmi.org/], fecha de Acceso Mayo de 2013. [8] PMBOK (2008). Guía de los Fundamentos para la Dirección de Proyectos. Atlanta: Project Management Institute.

Revista Ingenierías Universidad de Medellín, vol. 12, No. 23 pp. 157 - 168  -  ISSN 1692 - 3324  -  julio-diciembre de 2013/184 p. Medellín, Colombia


168

Luis Eduardo Vahos Hernández - Danilo Mauricio Pastor Ramírez - Jovani Alberto Jiménez Builes

[9] Barfurth, M. A., Singer, J., Emond, B., Vinson, N., Brooks, M., & Spence, J. (2002). Evaluation factors for multi  -  stakeholder broadband visual communication projects. In Enabling Technologies: Infrastructure for Collaborative Enterprises, 2002. WET ICE 2002. Proceedings. Eleventh IEEE International Workshops on (pp. 18  -  22). IEEE. [10] Sundstrom, P. (2004). Opportunities for creativity in project work  -  importance of goals and problem solving. In Engineering Management Conference, 2004. Proceedings. 2004 IEEE International (Vol. 3, pp. 978  -  983). IEEE. [11] De Baar, B. (2006). Using Stakeholder Analysis in Software Project Management. [12] Lu, X., Jia, Z., Liu, W., & Wang, F. (2008, October). Simulation study of multi  -  agent  -  based network manufacturing ASP system. In Service Operations and Logistics, and Informatics, 2008. IEEE/SOLI 2008. IEEE International Conference on (Vol. 2, pp. 1849  -  1853). IEEE. [13] Russell, S.; Norving, P. (2004) Intelligent Agents. En: Artificial Intelligence: A Modern Approach. Second Edition. Prentice Hall Series in Artificial Intelligence.

Universidad de Medellín

[14] Caro, M.; Jiménez, J.; Paternina, A. (2012) Architectonical Modeling of Metamemory Judgment in Case Based Reasoning Systems. En: XXXVIII Conferencia Latinoamericana en Informática CLEI 2012 / Simposio en Investigación de Operaciones e Inteligencia Artificial. [15] Ramesh, V. M., & Rao, N. J. (2012). Tutoring and Expert Modules of Intelligent Tutoring Systems. In Technology for Education (T4E), 2012 IEEE Fourth International Conference on (pp. 251  -  252). IEEE. [16] Cheng, P., Zhao, K., Li, Y., & Xu, W. (2011). Application of case based reasoning in plane geometry intelligent tutoring system. In Electrical and Control Engineering (ICECE), 2011 International Conference on (pp. 4369  -  4373). IEEE. [17] Chunyan, Q. (2010). UML  -  based software process modeling. In Computer, Mechatronics, Control and Electronic Engineering (CMCE), 2010 International Conference on (Vol. 1, pp. 247  -  250). IEEE. [18] Jiménez, J.; Gaviria, J.; Arevalo, W. (2011) Building virtual learning objects that accomplish today CBR system requirements. Software Engineering: Methods, Modeling, and Teaching. En: Colombia. Ed: Sello Editorial Universidad de Medellín, v. 1, pp. 103  -  112.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.