Revista de
Tecnología Journal of Technology Bogotá D.C., Colombia
Volumen 13 • Número 1 • Enero – Junio de 2014 • ISSN 1692-1399 FACULTAD DE INGENIERÍA
revistatecnologia@unbosque.edu.co
Tecnología para hábitos y estilos de vida sostenibles
OBJETIVOS Y ALCANCES
Bogotá D.C., Colombia
Volumen 13 • Número 1 • Enero – Junio de 2014 • ISSN 1692-1399 revistatecnologia@unbosque.edu.co http://www.uelbosque.edu.co/publicaciones/ revista_tecnologia_journal_technology/edicion_actual
La Revista de Tecnología – Journal of Technology ISSN 1692-1399 de la Facultad de Ingeniería de la Universidad El Bosque de Bogotá D.C., Colombia, fundada como publicación académica semestral, propone convertirse en un espacio científico y tecnológico para socializar los avances en las diversas áreas del conocimiento que ocupan a las disciplinas de ingeniería. Pretende dar a conocer y difundir la producción intelectual de investigadores de la comunidad científica en el orden nacional e internacional, los resultados obtenidos de procesos de investigación académica, diseño, análisis y reflexión de orden teórico sobre problemáticas y necesidades de la sociedad, presentes en el contexto de la actuación misma, que son abordadas desde la ingeniería mediante la aplicación del conocimiento científico al desarrollo de soluciones traducidas en innovación tecnológica y de gestión, que promueven la cultura por la vida, su calidad y su sentido, se manifiesta en el análisis del impacto que éstas soluciones tendrán sobre el bienestar de las personas, el medio ambiente y la viabilidad de las organizaciones y la sociedad en su conjunto en búsqueda de nuevos contextos civilizatorios de respeto por el ser humano y la naturaleza. La Revista de Tecnología – Journal of Technology va dirigida a la comunidad científica, académica, al sector productivo y a las organizaciones en general, que mediante los proyectos de investigación encuentran diversas formas de evolucionar y a su vez contribuyen a suplir las necesidades de la comunidad en sociedad dentro del marco del papel que corresponde a las universidad como espacio social de utilidad colectiva. Correo electrónico: revistatecnologia@unbosque.edu.co
PUBLICIDAD
AIMS AND SCOPE
La Revista de Tecnología – Journal of Technology ISSN 1692-1399 invita a dirigir sus órdenes publicitarias a la dirección electrónica revistatecnologia@unbosque.edu.co, a romerojaimea@unbosque.edu.co.
Revista de Tecnología – Journal of Technology of the college of engineering at Universidad El Bosque, Bogotá D.C., founded in 2.002 as an academic journal published on a semester-basis, is the technical and scientific forum to share advances in several knowledge fields of the disciplines of engineering. Its aim is to disseminate and spread knowledge produced by national and international researchers and results acquainted from research processes, theoretical design, analysis and thinking on problems and needs of society, tackling them from an engineering point of view by applying scientific knowledge to develop solutions translated into technological and managerial innovation, promoting a culture for life, its quality and meaning, expressed in terms of impact analysis of these solutions on people well-being, environment, organizations and society viability in search for new civilization contexts focusing on respect for human beings and nature.
ADVERTISING Revista de Tecnología – Journal of Technology ISSN 1692-1399 invites to advertise by inquiring sending an e-mail to revistatecnologia@unbosque.edu.co, or romerojaimea@unbosque.edu.co
FORMA DE ADQUISICIÓN Compra, canje o suscripción. Purchase, exchange or subcriptions. Acheter, echange o de abonnement. Suscripciones y solicitudes de canje. Subscriptions or Exchange. – A besoine D’echange. Avenida Carrera 9 131A-02 Edificio Fundadores, Piso 3 – ala sur Oficina de Publicaciones de la Facultad de Ingeniería, Universidad El Bosque, Bogotá D.C., Colombia. Tel. + 571 648 9000 ext. 1385 – Fax + 571 625 2030 revistatecnologia@unbosque.edu.co
Revista de Tecnología – Journal of Technolgy is directed to the scientific and academic community, to industries and any organization that, by means of research projects find several ways to evolve and bring its contribution to attend needs of communities in society portrayed by the role of university as a social space of collective revenues. e-mail: revistatecnologia@unbosque.edu.co
REVISTA DE TECNOLOGÍA Avenida Carrera 9 131A-02, Edificio Fundadores, Piso 3 – ala sur, Oficina de Publicaciones de la Facultad de Ingeniería, Bogotá D.C., Colombia Aunque todos los anuncios y demás contenidos de la revista dicen estar conforme a estándares éticos, por su inclusión en esta publicación, el anunciante declara que la responsabilidad por perjuicios o daños a personas o propiedades como resultado de la calidad, confiabilidad de los productos, la negligencia, cualquier uso u operación de los métodos, productos, instrucciones o ideas contenidas en el material corresponde enteramente a quien origina la información publicada.
JOURNAL OF TECHNOLOGY Avenida Carrera 9 131A-02 – Edificio Fundadores, Piso 3 – ala sur, Oficina de Publicaciones de la Facultad de Ingeniería, Bogotá D.C., Colombia Although all advertising and further contents are expected to conform to ethical standards, inclusion in this publication does not constitute a guarantee or endorsement of the quality or value of such a product or the claims made of it by its manufacturer. No responsibility is assumed by the publisher for any injury and/or damage to people or property as a matter of product liability, negligence or otherwise, or form, any use or operation of any methods, products, instructions or ideas contained in the material herein.
©Editorial Universidad El Bosque ©Revista de Tecnología – Journal of Technology ISSN 1692-1399 Abreviatura para notas a pie de página, listas y referencias bibliográficas: Rev. Tecnol. Volumen 13 Número 1 Junio de 2014 Periodicidad semestral Indexada en IBN Publindex (categoría C) Índice Nacional de Publicaciones Seriadas, Científicas y Tecnológicas. Admitida en Latindex Ésta revista tiene productos revisados por los miembros del comité de árbitros Sistema Regional de Información en Línea para Revistas Científicas de América Latina, el Caribe, España y Portugal. Enero – Junio de 2014
Comité Editorial
Comité Científico
Comité de Árbitros
Editorial Committee
Scientific Committee
Referee Committee
Yoan Pinzón, Ph.D. Facultad de Ingeniería Universidad Nacional de Colombia, Bogotá
Elizabeth León Guzmán, Ph.D. Facultad de Ingeniería Universidad Nacional de Colombia
Carel Carvajal
Jairo Lenín Ramón, Ph.D. Ingeniería Tecnologías Industriales Universidad Politecnica de Cartagena de España Luis Fernando Gutiérrez, Ph.D. Desarrollo, Sostenibilidad y Ecodiseño, Ecólogo Universidad Externado de Colombia Kai Whiting, MSc Abertay University, Dundee, Scotland, UK Yina Patricia Salamanca Blanco, Dr. Sc., Química Swedish University of Agriculture Science SLU Uppsala, Sweden
Luis Alejandro Rodríguez, Ph.D. Facultad de Ciencias Económicas Universidad Nacional de Colombia Gerardo Aristizábal Aristizábal, M.D. Universidad El Bosque, Colombia Jorge Enrique Mejía, M.Sc. Universidad Central, Colombia
carvajalcarel@unbosque.efdu.co
Yina Patricia Salamanca Blanca salamancayina@unbosque.edu.co
José Luis Villa
jvilla@unitecnologica.edu.co
Héctor Cabra
caqbrahector@unbosque.edu.co
Carlos Castillo
castillocarlos@unbosque.edu.co
Pablo Cesar Ocampo
pabloc.ocampo @ean.edu.co
Universidad El Bosque Presidente de El Claustro President of El Claustro José Luis Roa Benavides Presidente del Consejo Directivo President of the Director Council Carlos Alberto Leal Contreras Rector President Rafael Sánchez París Vicerrector Académico Academic Vice President María Clara Rangel Galvis
Holman Diego Bolívar Barón, Ph.D. Facultad de Ingeniería Universidad Católica de Colombia.
Rodrigo Ospina
Gustavo Sandoval
Leonardo D. Donado, M.Sc. Universidad El Bosque
Gsandoval49@hotmail.com Gustavo.sandoval@profesores.uamerica.edu.co
Vicerrector Administrativo / Managerial Vice President Francisco José Falla Carrasco
Marlene Garzón, M.Sc. Universidad El Bosque
Jeffrey León Pulido
Vicerrector de Investigaciones Vice President of Research Miguel Otero Cadena
decanaturaeducacion@unbosque.edu.co
jeffleon@gmail.com
Alicia García
aliciagarcia300@yahoo.es
Laura Marcela Giraldo
Mario Opazo Gutiérrez Ing., MSc Decano Facultad de Ingeniería Universidad El Bosque
lauramarcelagiraldo@yahoo.es
Constanza Pérez Martelo cperezm@ucentral.edu.co
Editor en Jefe Editor in chief
Rafael More Jaramillo
morejaramillo@unbosque.edu.co
Jaime Alberto Romero, Dott Ing., MGO, MBA ( C ) Universidad El Bosque
Mary Gerrero Useda
mguerrerouseda@gmail.com
Martha Ruth Mendoza
mendozamartha@unbosque.edu.co
Editor Asociado Associate Editor
Camilo Díaz Roman
roman.diaz@profesores.uamerica.edu.co
Ernesto Villegas, Esp. Mgs Universidad El Bosque
Gonzalo Forero Buitrago godzilafol@hotmail.com
SUSCRIPCIONES Y SOLICITUDES DE CANJE Subscriptions or Exchange - A Besoine D’echange Revista de Tecnología – Journal of Technology ISSN 1692-1399 Avenida Carrera 9 131A - 02, Edificio Fundadores, Piso 3 – ala sur, Oficina de Publicaciones de la Facultad de Ingeniería, Bogotá D.C., Colombia Tel. +571 648 9000 ext. 1385 - Fax: +571 625 2030 revistatecnologia@unbosque.edu.co Se permite la reproducción de contenidos citando la fuente.
Tecnología para hábitos y estilos de vida sostenibles
Decano Facultad de Ingeniería Dean Faculty of Engineering Mario Omar Opazo Gutiérrez Concepto, diseño y cubierta Concept, design and cover Centro de Diseño y Comunicación Facultad de Diseño, Imagen y Comunicación Universidad El Bosque Alexander Castañeda Impresión Print Xxxxxxxxx
Contenido / Contents Editorial / Editorial
Sistema de administración estratégica y el capital tecnológico de la organización productiva Strategic system management and the tecnological assets of the productive organization
Ing. Jaime Alberto Romero ............................................................................................................................................................................................................. 4
Rincón del profesor / Teachers corner
Experiencias académicas, profesionales y sociales de un profesor de ingeniería Academic, professional and social experiences a teacher of engineering
Ing. Orlando Tarazona Morales..................................................................................................................................................................................................... 7
Improving Flood Forecasting Skill with the Ensemble Kalman Filter
Mejoramiento de la capacidad de predicción de crecientes de caudales mediante el paquete de Kalman Filter
Humberto Vergara, Yang Hong, Jonathan J. Gourley................................................................................................................................................................... 9
A Critical Evaluation of Post-Normal Science’s role in Climate Change Modelling and Political Decision-Making Una evaluación crítica al rol de la Ciencia post normal en la modelación y toma de decisiones políticas para el cambio climático
Kai Whiting, Luis Gabriel Carmona............................................................................................................................................................................................. 28
Tratamientos Aplicables a Materiales Lignocelulósicos para la Obtención de Etanol y Productos Químicos
Applicable to Treatment Materials for Obtaining Lignocellulosic Ethanol and Chemicals
William Giovanni Cortes Ortiz..................................................................................................................................................................................................... 39
New Generation Networks: a Networking Trend
Redes de nueva generación: Una consolidación del networking
Carlos Arturo Castillo Medina, Octavio José Salcedo Parra, Felipe Forero Rodríguez............................................................................................................ 45
¿En época de crisis, es factible construir el futuro? In times of crisis, it is feasible to build the future?
Ricardo Prada Ospina, Pablo C. Ocampo Vélez......................................................................................................................................................................... 55
Reconocimiento del estado actual del paisaje del municipio de gutiérrez (Cundinamarca), mediante el uso de indicadores de ecología del paisaje Recognition of the current state of gutierrez county landscape (Cundinamarca), using landscape ecology indexes
Daniel León Garay, Fernando Gutiérrez F. ................................................................................................................................................................................ 63
Productividad en Empresas de Construcción: Conocimiento adquirido de las bases de datos
Productivity in Construction Companies: Knowledge acquired from the databases
Hernando Camargo Mila, Rogelio Flórez Díaz.......................................................................................................................................................................... 73
Modelo integral de enfoques de cooperativismo y clusters en PYMES sector artes gráficas de Bogotá
Integrated model of cooperativism approach and clusters in PYMES graphic arts in Bogota
Carlos Gabriel Correa Chaparro, Natalia Torres....................................................................................................................................................................... 78
Microfinanzas Aplicadas a los Municipios del Alto Magdalena y Otras Regiones Microfinance Applied to Municipalities of Alto Magdalena and Other Regions
Rodrigo Pérez Peña, Andrés Felipe Ortiz Zamora...................................................................................................................................................................... 87
Propuesta de retención de personal médico en el área de urgencias de una clínica de nivel III – IV en la ciudad de Bogotá, Colombia
Proposal of medical personnel retention in the emergency area of a III-IV level clinic in Bogota, Colombia
Chicuasuque Cardozo Camilo, Jaime Cornejo Leonardo Andrés, Patarroyo Durán Nubia Isolina....................................................................................102
Revisión sobre los impactos generados por la competencia ente plantas nativas e introducidas como base para el control de Ulex europaeus en la Ciudad de Bogotá D.C
Review of the impacts generated by the competition between introduced and native plants as the basis for control of Ulex europaeus in the City of Bogota D.C
Viviana Osorno Acosta.................................................................................................................................................................................................................108
Producción y Comprensión de Textos: La cognición situada entre lo cotidiano y el b-learning Production and Reading Comprehension: Cognition located between the everyday and the b-learning
Diana Patricia Gutiérrez Sastoque, Diana Yenny Ávila Valbuena...........................................................................................................................................114
Consideraciones tecnológicas y pedagógicas del constructivismo social Technological educational and social considerations constructivism
Diana Castillejo, Diana Garzón.................................................................................................................................................................................................121
Análisis de riesgo ocupacional asociado a la presencia de monóxido de carbono mediante un sistema gráfico Occupational risk analysis associated with the presence of carbon monoxide using a graphic system
José Luis Buitrago Buitrago, Möritz Velásquez Riaño................................................................................................................................................................132
Reseña / Critical Essay
Segunda generación planificación y gestión territorial, como instrumento operativo para la toma de decisiones postconflicto en los PDM y POT Second generation planning and land management operating as instrument for post-conflict decision-making in PDM and POT
Ernesto Villegas Rodríguez...........................................................................................................................................................................................................139
Editorial / Editorial Sistema de administración estratégica y el capital tecnológico de la organización productiva Strategic system management and the tecnological assets of the productive organization
Dott. Ing. Jaime Alberto Romero
Los activos tangibles e intangibles de la organización l recurso humano dinámico y versátil que se adapta a los cambios que el mercado exige para mantener la ventaja competitiva en un entorno moderno se constituye en el más importante de los activos de la organización. Este activo se consolida cuando hay un buen liderazgo y un conjunto de conocimientos y experiencias que el grupo humano almacena durante la operación de la cadena de valor.
E
Al respecto, la misión (el medio a través del cual el grupo desea conseguir lo que quiere) y la visión (la característica que el grupo quiere que los clientes reconozcan de el mismo) (Collins & Porras, 2000) son el sujeto de la estrategia que la organización diseña para que su propuesta de valor sea única y no deba competir por precio en el mercado. Para que tanto la dirigencia organizacional (que se encarga de la estrategia) como el equipo operativo y táctico tengan coherencia cuando desarrollan la estrategia es necesario integrar los activos (tangibles e intangibles) en un sistema organizacional que tenga en cuenta su naturaleza compleja y abierta al entorno. En este sentido los modelos sistémicos que plantean la organización como 5 subsistemas permiten estos activos con relaciones no jerargicas que hacen que cada parte de la organización tenga la potestad de interactuar cuando lo considera conveniente para que la estrategia se desarrolle y sea lo suficientemente dinámica para que responda a los cambios que el entorno cambiante exige(Kast & Rosen-
zwieg, 2004). El primero es el subsistema de razón de ser, entendido como el conjunto de principios, valores, misión, visión y objetivos organizacionales, el segundo la estructura conformada por los conductos regulares de los diferentes cargos que existen en la empresa, el tercero el conjunto de activos tecnológicos que se constituyen en la herramienta para incrementar la eficiencia y velocidad de respuesta, el cuarto el subsistema psicosocial en el que se reunen los elementos culturales de los miembros de la organización, los grupos sociales con sus paradigmas y el conjunto de costumbres que caracterizan la organización y el ultimo que es el subsistema gerencia donde se toman decisiones y se asumen responsabilidades y que administra el grupo.
Las dimensiones internas de la organización según Bollman & Deal Al caracterizar la organización desde el interno un modelo que contrasta y aporta elementos para comprender la motricidad de la misma a desarrollar una tarea lo plantean Bollman y Deal diciendo que la estructura, lo psicosocial, lo político y lo simbólico deben considerarse al momento de plantear estrategias para una cadena de valor (Bollman & Deal, 1991). El liderazgo entonces de la organización debe considerar como son los conductos regulares dimensión estructural), debe alinear las costumbres y paradigmas culturales de
Sistema de administración estratégica y el capital tecnológico de la organización productiva
los miembros con aquella ideología esencia que caracteriza la organización (dimensión psicosocial), debe mapear los poderes y las ansias de poder que cada uno de los miembros tiene ( dimensión política) pero sobre todo debe observar y honrar los valores y aquello que hace famosa a una persona en la organización ( dimensión simbólica) pues cada una de estas dimensiones mueven a las personas a hacer su tarea y si se quiere alineación con el entorno pueden llegar a ser determinantes.
Las fuerzas estratégicas que conforman la ventaja competitiva Comparando las propuestas presentadas por Norton y Kaplan (Kaplan& Norton, 2008) con la del profesor Porter (Porter, 2008) se puede construir un sistema de relaciones en que la naturaleza de la organización dimensionada está sujeta a diferentes visiones que integradas contemporáneamente, permiten al director conservar el mapa estratégico completo para responder a los retos que entornos altamente competitivos exigen. El diagrama siguiente muestra como esas dimensiones se conectan sistémicamente:
Las ventajas competitivas y los activos requieren una integración sistémica para lo cual un buen modelo consiste en ver la organización como un sistema de 5 componentes interactuando con un entorno de manera dinámica. La razón de ser de la organización debe observar la ventaja competitiva refiriéndose a la perspectiva de crecimiento y desarrollo, la estructura debe observar la perspectiva operacional y las necesidades del cliente, lo psicosocial debe orientarse con los activos intangible, lo tecnológico debe referirse a los activos tangibles y lo gerencial debe remitirse la perspectiva financiera y las necesidades del cliente dando la capacidad de cambiar cuando el entorno lo exija. Pero tal vez lo que sea mas importante resaltar en una facultad de ingeniería, es que hoy en día las empresas necesitan un activo tecnológico que administre el conocimiento para que mantengan la ventaja competitiva, este pretende ser el aporte que hace esta revista y este número al incremento de la competitividad de nuestras organizaciones. Junto al capital humano, al liderazgo responsable y al capital organizacional, el capital tecnológico es indispensable para mantener la ventaja competitiva de los negocios y esto se debe administrar integralmente.
• Amenaza de nuevos participantes del mercado enfrentada con innovación
• Poder de negociacion con provee-
• Perspectiva financiera que minimiza
dores fuerte basada en escogencia de mercados plurales
los costos y maximiza la dispobiblidad de capital, flujo de caja sano y abundante si excesos
• Poder de negociacion con compra-
• Perspectiva del cliente que fideliza
dores abundantes que no pongan su condiciones a la hora de adquirir
y cautiva
• La amenaza de productos sustitutos
• Perspectiva de crecimiento y
enfrentada con creatividad
desarrollo caracterizada por la innovacion y proactividad
• Perspectiva de procesos operacionales enfocada en la ecoeficiencia
• Activos fijos útiles, rentables y
Mapa estratégico
Activos tangibles
actuales
• Capacidad operativa basada en
tecnologia, abundancia y versatilidad al cambio
• Capacidad productiva orientada a
• La rivalidad de competidores exisVentaja competitva
Activos intangibles
tentes evitada con diferenciacion y características unicas innovadoras constantemente
• Recursos humanos • Liderazgo • Cultura organizacional • Capital tecnológico
agregar valor con ecoeficiencia para satisfacer las necesidades del cliente
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 4-8 ¦ 5
Dott. Ing. Jaime Alberto Romero
Referencias bibliográficas [1] Collins y Porras, Building your company’s vision, Harvard Business Review, 2000 [2] Kast & Rosenzweig, Enfoque sistémico de organizaciones, Mc grawhill, 2004, capítulo 5. [3] Porter, M. (2008). The Five Competitive Forces That Shape Strategy. Harvard Business Review, 86(1). [4] Kaplan, R., and Norton, D. (2008). Mastering the Management System. Harvard Business Review, 86(1) [5] Robbins and Judge, Essentials of Organizational Behavior, Pearson, 2010 [6] Bolman & Deal, Bolman and Deal’s Four Framework Approach to Leadership, http://www.nwlink.com/~donclark/leader/framwork.html, 1991. consultado el 14 may 2010
El Autor Dott. Ing. Jaime Alberto Romero-Infante Investigador del grupo Choc Izone de la Universidad El Bosque. Profesor Titular del programa de Ingeniería Ambiental, Ingeniería Industrial y Administración de Empresas Universidad El Bosque y Editor en Jefe de la Revista de Tecnología – Journal of Technology de la facultad de Ingeniería y miembro principal del Consejo Administrativo de la misma Universidad. Profesor de Postgrados de la Universidad EAN.
6 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 4-8
Experiencias académicas, profesionales y sociales de un profesor de ingeniería
Rincón del profesor / Teachers corner Experiencias académicas, profesionales y sociales de un profesor de ingeniería Academic, professional and social experiences a teacher of engineering
Ing. Orlando Tarazona Morales
o todos los días le piden a uno que escriba y publique sobre sí mismo, y cuando esto sucede se mezclan una gran cantidad de ideas y emociones relacionadas con el hecho de que otros conozcan aspectos que normalmente no se comparten con todas las personas. En todo caso es un gran honor tener la oportunidad de publicar en esta prestigiosa revista y contar algo de mi experiencia de vida tanto académica como personal.
N
¡Nací el 22 de junio de 1967 en Bogotá en el seno de una familia fundamentada en valores como el amor, el respeto, la tolerancia y la perseverancia. Encontré en el estudio la forma más conveniente de direccionar mi vida y con ese empeño en mente, habiendo terminado el bachillerato, estudié y me gradúe como tecnólogo en Producción Industrial en el año de 1998. Posteriormente, trabajado durante el día y estudiando en la noche, alcancé mi grado de ingeniero industrial en el año de 1997 sostenido esencialmente por mi espíritu emprendedor y un gran propósito de éxito en mente. Fue en la universidad, rodeado de todo tipo de profesores en donde nació mi interés y mi curiosidad hacia la docencia. Como estudiante, encontré una gran oportunidad de hacer clases más amenas en donde los estudiantes pudiéramos ser felices, aprender y construir conocimiento a partir de nuestras propias experiencias. ¡Mi carrera como docente se dio en paralelo con algunos cargos administrativos que ocupé luego de graduarme, tales como: “jefe de planeación”, “coordinador de emprendimiento”, “coordinador de interventoría del programa nacional de incubadoras de empresas”, entre
otros, que desempeñé en varias instituciones educativas. Esa afortunada combinación de trabajo administrativo y docencia me impulsó a seguir estudiando y fue así como, varios años después, con mucho empeño y dedicación, terminé graduándome como Magister en Administración de la Universidad Nacional de Colombia. Por esas cosas de la vida, la balanza terminó inclinándose más hacia el lado de la docencia y terminé trabajando como profesor en varias universidades bogotanas como la Universidad Antonio Nariño, la Universidad Piloto, la Universidad Católica la Fundación Universidad Central y la Universidad Nacional. Siempre fui docente de “hora cátedra” pues, me gustaba organizar mis tiempos para emprender cosas nuevas y compartir más con mi familia, lo cual siempre ha sido mi prioridad. Llegué a la Universidad El Bosque el 28 de enero de 2008 con el fin de hacer un reemplazo temporal a una compañera de maestría y gran amiga que no podía tomar un grupo de introducción a la ingeniería. Implementé con ese grupo una metodología que ya había usado en otras universidades en donde los estudiantes crean dos empresas didácticas que compiten por diseñar, fabricar y vender un producto aplicando las principales herramientas de la ingeniería industrial, aprendidas previamente por medio del seminario alemán. El año pasado se graduaron varios de los estudiantes que tuve en ese grupo de entonces y algunos todavía recuerdan esa experiencia de aprendizaje. Fue la Ingeniera Carolina Rico Restrepo quien, por esa época como Secretaria Académica, me invitó a ser Docente de tiempo completo y quien actualmente, como
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 4-8 ¦ 7
Ing. Orlando Tarazona Morales
Directora del Programa de Ingeniería Industrial, me sigue enseñado, apoyando y respaldando en todas las iniciativas y tareas que como docente, investigador y gestor de proyección social vengo desarrollando desde el campo de la Innovación y el Emprendimiento. Gracias a ese apoyo he logrado llegar al décimo tercer Encuentro de Jóvenes Emprendedores, fundé la línea de investigación en emprendimiento de base tecnológica, y cree la cátedra de creatividad, innovación y emprendimiento. Adicionalmente, como resultado de un proyecto de investigación apoyado por la Universidad, desarrollé un modelo para la promoción y apoyo del emprendimiento en la universidad El Bosque que próximamente se dará a conocer bajo el rótulo del concurso “El Inventor UnBosque”. Aprovechando la motivación de las Directivas y las oportunidades de crecimiento que ofrece la Universidad, he logrado conquistar un importante espacio en el área de Educación Continuada, empleando metodologías pedagógicas dinámicas que han posicionado varios Programas Académicos como el “Diplomado en Marketing Estratégico”, el “Diplomado en Normas Internacionales de Información Financiera” y el “Curso: Cómo hablar correc-
tamente en público y hacer presentaciones efectivas”, que hoy son muy reconocidos tanto en la Universidad como en el sector real. En enero de 2015 cumpliré 7 años al servicio de la Universidad El Bosque y debo reconocer que es grandioso saberse miembro de una familia que respira calidad de vida, no solo como parte de un discurso, sino calidad de vida en todas sus actuaciones, en todas las personas y a todo nivel. Todas las capacitaciones recibidas sobre aprendizaje significativo en el marco del enfoque bio-psico-social y cultural, no solo han impactado mi forma de diseñar y hacer las clases, sino que me han hecho de algún modo un mejor ser humano. Hoy puedo decir con absoluta certeza que me alegra ser parte de la familia El Bosque; es un privilegio poder contribuir a su crecimiento desde mi labor cotidiana. No puedo terminar sin antes dar gracias a mi jefe y a todos mis compañeros del Programa de Ingeniería Industrial, de la Facultad de Ingeniería y de la Universidad en general por el nivel de confianza y la mistad brindada, pues es gracias a ello que he podido y podré seguir desarrollando ideas y proyectos que contribuyan a seguir construyendo una mejor universidad.
El Autor Ing. Orlando Tarazona Morales Ingeniero Industrial, Magíster en Administración y candidato a Doctor en Educación. Profesor de las cátedras de Empresarismo e Introducción a la Ingeniería para el Programa de Ingeniería Industrial, creador de la línea de investigación en emprendimiento de base tecnológica del grupo GINTECPRO, encargado del Encuentro de Jóvenes Emprendedores y Creador de la Cátedra de Creatividad, Innovación y Emprendimiento, de la Facultad de Ingeniería de la Universidad El Bosque.
8 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 4-8
Improving Flood Forecasting Skill with the Ensemble Kalman Filter Mejoramiento de la capacidad de predicción de crecientes de caudales mediante el paquete de Kalman Filter
Humberto Vergara*, Yang Hong**, Jonathan J. Gourley***.
Abstract
Resumen
he purpose of this particular work was to explore the benefits and drawbacks of sequential state updating for flood forecasting and identify factors or mechanisms affecting the updating process and thus controlling its performance. The Ensemble Kalman filter was employed to assimilate hourly streamflow observations into a simple but widely used conceptual rainfall-runoff model for flood prediction purposes. Ensembles were constructed by perturbing model forcing and parameters. Parametric perturbations were obtained from multiple model calibrations with an optimization algorithm. Errors in streamflow observations were characterized through an innovative yet simple empirical model. A sensitivity analysis was performed to evaluate the improvement of the first guess forecast. Additionally, the forecast skill was assessed as a function of lead-time. It was found that the improvement is mainly reflected in runoff volume, while the peak time
T
can be deteriorated as a trade-off of the assimilation process. Overall, ensemble-based models with sequential data assimilation outperformed the best-calibrated deterministic models for lead times of at least 1.5 days. Keywords: Ensemble flood forecasting; Sequential data assimilation.
l propósito de este trabajo en particular fue explorar las ventajas y los inconvenientes de la actualización del estado secuencial para la predicción de crecidas e identificar los factores o mecanismos que afectan el proceso de actualización y, por tanto controlan su funcionamiento. Se empleó el filtro de Kalman Ensemble de asimilar las observaciones de caudal por hora en un modelo de precipitación-escorrentía conceptual simple pero muy utilizado para fines de predicción de inundaciones. Conjuntos se construyeron perturbando modelo forzando y parámetros. Perturbaciones paramétricas se obtuvieron de múltiples calibraciones modelo con un algoritmo de optimización. Los errores en las observaciones de caudal se caracterizaron a través de un modelo empírico innovadora pero simple. Se realizó un análisis de sensibilidad para evaluar la mejora de la primera previsión conjetura. Además, la habilidad de pronóstico se evaluó como una función de tiempo de entrega. Se encontró que la mejora se refleja principalmente en volumen de escurrimiento, mientras que el tiempo de pico se puede deterioró como una compensación del proceso de asimilación. En general, los modelos basados en conjunto con la asimilación de datos secuencial superaron a los modelos deterministas mejor calibrados para los plazos de entrega de por lo menos 1,5 días.
E
Palabras Clave: Ensamble de predicción de crecidas; Asimilación de datos secuencial.
Recibido / Received: Mayo 25 de 2014 Aprobado / Aproved: Mayo 30 de 2014 Tipo de artículo / Type of paper: Artículo de investigacion científica y tecnólogica terminada Afiliación Institucional de los autores / Institutional Affiliation of authors: *Grupo de investigación Choc Izone, Universidad El Bosque y Department of Civil Engineering and Environmental Science, **University of Oklahoma, Norman; Advanced Radar Research Center, ***University of Oklahoma, Norman; NOAA/National Severe Storms Laboratory, Norman. Autor para comunicaciones / Author communications: Humberto Vergara, xxxxxxxxxxx@xxxxxxxxxx.com Los autores declaran que no tienen conflicto de interés.
Humberto Vergara, Yang Hong, Jonathan J. Gourley.
Subject Headings: Floods, Forecasting, Hydrologic models, Kalman filters, Stochastic models, Streamflow.
Introduction Among all geophysical hazards, flooding events are considered to be the ones that produce the most devastating effects on lives and infrastructure on a global scale. On average, floods cause more than 20,000 deaths and adversely affect about 140 million people annually over the globe (Adhikari et al. 2010). During 2010, many major floods occurred worldwide (e.g., Australia, China, Colombia, and Pakistan) causing immeasurable damage and claiming the lives of many people. Many of these were reported by the media to be caused by very unusual heavy rainfall seasons. It is not surprising, thus, that intensive research efforts have been devoted to the prediction of this natural hazard. Due to their success in meteorological forecast applications, data assimilation techniques are becoming popular in different areas of hydrologic modeling, including flood forecasting (e.g. Seo et al. 2003; Komma et al. 2008; Smith et al. 2008; Salamon and Feyen 2009). Data assimilation has been extensively studied in meteorology and oceanography for the past few decades. Indeed, the first attempts of data assimilation may be associated to early numerical weather prediction experiments in the 1920’s where manual interpolation of point observations to a regular grid were performed, which was a tedious and time consuming procedure, and quickly motivated the development of various objective analysis, or data assimilation algorithms (Kalnay 2003). Applications in hydrology have been studied more recently. One of the first studies involving data assimilation was the work of Kitanidis and Bras (1980), where filtering techniques were employed to improve streamflow forecast lead times in a real-time set-up. These early efforts focused on the implementation of updating procedures for operational purposes, but research on the details related to how data assimilation works in hydrologic modeling has become more active only in recent years. Some of the focus in hydrological data assimilation has been on the use of soil moisture data to improve prediction skill of land-surface and hydrologic models (e.g. Houser et al. 1998; 2001; Reichle et al. 2002; Aubert et al.
2003; Huang et al. 2008; Moradkhani 2008). Other endeavors have concentrated on the assimilation of streamflow observations. Seo et al. (2003) applied variational data assimilation to assimilate hourly streamflow, precipitation and potential evaporation data for operational purposes. Vrugt et al. (2005) developed the Simultaneous Optimization and Data Assimilation (SODA) algorithm where the EnKF is used in conjunction with a parameter optimization routine to get improved estimates of parameter and output uncertainties. In a similar work by Moradkhani (2005), the EnKF is used to update both model states and parameters at every assimilation cycle. More recently, emphasis has been placed on flood forecasting applications. Vrugt et al. (2006) discussed the applicability of SODA for real-time flood prediction using the Sacramento Soil Moisture Accounting model (SAC-SMA; Burnash et al. 1973) used operationally by the US National Weather Service (NWS). Neal et al. (2007) and Komma et al. (2008) used the EnKF for flood prediction purposes in different regions. Clark et al. (2008) attempted to propagate information to neighboring basins using an implementation of EnKF with a distributed hydrologic model. However, most of these studies have mainly evaluated the skill of the model prediction from one assimilation cycle to the next one (i.e., the first guess or one-step-ahead forecast) using overall measures of error such as the mean absolute error (MAE) or the broadly used root mean squared error (RMSE). The present study aims to examine the improvement of the hydrologic predictions, achieved through sequential state updating, in a more comprehensive manner. Specifically, three forecast components are analyzed from the first guess and from predictions of different lengths (i.e. lead times): a) Runoff volume error, which is a measure of the capability of the modeling system to predict the total amount of water in the flooding event; b) Peak magnitude error, which is an indicator of model’s ability to predict how rare or extreme an event is; and c) Peak time error, which measures the skill of the model to make timely predictions. Consequently, an event-based approach is utilized. The overarching goal of this research is to develop a better understanding on the benefits and drawbacks of hydrological sequential state updating through the EnKF, as well as on the mechanisms that control its performance. Results from this work are expected to reveal information that can be used to optimize the implementation of EnKF for hydrologic applications.
10 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27
Improving Flood Forecasting Skill with the Ensemble Kalman Filter
The remainder of the document is organized as follows: section 2 presents the implementation of the modeling and state updating system, as well as the study area and datasets used in the experiments. Section 3 presents the experiments, results and discussion. Finally, section 4 summarizes the study and presents the main conclusions.
ember of 1999. Flooding and subsequent catastrophic events caused by these two storms were the trigger of the genesis of the CI-FLOW project. Extreme streamflow events are, therefore, a major concern for this basin. Table 1 presents streamflow levels for different recurrence intervals.
Hydrological data assimilation implementation.
Table 1. Frequency threshold flow levels for Tarboro. Thresholds for the 1, 2, 5, 10, 50, 100 and 500 year return period are presented. Levels are calculated using 24 years of hourly streamflow (1986-2010) and the LogPearson Type III distribution function.
Study area and hydrologic model The Tar-Pamlico River basin in coastal North Carolina, which is part of the National Oceanographic and Atmospheric Administration (NOAA)’s Coastal and Inland Flooding Observation and Warning (CI-FLOW ) project ( Van Cooten et al. 2011) was selected as the area of study for this work. The basin is periodically affected by heavy rainfall from tropical storms and hurricanes, at which time major flood events occur. This study focuses on the sub-catchment of the US Geological Survey (USGS) station located at Tarboro (Streamgage No 02083500; Fig. 1), which includes the upper Tar River and Fishing Creek sub-basins. The catchment has a drainage area of 5,653 km2 and is located on the coastal plain. The Tar is a perennial river with a mean daily flow value of about 62 m3/s at Tarboro. The minimum recorded daily flow is 0.79 m3/s, while the maximum is 1,996 m3/s, which occurred after the landfall of hurricanes Floyd and Dennis in SeptFigure 1. Study area highlighting the upper Tar River and Fishing Creek basins. The hydrography of the basin is also presented.
Frequency Threshold (years)
1
2
5
10
50
100
500
Streamflow 106 346 608 826 1,436 1,756 3,193 (m3/s)
The Hydrologic MODel (HyMOD) was utilized to model streamflow at Tarboro. HyMOD is a lumped Conceptual Rainfall-Runoff (CRR) model, a subject of several hydrologic model calibration studies (e.g. Wagener et al. 2001; Vrugt and Bouten 2003; Vrugt et al. 2008) and more recently of research on hydrological data assimilation (e.g. Moradkhani et al. 2005; Vrugt et al. 2005; Vrugt and Robinson 2007; Smith et al. 2008). HyMOD is a rainfall excess model represented by a nonlinear tank, based on the Probability Distributed Model (PDM) developed by Moore (1985), whose output is routed through two series of linear tanks denoting quick and slow flow components of the streamflow. The Multisensor Precipitation Estimate (MPE) rainfall product was selected as the rainfall forcing for HyMOD. MPE data combines information from satellite, radar, and rain gauges, and employs a blend of automated and interactive procedures for its derivation (Briedenbach and Bradberry 2001; Fulton 2002). Hourly MPE data are available for the Southeast River Forecast Center (SERFC) region at 4-km resolution from 2002 to present. Eight years of data (2002 – 2009) were collected for this study. Monthly mean potential evapotranspiration data were obtained for the same period from the Famine Early Warning Systems Network (FEWS NET; USGS and USAID 2011). Both datasets were spatially averaged for Tarboro’s catchment.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27 ¦ 11
Humberto Vergara, Yang Hong, Jonathan J. Gourley.
Sub-hourly streamflow observations for Tarboro are available from October 1985 to present at the USGS Instantaneous Data Archive (IDA; USGS 2011). Hourly streamflow observations were derived from this dataset for the period of study. Given that the overall goal of this study is to improve flood forecasting, the performance of the hydrologic modeling system is assessed based on the simulation and prediction of significant rainfall-driven events. The criterion here used for defining an event is the frequency in terms of return period. Although the recurrence intervals associated to bankfull flow range from 1.0 to 2.5 years, a widely accepted average value for flood level is the 2-years return period (e.g. Carpenter et
al. 1999; Gourley et al. 2011). In this work, flows exceeding the 1.0 year return period are considered an event while those exceeding 2.0 years level are assumed to be flooding events. Twelve storm events, which produced flows exceeding the criterion described above, were selected from the past events inventory of the National Weather Service (NWS) forecast office at Raleigh in North Carolina (RAH-WebTeam 2011) and by examining the observed streamflow time series. Table 2 lists these events and some details related to them. Five of the eight flow events were driven by major storms (either tropical storm or hurricane), which are of particular concern for the region.
Table 2. Selected events for the study. A short description indicating the type of storm, the exceeded frequency threshold, and the peak flow are presented. Peak flow is based on hourly streamflow at Tarboro.
Date
Short Description
Exceeded Recurrence Interval (years)
Peak Flow (m3/s)
March 1, 2003
No storm associated
2.0
374
March 20, 2003
Heavy rain event
2.0
402
April 9, 2003
No storm associated
4.0
595
May 23, 2003
No storm associated
1.5
337
September 17, 2003
Hurricane Isabel
1.5
273
August 9, 2004
Hurricane Charley
1.5
323
January 14, 2005
Severe weather event
1.0
209
June 14, 2006
Tropical storm Alberto
6.0
694
August 31, 2006
Tropical storm Ernesto
1.5
271
November 12, 2006
Severe weather event
2.0
433
April 3, 2008
Heavy rain event
1.0
179
November 10, 2009
Tropical storm Ida
1.0
203
12 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27
Improving Flood Forecasting Skill with the Ensemble Kalman Filter
Model Calibration The hydrologic model was automatically calibrated in order to produce deterministic predictions to benchmark the performance of the assimilating system. The parameters of HyMOD were estimated using the DiffeRential Evolution Adaptive Metropolis (DREAM; Vrugt et al. 2009). DREAM is an adaptation of SCEM-UA ( Vrugt et al. 2003) that uses a more sophisticated method for the estimation of the posterior probability density function of parameters in complex, high-dimensional sampling problems. The algorithm employs Markov Chain Monte Carlo sampling and uses a formal likelihood function. DREAM separates behavioral from non-behavioral solutions using a cutoff threshold that is based on the sampled probability mass ( Vrugt et al. 2008). Time series of observed streamflow are used to objectively assess model’s performance based on the proposed parameter values. The objective function used for the calibration was the Sum of Square Residuals (SSR), given by: SSR = ∑ iN=1 ( Qiobs − Qisim ) (1) 2
Where Qobs and Qsim are the observed and simulated streamflow, respectively, at time i and N is the number of data points. Parameter bounds used for the calibration of HyMOD are presented in Table 3. These ranges were derived from prior experience gained during calibration tests (not shown here).
A subset of data used for the calibration (i.e., calibration period) was selected objectively using a MATLAB® script that evaluates the data, for a prescribed length, based on information from total amounts and frequency of both rainfall and runoff. A length of three years was defined for the calibration process. The algorithm collected data for three-year windows starting from the beginning of the period of study and then advancing the window by three months until the last three years of available data are analyzed. Since the interest of the present study is flood prediction, wet periods with extreme events were the target. Although it is common to select one period for calibration in deriving deterministic models, three calibration periods were identified for this experiment. Figure 2 presents rainfall and runoff data for the selected periods. A common characteristic of the three periods is that they can all be considered wet periods (see panel a). The first period has the highest runoff as shown in panel b), and so is named “High Figure 2. Quantitative analysis of the selected three-year calibration periods; a) Flow Duration Curves (FDC) compared to the Period Of Data (POD) FDC. Vertical dashed lines indicate 10 and 90% probability of exceedance; b) Accumulated Runoff; c) Accumulated rainfall; d) Percent of time the 1,2,3,4 and 5 recurrence intervals are exceeded.
Table 3. Ranges for HyMOD parameters values specified for DREAM.
Model Parameter
Lower Bound
Upper Bound
Cmax
0
100,000
bexp
0
2
α
0
1
Nq
1
10
Rq
0
1
Rs
0
1
Wet”. The second period contains flows that most closely approximate the average or typical flow regime of the basin as indicated by the mid-segment of the FDCs in panel a), therefore referred to as “Avg Wet”. The third and last period covers flow values as high as those in the “High Wet” period but also has the minimum flow values,
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27 ¦ 13
Humberto Vergara, Yang Hong, Jonathan J. Gourley.
thus named “Broad Wet”. The total amount of runoff and rainfall of the three periods are comparable, with the exception of the runoff of period “Avg Wet”. Additionally, the three periods contain some extreme events as shown by panel d), which is a desirable characteristic given the modeling objective of this study. In order to identify the best deterministic model, performance of the resulting models parameterized with the different parameter sets was evaluated on an independent time period. Table 4 presents the results of the three calibration runs during the calibration period and Table 5 during independent validation periods. The measures presented in these two tables are widely used in hydrologic modeling studies for assessing the overall skill of the model for simulating the long-term basin response to rainfall through a time series of streamflow. The percent bias is a measure of total volume difference (Smith et al. 2004) and is given by:
∑ (Q Bias ( % ) = ∑ N
i =1
sim i
N
− Qiobs )
obs i =1 i
Q
× 100 (2)
Table 4: Calibration results during calibration period. The calibration period for every run is presented along with measures of closeness. NSCE for flows exceeding the 1-yr return period (H1YRP) and the 2-yr return period (H2YRP) thresholds are also included.
Table 5. Calibration results during validation period. This period refers to intervals other than the calibration period. Measures of closeness are presented. NSCE for flows exceeding the 1-yr return period (H1YRP) and the 2-yr return period (H2YRP) thresholds are also included.
Calibration
Bias (%)
RMSE (%)
NSCE
High Wet
70.35
131.81
0.24
0.20
-1.73
Avg Wet
15.54
110.98
0.31
-0.90
-9.84
Broad Wet
67.19
122.66
0.32
0.18
-2.96
Calibration
High Wet 09/01/02 – 08/31/05
0.63
74.53
0.39
-0.47
-8.61
Avg Wet 11/23/03 – 11/22/06
-10.39 68.99
0.63
0.17
-2.10
Broad Wet 06/01/02 – 05/31/05
The range of Bias (%) is between -∞ to ∞, with a perfect value of zero. A Bias less than zero indicates underestimation, while a positive value implies the opposite. The percent Root Mean Square Error (RMSE) refers to the random error of the model performance ( Willmott and Matsuura 2005) and is computed as:
∑ (Q N
Q
0.37
-0.45
-9.52
− Qiobs )
2
× 100
obs
(3)
obs Where Q is the mean of the observations. RMSE (%) ranges from zero to ∞, with zero as its perfect value. Lastly, the Nash-Sutcliff Coefficient of Efficiency (NSCE) which is a measure that indicates how well the model fits the observed data (Krause et al. 2005), is given by:
∑ (Q NSCE = 1 − ∑ (Q i =1 N
i =1
77.64
sim i
N
RMSE ( % ) =
N
5.70
NSCE
The range of Bias (%) is between -∞ to ∞, with a perfect value of zero. A Bias less than zero indicates underestimation, while a positive value implies the opposite. The percent Root Mean Square Error (RMSE) refers to the random error of the model performance ( Willmott and Matsuura 2005) and is computed as:
i =1
Bias RMSE NSCE NSCE NSCE (%) (%) (H1YRP) (H2YRP)
NSCE
(H1YRP) (H2YRP)
sim i obs
− Qiobs )
− Qiobs )
2 2
(4)
The range of the NSCE score has an upper bound value of 1.0 (perfect) and a lower bound of -∞. A negative value of NSCE indicates that the mean value of the observations is a better predictor than the model being evaluated. Additionally to the results in Table 4 and Table 5, aggregated
14 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27
Improving Flood Forecasting Skill with the Ensemble Kalman Filter
event-based error statistics developed by Smith et al. (2004; equations 5 - 7) were computed for the specific events considered in this study and are presented in Table 6 ER
EP
(% ) = ∑
Bi
NYavg
(% ) = ∑
ET
N i =1
N i =1
× 100 (5)
QP ,i − QSP ,i
NQPavg
( hours ) = ∑
N i =1
× 100 (6)
TP ,i − TSP ,i N
(7)
Table 6. Calibration results from the event-based evaluation. The percent absolute event runoff error (ER), percent absolute peak error (ER), and percent absolute peak time error (ET) are presented.
Calibration
ER (%)
EP (%)
ET (hours)
High Wet
42
44
24
Avg Wet
41
48
27
Broad Wet
37
43
24
Where ER is the aggregated event-based runoff error, EP is the aggregated event-based peak error, and ET is the averaged event-based peak time error. Bi is the bias of the i-th event, Yavg is the average observed flood event runoff volume of N events, QP is the observed peak discharge, QSP is the simulated peak discharge, QPavg is the average observed peak discharge of the N events, TP is the observed peak time, and TSP is the simulated peak time. Even though the calibration from the “Avg Wet” period had the best long-term performance for the calibration interval, all three deterministic models performed very similarly during the independent validation period. As for the event-based analysis, the “Broad Wet” Model seems to be the best. However, the three models’ skill measures are comparable. Therefore, all deterministic models are considered as reference benchmarks in the following data assimilation experiments.
Assimilation approach The technique selected in this study for updating model states was the Ensemble Kalman Filter (EnKF; Evensen 2003). The EnKF is a Monte Carlo simplification of the Extended Kalman Filter (EKF; Jazwinski 1970). The most important advantage of EnKF is that background error statistical information is retrieved from the ensembles, thus the linearized model and observation operator of the EKF are not necessary. There are two approaches in EnKF: Stochastic and Deterministic (Hamill 2006). The difference between the two is that in the former observations are perturbed by adding noise from a normal distribution with zero mean and standard deviation R, while the latter does not perturb observations. Perturbations of the observations are necessary because otherwise the error covariance of the analysis is systematically underestimated (Hamill 2006; Wang 2009). However, the noise added to the observations can have a detrimental effect (Clark et al. 2008). Whitaker and Hamill (2002) developed a deterministic EnKF version entitled the Ensemble Square Root Filter (EnSRF). The EnSRF uses a reduced Kalman gain (i.e. the weight of the innovations) to update the perturbations. The equations for this implementation are as follows: X ib,k = M i −1,k ( X ia−1,k ),K = 1,2,3,...,L (8) Xb =
1 L b ∑ k=1 X k (9) L
X ′kb = X kb − X b (10) b
Where L is the ensemble size, x( i,k ) is the kth member of the background ensemble, x b is the mean of the backb ground ensemble, and x ' k is the perturbation. As for the background error covariance, its value is calculated from the ensemble: Pb HT ≈
b 1 L b b b T ∑ K =1 ( X k − X )(H(X k ) − H ( X )) (11) L −1
HP b H T ≈
1 L b b b b T ∑ k =1 ( H ( X k ) − H ( x ))( H ( x k ) − H ( x )) (12) L −1
The data assimilation step is divided into mean update and the perturbation update. The mean update:
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27 ¦ 15
Humberto Vergara, Yang Hong, Jonathan J. Gourley.
)
(
x a = x b + K y − H ( x b ) (13)
multipliers were generated by a simple model described in the work of Clark et al. (2008), and has the following form:
K = P b H T ( HP b H T + R )−1 (14)
p′ = p×ϕ (18)
Where K is the traditional Kalman gain. Now, the perturbation update: X ′ka = X k′b − K H ( X kb )′ (15) −1
R K = 1 + K (16) b T HP H + R Where K is the reduced Kalman gain. It can be seen that the perturbations are reduced less with K than with K, yielding the same effect as with the EnKF with perturbed observations. The final analyses are then computed by: x = x + x ′k (17) a k
a
a
The input data for the filter are ensembles of the states to be updated, an ensemble of the observation priors, and the actual observation along with its error information. The states in HyMOD are the initial soil moisture C, the content of water in the slow tank x4, and the content of water in each of the quick flow tanks denoted by x1, x2 and x3. The implementation of HyMOD used in this study allows for different number of quick flow tanks Nq, and so the number of states will vary as the value of Nq changes. The ensembles of model states and streamflow are produced perturbing different components of the modeling system. In this experiment, forcing and parameters are the only model components being perturbed prior to the assimilation of observed streamflow (model states are also perturbed through EnKF). It is assumed that uncertainty from other sources (e.g. model structure) is implicitly accounted for to a certain degree by the ensembles and, thus, what is not explicitly addressed can be neglected. A more detailed explanation of the perturbations is presented in the following section. Error in observations is explicitly treated through a simple approach as explained in section 2.3.3.
Characterizing forcing, model and observation errors Rainfall To account for uncertainty in model forcing, rain rates were perturbed using uniform random multipliers. The
Where p is a time series of the observed precipitation, p’ is the perturbed time series of precipitation, and ϕ is the uniform random multiplier defined by:
ϕ = (1 − ε ) + 2 × u × ε (19) Where u is a uniform random number such that ϕ is a realization from a uniform distribution ranging from (1 – ε ) to (1 + ε ), and ε is the expected error in the precipitation. This model is mainly designed to account for volume error in the precipitation, an important source of uncertainty in hydrologic predictions. Since rainfall used in this study is the product used operationally in the SERFC, its error is assumed to be relatively low and of random nature. However, values of ε were arbitrarily inflated to account for the effect of basin aggregation.
Model parameters Besides finding the best model parameters values, given a set of observations and the objective function used during calibration, DREAM has the ability to store information related to parametric uncertainty. Vrugt et al. (2008) discuss how the probability distribution functions of the hydrologic model parameters produced by DREAM contain all required information to summarize the predictive uncertainty. Data from the deterministic calibrations performed with DREAM were thus used to obtain parameter perturbations. The multiple calibration runs described in section 2.1.1 were selected with the purpose of incorporating information from different sets (i.e. calibration periods). Even though these periods were selected to have wet conditions and extreme high flow events, the objective function in DREAM is intended to represent the mean error of the simulations, and therefore, parameter sets derived from these calibrations might not be skillful for reproducing extremes. For this reason, four additional calibrations with modified objective functions were run.
16 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27
Improving Flood Forecasting Skill with the Ensemble Kalman Filter
Instead of evaluating the SSR of the entire streamflow time series, a threshold is defined to separate high flows from low or average flows. The four threshold-based calibrations are referred to as H1YRP, L1YRP, H2YRP, and L2YRP. The first two used the 1-yr return period level as a threshold, while the latter two applied the 2-yr level. The “H” refers to flows higher than the threshold, while the “L” indicates the opposite. This information was expected to be translated into a more complete estimation of the parametric uncertainty than if doing it from a single calibration exercise.
interval. This assumption agrees with Sorooshian and Dracup (1980) who claim that high flows are more likely to have larger errors with higher deviations compared to low flows. It is well known that the rating curve uncertainty increases when the flow exceeds river bank-full conditions (i.e. during flooding), which is expected to be represented by this error model. The relationship between streamflow and recurrence interval for the study basin can be described by the following simple equation:
The perturbations were extracted from DREAM by sampling from the parameter sets’ pdf found during the calibration process. Since DREAM starts with no information about the prior distribution of the parameter sets (i.e. it assumes the distribution is uniform), the algorithm spends several iterations until reasonable parameter sets are proposed. Therefore, it was necessary to define a subspace of the parameter sets population (i.e. all parameters sets tested in DREAM) to assure stability of the perturbations and avoid misspecification of error statistics during the assimilation process, which can lead to ensemble simulations departing from the solution (i.e. filter divergence). Subspaces were then defined for each calibration run and different samples were obtained from them.
Where Q is the streamflow and RP is the recurrence interval in years. Equation (14) was derived by a log regression fit for flows with return periods between 1 and 20 years (Fig. 3 b). Vrugt et al. (2005) fitted a spline function to observation data for the Leaf river watershed and found that the size of streamflow error almost increases log-linearly, which agrees with the assumption made here. Equation (20) is thus used as a proxy to model streamflow observation errors.
Q = 308.56 ln RP + 106.04 (20)
Figure 3. a) Rating curve for Tarboro (USGS gage station 02083500) and uncertainty bounds estimated by the frequency-based streamflow error model; b) Streamflow – Return Period relationship for recurrence intervals between 1.0 and 20.0 years. Modeled observation error is also plotted on the secondary y-axis.
Streamflow observations A simple model for estimating uncertainty in streamflow observations was developed for this study. The error model is based on standard error values reported in the literature (e.g. Sauer and Meyer 1992; Di Baldassarre and Montanari 2009), and frequency analysis of streamflow to address error heteroscedasticity in rating curve estimates. While this simple model can serve the purpose of this particular study, it is acknowledged that a strict treatment of the rating curve uncertainty deserves more elaborated and comprehensive approaches such as the ones proposed by Petersenoverleir (2004), Di Baldassarre and Montanari (2009), and McMillan et al. (2010), although these are not always easy to implement, especially when the required data is not available. To tackle the issue of heteroscedasticity, it was assumed that streamflow observation errors behave as a function of the rareness of the flow in terms of recurrence Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27 ¦ 17
Humberto Vergara, Yang Hong, Jonathan J. Gourley.
For the case of flows that are below the 1-year threshold, a constant error value was assigned. Sauer and Meyer (1992) report that the error associated to good measurements is 3 to 6%. In their study of 17 different cross-sections and a wide range of streamflow values in the Po river in Italy, Di Baldassarre and Montanari (2009) found that the total uncertainty in the streamflow observations ranged from about 6 to 42%. In this study, a value of 5% was set for the error of low or average flows, and was used as the intercept in the log-linear component in the following equation: <1.0 yr Qerror (%) = { 14.4 InRP + 55,, RP RP ≥1.0 yr (21)
RP can be computed for any given flow using the reverse form of (20). The model was tested on historical field measurement data collected by USGS (Fig. 3 a).
Flood forecasting with EnKF Two experiments involving the datasets and tools previously described were designed to analyze how data assimilation helps to improve flood forecasting. The first one was a sensitivity analysis to assess the overall improvement of the forecasts. The second one was a traditional evaluation of flood forecast skill of the modeling-assimilating system and a comparison with the benchmarks (i.e. deterministic models).
Sensitivity analysis The primary objective of the sensitivity analysis was to examine how the data assimilation implementation improved the forecasts of the following event-based objectives: runoff volume, peak magnitude, and peak timing. A total of 484 ensembles were derived varying different characteristics including the nature of the perturbations, the size, and the spread of the ensemble. Based on the nature of the perturbations, the ensembles could be rainfall-based, parametric-based, or combined. Rainfall perturbations were generated by using values of ε (see section 2.3.1) in the range between 0.1 and 2.0. Model perturbed ensembles were combined with rainfall perturbations to create the “Combined” ensemble type. Different ensembles for these three categories were generated with sizes ranging from ten to two hundred members. The spread was given in terms of the mean
standard deviation of the ensemble. Five of the selected events (within the “Avg Wet” period) were simulated with and without data assimilation using the first guess (i.e. the one-step-ahead forecast) to compute error and improvement statistics. Improvement scores were defined based on the aggregated event-based error measures defined in section 2.1.1: I R (%) =
I P (%) =
I T (%) =
E R ,noDA − E R ,DA E r ,noDA
E P ,noDA − E P ,DA EP,noDA ET ,noDA − E T ,DA ET ,noDA
×100 (22)
×100 (23)
×100 (24)
Where IR, IP, and IT are the percentage relative improvement in forecasting runoff error, peak error and peak time error, respectively, following data assimilation. The subscript noDA refers to the error associated to the ensemble mean simulation without data assimilation, while the subscript DA is for the error associated to the ensemble mean simulation after assimilating streamflow observations. Where IR, IP, and IT are the percentage relative improvement in forecasting runoff error, peak error and peak time error, respectively, following data assimilation. The subscript noDA refers to the error associated to the ensemble mean simulation without data assimilation, while the subscript DA is for the error associated to the ensemble mean simulation after assimilating streamflow observations. Results from the sensitivity analysis are summarized in histograms for measure of improvement (see Fig. 4 a-c). Of the total number of ensembles generated for this experiment, only about 38% improved in all three objectives following data assimilation. The other portion is composed of cases where the forecast was deteriorated for at least one of the three objectives (light gray bars in Fig. 4). In general, the timing was the measure with the highest degree of deterioration (i.e. improvement with lowest probability of occurrence), while the peak
18 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27
Improving Flood Forecasting Skill with the Ensemble Kalman Filter
magnitude had the greatest improvement (i.e. the sum of the dark gray bars), although closely followed by runoff volume. In terms of levels of effectiveness, the runoff volume was superior for improvement rates above 30% (see Fig. 4 d) and also had the highest rates of improvement with a maximum of about 96%. These results suggest that the main forecast component improved by sequential data assimilation is the runoff volume. The improvement in predicted runoff volume, however, is contrasted by the deterioration in peak timing. Both phenomena might be explained by the fact that the error statistics are evaluated for each assimilation cycle, and thus are solely based on bias (i.e. the difference in magnitude of the predicted and observed variable). Additional information from previous cycles could potentially be included in the updating process in order to address the timing issue (e.g. the slope between the streamflow values of the prior and current cycles can be used to determine whether the predicted flow will be in the rising or in the recession limb of the hydrograph). However, the effect that this approach would have on the total skill of the forecast and/or the stability of the updating process is unknown and beyond the scope of the present study. In addition to the overall assessment of event-based statistical improvement following data assimilation discussed above, information from the sensitivity analysis was used to select an ensemble for the evaluation of forecasts for single events. Association between the performance of the filter and the size and spread of the ensembles was first evaluated. Figure 5 presents scatterplots for the three directions of improvements versus ensemble size (upper panels) and ensemble spread (lower panels). Although it was observed that increasing the size of the ensemble could help in cases where the filter diverged (not shown here), it can be seen from the figure that the size of the ensemble does not have a clear impact on the improvement. The spread, on the other hand, has a well-defined direct relationship with all directions of improvement. However, it is important to understand the meaning of the spread in terms of total and specific uncertainty in the modeling system. Considerations in the next step of the selection process helps to elaborate on this issue. Figure 4. Distribution of the relative improvement in event-based error statistics for the first guess: a) Runoff error; b) Peak magnitude error; c) Peak time error; and
d) Probability of exceedance for a), b) and c). The light gray bars (far left) indicate cases where the assimilation process deteriorated the forecast. The magnitude of the deterioration was not considered.
The best ensemble in each of the directions of improvement was identified from the portion of ensembles that reduced all three types of error (i.e. Ep, Er and Et). The size was fixed to 60 while the rainfall error was set to a maximum of 50% and parametric perturbations were limited to single calibration runs (i.e. no combination among calibration runs). In this selection approach, the modeling error was characterized by individually constraining each major source of uncertainty (i.e. model parameters and forcing) to ranges that are believed to be reasonable. The first two rows of Table 7 present the selected 60-member ensembles. Although the improvement rates are high, Fig. 5 shows that better performance of the filter is achieved with higher values of spread than the spread represented by the selected ensembles. The relatively low spread is most probably caused by deficiencies in the methodology for generating parametric and rainfall perturbations. Ensembles with higher spread, and thus higher improvement rates, were those generated by combining parametric perturbations from different calibration runs (e.g. “Avg Wet + H2YRP”) and by allowing the rainfall error to be higher than 50% in the uniform random multiplier model. In this way, deficiencies in one component are compensated in other parts, and so the uncertainties from the modeling system are not treated as separate sources but as a whole, which results in better characterization of the total uncertainty. The best from this group of ensembles is presented in the last row of Table 7 and is used for the forecast evaluation in the next section.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27 ¦ 19
Humberto Vergara, Yang Hong, Jonathan J. Gourley.
Table 7. Best 60-member ensembles from sensitivity analysis. The selection criteria were the highest rates of improvement.
Criteria
Ensemble
Spread (m3/s)
Er (%)
Ep (%)
Et (hours)
Ir (%)
Ip (%)
It (%)
Ir
Avg Wet 50% Rain Error
32
2
26
13
84
39
35
Ip/It
L2YRP 50% Rain Error
57
5
26
17
70
48
61
Ir/Ip
L1YRP + H1YRP 160% Rain Error
116
5
12
10
87
67
60
Figure 5. Relationship between ensemble size and forecast improvement (upper panels) and between ensemble spread and forecast improvement (lower panels).
Event-based forecast evaluation To assess the forecast skill of the hydrologic model with data assimilation, four of the selected events outside the period used in the sensitivity analysis were simulated to emulate a real-time system. At time t = i, observations are assimilated while at times t > i, no assimilation of streamflow was performed while the model runs the forecast. However, quantitative precipitation forecast (QPF) products were not utilized. Instead, the same Quantitative precipitation estimate (QPE) product (i.e. MPE) was used in the forecast portion of the simulation. In this way, the system would be run under “ideal” conditions, using the best available forecast information. This also prevents the introduction of uncertainty from model inputs that has not been properly accounted for (i.e. the input error model used herein is assumed to only apply for the case of QPE). More importantly, the present study
focuses on the effect of the assimilation of streamflow observations over the forecast. The best ensemble from the sensitivity study was employed for the assimilation and forecast runs, and the deterministic models were used as benchmarks. Figures 6, 8, 10 and 12 present the hydrographs while Figs. 7, 9, 11 and 13 contain plots of error statistics (i.e. bias, peak error, and peak time error) as a function of forecast lead time. A summary of the one-step-ahead forecast skill for all of the independent events are presented in Table 8. Overall, it is evident that the assimilating system outperformed the deterministic models on the one-step-ahead forecast of all the events. The forecast skill of the updated ensemble mean was superior for lead times of at least 3 days in terms of runoff volume and peak magnitude, and for general lead times of 1.5 days in terms of timing of peak flow. Table 8 shows that the forecast of only two of the seven events was deteriorated in regards to timing. Table 8. Summary of error and improvement measures for the one-step-ahead forecast of events used for validation.
Event
March 1, 2003 March 20, 2003 April 9, 2003 May 23, 2003
Peak Time Bias Ir Error Error (%) (%) (%) (hours)
Ip (%)
It(%)
-11.2
-19.2
-83.0
79.6 69.6
-45.6
28.1
-22.5
-6.0
60.8 66.2
89.5
-10.4
-15.4
10.0
77.9 61.2
80.0
-11.1
-10.1
-3.0
57.8 62.8
88.5
20 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27
Improving Flood Forecasting Skill with the Ensemble Kalman Filter
Event
September 17, 2003 April 3, 2008 November 10, 2009
Peak Time Bias Ir Error Error (%) (%) (%) (hours)
Ip (%)
It(%)
2.0
8.7
82.0
96.5 84.1 -228.0
-4.1
-2.3
-6.0
82.6 89.8
-1.3
-11.0
0.0
33.3
99.4 92.7 100.0 Figure 8. Same as Figure 6 but for the March 20, 2003 event.
Figure 6. One-step-ahead forecast of the March 01, 2003 event. Ensemble prediction is compared to deterministic models and observed streamflow. a) Simulation without data assimilation; b) simulation with data assimilation. Error measures are presented for the ensemble mean.
Figure 9. Same as Figure 7 but for the March 20, 2003 event.
Figure 7. Forecast error measures as functions of leadtimes for March 01, 2003 event. a) Runoff error in terms of percent bias; b) Peak magnitude error in cubic meters per second (m3/s); c) Peak time error in hours. Lead-times range from 0 to 120 hours (5 days).
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27 ¦ 21
Humberto Vergara, Yang Hong, Jonathan J. Gourley.
Figure 10. Same as Figure 6 but for the April 09, 2003 event.
Figure 12. Same as Figure 6 but for the May 23, 2003 event.
Figure 11. Same as Figure 7 but for the April 09, 2003 event.
Figure 13. Same as Figure 7 but for the May 23, 2003 event.
22 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27
Improving Flood Forecasting Skill with the Ensemble Kalman Filter
The performance of the assimilating system still indicates some room for improvement. In general, the runoff volume and peak magnitude of the measured streamflow were underestimated. However, the prediction lied within the uncertainty bounds of the observations for most of the events. Moreover, it is possible that in some cases, like the events in March 01 and March 20 of 2003, the errors in either the rainfall estimates or the observed streamflow are much higher than expected, as the predictions from the deterministic models suggest. In these two specific cases, the updating process actually did a reasonable job accounting for high errors and dramatically improving the forecast, most likely due to the ensemble characteristics discussed in the previous section (i.e. high spread obtained from the combination of two different parametric perturbations plus the high values of rainfall multipliers). Even though timing was identified as the major shortcoming as previously discussed, the prediction of most of the independent events were greatly improved with relatively low errors. It is important to highlight that although an analysis on ensemble characteristics that favor the performance of the filter was presented, the objective of this work was not to optimize the assimilating system, but rather to understand how sequential data assimilation improves the forecast and to identify factors affecting the updating process.
Summary and conclusions This study explored the application and implementation of hydrological data assimilation for flood prediction using a Monte Carlo technique based on the Kalman filter. The study region was the Tar River basin in North Carolina in the United States, a basin of NOAA’s CI-FLOW project where major flooding events have occurred due to heavy rainfall from tropical systems. Nine storms were selected from the past significant events inventory of the NWS forecast office at Raleigh in North Carolina, plus three additional events with peak flow values exceeding the 2-yr recurrence interval. A simple but widely used lumped, conceptual rainfall-runoff model was employed to simulate streamflow at the basin outlet. The model was calibrated with a novel global optimization algorithm called DREAM, which was also used to generate parametric perturbations for ensemble prediction. Perturbations on rainfall were produced using random uniform scalars to account for volume errors. Errors in streamflow obser-
vations were characterized through an innovative yet simple empirical model. A sensitivity analysis was conducted on 484 different ensembles varying in size, spread, and the perturbations used to produce them (i.e. parameter perturbations, rainfall perturbation, and combination). Event-based aggregated statistics were computed for each ensemble from simulations of five of the selected events, to determine the overall direction of improvement and relationships between ensemble attributes (i.e. size and spread), and the performance of the assimilation technique. Additionally, specific events were simulated emulating a real-time forecasting system to evaluate the skill of the filter as a function of different lead times. The main objective of this particular work was to analyze some of the benefits and drawbacks of sequential state updating through the EnKF for flood forecasting, as well as some of the mechanisms that control its performance. Specifically, the improvement on three forecast components were analyzed from the first guess and from forecasts of different lengths (i.e. lead times): a) prediction of the total amount of water in the flooding event, represented by the runoff volume error; b) prediction of how rare or extreme an event is, represented by the peak magnitude error; and c) prediction’s timing, represented by the peak time error. The most important conclusions and remarks derived from this study can be summarized as follows: Data assimilation improved the forecast skill of the hydrologic model for the events considered. Overall, the reduction of volume errors was more effective than that of peak magnitude and peak time errors. The timing of the prediction was found to be more prone to deterioration than improvement. This might be a consequence of the fact that the difference between simulated and observed streamflow is the only information (i.e. innovation) considered in the assimilation process at every cycle. Strong association was found between the spread of the ensembles and the performance of the filter in terms of the rates of improvement. The opposite was found regarding the size of the ensemble. Combination of different parametric perturbations and exceedingly high error bounds for the rainfall perturbations resulted in higher spread of the ensembles, and
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27 ¦ 23
Humberto Vergara, Yang Hong, Jonathan J. Gourley.
thus better performance of the updating system, most probably due to compensation effects on error characterization deficiencies. Ensemble-based models with data assimilation outperformed the best deterministic models found in this study for lead times of at least 3 days for runoff volume and peak magnitude, and 1.5 days for timing. Although skillful predictions of streamflow were obtained with the ensembles tested in this study, it is clear that further improvement can still be achieved. More research towards optimization of ensemble prediction and implementation of data assimilation is necessary to improve hydrologic forecasts. Future efforts will include an in-depth analysis of the error statistics during the assimilation process and an assessment of the value of using more sophisticated and complex error models for observations and forcing data, especially for the case of QPF.
References [1] Adhikari, P., Y. Hong, K. Douglas, D. Kirschbaum, J. Gourley, R. Adler, and G. Robert Brakenridge (2010). "A digitized global flood inventory (1998– 2008): compilation and preliminary results." Natural Hazards 55 (2):405-422. [2] Aubert, D., C. Loumagne, and L. Oudin (2003). "Sequential assimilation of soil moisture and streamflow data in a conceptual rainfall–runoff model." Journal of Hydrology 280 (1-4):145-161. [3] Briedenbach, J. P., and J. S. Bradberry (2001). "Multisensor precipitation estimates produced by the National Weather Service River Forecast Centers for hydrologic applications." Paper read at 2001 Georgia Water Resources Conference, at Institute of Ecology, University of Georgia, Athens, Ga. [4] Burnash, R. J. C., R. L. Ferral, and R. A. McGuire. 1973. A general streamflow simulation system Conceptual modeling for digital computers. In Report by the Joint Federal State River Forecasts Center, Sacramento, California. [5] Carpenter, T. M., J. A. Sperfslage, K. P. Georgakakos, T. Sweeney, and D. Fread (1999). "National threshold runoff estimation utilizing GIS in support of operational flash flood warning systems." Journal of Hydrology 224:21-44.
[6] Clark, M., D. Rupp, R. Woods, X. Zheng, R. Ibbitt, A. Slater, J. Schmidt, and M. Uddstrom (2008). "Hydrological data assimilation with the ensemble Kalman filter: Use of streamflow observations to update states in a distributed hydrological model." Advances in Water Resources 31 (10):1309-1324. [7] Di Baldassarre, G., and A. Montanari (2009). "Uncertainty in river discharge observations: a quantitative analysis." Hydrol. Earth Syst. Sci. 13 (6):913-921. [8] Evensen, G. (2003). "The Ensemble Kalman Filter: theoretical formulation and practical implementation." Ocean Dynamics 53 (4):343-367. [9] Fulton, R. (2002). "Activities to improve WSR-88D Radar Rainfall Estimation in the National Weather Service." Paper read at 2nd Federal Interagency Hydrologic Modeling Conference, July, 2002, at Las Vegas, Nevada. [10] Gourley, J. J., Z. L. Flamig, Y. Hong, and K. W. Howard (2011). "Evaluation of past, present, and future tools for radar-based flash flood prediction." Hydro. Sci. J. (in review). [11] Hamill, T. M. 2006. Ensemble-based atmospheric data assimilation. In Predictability of weather and climate, edited by T. Palmer and R. Hagedorn. Cambridge ; New York: Cambridge University Press. [12] Houser, P. R., W. J. Shuttleworth, J. S. Famiglietti, H. V. Gupta, K. H. Syed, and D. C. Goodrich (1998). "Integration of soil moisture remote sensing and hydrologic modeling using data assimilation." Water Resour. Res. 34 (12):3405-3420. [13] Huang, C., X. Lin., L. Lu, and J. Gu (2008). "Experiments of one-dimensional soil moisture assimilation system based on ensemble Kalman filter." Remote Sensing of Environment 112 (3):888-900. [14] Jazwinski, A. (1970). "Stochastic Processes and Filtering." Dover Publications. [15] Kalnay, E. (2003). "Atmospheric modeling, data assimilation, and predictability." Cambridge Univ Pr. [16] Kitanidis, P. K., and R. L. Bras (1980). "Real-time forecasting with a conceptual hydrologic model: 1. Analysis of uncertainty." Water Resour. Res. 16 (6):1025-1033.
24 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27
Improving Flood Forecasting Skill with the Ensemble Kalman Filter
[17] Komma, J., G. Bloschl, and C. Reszler (2008). "Soil moisture updating by Ensemble Kalman Filtering in real-time flood forecasting." Journal of Hydrology 357 (3-4):228-242. [18] Krause, P., D. P. Boyle, and F. Base (2005). "Comparison of different efficiency criteria for hydrological model assessment." Advances in Geosciences 5:89-97. [19] McMillan, H., J. Freer, F. Pappenberger, T. Krueger, and M. Clark (2010). "Impacts of uncertain river flow data on rainfall-runoff model calibration and discharge predictions." Hydrological Processes 24:1270–1284. [20] Moore, R. J. (1985). "The probability-distributed principle and runoff production at point and basin scales." Hydrological Sciences 30 (2):273-297. [21] Moradkhani, H. (2008). "Hydrologic Remote Sensing and Land Surface Data Assimilation." Sensors 8 (5):2986-3004. [22] Moradkhani, H., S. Sorooshian, H. Gupta, and P. Houser (2005). "Dual state?parameter estimation of hydrological models using ensemble Kalman filter." Advances in Water Resources 28 (2):135-147.
[28] Salamon, P., and L. Feyen (2009). "Assessing parameter, precipitation, and predictive uncertainty in a distributed hydrological model using sequential data assimilation with the particle filter." Journal of Hydrology 376 (3-4):428-442. [29] Sauer, V. B., and R. W. Meyer. 1992. Determination of Error in Individual Discharge Measurments. Norcross, Georgia: U.S. Geological Survey. [30] Seo, D.-J., V. Koren, and N. Cajina (2003). "RealTime Variational Assimilation of Hydrologic and Hydrometeorological Data into Operational Hydrologic Forecasting." Journal of Hydrometeorology 4 (3):627-641. [31] Smith, M., D. Seo, V. Koren, S. Reed, Z. Zhang, Q. Duan, F. Moreda, and S. Cong (2004). "The distributed model intercomparison project (DMIP): motivation and experiment design." Journal of Hydrology 298 (1-4):4-26. [32] Smith, P. J., K. J. Beven, and J. A. Tawn (2008). "Detection of structural inadequacy in processbased hydrological models: A particle-filtering approach." Water Resources Research 44 (1).
[23] Neal, J., P. Atkinson, and C. Hutton (2007). "Flood inundation model updating using an ensemble Kalman filter and spatially distributed measurements." Journal of Hydrology 336 (3-4):401-415.
[33] Sorooshian, S., and J. A. Dracup (1980). "Stochastic parameter estimation procedures for hydrologie rainfall-runoff models: Correlated and heteroscedastic error cases." Water Resour. Res. 16 (2):430-442.
[24] Petersen-Overleir, A. (2004). "Accounting for heteroscedasticity in rating curve estimates." Journal of Hydrology 292 (1-4):173-181.
[34] USGS. (2011). "IDA." Instantaneous Data Archive IDA, <http://ida.water.usgs.gov/ida/> June, 15, 2010
[25] RAH-Web-Team. (2011). "Past Events." Event inventory of the National Weather Service (NWS) forecast office at Raleigh, <http://www.erh.noaa.gov/rah/ events/> May 15, 2011 [26] Reichle, R. H., D. Entekhabi, and D. B. McLaughlin (2001). "Downscaling of radio brightness measurements for soil moisture estimation: A four-dimensional variational data assimilation approach." Water Resour. Res. 37 (9):2353-2364. [27] Reichle, R. H., D. B. McLaughlin, and D. Entekhabi (2002). "Hydrologic data assimilation with the ensemble Kalman filter." Monthly Weather Review 130 (1):103-114.
[35] USGS, and USAID. (2011). "USGS FEWS NET Data Portal." USGS FEWS NET Data Portal, <http:// earlywarning.usgs.gov/fews/> July, 01, 2010 [36] Van Cooten, S., K. E. Kelleher, K. Howard, J. Zhang, J. J. Gourley, J. S. Kain, K. Nemunaitis-Monroe, Z. Flamig, H. Moser, A. Arthur, C. Langston, R. Kolar, Y. Hong, K. Dresback, E. Tromble, H. Vergara, R. A. Luettich, B. Blanton, H. Lander, K. Galluppi, J. P. Losego, C. A. Blain, J. Thigpen, K. Mosher, D. Figurskey, M. Moneypenny, J. Blaes, J. Orrock, R. Bandy, C. Goodall, J. G. W. Kelley, J. Greenlaw, M. Wengren, D. Eslinger, J. Payne, G. Olmi, J. Feldt, J. Schmidt, T. Hamill, R. Bacon, R. Stickney, and L. Spence (2011). "The CI-FLOW Project: A System
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27 ¦ 25
Humberto Vergara, Yang Hong, Jonathan J. Gourley.
for Total Water Level Prediction from the Summit to the Sea." Bulletin of the American Meteorological Society 92 (11):1427-1442. [37] Vrugt, J. A., and W. Bouten (2003). "Toward improved identifiability of hydrologic model parameters: The information content of experimental data." Water Resources Research 38 (12). [38] Vrugt, J. A., C. J. F. Braak, H. V. Gupta, and B. A. Robinson (2008). "Equifinality of formal (DREAM) and informal (GLUE) Bayesian approaches in hydrologic modeling?" Stochastic Environmental Research and Risk Assessment 23 (7):1011-1026. [39] Vrugt, J. A., C. G. H. Diks, H. V. Gupta, W. Bouten, and J. M. Verstraten (2005). "Improved treatment of uncertainty in hydrologic modeling: Combining the strengths of global optimization and data assimilation." Water Resources Research 41 (1). [40] Vrugt, J. A., H. V. Gupta, W. Bouten, and S. Sorooshian. 2003. A Shuffled Complex Evolution Metropolis Algorithm for Estimating Posterior Distribution of Watershed Model Parameters. In Calibration of Watershed Models, edited by Q. Duan, S. Sorooshian, H. V. Gupta, A. N. Rousseau and R. Turcotte. Washington, DC: American Geophysical Union. [41] Vrugt, J. A., H. V. Gupta, S. C. Dekker, S. Sorooshian, T. Wagener, and W. Bouten (2006). "Application of stochastic parameter optimization to the Sacra-
mento Soil Moisture Accounting model." Journal of Hydrology 325 (1-4):288-307. [42] Vrugt, J. A., and B. A. Robinson (2007). "Treatment of uncertainty using ensemble methods: Comparison of sequential data assimilation and Bayesian model averaging." Water Resources Research 43 (1) [43] Vrugt, J. A., C. J. F. ter Braak, C. G. H. Diks, B. A. Robinson, J. M. Hyman, and D. Higdon (2009). "Accelerating Markov Chain Monte Carlo Simulation by Differential Evolution with Self-Adaptive Randomized Subspace Sampling." International Journal of Nonlinear Sciences and Numerical Simulation 10 (3):273-290. [44] Wagener, T., D. P. Boyle, M. J. Lees, H. S. Wheater, H. V. Gupta, and S. Sorooshian. 2001. A framework for development and application of hydrological models. Copernicus GmbH. [45] Wang, X. 2009. Advance topics in data assimilation: Ensemble Kalman filter techniques. Norman, OK: Graduate level class METR 6803, The University of Oklahoma. [46] Whitaker, J. S., and T. M. Hamill (2002). "Ensemble data assimilation without perturbed observations." Monthly Weather Review 130 (7):1913-1925. [47] Willmott, C. J., and K. Matsuura (2005). "Advantages of the mean absolute error (MAE) over the root mean square error (RMSE) in assessing average model performance." Climate Research 30 (1):79-82.
Los Autores Humberto J. Vergara Received the B.Sc. degree in environmental engineering from El Bosque University, Colombia, and the M.Sc. degree in water resources engineering from the University of Oklahoma, Norman, OK, USA. He is currently working toward the Ph.D. degree in the Department of Civil Engineering and Environmental Science at the University of Oklahoma, Norman. He is currently a Graduate Research Assistant at the Hydrometeorology and Remote Sensing (HyDROS; hydro.ou.edu) Laboratory and the National Severe Storms Laboratory (NSSL; http://www.nssl.noaa.gov) in Norman, Oklahoma. His primary field of study is hydrological modeling for flood forecasting. He focuses on model development, ensemble forecasting and data assimilation. 26 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27
Improving Flood Forecasting Skill with the Ensemble Kalman Filter
Yang Hong Received the B.S. and M.S. degrees in geosciences and environmental sciences from Peking University, Beijing, China, and the Ph.D. degree, major in hydrology and water resources and minor in remote sensing and spatial analysis, from the University of Arizona, Tucson, AZ, USA. Following a postdoctoral appointment in the Center for Hydrometeorology and Remote Sensing, University of California, Irvine, CA, USA, he joined the National Aeronautics and Space Administration Goddard Space Flight Center, Greenbelt, MD, USA, in 2005. He is currently an Associate Professor with the School of Civil Engineering and Environmental Sciences and the School of Meteorology, University of Oklahoma, Norman, OK, USA, where he is also directing the Remote Sensing Hydrology research group (http://hydro.ou.edu). He also serves as the Co-director of the Water Technologies for Emerging Regions Center (http://water. ou.edu) and an affiliated Faculty Member with the Atmospheric Radar Research Center (http://arrc. ou.edu). He has served in the editorial boards of the International Journal of Remote Sensing, the Natural Hazards journal, and the Landslides journal. His primary research interests are in remotesensing retrieval and validation, hydrology and water resources, natural hazard prediction, land surface modeling, and data assimilation systems for water resource planning under changing climate. Dr. Hong is currently the American Geophysical Union Precipitation Committee Chair. Jonathan J. Gourley Received the B.S. and M.S. degrees in meteorology with a minor in hydrology and the Ph.D. degree in civil engineering and environmental science from the University of Oklahoma, Norman, OK, USA. He is currently a Research Hydrometeorologist with NOAA’s National Severe Storms Laboratory, is an affliate Associate Professor with the School of Meteorology, University of Oklahoma, and Director of the National Weather Center’s seminar series. His research focuses on rainfall observations from remote sensing platforms with an emphasis on ground-based radars and implementing these highresolution observations into hydrologic models. He completed a postdoctoral study with researchers in Paris, France, to demonstrate the capabilities of dual-polarimetric radar in improving data quality, microphysical retrievals, and precipitation estimation. MeteoFrance has subsequently upgraded several of their operational radars with polarimetric technology. Dr. Gourley received the Department of Commerce Silver Medal Award in 1999 “For developing an important prototype Warning Decision Support System for weather forecasters and making significant enhancements to the NEXRAD system, resulting in more timely and reliable warnings.” He also received an Honorable Mention in 2004 from the Universities Council on Water Resources Dissertation Awards Committee.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 9-27 ¦ 27
A Critical Evaluation of Post-Normal Science's role in Climate Change Modelling and Political Decision-Making Una evaluación crítica al rol de la Ciencia post normal en la modelación y toma de decisiones políticas para el cambio climático
Kai Whiting*, Luis Gabriel Carmona**.
Abstract
Resumen
arth System Modelling is a modern approach for studying the complexity of the world and has become integral to the environmental and climate change discourse. It has enabled the possibility of research into areas previously unreachable and has led to the discovery of some of the most complex phenomena on the planet such as Chaos Theory. The exponential growth of computer capabilities has led to an impressive advance in the recognition of complexity and uncertainty. It has also opened up the path for a new scientific paradigm, post normal science. Decisions increasingly have to be made within this framework. Incomplete or poorly understood information provided by models is, despite modelling uncertainties, increasingly dictating the frontiers and interface of science and politics. Modelling, like any tool, has its advantages and disadvantages. This paper critically evaluates, through a comprehensive literature review, some of the benefits, limitations and controversies that surround models and questions their utilisation in the scientific quest for “truth” within the climate change debate. It also looks into the future of climate modelling and post normal science based decision making for a sustainable world.
E
Keywords: Post-Normal Science; Climate Change; Complexity; Modelling; Policy; Uncertainty
l modelado del sistema de la tierra es una herramienta moderna para estudiar la complejidad del mundo y es una parte integral del discurso ambiental y del cambio climático. Se ha habilitado la posibilidad en áreas previamente inaccesibles y ha llevado al descubrimiento de algunos de los fenómenos más complejos del planeta, como la Teoría del Caos. El crecimiento exponencial de la capacidad de la computadora ha causado un crecimiento impresionante en el reconocimiento de la complejidad y la incertidumbre. Igualmente se ha abierto el camino para un nuevo paradigma científico, la Ciencia Post Normal. Las decisiones tienden cada vez más a realizarse en el marco de la Ciencia Post Normal. La información incompleta o mal entendida que proviene de los modelos, a pesar de sus incertidumbres, dictan cada vez más las fronteras y la interfaz de la ciencia y la política. Modelada como cualquier herramienta tiene sus ventajas y desventajas. En este trabajo se evalúa críticamente, a través de una revisión exhaustiva de la literatura, algunos de los beneficios, limitaciones y controversias que rodean a los modelos y las preguntas de su utilización en la búsqueda científica de la “verdad” en el debate sobre el cambio climático. También mira hacia el futuro de la modelización del clima y la toma de decisiones basadas en la Ciencia Post Normal para un mundo sostenible.
E
Palabras clave: Post-ciencia normal; Cambio Climático; Complejidad; Modelado; Política; incertidumbre.
Recibido / Received: Octubre 16 de 2014 Aprobado / Aproved: Noviembre 10 de 2014 Tipo de artículo / Type of paper: Artículo de investigación científica y tecnológica terminada. Afiliación Institucional de los autores / Institutional Affiliation of authors: *Programa de Ingeniería en Energías, Facultad de Ingeniería, Universidad EAN; **Facultad de Ciencias Ambientales, Universidad Piloto de Colombia. Autor para comunicaciones / Author communications: Kai Whiting, kewhiting@ean.edu.co Los autores declaran que no tienen conflicto de interés.
A Critical Evaluation of Post-Normal Science's role in Climate Change Modelling and Political Decision-Making
Introduction Through the development and application of earth system modelling the scientific community has been able to recognise and begin to investigate some of the most complex phenomena of the earth system and uncover new approaches such as post-normal science (Figure 1) with which to study them (Funtowicz and Ravetz [1]). The concept of post-normal science is a scientific approach suitable for environmental policy under conditions of complexity, that is to say, facts are uncertain, values in dispute, stakes high and decisions urgent. Consequently, the conditions are not normal, neither for science nor for policy (Deblonde et al [2]). Modelling, meanwhile, as a prime means to access natural phenomena (Neugebauer and Simmer [3]), is a very modern approach for studying the complexity of the world (Alcamo et al [4]) but one that has fast become integral to environmental discourse and the study of the multifarious earth system (Oldfield [5]; Figure 2). According to Heavens et al [6] a model organises what humanity thinks it knows about something in order to predict how it might behave in the present, future, or past as well as how it might respond to external influence. It therefore plays a significant role within Earth System Science and Post-Normal Science based political decision making, by spearheading the prediction and potential countering of, through mathematical simulation, those phenomena linked to climate change and weather patterns. Specifically, Earth System Science views the Earth as a synergistic physical system governed by complex processes involving the solid Earth, atmosphere, hydrosphere, biosphere etc, their origin and evolution and the changing pattern of Earth through time (Rollinson [7]; Figure 2). Earth system modelling is therefore an algorithmic representation which attempts to reproduce the observational behaviour of the above and the interactions between them (Leffelaar [8]). Collectively such models have made and continue to make an increasingly crucial contribution to the science of environmental change in every research area and every scale, from the exchange of moisture and energy between the individual leaf and atmosphere to the whole Earth system (Oldfield [5]). They can thus be used to help society, at the science-policy interface, understand how and at which speed Earth’s climate is changing and
facilitate the necessary political decisions to deal with potentially devastating climate events such as the El Niño Southern Oscillation (ENSO), something which affects many countries, including Colombia. Figure 1. Post-Normal Science (PNS) is a new conception of the management of complex science-related issues. It focuses on aspects of problem-solving that tend to be neglected in traditional accounts of scientific practice: uncertainty, value loading, and a plurality of legitimate perspectives. Source: Authors - adapted from Funtowicz and Ravetz [1] Decision Risk Post-normal Science Professional Consultancy Applied Science Basic Science
High risk coupled with equally high levels of uncertainty is something which those at the science-policy interface, under the direction of the International Panel of Climate Change (IPCC) for example, are increasingly forced to grapple with. Decisions are increasingly made on uncertain terms - that is to say that they are not based on the pure objectivity of facts but rather subject to intellectual opinion. So, if the basis for political decision making, within the extended scientific community, is based on speculative algorithmic virtual representations not factual physical evidence, it is in the authors’ view important to put together a paper that discusses the reliability of climate modelling tools used under the PNS paradigm (Figure 1). It is also vital that one considers in a critical manner the benefits and limitations encountered in the pursuit of “truth”. This is in short, through a comprehensive literature review, what the authors attempt to do throughout the length of this paper.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 28-38 ¦ 29
Kai Whiting, Luis Gabriel Carmona.
Figure 2. Diagram of the Earth System Source: Authors adapted from Swinback et al [9] Space SUN Change in solar radiation Terrestrial radiation
Clouds Change of atmospheric composition
Terrestrial radiation Atmospheric ice coupling ATMOSPHERE CRYOSPHERE Wind stress
Heat exchange
Atmospheric land coupling BIOSPHERE HYDROSPHERE Ocean-ice coupling
LITHOSPHERE
Change of land features, orography, vegetation, albedo
Shifting Sands and Forging the Future Computer simulations have changed the face of many scientific disciplines (Frigg et al [10]) and questions that would not even be asked without the existence of high-speed machine computation and high-resolution computer graphics are now at the forefront of science, politics and culture (Fox Keller [11]; Johnson [12]). As Earth Systems models grow in application and complexity the diversity of scientific disciplines and terminologies will also increase leading to not only advantageous collaborative interactions and discoveries (Kiehl and Ramanathan [13]) but also potentially leading to communication difficulties and additional epistemological and methodological tensions and disagreements (Dahan [14]). According to Macleod [15], the El Niño and other complex climate phenomena are increasingly set to be managed by scientists, regulators and policymakers with integrated
Change of ocean basin, shape, salinity
and holistic approaches/tools robust enough to manage right across the spectrum of local (micro) to global (macro) issues. Such approaches include high-powered computerised modelling under the conceptual framework of post-normal science, both of which rely upon robust data collection techniques and the construction of reliable prediction models of the complex Earth system. The accuracy of such models represents one of the greatest scientific challenges of the 21st century which is turn compounded by the immense societal and economic benefits at stake (O’Neil and Steenman-Clark [16]). Models, reliant on appropriate observational data i.e. remote sensors, (Kiehl and Ramanathan [13]) are deemed to be “true” if they reflect the observations of the scientific world (Swinbank et al [9]). They are according to Schellnhuber [17] nothing short of a second “Copernican” revolution, in that the first enabled us to truly view the heavens and this second one, to “truly” view the Earth. In the last fifty years modelling has uncovered chaos theory (Thompson and Perry [18]) and the non-linear
30 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 28-38
A Critical Evaluation of Post-Normal Science's role in Climate Change Modelling and Political Decision-Making
nature of climatic phenomena (Schoeberl et al [19]), led to the evolution of Gaia theory (Lenton [20]) through Watson and Lovelock’s [21] conceptual Daisyworld model (Lovelock [22]) and the identification and estimation of resilience in human-modified natural systems. The use of earth system modelling in building understanding of resilience and using subsequent knowledge in the management of real systems is considered by Fletcher and Miller [23] as perhaps the most vital step towards averting disaster and collapse of many of the social-ecological systems that form the foundation of our societies. Likewise, according to Van der Sluijs [24] practitioners of post-normal science, a scientific paradigm which recognises that claims based on conceptual models go beyond the competence of present-day (normal Kuhnian) science, argue that the aforementioned situations can only be addressed at the science-policy interface by the integration of scientific understanding and modelling over a wide range of spatial and temporal scales. These models, however comprehensive, with their advantages and disadvantages, do however hold a considerable degree of uncertainty when it comes to creating algorithms that accurately reflect the way climate phenomena forms, behaves and “acts”. And it is this element of uncertainty, which places climate change in the wake of post-normal and beyond the realm of Kuhnian scientists.
The Advantages of Post-Normal Science Modelling: Fighting on the Frontiers of Science One key benefit of modelling phenomena is its ability, with every successful simulation adding to the scientific and political body of knowledge, to become an important, even didactic, tool for understanding (USNRC [25]). Indeed, Kiehl and Ramanathan [13] identify earth system modelling as the most comprehensive tool in the understanding of current and past/future variations of climate. It has also proved, under the post-normal paradigm, an essential means of communicating across the science-policy interface (Gallopin [26]). This is because the introduction of the Earth System Model has enabled scientists to harness powerful computer technology to provide a more solid theoretical footing (Beerling [27]). It has meant that the testing of hypothesises, elucidation
of cause and effect (Swinback et al [9]), and the simulation and prediction of events in a virtual laboratory ( Wainwright and Mulligan [28]) have played an important role in the fabric of society and the exchange of knowledge. In short, such methods have significantly improved access to climate phenomena, and yielded the possibility of research into and success in tackling problems which were not treatable otherwise or would have taken unsustainable efforts to pursue (Heymann [29]). This is something which in the authors’ opinion has placed climate policy and actions firmly in the political landscape of the 21st century. It is thus perhaps not surprising that the IPCC or any other research body or institution, favours modelling and post-normal science, at least symbolically, as a research method or theoretical framework given that it is faster to get a result by modelling than through the acquisition and analysis of more data (in the field) which suits managers and politicians …staff scientists and professors (Klemes [30]) who want to reap the benefits of new insight into long term, large scale changes in politically and economically important issues such as water use and land cover (Alcamo et al [4]). Model based studies are thus of particularly high importance to those members of the public and policymakers who wish to address areas of science with high risk, complexity and uncertainty such as climate change ( Washington et al [31]), damaging events with huge socio-economic and political consequences such as the Deepwater Horizon Spill (Bhattacharyya et al [32]), Hurricane Katrina and the droughts or floods of El Nino years. For the latter two it is hoped that “forecasts” that come from earth simulation models will continue to push the frontiers of understanding sufficiently that such projections may be useful in helping certain populations manage climate variability (Stute et al [33]) and develop resilience (Figure 3). Models have been successfully used in the UK, for example, to decrease vulnerabilities by appraising, in the form of a cost-benefit analysis, further coastal development proposals against managed retreat strategies (Hemingway et al [34]). Other applications of modelling to prevent coastal catastrophe include advanced flood warning systems in Holland (Hollingsworth et al [35]) and Tsunami warning models in Indonesia which were developed to protect citizens
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 28-38 ¦ 31
Kai Whiting, Luis Gabriel Carmona.
from a repeat of the 2004 Indian Ocean tsunami that killed 168,000 people in Indonesia alone (Mackinnon [36]). Simulations of the El Nino Southern Oscillation (ENSO) have also led to successful identification of direct correlations between climate variables and disease outbreaks (Murtugudde [37]). All of these models help support hard policy decisions that steer the Earth system toward a more sustainable existence for the benefit of all society (Clark and Holliday [38]; Mitchell and Romero [39]). Post Normal Science, then provides a theoretical framework for scientists and politicians using modelling tools to proceed urgently in the decision-making process, in the midst of polarised interests, when the facts uncovered are diverging and inherently uncertain (Saloranta [40]). In addition, post-normal science, although not without its disadvantages, offers:
Disadvantages of Post-Normal Modelling: Truth, Tensions and Tradeoffs
A means of winning legitimacy for science on contentious issues, creating consensus from diverse views and can potentially package science in ways amenable for policymaking and public discussion – Glover [41].
The level of complexity, for instance, of an Earth System Model is determined by various factors including computing power (Claussen [43]), the nature of the scientific questions to be addressed (Kiehl and Ramanathan [13]), developments in science and scientific disciplines such as an increased demand to study systems in an integrated manner with greater extrapolation in time and space ( Wainwright and Mulligan [28]) and the natural tension between the scientists desire to understand the system and the policy makers desire for useful predictions (Cox and Nakicenovic [44]). All of these entities, much like the phenomena the model attempts to emulate, influence the nature of the computer simulation and its ability to accurately represent reality and communicate “truth”.
Figure 3. Developing an Earth system model in order to Build Ecological Resilience into the System which serves Protect Communities against the severity of the El Nino/ La Nina Oscillations. Source: Authors adapted from Fletcher and Miller [23].
Existing Data
Simulation Data
Focal system
Conceptual Model
Strategies for sustainable management
Existing Data
Dinamical System model
Climate scientists, aligned with Post-Normal Science, have according to Friedrichs [42], the difficult balancing act of invoking scientific objectivity and some sort of convention, by stating and supporting factual knowledge, upon which their authority and profession is based, while at the same time being forced by the circumstances to engage in political interventions as framed by postnormal science. This is of particular concern in emotive issues with uncertain “truths” because modelling itself is only a reflection of reality and subject to various data errors and subjective judgements.
Truth in information systems, any combination of information technology and people’s activities using that technology to support decision-making (of which modelling forms an integral part) is not neutral nor value free (Stahl [45]). In fact the biggest problem with models is the fact that they are made by humans who tend to shape or use their models in ways that mirror their own notion of what a desirable outcome would be (Firor [46]). Given that model simulations, due to the infeasibility of empirical methodology, are central tools in global change science (Edward [47]) and the global warming debate which some believe has left the realm of pure science (Lanzerotti [48]) and become a euphemism for a political agenda (DeWeese [49]). Scientists also tend to develop models within parameters (assumptions) which means
32 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 28-38
A Critical Evaluation of Post-Normal Science's role in Climate Change Modelling and Political Decision-Making
any knowledge produced is also confined to such parameters and subject to the imperfect understanding of natural phenomena and misreading of their observation (Lahsen [50]). Further issues are the linking of models of system parts that operate at different rates such as atmospheric and oceanic processes and feedbacks and spatial resolution limitations which prevent important factors such as the Gulf Stream to be adequately simulated (O’Neil and Steeman-Clark [16]; USNRC [25]; Figure 4)). There is also a real lack of models considering those feedbacks between socio-economics and Nature – currently, they undertake a dual assessment but at the expense of drastic simplifications in the submodels e.g. climate may only be represented by global mean temperature (Steffen et al [51]). Such issues go some way to explaining how the choice of model can influence the result in more than the choice of scenario (Lomborg [52]).
Furthermore, behind every quantitative earth system model lies a more qualitative patchwork of compromises (NASA [53]) because any modeller is reduced to representing the process based on his/her best understanding of how the atmosphere works which may capture the essence of the systems but ignore the nuances (Lupo [54]). Clouds for instance, one of the least understood and accurately modelled components, have shown to negate the effects of global warming (Spencer [55]) and are according to the IPCC a significant source of potential error in climatic simulations (Houghton et al [56]). Identifying model errors is very difficult due to the complexity and uncertainties of the Earth system whilst the biases (assumptions) introduced are surprisingly difficult to correct (Reichter and Kim [57]). Edwards [58] found that in the absence of data, models are used to “massage” the very data sets they are attempting to analyse. Similarly a
Figure 4. Complex processes, dynamics and feedbacks – some of which at different rates that make up a “simple” computer model. Source: Authors Human activities
Effect
Climate change
Vegetation
Sectors Greenhouse gases
Land uses
Adaptation Emissions
Sol Enery, humidity terrestrial surface
Current
Terrestrial ecosystems
Roughness
Polutants Wind
Moisture
Evapotranspiration Pressure
Atmospheric physics and dynamiics Albedo
Atmospheric chemistry
Water cycle Cloud cover
Precipitation
Acidification
Oceans dynamics
Oceans Biochemistry Mixing Depth
Tide Sun
Composition
Evaporation
Salinity
Volcanoes
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 28-38 ¦ 33
Kai Whiting, Luis Gabriel Carmona.
model’s accuracy is determined by comparing it against that of another model but they are generally based on the same equations and assumptions, so that agreement among them may indicate very little about their realism (Lahsen [50]). It is after all much easier to get a model to behave unrealistically than to get it to behave realistically (Spencer [55]). Thus whilst models may represent a great intellectual accomplishment, none have been or can be validated given that there is no standardised protocol to do so (Guillemot [59]; Carter [60]). The authors would also like to point out that it is this very lack of “provability” which places modelled phenomenon under the scope of Post-Normal Science, in the first place.
Should Climate Scenarios be Modelled or Observed? The question is therefore, although there have been a number of advantageous developments in the field of modelling which have led to benefits that could not have been made in their absence, given the issues just described, “Should climate change be modelled or should science simply observe? In answering such a question, one most recognise that models are limited not only by lack of understanding but by computer power (Schoeberl et al [19]) which is always improving and generating more and more capabilities (Claussen et al [61]). They are certainly not gospel and should not be treated as such (Farber [62]) but are according to Dr Pope [63] of the Met Office the only way to predict the day-to-day weather and changes to the climate over longer timescales. The scientific community must, in the authors’ opinion, if this is indeed the case, rather than abandon them, strive to improve models through comprehensive data gathering and monitoring of higher resolutions (Gallopin [26]). More complete models, developed through greater attempts to observe, will provide a more realistic estimate of the uncertainty in the behaviour of the real Earth System (Steffen et al [51]). Sustained observations expose our ignorance of important natural processes, and force improvements in the science of forecast models and products (Hollingworth et al [35]) which will help constrain projections of the future and will support the testing and development of models in a way model development alone is unlikely to achieve (Gallopin [26]).
Thus there is an urgent need to maintain and develop the monitoring of the Earth System i.e. historic records, utilisation of new satellites (Steffen et al [51]) precisely because it is against such observation that the “truth” of a model can be evaluated and the assumptions “validated” (Swinbank et al [9]). Modelling is and never can be an alternative to observation. Instead it must be but an accompanying tool, used within the theoretical framework to aid understanding of those observations and their theory ( Wainwright and Mulligan [28]). The two go hand in hand and are not polar opposites because models have only limited value at the science-policy interface if one does not have a deep understanding of a system process or feedback (Betts [64]).
Conclusion There are clearly both advantages to be obtained and disadvantages to be overcome in the future success of climate change modelling with every advance requiring new and improved methods and theories. Future modellers must not only promote continued observation but a truly interdisciplinary effort so that the disadvantages of do not outweigh the potential successes of models. Models are not gospel but are revolutionary and the prowess of science and politics to understand the Earth System would be greatly diminished if they were not embraced and utilised, despite their clear limitations and the disadvantages and controversies that accompany them.
References [1] Funtowicz, S and Ravetz, J (2008) Post-Normal Science International Society for Ecological Economics, Encyclopaedia of the Earth http://www. eoearth.org/article/Post-Normal_Science [2] Deblonde, M, Barriat, VA and Warrant, F (2005) SPIRE – Science and Precaution in Interactive Risk Evaluation Belgian Science Policy http://www. belspo.be/belspo/organisation/publ/pub_ostc/OA/ rOA01_en.pdf [3] Neugebauer, H and Simmer, C (2003) Dynamics of multiscale earth systems Springer [4] Alcamo, J, Floerke, M, Schaldach, R and Weiss, M (2008) Earth Systems Modelling: New Insights into
34 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 28-38
A Critical Evaluation of Post-Normal Science's role in Climate Change Modelling and Political Decision-Making
the Future of Water, Land and their Interactions Global Change NewsLetter No. 71 May 2008 [5] Oldfield, F (2005) Environmental Change: Key Issues and Alternative Perspectives Cambridge University Press [6] Heavens, N. G., Ward, D. S. & Natalie, M. M. (2013) Studying and Projecting Climate Change with Earth System Models. Nature Education Knowledge 4(5):4 [7] Rollinson, H (2007) Early Earth systems: a geochemical approach Wiley-Blackwell [8] Leffelaar, P (1998) On systems analysis and simulation of ecological processes: with examples in CSMP, FST, and FORTRAN Springer [9] Swinback, R, Shutiaev, P and Lahoz, W (2003) Data assimilation for the earth system Springer [10] Frigg, R Hartmann,S and Imbert,C (2009). Special Issue Models and Simulation. Synthese, 169. [11] Fox Keller, E.(2003) Models, simulation and ‘computerexperiments’ [Within] Radder H (Ed.), The Philosophy of Scientific Experimentation p 198–215 Pittsburgh: Pittsburgh UniversityPress [12] Johnson, A (2006).The Shape of Molecules to Come [Within] Lenhard, J et al G. Simulation: pragmatic construction of reality. Sociology oft he sciences yearbook 25 Springer p 25–39. [13] Kiehl, J and Ramanathan, V (2006) Frontiers of climate modelling Cambridge University Press [14] Dahan , A. (2007). Les Modeles du futur .Changement Climatique et scenarios economique: enjeux scientifique et politiques. La Decouverte. [Within] Heymann, M (2010) Understanding and Misunderstanding Computer Simulation: The Case of Atmospheric and Climate Science- An Introduction Studies in History and Philosophy in Modern Physics Volume 41, Issue 3, p 193-200 [15] Macleod, C (2010) What Can we Learn from Systems Based Approaches: From Systems Biology to Earth System Science International Environmental Modelling and Software Society 2010 International Congress on Environmental Modelling and Software: Modelling for Environment’s Sake
[16] O’Neil, A and Steenman-Clark, L (2002) The Computational Challenges of Earth-System Science Philosophical Transaction of the Royal Society 360 p 1267-1275 [17] Schellnhuber, H (1999) Earth System Analysis and the Second Copernican Revolution Nature Vol 402 [18] Thompson, R and Perry (1997) Applied Climatology: Principles and Practice Routledge [19] Schoeberl, M, Raymond, C Rood, R and Hildebrand, P (2003) The Earth System Model NASA Jet Propulsion Laboratory http://esto.nasa.gov/conferences/ igarss03/papers/MO091340_Schoeberl_ESM.pdf [20] Lenton, T (2002) Testing Gaia: The Effect of Life on Earth’s Habitability and Regulation Kluwer Academic Publishers [21] Watson, A and Lovelock, J (1983) Biological Homeostasis of the Global Environment: The Parable of Daisyworld Tellus 35B p 284-289 [22] Lovelock, J (2000) Gaia: a new look at life on earth Oxford University Press [23] Fletcher, C amd Miller, C (2006) Operationalizing Resilence in Australian and New Zealan Agroecosystems http://www.isssbrasil.usp.br/pdfs/2006-355.pdf [24] Van der Sluijs, P (1998) Anchoring Amid Uncertainty On the Management of Uncertainties in Risk Assessment of Anthropogenic Climate Change Social Studies of Science Vol 28, 2 p 291-323 [25] USNRC – United States National Research Council (U.S.). (1993) Committee on Status and Research Objectives in the Solid-Earth Sciences Solid-earth sciences and society: a critical assessment National Academies Press [26] Gallopin, C (2004) What Kind of System of Science (and Technology) is Needed to Support the Quest for Sustainable Development? [Within] Schellnhuber Earth system analysis for sustainability MIT Press [27] Beerling, D (2007) The Emerald Planet: How Plants Changed Earth’s History Oxford University Press [28] Wainwright, J and Mulligan, M (2004) Environmental modelling: finding simplicity in complexity John Wiley and Sons
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 28-38 ¦ 35
Kai Whiting, Luis Gabriel Carmona.
[29] Heymann, M (2010) Understanding and Misunderstanding Computer Simulation: The Case of Atmospheric and Climate Science- An Introduction Studies in History and Philosophy in Modern Physics Volume 41, Issue 3, p 193-200 [30] Klemes, V (1997) Of carts and horses in hydrological modeling. Journal of Hydrologic Engineering 1: 43-49 [31] Washington, W, Buja, L and Craig, A (2009) The Computational Future for Climate and Earth System Models: on the Path to Petaflop and Beyond Philosophical Transaction of the Royal Society 367 p 833-846 [32] Bhattacharyya, S, Cameron-Smith, P and Bergmann, D (2010) Atmospheric Impact of Large Methane Emissions and the Gulf Oil Spill NASA/ Smithsonian [33] Stute, M Clement, A and Lohmann, G (2001) Global Climate Models: Past, Present and Future Procedures of the National Academy of Science, USA 98 (19) p 10529-10530 [34] Hemingway, K., Cutts, and . Pérez-Dominguez, R (2008) Managed Realignment in the Humber Estuary, UK. Institute of Estuarine & Coastal Studies (IECS), University of Hull, UK. Report produced as part of the European Interreg IIIB HARBASINS project
[39] Mitchell R, Romero, P (2003) Institutions, science, and technology in the transition to sustainability. [Within] Earth System Analysis for Sustainability. Edited by Schellnhuber HJ, Crutzen PJ,Clark WC, Claussen M, Held H. Cambridge, MA: The MIT Press p :387-408. [40] Saloranta, T (2001) Post-Normal Science and the Global Climate Change Issue Climatic Change 50: p 395–404 [41] Glover, L (2010) Postmodern Climate Change Routledge p 135 [42] Friedrichs, J (2011) ‘Peak energy and climate change: the double bind of post‐normal science’, Futures 43 (4): 469‐477 [43] Claussen, M (2001) Earth System Models Institut für Meteorologie, FU-Berlin http://www.mpimet.mpg. de/fileadmin/staff/claussenmartin/publications/ claussen_esm_understanding_spring_01.pdf [44] Cox, P and Nakicenovic, N (2004) Assesing and Simulating the Altered Functioning of the Earth System and the Anthropocene [Within] Schellnhuber Earth system analysis for sustainability MIT Press [45] Stahl, B (2008) Information systems: critical perspectives Taylor & Francis
[35] Hollingsworth, A, Uppala, S, Klinker, E et al (2005) The Transformation of Earth-System Observations innto Information of Socio-Economic Value in GEOSS Quaterly Journal of the Royal Meterological Society 131 (613) p 3493-3512
[46] Firor, J (1998) ‘Human Motives Sometimes Mar Models’, Boulder Daily Camera (25 October): 12F [Wthin] Lahsen, M (2005) Seductive Simulations? Uncertainty Distribution Around Climate Models Social Studies of Science 35: 895
[36] Mackinnon, I (2008) Indonesia launches tsunami warning system The Guardian 11 Nov 2008 http:// www.guardian.co.uk/world/2008/nov/11/indonesia-tsunami-warning-system
[47] Edwards, P (1996) Global Comprehensive Models in Politics and Policymaking Climate Change32 (2) P 149-61
[37] Murtugudde, R (2009) Regional Earth System Prediction: A Decision-Making Tool for Sustainability? In Press
[48] Lanzerotti (1999) Position Statement Adopted on Climate Change and Greenhouse Gases AGU Committee on Public Affairs http://www.agu.org/sci_ soc/policy/lanzer.html [Accessed December 2007]
[38] Clark, W and Holliday, L (2006) Linking Knowledge with Action for Sustainable Development: The Role of Program Management - Summary of a Workshop National Academies Press
[49] DeWeese, T (2006) Fanatics, heretics and the truth about Global Warming MitchNews 30/05/06 http:// www.michnews.com/cgi-bin/artman/exec/view. cgi/416/12914 [Accessed December 2007]
36 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 28-38
A Critical Evaluation of Post-Normal Science's role in Climate Change Modelling and Political Decision-Making
[50] Lahsen, M (2005) Seductive Simulations? Uncertainty Distribution round Climate Models Social Studies of Science 35: 895 [51] Steffen, W, Bolin, B, Cox, P, Crutzen, P et al (2004) Group Report: Earth System Dynamics in the Anthropocene p313-340 [Within] Schellnhuber Earth system analysis for sustainability MIT Press [52] Lomborg, B (2001) The Skeptical Environmentalist: Measuring the Real State of the World Cambridge University Press [53] NASA- NASA Advisory Council. Earth System Sciences Committee, United States. National Aeronautics and Space Administration (1988) Earth system science: a closer view National Academies [54] Lupo, A (2007) The Complexity of Atmospheric Modelling Ice Cap http://icecap.us/images/ uploads/complexityatmosmodel2.pdf [55] Spencer, R (2010) Climate Confusion: How Global Warming Hysteria Leads to Bad Science, Pandering Politicians and Misguided Policies That Hurt the Poor Encounter Books [56] Houghton et al (2001) Climate Change 2001: The Scientific Basis Houghton et al p 99-181 Cambridge University Press http://www.ldeo.columbia.edu/ edu/dees/V1003/readings/IPCC%202001%20TAR/ WG1_TAR-FRONT.pdf [57] Reichter, T and Kim, J (2008) How Well do Coupled Models Simulate Today’s Climate? Bulletin of Atmospheric Metrological Society 89 p 303-311
[58] Edwards, P (2001) ‘Representing the Global Atmosphere: Computer Models, Data, and Knowledge About Climate Change’,[Within] Miller , C and. Edwards, P (eds), Changing the Atmosphere: Expert Knowledge and Environmental Governance (Cambridge, MA: MIT Press): 31–65. [59] Guillemot, H (2010) Connections Between Simulations and Observation in Climate Computer Modelling. Scientists’ Practices and Bottom-Up Epistemology Lessons An Introduction Studies in History and Philosophy in Modern Physics Volume 41, Issue 3 p 242-252 [60] Carter, R .M (2007) The Myth of Dangerous HumanCaused Climate Change.Paper for: The AUS/IMM New Leaders Conference http://icecap.us/images/ uploads/200705-03AusIMMcorrected.pdf [Accessed December 2007] [61] Claussen, Mysak, L, Weaver, A, Crucifix, M, Fichefet, T et al (2002) Earth System Models of Intermediate Complexity: Closing the Gap in the Spectrum of Climate System Models Climate Dynamics 18 p 579-586 [62] Farber, D (2007) Climate Models A User’s Guide UC Berkeley Public Law Research Paper No. 1030607 [63] Pope, V (2007) Models “Key to Climate Forecasts” BBC News 2 Feb 07 http://news.bbc.co.uk/1/hi/sci/ tech/6320515.stm [64] Betts, A (2009) Land-Surface-Atmosphere Coupling in Observations and Models Journal of Advanced Modelling of Earth System Vol 1 (4) http://james.agu. org/index.php/ JAMES/article/view/v1n4/v1n4HTML
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 28-38 ¦ 37
Kai Whiting, Luis Gabriel Carmona.
Los Autores Kai Whiting Facultad de Ingeniería, Universidad EAN Prof. Medio Ambiente y Tecnología, MSc. Negocios y Medio Ambiente. MSc Energias Renovables Director del Programa Programa de Ingeniería en Energías, Facultad de Ingeniería Universidad EAN kewhiting@ean.edu.co Nacionalidad: Británico Luis Gabriel Carmona Facultad de Ciencias Ambientales, Universidad Piloto de Colombia Ing. Ambiental y Sanitario, MSc. Eficiencia Energética y Ecología Industrial Docente - Investigador Programa de Administración Ambiental, Facultad de Ciencias Ambientales Universidad Piloto de Colombia Nacionalidad: Colombiano
38 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 28-38
Tratamientos Aplicables a Materiales Lignocelulósicos para la Obtención de Etanol y Productos Químicos Applicable to Treatment Materials for Obtaining Lignocellulosic Ethanol and Chemicals
William Giovanni Cortes Ortiz.
Resumen
Abstract
n los últimos años se ha incrementado el uso de etanol obtenido a partir de la caña de azúcar; sin embargo este biocombustible, considerado de primera generación choca con diversas situaciones sociales como la seguridad alimentaria. Por esta razón se evalúa con gran acogida la producción de biocombustibles a partir de celulosas no comestibles, las cuales son un material rico en carbohidratos, adicionalmente en la actualidad están siendo incinerados generando un gran efecto deletéreo al ambiente. En este artículo se presenta las características de los materiales lignocelulósicos, su composición y las condiciones que se debe evaluar para la obtención de biocombustibles y productos químicos de importancia comercial.
E
n recent years it has increased the use of ethanol from sugar cane, but this biofuel, which is considered first generation collides with various social situations such as food security. For this reason it is evaluated with great success producing cellulosic biofuels from non-food items, which are a material rich in carbohydrates, in addition to currently being incinerated to generate a large deleterious effect to the environment. This article presents the characteristics of lignocellulosic materials, their composition and conditions to be evaluated for the production of biofuels and chemicals of commercial importance.
I
Keywords: Lignocellulosic, pretreatment, biofuels.
Palabras Clave: Lignocelulósico, pretratamiento, biocombustibles.
Recibido / Received: Noviembre 26 de 2013 Aprobado / Aproved: Febrero 10 de 2014 Tipo de artículo / Type of paper: Articulo de investigación científica y tecnológica. Afiliación Institucional de los autores / Institutional Affiliation of authors: Universidad El Bosque. Autor para comunicaciones / Author communications: William Giovanni Cortes Ortiz, xxxxxxxxxxxx@xxxxxxxxx.edu.co El autor declara que no tienen conflicto de interés.
William Giovanni Cortes Ortiz.
Introducción En la actualidad se ha incrementado el uso de la biomasa, en particular la derivada de residuos agrícolas, para la producción de combustibles y de otros productos químicos convirtiéndose en uno de los puntos clave en el desarrollo sostenible, dado que los residuos son renovables en contraste con la materia prima de origen fósil [1]. En tal sentido, programas como “The Biomass Program” (US) e “Implementation Action Plan 2006 of SUSCHEM” (Europa), promueven el aprovechamiento de materiales renovables, no solamente en la obtención de combustibles, sino también de otros productos químicos [1]. Una de las principales fuentes de hexosas y pentosas es sin duda, la biomasa de tipo lignocelulósico proveniente principalmente de residuos agrícolas, dado a su elevado contenido de celulosa y hemicelulosa. No obstante, lograr el fraccionamiento de esta biomasa para tener los anhelados polímeros de celulosa y hemicelulosa es un trabajo muy complejo, dado que el elevado contenido de lignina presente impide la separacion de los polisacáridos para su posterior hidrólisis, por lo cual es necesario emplear tratamientos físicos, químicos, biológicos o la combinación de estos, lo suficientemente fuertes para que permitan la separación de los polímeros pero sin generar reacciones secundarias de estos azúcares en productos indeseados. Con base en el contexto anterior en el presente documento se abordara la definición de biomasa, la composición general de los materiales lignocelulósicos y se especificara los diferentes tipos de tratamiento que se pueden llevar a cabo para lograr el fraccionamiento del material y a partir de sus componentes obtener biocombustibles y productos químicos de importancia comercial.
los residuos de la industria forestal y la agricultura, los desechos urbanos y las plantaciones energéticas se usan, generalmente para procesos modernos de conversión que involucran la generación de energía a gran escala, enfocados hacia la sustitución de combustibles fósiles. Adicionalmente es pertinente reconocer que dicha biomasa no solamente se puede emplear para la producción de energía, también puede servir como materia prima para la producción de múltiples sustancias químicas de gran valor comercial, en la figura 1 se ilustra la secuencia para la obtención de productos químicos de valor comercial obtenidos a partir de biomasa vegetal.
Biomasa Lignocelulosica El material lignocelulósico consiste en tres tipos diferentes de polímeros, celulosa, hemicelulosa y lignina. La celulosa está compuesta por subunidades de D-glucosa unidas por un enlace glucosídico β 1-4. La celulosa en una planta se compone de piezas con una estructura cristalina. Las capas de celulosa se juntan y forman las llamadas fibrillas de celulosa o paquetes de celulosa, estas fibrillas de celulosa son en su mayoría independientes y débilmente unidos a través de enlaces de hidrógeno [4]. La hemicelulosa es una estructura compleja de carbohidratos que consiste en polímeros de diferentes azúcares como xilosa y arabinosa (pentosas), manosa, glucosa y galactosa (hexosas) y ácidos de azúcar. El componente dominante de la hemicelulosa de la madera y plantas agrícolas es el xilano [3]. Figura 1. Furfural, hidroxi-metil furfural y etanol a partir de biomasa vegetal. Biomasa Vegetal Como Madera, trigo, maíz, arroz, cascarilla de arroz
Biomasa El término biomasa se refiere a toda la materia orgánica que proviene de árboles, plantas y desechos de animales que pueden ser convertidos en energía; o las provenientes de la agricultura (residuos de maíz, café, arroz, macadamia), del aserradero (podas, ramas, aserrín, cortezas) y de los residuos urbanos (aguas negras, basura orgánica y otros) [2]. La biomasa que puede ser usada para la producción de energía cubre un amplio rango de materiales y fuentes:
Fuente de Hemicelulosa, celulosa, almidón, sacarosa
Fuente de Pentosas
Hexosas Permite obtener
Monómeros Furánicos de Primera Generación
Etanol
Como Furfural 5-hidroxi-metil furfural
40 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 39-44
Tratamientos Aplicables a Materiales Lignocelulósicos para la Obtención de Etanol y Productos Químicos
La hemicelulosa es una estructura compleja de carbohidratos que consiste en polímeros de diferentes azúcares como xilosa y arabinosa (pentosas), manosa, glucosa y galactosa (hexosas) y ácidos de azúcar. El componente dominante de la hemicelulosa de la madera y plantas agrícolas es el xilano [3]. La hemicelulosa tiene un peso molecular más bajo que la celulosa, y con cadenas laterales cortas que constan de diferentes polímeros de azúcares, fáciles de hidrolizar [3]. La hemicelulosa sirve como una conexión entre la lignina y las fibras de celulosa y le da al conjunto de celulosa-hemicelulosa- lignina rigidez [5]. La lignina es, después de la celulosa y la hemicelulosa, uno de los polímeros más abundantes en la naturaleza y está presente en la pared celular. El objetivo principal de la lignina es dar a la planta el soporte estructural, impermeabilidad, y la resistencia contra el ataque microbiano y el estrés oxidativo. Es insoluble en agua y se considera ópticamente inactiva, todo esto hace que la degradación de la lignina sea muy difícil [3]. En la figura número 2 se observa la composición típica de un material lignocelulósico. Figura 2. Estructura de la biomasa lignocelulósica. lignina
región amorfa
celulosa
Pretratamiento
región cristalline La hemicelulosa o almidón
Debido a la composición del material lignocelulósico la hidrólisis enzimática de esta biomasa es elevadamente limitada debido a varios factores. Diferentes investigadores concluyen que la cristalinidad de la celulosa es sólo uno de ellos. Otros son el grado de polimerización, contenido de humedad, la superficie de contacto disponible y el contenido de lignina [6], [7], [8]. Para lograr la hidrólisis de la biomasa lignocelulósica se han propuesto pretratamientos los cuales se pueden clasificar principalmente en pretratamientos físicos como: mecánicos y térmicos; y químicos empleando ácidos ó bases y la combinación entre estos. A continuación se presentará las características de cada uno de estos.
Pretratamiento mecánico Consiste particularmente en el corte de la biomasa lignocelulósica en pedazos más pequeños. El objetivo de un pretratamiento mecánico es la reducción en el tamaño de partículas así como de la cristalinidad. La reducción de tamaño de las partículas conduce a un aumento de la superficie disponible y una reducción del grado de polimerización [9]. El aumento de la superficie específica, la reducción del grado de polimerización y el corte, son todos factores que aumentan el rendimiento de la hidrólisis total de la biomasa lignocelulósica [10].
Pretratamiento térmico Durante este pretratamiento la biomasa lignocelulósica se calienta. Si la temperatura aumenta por encima de 150-180 °C, en primera instancia, la hemicelulosa y poco después la lignina, comenzará a solubilizarse [11], [12]. Esta temperatura de 180 °C es probablemente sólo una indicación, ya que la reactividad térmica de la biomasa lignocelulósica depende en gran medida de su composición [3]. Durante los procesos térmicos una parte de la hemicelulosa se hidroliza y forma ácidos. Estos mismos ácidos se supone siguen catalizando la hidrólisis de la hemicelulosa [13], [14].
Pretratamiento con vapor de agua Durante el pretratamiento con vapor la biomasa se pone en un recipiente grande, a altas temperaturas (hasta 240°C) y presión, durante unos minutos. Después de una serie tiempo, el vapor se libera y la biomasa se enfría rápidamente. El objetivo de un pretratamiento con vapor o de explosión con vapor es solubilizar la hemicelulosa y así tener mejor acceso para la hidrólisis enzimática de la celulosa evitando la formación de los inhibidores [15]. La diferencia entre el pretratamiento con vapor y la explosión con vapor, es que en este último hay una despresurización rápida y refrigeración de la biomasa al final del pretratamiento, lo que hace que el agua de la biomasa explote el material.
Pretratamiento con agua caliente En este caso el agua se encuentra líquida, el objetivo del pretratamiento es solubilizar principalmente la hemice-
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 39-44 ¦ 41
William Giovanni Cortes Ortiz.
lulosa para tener mejor acceso a la celulosa y evitar la formación de inhibidores. Para evitar la formación de inhibidores, el pH debe mantenerse entre 4 y 7 durante el pretratamiento. Mantener este rango de pH minimiza la formación de los monosacáridos, y por lo tanto también la formación de productos de degradación que pueden seguir catalizando la hidrólisis del material celulósico durante el pretratamiento [16].
Pretratamiento ácido El pretratamiento de la biomasa lignocelulósica con ácidos a temperatura ambiente se realiza para mejorar la digestibilidad anaerobia. El objetivo es solubilizar la hemicelulosa, y lograr con esto mejor acceso a la celulosa [17]. El pretratamiento se puede hacer con ácidos diluidos o con ácidos fuertes; la principal reacción que se produce durante el pretratamiento ácido es la hidrólisis de la hemicelulosa, especialmente de xilano que es relativamente estable en ácido. La hemicelulosa solubilizada en medio ácido puede ser objeto de las reacciones hidrolíticas y producir furfural, HMF y otros productos [3], [17].
Pretratamiento alcalino Durante el pretratamiento alcalino las primeras reacciones que tienen lugar son la solvatación y saponificación. Esto provoca que la biomasa se expanda, lo cual la hace más accesible a las enzimas y bacterias [3]. En altas concentraciones alcalinas, ocurre una hidrólisis alcalina, lo cual conlleva a la degradación y descomposición de polisacáridos [3]. En consecuencia se observa que la biodegradabilidad de la biomasa lignocelulósica está limitada por varios factores como la cristalinidad de la celulosa, el área superficial y el contenido de lignina. Los pretratamientos pueden tener efecto en uno o más de estos aspectos y algunos pueden considerarse más favorables que otros [17]. Una vez realizado el pretratamiento se obtienen dos fracciones: una fracción sólida insoluble en agua la cual contiene celulosa y lignina; la otra fracción es liquida compuesta de hemicelulosa. Posteriormente se realiza la hidrólisis de cada una de las fracciones (celulósica y hemicelulósica) para obtener los monómeros; hexosas y pentosas respectivamente los cuales son la materia prima de diferentes productos químicos dentro de los cuales se encuentra el
etanol; en la figura número 3 se muestra los pasos para obtener etanol a partir de biomasa lignocelulósica. Con base en lo anterior y contextualizando lo descrito anteriormente, en Colombia, uno de los residuos agrícolas que se genera en grandes proporciones, es la cascarilla que recubre el grano de arroz. Debido a sus características fisicoquímicas, la cascarilla es un desecho de muy difícil biodegradación y, considerando su bajo peso específico (100 kg/m3) su evacuación y el transporte se convierten en un problema que implica un elevado costo y un impacto nocivo para el medio ambiente. Figura 3. Etanol a partir de biomasa lignocelulósica. Biomasa Pretratamiento Fracción liquída
Fracción sólida
Hemicelulosa
Lignina Celulosa
Hidrólisis
Hidrólisis
Pentosas
Hexosas Fermentación Destilación Etanol
En la actualidad, el uso de la cascarilla de arroz se limita a su combustión para el calentamiento del aire destinado al proceso de secamiento del arroz; el cual produce grandes cantidades de dióxido de carbono, gas con reconocidos efectos negativos. Según estadísticas de Fedearroz, el área destinada a la siembra de arroz en Colombia es de aproximadamente 400.000 hectáreas en las cuales se produce alrededor de 2.000.000 de toneladas de arroz paddy seco y 400.000 toneladas de cascarilla anualmente. La industria arrocera dentro de su visión estratégica tiene como meta, el aumento del consumo per cápita de arroz hasta el doble del valor actual (39 kg/persona/año), lo anterior supone un incremento en la producción de arroz y en consecuencia de cascarilla. De acuerdo con la composición química de la cascarilla de arroz, la cual se encuentra alrededor de un 33% de
42 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 39-44
Tratamientos Aplicables a Materiales Lignocelulósicos para la Obtención de Etanol y Productos Químicos
celulosa, 15% de hemicelulosa y 20% de lignina [18], una alternativa para el aprovechamiento integral de este material, puede ser emplear la fracción celulósica como fuente de hexosas para la producción bioetanol y emplear la fracción hemicelulósica como una fuente de pentosas, las cuales a su vez, pueden ser la materia prima para la producción de numerosos productos químicos.
[7] Koullas, D.P., Christakopoulos, P., Kekos, D., Macris, B.J., Koikios, E.G., 1992. Correlating the effect of pretreatment on the enzymatic hydrolysis of straw. Biotechnol. Bioeng. 39, 113-116.
Conclusiones
[9] Hartmann, H., Angelidaki, I., Ahring, B.K., 1999. Increase of anaerobic degradation of particulate organic matter in full-scale biogas plants by mechanical maceration. In: Mata-Alvarez, J., Tilche, A., Cecchi, F. (Eds), Proceedings of the Second International Symposium on Anaerobic Digestion of Solid Wastes, Barcelona, vol. 1, pp. 129-136.
La aplicación de pretratamientos a los materiales lignocelulósicos permite disociar el complejo formado por la hemicelulosa, celulosa y lignina; de esta manera se puede emplear cada una de las fracciones como materia prima para la obtención de diversos productos químicos. Debido al gran efecto deletéreo que causa la combustión de materiales (lignocelulósicos) sobre el ambiente, la obtención de bioetanol y productos químicos como furfural a partir de los azúcares presentes en las fracciones celulósica y hemicelulósica de estos materiales son una alternativa que permite brindarle un valor agregado y a su vez mitigar la afectación que causa al ambiente.
Bibliografía [1] Gallezot, P. 2007. Catalytic routes from renewables to fine chemicals. Catalysis Today 121 (2007) 76-91. [2] Manual sobre energía Renovable. Costa Rica 2002. Documento financiado por el gobierno. [3] Fengel, D., Weneger, G., 1984. Wood: Chemestry. Ultrastructure. Reactions. De gruyter, Berlin. [4] Pettersen, R.C., 1984. The chemical composition of wood (chapter 2). In: Rowell, R.M., (Ed), The chemistry of solid wood, Advances in Chemistry Series, vol. 207. American Chemical Society, Washintong, DC, p.984.
[8] Puri, V.P., 1984. Effect of crystallinity and degree of polymerization of cellulose on enzymatic saccharification. Biotechnol. Bioeng. 26, 1219-1222.
[10] Bobleter, O., 1994. Hydrothermal degradation of polymers derived from plants. Progress in Polymer Science 19, 797-841. [11] Garrote, G.,Dominguez, H., Parajó. J.C. 1999. Hydrothermal processing of lignocellulosic materials. Holz Roh Werkst 57 (3). 191-202. [12] Gregg, D.,Saddler, J.N., 1996. A techno-economic assessment of the pretreatment and fractionation steps of a biomass-to-ethanol process. Appl. Biochem. Biotechnol., 711-727. [13] Liu, C., Wyman, C.E., 2003. The effect of flow rate of compressed hot water on xylan, lignin and total mass removal from corn stover. Ind. Eng. Chem. Res. 31, 1157-1161. [14] Mok, W.S., Antal Jr., M.J. 1992. Uncatalizedsolvolysisof whole biomass hemicellulose by hot compressed liquid water. Industrial Engeneering Chemestry Research 31, 1157-1161.
[5] Laureano-Perez, L., Teymouri, F., Alizadeh, H., Dale, B.E., 2005. Understanding factors that limit enzymatic hydrolisis of biomass. Appl. Biochem. Biotechnol., 1081-1099.
[15] Kohlman, K.L., Sarikaya, A., Westgate, P.J., Weil, J., Velayudhan, A., Hendrickson, R., Ladisch, M.R. 1995. Enhanced enzyme activities on hydrated lignocellulosic substrates. In: saddler, J.N., Penner, M.H. (Eds), Enzymatic degradation of Insoluble Carbohydrates. ACS Publishing, 237-255.
[6] Chang, V.S., Holtzapple, M.T. 2000. Fundamental factors affecting biomass enzymatic reactivity. Applied Biochemestry and Biotechnology 84, 5-37.
[16] Ramos, L.P., 2003. The chemistry involved in the steam treatment of lignocellulosic materials. Quim. Nova. 26 (6), 863-871.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 39-44 ¦ 43
William Giovanni Cortes Ortiz.
[17] Piñeros, Y., Otalvaro, A., Campos, A., Cortés, W., Proaños, J., 2010. Aplicación de tecnologías para el aprovechamiento de la cascarilla de arroz.
El Autor William Giovanni Cortés Ortiz Licenciado en Química y Magister en Ciencias Ambientales con experiencia en análisis cromatográficos; ha enfocado sus estudios en el aprovechamiento de residuos agroindustriales con el fin de obtener materias primas que permitan la obtención de productos químicos de interés industrial y social.
44 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 39-44
New Generation Networks: a Networking Trend Redes de nueva generación: Una consolidación del networking
Carlos Arturo Castillo Medina*, Octavio José Salcedo Parra**, Felipe Forero Rodríguez*.
Abstract
Resumen
his paper offers a comprehensive survey of recent developments in the field of Next Generation Networks (NGN). The traditional concepts associated to NGN are extended by including up-to-date studies and standards and also by sorting future research lines according to the main challenges of such networks, namely architecture, management and mobility. The current trend suggests that certain key aspects are yet to be solved in order to determine who the actual owner of an NGN network is.
T
Keywords: New Generation Networks,Quality of Service, NGN Mobilite
ste trabajo ofrece un estudio exhaustivo de los acontecimientos recientes en el ámbito de las Redes de Próxima Generación (NGN). Los conceptos tradicionales asociados a las NGN se amplían mediante la inclusión de arriba-afecha de los estudios y las normas y también por la clasificación futuras líneas de investigación de acuerdo a los principales retos de este tipo de redes, es decir, la arquitectura, la gestión y la movilidad. La tendencia actual sugiere que algunos aspectos clave aún no se han resuelto con el fin de determinar quién es el dueño real de una red NGN.
E
Palabras Clave: Redes de Nueva Generación, calidad del servicio, las NGN Mobilite.
Recibido / Received: Diciembre 05 de 2013 Aprobado / Aproved: Abril 07 de 2014 Tipo de artículo / Type of paper: Articulo de investigación científica y tecnológica terminada. Afiliación Institucional de los autores / Institutional Affiliation of authors: *Universidad El Bosque, **Universidad Distrital Francisco José de Caldas. Autor para comunicaciones / Author communications: Carlos Arturo Castillo Medina, xxxxxxxxxxxx@xxxxxxxx.edu.co Los autores declaran que no tienen conflicto de interés.
Carlos Arturo Castillo Medina, Octavio José Salcedo Parra, Felipe Forero Rodríguez.
Introducción At present, technological convergence has allowed gradual integration of various types of heterogeneous network infrastructures, which are capable of offering added-value services as well as guaranteeing the Quality of Service (QoS) provided by the transport layer. This type of suitable convergence has been termed Next Generation Network (NGN). However, such a continuous technological shift, makes us wonder about the type of network architecture we are facing, namely about a somewhat unusual architecture in which services play a fundamental role [1]. In the last decade, this servicedriven philosophy of network design has promoted the use of reusable components so as to efficiently support the sort of uninterrupted services that operate using different types of networks. To this end, a series of highlevel interfaces have been created in order to guarantee a successful deployment of the so called Service Oriented Architecture model (SOA). Communication networks evolution, from traditional networks to NGN, has relied upon appropriate convergence of applications and services. Within NGN, multimedia services are meant to be safe and accessible from any network using any type of desktop-based or mobile terminal; which is possible through the use of a unified transport network. In order to achieve these aims, there is a consensus about the use of MPLS-based IP routers to carry out tagging processes as well as traffic differentiation. However, some other aspects are still to be considered when attempting to define NGN, namely network architecture, network management and network mobility (which governs current IP networks). In order to set a complete context that allows a clear understanding of NGN trends, this paper is organized as follows: A concept provided by ITU1 on New Generation Networks is presented as the starting point is; subsequently, the structural and functional architecture of such networks is explained. Then, a recently adopted approach on management and services is discussed to finally analyze the concept of mobility.
Definition and Features of New Generation Networks (NGN) According to what has been established by ITU regarding NGN, it can be stated that a particular NGN is a packettransmission-based network that is capable of offering integrated services (including traditional telephone services) and also capable of fully exploiting the channel’s available bandwidth through the use of Quality of service Technology (QoS) so that packet transport is successfully carried out regardless of the network infrastructure. Additionally, this network offers unrestricted access to users from various telephone companies and also supports mobility, allowing user multipoint access [2][3]. When analyzing the previous definition of NGN, the following fundamental features can be found: • The transport plane is to be based on IP/MPLS packet
switching technology • There is a separation between services and transport-network technology (Decoupling Access and Services) • A wide range of services, applications and mechanisms of different nature must be supported, namely real-time, non-real-time, streaming, multimedia services etc. • End-to-end broadband access, including Quality of
Service (QoS), must be guaranteed. • Traditional networks should migrate, or else provide
inter-operation through the use of open interfaces and standard protocols • Existence of generalized mobility • Users should be provided with unrestricted access to
various service providers • Users should perceive that the same services share
unified features • Fixed and Mobile Convergence must exist (FMC) in
terms of services • The network must support multiple last-mile tech-
nologies as well as various types of access networks • There must be full compliance with all standard
1. ITU: International Telecommunication Union.
requirements regarding security, privacy, emergency communication, legal interception, etc.
46 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 45-54
New Generation Networks:a Networking Trend
After analyzing the aforementioned concepts and features, and in order to gain a better understanding of the rationale behind the general concept of NGN, it can be observed that the first part of the definition addresses the sort of packet-based information flow that occurs within the Internet regardless of the IP-protocol version. This allows, and to a certain extent compels developers to use the IP protocol for their creations to survive within an Internet-dependent environment, which suggests a recovery for protocol IP in terms of popular awareness. A second fundamental aspect lies in determining the great variety of equipment that converges on a single network, which makes protocol coexistence necessary and poses traffic management as a decisive factor, since isolated conflicts cause overall network congestion. Thus, the problems associated to new-service articulation and traditional-network supported service integration divert the concept of QoS onto the aspects that pertain to the transport and data-link layers, specifically onto the principles of encapsulation [4]. In order to achieve reliable connectivity in terms of transport, it was decided that protocol IP be used to guarantee a type of public connectivity that becomes general, ubiquitous and global. Such a protocol can be easily transported over various underlying access technologies and also over various core transport-layer technologies (e.g. xDSL, ATM, MPLS, frame-retransmission, OTN) according to the environment of a particular service provider.[5] Regarding the previous discussion, it is important to include connectivity aspects that support IPv4, IPv6, real-time communications, one-to-one point connectivity, and one-to-many connectivity. On the other hand, and provided that the main purpose of NGN is to admit services and applications regardless of the accessnetwork technologies, these networks should also support any user network regardless of the configuration complexity level. That is, an NGN is intended to handle the end-user functional starting processes that deal with service access, and address-space management. By taking advantage of IPv6, it is possible to support not only address-space extensions but also various advanced features that impact on NGN networking functions as well as on the performance of the corresponding functional entities. This contributes to further flexibility
when introducing new services/applications by using extension-and-option header combinations. Within signaling aspects, recommendation H-323 can be highlighted (packet-based multimedia communication systems). This recommendation deals with the way PC telephones or existing conventional telephones can be properly connected (with adapters) to packet networks and so inter-operate with Public Switched Telephone Networks by using gateways. Recommendation H.323 is part of a larger series of standards and regulations intended to facilitate videoconferences over a wide variety of networks. Widely known as H.32X, this series of standards includes recommendations such as H.320 for narrow band ISDN (N-ISDN), H.321 for broadband ISDN (B-ISDN) and H.324 for General Switched Telephone Networks (GSTN). Figure 1 illustrates protocol series H.323 [6][3]. Figure 1. Series-H.323 protocols
Audio
Video
G.711
H.261
G.722
H.263
G.723
Data
Interfaz usuario control de
H.225 T.120
Control llamadas
G.728 RTP/RTCP UDP
Control H.245 RAS
UDP o TCP IP Las capas inferiodes varían
Provided the preservation and continuity of protocol IP, it is worth mentioning that the current protocol-associated evolution of NGN networking further supports any IPv6-based work. This allows solving particular optimization issues in terms of routing, particularly when using NEMO technologies, which offer increased bandwidth and better scalability of network services. [7] On the other hand, it is necessary to observe how optical-fiber services increasingly permeate every-day activities and businesses. Such is the case of Japan, where a complete optical-fiber infrastructure is already operating and internet-access home services (FTTH) as well as video distribution services are provided based on
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 45-54 ¦ 47
Carlos Arturo Castillo Medina, Octavio José Salcedo Parra, Felipe Forero Rodríguez.
technologies such as PON and G-PON. The benefits of having this type infrastructure include lower costs, larger bandwidth availability and further reductions in terms of network maintenance [8]. This recently developed evolution undergone by big networks whose physical layer used to rely on copper, and now rely on optical fiber, allows proper migration of IP networks from circuit-switching based to packet-switching based. This results in end users (either home or business) requiring larger bandwidths, especially in rural or suburban areas, which entails architecture improvements within an NGN at the access level as well as better organization of telecommunication service providers.[9] Similar to the way copper-to-fiber evolution is to be considered, careful attention should also be paid to wireless networks. These networks are now widely implemented and play a major role within the whole concept of NGN mobility. Thus it is necessary to provide high transmission rates with small convergence areas and low cost. This issue has been addressed and managed by implementing mobile communications 4G standards, where a solution is to be provided for the various convergent technologies. Solutions also address support for existing services. A summary of these aspects and their associated features can be found in [10] When having a close look at what has been termed web 2.0 and also at the so called SOA, the characteristic elements associated to NGN can be easily found. Such elements are mainly intended to solve user needs and to ease knowledge exchange (more than mere object-reference information exchange). Within these fundamental purposes, social communities represent the most compelling feature for internet service providers, promoting a paradigm shift in terms of service demand, and extending to other aspects such as adaptability, contextualization and service customization; these elements can only be integrated with ease within an actual NGN. [11][12]. It is also important to mention the aspects associated to the migration process from traditional networks to IP networks, as stated in [13], where some of the most relevant factors include traditional-network maintenance costs, VoIP development and the current multimediaservice market. Three alternatives are introduced to be implemented, either in a mutually-exclusive fashion or
as a combination of strategies depending on the scale of financial investment of service providers. The alternatives are as follows: i) complete replacement of traditional networks with IP-based NGN, ii) an overlap of NGN over previous networks considering gateway problems that may occur, and iii) a gradual migration that depends on existing infrastructure at the access level, taking advantage of switches and also of Time Division Multiplexing (TDM). However, not having accomplished a full development of both the concepts and technologies that allow a solid definition of NGN, in [14] a new term is already put forward, namely NWGN. The proposal covers five major parts and, overall, gathers a series of conditions that allow better planning and design for recently developed networks as well as for upcoming networks (Figure 2). Figure 2. NWGN Parts
Earth E: Sustainable Network E-1 Green network E-2 Efficient spectrum usage
A: Value Creation Network A-1 Service creation network A-2 Media Creation network
Society Living Space
Human B: Trustable Network B-1 Social infraestructure for trustable network B-2 Trustable network for human and society
C: Ambient/Ubiquitous Network C-1 Global-scale sensor/actuator cloud C-2 Real-world info processing platform
Things D: “Self-* Network D-1 Network for diversity D-2 Network unification D-3 “OMOTENASHI”” (Hospitable) network
New Generation Networks Architecture Figure 3 shows the typical components of New Generations Networks, where four main levels can be observed [2], namely: Network Services: This level deals with providing users with services and applications. The level consists of a
48 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 45-54
New Generation Networks:a Networking Trend
series of servers to guarantee that the network actually offers the type of solutions expected by end users, e.g. web servers, authorization (AAA) and control servers, Proxy Servers, LDAP Configuration Servers, and authentication g-servers ( WAP Server). Figure 3. Components of NGN
Core Network: Mainly represented by the network’s backbone associated to traditional networks and of those networks that emerge from technological advances, this level concentrates all information transport that may exist among the various network entities. The level is basically in charge of packet transfer and also of management and control functions. Access Network: The importance of this level lies in the need to connect to different access technologies. The level allows coexistence of various technological means and separates the network core from user equipment. User Equipment: This level consists of all the equipment employed by users to access the network. The level supports a wide variety of protocols and technologies intended to receive services and/or applications from the network.
Figure 4. Functional Structure of NGN 3rd Party Application Providers ANI Service stratum Application Functions
___ _ ___ _ _ ___ _ _ ___ _ _ ___ _ _ ___ _ _ ___ _ _ ___ _ _ ___ _ _ ___ _ _ ___ _ _ ___ _ _ Services ___ _ _ ___ Control
Management Functions
Service User Profiles
Service Control Functions
Transport User Profiles
Network Attachment Control Functions
Resource and Admission Control Functions
Transport Control Functions End-User Functions
Other Networks
Media Handling Functions Access Functions
Access Transport Functions
UNI
Edge Functions
Core Transport Functions
Gateway Functions NNI
Transport Functions Transport stratum Control Media Management
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 45-54 ¦ 49
Carlos Arturo Castillo Medina, Octavio José Salcedo Parra, Felipe Forero Rodríguez.
On the other hand, Figure 4 shows the functional structure of NGN as stated in various official documents issued by ITU-T, namely ITU-T X (where X refers to each of the documents that established the necessary NGN operation conditions). In this sense, the architecture associated to NGN requires flexible configurations that allow accessing from multiple technologies; likewise, such an architecture must support distribution and control mechanisms, providing proper separation between the services it provides (through information transport) and the various bit rates that pertain to NGN services [5] [15] [16]
offer advanced and complex functionalities. Resulting from a third-party provider initiative for applications and services, the main purpose is to develop new applications and capabilities to be accessed by using open, normalized interfaces. This initiative is motivated by the ever-greater need for cooperation among service-and-network providers when developing normalized application network interfaces (ANI). As a result, NGN networks are meant to support software reuse and software portability as well as the use of commercial software, thus achieving a profitable development.
The functions of this architecture are separated into two big layers, namely Service and Transport. The functions of the Service Layer offer support for session-based and non-session services. These functions include further support for subscriptions and notifications; likewise, they offer message exchange methods. The characteristics of management and administration functions within a particular NGN are included in the Transport Layer; this layer guarantees proper configuration, authentication and security of end-user equipment, either desktopbased or mobile.[3]
NGN also provides the necessary capacity to establish, manage and end end-to-end service sessions intended to cover, for instance, various parts, a set of end points associated to those parts, and a description of the multimedia connections between end points. These network capabilities are available for fixed-network environments and also for mobile networks in order to meet the service requirements and make use of adequate application servers for proper service performance.
Management and Services This section introduces a series of relevant services that allow determining the importance of NGN developments in the dynamics of supply and demand for telecommunication service providers nowadays. In recent years, NGN networks have gradually replaced traditional networks (SDH, PDH) and up to a certain extent NGN has become a solid foundation for data transport over IP/Ethernet; as a consequence, the type of traffic that converges in these new networks also brings its own difficulties, such as synchronization issues at a data level and also at a network level. In order to address these issues, it is necessary to study new measurement techniques intended for time-frequency distributions using packets. New methods have been developed to deal with clock synchronization over packet-based networks, namely Network Time Protocol (NTP) and Precise Time Protocol (PTP), which guarantee convergence and network service [17]. NGN embraces new capabilities and supports a wide range of emerging services, including those services that
NGN offers application support through the web, which facilitates improvements in the exploitation of devices maximum capacity as well as of the network’s characteristics; this is particularly suitable for the case of web-based applications. Support capabilities of this sort of applications allow users to have a web-based environment that is coherent and that can cover different network environments (e.g. local, office-based and/or mobile) as well as various types of devices (e.g. portable, mobile telephones, personal computers, tablets). In this sense, various needs are successfully satisfied, namely interoperability between wired and wireless networks, safe access to applications, efficient use of bandwidth, etc.[18] Quality is an important concept in the construction of NGN. However, the term “quality” may be associated to various meanings. For instance, quality can be used to refer to voice quality in a telephone call, or the term can be used to talk about image quality in video-delivery services. Quality can also be associated to communication services when describing the extent (and time span) to which communication equipment works with no failure and also to refer to client request response times whenever customers require a specific service or maintenance assistance from service providers [6] [17].
50 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 45-54
New Generation Networks:a Networking Trend
By observing Figure 5, it is possible to determine four levels/types of telecommunication service quality. The parameters that help to specify each type of Quality of Service are as follows: IP packets, transfer delay, IP packet transfer, delay variation and IP-packet-loss rates between UNI, NNI, and some SNI reference points. Specific Quality of Service between reference points is provided by the NGN in terms of network performance. For a particular NGN, the type of QoS required by certain service (e.g. IP telephone calls, video streaming, or data communication) can be negotiated between the network and the corresponding terminal/server.
layers, namely transport and service. For authentication purposes on the transport layer, it is required that the network identifies a particular user before the user actually accesses the network and its privilege functions. A single authentication function may become important when attempting to prevent unauthorized use of networks, e.g. to avoid large-volume non-requested data communications taking place. Due to the authorization function, an authority emerges to control access to network resources, and so this contributes to counteracting access violations [19] [20].
Figure 5. Types of QoS in NGN
Mobility
An NGN supports end-to-end QoS through various networks that use diverse infrastructure technologies offered by various service providers in order to guarantee a particular level of service required by users or by applications [19].
Some of the most relevant characteristics of NGNs include the concept of generalized mobility, that is, the capability of users or of other mobile entities o communicate with others and have access to services regardless of location changes or of any changes in the technical environment [1] [11]. The concept of wireless-network mobility is extended and applied to single entities that can communicate independent of the place and service. The degree of service availability may depend on factors such as access-network capacity (where bottle-neck phenomena is usually observed) and the type of servicelevel agreement between the user’s own network and the networks of various providers.
NGNs accept various levels of QoS that can be negotiated between users and providers, and/or among providers. This involves the use of various strategies such as resource-control and resource-admission mechanisms, class of traffic differentiation, precedence management, QoS signaling mechanisms, operation-quality management measurements that guarantee quality, and congestion (overload) control.[6] NGNs include capabilities for user identification, which allows network operators and service providers to identify particular users of certain NGN services and so use such information for specific purposes (e.g. authentication and authorization procedures). NGNs offer further capabilities for users to identify NGN providers NGN (on every layer) whenever direct relations exist. In this sense, these networks support authentication and authorization functionalities on both
Nowadays, it is important to consider that smart-phones have played an important role in popularizing mobile internet access for millions of people, which is an evergrowing trend. In terms of technology, mobility has become a requirement, thus the telecommunication industry is compelled to continue promoting and enhancing such wireless access for years to come; allowing for reliability and data rates that compare with those of wired connections [21]. Users may be offered the possibility of using a wider variety of access technologies, which permits mobility between wired public-access points and wireless access points of various technologies. This means that mobility is not to interrupt an ongoing application or service in use. To this end, the following goals must be attained: • Possibility to use various access technologies from
different locations
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 45-54 ¦ 51
Carlos Arturo Castillo Medina, Octavio José Salcedo Parra, Felipe Forero Rodríguez.
• Ever-more seamless broadband communications
between wired and wireless networks • Continuity when crossing the borders of existing
networks; this should entail no interruptions of applications or of client services (proper roaming agreements)
which represent an almost impossible challenge for a single provider to cope. Nevertheless, it is important to highlight that the protocol IP is still the bedrock upon which telecommunication decisions are taken regardless of the protocol’s version.
Mobility management includes the ability of mobile entities (e.g. user, terminals and local networks) to move form one network to another (itinerants), either towards an NGN or towards conventional networks. NGNs deal with two types of mobility, namely personal mobility and terminal mobility (UIT-T Q.1706).
Referencias
In an NGN, personal mobility exists whenever users employ registration mechanisms to associate themselves to a terminal that may also be associated (by the network) to the users. When there are interfaces intended for user registration between users and terminals and also between users and networks, such interfaces are to be used. Likewise, in this version of NGN, both intranetwork and inter-network terminal mobility is allowed when using registration mechanisms to associate a particular terminal to a network, having terminal mobility support with service continuity [22].
[2] M.-J. Choi, «Towards Management of Next Generation Networks», E90-B, no. No 11, pp. 3004 – 3014, nov. 2007.
Conclusions Although it is evident that the recent advances in terms of network infrastructure, interconnection, and services are significant; to date, it is still somewhat pretentious to claim that there is a true integration within the service and transport layers that constitute telecommunication networks. There is no doubt that improvements in terms of transport are considerable and the range of services to be offered grows on a continuous basis. However, while complete regions in some parts of the world are very close to attaining the goals embraced by NGN concepts, some other regions are being left with scarce or no access to internet services, which makes us reflect on how utterly distant we are from living in an actual worldwide community driven by telecommunications. Telecommunication service providers have understood that it is necessary to integrate their services and also to share their resources in order to meet an ever-growing user demand that entails covering particular needs,
[1] G. Branca y L. Atzori, «A Survey of SOA Technologies in NGN Network Architectures», Communications Surveys & Tutorials, IEEE, vol. 14, no. 3, pp. 644–661, Third Quarter 2012.
[3] Comisión Interamericana de Telecomunicaciones CITEL, «Redes de Próxima Generación: Visión General de Normas», Comisión Interamericana de Telecomunicaciones CITEL, Washington, DC., Informe Técnico 1, mar. 2004. [4] L. Kish y F. Peper, «Information Networks Secured by the Laws of Physics», IEICE TRANS. COMMUN., vol. E-95-B, no. No 5, pp. 1501 – 1506, may 2012. [5] SECTOR DE NORMALIZACIÓN DE LAS TELECOMUNICACIONES DE LA UIT, Requisitos y capacidades de las NGN del UIT-T. 2009. [6] Jongtae Song, Mi Young Chang, Soon Seok Lee, y Jinoo Joung, «Overview of ITU-T NGN QoS Control», Communications Magazine, IEEE, vol. 45, no. 9, pp. 116–123, sep. 2007. [7] «IPv6 Network Mobility Route Optimization Survey», 2011. [Online]. Available: http://www. thescipub.com/pdf/10.3844/ajassp.2011.579.583. [8] H. Ikeda, «Future Service Adaptive Access/Aggregation Network Architecture», IEECE TRANS. COMMUN., vol. E95-B, no. 3, pp. 696 – 705, mar. 2012. [9] S. Paudel, «Migration of TDM network into NGN for the Fixed Wire-line access Network», Internet (AH-ICI), 2011 Second Asian Himalayas International Conference on, pp. 1–5, nov. 2011.
52 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 45-54
New Generation Networks:a Networking Trend
[10] S. Rizvi, A. Aziz, y N. M. Saad, «An overview of vertical handoff decision policies for next generation wireless networks», Circuits and Systems (APCCAS), 2010 IEEE Asia Pacific Conference on, pp. 88–91, dic. 2010.
[17] M. Hadzialic, M. Dzaferagic, y D. Raca, «Impact of frequency synchronization on QoS in IP based networks», MIPRO, 2012 Proceedings of the 35th International Convention, pp. 652–655, may 2012.
[11] J. Simoes y S. Wahle, «The future of services in next generation networks», Potentials, IEEE, vol. 30, no. 1, pp. 24–29, feb. 2011.
[18] INTERNATIONAL TELECOMMUNICATION UNION ITU, «Proposed figure for NGN architecture with Web service component», ITU, Geneva, Técnico, jun. 2009.
[12] K. Mase, «Information and Communication Technology and Electric Vehicles - Paving the Way towards a Smart Community», IEICE TRANS. COMMUN., vol. E-95-B, no. No 6, pp. 1902 – 1910, jun. 2012.
[19] J. David C, P. Sanmartin M, y J. Marquez D, «Model of QoS on NGN: An Analysis of Performance», Electronics, Robotics and Automotive Mechanics Conference (CERMA), 2010, pp. 271–276, oct. 2010.
[13] M. Wojciech, «Survey of NGN migration profiles deployed by selected carriers in Europe, North America and Asia», Journal of Telecommunications and Information Technology, pp. 60 – 64, mar. 2008.
[20] U. Hany, A. B. M. Siddique Hossain, y P. K. Saha, «QoS optimization and performance analysis of NGN», Electrical and Computer Engineering (ICECE), 2010 International Conference on, pp. 364–367, 2010.
[14] N. Nishinaga, «NICT New Generation Network Vision and Five Network Targets», IEICE TRANS. COMMUN., vol. E-93-B, no. No 3, pp. 446 – 449, mar. 2010. [15] «IEEE Standard for the Functional Architecture of Next Generation Service Overlay Networks», IEEE Std 1903-2011, pp. 1–147, oct. 2011.
[21] W. A. Aziz, S. H. Elramly, y M. M. Ibrahim, «VoIP Quality Optimization in IP-Multimedia Subsystem (IMS)», Computational Intelligence, Modelling and Simulation (CIMSiM), 2010 Second International Conference on, pp. 546–552, 2010.
[16] The European Telecommunications Standards Institute (ETSI), Telecommunications and Internet converged Services and Protocols for Advanced Networking (TISPAN); NGN Functional Architecture. Francia: ETSI, 2009.
[22] N. Blum, S. Lampe, y T. Magedanz, «Design of a message interworking function for converged IP messaging in Next Generation Networks», Computers and Communications, 2009. ISCC 2009. IEEE Symposium on, pp. 80–85, 2009.
Los Autores Carlos Arturo Castillo Medina Magister en Ciencias de la Información y las Comunicaciones de la Universidad Distrital FJC. Especialista en Gerencia de Proyectos de la Universidad El Bosque. Ingeniero de Sistemas de la Universidad Distrital FJC. Estudios de Ingeniería Eléctrica en la Universidad Nacional de Colombia. Instructor certificado de Cisco Systems. Actualmente trabaja como docente en la Universidad Católica de Colombia y en la Universidad El Bosque.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 45-54 ¦ 53
Carlos Arturo Castillo Medina, Octavio José Salcedo Parra, Felipe Forero Rodríguez.
Octavio José Salcedo Parra Docente Asociado, Facultad de Ingeniería, Universidad Distrital “Francisco José de Caldas”, en temas de redes de comunicaciones y Economía. Docente Asociado, Departamento de Ingeniería de Sistemas e Ingeniería Industrial. Universidad Nacional de Colombia, sede Bogotá, en temas de redes de comunicaciones. Director del Grupo de Investigación “Internet Inteligente”, Clasificado por Colciencias A1. Editor de la Revista Ingeniería 2007 – 2009, Facultad de Ingeniería, Universidad Distrital “Francisco José de Caldas”. Decano Facultad de Ingeniería Universidad Distrital “Francisco José de Caldas” 2011-2013. Ingeniero de Sistemas. Magister en Teleinformática, Universidad Distrital. Magister en Economía, Universidad De los Andes. DEA en la Universidad Pontificia de Salamanca, Campus de Madrid - España. PhD. en Ingeniería Informática, Universidad Pontificia de Salamanca, Campus de Madrid - España. Candidato a Doctor en Estudios Políticos, Universidad Externado de Colombia. Correó electrónico:octavionetworking@gmail.com. Felipe Forero Rodríguez Ingeniero Electrónico y Magister en Ciencias de la Información y las Comunicaciones de la Universidad Distrital Francisco José de Caldas. Su principal tema de investigación es la Radio Cognitiva. Actualmente adelanta estudios de doctorado en ingeniería en la Universidad de los Andes investigando protocolos para distribución de tráfico en redes de telecomunicaciones a partir de interacciones bio-inspiradas. Ha trabajado como asesor de revistas de ingeniería en inglés y como docente en el área de telecomunicaiones por más de 5 años y realiza programas especiales en las universidades para capacitación de docentes en escritura de artículos y presentación de ponencias en inglés.
54 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 45-54
¿En época de crisis, es factible construir el futuro? In times of crisis, it is feasible to build the future?
Ricardo Prada Ospina**, Pablo C. Ocampo Vélez*.
Abstract
Resumen
rosperity, is to live happy and stay without effort; It is the peace of mind that everything you need to perform and / or succeed in life. Consequently, economic growth should be in sound logic, leading to the instrument creating greater prosperity. As incomes grow, should also improve the chances of realization, to enjoy a more comfortable life rich in short, to acquire a higher level of well-being and quality of life. That is, at least, which in theory is supposed to happen. Today, however, things are not so easily satisfied with that view. Global economic growth, propelled in large amount by submission to mere profit and profit, is in doubt and danger. In times of crisis, organizations must find tools or methodologies that enable them to build their future, and thus make the best decisions.
P
Keywords: Crisis, prosperity, future, choice, value networks, processes.
rosperidad, es vivir feliz y permanecer sin esfuerzo; Es la tranquilidad de saber que todo lo que necesita para llevar a cabo y / o tener éxito en la vida. En consecuencia, el crecimiento económico debe estar en buena lógica, lo que lleva al instrumento creando una mayor prosperidad. A medida que crecen los ingresos, también debería mejorar las posibilidades de realización, para disfrutar de una vida más cómoda rica en definitiva, para adquirir un mayor nivel de bienestar y calidad de vida. Esto es, al menos, que en teoría se supone que sucede. Hoy, sin embargo, las cosas no son tan fáciles de satisfacer con esa opinión. El crecimiento económico mundial, impulsado en gran cantidad por la sumisión a la mera ganancia y el lucro, está en duda y peligro. En tiempos de crisis, las organizaciones deben buscar herramientas o metodologías que les permitan construir su futuro, y así tomar las mejores decisiones.
P
Palabras Clave: Crisis, prosperidad, futuro, elección, redes de valor, procesos.
Recibido / Received: Febrero 11 de 2014 Aprobado / Aproved: Mayo 28 de 2014 Tipo de artículo / Type of paper: Articulo de Reflexión de investigación terminada. Afiliación Institucional de los autores / Institutional Affiliation of authors: *Universidad Antonio de Nebrija España MBA-Magister, **Profesor asociado de la Facultad de Posgrados, de la Universidad EAN. Autor para comunicaciones / Author communications: Ricardo Prada Ospina, xxxxxxxxxxxx@xxxxxxxxxx Los autores declaran que no tienen conflicto de interés.
Ricardo Prada Ospina, Pablo C. Ocampo Vélez.
Introducción Según Blondel (1969), el futuro es una página sin leerse, una página que todavía está en blanco. Allí no existen datos ni estadísticas; sólo referencias expresadas en forma de tendencias, ideas y hechos probables. En los tiempos actuales, tan influenciados por la aceleración de los acontecimientos que presagian escenarios negativos, y quizás también, por el pánico debido a la recesión económica, casi mundial, se precisa marchar de prisa y movilizarse cuanto antes. Hay que actuar sí, pero no se sabe en qué dirección, y además por la ausencia de liderazgo y de proyección futura, se cree que esto consiste, al final, en repetir la historia, en hacer más de lo mismo. Cada día que pasa son más alarmantes los hechos; la situación socioeconómica mundial se caracteriza por la incertidumbre. No obstante, el futuro, no es sólo cuestión de preveerlo, sino de construirlo, de acuerdo a Blondel (1969). Garantizar el estado del bienestar se ha convertido en algo secundario. Es cierto que el beneficio, en el mejor de los casos, produce un reparto en el seno de la sociedad, pero también es cierto que este reparto cada vez es más injusto y desigual: Más de 1.300 millones de habitantes, una quinta parte de la población mundial, ganan tan sólo el 2% de los ingresos totales, a nivel mundial. En el planeta Tierra hoy conviven más de 4.000 millones de personas que, mayoritariamente, viven en los países en vías de desarrollo y cuyos ingresos anuales per cápita se sitúan por debajo de los 1.590 dólares al año. (CEPAL, 2011). Este artículo intenta relacionar la posible visualización del futuro en época de crisis, mediante la aportación propia apoyada en revisión bibliográfica, no completa, de especialistas.
Desarrollo De acuerdo a Godet, (2009), no existen aún estadísticas sobre lo que develará el mañana. El juicio personal es a menudo el único elemento de información disponible, ante el futuro. Es necesario entonces, recoger opiniones para forjarse una convicción y apostar en forma de probabilidades subjetivas. Pero, esta competencia de los especialistas, es a menudo cuestionable y sobre todo, confusa. La convicción es simple: el hecho de que un especialista represente la opinión característica de un grupo de actores basta para que su punto de vista interese, ya
que, acertada o erróneamente, esos actores orientarán su acción partiendo sólo de esa visión del futuro. La incertidumbre sobre el futuro puede medirse gracias al número de escenarios que se reparten el campo de lo probable. En principio, mientras más elevado sea ese número, mayor será el grado de incertidumbre. También es necesario tomar en cuenta la diferencia de contenido entre los escenarios: los más probables pueden ser muy afines o muy opuestos. Godet (2000). En teoría se pueden presentar dos situaciones: Si el grado de incertidumbre es bajo, es decir si un número limitado de escenarios afines concentra la mayor parte del campo de los probables, se podría optar, bien por una estrategia arriesgada, apostando por un escenario de entre los más probables, bien por una estrategia más consistente, que resista bien a la mayor parte de las evoluciones probables. Si el grado de incertidumbre fuese elevado – y sería necesaria entonces más de la mitad de los escenarios posibles para cubrir el 80% del campo de los probables, con la particularidad de que los muy probables, a su vez, reflejan grandes contrastes entre ellos - convendría adoptar una estrategia flexible que abarque el máximo de opciones estratégicas reversibles. En este caso el problema es negarse al riesgo y adoptar una estrategia que conlleve el rechazo a las opciones arriesgadas y eventualmente muy provechosas, para refugiarse en decisiones cuyas ganancias serán tan bajas como las dificultades que implican. Según Rivera Porto (1998), la experiencia muestra que, en general, basta con pocos escenarios para cubrir la mayor parte del campo de lo probable. Hay una pregunta que surge en principio: ¿Por qué lo que ha de suceder tiene que suceder? Es la primera pregunta que cuestiona personal y profesionalmente. Las fronteras están en la mente… ¿Qué pasaría si…? Si se rompen las barreras de la mente y se empieza a considerar aquello a lo que se le ha negado la posibilidad de que suceda por no imaginarlo siquiera? Sobre estos postulados, Rivera Porto (1998) comenta que la libertad es la convicción que se tiene y que el futuro no está determinado, sino que al contrario permanece abierto a una pluralidad de futuros posibles. En otras palabras, el futuro no es algo ya hecho, y no puede ser objeto de conocimiento sensible ni de profecías exactas.
56 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 55-62
¿En época de crisis, es factible construir el futuro?
Reflexionar sobre el futuro El futuro puede considerarse como surgido de la interacción de cuatro componentes: eventos o acontecimientos, tendencias, imágenes y acciones. Los eventos son esos hechos, por los cuales mucha gente duda que pudiera reflexionarse sobre el futuro. Simplemente al pensar en cuántos hechos han sucedido los últimos treinta años y cuántos más sucederán los próximos treinta, nadie puede saberlo. El escepticismo es muy alto, en particular si hay un condicionamiento histórico de dominación, de pesimismo, de incredulidad, de pensar que sólo lo que se puede probar es real, es científico. Según Baena (2004) el futuro podría planearse considerando las tendencias de los acontecimientos, y agrega que hay tres tipos de tendencias: 1. Las que son continuación del presente y del pasado,
por lo tanto, hay que entender “qué pasa hoy” y “qué pasaba antes”; todo ello puede venir de contemplar las propias experiencias, lo que se revela en las tradiciones, creencias, historia, modo de vida. Esta clase de tendencias se encuentra en la mayoría de los planes estratégicos. 2. Hay otras tendencias, más o menos cíclicas, que
también se encuentran en la historia, filosofía, creencias y costumbres. Hay algunas que pueden requerir de técnicas matemáticas para descubrirlas y entenderlas. 3. Existen también hechos en el futuro que son total-
mente nuevos, que nunca antes han sido parte de la experiencia humana; estas tendencias pueden ser llamadas hechos emergentes. Son las tendencias más importantes para determinar el futuro. Los métodos para precisar los hechos emergentes son muy diferentes a las maneras en que se pueden medir los otros dos tipos de tendencias. Pero sin duda éstas son las más importantes para entender los últimos treinta años y… los que siguen, de acuerdo a Baena (2004). Como consecuencia de la falta de previsión que se tuvo en el “ayer”, el “presente” está inundado de preguntas que antes eran insignificantes, pero que hoy se han hecho urgentes y que hay que solucionar rápido, si no se corre el riesgo de sacrificar el desarrollo a largo plazo. En un mundo en permanente cambio, en el que las fuerzas de la transformación trastocan constantemente la inercia y los hábitos, las organizaciones se ven obligadas a hacer un esfuerzo cada vez mayor para reaccionar con flexi-
bilidad pero sin perder el rumbo y así, dar pruebas de flexibilidad estratégica. Para controlar el cambio en vez de sufrirlo, deberán prever correctamente – ni demasiado temprano, ni demasiado tarde– los diversos virajes técnicos, organizativos, reglamentarios. Godet (2000). De otra parte, algunos autores como Ozbekhan (1968), proponen ante la inminencia del cambio y la transformación que se presenten en el transcurrir de las vidas, los hombres pueden escoger entre cuatro actitudes fundamentales: sufrir el cambio (pasividad), actuar con urgencia (la reactividad), prepararse para los cambios previsibles (la preactividad) y, por último, actuar para provocar los cambios deseados (la proactividad). En un contexto de crisis, la reactividad prevalece sobre el resto, y en un contexto de crecimiento, es preciso anticiparse a los cambios y provocarlos, fundamentalmente, a través de la innovación. La previsión al servicio de la acción, más conocida como prospectiva, es la combinación necesaria de las tres actitudes activas. En este punto, es pertinente pensar cuales son las exigencias de las organizaciones en prospectiva. La tendencia estratégica de las redes de valor para los diferentes sectores de productos o de servicios, donde lo que busca es mejorar la calidad de vida de las personas. (Husdal, 2012) Las organizaciones a nivel mundial, según Husdal (2012), deben buscar cambios en el comportamiento de las sociedades, la satisfacción de los stakeholders, el incremento de las exigencias de los compradores, la reducción de la huella de carbono, el uso de las tecnologías para la trazabilidad de los procesos, la administración de la orden de cliente, el aumento de la sostenibilidad de las empresas, el manejo de la gestión del riesgo, compartir la riqueza hacia las poblaciones más vulnerables, la reducción del desempleo, el manejo efectivo de los recursos, el aumento de la populación y apoyo a la infraestructura al adulto mayor, bienestar y salud, la preparación de las exigencias regulatorias. La gráfica anterior tenía 8 máximas establecidas, sin embargo, fue necesario incluir dos variables más, que suman 10 criterios importantes que tiene el modelo “The Globalization Strategy Framework GS10”, son primero, el involucramiento de los grupos de interés o stakeholders, segundo; objetivos o requerimientos de la estrategia, tres; la actividad industrial, que hace referencia a los jugadores empresariales dentro del modelo, cuatro; cultura de la
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 55-62 ¦ 57
Ricardo Prada Ospina, Pablo C. Ocampo Vélez.
compañía donde se va desarrollar el proyecto o la actividad, quinto; ahorro u optimización de los costos, sexto; riesgo (sostenibilidad, seguridad, privacidad y la volatilidad, etc., séptimo; la responsabilidad social (mantener talentos en los puestos de trabajo, octavo; estrategia corporativa, (plan de negocios, seguimiento a los objetivos y resultados esperados, adquisición, estructura de costos, crecimiento, flexibilidad, aversión al riesgo, ganancias; noveno, Calidad (consistencia de las necesidades y acuerdos de nivel de servicio); decimo, control (Preferencias propias como influencia de la cultura y el riesgo). Figura 1. La estrategia globalizada The Globalization Strategy Framework (GS10)
Control
Stakeholders Goals Industry Activity
Quality
Corporate Strategy Social Responsibility
Globalization Strategy Frameworks
Risk
Company Culture
Cost Savings
Fuente: Adaptado de (Vashistha, 2006)
Con el fin de complementar el tema de crisis es factible construir futuro, un componente esencial es la confianza en la gobernabilidad de las instituciones, y que se encuentra en las alianzas estratégicas. Para construir futuro se requiere de la confianza de las instituciones además de una adecuada relación de los proveedores dentro de redes de valor, donde predomine la franqueza como criterio esencial para realizar negociaciones. Algunas veces los términos de referencia de las negociaciones no tienen en cuenta una máxima como es la confianza, que se convierte en la piedra angular al momento de inicio, desarrollo y finalización de un acuerdo. Es importante generar una optimización constante de las cadenas de suministro de las diferentes organizaciones pertenecientes a los sectores productivos del país, ya que lo ideal es generar modelos de
colaboración basados en la transparencia de la información y adopción de nuevas tecnologías con el objetivo de mejorar el servicio al cliente y reducir los plazos de entrega. (Tejero, Junio 2013). Como decisión para el fortalecimiento en la generación de valor dentro de las redes, el enfoque es un modelo de sostenibilidad dentro de la cadena de abastecimiento o suministro el cual busca siempre el bienestar en salud, creando para ello cambios culturales donde el consumidor sea el que maneje información de demanda real, reduciendo los plazos de entrega para obtener un bajo impacto ambiental a nivel mundial. Dentro de la creación de valor tiene que ver bastante la gestión operacional y logística de las organizaciones por la cual se integran los canales de distribución, aplicando la filosofía de respuesta rápida y eficiente al cliente, gestión total de calidad, justo a tiempo, sistemas de información, reingeniería, competición basado en el tiempo, asuntos medio ambiente y logística inversa. (Douglas M. Lambert, 1998,pag 565). A futuro será importante de identificar los objetivos siguientes: los nuevos servicios como fuente de remuneración, el tiempo del mercado, las cantidades exactas y las necesidades específicas de cada segmento del mercado (Roussel, 2005, pag 69). Para ampliar un poco el concepto de los diferentes tipos de colaboración en las redes de valor, primero se cuenta con la colaboración transaccional caracterizada por la realización de transacciones efectivas entre clientes y proveedores, donde el criterio preponderante por ejemplo, en el proceso de compras de materias primas acorde a la estrategia de MRO, por sus siglas en inglés, Maintenance Repair Operation, donde el criterio a tratar es el precio. (Roussel, 2005, pag, 203). De igual manera, se hace referencia a que el criterio de mantenimiento y el proceso de recambio de piezas, esta orientado a los requerimientos puntuales del fabricante del equipo, como tambien esta alineado al operating resource management, ORM, y que hace relación a la administración del recurso de operación. Este tipo de modelos tienen una comunicación entre proveedores y clientes, mediante intercambio electronico de datos, que lo que hace es informar a las partes a cerca del estado del inventario, con el fin de mantener la sostenibilidad de la operación, ademas de apoyar a la toma de decisiones ( W. C. Benton, 2010, pag139). En
58 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 55-62
¿En época de crisis, es factible construir el futuro?
segundo lugar, la colaboración es desarrollada a través de la denominada cooperativa, entre proveedores y clientes, caracterizada por un nivel más avanzado donde se comparte la información entre involucrados. En este tipo de modelo predominan las operaciones de confirmación automático, donde se comparten datos de la previsión de la demanda, el inventario disponible, el orden del cliente o algunas veces el estado de las entregas. En este tipo de relación predomina el intercambio electrónico de datos, EDI, Electronic Data Interchage, un sistema que se viene desarrollando desde los años 70s para facilitar la colocación de los pedidos de compra, sin papeleo con los proveedores en las empresas. (Roussel, 2005, p.203).
turas externas) que existen en un mercado particular. Esto no ocurrirá sólo por suerte. La mezcla ideal es 45/45/10, donde la primera cifra corresponde al comportamiento humano, la siguiente proporción a los sistemas de tecnología y el tercero es el 10 restante al resto de la infraestructura. Desafortunadamente en la cultura colombiana, seguimos estancados en el “viejo mundo” del 0/60/40, con cero énfasis en el comportamiento humano y el 60/40, en tecnología e infraestructura respectivamente. Otros investigadores han tomado diferentes direcciones respecto de la alineación, y algunos hasta han intentado usar el concepto de alineación para anticipar tendencias del mercado (Gatorna, 2009, p.42).
En la actualidad no se concibe un proceso sin EDI en las redes de valor. El tercer tipo de colaboración es denominado coordinado, debido a que los involucrados conocen de antemano las ventajas y capacidades, para realizar una óptima estrategia. En esta fase ya se habla de información en doble sentido además de realizar procesos de planeación y ejecución estrechamente sincronizada. Exige un alto grado de negociación y de consenso entre las partes. Un ejemplo es la estrategia denominada como Vendor Management Inventory - VMI, la cual es la administración de los inventarios dentro de la casa del cliente, que actualmente los hipermercados a nivel mundial aplican para el manejo de los inventarios. (Diaz, 2007, p. 129). Haciendo referencia a la colaboración sincronizada, caracterizada por el mayor grado de integración, entre clientes y proveedores donde se especifica el desarrollo y la investigación en común, aplicación de ESI, Early Supplier Involvement (Diaz, 2007, pág. 159), que en lenguaje español hace referencia al involucramiento anticipado de proveedores además de SCORE, que es cuando la empresa mediante la colaboración de los proveedores desarrollan nuevos productos y reducen gastos tal como lo enuncia Supplier Cost Reduce Effort, como lo han implementado las empresas de manufactura automotriz y de aviación. (Diaz, 2007, p. 118).
Otro de los criterios para la agilidad en la operación de los procesos de las redes de valor, es la respuesta rápida a los requerimientos del cliente, contemplando también el concepto de la flexibilización, ejecución efectivo, integración de información extensiva, aplicaciones basadas en la optimización, procesos de manufactura de eficientes, comando centralizado y control descentralizado. (Lee, 2011). El alineamiento, contemplado como la interacción con los proveedores que ya son considerados socios, donde a manera de ejemplo, es el trabajo colaborativo sincronizado bajo el modelo de multisourcing, que significa que el disciplinado aprovisionamiento y mezcla de los servicios de sistemas de información mediante proveedores internos y externos con el fin de buscar los objetivos de los grupos de interés ( Young, 2006, p.1).
Lograr un óptimo desempeño superior es fácil de decir pero difícil de alcanzar cuando la mayoría de las organizaciones aún tienen poca comprensión de cómo la capacidad cultural fomenta toda la acción de una forma u otra. Necesitamos trabajar para diseñar e insertar las subculturas apropiadas en una organización que reflejen los segmentos de clientes (también llamados subcul-
Existen dos diferentes formas de ver los procesos realizados en una cadena de abastecimiento. Los procesos se dividen en dos categorías dependiendo de si son ejecutados en respuesta a un pedido del cliente (push) o en anticipación a éste (pull). Los procesos de tirón se inician con el pedido del cliente, mientras que los de empuje comienzan y se realizan en anticipación a los pedidos de cliente. (Meindl, 2013,p.10). Es importante determinar qué tipo de producción va utilizar para así diseñar una cadena de abastecimiento más adecuada a los requerimientos de los clientes, como también es válido, combinar los dos sistemas productivos Push + Pull. Por otro lado, cuando se expone de organizaciones y de empresas, es pertinente que se integre el concepto del marco estratégico de la globalización, que se presenta a continuación. ( Vashistha, 2006). En un trabajo de investigación, realizado por David Burt, 2010, pag 82. Y la
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 55-62 ¦ 59
Ricardo Prada Ospina, Pablo C. Ocampo Vélez.
Universidad de San Diego, se determinaron 6 tipos de atributos para la generación de la confianza en las instituciones y son los siguientes:
continuación, donde se muestra un triángulo, que posee 3 pilares importantes para la creación de una red de valor y son los siguientes:
• Los conflictos deben ser manejados hacia un solo
• Integración geográfica, este criterio hace referencia
propósito la solución de las diferencias. • Confianza institucional realizada durante todo el
tiempo de la relation (antes-durante –después).
a que los mercados deben ir desde lo local al ámbito internacional. • Integración funcional y de Proceso; donde hace referencia
• Confianza individual & integridad institucional. (de
lo general a lo particular). • La transparencia y la sinceridad son criterios impor-
tantes, para compartir la información entre los grupos de interés (stakeholders). • En las relaciones de debe sentir, emular, oler, la fran-
queza y la confianza. • Las promesas bajo palabras, debe ser un acuerdo, que
tiene el mismo valor como un documento escrito. • Entre las partes debe haber un componente de
sensibilidad a los cambios, (Flexibilidad), respetando deseos, derechos, y opiniones.
que las organizaciones deben apuntar sus operaciones desde lo funcional hacia la gestión por procesos. • Integración sectorial, hace referencia que los dife-
rentes eslabones de la red de valor madurando desde los procesos corriente aguas-arriba (Upstream) hasta corriente aguas –abajo (downstream), generándose una integración holística de la red de valor. Finalmente, uno de los últimos temas que es válido replantear en las resolución de conflicto en tie pos de crisis, es la administración del riesgo, donde hay un criterio que es denominado resiliencia, que es la habilidad de recobrar la normalidad por un evento que ha impactado negativamente la red de valor ( William, 2015).
• La confianza posee múltiples significados depen-
diendo la cultura.
Unmodelo modelo global global en redred de de valor Figura 3. Un enuna una valor
A continuación se observa, las diferentes fases de la construcción de confianza en las instituciones, desde cada individuo, pasando por grupos de personas y terminando en la institución.
funcional Un modelo global UnIntegración modelo en una global red de en valor una red de valor y de procesos
Integración funcional Integración funcional y de procesos y de procesos
cia
cia
Ge ren
Ge ren
cia Ge ren
o zg
era
Allianza
Conocimiento
Lid
Colaborativo
o zg
Transaccional
Confianza
era
Franqueza de los Negocios
Individual
Integración Geográfica
o zg
Interpersonal
Lid
Institucional
Integración Geográfica
era
Aspecto de las relaciones con los proveedores Confianza Institucional
Lid
Figura 2. Espectro de las relaciones con los proveedores y la Confianza Institucional
Sectorial integración
Integración Conocimiento Conocimiento Sectorial integración Geográfica
Sectorial integración
Fuentes: Adaptado de Luc, Francis & Jaffeux,C, The Essential of Logistics and Management, 2002, Switzerland, EPFL press y Burt,D, Petcavage, S,Pinkerton, Supply Management, 2010, EEUU, Mc Graw Hill
Fuente: Adaptado de (David Burt, 2010, pag 82)
Los autores incluyen en la gráfica anterior el concepto de la franqueza, al momento de resolver conflictos y crear confianza dentro de los grupos de interés. Por otro lado, se desea incluir un concepto, expuesto en la gráfica a
Conclusiones Aunque la prospectiva y la estrategia están estrechamente relacionadas, no dejan de ser distintas y por tanto, conviene saber diferenciarlas: el momento de la prospec-
60 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 55-62
¿En época de crisis, es factible construir el futuro?
tiva, o sea el de la previsión de los cambios posibles y deseables; diferente al momento de prepararse para la acción, o sea el de la elaboración y evaluación de las decisiones estratégicas posibles que permitan prepararse para los cambios esperados (preactividad) y el de provocar los cambios deseados (proactividad). Esa dicotomía entre la exploración y la preparación de la acción lleva a formular cinco preguntas fundamentales y necesarias para una organización que piense en su futuro: ¿Qué puede ocurrir?, ¿qué puedo hacer?, ¿qué voy a hacer?, ¿Cómo lo voy a hacer? y un interrogante previo esencial ¿quién soy?... ¿cuál es mi rol y misión fundamental en esta vida? Ese cuestionamiento previo acerca de la identidad de la empresa, que a menudo se pasa por alto, es el punto de partida del proceder estratégico, según Giget (1998). Este autor impone volver a los orígenes, en un cuestionamiento sobre la raíz de las competencias, sobre las fortalezas y debilidades, recordando la famosa frase de “conócete a ti mismo” de la antigua Grecia. La previsión como tal se concentra en el “¿Qué puede ocurrir?”. Pero se vuelve estratégica cuando una organización se pregunta “¿Qué puedo hacer?”; y estos interrogantes están muy relacionados con el planeamiento estratégico corporativo. Después de haber respondido a esas dos preguntas, la estrategia parte del “¿Qué puedo hacer?”, para hacerse otras dos preguntas: “¿Qué voy a hacer?” y “¿Cómo lo voy a hacer?”. Esto explica la interrelación entre la previsión y la estrategia. Un probable camino para que las organizaciones puedan construir el futuro, es a través de la agrupación de hechos y situaciones históricas, del pasado no muy lejano, que les permita identificar posibles amenazas y/o oportunidades que de otra forma no conllevarán un análisis interno posterior, donde se resaltarán las huellas del pasado que conducirán al futuro. Las tendencias logísticas del siglo XXI, están enfocadas hacia la sostenibilidad a la organización, satisfacción de stakeholders, bajo impacto al medio ambiente, compartir riqueza, bienestar y salud, sistemas de información en tiempo real, uso eficiente de los recursos, etc. La cadena de abastecimiento dinámica hace referencia al balance necesario entre los criterios de recurso humano, sistemas de información e infraestructura que debe estar en la relación de 45/45/10. Otro tema tratado en el artículo fue la inclusión de la temática de la confianza, a la hora de resolver conflictos de
todo nivel, que aunado a lo anterior se interrelaciona con la franqueza como criterio de valor esencial en la interacción y resolución de conflictos. Se finaliza con el criterio de la integración y la confianza institucional, donde existe un gran camino por recorrer frente a la manera de comprender las diferentes fases de la resolución de conflictos tales como: el retiro, presiones competitivas, apaciguamiento, compromiso y la respectiva colaboración. (Francis -Luc perret and Corynn Jaffeux, 2002). Por último la tendencia mundial de las organizaciones está orientado en la gestión del abastecimiento, tanto las organizaciones dentro del ámbito de la manufactura como de la servicios, está aplicando estrategias que velen al fortalecimiento las relaciones con los proveedores para mantener la sostenibilidad de la red de valor y Colombia no puede ser la excepción. Unos de los criterios importantes en la resolución de conflictos en los tiempos modernos, es el modelo Globalization Strategy Framework, GS10, que tiene las máximas exigidas para generar nuevos negocios a nivel local e internacional.
Referencias [1] David Burt, S. P. (2010). Supply Management. New York: Mc Graw Hill. [2] Diaz, S. R. (2007). Gestión de la Cadena de Suministros. 28023, Aravaca, Madrid: Mc Graw Hill. [3] Douglas M. Lambert, J. R. (1998). Fundamentals of logistics Management. United States of America: Mc Graw Hill. [4] Francis -Luc parrot and Corynn Jaffeux, E. (2002). The essentials of logistics Management. En E. Francis -Luc perret and Corynn Jaffeux, The essentials of logistics Management (pág. 532). Lausanne, Switzerland: EPFL Press. [5] Gatorna, J. (2009). Cadena de Abastecimiento Dinámica. Bogotá: Ecoe Ediciones. [6] Husdal, J. (20 de Julio de 2012). http://www.husdal. com/about/. Recuperado el 20 de Julio de 2012, de http://www.husdal.com/about/: http://www. husdal.com/about/ [7] Lee, H. (2011). Stanford University.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 55-62 ¦ 61
Ricardo Prada Ospina, Pablo C. Ocampo Vélez.
[8] Meindl, S. C. (2013). Administración de la Cadena de la Cadena de Suministros, quinta edición. México: Pearson. [9] Roussel, S. C. (2005). Strategic Supply Chain Management. EEUU: Mc Graw Hill. [10] Tejero, J. J. ( Junio 2013). Logistica Integral . México: Alfaomega. [11] Vashistha, A. y. (2006). The Offshore Nation . En A. y. Vashistha, The Offshore Nation (pág. 35). United States of America: Mc Graw Hill. [12] W. C. Benton, J. (2010). Purchasing and Supply Chain Management. New York: Mc Graw Hill. [13] William, S. (2015). Operations management 12th edition. En W. Stevenson, operations management 12th edition (pág. 655). EEUU: Mc Graw Hill. [14] Young, L. C. (2006). Multisourcing. New York: Gartner Inc.
Los Autores Ricardo Prada O. Candidato a Doctor en Ciencias Empresariales por Universidad Antonio de Nebrija España MBAMagister en Administración de la Universidad de La Salle Especialista en Ingeniería de Producción de Universidad Fco. J de Caldas Ingeniero Mecánico de Universidad de América Profesor Asociado Facultad de Posgrados Universidad EAN Director Especialización en Gerencia de Procesos y Calidad.
Pablo Cesar Ocampo Ingeniero Industrial, Universidad Autónoma de Colombia, Master en Sistemas de administración logístico, Escuela Politécnica Federal de Lausanne, EPFL, Instituto Internacional de gerencia logística, IML, Suiza. Certificado por la Asociación logística Europea, ELA. En la actualidad es profesor asociado de la Facultad de Posgrados, de la Universidad EAN. Sus líneas de investigación son: Estrategia de Gerencia de la Cadena de Abastecimiento (Supply Chain Management), para los sectores defensa, automotriz, servicios y multisourcing, Tel: 5936464 Ext. 1228, E – Mail: pabloc.ocampo@ean.edu.co, pablo4610@yahoo.com 62 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 55-62
Reconocimiento del estado actual del paisaje del municipio de gutiérrez (Cundinamarca), mediante el uso de indicadores de ecología del paisaje Recognition of the current state of gutierrez county landscape (Cundinamarca), using landscape ecology indexes
Daniel León Garay, Fernando Gutiérrez Fernández.
Resumen
Abstract
entro del territorio colombiano, en la provincia de oriente de Cundinamarca, se encuentra el municipio de Gutiérrez, donde se destina gran área para la producción agropecuaria. Sin embargo este sitio colinda con una de las zonas de protección y conservación más importantes del departamento, el Parque Nacional Natural Sumapaz (SNNP). En este lugar se desarrolló la investigación del reconocimiento del estado actual del paisaje de Gutiérrez, mediante el uso de indicadores de ecología del paisaje. Dentro de los cuatro tipos de zonas ambientales presentes en el municipio (páramo subalpino, bosque muy húmedo montano, bosque húmedo montano bajo y bosque húmedo premontano) se realizó la ubicación de los relictos mediante los indicadores de ecología del paisaje: área de clase (CA), número de parches (NP), tamaño medio de la mancha (MPS), desviación estándar del tamaño de la mancha (PSSD), coeficiente de variación en el tamaño de la mancha (PSCV ), índice de forma medio (MSI), índice de dimensión fractal (MPFD) y la distancia media del vecino más cercano (MNN). El desarrollo de estos indicadores demostró, un gran impacto antrópico en las zonas aledañas a la cabecera municipal, lo que debe ser analizado por el Esquema de Ordenamiento Territorial del municipio, con el fin de guardar la vocación conservacionista de la zona. La investigación se realizó mediante el cálculo de los indicadores propuestos gracias al software de libre descarga Patch Analyst acoplado al programa de levantamiento de planos topográficos ArcGis 10.0 desde
D
ithin Colombia, in the eastern province of Cundinamarca, lies the town of Gutierrez, where a large area is used for agricultural production. This site is adjacent to one of the most important areas of protection and conservation, Natural Sumapaz National Park (SNNP). Here recognition research current state of landscape Gutiérrez was developed using indicators of landscape ecology. Among the four types of environmental zones present in the municipality (subalpine moorland, montane wet forest, lower montane rain forest and montane rain forest) the location of relict indicators was performed by landscape ecology: class area (CA), number of patches (NP), Average spot size (MPS), standard deviation of the spot size (PSSD), coefficient of variation in the size of the spot (PsCV ), Average shape index (MSI), fractal dimension index (MPFD), and the average distance from the nearest neighbor (MNN).
W
The development of these indicators showed a large human impact in the areas surrounding the county seat. Which should be considered by the POT of the municipality, in order to save the vocation of the area conservationist. The research was conducted by calculating the proposed indicators. We used the software Patch Analyst , and the program ArcGis 10.0, and the POT, developed by the Municipal Administration Gutierrez in 2010.
Recibido / Received: Abril 15 de 2014 Aprobado / Aproved: Mayo 28 de 2014 Tipo de artículo / Type of paper: Artículo de investigacion científica y tecnólogica terminada. Afiliación Institucional de los autores / Institutional Affiliation of authors: Proyecto de investigación Ecoturismo para la creación de valor con responsabilidad social y ecológica, Universidad de la Sabana (Bogotá). Grupo de investigación Choc Izone, Universidad El Bosque (Bogotá) Autor para comunicaciones / Author communications: Daniel León Garay, xxxxxxxxxxxx@xxxxxxxxxx Los autores declaran que no tienen conflicto de interés.
Daniel León Garay, Fernando Gutiérrez Fernández.
el mapa de uso de suelos desarrollado por la Administración Municipal de Gutiérrez en el Esquema de Ordenamiento Territorial del año 2010.
Keywords: Landscape ecology, indicators, ecological restoration, moor, Sumapaz National Park.
Palabras Clave: Ecología del paisaje, indicadores, restauración ecológica, páramo, Parque Natural Sumapaz.
Introducción La pérdida de ecosistemas es una problemática que afecta a todos los países a nivel mundial y a la calidad de vida de los seres humanos, sin embargo en las últimas décadas los recursos naturales se han venido asumiendo como un bien colectivo, con lo cual se ha generado interés por controlar, y si es posible, revertir los procesos de detrimento de la calidad ambiental generada por las actividades antrópicas [1], en esta línea se encuentra la necesidad de implementar sistemas, con los cuales obtener información sobre el estado real de los ecosistemas [2]. La problemática de pérdida de los recursos naturales, especialmente de la biodiversidad, ha sido ilustrada en la Cumbre Mundial de Desarrollo Sostenible de Johannesburgo, específicamente en el Convenio sobre Biodiversidad Biológica (CDB). Colombia se ha interesado desde antes por dar solución a dicha problemática, prueba de ello es la aparición de la Constitución Nacional de 1991, en donde se encuentran las bases legales para implementar estrategias de conservación. Posteriormente, se inicia el desarrollo de un sistema de diagnóstico y monitoreo ambiental alimentado con un sistema de indicadores de biodiversidad de ecosistemas como resultado del Convenio de Diversidad Biológica para el año 2010 [3], con el cual se fijaron las políticas, objetivos y actividades de las partes involucradas. La razón por la cual estas medidas, tienen tanta importancia, radica en que Colombia está ubicada dentro de las zonas geográficas de mayor biodiversidad, a nivel mundial. Producto de lo anterior, se ha realizado actividades de caracterización y conservación de especies como la elaboración de los libros rojos nacionales de especies amenazadas de flora y fauna, el establecimiento de áreas importantes para la conservación de las aves (AICAS), la priorización de especies importantes para la conservación, la identificación de especies invasoras y el apoyo técnico para la declaración de áreas protegidas [4].
Dentro de los ecosistemas más sensibles al impacto ambiental están los páramos y los bosques andinos montanos y premontanos. Dentro de la ecología de estas zonas se interrelacionan una amplia biodiversidad de organismos endémicos expuestos a situaciones climáticas que se contrastan en estados extremos durante las horas del día y la noche. Este tipo de sistemas biológicos son grandes reservorios por su poder de captación y regulación de recursos hídricos [5]. Como todos los ecosistemas terrestres, los páramos han sido afectados por el impacto antrópico. Diferentes factores son los responsables en el deterioro de los ecosistemas de páramo, entre los cuales cabe mencionar el incremento en la temperatura global, el cambio de uso de suelo y la revolución verde (que cambió las técnicas de producción tradicional y que se realizan de forma intensiva). Esto ha ocasionado que estos ecosistemas se vean afectados, evidenciándose el acelerado deterioro. El Primer informe, “Comunicación Nacional de Colombia” (CN1), desarrollado por el Instituto de Hidrología, Meteorología y Estudios Ambientales IDEAM de Colombia determinó que los sistemas de alta montaña son los más sensibles al calentamiento global y los primeros en ser deteriorados [6]. Dicho Instituto también postula que con la pérdida de estos ecosistemas se pierde, no solo la biodiversidad, sino también gran parte de los bienes y servicios ambientales, generando inseguridad hídrica en la nación. Por lo tanto, las administraciones municipales se han interesado por desarrollar informes que reconozcan los usos del suelo, como han sido Los esquemas de ordenamiento territorial, en los que se han generado mapas de uso del suelo, que en la presente investigación se analizaron para el caso del Municipio de Gutiérrez con el software de indicadores de ecología del paisaje como el Patch Analyst, identificando de esta forma el estado actual de la fragmentación de los ecosistemas a nivel de condiciones del paisaje para el Municipio.
64 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 63-72
Reconocimiento del estado actual del paisaje del municipio de gutiérrez (Cundinamarca), mediante el uso de indicadores de ecología del paisaje
Descripción del área de estudio El municipio de Gutiérrez se ubica al sur oriente de Cundinamarca, y se encuentra localizado a los 4° 12’ 10” latitud norte al y 74° 01’ longitud oeste de Greenwich; se divide en las veredas de La Rinconada, El Cedral, La Concepción, La Reina, Carmen Arriba, Cerinza, Trapiche, El Hoyo, El Salitre, Cañuelal, La Palma, San Antonio, Río Chiquito, Potreritos, Pascote, Río Blanco, Los Medios, El Brasil, El Ramal y San Gil y una zona de conservación y protección ambiental que colinda con Bogotá que es el gran páramo de Sumapaz. Como unidad geográfica el municipio consta de un área aproximada de 46.000 hectáreas de las cuales 23 ha corresponden al casco urbano o cabecera municipal. La cabecera municipal se encuentra a una altura de 2350 msnm y a 77 kilómetros de Bogotá. El Municipio por su gran extensión y geografía quebrada está ubicado dentro de varios pisos térmicos desarrollándose d iferentes ecosistemas en una región relativamente
reducida. Gutiérrez presenta dos centros poblados (Pascote y San Antonio) y 1 casco urbano; su economía es netamente agropecuaria, especializándose en la producción de leguminosas con un área aproximada de 2000 Ha [7].
Metodología Durante el 2013, se realizó una evaluación de las condiciones actuales del ecosistema mediante la ubicación de relictos a parches del ecosistema original mediante 3 tipos de indicadores de paisaje. Para el estudio se escogieron indicadores de densidad, forma y conectividad (Tabla 1). Según la disponibilidad de software para el análisis de indicadores del paisaje disponible en línea, se eligió el Patch Analyst debido a que permite realizar estudios de análisis de ecología del paisaje de datos provenientes en formatos vector o ráster de conectividad y fragmentación, incluyendo el cálculo de diferentes métricas o indicadores [8].
Área/ densidad
Categoría
Tabla 1. Categorías, descripción, acrónimos, unidades y rango de los indicadores de paisaje, implicaciones ecológicas y aplicación de estudio de las métricas o indicadores [9].
Indicadores de paisaje
Acrónimo (por sus Unidades y Descripción siglas en rango inglés)
Fórmula de cálculo
Área de clase
CA
Hectáreas [0,∞ ]
CA = ∑ aij donde aij es el área de la clase i y la mancha j
Número de mancha
NP
Adimensional [ 0,∞ ]
NP = ni donde ni es el número de manchas para iésima clase
Tamaño medio de la mancha Desviación estándar del tamaño de la mancha Coeficiente de variación en el tamaño de la mancha
MPS
Hectáreas [0,∞ ]
PSSD
Hectáreas [0,∞ ]
PSCV
Porcentaje [0,∞ ]
Estadística básica de la configuración espacial
MPS =
∑
m i =1
Ai
m donde A i es el área de la clase i PSSD =
2
∑ ∑ m i =1
ImplicaAplicación de ciones estudio para la ecológicas vegetación de principales Gutiérrez
Productividad, ciclos biogeoquímicos y dinámica de especies
Indicador simple de fragmentación
A aij − N N
n j =1
donde aij es el área de la clase i y la mancha j Variabilidad en el tamaño de las manchas
Diversidad biológica
Homogeneidad en la estructura de la vegetación
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 63-72 ¦ 65
Categoría
Daniel León Garay, Fernando Gutiérrez Fernández.
Indicadores de paisaje
MSI
Forma
Índice de forma medio
Acrónimo (por sus Unidades y Descripción siglas en rango inglés)
Conectividad
Índice de dimensión fractal
Distancia media del vecino más cercano
MPFD
MNN
Complejidad de las forAdimensio- mas. Aproximadamente 0,∞ nal [ ] 1 para forma con perímetros simples Dimensión fractal: Relación del perímetro Adimensio- por unidad de área. Se increnal [1,2] menta a medida que los parches son irregulares Distancia mínima entre manchas de la misma Metros clase, basado [0,∞ ] en la distancia más corta entre sus bordes
Fórmula de cálculo
ImplicaAplicación de ciones estudio para la ecológicas vegetación de principales Gutiérrez
Interacciones con los donde aij es el área de la efectos de la matriz-borde clase i y la adyacente mancha j MSI = 0.25 pij
2
aij
Configuración espacial de la vegetación en términos de la complejidad de los parches
MFRACT = 25 En donde: Logpij S= Logaij
Conectividad donde lateral aij es el área de la clase i y la mancha j y pij es el perímetro para la clase i y la mancha j MNN =
∑
N i =1
di
N donde N es el número de puntos. di es la distancia del vecino más cercano para el punto i
Flujo de energía y biomasa Aislamiento de y efectos de las manchas, inconectividadterconectividad biodiversidad biológica
Resultados Para el análisis del paisaje se tuvo en cuenta como punto de partida las clases propuestas por el Esquema de Orde-
namiento Territorial de Gutiérrez desarrollado para el 2010 (Tabla 2).
Tabla 2. Clase de cobertura y uso del suelo [7]
Clase de cobertura
Área Sin Uso Agropecuario ni Forestal (A.S.U.A.F.)
Uso de suelo
Área Total (ha)
%Área
Afloramiento
65.8
0.14
Deslizamiento
93.06
0.20
Institucional
7.69
0.02
Laguna
9.08
0.02
Perímetro Urbano
17.12
0.04
Rio
187.51
0.41
Riesgo no Mitigable
15.75
0.03
66 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 63-72
Reconocimiento del estado actual del paisaje del municipio de gutiérrez (Cundinamarca), mediante el uso de indicadores de ecología del paisaje
Clase de cobertura
Bosque
Cultivos
Explotación Agrícola Confinada (E.A.C.)
Paramo
Área de protección cuerpos de agua
Áreas del sistema de servicios públicos domiciliarios (A.S.S.P.D.)
Sub Paramo
Vegetación Arbustiva Parque Nacional Natural del Sumapaz (P.N.N.S.)
Uso de suelo
Área Total (ha)
%Área
645.17
1.40
3727.60
8.10
1194.99
2.60
203.67
0.44
1686.70
3.67
226.5
0.49
854.28
1.86
0.55
0.00
Bosque Natural Pajonales Pastos Rastrojo Vegetación Pasto Natural Pasto con Rastrojo Pastos Ronda de Quebrada Ronda de Rio Almacenamiento Captación Conducción PGRIS PTARS Tratamiento Bosque Fragmentado Bosque Natural Bosque secundario Pasto con Rastrojo Pastos Rastrojo Rastrojo Rastrojo Quemado
231.17 6178.63 467.38 4948.00 2528.63 91.53 3011.74 2677.50 160.96 3.83 0.03 8.64 2.22 0.84 1.45 0.02 26.11 2294.06 249.5 899.36 334.12 369.1 5703.41 238.35
0.50 13.43 1.02 10.76 5.50 0.20 6.55 5.82 0.35 0.01 0.00 0.02 0.00 0.00 0.00 0.00 0.06 4.99 0.54 1.96 0.73 0.80 12.40 0.52
Parque Nacional Natural del Sumapaz (PNNS)
6638.47
14.43
Bosque Fragmentado Bosque Natural Bosque Secundario Asociación Papa-Arveja Consociación Frijol-SagúCaña-Café-Yuca-Plátano Consociación Frijol-Pasto Natural Monocultivo Frijol Piscícola
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 63-72 ¦ 67
Daniel León Garay, Fernando Gutiérrez Fernández.
Del análisis de los mapas de uso de suelos del Sistema de Información Geográfico del Esquema de Ordenamiento territorial (2010) suministrado por la administración
pública de Gutiérrez, mediante la aplicación del software Patch Analyst se obtuvieron los resultados que se presentan en la tabla 3.
Tabla 3. Resultados de los indicadores de ecología del paisaje propuestos.
Clase
CA (ha)
%A
NP
MPS(ha)
PSSD(ha)
PSCV (%)
MSI
MPFD
MNN (m)
ASUAF
394.24
0.86
33
11.95
32.97
275.95
4.22
1.32
330.73
Bosque
5543.59
12.10
96
57.75
139.11
240.91
1.83
1.31
223.21
Sub Paramo
4154.12
9.07
112
37.09
91.19
245.87
1.91
1.32
821.93
Área de protección cuerpos de agua
164.08
0.36
51
3.22
3.25
101.04
3.00
1.46
196.02
Cultivos
2958.20
6.46
55
53.79
94.26
175.26
2.06
1.28
451.70
Páramo
20134.58
43,77 111
128.73
361.38
280.74
1.91
1.31
658.80
Pasto
5755.66
12.57
74
77.78
168.18
216.23
2.24
1.30
220.25
Vegetación Arbustiva Ra
5785.39
12.63
44
131.49
256.93
195.41
1.87
1.30
330.73
EAC
0.55
0.00
1
0.55
0.00
0.00
2.03
1.46
Indeterminado
ASSPD
13.14
0.03
16
0.82
0.57
68.85
2.80
1.45
1296.19
Vegetación Arbustiva Rq
130.58
0.29
1
130.58
0.00
0.00
2.39
1.30
110.00
PNNS
6638.47
14.43
1
6609.69
0.00
0.00
1.74
1.20
Indeterminado
Fuente: Autor
Se evidencia que las áreas con mayor porcentaje son las que poseen coberturas naturales como el Parque Nacional Natural de Sumpaz (PNNS) o los relictos de ecosistemas nativos como el páramo, subpáramo y bosque natural de las diferentes zonas ambientales. El aprovechamiento de sus recursos es tradicional, porque no se evidencian sistemas agroecológicos en los parches de las clases como lo reportado en otro tipo de ecosistemas más fragmentados en zonas ecuatoriales de conservación [9]
protección de cuerpos de agua, páramo, subpáramo y bosques) y con el régimen de lluvias, reportado por el Sistema de Información Ambiental, de intervalos entre 1200 y 1500 mm [10], se observa el potencial hídrico de la región. Estas precipitaciones se concentran principalmente en el río Taguaté.
No existe una zona de transición entre los ecosistemas naturales y los agroecosistemas que generen protección para los ecosistemas de páramo específicamente, situación que se evidencia gracias a los niveles bajos en el indicador de área de la clase de los cultivos con técnicas agroecológicas.
En la tabla 2 y figura 1 se muestra el área promedio de cada clase con respecto a la tipo de cobertura. El área que cubre el Parque Natural Nacional Sumapaz (PNNS) muestra ser levemente mayor con respecto a la observada para los pastizales y los cultivos que son ecosistemas producto de las actividades antrópicas, dato que corresponde a que solo existe como único parche Se observa que el área con mayores valores de clase promedio son el páramo, el bosque y el rastrojo (tabla 3).
Existe una amplia extensión total reportada para la función de los servicios ecosistémicos (PNNS, área de
Área de clase promedio (CA)
68 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 63-72
Reconocimiento del estado actual del paisaje del municipio de gutiérrez (Cundinamarca), mediante el uso de indicadores de ecología del paisaje
figura 1. Área de clase Fuente: Autores Área de clase (h)
altoandino ubicado entre los municipios de los departamentos de Boyacá y Santander, que son Departamentos aledaños a la zona de estudio y que poseen este tipo de ecosistema [11]. Los páramos son ecosistemas captadores de dióxido de carbono debido a que poseen procesos de mineralización y reciclaje de nutrientes; esto genera una tendencia a la absorción de carbono depositado como materia orgánica en el suelo [12] y debido a la gran extensión reportada en el municipio de Gutiérrez, se concluye que es un municipio que contribuye a la reducción de la emisión de gases efecto invernadero global (tabla 4). Tabla 4. Dióxido de carbono total estimado capturado por año en las clases de páramo, subpáramo y PNNS ubicados en Gutiérrez [13]
ASUAF
Bosque
Sub Paramo
Área de protección cuerpos de agua Cultivos
Páramo
Clase
Compartimiento
Pasto
Se ratifica entonces con el presente estudio las conclusiones expuestas por la Administración Municipal (2010) en el Esquema de Ordenamiento Territorial, en donde se señala que Gutiérrez es un municipio conservacionista debido a que la extensión de los ecosistemas naturales (ASUAF, bosque, áreas de protección de cuerpos de agua, páramos, vegetación arbustiva y PNNS) es mayor con respecto a la de los agroecosistemas (cultivos y pastizales). Se puede evidenciar que los ecosistemas de origen antrópico corresponden con tan sólo el 19.34% de la extensión total y los ecosistemas naturales ocupan un extensión del 80.66%. Con respecto a las dimensiones del fragmento, cuanto mayor es el tamaño del parche mayor es el número de especies que puede sostener [10] por lo tanto se evidencia que las coberturas naturales de Gutiérrez son potencialmente hábitat de gran cantidad de especies, eso evidencia el área promedio de las clases de páramo, subpáramo, ASSPD, vegetación arbustiva y área de protección de cuerpos de agua. Gutiérrez tiene un porcentaje de áreas de clase de conservación más alta que las reportadas en paisajes con ecosistemas de alta montaña en municipios del orobioma
Páramo
Vegetación
20
285.770
Suelo
1.700
24’290.461
Tota
1.720
24’576.232
20
83.082
Suelo
1.700
7’062.000
Total
1.720
7’145.082
20
285.770
Suelo
1.700
24’290.461
Total
1.720
24’576.232
Subpáramo Vegetación
PNNS
CO2 total estimado Ton promedio capturado C/Ha por Gutiérrez (Ton C/Ha)
Vegetación
Número de parches (NP) Se observa mayor cantidad de manchas para la cobertura de subpáramo y páramo seguido de la cobertura de bosques, pero si se compara con el área de cada clase, se reconoce que la mayor extensión y número de manchas es para la cobertura de páramo; por lo tanto, la zona ambiental predominante es el páramo altonadino en donde se presentan los tipos de vegetación para el páramo: bosque natural, pajonales, pastos, rastrojo, vegetación, pasto natural, pasto con rastrojo y pastos; y el subpáramo: bosque fragmentado, bosque natural,
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 63-72 ¦ 69
Daniel León Garay, Fernando Gutiérrez Fernández.
bosque secundario, pasto con rastrojo, pastos y rastrojo. La vegetación con mayor área reportada en cada una de las clases es para páramo el pajonal y para el subpáramo y el bosque natural. La clase de bosque también presenta un número de manchas considerables, distribuido en tipos de coberturas: bosque fragmentado, bosque natural y bosque secundario (tabla 3). El número de fragmentos de una clase de parche es una medida simple de la subdivisión o fragmentación del mismo; sin embargo, el número de parches de una clase puede ser importante para reconocer los procesos ecológicos [14], aunque en este caso muestra una organización de los hábitats para las especies. El gran parche denominado PNNS es remplazado por parches de páramo y subpáramo, finalizando en bosques a medida que baja la altitud y por parches de la clase de cultivos y pastos a medida que se acerca al caso urbano. Estas últimas clases evidencian fraccionamiento en el paisaje general a medida que se aproximan al casco urbano. Gutiérrez es un paisaje levemente fragmentado debido a que a pesar de tener una gran extensión, solamente se evidencian 55 parches correspondientes a cultivos y 74 a pastos, unidades que poseen áreas de tamaño menor con respecto al páramo y similar a los bosques.
Tamaño medio de la mancha (MPS) y desviación estándar de la mancha (PSSD) El tamaño promedio de la mancha del PNNS es la más alta, este dato no es representativo debido a que existe como única área de protección. Además se evidencia una variabilidad de los datos demasiado pronunciada, lo que refleja que la heterogeneidad de los tamaños es alta (Tabla 3). Se muestra un promedio de tamaño medio alto para la clase de páramo y la vegetación arbustiva situación interesante para fines conservacionistas. Con respecto a otro tipo de municipios, en Gutiérrez se presenta un MPS dentro del rango reportado para ecosistemas de origen natural con poca intervención antrópica que los presentados en el paisaje del orobioma altoandino, en unidades ambientales similares, ubicado entre los municipios de los departamentos de Boyacá y Santander, que como se mencionó anteriormente son Departamentos aledaños a la zona de estudio que poseen este tipo de ecosistema [11]
Coeficiente de variación en el tamaño de la mancha (PSCV) Para la clase de páramo, se reporta un coeficiente de variación en el tamaño de la mancha alto, lo que significa una alta variabilidad en la clase de la cobertura, valor que se respalda con la desviación estándar del tamaño medio para esta clase de manchas (PSSD) (Tabla 3). Se ratifica entonces que las manchas que corresponden a la clase de páramo tienen una alta variación en cuanto al tamaño. También se evidencia un alto índice para las áreas sin uso agropecuario o forestal, valor que apoya la heterogeneidad de las manchas o relictos de ecosistemas naturales. Según el tamaño medio de las manchas por clase, se observa que el comportamiento de las áreas de los ecosistemas predominantes (páramo, subpáramo y bosques) es variado, teniendo altas y bajas extensiones en una misma clase. Este indicador es demasiado general para arrojar algún tipo de conclusión y su respectiva desviación estándar y coeficiente de variación no aclaran el comportamiento de los tamaños.
Índice de forma medio (MSI) En cuanto al índice de forma medio para las clases de origen natural de Gutiérrez se encuentran bajo el parámetro de regularidad en las formas, situación que afirma que las clases presentan formas más regulares que las reportadas en el orobioma subandino, exceptuando las ASUAF [11]. Se observa que la cobertura con mayor comportamiento de forma irregular es el área sin uso agrícola o forestal, situación que puede inferir que su comportamiento es de una cobertura natural y que puede tener el potencial de estudio de la biodiversidad presente, dado su menor intervención antrópica.
Índice de dimensión fractal (MPFD) Según el análisis de dimensión fractal, se ratifica lo observado en el índice de forma, en donde se expresa que las zonas con mayor complejidad de forma son las áreas de protección de acuíferos y la de los sistemas de servicios públicos. Esto unido a la información del área
70 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 63-72
Reconocimiento del estado actual del paisaje del municipio de gutiérrez (Cundinamarca), mediante el uso de indicadores de ecología del paisaje
de clase, genera inferencia de una distribución bastante irregular de los ecosistemas de páramo. Se evidencia por lo tanto, el desarrollo de los ecosistemas naturales (páramo, PNNS, área de protección de acuíferos y vegetación arbustiva) en formas irregulares y de gran extensión frente al menor desarrollo de las áreas ocupadas por los agroecosistemas (tabla 3). Este indicador se comporta de manera similar a los reportados para ecosistemas, que se encuentran en similares latitudes del departamento de Boyacá y Santander, aunque para el MSI se presenta un valor menor levemente [11]. También se puede observar que a nivel general Gutiérrez, se comporta como otros ecosistemas naturales de páramo ubicados en las latitudes del Corredor de Conservación Choco-Manabí (CCCM) siendo ligeramente más irregulares los que se presentan en este complejo ecológico, pero teniendo indicadores de área y densidad menores [15]. La cobertura que presenta mayor comportamiento fractal, es el área de protección de acuíferos, se infiere que es debido a que mantiene la forma de los cuerpos de agua, situación importante para el equilibrio hídrico de los ecosistemas de la región.
Distancia media del vecino más cercano (MNN) Se puede observar que el PNNS es una clase aislada de cualquier otro tipo de mancha de la misma clase porque no reporta este tipo de índice. Las manchas de la clase de páramo y subpáramo son las más distanciadas, por lo tanto, la conectividad entre los relictos puede verse disminuida, a pesar que se tiene una gran cantidad de parches de estas clases, eso se traduce en que las especies van a tener dificultades para moverse entre las manchas del mismo tipo de cobertura. En cuanto a la conectividad, el indicador de distancia media del vecino más cercano, muestra distanciamiento alto entre las mismas clases, pero teniendo en cuenta la distribución de uso de suelo que muchas de las clases están relacionadas se puede inferir una gran conectividad en las manchas.
Conclusiones Los indicadores muestran que es un territorio poco intervenido, a nivel general, pero en las zonas aledañas
al casco urbano el impacto de orgen antrópico es alto. La división de los ecosistemas naturales ha generado gran cantidad de manchas de la misma clase, especialmente para los ecosistemas predominantes en la zona (páramo y subpáramo). Se puede observar que la fragmentación es una amenaza latente para los ecosistemas predominantes, sin embargo los bajos niveles de fragmentación en las zonas alejadas al casco urbano, muestra que esta región es un ecosistema con un gran potencial para proporcionar hábitats a especies de interés para conservación, situación que debe ser tenida en cuenta por la Administración Municipal en la actualización del Esquema de Ordenamiento Territorial del municipio. Por lo anterior, es que se considera que el uso de software como el Patch Analyst, son elementos que proporcionan información valiosa y que debe ser utilizado en la elaboración y el análisis que se realiza en los diferentes Esquemas de Ordenamiento Territorial.
Bibliografía [1] R. Lorenzetti, Teoría del derecho ambiental, Bogotá: Temis, 2011. [2] Programa de Naciones Unidas para el Medio Ambiente/Banco Mundial y Universidad de Costa Rica (PNUMA/BM/UCR), «Iniciativa Latinoamericana y del Caribe para el Desarrollo Sostenible: Indicadores de Seguimiento,» PNUMA/BM/UCR, San José, 2004. [3] Secretaría del Convenio sobre la Diversidad Biológica, «La Perspectiva Mundial sobre la Diversidad Biológica 3,» Secretaría del Convenio sobre la Diversidad Biológica, Montreal, 2010. [4] Instituto de Investigación de Recursos Biológicos “Alexander von Humboldt”., «Informe sobre el Estado de los Recursos Naturales Renovables y del Ambiente 2009,» IAvH, Bogotá, 2010 [5] Procuraduría Delegada para Asuntos Ambientales y Agrarios, «Panorama y perspectivas sobre la gestión ambiental de los ecosistemas de páramo,» Procuraduría Delegada para Asuntos Ambientales y Agrarios, Bogotá, 2008.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 63-72 ¦ 71
Daniel León Garay, Fernando Gutiérrez Fernández.
[6] IDEAM, «Convención Marco de Naciones Unidas para el cambio Climático,» IDEAM, Bogotá, 2001. [7] Administración Municipal de Gutiérrez, «Esquema de Ordenamiento Territorial,» Administración Municipal, Gutiérrez., 2010. [8] S. Steiniger y G. Hay, «Free and open source geographic information tools for landscape ecology,» Ecological Informatics, p. 183–195, 2009. [9] M. Fernandes, F. Aguiar y M. Ferreira, «Assessing riparian vegetation structure and the influence of land use using landscape metrics and geostatistical tools,» Landscape and Urban Planning, pp. 166-177, 2011. [10] M. Hagen, D. Kissling, C. Rasmussen, M. De Aguiar, L. Brown, D. Carstensen, I. Alves-Dos-Santos, Y. Dupont, F. Edwards, J. Genini, P. Guimarães Jr., G. Jenkins, P. Jordano, C. Kaiser-Bunbury, M. Ledger, K. Maia, F. Darcie Marquitti, Ó. Mclaughlin, P. Morellato, E. O’Gorman, K. Trøjelsgaard, J. Tylianakis, M. Morais, G. Woodward y J. Olesen, «Advances in Ecological Research,» de Biodiversity, Species Interactions and Ecological Networks in a Fragmented World, 2011, p. 89–210. [11] Instituto de Investigaciones de Recursos Biológicos Alexander von Humboldt, «Indicadores de
seguimiento y evaluación de la política de biodiversidad,» Instituto de Investigaciones de Recursos Biológicos Alexander von Humboldt, Bogotá, 2005. [12] Procuraduría Delegada para Asuntos Ambientales y Agrarios, «Situación de los páramos en Colombia frente a la actividad antrópica y el cambio climático,» Procuraduria General de la Nación, Bogotá, 2008. [13] J. Garcia, Análisis del potencial de emisión de dióxido de carbono del páramo de Chingaza y lineamientos para su conservación en el contexto del mecanismo de desarrollo limpio, Bogotá : Pontificia Universidad Javeriana, 2003. [14] K. MacGarigal y B. Marks, «Fragstats: Spatial pattern analysis program for Quantifying landscape structure.,» US, Department of Agriculture, Forest Division, Portland,, 1995. [15] M. Echeverry y G. Harper, «Fragmentación y deforestación como indicadores del estado de los ecosistemas en el Corredor de Conservación Choco-Manabí (Colombia-Ecuador),» Recursos Naturales y Ambiente , pp. 78-88, 2007. [16] Millennium Ecosystem Assesment, «Ecosystem an human well-being: biodiversity synthesis,» World Resource Institute, Washinton D.C., 2005.
Los Autores Daniel León Garay Ingeniero químico, Magister en diseño y gestión de procesos con énfasis en sistemas biólogicos, docente en ciencias naturales e investigador en proyectos relacionados con el desarrollo sostenible de sistemas productivos agroindustriales.
Fernando Gutiérrez Fernández Ecólogo, Pontificia Universidad Javeriana, Especialista en gestión Urbana y Ordenamiento territorial (Universidad Politécnica de Valencia – España), Especialista en Gestión Medio Ambiental (Universidad Politécnica de Madrid – España), Especialista en Desarrollo, Sostenibilidad y Ecodiseño (Universidad Politécnica de Valencia – España), Doctor en Desarrollo, Sostenibilidad y Ecodiseño (Universidad Politécnica de Valencia – España), Tesis doctoral Cum laude, Profesor asociado Universidad El Bosque
72 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 63-72
Productividad en Empresas de Construcción: Conocimiento adquirido de las bases de datos Productivity in Construction Companies: Knowledge acquired from the databases
Hernando Camargo Mila, Rogelio Flórez Díaz.
Resumen
Abstract
l artículo presenta la forma como se pueden identificar los puntos de control en los procesos civiles que pueden apoyar la toma de decisiones en pro de una mayor productividad, a partir de realizar minería de datos a las bases de datos de una empresa de construcción. Se presenta la metodología para realizar estos estudios, los conceptos de descubrimiento de conocimiento y minería de datos (Knowledge Discovery and Data Mining - KDD), y las estrategias y ventajas para realizar estos estudios de productividad.
E
he article presents the way to identify checkpoints in civil works that may support decision making to get a greater productivity. The methodology to perform these studies is introduced. Furthermore, concepts on knowledge discovery and data mining KDD, strategies and advantages for productivity studies, are introduced also.
T
Keywords: Productivity in building companies, Knowledge discovery, KDD, Data Mining, CRISP-DM.
Palabras Clave: Productividad en empresas de construcción, descubrimiento de datos, KDD, minería de datos, CRISP-DM.
Recibido / Received: Febrero 28 de 2013 Aprobado / Aproved: Mayo 10 de 2014 Tipo de artículo / Type of paper: Investigación cientifica y tecnológica terminada. Afiliación Institucional de los autores / Institutional Affiliation of authors: Universidad El Bosque. Autor para comunicaciones / Author communications: Hernando Camargo Mila, hercamil@gmail.com Los autores declaran que no tienen conflicto de interés.
Hernando Camargo Mila, Rogelio Flórez Díaz.
Introducción E n temas de negocio, siempre ha sido atractivo el estudio productividad en las diferentes actividades económicas, el cómo lograr que en los diferentes proyectos las tareas se hagan de una manera mas rápida, o el cómo se pueden disminuir el consumo de recursos físicos para reducir los gastos excesivos. En el presente articulo se pretende explicar como utilizando conceptos de minería de datos se puede lograr obtener resultados de productividad en una actividad económica especifica, la construcción. Como se habla de minería de datos, se debe hablar también de un proceso que nos dicte las tareas específicas que se deben seguir para llegar a realizar una buena investigación de este tipo, como de una metodología que nos ayude a organizar estas tareas. El proceso que mas se implementa en proyectos de minería de datos es el KDD (descubrimiento de conocimiento en bases de datos), y la metodología que soporta las fases de este procedimiento es CRISP-DM.
Como todos estos procesos se deben soportar a partir de unos datos almacenados, se hablara a partir de la información suministrada por una empresa Colombiana, que realiza proyectos de Construcción, con mas de 7 años de experiencia. Y se tendrá en cuenta como definición de productividad, el como realizar más actividades con la misma cantidad de recursos, o hacer lo mismo con menor capital o recursos físicos [1].
KDD El concepto de KDD (descubrimiento de conocimiento en bases de datos) nace poco después del concepto de minería de datos, ya que la minería de datos se convierte en una de las fases fundamentales en todo el proceso de adquirir conocimiento en los datos almacenado, así estos conceptos se hallan utilizado como uno solo [2].
Fig 1. Proceso de KDD KDD
Sistema de Información
Prepareción de los datos
Minería de datos
Las fases que se muestran en la Fig. 1, tienen como finalidad adquirir patrones valiosos [2], novedosos, potencialmente útiles y, en última estancia comprensibles a partir de los datos, por lo tanto, el conocimiento extraído a través de este proceso debe tener las siguientes propiedades: • Válido: esto hace referencia a que los patrones deben
seguir siendo precisos para datos nuevos (con cierto grado de certidumbre). • Novedoso: Que aporte conocimiento tanto para el
sistema, como para el usuario. • Potencialmente útil: se deben buscar beneficios para
el usuario. • Comprensible: una información incomprensible para
Patrones
Evaluación/ Interpretación/ Visualización
Conocimiento
Con lo anterior se puede observar que el proceso de KDD, pretende obtener la información que ayude a los usuarios a generar mejores resultados, ya sea por medio de una o varias iteraciones, la información obtenida siempre será evaluada y posible de interpretar.
CRISP-DM Como se aclaró anteriormente, la metodología que soporta estas fases de desarrollo de KDD es CRISP – DM, esta metodología se basa en un modelo de jerarquías, que se trabaja en diferentes niveles, estos niveles son: fases, tareas genéricas, tareas especializadas e instancias de proceso.
el usuario no es la mas útil, por esto todas las fases deben apuntar a generar conocimiento comprensible. 74 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 73-77
Productividad en Empresas de Construcción: Conocimiento adquirido de las bases de datos
Fig. 2 ciclo de vida Metodología CRISP-DM
previas para cerciorarse que se hayan tenido en cuenta detalles importantes en la resolución de los problemas. • Despliegue: el despliegue del modelo no significa
Comprensión del negocio
Comprensión de los datos
Preparación de los datos Despliegue Modelo Datos
Evaluación
la culminación del proyecto ya que se debe proporcionar la información suficiente al cliente para que pueda tomar acciones. Aunque esto depende de los requerimientos realizados ya que el despliegue puede ser un simple reporte o un proceso repetible de minería de datos a través de la empresa, por esto es muy común que el cliente y no el analista de datos sea el que realice esta fase. De esta manera se asegura que ninguna de las partes fundamentales de un proyecto de minería de datos se quede por fuera de análisis [3].
Minería de datos Las diferentes fases del ciclo de vida de la metodología CRISP - DM (Fig. 2) [3] que deben ser analizadas son: • Entendimiento del negocio: en esta fase se busca
generar un completo entendimiento del negocio para convertirlo en un problema de minería de datos creando un plan para alcanzar los objetivos. • Entendimiento de datos: en esta fase se obtienen la
información relacionada con el problema descrito y se procede a familiarizarse con esta en información para identificar posibles problemas como calidad de los datos, para detectar diferentes conjuntos que permitan generar ideas sobre el curso del proyecto y encontrar información desconocida. • Preparación de los datos: se preparan los datos para
ser la fuente de información del modelo de datos, se puede dividir en varias tareas como tabulaciones, documentación, selección de atributos, transformación y limpieza. • Modelado: esta fase se relaciona directamente con la fase
de preparación de datos, ya que es de ahí donde se aplican diferentes técnicas para generar modelos de información. • Evaluación: es una de las fases más importantes en
esta metodología ya que es acá donde se verifica que los objetivos del negocio estén cubiertos dentro del modelo analizado luego de las tareas de minería, en diferentes ocasiones es necesario retornar a las fases
Con los procesos de minería de datos, se demuestra que utilizar los datos que se guarda en las diferentes bases de datos, es útil para obtener información que no se conocía, este conocimiento se encuentra de diferentes maneras, en forma de patrones, de relaciones, reglas de inferencias de datos, o en forma de una descripción mas concisa. Estos modelos pueden presentarse de dos tipos: • Predictivos: estos modelos pretenden encontrar
valores futuros o desconocidos de variables de interés, que se denominan variables objetivo o dependientes, por medio de otras variables de la base de datos que se denominan, variables independientes o predictivas. Un modelo predictivo puede ser el que se adopta para estimar el comportamiento de un producto en base a las ventas de otro producto que se pueda asemejar a este. • Descriptivo: este modelo se identifica por obtener
patrones que explican o resumen los datos, es decir, sirve para explotar las propiedades de los datos examinados, no para predecir nuevos datos. Por ejemplo, los supermercados buscan obtener información sobre los gustos de las personas, para dar diferentes ofertas y organizar de manera diferente sus estanterías, dando de esta manera una experiencia diferente a la hora de mercar de sus clientes. Para cumplir los objetivos de la minería de datos, existen diferentes tareas que se pueden realizar, en el caso de las
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 73-77 ¦ 75
Hernando Camargo Mila, Rogelio Flórez Díaz.
tareas predictivas son la clasificación y la regresión, y en el caso de las tareas descriptivas son el agrupamiento, las reglas de asociación y el análisis correlacional. En el caso del presente escrito, el tipo de minería de datos que se muestra en el proceso es, descriptiva, por medio de la tarea de clustering o agrupamiento. Esta tarea se utiliza gracias al algoritmo de K-Means que según las variables de entrada, busca encontrar grupos comunes que describen comportamientos característicos [2].
Productividad Haciendo referencia a la introducción, la productividad se puede definir cómo realizar más actividades con la misma cantidad de recursos, o hacer lo mismo con menor capital o recursos físicos. De esta manera se muestra, que existen dos factores fundamentales cuando se habla de productividad, el tiempo como factor de medición, y los recursos físicos dentro, de lo cuales alocamos la mano de obra. Factores que analizados de una manera correcta nos lleva a descifrar las claves de la productividad. Algunas de las estrategias para mejorar la productividad, son: • Asesoramiento práctico (ayudar en el “cómo hacer”
en lugar de imponer el “usted debe”). • Identificar y aplicar soluciones de bajo costo. • Desarrollar soluciones orientadas a mejorar simultáneamente las condiciones de trabajo, la calidad de la construcción y la productividad del trabajo. • Concebir mejoras adaptadas a las situaciones reales totales. • Poner énfasis en la obtención de resultados concretos. • Vincular las condiciones de trabajo con los demás objetivos gerenciales. • Usar como técnica el aprendizaje a través de la práctica. • Alentar el intercambio de experiencias. • Promover la participación de los trabajadores. • Diseñar correctamente los puestos de trabajo. • Usar eficientemente la maquinaria. • Tener servicios de bienestar en el lugar de trabajo. • Mejorar las condiciones y el medio ambiente de trabajo. Las ventajas que se obtienen a partir de una mayor productividad pueden ser:
• Mayor competitividad. • Satisfacción del cliente. • Confianza de clientes y proveedores. • Permanencia en el mercado a mediano y largo plazo. • Disminución y cumplimiento de los plazos de entrega. • Disminución de costos. • Uso eficiente de los recursos naturales y de la fuerza
laboral, logrando con esto la reducción de desperdicios de materias primas. • Eliminación de desplazamientos innecesarios de materiales y de trabajadores. • Evita atrasos en las fechas de terminación de cada elemento en la obra. • La reducción de los tiempos muertos de máquinas. • Ahorro de energía. • Se incorporan medidas serias para controlar los efectos negativos para el entorno de accidentes imprevistos. • Recuperación de espacios de trabajo inutilizados. • Disminución de la rotación del personal. Mejoramiento continuo del capital humano y de un entorno que fomente la Creatividad y la innovación, así como las relaciones laborales entre trabajadores [1]. Gracias a estos conceptos, se puede enfocar de mejor manera la investigación y lograr los resultados que se esperan.
Desarrollo Teniendo claros lo conceptos anteriormente descritos se puede comenzar al desarrollo del análisis, donde siguiendo los puntos de la metodología se debe: • Entender el negocio: en el entendimiento se sacan
conclusiones sobre que factores que se deben tener en cuenta en el análisis. Para este caso los factores son los trabajadores, las tareas que realizan, El tiempo de desarrollo, las horas extras, y la propuesta presentada. • Entendimiento de los datos: se verifica que la informa-
ción de los factores que se deben analizar estén completa. • Preparación de los datos: si en el entendimiento de
los datos se muestra una falta de información, se complementa en esta sección • Modelado: en esta sección se toma la decisión de
que tarea de minería de datos se utiliza, como se
76 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 73-77
Productividad en Empresas de Construcción: Conocimiento adquirido de las bases de datos
nombro anteriormente la tarea es agrupamiento, que, con la información de entrada que se toman de la preparación de datos, trabajadores, tareas, tiempo de desarrollo, y horas extras, se describe el comportamiento de desarrollo de las tareas por cada uno de los grupos de trabajo. • Evaluación: en esta fase se evalúa si los clusters dados por las tareas de minerías si son suficientemente claros para describir los grupos de trabajos. • Despliegue: al tener claro que la descripción es correcta se comienzan a tomar, decisiones acerca de los grupos de trabajo como se trabaja mas rápido teniendo en cuenta las tareas especificas.
Conclusión Conocer con anterioridad los recursos necesarios para la ejecución de las tareas permite realizar una estimación de costo beneficio, proyectando de manera correcta si es conveniente realizar la tarea o no, de esta forma se ayuda a cuidar las utilidades de la empresa. La fase de la metodología, entendimiento del negocio, permitió identifica cual era la forma, en que se medía la productividad en la empresa, de esta manera se introdujeron los nuevos conceptos de productividad para ser más certeros en la toma de decisiones.
En la fase de la metodología, Preparación de datos, se permitió crear un modelo de base de datos, en donde se almaceno de una forma más organizada la información de las obras civiles de la empresa. La técnica de Clustering, es muy adecuada para describir los recursos necesarios para el desarrollo de las tareas de construcción. Si se realiza esta tarea con más frecuencia e introduciendo más información al modelo, el conocimiento adquirido va a ser cada vez más valioso. Los indicadores de productividad adquiridos, por la descripción de cada uno de los clusters, permiten evidenciar si se están utilizando demasiados recursos en el desarrollo de las tareas.
Referencias [1] R. Alpuche Sánchez, Impacto de la calidad total y la productividad en las empresas de construcción, [ONLINE] http://catarina.udlap.mx/u_dl_a/tales/ documentos/lic/alpuche_s_r/capitulo3.pdf [2] J. Hernández Orallo, M. J. Ramírez Quintana, C. Ferri Ramírez. Introducción a la Minería de Datos , Madrid: Pearson Prentice Hall, 2007. [3] http://www.crisp-dm.org/download.htm
Los Autores Hernando Camargo Mila Docente del programa Ingeniería de Sistemas de la Universidad El Bosque desde 2002 a la fecha, Distinción de la Universidad El Bosque a la “Excelencia en la Docencia” en el año 2004. Especialista en informática y Ciencias de la Computación, Fundación Universitaria Konrad Lorenz, Bogotá 2006. Ingeniero de Sistemas, Universidad Nacional de Colombia, Bogotá 1988, Docente del Programa en la Ingeniería de Sistemas de la Fundación Universitaria Konrad Lorenz desde 2001 a la fecha y desde el 2003 Coordinador Académico de las Facultades de Ingeniería y Matemáticas. Jefe del Departamento de Sistemas de Petróleos Colombianos Limited, Bogotá, desde 1990 a 1998. Gerencia de Proyectos informáticos en Comcel durante 1998. Gerencia de Proyectos de Outsourcing informático en Gestiontek S.A.,desde 1999 a 2001. hercamil@gmail.com. Carrera 7B Bis 132-11, Bloque M, Piso 3, Bogotá D.C. Grupo de Investigación OSIRIS. Rogelio Florez Diaz Ingeniero de sistemas de la Universidad El Bosque, Analista de inteligencia de negocios en DirectTV.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 73-77 ¦ 77
Modelo integral de enfoques de cooperativismo y clusters en PYMES sector artes gráficas de Bogotá Integrated model of cooperativism approach and clusters in PYMES graphic arts in Bogota
Carlos Gabriel Correa Chaparro, Natalia Torres Peñuela.
Resumen
Abstract
l artículo, resultado de un trabajo de investigación, busca constituir un sistema de asociatividad tipo cooperativo y de empresas de artes gráficas, cuya localización geográfica sea cercana. Los problemas detectados corresponden a fenómenos de baja competitividad en la elaboración de trabajos, en los que los clientes exigen cumplimiento, calidad y precios competitivos que, trabajando de manera aislada, no muestran seguridad ni confianza a los clientes. Como resultado, se propone un modelo que integra los dos métodos, permitiendo facilitar la incorporación de las empresas mipymes, del sector de artes gráficas, en un sistema administrativo y técnico basado en principios y valores comunes de cooperativismo y de clusters. Lo anterior, fortalecerá la competitividad de empresas sin importar su tamaño, logrando mayor capacidad y, de esta forma, brindar la confianza y seguridad para asignar contratos relacionados con productos o servicios de artes gráficas
E
he article, results of a research project, seeks to establish a system of partnerships and cooperative type printing companies whose geographical location is nearby. The problems detected phenomena correspond to low competitiveness in the preparation of papers, in which customers require compliance, quality and competitive prices, working in isolation, do not show safety and customer confidence. As a result, a model that integrates the two methods, aimed at facilitating the incorporation of businesses MSMEs, the printing industry, in an administrative and technical system based on common values and principles of cooperatives and clusters is proposed. This will strengthen the competitiveness of companies regardless of size, capacity and achieving greater, thus providing confidence and safety for assigned contracts related to products or services of graphic arts
T
Keywords: Clusters, cooperatives, principles, values. Palabras Clave: Clusters, cooperativismo, principios, valores.
Recibido / Received: Marzo 14 de 2014 Aprobado / Aproved: Mayo 05 de 2014 Tipo de artículo / Type of paper: Investigación científica y tecnológica terminada. Afiliación Institucional de los autores / Institutional Affiliation of authors: Fundación Universidad de América. Autor para comunicaciones / Author communications: Carlos Gabriel Correa Chaparro, xxxxxxxxxxxxx@xxxxxxxxxxx Los autores declaran que no tienen conflicto de interés.
Modelo integral de enfoques de cooperativismo y clusters en PYMES sector artes gráficas de Bogotá
Introducción El artículo resultado del trabajo de investigación: “Diseño metodológico que integre los efectos de asociatividad de tipo cooperativo y de clusters, como factor de desarrollo y competitividad de pymes artes gráficas de Bogotá” [1]. Está basado en la percepción de deficiencias respecto a tiempos de entrega, calidad, capacidad de producción, variación de precios de una empresa a otra, no obstante que se encuentran ubicadas geográficamente cercanas, caracterizadas como clusters; las empresas siguen trabajando de manera independiente, sin utilizar capacidades de otras empresas denominadas como competencia, no buscan apoyo, que sumen recursos. Al indagar sobre los principios y teorías del cooperativismo, se vio la posibilidad de diseñar un modelo que integre dichos principios con empresas que conforman el clusters Los objetivos alcanzados correspondieron a describir fundamentos organizacionales, normativos y funcionales de cada una de los dos enfoques objeto de la investigación; evaluar la aplicación de cooperativismo y clúster; establecer factores claves de éxito en los modelos de cooperativas y/o en clusters para el desarrollo y competitividad de la pymes sector artes gráficas; como resultado, el diseño de un modelo que integre los dos sistemas El modelo tiene como objetivo integrar capacidades de empresas localizadas geográficamente cercanas que actualmente trabajan de manera aislada con limitada capacidad de producción, ocasionando inseguridad y desconfianza por parte de los clientes cuando solicitan trabajos de gran volumen de tiraje y tamaño de formato. Como resultado se logró identificar principios comunes que facilitan diseñar un sistema integral en un modelo que integra el sistema cooperativo y el clusters como un solo sistema que muestre mayor capacidad de proceso desde la recepción de la necesidad de los clientes, de un producto de artes gráficas hasta su entrega final de impresión sea manejado como un sólo sistema con capacidad de respuesta que cumplirá toda expectativa y exigencias de los clientes; de esta manera al acogerse las empresas sin importar el tamaño se podrán fortalecer para poder competir y responder en términos de capacidad, precios, tiempos de entrega y calidad ante los clientes y se podrá lograr aporte a la investigación y desarrollo (I+D+i) de
nuevos sistemas de trabajo asociado en el que prima el bien colectivo al particular [2]
Descripción del problema Los principios y normas del cooperativismo en empresas productoras y transformadoras de artes gráficas, como modelo integrador no han sido socializados entendidas y aplicadas Los empresarios de pequeñas y medianas empresas del sector artes gráficas tienen poca claridad de las ventajas, beneficios sociales y económicos que se pueden lograr al asociarse a una cooperativa. La catedra de Cooperativismo hace más de 30 años se excluyó del pensum educativo en los colegios, esto ha hecho que no se preste atención al tema Bogotá cuenta con la “cooperativa de impresores y papeleros de Bogotá”, conformado por empresas que buscan objetivos comunes pero trabajan de manera aislada, son 86 empresas afiliadas; para afiliarse a la cooperativa corresponde es necesario hacer un aporte de 50 salarios mínimos legales mensuales vigentes, equivalente a $28.000.000 (año 2014) erogación que disminuye el capital de trabajo de las empresas mipymes De las 86 empresas de la cooperativa 55 de ellas cuenta con tecnología y recursos para ofrecer impresión offset, 29 impresión digital, 17 ofrecen material P.O.P, 17 ofrecen acabado de plastificado, los recursos tecnológicos son utilizados al interior de cada empresa, no es común que otras empresas acudan a sus servicios. Bogotá cuenta con grupos de empresas geográficamente densas compuesto por empresas del sector artes gráficas, como es el caso del sector Ricaurte donde se encuentran ubicadas alrededor de 150 empresas de tamaño micro y pequeña, empresas que ofrecen servicios de toda la cadena de valor productiva desde diseño, pre-prensa, impresión offset, digital, flexografía, screen, tampografia,, además de todo el sistema de acabado; unas con otras empresas se prestan servicios de acuerdo a cada necesidad y a la capacidad técnica entre unas y otras; cada servicio se contrata de manera verbal, sin forma-
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 78-86 ¦ 79
Carlos Gabriel Correa Chaparro, Natalia Torres Peñuela.
lismo alguno, ocasionando frecuentes casos problemas de precios, calidad, entregas con deficiencias además con frecuentes problemas de cumplimiento, faltantes de cantidad, defectos de calidad [3] La totalidad de las empresas encuestadas en el sector de Ricaurte no mostraron interés por pertenecer a una cooperativa y el concepto de clusters, es nuevo para todas (ver gráfica 1 Árbol del problema) Gráfica 1. Arbol del problema
Se requiere promover programas de desarrollo para diferentes tipos de asociatividad La tendencia del incremento de las cooperativas deben incrementar
La tendencia del incremento de las cooperativas deben incrementar
Falta apoyo entre cooperativas
Se requiere promover programas de desarrollo para diferentes tipos de asociatividad por lo tanto se requiere de fortalecimiento estas sociedades
Falta de divulgaciòn sobre economía solidaria
Falta de interés por asociarse
Ausencia de catedra de cooperarivismo y clúster
Se requiere claridad de los principios
Los afiliados necesitan identificar ventajas en sus cooperativas
Existe legislación basada en la constitución pero falta interpretación
Autores: Resultado del problema identificado
Justificación El mercado actual de las artes gráficas exige que las empresas mipymes que ofrecen productos y servicios tengan capacidad de respuesta en cantidad, calidad y tiempo de entrega, estas son débiles por trabajar de manera individual y aislada, por lo que es necesario que se integren en un modelo apoyado en los principios de cooperativismo en el que se deben cumplir con formalísimos administrativos y dada su ubicación geográfica, al integrarse como apoyo entre las diferentes empresas se pueden transformar en empresas fortalecidas, que fortalecen el desarrollo regional [4]
Hipótesis Si las diferentes empresas de artes gráficas localizadas geográficamente cercanas hacen parte de manera formal de un sistema de trabajo cumpliendo con el principio de que la suma total es mayor que la suma de sus partes aisladas., involucrando los dos enfoques (clusters y cooperativismo) a un solo propósito y un fin común, como es el de cumplir con principios y valores que al adoptar estrategias conjuntas de apoyo mutuo, se transformaran en empresas con capacidad de respuesta y alta productividad, con un principio de gana-gana de los actores que participen en la elaboración de trabajos del sector artes gráficas [2]
Metodología de la investigación Para el desarrollo del trabajo se realizó investigación en los enfoques de asociatividad de economías solidarias, destacando principalmente las bondades, ventajas, incentivos que se pueden lograr por pertenecer a estas; se cumplieron las siguientes fases Primera fase: Se describieron los fundamentos organizacionales, normativos y funcionales de cada una de los enfoques de asociatividad objeto de la investigación, Segunda fase: Se evaluó los enfoques de asociatividad en la aplicación de cooperativismo y clusters. Tercera fase: Se analizó de manera comparativa los enfoques de asociatividad de tipo cooperativo y de clusters, de las pymes del sector artes gráficas de Bogotá. Cuarta fase: Se identificaron los factores claves de éxito en los modelos de cooperativas y/o en clusters para el desarrollo y competitividad de las pymes sector artes gráficas. Para efectuar el diseño metodológico se implementó un cuestionario que se aplicó al tamaño de muestra aleatoria a 235 empresas clasificadas en micro y pequeñas empresas, basándose en las 5133 mipymes de las diferentes localidades en Bogotá en el sector de artes gráficas así: N .( Z ) .( p ).(q) n= (1 ) ( N − 1 ) − ( e )2 .( p ).( q ) 2
En donde
80 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 78-86
Modelo integral de enfoques de cooperativismo y clusters en PYMES sector artes gráficas de Bogotá
Z: Nivel de confianza 1.96
Localidad
p: Área de trabajo de la curva normal 0.8
Sin clasificar
ID
Tamaño
Muestra
m20
322
15
q: Área complementaria 0.2
Engativá
p1
41
2
e: Error muestra 0.05
Puente Aranda
p2
85
4
N: Población total 5133
Barrios Unidos
p3
95
4
Chapinero
p4
61
3
Los Mártires
p5
50
2
Teusaquillo
p6
61
3
Suba
p7
27
1
Santafé
p8
39
2
Usaquén
p9
44
2
Kennedy
p10
20
1
Fontibón
p11
26
1
La Candelaria
p12
5
0
Rafael Uribe
p13
6
0
Antonio Nariño
p14
8
0
San Cristóbal
p15
5
0
Tunjuelito
p16
1
0
n=
( 5133 ).(1.96 )2 .( 0.8 ).( 0.2 ) ( 5133 − 1 ).( 0.05 )2 + (1.96 )2 .( 0.8 ).( 0.2 ) n=
3155.029248 13.444656
n = 234.667 ≅ 235 muestras Tabla 1. Distribución de muestra
Localidad
ID
Tamaño
Muestra
engativá
m1
493
23
Puente Aranda
m2
409
19
Barrios Unidos
m3
355
16
Chapinero
m4
340
16
Los Mártires
m5
358
16
Teusaquillo
m6
308
14
Bosa
p17
1
0
Suba
m7
329
15
Ciudad Bolívar
p18
12
1
Santafé
m8
286
13
Total
5133
235
m9
268
12
Kennedy
m10
281
13
Fontibón
m11
140
6
La Candelaria
m12
139
6
Rafael Uribe
m13
120
5
Antonio Nariño
m14
86
4
San Cristóbal
m15
89
4
Tunjuelito
m16
74
3
Bosa
m17
73
3
Ciudad Bolívar
m18
58
3
Usme
m19
18
1
Fuente: CCB. Registro mercantil. Cálculos: Dirección de Estudios e Investigaciones, CCB.
El tipo de muestreo utilizado fue el estratificado ya que los elementos están separados según sus características, además para garantizar una representación de los diversos grupos de la muestra y conglomerado porque se realizó en forma proporcional de la cantidad de la muestra total. El método que se utilizó en esta investigación fue de tipo práctico, debido a que se debe profundizar con el tipo de problema social y se basó en experiencias directas de las diferentes dificultades u oportunidades que se han presentado en el sector de artes gráficas.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 78-86 ¦ 81
Carlos Gabriel Correa Chaparro, Natalia Torres Peñuela.
Se orientó a la técnica del cuestionario con el objetivo de reunir información necesaria de la población seleccionada, esta técnica permitió tener contacto directo con los participantes de la actividad comercial de las artes gráficas, en su mayoría dueños de cada establecimiento La recolección de la información se realizó en empresas del sector de artes gráficas de las diferentes localidades, en cada contacto se expuso el propósito y objetivo de la investigación, con especial cuidado desde el diseño de la encuesta que el encuestado no se incline por algún tipo de asociatividad, en el momento de aplicarla, utilizando dos opciones de repuesta cualitativa (si – no)
Resultados y discusión Con base en las fases desarrolladas se pueden tener los siguientes resultados: a. Respecto a cooperativismo
Los fundamentos organizacionales, normativos y funcionales del cooperativismo están basados en los estatutos de cada cooperativa y con base en los principios del mismo. Las cooperativas son asociaciones en las que el trabajo de cada asociado es el factor fundamental. Los excedentes no son distribuidos entre los asociados, factor que no motiva a participar empresas pequeñas y medianas. En aspectos legales las cooperativas están regidas por la ley 79 de 1988. b. Respecto a clusters
Los clusters no están agrupadas de manera formal no están apoyada en los fundamentos legales, estatutarios, no obstante están basados bajo la coordinación de acciones de beneficio mutuo apoyadas por la ubicación geográfica, con las que se pueden desarrollar ideas de negocio de personas emprendedoras dueñas de las empresas [4] Al enfocar las empresas en la aplicación de los principios del cooperativismo y clusters, las empresas logran una mejor relación con los clientes, alcanzando confianza en que sus trabajos van a ser entregados a
tiempo, y sin las deficiencias al trabajar con empresas totalmente aisladas y sin apoyo formal [5] Al comparar los dos enfoques de asociatividad de tipo cooperativo y de clusters, se observa que el cooperativismo es una asociatividad de ayuda mutua, sin ánimo de lucro que busca el bien común de los asociados, en el que los beneficios se logran con el control de precios, descuentos en compra de materias primas; el sistema de clusters, cada empresa busca las mejores utilidades en cada uno de los servicios que ofrece, pero al formalizar condiciones de precios, descuentos, responsabilidades y compromisos pueden transformarse en empresas altamente competitivas Los factores claves de éxito en los modelos de cooperativas están definidas por la administración democrática, afiliación, retiro voluntario, autonomía, continua capacitación, cobertura mundial (96 países), protección económica. Los factores claves de éxito de los modelos clusters están definidos por el mejoramiento de indicadores de productividad, reducción de desperdicios, competencia de precios y una mejor productividad de la pymes sector artes gráficas. Como lo menciona Rodríguez, 2012: La asociatividad entre empresas del mismo sector y que se localizan territorialmente en la misma región obedece tradicionalmente a dos razones 1) una coyuntura o crisis que lleve a la unión de fuerzas entre los actores relevantes de un clusters para afrontar la situación; (2) la intención de aprovechar nuevas oportunidades que traen consigo la dinámica de los mercados y el entorno. Se ha observado que las empresas que se agrupan e intensifican la cooperación local como respuesta a una crisis, a la presión de la competencia o para responder a oportunidades específicas propias de la dinámica de entorno, responden de una forma más eficaz a las crisis y a las oportunidades (p. 97) Los principios que se desarrollan en los enfoques asociativos de tipo cooperativo y de clusters son determinantes en el avance y progreso de las diferentes empresas con actividades económicas diversas, es entonces donde se identifican y asocian para interpretar la relación que existen entre estos dos tipos de asociatividad. El coope-
82 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 78-86
Modelo integral de enfoques de cooperativismo y clusters en PYMES sector artes gráficas de Bogotá
rativismo está basado en los principios de: adhesión voluntaria y abierta, gestión democrática, participación económica de los socios, autonomía e independencia, educación y formación, cooperación entre cooperativas, interés por la comunidad. Los clusters están basados en principios que buscan beneficios para cada empresa en particular, solidaridad, respeto a igualdad, cumplimiento de la ley, lealtad, disposición al cambio y libre empresa
trabajos; la puntualidad y el cumplimiento en las fechas de entrega de los trabajos, la recursividad como lógica para tomar decisiones que no interrumpan el proceso; la tolerancia para llegar a acuerdos y compromisos; la participación en el apoyo cuando sea necesario; la colaboración como base integral de clusters y cooperativismo. Grafica 3. Valores comunes que integran los enfoques de tipocooperativo y clusters.
Como resultado se pueden integrar en principios comunes que integran los dos enfoques asociativos de tipo cooperativo y clusters. Grafica 2. Principios que integran los enfoques asociativos de tipo cooperativo y clusters.
Autores: con base en los valores identificados como comunes.
Fuente Autores: con base en resultados y discusión.
Los valores permiten orientar el comportamiento en función de la formación de personas, proporcionando pautas para poder establecer metas y propósitos personales, al integrar los sistemas de cooperativismo y clusters, se pueden integrar aquellos valores comunes como: la ética, que ayuda a discernir la decisión más adecuada o justa en situaciones concretas, contribuyendo al desarrollo de actividades basada en la confianza; la fidelidad ayuda a establecer compromiso de no estar cambiando proveedores, por el solo el factor precio; la honradez en el manejo de materiales de los clientes; la confianza para que no se presenten plagios de diseño de productos; la creatividad para solucionar problemas y hacer mejoras sustanciales a los trabajos; la honestidad como respeto a la verdad en caso de dudas en las condiciones técnicas de los
Se compara explícitamente los aportes que hacen el cooperativismo y el clusters, en las empresas de artes gráficas de Bogotá, involucrándolas y creando estrategias para prorrogar e incentivar su participación exponiendo y validando las ventajas y beneficios que tienen de mutuo apoyo como el que se propone implementar; la mayor dificultad corresponde a que el sistema de asociatividad por aspectos de cercanía geográfica como es el clusters, no existe formalismo, pero se puede lograr entre las diferentes empresas que aceptan que el trabajo en equipo y de apoyo con los mismos vecinos de empresas con similares situaciones de necesidades que pueden ser solucionadas con el apoyo en capacidades técnicas, infraestructura, espacios que pueden brindar cuando las necesidades lo ameriten; el aspecto formal se puede lograr con acuerdos de condiciones tanto comerciales, como de precios estandarizados por los servicios suministrados, en el que no es necesario hacer para cada trabajo, un proceso de determinación de precios sino que ya se establecen condiciones para tiempos prolongados y cíclicos.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 78-86 ¦ 83
Carlos Gabriel Correa Chaparro, Natalia Torres Peñuela.
Con el análisis se logró identificar factores comunes que comparten los dos modelos de asociatividad de tipo cooperativo y de clusters resumidas en el mapa de procesos como una cadena de valor de los enfoques tipo cooperativo y clusters, resumidas en el mapa de procesos de la gráfica 4. Los procesos estrategicos dan un direccionamiento hacia el fortalecimiento de una cultura empresarial innovadora en el que empresas del sistema de asociatividad cooperativo y de clusters se pueden apoyar con un formalismo tipo comercial o de taller satelite. Gráfica 4. Mapa de procesos con enfoque integral.
Procesos Estratégicos
Direccionamiento estratégico. Contribuir con el fortalecimiento de una cultura empresarial innovadora. Gestionat talleres de capacitación de temas de asociatividad, gestión de calidad, mercadeo, comercialización, entre otros.
El esquema del modelo integral tiene como fin que las personas, empresarios y trabajadores de las empresas de artes gráficas se apersonen de la evolución de cada uno de los enfoques de asociación, comprendiendo los antecedentes y beneficios que presentan cada una de estas, identificando los aportes que pueden suministrar para este sector productivo, el cual establece estrategias de vinculación y trabajo asociado para mejorar la productividad y por ende la competitividad como desarrollo regional. La implementación está concentrada en el sector de artes gráficas de Bogotá, el cual tiene una participación representativa en las variables industriales como son la producción bruta, el valor agregado, empleo permanente, exigiendo una incorporación de nuevas estrategias que creen conexiones y relaciones entre empresas en las que debe haber aceptación de cambios en pensamiento y comportamiento, estableciendo mayor flexibilidad en el dialogo y articulaciones de las mismas. Grafica No 5. Esquema del Modelo Integral propuesto.
Crear estrategias para la apropiación de conocimientos y la adaptación con el entorno.
Proyectos de Apoyo
Procesos Misionales
Generar mecanismos de financiación para emprendimientos dinámicos innovadores. Vincular a las empresas con los proyectos desarrollados en cooperativas y/o clúster.
Promover la innovación a través de la cooperación y el trabajo en red entre las empresas.
Elevar la cooperación entre el sector de negocios y el sector de investigación / universidades con el fin de poder fomentar las investigaciónes académicas.
Iniciativas realizadas por entes gubernamentales y privados para apalancar el desarrollo de clúster y cooperativas. Revisión de los planes estratégicos para evaluar su evolución.
Autores: con base en mapas de proceso Sistema de Gestión de Calidad.
84 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 78-86
Modelo integral de enfoques de cooperativismo y clusters en PYMES sector artes gráficas de Bogotá
El diseño del modelo facilita a los empresarios explorar dos alternativas diferentes de desarrollo empresarial, buscando un liderazgo que tenga como principio crecer y hacer crecer a la gente y a su empresa, se focaliza a los empresarios de artes gráficas, para que pertenezcan al sector solidario y encuentren las mejores opciones de crecimiento. Da claridad para que los empresarios conozcan los antecedentes de estos dos enfoques, en el que se informa acerca de los éxitos de cada uno, logrando exteriorizar las bondades y ventajas individuales y en común que presenta el cooperativismo y el clusters, para facilitar la decisión de vincularse a los dos enfoques de asociatividad, pero de manera integral con principios del cooperativismo y las bondades del clusters
pertenecientes a cooperativismo y clusters, porcentaje representativo para motivar a la contribución y asociación a estos dos enfoques de economía solidaria. Los dos sistemas incluyen factores comunes de economía solidaria de mutuo apoyo, en los que se busca apalancar el desarrollo y competitividad de las pymes artes gráficas de Bogotá, tanto individual como colectivamente. Se identificaron los factores claves de éxito de los dos modelos, cooperativas clusters, para transformar empresas débiles por capacidades en fuertes, para cumplir las capacidades de producción exigentes en cantidad y calidad
Bibliografía
Conclusiones Al integrar los dos sistemas de asociatividad cooperativismo y clusters en el sector de artes gráficas de Bogotá, las empresas sin importar su tamaño fortalecen su capacidad de producción para poder responder a las exigencias de los clientes como resultado de la colaboración, apoyo técnico y operativo; las empresas micros y pequeñas se pueden trasformar en medianas, no obstante no contar con el formalismo en el sistema clusters Se identificaron principios y valores comunes que facilitan integrar los dos sistemas para lograr una sumatoria de recursos técnicos, de infraestructura, lográndose confianza por parte de los clientes que acuden por servicios de impresión y acabado de productos. El integrar los sistemas de asociatividad de tipo clusters y cooperativismo en un área específica como es de artes divulgada en otros sectores como el del cuero en la zona del Restrepo en Bogotá Más de 120 millones de empleos son generados por las cooperativas, que representa aproximadamente un 20 % más de empleo que genera las multinacionales. El 77% de las empresas intervenidas están dispuestas a participar en programas para que las empresas sean competitivas y asistir a capacitaciones que son factores
[1] N. Torres y C. Correa, Diseño metodológico que integre los enfoques de asociatividad de tipo cooperativo y clusters, como factor de desarrollo y competitividad de artes gráficas de Bogotá, Bogotá: Fundación Universidad de América, 2013. [2] Uribe, Bases del cooperativismo SaludCoop EPS, Medellín: Universidad Cooperativa de Colombia, 2008, pp. 178-245-252-264. [3] A. J. R. J., Modelo Sectorial de Gestión del I+D+i para el sector electrico colombiano, Medellín: L. Vieco e hijas Ltda., 2012. [4] G. O., Guía práctica de las entidades sin ánimo de lucro y del sector solidario, Bogotá: Panamericana S.A.S, 2007, p. 22. [5] F. J, «Clusters y desarrollo regional en America Latina.,» vol. 35, pp. 177 - 1810, 2009. [6] R. M., Gestión de clusters en Colombia: una herramienta para la competitividad, Bogotá: Universidad de Los Andes, 2012, pp. 10-11-19-26-38-163-181-185. [7] C. J. y. P. J., La cooperativa de trabajo asociado. Fundamentos conceptuales normativos y operacionales, Medellín: Universidad Cooperativa, 2008, pp. 25 - 29 - 37 - 41.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 78-86 ¦ 85
Carlos Gabriel Correa Chaparro, Natalia Torres Peñuela.
Los Autores Carlos Gabriel Correa Chaparro Docente investigador Universidad de América, Centro de investigación y desarrollo CINDE, Línea de investigación: Desarrollo de Mipymes; Docente de cátedra, facultad de ingeniería industrial, materias: Ingeniería de Métodos, organización y Métodos y Seguridad y Salud Ocupacional. Ingeniero Industrial de la Universidad de América, Febrero 16 de 1973, Matricula profesional 25228129280CND, Especialista en Administración de Empresas, Especialista en Docencia Universitaria, en la Universidad del Rosario, SISTEMA DE PERFECCIONAMIENTO PROFESIONAL EN PRODUCCIÓN. Instituto Latino Alemán de la Tecnología del Aprendizaje IATA, Convenio Fedemetal – Alemania. Natalia Torres Peñuela Ingeniera Industrial de la universidad de América 2014, Trabajo de grado: Diseño metodológico que integre los enfoques de asociatividad de tipo cooperativo y de clusters, como factor de desarrollo y competitividad de las pymes del sector artes gráficas de Bogotá, 2014.
86 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 78-86
Microfinanzas Aplicadas a los Municipios del Alto Magdalena y Otras Regiones Microfinance Applied to Municipalities of Alto Magdalena and Other Regions
Rodrigo Pérez Peña*, Andrés Felipe Ortiz Zamora**.
Resumen
Abstract
l presente proyecto de investigación busca contribuir en el planteamiento de soluciones a los problemas que posee la población vulnerable de los municipios de la región del Alto Magdalena, como son la falta de recursos financieros y capacitación para la modelación de los negocios, con el fin de mejorar las actuales condiciones de vida. La metodología utilizada consiste en la realización de consultas directas a la población identificada en cada municipio, estableciendo modelos que contribuyan a la disminución de la problemática identificada.
his research project aims to contribute to solve the problems that the vulnerable population of the municipalities in the region of Alto Magdalena possess, such as the lack of financial resources, consultations, training, remodeling, their business, in order to improve their current living conditions; the methodology used for this are through direct consultation in each municipality and the establishing of models that can reduce this problem by sectors proposed for it. Notice that the different models are implicit in the variable types identified for making them.
Los resultados de la investigación permiten identificar las necesidades relacionadas con las unidades de negocio de población vulnerable de estos municipios, generando un impacto en el mejoramiento en la actividad economica y comercial de las unidades productivas, así como en la retabilización de sus recursos financieros. En conclusión, busca aportar herramientas concretas para la disminución de problemáticas sociales por medio de la creación de nuevas unidades generadoras de empleo así como el mejoramiento de la actividad comercial en la región.
The expected results of this research work is the achieve to formulate solution models aimed to reduce this scourge in these locations; it is intended that through this projects, they obtain an improvement in their business activities, the performance of their financial resources in the vulnerable population of these municipalities; plus it can reduce the different social problems that can cause, these kind of needs in these population, in the different municipalities of the region of Alto Magdalena, also the creation of new employment generating sources, improve the quality of life of the population, and improve the commercial activity of these business.
E
Palabras Clave: Microfinanzas, generadoras, sectores, modelos, flagelo.
T
Keywords: Microfinance, generators, sectors, models, scourge.
Recibido / Received: Mayo 09 de 2014 Aprobado / Aproved: Mayo 30 de 2014 Tipo de artículo / Type of paper: Artículo de investigacion científica y tecnólogica terminada. Afiliación Institucional de los autores / Institutional Affiliation of authors: *Docente investigador Universidad Piloto Bogotá, **Decano Ingeniería Financiera Universidad Piloto. Autor para comunicaciones / Author communications: Rodrigo Pérez Peña, ingpepe@hotmail.com Los autores declaran que no tienen conflicto de interés.
Rodrigo Pérez Peña, Andrés Felipe Ortiz Zamora.
Introducción La forma en que se estructuran las economías emergentes deja su huella en los hábitos tanto de las personas, grupos familiares y sociales, como de los establecimientos comerciales, establecimientos industriales, establecimientos recreativos, entre otros. Algunos de estos acontecimientos son tan significativos que ocasionan grandes impactos en el desarrollo de los pueblos, las regiones y las naciones en general. Es así como a raíz de todos estos acontecimientos, resultan afectados sectores poblacionales que día tras día ven menos oportunidades de poder contar con unas condiciones de vida dignas, tanto a nivel individual como en sus grupos familiares.
Se habla de la concentración de actividades empresariales como el antídoto para el malestar actual, debe recaer en una comunidad consumidora activa a la cual se ha atendido poco y en el potencial para el crecimiento global del comercio y prosperidad, al convertirse los cuatro o cinco mil millones de pobres, en parte de un sistema de capitalismo incluyente. (Prahalad C. , 2012). Significa ello que se está desconociendo toda esa masa poblacional, sus capacidades para generar mercado y dentro si tendrían sus consumidores potenciales para su autoconsumo; pero que por falta de recursos económicos y financieros, no han podido surgir y día tras día van cayendo aún más en la miseria, en la pobreza absoluta. Es cierto, no se pretende dar una solución inmediata a tan delicado problema social que afrontan las naciones en general, se pretende contribuir a disminuir dicho problema en un zona más específica como lo es el Alto Magdalena en Colombia. La presente investigación pretende brindar, alternativas que contribuyan al mejoramiento de las condiciones de vida de esa población vulnerable, y más exactamente, la localizada en la región del Alto Magdalena.
Aspectos Generales El hecho de disminuir la pobreza en las poblaciones más vulnerables ha suscitado el interés de varios personajes, quienes se han motivado por las circunstancias que rodean este problema social, a nivel mundial.
Es el caso del profesor Muhammad Yunus, natural de Chittagong, Bangladesh, quien desarrolló sus teorías hacia la década de 1940. Economista y de profesión banquero, quien estudio en los Estados Unidos, fue el padre del microcrédito, fundador del Banco de los pobres, quien después de haber permanecido por mucho tiempo fuera de su país, como consecuencias de la violencia desatada por la independencia de su nación, regresa con ideas inquietantes ante la pobreza que presenta esté. Yunus, en la región de Jobra comenzó a darse cuenta que los bancos no brindaban alternativas de crédito a aquellas personas que no poseían como respaldarlos y esto ocasionaba un mayor empobrecimiento de la población al no contar con medios económicos que le permitieran solventar la falta de estos recursos para poder obtener medios efectivos de subsistencia. Entonces Yunus, comienza a idear la forma para poder ayudar a ese sector de la población, y es así como al ver un grupo de campesinos, deseosos de trabajar pero endeudados y faltos de recursos financieros, decide ayudarlos facilitándoles el dinero necesario para que pudieran hacer sus labores agrícolas, con el compromiso de que fueran cancelando su deuda en la medida que obtuvieran sus ingresos. Este experimento le dio resultado, porque todos respondieron en buena forma. Con los resultados obtenidos se ideo la creación de un banco donde se prestara dinero sin ninguna garantía, y a su vez, sus afiliados se constituyeran en socios del banco.
El Banco funciona en la actualidad con más de 22.000 empleados que trabajan en las calles de casi 38.000 de las 68.000 aldeas y pueblos de Bangladesh, y concede préstamos a 2,3 millones de personas, de los que el 94% son mujeres pobres, siendo la tasa de devolución de los mismos del 97%. (biografias y vidas). Un alto porcentaje de estos préstamos se realizaba a las mujeres, quienes siempre se han considerado como más responsables ante los compromisos. Los mecanismos utilizados para los prestamos fueron prácticamente de presión, es decir se les prestaba a dos mujeres y hasta que ellas pagaran su obligación no se concedía a las otras. Finalmente, si las deudoras no cumplían con sus pagos
88 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101
Microfinanzas Aplicadas a los Municipios del Alto Magdalena y Otras Regiones
no se daban más créditos, ello obligaba a que la comunidad de mujeres estuviera pendiente del cumplimiento de los compromisos financieros. Fue tanto el éxito de su modelo de créditos que creció en una forma sin precedentes, y comienza a verse como alternativa de solución a la problemática de la pobreza: “Los pobres son las personas bonsái. La sociedad no les ha permitido el suelo auténtico. Si les permites el suelo legítimo, oportunidades reales, crecerán tan alto como todos los demás” (Prahalad C. , La oportunidad de negociación en la base de la Piramide, 2012). Esta frase tiene la esencia de la problemática, donde la sociedad ha cerrado el camino para que ese segmento de la población no participe ni sea artífice de la solución de sus mismos problemas. Teniendo en cuenta los resultados de los microcréditos y que hoy en día son fuente de desarrollo para un país con un alto grado de pobreza como la India y deseando propagar esta idea a los diferentes países del mundo que sufren esta problemática, se han ideado alternativas que buscan la implementación de este modelo en Latinoamérica; es así como llega a Colombia este modelo cuya impementación va creciendo de una manera ejemplar. También existe otro modelo de disminución de la pobreza creado por el Dr. C. K. Prahalad, quien es otro estudioso de estos problemas de desigualdad social que existen en el mundo; quien dentro de sus teorías plantea preguntas como ¿Qué estamos haciendo con respecto a la gente más pobre del mundo?: “¿Por qué con toda nuestra tecnología, conocimientos de administración y capacidad de inversión somos incapaces de hacer una contribución siquiera pequeña al problema de la pobreza y a la exclusión, omnipresentes a nivel global?” (Prahalad C. , La oportunidad de negociación en la base de la Piramide, 2012). Siempre los políticos, burócratas, directores de las grandes empresas, y los adinerados consideran que los problemas de la pobreza son problemas del Gobierno de turno, más no de todos aquellos que de una u otra forma pueden ayudar a solucionar este flagelo. Prahalad plantea la idea de que la solución para los 4.000 mil millones que se encuentran en la base de la pirámide, o sea en la pobreza absoluta; consiste en la integración
de varias fuerzas en el proceso, es decir: las empresas no gubernamentales, las grandes empresas, y la colaboración efectiva de otras organizaciones, en lo que se llamaría la “buena práctica empresarial”. Todo funcionaría con la movilización de recursos que aportarían las grandes empresas, sin embargo recomienda que para mantener la energía, los recursos y la innovación en la base de las pirámides, era necesario que las grandes empresas y las firmas privadas, consideraran parte de su misión la responsabilidad social con la base de la pirámide. También que los pobres deben convertirse en consumidores potenciales, debidamente preparados y que sean participantes. Es decir, se establecería un mercado alrededor de las necesidades de los pobres, y que esto contribuiría a aliviar la pobreza de toda esa población. En otras palabras, estamos considerando que toda esa población inactiva, en este caso las 4000 mil millones de personas se debían establecer un mercado de productos que ellos mismos comercializaran y consumieran a la vez, a bajos precios: “Si dejamos de pensar en los pobres como víctimas o como carga y empezamos a reconocerlos como empresarios creativos y con capacidad de recuperación, y como consumidores con sentido del valor, se abriría un mundo de nuevas oportunidades” (Prahalad C. , La oportunidad de negocios en la base de la piramide, 2012). Si se tomara esos 4000 mil millones, de pobres y se convirtieran en un mercado comercial sería un cambio de bienestar para esa población. Atender ese mercado potencial de la base de la pirámide, traería como consecuencia innovación tecnológica, nuevos productos como también de servicios, en igual se tendría que modelar nuevos tipos de empresa para atender esa población. Además que las grandes empresas debían trabajar en colaboración con las entidades estatales, organizaciones de la sociedad civil, que sería de gran beneficio para el desarrollo de las localidades. Otra posibilidad que se llegaría a tener con el desarrollo de ese mercado, es la generación de millones de empleos directos e indirectos por ejemplo, se tendría trabajo para las mujeres ya sea en la comercialización, distribución y nuevas empresas, hasta microempresarios, que serían parte de este mercado; por la misma forma de mercadeo de los productos. Este modelo actualmente, está aplicándose en varias naciones del mundo. Ver la forma como a través de estos dos modelos se puede contribuir a solucionar un problema que cada
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101 ¦ 89
Rodrigo Pérez Peña, Andrés Felipe Ortiz Zamora.
día va aumentando, porque la franja entre los pobres y los ricos se hace más amplia, lo cual trae más pobreza, miseria y más conflictos sociales en los países. En nuestro país este flagelo de la pobreza es muy significativo, y día tras día va aumentando; donde la franja de los pobres y los ricos es muy significativa, y el inconformismo social es mayor y sería muy conveniente implementar plenamente cualquiera de esos dos modelos.
En Colombia, según la Ley 590 de 2000, en su artículo 39, las Actividades de microcrédito hacen referencia al sistema de financiamiento a microempresas. Según el mismo artículo, el monto máximo de un microcrédito es de 25 salarios mínimos legales mensuales vigentes. (Garcés, CulturaE/Documents, Pag. 2) En su origen, eran comunes los microcréditos asociativos o de responsabilidad compartida. En este caso el microcrédito no es otorgado a una sola persona sino a un grupo de personas, que ejercen presión unas a otras para no incurrir en mora, reduciendo el riesgo de crédito. El incentivo de pago consiste en que una vez los beneficiarios han terminado de cancelar las cuotas completas y oportunamente, pueden acceder a otro crédito por un mayor monto y un mayor plazo. Este incentivo también contribuye a reducir el riesgo de crédito. (Garcés, CulturaE/Documents, Pag. 2) En el año 2008 el Dr. Javier Serrano Rodríguez, Consultor de la Sección de Estudios del Desarrollo de la Comisión Económica para América Latina y el Caribe (CEPAL), en su informe de mayo del 2008 manifestaba que el sistema financiero del país era muy bueno para aquellas empresas que tuvieran suficiente garantías de respaldo económico en sus créditos. Es así como el sistema financiero, que a raíz de las últimas crisis financieras que la han cobijado, ha disminuido en su número de establecimientos con solvencia financiera y se ha interesado en nuevos negocios, como los bursátiles, además su cartera se ha incrementado sustancialmente como consecuencia del número elevado de clientes con deuda por el aumento de estas en créditos de consumo. En cuanto a los microcréditos un grupo de bancos han incursionado en este nuevo programa según exigencias del gobierno central de acuerdo a las estrategias planteadas en el programa del Banco de las Oportunidades. El Gobierno del Expresidente Alvaro Uribe, fue el que mayor importancia le dio
a este programa, realizando compromisos con el sector bancario sobre la aplicabilidad de este tipo de créditos y es así como se establecen puntos estratégicos, como tiendas de barrios, oficina de venta de loterías, etc. Donde podían acudir las personas de bajos ingresos y solicitar su crédito sin embargo se debía tener garantías para ello. Uno de los grandes problemas que se presenta para implementar un modelo de microfinanzas para la población vulnerable en nuestro país, es la forma como está configurado y regulado nuestro sistema financiero, ello limita mucho el poder que un modelo de microcréditos sin garantías, funcione.
Métodos y Materiales El punto de partida de esta investigación es el desconocimiento de las necesidades de la población, en términos de microfinzas, correspondientes a los municipios de la zona del Alto Magdalena y otras regiones tienen como eje central a Girardot. Deseando favorecer aquellos grupos de personas más vulnerables en su actividad comercial y microempresarial de la región del Alto Magdalena y otros; de tal manera que busquen mejorar la calidad de vida de sus grupos familiares y contribuyan al mejoramiento de los ingresos tributarios y de renta de los municipios, de tal manera que logren un mayor desarrollo económico y social. Teniendo en cuenta el reciente estudio de agosto del 2010 del Centro de pensamiento en estrategias competitivas (CEPEC) de la Universidad Del Rosario, donde se afirma que la distribución de la población de la región del Alto Magdalena existe dos tendencias una la cabecera municipal y la otra la rural y que se encuentra dispersa. Entre los municipios de menor población se tiene a: Jerusalén, Guataqui, Nilo y Ricaurte, donde más del 50% se concentra en la zona rural y el resto en la parte urbana; y los de mayor población son Girardot, Tocaima, Agua de Dios, su población se concentra en la cabecera municipal. Donde la contribución al PIB por parte de esta región fue del 5,7%; donde las cifras sectoriales revelan que el PIB de la región del Alto Magdalena se concentra principalmente en el desarrollo de actividades industriales, 30,4%, servicios financieros e inmobiliarios 11,3%, comercio el 10,1%, hotelería y restaurante 9,2%; cabe resaltar que la
90 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101
Microfinanzas Aplicadas a los Municipios del Alto Magdalena y Otras Regiones
administración pública su aporte a la generación de valor es importante 7,8% en la medida que un alto porcentaje de la población de sus municipios obtiene su sustento al emplearse en las entidades del estado. También registra un alto índice de desempleo, situación que ocasiona un aumento en los altos índices de inseguridad en la región, a ello se le adiciona la falta de presencia del gobierno con programas que busquen brindar alternativas de mejoramiento de las condiciones actuales de vida, de esta población marginada. Situación Actual de los Municipios: La población total de los ocho (8) municipios es de 242.441 habitantes según DANE de acuerdo al censo de 2005. Fig. No 1 Mapa de la Región del Alto Magdalena
Aunque no es clúster, se destaca igualmente el sector agropecuario, en la producción de oleaginosos (maíz, ajonjolí, sorgo...), cereales, algodón y café especialmente en el sector de la conurbación Girardot- FlandesRicaurte. En el sector pecuario la producción de cárnicos es importante y en el sector minero se destaca la producción de yeso. La infraestructura hotelera, los bienes inmuebles y edificaciones hacen parte importante de la economía del Alto Magdalena, al igual que la cobertura de establecimientos de salud como hospitales y clínicas de gran calidad. Dentro de estos se destacan: el Hospital San Rafael de Girardot, el Hospital Marco Felipe Afanador en Tocaima, la Clínica de Especialistas, La Clínica San Sebastián y Coomeva en Girardot. Debido a la gran afluencia turística, el sector comercial está altamente desarrollado, especialmente en Girardot y los centros urbanos más alejados como los de Agua de Dios y Tocaima. (informacion_general.shtml#economia, 2013) Las poblaciones vulnerables que poseen estos municipios es alta por la falta de fuentes de empleo, donde a excepción de los empleos que ofrecen las alcaldías no hay otra alternativa de empleo. Este sector de la población es de bajos recursos económicos y no poseen las garantías necesarias para respaldar un crédito en las actuales circunstancias que ofrece las entidades financieras; sin embargo, de esta población, algunos subsisten con los negocios de economía informal, otros con pequeños negocios y otros con negocios al destajo.
Donde el municipio de Girardot es el de mayor población con 95.496 habitantes. Situación Económica. El plan de Competitividad Girardot 2007 - 2019, muestra como eje económico de esta zona un clúster turístico (en especial en los municipios de Ricaurte, Nilo, Tocaima y Girardot) y un clúster académico, debido a la buena cantidad de sedes regionales de universidades destacadas que se encuentran ubicadas en la capital de esta provincia.
La gran mayoría de los microempresarios pertenecen a solo una persona propietaria o dueña y en muchos casos se trata de un negocio familiar; con frecuencia no existe separación entre el presupuesto familiar y el de la microempresa. Muchos de ellos no cuentan con empleados asalariados, quienes trabajan en ellas, son más bien integrantes de la familia. Las personas propietarias o quienes gerencia estos, poseen escasos o nulos conocimientos de gestión. Su volumen de operaciones es sumamente reducido. Existe un sector vulnerable que vive de la economía de subsistencia, donde son aprovechados por otros, mediante el facilitamiento de recursos como dinero, a
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101 ¦ 91
Rodrigo Pérez Peña, Andrés Felipe Ortiz Zamora.
altas tasas de intereses, siendo explotados para poder medio subsistir. Se plantea la siguiente metodología para contribuir a disminuir la problemática de esta población vulnerable; mediante una orientación y consolidación de sus negocios de microfinanzas para aquellos que los poseen y los que no lo tiene como se podría llegar a establecer un negocio que le brinde alternativas de mejoramiento de sus condiciones de vida, en los municipios de la región del Alto Magdalena y otras regiones circunvecinas. Se pretende clasificar los tipos de actividad que realizan esta población, de los municipios que conforman la presente investigación, en sectores; estos sectores serían, artesanal, informal, tenderos de recursos naturales, tiendan y negocios comerciales. Además se tendrá un programa especial para la mujer campesina. Para ello, se considerara como sectores las agrupaciones que en un momento forman estas poblaciones a raíz de su actividad, es así como: Sector Artesanal: Es un grupo de personas que a través del arte de manipular un recurso natural como por ejemplo el fique, buscan lograr obtener sus ingresos, que le permitan mejorar sus condiciones de vida tanto, al grupo familiar como de sostenibilidad del negocio. Son pequeños negocios que no tienen ninguna estructura funcional, realizan su actividad de acuerdo a una necesidad inmediata, cual es conseguir un medio de subsistencia. Son personas que adquieren un arte cual es el de trabajar un recurso natural, que mediante innovaciones y creativa transforman en artículos ya sea de uso personal y de adorno en las casas familiares, etc. Pero que por falta de recursos y medios financieros no han podido crecer en el mundo de los negocios. En cada municipio de estas regiones, existe una gran variedad de este tipo de situaciones. Sector Informal: Son grupo de personas que a través de lo que se llama la economía del rebusque, buscan obtener los medios de subsistencia tanto para su grupo familiar como sostener su medio de ingresos. Esta economía informal ha venido aumentando en nuestro país a raíz de que el sector formal no ha generado fuentes de empleo para toda esa población acta para emplearse, ello está ocasionando, disminución de la inversión, aumento de la
inseguridad, problema bastante delicado que desmejora la situación del Estado. Esto ha ocasionado una disminución del PIB del país, esta situación se puede observar al tener una mano de obra desempleada y en aumento, en el mercado laboral. Este mercado laboral hoy en día tiene implicaciones tanto en la población de baja educación, como en aquella que tiene una educación media y Universitaria, donde son tan escasas las fuentes de empleo que la gente debe buscar alternativas de subsistencia, que en algunos casos lo hacen de una forma legal como otros la hacen en una forma ilegal, esto permite tener una mayor inseguridad en nuestro país. Cuál es esa economía del rebusque, son todos aquellos pequeños negocios que se forman como consecuencia del flagelo del desempleo, ejemplo, ventas ambulantes, de una gran variedad de productos, que ofrece el mercado de las empresas a nivel nacional como internacional, venta de calzado, libros, ropa, dulcería, elementos de informática, etc. Esto ocasiona otro flagelo más complicado para la economía nacional, cual es el contrabando. Sector Tenderos Recursos Naturales: Son grupo de personas que a través de la comercialización de los recursos naturales que produce el campesino en sus parcelas, busca sus ingresos de subsistencia para su grupo familiar y sostenibilidad de su negocio. Este sector hoy en día viene siendo explotado muy inescrupulosamente por otro flagelo que es el mercado de la usura, quienes ofrecen prestamos de dinero a altas tasas de interés, con recuperación de estos en el corto plazo, llamándose corto plazo a horas, también son personas que sufren muchos inconvenientes como el abuso de los mayorista que es otro intermediario que tiene ese mercado ya que este compra directamente al campesino, y luego lo vende a estos tenderos con un mayor valor de los productos, lo que produce un encarecimiento de estos. Sector tiendas y negocios comerciales: Son grupo de personas que a través de la comercialización de productos manufacturados, buscan lograr el mejoramiento de las condiciones de vida de su grupo familiar y la sostenibilidad de su negocio. Las tiendas y negocios comerciales tienen una presencia altamente recurrente en los municipios, algunos de los
92 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101
Microfinanzas Aplicadas a los Municipios del Alto Magdalena y Otras Regiones
cuales funcionan desde hacer mucho tiempo generndo a sus propietarios el medio básico de subsistencia, otros son nuevos, fruto de los desplazamientos ocasionados por la violencia, desempleados, otros porque no encuentran una alternativa diferente para generar ingresos. El 80% de estos negocios, funcionan por la intuición, que le coloca su propietario, pero no tienen una estructura que le dé la forma de un negocio, orientado hacia las perspectivas de un mercado competitivo. Buscando mejorar las condiciones de los anteriores sectores se presenta la siguiente metodología con el fin de ser aplicada a los diferentes municipios de la región del Alto Magdalena. Sector de la Mujer Campesina: Corresponde a este sector todas aquellas mujeres que por un motivo u otro son víctimas de la violencia, unas al quedar viudas y con varios hijos que levantar, o por desplazamiento ocasionado por grupos alzados en armas, de su grupo familiar hacia las zonas urbanas dejando todas sus pertenencias que le generaban el sustento diario. Que al salir, a la parte urbana de los municipios, estas debe contribuir a conseguir el ingreso diario para subsistir. A este problema social existen varios programas del Gobierno Central, para amainar el problema, sin embargo la influencia de grupos políticos en los municipios hacen que estos programas funcionen de una forma sesgada. Dejando de prestarse de una manera diferente el objetivo social de estos, en la población objeto del programa y con los municipios quienes manejan los recursos. Los siguientes son las necesidades de la población vulnerable, que se lograrían mejorar con la presente investigación. 1. Contribuir al mejoramiento de los ingresos de la
población vulnerable, identificados en los diferentes sectores anteriormente señalados, mediante la obtención de recursos del crédito sin garantías. 2. Contribuir en la formación de la cultura del ahorro. 3. Contribuir en el mejoramiento de la estrategia
comercial de los negocios. 4. Contribuir en el mejoramiento de la administración
financiera de los negocios.
5. Contribuir en la formación educativa de la adminis-
tración de los negocios 6. Contribuir a la creación e innovación de nuevas
unidades generadoras de ingresos.
Metodología En el desarrollo de la presente investigación, se realizó, mediante una investigación de campo, y para ello se elaboró y diseño un instrumento de consulta directa, para lograr la recolección de la información necesaria de está, también a través, de información secundaria previamente valorada, que se obtuvo de cada uno de los municipios. El procedimiento metodológico, se inicia con la elaboración del instrumento de consulta, para la obtención de la información, para el cual se consideraron las siguientes actividades que se describen a continuación. Para elaborar este instrumento se consideró, que tipo de información se requería, a que población iba dirigida, a que sectores según actividad, era necesario encuestar. Después de realizados varios modelos del instrumento se logró consolidar el definitivo. Una vez establecida esta muestra por Municipio, direccionó la forma de trabajo en cada municipio, buscando lograr una optimización del tiempo para el encuestador y el encuestado. Formar los equipos de trabajo de campo; para ello se consideró, contar con dos encuestadores por municipios, debidamente orientados y preparados para la recolección de la información a solicitar según diseño del instrumento de consulta. Se coordinó mediante un supervisor de campo, quien estuvo pendiente de cada tarea al obtener información, el control de la cobertura, calidad, oportunidad y digitación, frecuencia y disciplina de los encuestadores. También se encargó de revisar las inconsistencias presentadas en la recolección de la información. Una vez se tiene definido el equipo de trabajo de campo y elaborado el instrumento de consulta se procede a determinar el tamaño de la muestra. Para ello se definió un tamaño de muestra según las técnicas del muestreo no probabilístico, que facilita a juicio del investigador fijar unos criterios para el tamaño
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101 ¦ 93
Rodrigo Pérez Peña, Andrés Felipe Ortiz Zamora.
de la muestra objeto de la investigación según localidad. Teniendo en cuenta el tamaño de la población urbana de cada municipio y sus condiciones económicas se fijó una muestra representativa de 20 encuestas por los Municipio, de Apulo, Nilo, Tocaima, Carmen de Apicala, los demás de la región del Alto Magdalena como son Jerusalén, Nariño, Agua de Dios y Ricaurte no se consideraron por su baja población urbana .
Gráfico No 1. Sectores Aplicados Sectores Aplicados 13%
13%
7%
Una vez realizado la consulta directa en cada Municipio se recolecto la información necesaria y se procedió a analizar los resultados de esta, para cuantificar las necesidades por sector. Los tipos de necesidades a identificar son: • Falta de recursos financieros • Falta de asesoría financiera
27%
40%
• Falta de capacitación • Falta de orientación en modelación y montaje de
negocio
Artesano
Comercial
Informal
Tenderos
Mujer campesina
• Falta de orientación grupo familiar
Como propósito de la investigación es lograr identificar la problemática de la población vulnerable que se presenta en los municipios seleccionados por la falta de medios y recursos para obtener unos ingresos acorde a sus necesidades; también establecer estrategias, que faciliten la orientación, mejoramiento y consolidación de sus negocios de microfinanzas, para aquellos que los poseen y los que no lo tienen, como se podría llegar a establecer, con el fin de lograr un mejoramiento a sus condiciones de vida, en los municipios seleccionados, se procede a clasificar los tipos de actividad que realizan esta población en los municipios que conforman la región del Alto Magdalena, en sectores como; el artesanal, informal, tenderos de recursos naturales, tiendan y negocios comerciales. Además se tendrá un programa especial para la mujer campesina. De acuerdo a la información recolectada en el municipio de Tocaima se observó según gráfico No 1, que el sector Tenderos es el que presenta más problemas de vulnerabilidad, al carecer de recursos del crédito, conocimientos en el manejo de sus ingresos, comercialización de sus productos, mejoramiento en la producción de sus productos, etc.
Como consecuencia de aplicar el instrumento de consulta a los diferentes sectores que conforman la población vulnerable el sector el mayor encuestado entre todos con un 40%; el sector informal un 27% los sectores mujer campesina y artesanos con un 13% y como último el sector comercial. En cuanto a la actividad comercial que realizan estas personas para subsistir se registró los siguientes resultados, que se puede detallar en el gráfico No 2. Donde se resalta el sector de los tenderos, quienes son los que comercializan los productos que el campesino saca cada semana para su venta, con un 53% muy significativo, este sector es bastante vulnerable ya que subsisten de lo que generan diariamente y algunos utilizan para la compra y reventa de estos productos dineros prestados a prestamistas quienes les exigen una retribución alta por este servicio. A este sector se involucra al pequeño campesino que cultiva pocas hectáreas obtenidas en arrendamiento. Las demás actividades logradas a identificar tienen igual variación y reflejan cuan tan variada es el tipo de actividad que realizan las personas para rebuscar su medio de subsistencia.
94 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101
Microfinanzas Aplicadas a los Municipios del Alto Magdalena y Otras Regiones
Gráfico No 2. Actividad Comercial Actividad Comercial 7%
7%
7%
7%
Cabe resaltar que un 80% de la población vulnerable está interesada en recibir capacitación, un 7% de microcrédito, otro 7% asesoría para su negocio, el otro 7% no le interesa nada. Se tiene que el 53% no han recibido nunca alguna ayuda para mejorar su actual actividad de su negocio y un 47% ha recibido ayuda de los programas del Municipio para ayudar a la población vulnerable.
7%
El tipo de actividad que desarrolla, en un 73%, no genera sino un solo empleo, el otro 27% dependiendo del tipo de actividad, genera entre 2 empleos un 20% y 4 empleos 7%. Donde se puede apreciar que la mayoría son actividades independientes cada una.
7%
7%
53% Artesana
Comerciante
Venta Fruta
Tendero
Venta Jugo
Costurero
Venta Minutos Celular
Fuera de esta actividad el 73% no tiene otra fuente de ingresos a la que posee; otro 27% realizar actividades de complementación como venta de arepas, para lograr mejorar sus ingresos.
Venta Piquetes
A los ingresos mensuales que estos logran obtener durante la realización de estas actividades podemos ver en la gráfico No 3 su comportamiento. Gráfico No 3. Ingresos Mensuales Según Información 13%
Entre los productos que comercializan un 54% lo hace con frutas, un 7% comercializa pulpa de fruta, un 7% comida chatarra, 7% comercializa ropa, 7% comercializa Jugos, 7% comercializa canastos, 7% minutos celular. Un 60% comercializa mensualmente estos productos, un 20% diariamente, un 13% semanalmente y quincenalmente. Los egresos que posee esta población se encuentra un 80% en $300.000 el 20% hasta $500.000. Como hecho fundamental de este municipio es que el 93% no desean microcrédito, solo un 7% aspira a lograr una solvencia económica mediante este medio. El municipio de Apulo, registró la siguiente información: El nivel de formación educativa está distribuido según gráfica No 4 donde un 41% tiene formación en secundaria y un 35% de básica primaria.
87% 1
2
Donde el 87% de las personas de estos rectores reciben unos ingresos mensuales menos de $500.000 y un 13% hasta un $1.000.000, refleja esto las necesidades de esta población para lograr obtener unos ingresos dignos para subsistir.
Tan solo un 6% de esta población cuenta con estudios universitarios es un porcentaje bastante significativo teniendo en cuenta la preparación de estos. Este municipio tiene como principal actividad la comercial con un 41%, un 12% realizan la actividad de salón de belleza y un 12% la de restaurante un 35% realiza otra
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101 ¦ 95
Rodrigo Pérez Peña, Andrés Felipe Ortiz Zamora.
variedad de actividades, hay que tener en cuenta que este municipio está en la orilla de la carretera principal que conduce a Bogotá D.C. donde llega mucho turista de paso que viaja todos los fines de semana de la capital.
Gráfico No 5. Ayuda que le gustaría recibir población vulnerable. 18%
18%
Gráfico No 4. Niveles de estudio Población Vulnerable 18%
0%
6%
18% 7% 6%
18% 35%
Microcredito Capacitacion
Prestamo Mejora Negocio
Asesoria Ninguna
41% Primaria
Secundaria
Nivel de Estudios
Universidad
Ninguno
Otros
El ingreso mensual oscila entre $500.000 y $1.000.000 mensuales, en un 94% de su población, que practica este tipo de actividad económica. En cuanto al tipo de colaboración que desearía recibir se puede detallar en la Gráfica No 5. Donde el 35% requiere de asesoría para su negocio, el 18% microcrédito y 18% capacitación, un 12% mejora de negocio y 17% otro tipo de ayuda, lo que nos indica que son amplias las necesidades de esta población. De acuerdo al tipo de actividad que desarrollan generan un empleo el 53%, el 29% dos empleos y un 6% tres empleos y un 12% no genera ninguna fuente de empleo. El 88% de esta población no posee ninguna otra fuente de ingresos, para su sustento. Entre los tipos de productos que comercializa un 24% lo hacen con carne y pollo, un 24% bebidas y comidas, un 18% frutas y verduras, 12% salón de belleza y 24% otro tipo de productos.
Entre los egresos que estos tienen un 41% gasta $300.000 mensual, entre $300.000 y $500.000 un 35%, entre $500.000 y más $700.000 un 24% de todos sus ingresos. El 59% desea microcrédito y el valor que desearía es entre $4.000.000 y $5.000.000 en un 60% de esta necesidad. El municipio de Nilo registró la siguiente información, el 80% de las personas entrevistada fueron femeninas y un 20% masculinas. El 45% casados y un 35% solteros y un 10% unión libre. Significando ello que hay 35% de la población joven que busca mediante cualquiera de los tipos de actividades analizadas en la presente investigación un medio de subsistencia. En cuanto a la formación educativa de esta población que practica algún medio de sustancia contemplado en la presente investigación se detalla en la gráfica No 6. Donde registra un 40% de formación de secundaria, un 25% de educación básica primaria, y un 30% entre formación Universitaria y otro tipo de formación, y un 5% ninguna. Ello nos indica que un 95% de la población tiene algún conocimiento formativo en las diferentes especialidades existentes en la educación.
96 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101
Microfinanzas Aplicadas a los Municipios del Alto Magdalena y Otras Regiones
Gráfico No 6. Niveles de Estudio Población Municipio de Nilo 1,0%
La cantidad necesaria de microcrédito es de $4.000.000 a $5.000.000 con un 40%, un 25% entre $2.000.000 y $4.000.000 y un 15% entre $1.000.000 a $2.000.000, como puede apreciarse en el gráfico No 8.
0,8% 0,6%
Gráfico No 8. Necesidades de Microcrédito Población Nilo
0,4% 0,2% 0,0% Series 1
0 0
0 0
0 0
0 0
0 0
50,00% 40,00% 30,00%
En cuanto al tipo de necesidad que desearía recibir se puede, analizar mediante el Grafico No 7 el siguiente comportamiento.
20,00%
Gráfico No 7. Que tipo de ayuda desea recibir Población Nilo
Series 1
0,00% $500,000$1000,000 0,00%
$1000,000$2000,000 15,00%
$2000,001$4000,000 25,00%
$4000,001$5000,000 40,00%
Al analizar los resultados, se puede observar que un 15% de la población consultada necesitaría como mínimo microcréditos entre $1.000.000 y $2.00.000 para mejorar las actuales condiciones de sus negocios; los cuales estarían dispuestas a cancelar en una forma mensual.
45,0% 40,0% 35,0% 30,0% 25,0% 20,0% 15,0% 10,0% 5,0% 0,0% Series 1
10,00%
Microcredito 40,0%
Prestamo 10,0%
Asesoria 15,0%
Capaci- Mejora Ninguna tación Negocio 5,0% 20,% 15,0%
Las ventas que estos registran se realizan diariamente de sus negocios, y el total de egresos que poseen están entre $300.000 a $500.000 en un 30%, un 25% entre $700.000 o más, un 20% ente $0 a $300.000 y un 25% entre $500.000 a $7000.000.
Un 40% de la población encuestada desea microcrédito, un 20% asesoría para mejorar su negocio, un 15% otro tipo de asesoría, un 10% prestamos corrientes según condiciones del sector financiero y 15% que no tiene ninguna necesidad.
Esta población registra que sus equipos de trabajo están un 70% en regular estado, un 25% en buen estado y un 5% en mal estado luego sus recursos del microcrédito son con el fin de mejorar sus actuales sistemas de producción y comercialización de sus productos.
Que productos comercializa, el 20% productos consumo familiar, líchigo 35%, bebidas y refrescos 15%, ropa 15% y un 15% comidas rápidas.
El municipio de Carmen de Apicalá (Tol.), registró la siguiente información. En cuanto a la formación educativa de esta población, podemos ver en la gráfica No 9 su comportamiento así.
Esta población tiene un 65% de ingresos entre $500.000 y $1.000.000 y un 35% recibe sus ingresos entre $0.00 y $500.000 siendo la más vulnerable, y que posee un alto grado de necesidades. El 75% desea microcrédito y un 25% otro tipo asesoría, capacitación, para mejorar la forma de su negocio. El 80% de los resultados obtenidos desean su microcrédito para mejorar su negocio el otro 20% para otro tipo de actividad.
Donde el 60% de la población tiene educación Básica primaria, un 30% educación secundaria, ninguno de los otros tipos. La actividad comercial de esta población se orienta al rebusque en la venta de productos como comidas con un 30%, otros 20% bebidas, 20% cafeterías, 20% ventas por catálogo, 10% ropa, ello teniendo en cuenta que el municipio posee un alto potencial turístico, donde conti-
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101 ¦ 97
Rodrigo Pérez Peña, Andrés Felipe Ortiz Zamora.
nuamente llegan turistas de la capital a disfrutar de sus vacaciones y estadías temporales. Gráfico No 9. Niveles de Estudio Población Carmen de Apicalá 0% 10%
absoluta, sus ingresos que logra hacer resultados de su actividad del negocio son muy ínfimos. Hay otra población flotante que logra ingresos para sostenerse a unas condiciones medio normales. Gráfico No 10. Egresos Población Consultada Carmen de Apicalá
0%
0% 20% 30%
30%
60%
Primaria
Secundaria Otros
Universitaria
Ninguno
En cuanto las necesidades de esta población un 70% desearían microcrédito y un 30% asesoría para mejorar su negocio. Lo anterior teniendo en cuenta que existen una gran variedad de negocios pequeños que brindan productos variados a los turistas. El nivel de ingresos se encuentra en un 90% entre $0.00 a $500.000 y un 10% entre $500.000 a $1.000.000, ello nos indica los índices de pobreza que existe, donde la economía del rebusque es bastante significativa. En la necesidad de equipos tenemos que un 60% desean adquirir equipos nuevos para mejorar las condiciones de su negocio y un 40% para mejorar los que actualmente poseen. En cuanto a los egresos en la presente Gráfica No 10 podemos observar que un 50% posee unos egresos entre $300.000 a $500.000. Un 30% entre $0.00 a $300.000 y un 20% entre $500.000 a $700.000 ello nos indica que tenemos que un 50% reúne ingresos para medio subsistir y un 30% están en pobreza
50% 0 a 300000 501000 a 700000
301000 a 500000 701000 o mas
Resultados Al analizar el comportamiento de la información obtenida, se puede decir que de acuerdo al propósito de la investigación, cuál era la identificación de las necesidades de aquellas poblaciones vulnerables localizadas en cada uno de estos municipios, en el caso de los sectores Artesanal, Comercial, Tenderos, Informal, Mujer Campesina; vemos que la vulnerabilidad de estos sectores es muy significativa en cada uno de estos municipio por las mismas condiciones económicas que posee cada uno de ellos. El sector artesanal es un sector que no se identifica plenamente en todos los municipios, por la misma configuración económica y tamaño de estos, por ejemplo el municipio de Tocaima, presenta necesidades en un 7% del sector, ya que una franja de la población campesina. Aprovecha la producción del fique para producir canastos; a esto hay que agregársele, que el tamaño del
98 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101
Microfinanzas Aplicadas a los Municipios del Alto Magdalena y Otras Regiones
municipio es mucho mayor a los otros, considerados en la investigación y que tiene un área muy significativa rural, lo que le permite tener una extensa variedad de productos agrícolas. Otra actividad que podríamos tener como artesanal, como es la del talleres de ornamentación son muy escasos en estos municipio por la cercanía que tienen como la ciudad principal de la región como es Girardot. El sector Mujer Campesina, es otro sector que reviste importancia en aquellos municipios cuya extensión rural es significativa, y se tiene bastante representación campesina, aunque no está reflejado en los resultados de la consulta a excepción de Tocaima, que presenta un 13% de necesidades, los otros no registran ninguna necesidad pero ello no indica que no lo tengan, por ejemplo en el municipio de Carmen de Apicalá está organizando grupos de trabajo entre las mujeres campesinas con el fin de formas pequeños empresas donde se transforme materia prima como pulpa de frutas, panadería, cultivos de hortaliza, los cuales requerirán de equipos, microcréditos, asesorías y capacitaciones en igual forma para el municipio de Apulo. El sector de tenderos y comerciales, es el sector que agrupa a todos los tipos de negocios, unos que se llaman tendero porque son pequeñas tiendas redistribuidas por todo el casco urbano del municipio los negocios comerciales por lo general se encuentran reubicados en ciertos sectores del casco urbano de los municipios y representan un 80% de este tipo de actividad en cada uno de estos municipios, según resultados de la investigación. Estos son los sectores que presentan mayores necesidades para mejorar su actividad diaria. El sector Informal, son bien significativos aproximadamente un 70%, ya que lo conforman todos esos grupo de personas en los municipio que se rebuscan para subsistir, por ejemplo el vendedor de frutas, de arepas, comidas rápidas, tinto, y otra serie de actividades. Es la población más necesitada, tanto de recursos de capital de trabajo para sus actividades diarias, son condiciones de vida son infrahumanas, sus grupos familiares son en promedio de cinco personas. En cuanto a las necesidades identificadas para esta población vulnerable, están representadas en microcrédito con promedio de 33.75% de la totalidad de la población
consultada en la presente investigación. Donde el municipio de mayor necesidad es Carmen de Apicala, seguido del municipio de Nilo, el municipio que menos presentó fue el de Tocaima. La otra necesidad es de capacitación, donde en promedio un 26.50% de la población de municipios consultados requieren de esta necesidad, el municipio que solicita alto porcentaje de este tipo de necesidad es Tocaima con un 83%, y el que no desea ningún tipo de capacitación es Carmen de Apicala. También tenemos que las asesorías es otra necesidad que requieren los municipios en promedio un 20% de ellos, con el fin de mejorar las actuales condiciones de sus negocios. La necesidad de mejoramiento de los negocios en promedio un 25% de los municipios consultados requiere este tipo de necesidad, ante la falta de equipos para mejorar la prestación de su servicio, o para remodelar los que actualmente poseen. Como puede observar los resultados de la investigación son bastantes significativos, teniendo en cuenta la problemática social que vive cada uno de estos municipios.
Conclusión Como conclusión de la presente investigación comprobamos que existe una amplia población de estos municipios con necesidades insatisfechas, por lo que las administraciones municipales, entidades del orden gubernamental y organizaciones no gubernamentales, deben tener en cuenta mecanismos que ayuden a favorecer esta población mediante programas que contribuyan a disminuir dichas necesidades. Otra conclusión importante es que se deben diseñar modelos de solución de acuerdo a las necesidades detectadas, tales como: modelo de capacitación, modelo de asesoría, modelo de producción para mujer campesina, un modelo de crédito y un modelo de producción. Así mismo reconocer la falta de atención de estos sectores, por parte de las diferentes entidades estatales y privadas para poder así, emprender las acciones inmediatas que permita disminuir el problema social que podría ocasionar estas necesidades.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101 ¦ 99
Rodrigo Pérez Peña, Andrés Felipe Ortiz Zamora.
Lograr obtener un mejor bienestar de la población, mayor seguridad en los Municipios, y un mejor progreso de cada uno estos.
[5] http:// www.culturaemedellin.gov.co/sites/ CulturaE/Documents/Blog_JCE_071221_impacto microfinanzas.pdf
Bibliografía
[6] Garcés, C. R. (s.f.). CulturaE/Documents, Pag. 2. Recuperado el 9 de 10 de 2013, de
[1] (s.f.). Recuperado el 20 de 03 de 2013, de biografias y vidas: http://www.biografiasyvidas.com/ biografia/y/yunus.htm
[7] http:// www.culturaemedellin.gov.co/sites/ CulturaE/Documents/Blog_JCE_071221_impacto microfinanzas.pdf
[2] (s.f.). Recuperado el 10 de 05 de 2013, de wikiquote: http://es.wikiquote.org/wiki/Muhammad_Yunus
[8] Prahalad, C. (2012). En La oportunidad de negociación en la base de la Piramide (pág. 9). Bogotá: Norma.
[3] (información general). (10 de 09 de 2013). Obtenido de http://www.girardot-cundinamarca.gov.co
[9] Prahalad, C. (2012). En La oportunidad de negocios en la base de la piramide (pág. 19). Bogotá: Norma.
[4] Garcés, C. R. (s.f.). CulturaE/Documents, Pag. 2. Recuperado el 9 de 10 de 2013, de
[10] Prahalad, C. (2012). La Oportunidad de negocios en la Base de la Piramide . Bogotá D.C: Norma.
100 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101
Microfinanzas Aplicadas a los Municipios del Alto Magdalena y Otras Regiones
Los Autores Rodrigo Pérez Peña Ingeniero Industrial, Especializado en Evaluación Social de Proyectos, Docencia Universitaria Candidato MBA en Finanzas Corporativas de la Universidad Viña del Mar (Chile), Docente investigación universidad Piloto de Colombia, correo electrónico:ingpepe@hotmail.com. Experto en evaluación económica y financiera de proyectos de inversión, tanto de entidades públicas como privadas, Docente Universitaria durante treinta años en diferentes centros Universitarios de la ciudad de Ibagué, Girardot, en los programas de Pregrado y Posgrados y programas de extensión continuada. Experto en proyectos de investigación desarrollados en los diferentes grupos de investigación de las universidades Piloto de Colombia, Cooperativa de Colombia. Además con Registro Colciencias Rodrigo Pérez Peña: CvLac-RG 201.234.78.173:8081 (http://201.234.78.173:8081/ cvlac/visualizador/generarCurriculoCv.do?cod_rh=0001240480. Autor de del libro identificado con ISBN 978-3-659-08114-9 Titulado “Evaluación Financiera de Proyectos de Inversión”, Autor de los Artículos “Indicadores de productividad y desarrollo para la ciudad-región de Girardot” Finanza. Política. Economía, ISSN: 2248-6046, Vol. 6, No. 1, enero-junio, 2014, pp. 169-193 Edición Especial - Economía Regional. “Modelos de Optimización Planificación del desarrollo empresarial y de su productividad” Pilares ISSN 2011-1231. Andrés Felipe Ortiz Zamora Filósofo, MBA Económico Financiero, Master en Educación Superior. Candidato al Doctorado en Educación y Sociedad de la Universidad de Barcelona. Decano Ingeniería Financiera, Universidad Piloto de Colombia, correo electrónico: afelipeortiz@hotmail.com. Candidato al Doctorado en Educación y Sociedad de Universidad de Barcelona; investigación en desarrollo sobre la Acreditación de Alta Calidad de los posgrados en Colombia. Máster en Educación Superior de la Universidad de Barcelona, especializado en políticas y gestión de la Educación Superior, con orientación a la mejora de la calidad de la gestión docente e innovación en todo tipo de instituciones de Educación Superior, especialmente en modelos de educación basados en competencias y acreditación de programas. MBA Europeo realizado en España en el Centro de Estudios Financieros de Barcelona. Experto en las áreas de Emprendimiento Empresarial, Marketing y Gestión del Talento Humano. Filósofo por la Pontificia Universidad Javeriana de Bogotá (Colombia), con una clara orientación a la construcción de valores éticos para la formación de personas responsables socialmente. Experiencia como Decano de Ingeniería Financiera de la Universidad Piloto de Colombia. Consultor independiente sobre Docencia Universitaria, Formación posgraduada y programas de Educación Continua. Docente e Investigador Universitario, con amplia experiencia en diseño, dirección y gestión de programas formación bajo Factores CNA y ENQA. Conferencista Nacional e Internacional en el campo del Educativo, Social y Financiero. Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 87-101 ¦ 101
Propuesta de retención de personal médico en el área de urgencias de una clínica de nivel III – IV en la ciudad de Bogotá, Colombia Proposal of medical personnel retention in the emergency area of a III-IV level clinic in Bogota, Colombia
Chicuasuque Cardozo Camilo, Jaime Cornejo Leonardo Andrés, Patarroyo Durán Nubia Isolina.
Resumen
Abstract
n el estudio presentado a continuación, podrá verse una investigación realizada al área de urgencias de una clínica de nivel III – IV para reconocer las razones por las que el índice de rotación es del 72%. En este estudio se tienen las condiciones actuales del personal contratado, la identificación de factores críticos que producen la desvinculación de los médicos generales y estrategias para la disminución en la rotación del personal médico en la unidad estudiada.
n the study that is about to be presented in this document, an investigation made to the emergency area of a III – IV level clinic will be detailed. This study was made to find out why the rotation index is surprisingly high. Here the actual conditions of the personnel will be described, as well as the identification of critical factors that produce the withdrawal of general doctors and the strategies to reduce the medical personnel withdrawal in the studied unit.
Palabras Clave: Selección de personal, Compensación, Rotación de Personal, Unidad de Urgencias.
Keywords: Personnel selection, Compensation, Personnel Rotation, Emergency Unit.
E
I
Recibido / Received: Agosto 08 de 2013 Aprobado / Aproved: Abril 15 de 2014 Tipo de artículo / Type of paper: Artículo de investigacion científica y tecnólogica terminada. Afiliación Institucional de los autores / Institutional Affiliation of authors: Universidad El Bosque. Autor para comunicaciones / Author communications: Chicuasuque Cardozo Camilo, cchicuasuque@unbosque.edu.co Los autores declaran que no tienen conflicto de interés.
Propuesta de retención de personal médico en el área de urgencias de una clínica de nivel III – IV en la ciudad de Bogotá, Colombia
Introducción A lo largo de la historia, la rotación de personal ha sido un factor de gran importancia para las organizaciones. La rotación de personal se puede definir como el grado de movilidad interna de los empleados, esta puede ser evitable, o en algunos casos puede llegar a ser inevitable. En la rotación inevitable pueden identificarse una variedad de factores como las enfermedades crónicas, la jubilación, los accidentes que causen lesiones parciales o totales y la muerte. La rotación evitable, por otro lado, posee factores como la insatisfacción, ya sea referente al ambiente laboral, a la compensación o a otros factores, la falta de compromiso del empleado por el cumplimiento de objetivos, la mala selección de personal y la baja posibilidad de ascensos. De esta manera, cuando la rotación evitable es la que predomina en la organización, es posible desarrollar acciones para disminuir el impacto de cada variable que hace parte del tipo de rotación mencionado y así lograr con la disminución de la rotación que cada equipo de trabajo pueda interactuar con nuevos miembros periódicamente, además de permitir la igualdad de oportunidades para poder rendir en diferentes áreas por medio del descubrimiento de habilidades y destrezas tanto de los líderes de cada equipo como de los integrantes del mismo. Esta propuesta pretende reconocer los factores que afectan directamente el indicador de rotación de personal médico en el área de urgencias de una clínica de nivel III-IV, con el fin de proponer acciones de mejora basadas en el aumento de la productividad mediante estrategias de compensación, pretendiendo promover un adecuado plan de retención de personal. La propuesta de retención de personal médico se basa en el análisis de diferentes factores dentro de la unidad de urgencias, con el fin de tener una perspectiva más global y certera de lo que sucede en el servicio médico del caso de estudio analizado. Para esto se tienen en cuenta herramientas de investigación de mercados, conceptos estadísticos, teorías de la gestión humana y la compensación salarial. La importancia para la clínica respecto a las estrategias propuestas para la retención de personal se basa princi-
palmente en el interés por la excelencia. Para lograrla, es necesaria una integración y el buen resultado de todos los indicadores de gestión, por lo que la disminución en la rotación de personal dentro del área de urgencias, siendo un área vital para el éxito de la clínica, es un ítem muy relevante en el afán de la entidad por ser cada vez mejor y más competitiva en el mercado.
Metodología Se llevaron a cabo cuatro etapas en el proceso de la investigación para desarrollar la propuesta de retención de personal médico en el área de urgencias de la entidad estudiada. La primera etapa consistió en desarrollar un diagnóstico, donde se identificaron diferentes factores relacionados con las condiciones de trabajo del personal médico. Se identificó que los médicos que laboran en el área de urgencia, todos generales, son contratados por una Sociedad de acciones simplificada proveniente de una ex cooperativa. Posteriormente se revisó el método de selección de la SAS para la contratación de nuevos médicos con el fin de conocer de manera más detallada la forma en que los aspirantes eran evaluados en diferentes dimensiones y poder reconocer cómo aportaba cada etapa del proceso al reclutamiento de un médico apropiado para el área; Por otro lado, se analizó la carga de trabajo de los médicos adscritos para obtener datos cuantitativos que pudieran permitir una comparación entre la carga laboral y las condiciones que se otorgaban a los médicos. Además de esto, se desarrolló una encuesta a una muestra significativa de médicos que se retiraron de la entidad en el lapso de un año con el fin de reconocer las razones más comunes de desvinculación por parte de los encuestados, y finalmente la comparación con otras clínicas del mismo nivel respecto al porcentaje de rotación de personal y la compensación salarial, factores que también se analizaron durante el estudio con el interés de identificar indicadores de rotación de personal y el punto en que se encuentra el salario otorgado por la clínica estudiada respecto a otras con características muy similares, de modo que pudiera reconocerse si el índice de rotación se encontraba dentro de lo normal respecto a la competencia de la entidad, al igual que los niveles de salario, o si bien sí eran signos de alarma a los cuales atacar.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 102-107 ¦ 103
Chicuasuque Cardozo Camilo, Jaime Cornejo Leonardo Andrés, Patarroyo Durán Nubia Isolina.
Resultados En primer lugar, se observó que el proceso de selección de personal médico demostraba falencias importantes, principalmente conectadas con el hecho de no seguir su propio diagrama propuesto para la realización adecuada de la selección de personal, ya que si bien el tiempo teórico para la selección de personal por la metodología propuesta por la S.A.S. era de 15 días, el tiempo real de selección no tardaba más de 4 días, saltando varios
Figura 1. Diagrama de Pareto, resultados encuesta. 100% 90% 80% 70% 60% 50% 40% 30% 20% 10% 0%
25 20 15 10 5
Presión de...
Presión de...
Filosofía de...
Estudios en...
Maternidad
0 Insatisfacci...
La cuarta y última etapa permitió llevar a cabo una evaluación social, ambiental y económica de la propuesta, la cual buscaba llevar a cabo el análisis de diferentes medios, principalmente económico, de la inversión para el desarrollo de las tres estrategias de la propuesta enfrentados al costo actual de rotación de personal en las áreas de la unidad de urgencias, buscando disminuirlos y reforzar el porcentaje esperado de retención de personal tras la propuesta para que los costos en realidad disminuyan. Sin embargo, es importante aclarar que el fin de la propuesta no busca un beneficio únicamente cuantitativo, sino especialmente cualitativo respecto a las condiciones laborales de los médicos generales que hacen parte de la unidad de urgencias y también a la mejora en los indicadores de gestión de la clínica en pro de su excelencia organizacional.
Tras la encuesta a una muestra significativa de médicos retirados (la muestra significativa se lograba con 24 y se logró realizar a 28 de 36 médicos desvinculados en el período de un año), se agruparon las respuestas acerca de los motivos de desvinculación en una selección de razones posibles de retiro, las cuales arrojaron los dos factores críticos restantes:
Carga de...
La tercera etapa consistió en la propuesta de mejoramiento, donde, a partir del análisis de hallazgos de cada factor diagnosticado, se plantearon tres estrategias dirigidas a los tres factores críticos hallados: 1. Selección de personal, 2. carga de trabajo y 3. compensación salarial, mediante el uso de herramientas de gestión humana y administración de salarios orientadas al beneficio del personal médico y a la retención del personal respecto al tiempo en que se desempeñaban en la institución médica.
pasos esenciales dentro del esquema. Por otro lado, se detectó que además no existía una evaluación psicológica que permitiera comprobar la capacidad de soportar la presión y la carga laboral que esta clínica posee, convirtiéndolo en uno de los factores críticos.
Sub-Causas
La segunda etapa del proceso de investigación tuvo como enfoque principal el desarrollo de un análisis de hallazgos, donde se profundizó cada información hallada durante el diagnóstico y se definieron los factores críticos que producen la alta rotación de personal, además de otras características importantes como horarios y áreas específicas dentro de la unidad de urgencias, en donde esta rotación se percibía en mayor cantidad, con el fin de identificar posibilidades reales de mejora.
Resultados de pregun...
Fuente: Elaboración propia
En la figura 1 pueden observarse los dos factores críticos, que corresponden a la carga de trabajo y la insatisfacción salarial, los cuales se pudieron confirmar con el análisis respectivo de cada uno. Al cruzar los datos de la encuesta se lograron definir las dos áreas críticas respecto a la cantidad de médicos retirados, las cuales son consulta-urgencias en el turno de la noche, y observación en los turnos diurno, tarde y nocturno, por lo que se procedió a analizar la cantidad de pacientes en los tres turnos, con el fin de definir la carga laboral y la relación directa con las razones de desvinculación. Esta información, unida también a la compensación salarial por turno, demostró una nueva situación: Los médicos de la noche, teniendo un modo de compensación diferente y un salario menor, manejaban la misma carga laboral que los médicos de la tarde, quienes obtenían un ingreso idéntico a los médicos de la mañana, quienes tienen mayor cantidad de pacientes.
104 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 102-107
Propuesta de retención de personal médico en el área de urgencias de una clínica de nivel III – IV en la ciudad de Bogotá, Colombia
Figura 2. Porcentaje de pacientes en los tres turnos % Pacientes enero - septiembre (2012) 24%
Finalmente, la propuesta de compensación salarial que respondería al tercer factor crítico, tuvo en cuenta la nivelación salarial de las dos áreas críticas y el desarrollo de incentivos dirigidos al desarrollo de la carrera de los médicos, incluyendo invitaciones a seminarios, financiación de diplomados, entre otros.
Conclusiones 51%
25%
Tarde
Mañana
Noche
Fuente: Elaboración propia
Tras estos hallazgos se realizó una propuesta compuesta por tres acciones de mejora que responden a las necesidades de los tres factores críticos hallados, dirigidos principalmente a las dos áreas con mayor cantidad de retiros, según los resultados arrojados por el análisis de la situación actual de los médicos y el cruce con los hallazgos de las encuestas. Para el factor crítico de selección de personal se propuso un nuevo diagrama de bloques que tomaría el mismo tiempo que el proceso actual de selección ejecutado por la sociedad de acciones simplificada encargada de la contratación de personal médico (15 días), incluyendo además pruebas para evaluación psicológica, que asegurarían entrevistas y pruebas psicotécnicas para conocer a profundidad el perfil del aspirante, además de la creación de un área de bienestar para los médicos generales del área de urgencias y poder proveer de beneficios a los integrantes de la unidad en pro de una motivación mayor en la jornada laboral. Para el segundo factor crítico que corresponde a las cargas de trabajo se propusieron descripciones de cargos y la estandarización de factores fundamentales como la carga máxima por día, el número de médicos necesarios para cada área y el tiempo total por médico para diferentes responsabilidades y funciones dentro del cargo.
Después de presentar la propuesta y sus respectivos componentes, se concluyó que las tres estaban encaminadas a un mismo lugar: el beneficio de los empleados y la necesidad de la excelencia del recurso humano que hace parte de la unidad de urgencias. Existen áreas que tienen un mayor nivel de rotación que otras, convirtiéndose en críticas y requiriendo atención inmediata respecto a estrategias para evitar la deserción. Las áreas y turnos identificados fueron principalmente: Observación en turnos de mañana, tarde y noche, y consulta en el turno de la noche. Estas requieren especial atención por parte de la clínica, especialmente en compensación y beneficios laborales. Las estrategias propuestas pretenden disminuir en un 50% la rotación actual de personal en un plazo de un año. Esto se busca tras proponer el interés por el desarrollo de la carrera de los médicos de urgencias. Las estrategias, más que la búsqueda de un beneficio económico, tienen como propósito alinear los intereses de la clínica con los de la sociedad de acciones simplificada encargada de la contratación de los médicos de urgencias, buscando disminuir a la mayor brevedad y cantidad posible el alto índice de rotación de personal, encaminando las soluciones sugeridas a un enfoque más cualitativo que cuantitativo, llevando así un rumbo claro al mejoramiento continuo a nivel organizacional.
Reflexión Final Tras realizar el estudio y haber finalizado lo que comprendía el alcance del mismo, es posible asegurar que la compensación es uno de los factores más importantes para lograr retener personal que puede ser valioso para una organización, lo cual es fundamental para diferentes tipos de entidades, incluyendo las que se desempeñan en
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 102-107 ¦ 105
Chicuasuque Cardozo Camilo, Jaime Cornejo Leonardo Andrés, Patarroyo Durán Nubia Isolina.
el sector salud. Es muy importante llevar a cabo acciones que permitan que esta clínica dé beneficios a sus colaboradores para que su valor agregado de servicio al cliente se consolide. Por otro lado, la selección de personal juega un papel mucho más importante que el que se había planteado al comenzar este estudio. El hecho que exista un punto de vista profesional en cuanto al comportamiento de un aspirante puede ser vital a la hora de que este se enfrente con situaciones de alta complejidad. Si este se elige erróneamente, los esfuerzos, el tiempo y la inversión por parte de la clínica por obtener un profesional valioso serán en vano y la rotación continuará generándose con un índice notable.
[3] Caicedo Portilla, J. D., & Castillo Pinzón, F. M. Impacto financiero de la rotación de personal en la organización SIAP S.S. Colombia. 2011. [4] Castillo, J. Administración de Personal: un enfoque hacia la calidad. Bogotá: ECOE Ediciones. 2003. [5] Chiavenato, I. Administración de Recursos Humanos. Bogotá: Mc Graw Hill Interamericana. 2000 [6] Chiavenato, I., Guzmán, M., & Rodríguez, J. Gestión del Talento Humano. MC. Graw Hill Interamericana S.A. 2.002 [7] Nogales, Á. F. Investigación y Técnicas de mercado. España: Esic Editorial. 2004.
Cada una de las estrategias que componen la propuesta de mejora para la disminución de rotación de personal tiene un nivel de profundidad tal que nuevos trabajos de grado, nuevas investigaciones y nuevas propuestas puedan robustecer este estudio, con el fin de que la mitigación del índice de rotación sea parte del plan de mejora continua y por ende de la excelencia organizacional, de modo que pueda ser el comienzo de un modelo para ser aplicado en otras entidades.
[8] Paredes, M. M. Rotación de personal en una empresa de ventas al detalle de calzado en Guatemala. Guatemala. 2011.
Referencias
[11] ariies, L., & Casare, E. Buenas Practicas de Recursos Humanos. Madrid: ESIC EDITORIAL. 2002.
[1] Alvarado, I. Adimnistración de Compensaciones. Colombia 2001. [2] Bhatia, K. Compensation Management. En K. Bhatia. Global Media. 2010.
[9] Pigors, P., & Meyers, C. A. Administración de personal. Mexico: Editorial Continental. 1985. [10] Santacruz Villegas, F. J. Análisis de las prácticas de gestión humana en la efectividad para retener el talento humano. Colombia. 2011.
[12] Amaya, Miguel. Gestión Moderna de Salarios e Incentivos: Con Business Process Management. Colombia: Editorial Escuela Colombiana de Ingeniería. 2012.
106 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 102-107
Propuesta de retención de personal médico en el área de urgencias de una clínica de nivel III – IV en la ciudad de Bogotá, Colombia
Los Autores Camilo Chicuasuque Cardozo Estudiante. Facultad de Ingeniería Industrial. Universidad El Bosque. Trabajo de grado. Bogotá. Colombia. 2012. cchicuasuque@unbosque.edu.co
Leonardo Andrés Jaime Cornejo Estudiante. Facultad de Ingeniería Industrial. Universidad El Bosque. Trabajo de grado. Bogotá. Colombia. 2012. ljaimeco@unbosque.edu.co
Patarroyo Durán Nubia Isolina Profesora de la Facultad de Ingeniería de la Universidad El Bosque, programa de Ingeniería Industrial. Ingeniera Industrial, Universidad Libre, Magíster en Ingeniería Industrial, área de Gestión y Dirección Organizacional, Universidad de Los Andes. La Ing. Patarroyo cuenta con experiencia laboral de 10 años, en empresas de manufactura y de servicios tanto pública como privada. Ha sido docente universitaria de la Escuela Colombiana de Ingeniería Julio Garavito, Universidad del Rosario, Universidad San Buenaventura, y Universidad Central entre otras. Actualmente es la directora de la línea de investigación de Diseño y gestión de organizaciones del grupo GINTECPRO y coordina el semillero de investigación DIGESOR, se interesa en proyectos de investigación del área organizacional y las particularidades del comportamiento humano. Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 102-107 ¦ 107
Revisión sobre los impactos generados por la competencia ente plantas nativas e introducidas como base para el control de Ulex europaeus en la Ciudad de Bogotá D.C Review of the impacts generated by the competition between introduced and native plants as the basis for control of Ulex europaeus in the City of Bogota D.C Viviana Osorno Acosta.
Resumen
Abstract
xisten diferentes problemáticas asociadas a los impactos que genera la introducción de plantas exóticas dentro de un ecosistema. Tal es el caso de Ulex europaeus, también conocido en Colombia como retamo espinoso. La distribución de esta planta está altamente asociada a la degradación ambiental y a la simplificación de los ecosistemas generando la exclusión de otras especies nativas por competencia inter-especifica. El objetivo de esta revisión es mostrar el impacto que generan las especies invasoras a las especies nativas, en especial el caso de Ulex europaeus en la ciudad de Bogotá, para que de este modo se pueda alertar a la comunidad científica e incentive la realización de nuevos trabajos que mitiguen esta u otras problemáticas relacionadas.
E
Palabras Clave: plantas introducidas, plantas nativas, competencia, impacto por competencia, Ulex europaeus.
here are several problems associated with the impacts generated by the introduction of exotic plants within an ecosystem. Such is the case of Ulex europaeus, also known in Colombia as “retamo espinoso”. The distribution of this plant is highly associated with environmental degradation and ecosystem simplification generating the exclusion of other native species by inter-specific competition. The purpose of this review is to show the impact caused by invasive species to native species, especially the case of Ulex europaeus in Bogota city. This way, the review could alert the scientific community and encourage them for the implementation of new research to mitigate this and other related issues.
T
Keywords: introduced plants, native plants, competition, competition impact, Ulex europaeus.
Recibido / Received: Noviembre 01 de 2013 Aprobado / Aproved: Mayo 16 de 2014 Tipo de artículo / Type of paper: Artículo de investigacion científica y tecnólogica terminada. Afiliación Institucional de los autores / Institutional Affiliation of authors: Grupo de Investigación Agua, Salud y Ambiente, Universidad El Bosque. Autor para comunicaciones / Author communications: Viviana Osorno Acosta, xxxxxxxxxxxxxx@unbosque.edu.co El autor declara que no tiene conflicto de interés.
Revisión sobre los impactos generados por la competencia ente plantas nativas e introducidas como base para el control de Ulex europaeus en la Ciudad de Bogotá D.C
Introducción La interacción ecológica, llamada competencia, se da cuando hay necesidad por un mismo recurso. Puede darse por interferencia, cuando se interfiere en las actividades del otro organismo para acceder al recurso, o por explotación, cuando hay reducción en la disponibilidad del recurso. También puede ocurrir competencia Inter-especifica entre organismos de diferentes especies, causando reducción en las tasas de crecimiento y de reproducción de algunos individuos, desplazamiento de hábitats más adecuados y en algunos casos puede causarles la muerte [1]. En la competencia Inter-especifica, un competidor superior puede evitar la presencia del otro dentro de un hábitat, fenómeno conocido como exclusión competitiva. En el caso de las plantas, estas suelen ser excluidas de su hábitat al competir por recursos como el espacio, que les permite acceder a la luz solar, al agua y a los nutrientes del suelo [1]. Las plantas invasoras suelen competir con las nativas por muchos de estos recursos causando pérdida de biodiversidad y el desplazamiento de algunas de ellas, generando cambios en la estructura vegetal del ecosistema [2]. Por esta razón, se analizará el impacto que causa el establecimiento de plantas invasoras sobre la composición nativa de algunos ecosistemas vegetales, en particular el caso de la introducción del retamo espinoso (Ulex europaeus) en Sur América [3]. Este análisis, servirá de base para futuros mecanismos de control sobre especies invasoras, como el caso de U. europaeus en la ciudad de Bogotá.
Características de las plantas invasoras Para comenzar a describir el impacto causado por la interacción de competencia entre plantas nativas e invasoras, es importante conocer las características intrínsecas de éstas últimas que les han permitido ser mejores competidoras frente a las nativas. Primero, sus elevadas tasas de crecimiento y reproducción, las cuales conducen a una eficaz monopolización de recursos y a un desplazamiento de las especies nativas por exclusión competitiva. Segundo la flexibilidad y plasticidad fenotípica que le permite a la planta adaptarse más y mejor que las espe-
cies nativas en condiciones nuevas y cambiantes. Por ultimo su facilidad para la hibridación lo que les permite aumentar su variabilidad genética, y a su vez establecerse en áreas nuevas a partir de pocos ejemplares [4].
Impactos generados por plantas invasoras Las consecuencias principales de estas invasiones son impactos como: desplazamiento de especies nativas, hibridación y contaminación genética, alteración en las redes de interacción entre especies de la comunidad y alteración de las condiciones del ecosistema nativo como se mencionó anteriormente [4]. Para profundizar más y comprender mejor el efecto de competencia de Ulex europaeus sobre las especies nativas, se mostrarán algunos ejemplos en donde la competencia entre plantas invasoras y nativas ha generado impactos negativos en Europa, Norte América, Sur América y en particular en la ciudad de Bogotá. Primero se revisó un trabajo Europeo realizado por Vilá et al. (2006) quienes demuestran a través de investigaciones, algunos impactos ecológicos que causa la competencia entre especies exóticas y nativas, así como su consecuencia directa en la conservación. El primer impacto es a escala de comunidad, donde la competencia entre especies nativas e introducidas puede inferir en diferentes niveles tróficos superiores. Este es el caso de competencia por polinizadores cuando la especie introducida produce más néctar que la nativa y por lo tanto atrae a más polinizadores. El segundo es a escala del ecosistema, donde las plantas invasoras pueden modificar los ciclos de los nutrientes, la disponibilidad de agua e incluso alterar los regímenes de perturbación. Adicionalmente, dentro de estos estudios se puede encontrar como factor común que las especies invasoras generan cambios en la estructura de las comunidades vegetales, basándose en comparaciones de zonas invadidas con las adyacentes no invadidas [2]. Para soportar los argumentos anteriores, los autores exponen algunos ejemplos. En uno de ellos los investigadores demostraron que la eliminación de la planta
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 108-113 ¦ 109
Viviana Osorno Acosta.
invasora Impatiens glandulifera de Gran Bretaña causa una reducción en la biodiversidad, especialmente de otras plantas exóticas; lo que condujo a pensar que el mecanismo responsable de los cambios es la competencia por la luz, la cual tiene un impacto marcado en el reclutamiento de plantas [2]. También se expone otro ejemplo en donde hicieron series de sustitución para averiguar la habilidad competitiva de especies invasoras versus especies nativas, como Paspalum paspalodes, que es una planta herbácea introducida y la nativa Aeluropus littoralis, ambas abundantes en las marismas de la Camargue (Francia). Estas dos especies pueden coexistir, sin embargo, ninguna de las dos aparece cuando la otra es dominante, lo que apoyaría la exclusión competitiva, probando que Paspalum paspalodes es un fuerte competidor en condiciones de baja salinidad y se inhibe con altas concentraciones de salinidad. Esto prueba que la amplia distribución de la especie invasora se debe a cambios en la salinidad del suelo y que la competencia está determinada por ese factor [2]. Como último ejemplo, se muestra la competencia por la actividad de los polinizadores en relación a la producción de néctar entre especies nativas y exóticas, como Impatiens glandulifera, que produce más néctar que la planta nativa Stachys palustris y por lo tanto recibe más visitas de abejorro [2]. Otro mecanismo de competencia entre plantas introducidas y nativas que evidencia aun más el impacto que pueden causar las primeras, fue propuesto por Callaway y Aschehoug (2000). Estos autores explican como algunas especies de plantas exóticas son más exitosas invadiendo comunidades de plantas nativas que en su ambiente natural. Anteriormente se creía que la invasión de plantas exóticas era exitosa porque éstas escapan de sus enemigos naturales con los que competían y no por la nueva interacción con sus vecinos. Sin embargo, ellos encontraron que Centaurea diffusa, una maleza nociva en América del Norte, tiene efectos más negativos en especies de pasto de Norte América; que una especie de pasto cercanamente relacionada a comunidades con las cuales Centaurea es nativa. La ventaja competitiva que tiene Centaurea frente a de las especies de Norte América es causada por diferencias en los efectos que tienen los exudados de las raíces y cómo estos afectan la competencia por recursos. Para demostrarlo compararon los efectos competitivos de C. diffusa con tres especies de pastos que coexistieron con ésta en Eurasia
y tres especies de pastos de Norte América, estas últimas mostraron impactos negativos más grandes en términos de crecimiento y biomasa, debido al efecto químico de los exudados de las raíces de C diffusa que no se produce en presencia de las especies de Eurasia con las cuales coevolucionaron [5]. El ejemplo anterior muestra como la competencia entre plantas nativas y exóticas está determinada por múltiples factores, lo que hace esta interacción un mecanismo difícil de estudiar y con impactos a diferentes escalas sobre las especies nativas.
Caracteristicas de la planta Ulex europaeus La planta Ulex europaeus es una leguminosa arbustiva nativa originaria de Europa Occidental, perteneciente a la familia de las Fagáceas, subfamilia Faboideae. Las hojas de los individuos maduros están modificadas en espinas de hasta 4 cm de longitud, con aspecto espinoso que le da su nombre común en Colombia como “retamo espinoso”. Tiene flores amarillas muy vistosas, el fruto es una legumbre pilosa de color marrón, cada fruto puede contener 5 semillas, que al abrirse libera las semillas hasta 12 metros de distancia cuando es sometido a temperaturas altas, beneficiando su rápida dispersión [6]. Cada planta puede producir hasta 20.000 semillas por año, por esta razón el potencial de infestación es alto, haciendo que el número de semillas aumente con el tiempo de vida de la planta. La raíz primaria de Ulex europaeus es muy profunda y gruesa desde los primeros meses y por ser leguminosa, presenta nódulos de la bacteria Rhizobium las cuales son fijadoras de nitrógeno. Su propagación es principalmente por semilla, pero también lo hace vegetativamente, ya sea por raíces o tallo. Se desarrolla mejor bajo la luz y no tolera bien sitios muy sombreados. Se adapta muy bien a suelos pobres y secos y crecen entre 1 y 4 metros de altura, formando densas poblaciones y desplazando a las demás especies a su alrededor (alelopática) [6]. El riesgo de insendio que causa esta planta esta determinado por que los tallos producen abundantes brotes vegetativos, principalmente cuando son cortados o quemados y las ramas necesitan de luz para un correcto desarrollo, causando que las ramas inferiores, sombreadas
110 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 108-113
Revisión sobre los impactos generados por la competencia ente plantas nativas e introducidas como base para el control de Ulex europaeus en la Ciudad de Bogotá D.C
por las superiores, mueran y permanezcan secas bajo los matorrales, causando una acumulación de ramas muertas la cual arde con facilidad [6].
Impacto de Ulex eropaeus sobre plantas nativas por competencia La interacción de competencia que está generando fuertes impactos negativos en las comunidades nativas de Sur América, es la planta Ulex eropaeus la cual fue introducida desde Europa por la actividad humana. En Chile, Muñoz (2009) hace un trabajo más especifico sobre el impacto que genera el espinillo (Ulex europaeus) en la composición vegetal de las zonas centro y sur de Chile, donde la planta fue introducida por el hombre con fines silvopastoriles y forestales. El espinillo se caracteriza por ser un matorral extremadamente competitivo, desplazando plantas nativas en donde se instaura porque produce gran cantidad de materia acidificante que inhibe la germinación de semillas nativas, tiene altas tasas de fijación de nitrógeno, afectando también el ciclo de las plantas nativas. Compite con árboles jóvenes y con cultivos de alta densidad. Esta planta puede alterar las condiciones del suelo ocasionalmente desnudo, generando erosión, cambios en la cantidad de nutrientes, en el ciclo del nitrógeno y desplazamiento de la vegetación nativa. Adicionalmente, el espinillo es altamente pirogénico expandiéndose a través del fuego y suelos perturbados. Todos estos impactos finalmente causan efectos negativos sobre las comunidades de plantas, llevando a los ecosistemas a una reducción de la diversidad y pérdida de especies nativas [3].
Impacto de Ulex eropaeus en la ciudad de Bogotá En la ciudad de Bogotá, más exactamente en la cuenca alta del rio Bogotá, se estudió la vulnerabilidad que ésta tiene frente a Ulex europaeus, comúnmente nombrada en Colombia como retamo espinoso, a través de un modelamiento de la distribución de nichos adecuados para la invasión biológica por parte de U. europaeus. En esta investigación se establecen las razones que favorecen la expansión del retamo espinoso, denominado como una especie con alto potencial de colonización y que coin-
ciden con un potencial de nicho para casi toda la cuenca del río Bogotá, convirtiéndola en una especie de carácter generalista, lo que le permite competir eficazmente con especies nativas y colonizar áreas degradadas que otras especies no podrían habitar. Las razones que favorecen la invasión del retamo espinoso sobre la cuenca, están determinadas por las características mencionadas anteriormente y se relacionan con la transformación y simplificación de los ecosistemas, la degradación ambiental y la erosión. Este sería el proceso por el que atraviesa la cuenca alta del rio Bogotá [7], generando exclusión e inhibición competitiva de las especies nativas, aumentando el riesgo de disturbios naturales y antrópicos como los relacionados con los procesos erosivos de remoción de masa, eventos pirogenétios, alteración de los ciclos hidrológicos y modificación de las características fisicoquímicas del suelo [8]. En la Política para la gestión e la conservación de la biodiversidad en el distrito capital, que tiene como objetivo la conservación de la biodiversidad urbana de la cuidad de Bogotá, se hace referencia a la creciente infestación con retamo espinoso en casi todos los sectores rurales de Bogotá al ser consideradas como una de las especies invasoras más agresivas y peligrosas a nivel global debido a sus características competitivas que incrementan la generación y expansión de incendios [9]. Otros impactos que ha tenido el retamo espinoso y que no ha sido muy estudiado, es sobre las aves de borde en el bosque alto andino, ya que esta planta no tiene flores polinizadas por aves, ni produce frutos consumidos por aves y su follaje es espinoso. Es decir que tiene una estructura diferente a las plantas nativas que podría afectar la disponibilidad de alimento para las aves. Por esta razón, Amaya y Renjifo (2010) estudiaron el efecto de U. eurapaeus por medio de una caracterización de la composición y la estructura de la vegetación en bordes de bosque altoandino de la Cordillera Oriental colombiana con y sin retamo, así como la riqueza y abundancia relativa de las especies de aves. Los autores encontraron que en bordes invadidos por retamo espinoso la densidad de la vegetación es dos veces mayor que en bordes no invadidos, mientras que la densidad de arbustos nativos está severamente reducida en los bordes invadidos. En cuanto a la abundancia total de aves, ésta no fue afectada por la presencia del retamo, pero al nivel de especie se
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 108-113 ¦ 111
Viviana Osorno Acosta.
encontró que Colaptes rivolii evita los bordes con retamo espinoso y que hay un impacto negativo sobre Turdus fuscater. Por el contrario, Diglossa humeralis y Basileuterus nigrocristatus fueron más abundantes en bordes con retamo espinoso. Estos resultados evidencian un efecto moderado de la invasión sobre el conjunto de la avifauna, la cual está empobrecida en el área, pues han desaparecido casi todos los grupos de aves sensibles a la transformación del paisaje., qudando las especies generalistas que se adaptan facilmente a los cambios de hábitat [10].
Referencias
Peñaloza y Doncel (2011) proponen la restauración ecológica como una estrategia de gestión ambiental encaminada a restablecer el capital natural deteriorado por la invación de Ulex europaeus, buscando la recuperación y/o rehabilitación de los antiguos paisajes nativos de la zonas afectadas en los ecosistemas de paramos, humedales, bosques altoandinos y otros ecosistemas asociados a los ecosistemas de la ciudad de Bogotá. Esto se realiza provocando el cambio de cobertura vegetal, a traves de un mosaico de vegetación arbustiva y arbórea nativa. Con esto los autores quieren recuperar la trayectoria sucesional hacia bosque alto andino, mediante la restauración de atributos estructurales, funcionales y de composición [11].
[3] E. Muñóz, «EL ESPINILLO (Ulex europaeus L. 1753) UN INVASOR BIOLÓGICO EN ELSUR DE CHILE: ESTADO DE SU CONOCIMIENTO Y ALTERNATIVAS DE CONTROL,» Gestión Ambiental, p. 17, 2009.
Conclusión y recomendaciones Los estudios anteriores permiten plantear preguntas como ¿profundizar en el funcionamiento del mecanismo particular de competencia de cada planta invasora podría ayudar a encontrar la manera de evitar o controlar los impactos negativos que genera sobre comunidades nativas? ¿evitar la erosión del suelo, la transformación y la simplificación del ecosistema, evitaría el impacto negativo de Ulex europaeus sobre las plantas nativas de Sur América? Cada planta introducida que se comporta como invasora, tiene diferentes mecanismos para competir y desplazar a las plantas nativas en un ecosistema determinado. Así mismo, su interacción es favorecida por múltiples circunstancias como condiciones del ecosistema, sus vecinas, o incluso su nicho ecológico. Es por esto que se hace necesario conocer cada caso, para poder evitar o controlar la expansión de especies invasoras introducidas, como Ulex europaeus, su competencia con las nativas y finalmente evitar los impactos negativos como pérdida de biodiversidad y de especies nativas.
[1] D. Sadava, C. H. Heller, G. H. Orians, W. K. Puerves and D. M. Hillis, Life: The Science of Biology, Sinauver Associates, Inc; W.H Freeman and Company, 2008. [2] M. Vilá, S. Bacher, P. Hulme, M. Kenis, M. Kober, W. Nentwing, D. Sol y W. Solarz, «Impactos ecológicos de las invasiones de plantas y vertebrados terrestres en Europa,» Revista Ecosistemas, p. 15, 2006.
[4] P. Castro-Díez, F. Valladares y A. Alonso, «La creciente amenaza de las invasiones biológicas,» Ecosistemas, pp. 61-68, 2004. [5] R. M. Callaway y E. T. Aschehoug, «Invasive plants versus their new and old neighbors: A mechanism for exotic invasion,» Science, p. 521, 20 10 2000. [6] F. Castro, «ESTRATEGIA DE CONTROL DE TojoUlex europaeus EN CAMPOS FORESTALES Y GANADEROS,» 2011. [7] C. J. Castillo Rodríguez, Modelamiento de la Distribución de los Nichos Adecuados para la Invasión Biológica del Retamo Espinoso (Ulex europaeus) en la Cuenca Alta del Río Bogotá, Vulnerabilidad y Escenarios Futuros, Bogotá: Pontificia Universidad Javeriana, 2008. [8] J. H. Solorza, «Evaliación de la regeneración de Acacia decurrens, Acacia melanoxylon y Ulex europaeus en las áreas en proceso de restauración ecológica,» Luna Azúl, pp. 66-80, 2012. [9] Secretaría Distrital de Ambiente y Conservación Internacional, Política para la Gestión de la Conservación de la Biodiversidad en el Distrito Capital, Bogotá, Colombia: Editorial Panamericana, 2010, p. 116. [10] Á. M. Amaya-Villareal y L. M. Renjifo, «EFECTO DEL RETAMO ESPINOSO (ULEX EUROPAEUS) SOBRE LAS AVES DE BORDE EN UN BOSQUE ALTOANDINO,» Ornitología Colombiana, vol. 10, pp. 11-25, 2010.
112 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 108-113
Revisión sobre los impactos generados por la competencia ente plantas nativas e introducidas como base para el control de Ulex europaeus en la Ciudad de Bogotá D.C
[11] . G. F. Peñaloza Bojacá y . D. Doncel Bohórquez, «EFECTIVIDAD DE UN DISEÑO FLORÍSTICO PARA EL CONTROL DEL RETAMO ESPINOSO Ulex europaeus L. EN LA VEREDA EL HATO,» Contribution of Ecosystem Restoration to the Objectives of the CBD and a Healthy Planet for All People, vol. 62, pp. 22-25, Noviembre 2011.
La Autora Viviana Osorno Acosta Bióloga de la Universidad de Los Andes, Especialista en Docencia Universitaria en la Universidad El Bosque. Trabajó en los Estados Unidos en control de plagas y enfermedades para la empresa Glades Crop. Inc. Docente en la Universidad El Bosque, Investigadora del Grupo Agua, Salud y Ambiente de la Universidad El Bosque.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 108-113 ¦ 113
Producción y Comprensión de Textos: La cognición situada entre lo cotidiano y el b-learning Production and Reading Comprehension: Cognition located between the everyday and the b-learning
Diana Patricia Gutiérrez Sastoque, Diana Yenny Ávila Valbuena.
Abstract
Resumen
his article presents the research process about learning, comprehension and production of texts supported by the use of b-learning resources and virtual leaning environments. The investigation is developed through a case study of a group of students of school age. The goal of the research was to demonstrate that communicative competence related to the understanding and production of expository texts is strengthened through direct intervention to learning situations. The importance of context is exposed where the technological resources, as well as the social environment, determine the outcome. The investigation is supported by the Situated Learning theory.
l artículo presenta el proceso de la investigación sobre el aprendizaje de la comprensión y la producción de textos, apoyado en el uso de recursos b-learning y en ambientes de aprendizaje virtual. Se desarrolla a partir del estudio de caso, de un grupo de estudiantes de edad escolar. La finalidad de la investigación fue demostrar que la competencia comunicativa relacionada con la comprensión y producción de textos expositivos se afianza mediante intervenciones directas a las situaciones de aprendizaje. Se expone la importancia del contexto del aprendiz en donde los recursos tecnológicos, así como el ambiente social, determinan su desempeño. La investigación se apoya en la teoría del Aprendizaje situado.
Keywords: Situated cognition, b-learning, reading comprehension, text production, strategies.
Palabras Clave: Cognición Situada, b-learning, Comprensión lectora, Producción Textual, estrategia.
T
E
Recibido / Received: Abril 13 de 2014 Aprobado / Aproved: Mayo 26 de 2014 Tipo de artículo / Type of paper: Artículo de investigacion científica y tecnólogica terminada. Afiliación Institucional de los autores / Institutional Affiliation of authors: Universidad Pedagógica Nacional. Autor para comunicaciones / Author communications: Diana Patricia Gutiérrez Sastoque, xxxxxxxxxxxxxx@xxxxxxxxxxxxxx Los autores declaran que no tienen conflicto de interés.
Producción y Comprensión de Textos:La cognición situada entre lo cotidiano y el b-learning
Introducción La investigación dentro del ámbito y las relaciones de la enseñanza b-learning, se dirige a fortalecer las estrategias de aprendizaje para la comprensión y producción de textos expositivos teniendo en cuenta el Modelo Pedagógico de Aprendizaje Situado a través de un Aula Virtual de Aprendizaje (AVA). Dicho propósito parte del principio según el cual la enseñanza contemporánea, basada en las relaciones colaborativas dentro del aula de clase, ofrece y permite los dispositivos técnicos y metodológicos para la cualificación de los procesos educativos siempre y cuando estén desarrollados bajo los criterios de un Modelo Pedagógico. En este sentido, la propuesta permite identificar los diferentes aspectos pedagógicos, tecnológicos y disciplinares vinculantes a las estrategias del aprendizaje situado, en particular, aquellas relacionadas con la lectura y la escritura en ambientes b-learning. Es importante anotar que, para una mejor comprensión del artículo, en la sección II, se hace la presentación del problema y los objetivos de la investigación. En la sección III se presenta la metodología del trabajo, que da soporte a la investigación, cuyo enfoque es cualitativo, es decir, se desarrolla a partir de la descripción de la realidad de los participantes involucrados. El método para esta indagación es el estudio de caso, lo que conlleva a un análisis más detallado de las circunstancias del contexto, como por ejemplo, la identificación de la población objeto de estudio, junto con los instrumentos y técnicas para el diagnóstico, la recolección y el análisis de esos datos. La sección IV presenta los análisis y las interpretaciones determinadas por las variables de los sujetos de estudio y por los problemas específicos de cada caso. De esta forma, los resultados obtenidos desde los tres componentes (tecnológico, pedagógico y disciplinar) de la investigación, conllevó a la solución de la pregunta sobre aprendizaje situado en relación a los espacios b-learning en los procesos de lectura y escritura. Para terminar, en la sección V se presentan las conclusiones a las que se llegó después de haber realizado la interpretación de los diferentes instrumentos, los análisis de los resultados y las proyecciones frente a esos hallazgos.
Planteamiento del problema y objetivos de la investigación Se hace indispensable reconocer la importancia del aprendizaje de la escritura y la lectura en los niños a nivel escolar y su dimensión cognitiva estructural. Esto implica que cualquier dificultad que afecte los procesos en el desarrollo de competencias y habilidades pertinentes a ese aprendizaje, puede alterar la dimensión comunicativa y pone en desventaja al estudiante en su entorno social. Surge así la preocupación de que en el Gimnasio Los Andes, en la ciudad de Bogotá, se ha venido observando dificultades en la comprensión y producción de textos expositivos en el grado séptimo. Esto se hace palpable en el aula de clase. En la comprensión de textos, cuando se realizan ejercicios de lectura en los que se evidencian dificultades en los niveles literal (los estudiantes no responden preguntas sobre situaciones que están en el mismo texto) e intertextual (presentan dificultad al relacionar situaciones presentadas en las lecturas con hechos de su vida o que están en otros textos). También en las diversas pruebas que realiza la institución, unas al inicio del año escolar, llamadas diagnósticas anuales y otras, llamadas pruebas de saberes, que se aplican al finalizar el año escolar. En la producción de textos, se refleja una falta de dominio metalingüístico en cuanto a la estructuración de textos y el uso apropiado de categorías gramaticales (conectores y pronombres). A esto se suma que los espacios de clase no son suficientes para ejercitar las estrategias que fortalezcan estos procesos de lectura y escritura. Sin embrago, la institución está poniendo en funcionamiento la plataforma Moodle como herramienta de apoyo para los procesos de enseñanza - aprendizaje en tecnología y en matemáticas, siendo esta una posibilidad propicia para implementar un ambiente b-learning en el área de lenguaje. La finalidad es demostrar que la competencia comunicativa tanto en el proceso de comprensión como en el de producción de textos expositivos se afianzará si se emplean estrategias en situaciones discursivas propias del contexto social del sujeto aprendiz en ambientes b-learning. Se buscará lograr el diseño e identificación de unas condiciones, pedagógicas, tecnológicas y comunicativas en un ambiente de enseñanza-aprendizaje situado que permitan
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 114-120 ¦ 115
Diana Patricia Gutiérrez Sastoque, Diana Yenny Ávila Valbuena.
a los estudiantes desempeñarse satisfactoriamente en la comprensión y producción de textos expositivos. Por lo anterior esta investigación busca darle respuesta al siguiente interrogante: ¿De qué manera el aprendizaje situado puede orientar el afianzamiento de estrategias para la comprensión y producción de textos expositivos en ambientes b-learning? Los Objetivos planteados son: Objetivo general: • Fomentar el uso de estrategias para la comprensión
y producción de textos expositivos por medio del aprendizaje situado en ambientes b-learning. Objetivos específicos: • Identificar las condiciones pedagógicas basadas en la
teoría del aprendizaje situado en ambientes b-learning para el uso de estrategias en la comprensión y producción de textos expositivos. • Diseñar las condiciones tecnológicas basadas en
la teoría del aprendizaje situado en ambientes b-learning que permita orientar estrategias para la comprensión y producción de textos expositivos. • Implementar las condiciones cognitivas y comunica-
tivas basadas en la teoría de cognición situada, en ambientes b-learning que permita orientar la aplicación de estrategias para la comprensión y producción de textos expositivos. • Validar la implementación de un ambiente b-lear-
ning basado en la teoría de cognición situada como herramienta en la consolidación de estrategias en los procesos de comprensión y producción de textos.
Metodología Para que la investigación lograra su objetivo, la implementación de las etapas metodológicas se realizó a través de un proceso estructurado. Esto se hizo por medio de los métodos y técnicas seleccionados de acuerdo a la naturaleza del objeto de estudio llevado a cabo en el Gimnasio Los Andes. Cuando se emprende un problema de investigación es necesario saber cuál es su alcance y su nivel de dificultad para poder iniciar la búsqueda de las soluciones a este problema, es aquí que se debe establecer el tipo de investigación que se realizará.
El trabajo, correspondió a una investigación de estudio de caso con alcance descriptivo apoyado en técnicas de investigación como el cuestionario, el protocolo y la observación directa. Sampieri Roberto [1] plantea que “Las investigaciones descriptivas buscan especificar las propiedades importantes de personas, grupos, comunidades o cualquier otro fenómeno que sea sometido a análisis. Miden o evalúan diversos aspectos, dimensiones o componentes del fenómeno o fenómenos a investigar”. Se trabajará un estudio de caso en un contexto real con estudiantes de séptimo grado del Gimnasio Los Andes. “Todas las definiciones vienen a coincidir en que el estudio de caso implica un proceso de indagación que se caracteriza por el examen detallado, comprehensivo, sistemático y en profundidad del caso objeto de interés.” Merino [2] llega a presentar como características esenciales del estudio de caso las siguientes: particularista, descriptivo, heurístico e inductivo. Su carácter particularista viene determinado porque el estudio de caso se centra en una situación suceso, programa o fenómeno concreto y que según Robert Yin [3], si el foco de la pregunta de investigación es principalmente sobre la pregunta “cómo” y “por qué”, si indaga sobre un fenómeno contemporáneo en su entorno real y permite estudiar un tema determinado, se apoyará en un estudio de caso. Esta especificidad le hace ser un método muy útil para el análisis de problemas prácticos, situaciones o acontecimientos que surgen en la cotidianidad. Como producto final de un estudio de caso nos encontramos con una rica descripción del objeto de estudio, en la que se utilizan las técnicas narrativas y literarias para describir, producir imágenes y analizar las situaciones: el registro de caso Stenhouse [4] “El estudio de caso facilita la comprensión del lector del fenómeno que está estudiando. Puede dar el lugar al descubrimiento de nuevos significados, ampliar la experiencia del lector o confirmar lo que se sabe.” Para Yin [5] el estudio de casos se plantea con la intención de describir, interpretar o evaluar y Stake [6] opina que a través del estudio de casos el investigador puede alcanzar una mayor comprensión de un caso particular, conseguir una mayor claridad sobre un tema o aspecto teórico concreto (en esta situación el caso concreto es secundario), o indagar un fenómeno, población o condición general. En definitiva, en un intento de síntesis de estas diversas, que no contradictorias, posi-
116 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 114-120
Producción y Comprensión de Textos:La cognición situada entre lo cotidiano y el b-learning
ciones, podemos ver cómo los objetivos que orientan los estudios de caso no son otros que los que guían a la investigación en general: explorar, describir, explicar, evaluar y/o transformar.” Yin, menciona que los pasos para el estudio de caso son: Figura 1. Metodología del estudio de caso. Robert, Yin (2003) Definición del problema Diseño de investigación: 1. Modelo de investigación. 2. Construcciones y definiciones operacionales. 3. Preguntas de investigación. 4. Fuentes de datos. 5. Categorías de análisis. 6. Instrumentos de evaluación. Recolección de datos Análisis de datos Reporte
Análisis de resultados de datos Componente Pedagógico. El Aprendizaje Situado es el Aprendizaje de conocimiento y habilidades en contexto. En el componente pedagógico se vislumbró que el Aprendizaje de conocimiento y habilidades en contexto afecta los procesos de enseñanza – aprendizaje, es decir, y de acuerdo al planteamiento de Lamas [7], que la acción educativa es vinculante y está soportada en la construcción social de la realidad, para lo cual, la cognición es una acción práctica que se da en la vida cotidiana y en donde es necesario darle importancia a los ambientes de aprendizaje y donde las estrategias estén centradas en la formación de los sujetos. Por eso, al inicio, en esta categoría de Aprendizaje la mitad de la muestra pensaba que los aprendizajes estaban dados por la memorización de los conceptos. Luego se dieron cuenta que, a través de la aplicación de las estrategias en diferentes contextos, es que se da el aprendizajes; es decir, tener claro el contexto: qué se va a hacer, cómo se hace y por qué. En este proceso y de acuerdo a Ausubel [8], durante el aprendizaje significativo el estudiante relaciona la nueva información con su experiencia y si se hace un planteamiento adecuado de los materiales de estudio
y de la experiencia educativa, se pasa de la repetición memorística, al sentido de lo aprendido, sobre todo, en situaciones académicas cotidianas y relevantes. El aprendizaje tiene lugar en y a través de la interacción con otros. Ausubel, destaca la relevancia de la actividad y el contexto, pues los estudiantes se deben ir integrando a unas prácticas sociales pertenecientes a una comunidad donde la participación con otros permiten mejorar su capacidad reflexiva y crítica. Este aspecto se evidenció a través del desarrollo de las estrategias planteadas por los teóricos del aprendizaje situado y que tienen que ver con el trabajo en equipos cooperativos (por pares) y el aprendizaje mediado por las nuevas tecnologías de la información y comunicación. Esta última estrategia es correspondiente a la categoría que apuntó hacia el Aprendizaje basado en herramientas tecnológicas. Los estímulos ambientales producen la conducta. Esta teoría también afirma que los nuevos aprendizajes se van construyendo a partir de los aprendizajes anteriores, (la experiencia acumulada), relacionados a ciertos hábitos de procedimiento como completar, esquematizar, seleccionar, organizar, que corresponde, en este trabajo de investigación, a la categoría de estímulos ambientales que producen la conducta. La implementación de estas categorías pedagógicas posibilitó un análisis sistemático y una intervención directa a las conductas y a los descubrimientos individuales durante las actividades de aprendizaje. Esto dio respuesta al objetivo planteado inicialmente, sobre “Identificar las condiciones pedagógicas basadas en la teoría del aprendizaje situado en ambientes b-learning y en el uso de estrategias para la comprensión y producción de textos expositivos” Las cuatro categorías ayudaron a fomentar el uso de las estrategias de comprensión y producción de textos expositivos en ambientes b-learning. Componente Tecnológico. Interacción entre personas. Los espacios de interacción propuestos en el AVA, como el foro, el chat, la caja de preguntas, la wiki y la mensajería interna, permitieron que los estudiantes resolvieran mucho mejor sus actividades, logrando aclarar dudas en el tiempo requerido y así poder consolidar sus estrategias con el trabajo entre pares. Esto reafirma lo observado en los diferentes protocolos. Francisco Martínez [9] (2000) confirma, a este respecto, la importancia del trabajo entre
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 114-120 ¦ 117
Diana Patricia Gutiérrez Sastoque, Diana Yenny Ávila Valbuena.
sujetos homogéneos, que presentan saberes similares sobre el tema, lo que significa un liderazgo compartido y responsabilidades en común. Otro aspecto es el papel estratégico del rol del docente/tutor que también fue evidente durante el proceso. Un docente o tutor observa e interviene en el desarrollo de las tareas y promueve la retroalimentación en los alumnos. Este factor coincide con lo planteado por Martínez. Interactividad: En este aspecto siempre fue evidente, en los estudiantes, la interactividad con los diferentes materiales propuestos para el desarrollo de las estrategias. Esta interactividad, es congruente con Coaten y Marsh [10] (2003) en cuanto que al implementar la enseñanza presencial con la tecnología no presencial, el formador asume su rol tradicional, pero usa, en beneficio propio, el material didáctico que la informática y el internet proporcionan. De esta manera se logra cautivar a los estudiantes para su participación en el uso y apropiación de los materiales que, al tener un propósito claro, tendrá como consecuencia un aprendizaje o un afianzamiento. Estas dos categorías permitieron dar respuesta y cumplimiento al objetivo específico “Diseñar las condiciones tecnológicas basadas en la teoría del aprendizaje situado en ambientes b-learning que permita orientar estrategias para la comprensión y producción de textos expositivos”. Disciplinar: Comprensión de textos. Estas estrategias fueron vitales para la comprensión lectora ya que los niveles de interpretación, en la lectura literal e intertextual, fueron fortalecidos. De esta forma las estrategias se convirtieron en una ayuda, tal como lo sostiene Jolibert [11] (2009), en donde los estudiantes aprenden a interpretar no solo para construir el sentido del texto, sino para comprender lo que el emisor quiso decir, o lo que el productor de textos quiere decir. La interacción que tuvieron los estudiantes con los diversos textos estudiados, en su mayoría expositivos, permitió afianzar los procesos lectores. Esto ratifica las consideraciones de Anderson y Pearson sobre la concepción de la comprensión, como un proceso a través del cual, el lector elabora un significado en interacción con el texto. Estos autores plantean que una de las dificultades relacionadas en la lectura literal, es el desconocimiento del vocabulario o del uso metafórico de expresiones del lenguaje cotidiano. En este sentido, el trabajo realizado en el aula sobre las estrategias glosar, sinonimia y lenguaje
con sentido figurado y propio, permitió evidenciar un robustecimiento en el uso de estas estrategias, dejando ver un resultado categórico en este nivel de lectura. En el nivel intertextual fue bastante interesante observar cómo el grupo iba descubriendo relaciones entre textos o películas propuestas, con otras que ya habían sido leído o visto. Esto nos permite deducir que, a través de estos niveles, se amplía el entorno textual y de contexto del texto original, tal como lo ha expuesto Pérez, H. [12] (2001). Producción Textual: En cuanto a la producción textual, el uso de las estrategias hizo evidente que, su uso adecuado, mejoró la coherencia y la cohesión de la producción textual, tal como lo afirma Vásquez [13] (1989): “Las diferentes partes de un escrito bien hecho deben estar relacionadas entre sí, con el fin de ayudar al lector a seguir el hilo del discurso”. Las estrategias que se trabajaron en la producción textual, fueron el uso de los pronombres y el de conectores. En el desarrollo de estas actividades, fue posible confirmar el planteamiento de este mismo autor, sobre la manera en que deben ser expresadas lingüísticamente las proposiciones y, de igual manera, en relación al uso de los pronombres que se presentan unidos a elementos lingüísticos precedentes, a través de expresiones de transición, como en este caso, cumplen los conectores. El trabajo realizado sobre las estrategias para la comprensión y producción de textos expositivos, destaca la importancia de la coherencia, la claridad y la organización de los textos. Al hacer ver estos aspectos a los estudiantes, los docentes podrán demostrar su papel activo en este proceso, ya que la función comunicativa del lenguaje determina su eficacia: leer y escribir son construcciones sociales. Ferreiro (2000). [14] Tampoco se puede pretender que la tecnología, por si misma, simplifique las dificultades cognitivas de lectoescritura, como bien nos lo recuerda Ferreiro [15] (2000), porque es imprescindible tanto el modelo pedagógico aplicado, como el docente mediador. Retomando los aspectos mencionados y con base en el desarrollo de las diferentes categorías y de los teóricos referenciados, se permitió, con respecto a los otros dos objetivos planteados al comienzo: “Implementar las condiciones cognitivas y comunicativas basadas en la teoría de cognición situada, en ambientes b-learning que permita orientar la aplicación de estrategias para la compren-
118 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 114-120
Producción y Comprensión de Textos:La cognición situada entre lo cotidiano y el b-learning
sión y producción de textos expositivos” y, en segundo lugar, “Validar la implementación de un ambiente b-learning basado en la teoría de cognición situada como herramienta en la consolidación de los procesos de comprensión y producción de textos”
Conclusiones Las condiciones pedagógicas del Modelo de Aprendizaje Situado no se reducen al beneficio de los aprendizajes en el aula de clase, sino que igualmente, se adecúan a los aprendizajes virtuales como, en este caso los ambientes b-learning. En cuanto al diseño de las condiciones tecnológicas en ambientes b-learning, tener claro que la tecnología por sí sola no conduce a los aprendizajes, pues, se debe tener un modelo pedagógico, junto con una secuencia didáctica e intervenciones precisas sobre lo que se pretende. Tener un especial cuidado con las instrucciones dadas en el aula, pues los modos y acentos comunicativos en la información emitida, son claves de efectividad para mantener la concentración y la atención dentro de las actividades didácticas virtuales. Para la validación del ambiente fueron de gran valor los aportes de los pares académicos, de los especialistas, de los niños y, por supuesto, de los autores referenciados. En cualquier implementación de un AVA, la validación de los dispositivos tecnológicos para la enseñanza, exige una particular sensibilidad para que efectivamente estos instrumentos se manifiesten en su humanización, es decir, en su historicidad, y sean, como otros productos humanos, material cultural activo. El carácter complejo de cada actividad debe convertirse en un desafío cognitivo a afrontar y superar, y no un obstáculo. Las actividades programadas deben prever una intervención sistemática o una metodología escalonada, hacia la complejidad que represente el acto cognitivo. El salto cualitativo debe darse tan pronto como el estudiante domine su instrumento.
Referencias [1] R. Sampieri, “Metodología de la Investigación” Ed. México: McGraw-Hill, pp. 64.1997.
[2] L. Merino, “Nativos Digitales: Una aproximación a la socialización tecnológica de los jóvenes” España: Instituto de la juventud, pp. 123. 1997. [3] R. Yin, “Case Study Research. Design and Methods Sage Publications, Thousand Oaks” 4th ed., pp. 240. 2009. [4] Stenhouse, Lawrence. “La investigación como base de la enseñanza” Madrid. Ed. Morata S.A. 1990. [5] R. Yin, “Case Study Research. Design and Methods Sage Publications, Thousand Oaks” 4th ed., pp. 16-17.2009 [6] Stake, R.E. (1994) “Case Study”, en Denzin, N.K. & Lincoln, Y.S. Eds. 1994. [7] Lamas, H. (2010). “Aprendizaje situado: la dimensión social del conocimiento” Academia Peruana de Psicología. [Documento en línea]. Disponible en: http://www.academiaperuanadepsicologia.org/ site/index.php?option (Última consulta realizada marzo 2014). [8] Ausubel, D.P. “Psicología Educativa. Una perspectiva cognitiva” Ed. Trillas. México. 1976. [9] Martínez, F. “Educación y Nuevas Tecnologías” Ed. Murcia, CajaMurcia. 2000. [10] Coaten, N. y Marsh (2003).Blended e-learning. Disponible en: http://www.educaweb.com [11] Jolibert, J. y otra. “Niños que construyen su poder de leer y escribir” Buenos Aires: Manantial. 2009 [12] Pérez, H. “Nuevas tendencias de la composición escrita” Bogotá: Cooperativa Editorial Magisterio. 2001. [13] Vázquez, F. “Pregúntele al ensayista”. Bogotá: Editorial Kimpres. 1989. [14] Ferreiro, E. “Leer y escribir en un mundo cambiante”, conferencia de las Sesiones Plenarias del 26 Congreso de la Unión Internacional de Editores. CINVESTAV-México. 2000. [15] _________ “Leer y escribir en un mundo cambiante”, conferencia de las Sesiones Plenarias del 26 Congreso de la Unión Internacional de Editores. CINVESTAV-México. 2000.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 114-120 ¦ 119
Diana Patricia Gutiérrez Sastoque, Diana Yenny Ávila Valbuena.
Las Autoras Diana Patricia Gutiérrez Sastoque Maestría/magister Universidad Complutense de Madrid. Facultad de CC Política y Sociología, 2009. La enseñanza del descubrimiento de América: entre los textos universitarios y los textos de secundaria. Especialización Corporación Universidad Piloto de Colombia. Educación, 1997. Postmodernismo y ciencias humanas. Pregrado/universitario Universidad Pedagógica Nacional, Licenciada en Ciencias Sociales, 1994. Diana Yenny Ávila Valbuena Maestría en Tecnologías de la Información aplicadas a la Educación. Universidad Pedagógica Nacional, Bogotá. Licenciada en Ciencias de la Educación Pre-escolar. Incidencia del programa de fichas en el Aprendizaje de Matemáticas en niños de 7a 9 años. Universidad San Buenaventura. Bogotá, 1986. Licenciatura en Lingüística y Literatura. El modernismo en Colombia… de sobremesa y José Asunción Silva: Un acercamiento al Modernismo en la literatura colombiana. Universidad de la Sabana. Bogotá, 2005. Especialización en Recreación Educativa. Fundamentación de la Antropología Cultural en la Especialización de Recreación Educativa. Universidad San Buenaventura. Bogotá, 1991. Docente Gimnasio Moderno.
120 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 114-120
Consideraciones tecnológicas y pedagógicas del constructivismo social Technological educational and social considerations constructivism
Diana Castillejo, Diana Garzón.
Resumen
Abstract
ste artículo se preocupa por abordar los fenómenos de las redes sociales, el software social y la computación sensible, detallando en cada uno aspectos importantes que atañen a los procesos educativos, y a la forma en que estas nuevas formas de construcción de conocimiento se desarrollan dentro de ambientes sociales interactivos.
E
Palabras Clave: redes sociales, software social, computación sensible, aprendizaje colaborativo, constructivismo social, ZDP, conectivismo.
n this article we will be concerned to approach three fundamental aspects: social networks, social software and sensitive computing; to get to develop a pedagogical model consistent with this technological context and satisfy at the same time the necessary educational aspects, for the development of a genuine process of significant and collaborative learning in the “classroom”.
I
Keywords: social networks, social software, sensitive computing, collaborative learning, social constructivism, ZPD, connectivism.
Recibido / Received: Marzo 15 de 2014 Aprobado / Aproved: Mayo 22 de 2014 Tipo de artículo / Type of paper: Artículo de investigacion científica y tecnólogica terminada. Afiliación Institucional de los autores / Institutional Affiliation of authors: Universidad Pedagógica Nacional. Autor para comunicaciones / Author communications: Diana Castillejo, xxxxxxxxxxxxxx@xxxxxxxxxxxxxx Los autores declaran que no tienen conflicto de interés.
Diana Castillejo, Diana Garzón.
Introducción Con el devenir de los años se han desarrollado una serie de tecnologías en la búsqueda de satisfacer necesidades humanas y de su entorno, las mismas, que paulatinamente se han diversificado y especificado de manera abrumadora. Al igual que el auge de todas estas aplicaciones que pugnan por la conexión globalizada y el acceso al conocimiento, la demanda constante de más actualizaciones y avances crece de manera exponencial. Se podría decir entonces que al igual que una caja de pandora, las nuevas tecnologías suponen una panacea, de la que muchos ahora están preocupados por el desconocimiento que supuso el acceso al por años vedado “conocimiento para todos”. Este acceso “libre” y proceso conectivo de las tecnologías, con el pasar del tiempo develó la verdadera cara del uso de las mismas, en la cual se han podido encontrar aspectos que reflejan -en un ambiente diferente- el mismo patrón de acciones que socialmente una persona desarrolla en su proceso de interacción cotidiano (redes sociales). Para lograr una mejora en estos procesos y respaldar de manera tecnológica todo este andamiaje, se desarrollaron también los respectivos mecanismos y aplicaciones vanguardistas (computación sensible y software social), y de manera casi inminente supuso para la educación una adaptación crítica, que se enfocara en estudiar estos nuevas formas en que los procesos de aprendizaje se están generando (constructivismo social) y extraer de ellos los beneficios y procesos más fructíferos (conexión, colaboración) para su posible aprovechamiento en el aula, con el fin de lograr una actualización del proceso académico que esta sociedad del conocimiento demanda como imperante.
Las redes sociales Los diferentes avances tecnológicos reflejo de un esfuerzo investigativo, aplicado a la solución de problemas y necesidades que se presentan en esta nueva realidad a la que nos enfrentamos, han significado un cambio paulatino y creciente de los contextos y posibles formas de socialización comúnmente conocidos; dentro de estos, ha predominado un nuevo ambiente virtual, donde se desarrollan las posibles conexiones del entorno real, como
forma de agilizar ese contacto y vencer ciertas barreras espacio-temporales existentes; en este ambiente predominan entonces las denominadas redes sociales RS, que han convertido al internet en el medio denominado por M. Castells [2] como la “sociedad en red”. Podemos definir las RS como lo manifiestan A. Blandir y A. Nava [3] al decir que “ son un sistema abierto en construcción permanente que involucra conjuntos identificados con las mismas necesidades o problemáticas de su entorno social y se organizan para interrelacionarse e intercambiar ideas que se establecen entre ellos en función de objetivos comunes”, en este mismo sentido es interesante también la analogía que resalta T. Imaña [4] citando a autores como Rhengold e Imaña Tumubiates -y su respectivo análisis sobre esta temática- al enfocarse en la forma de las reuniones virtuales, el primer autor al compararlas con la manera como antiguamente se hacían estas en los cafés, esperando un encuentro una charla un contacto con el otro, y el último autor por señalar este mismo fenómeno y aportar que la informalidad manejada en dichas charlas de antaño es llevada a la comunicación de los internautas de la red, “por lo que la gramática y sus estructuras así como la ortografía pierden importancia”. Todas estas definiciones no son más que un trasvase de las relaciones normalmente llevadas a cabo por la humanidad, en un medio “ahora” diferente. Por las características singulares de este espacio las RS se constituyen entonces, como una respuesta un poco más acorde con las necesidades del ritmo y estilo de vida de esta sociedad mediática; estas han cobrado en este escenario un auge tal que son ahora el foco de optimistas, escépticas y hasta utópicas opiniones, tan variadas todas estas como inciertas a su vez, debido a la relatividad del fenómeno que pretenden develar. Analizando un lado de la moneda podemos agrupar aspectos positivos puntuales señalados por diferentes autores como son: V. Díaz [1] comunicación rápida, corta y horizontal, B. Peña [5] desarrollo de la memoria (al facilitar la conexión) y aumento del nivel de amistad (al facilitar la conexión) y F. Santamaría [6] formidable herramienta para la educación inclusiva reduciendo brechas tecnológicas y de conocimiento. Del otro extremo y de manera particular podemos observar que estos mismos aspectos son el objeto de
122 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 121-131
Consideraciones tecnológicas y pedagógicas del constructivismo social
críticas que analizan la calidad de las conexiones que propicia y el tipo de comunicación fomentada, de todos estos autores que recalcan aspectos controvertidos, citamos de manera puntual los más preocupantes como: “la falta de privacidad, la pérdida del contacto personal y la posible amenaza a la capacidad de interacción (socialización) fomentando el individualismo”. B. Peña [5]. De esta forma es posible observar claramente que las opiniones varían dependiendo de las consecuencias que se estén generando en mayor o menor escala con el uso de las RS, y de las características propias de esta nueva herramienta tecnológica. Así entonces las RS “si” responden a unas características de un medio para el cual fueron creadas, y constituyen otro ejemplo más de una herramienta tecnológica con alcances titánicos, que no habían sido considerados de manera premeditada, pero que con su creciente desarrollo están generando problemáticas de tamaños equivalentes a su uso. Abordando uno de los puntos más polémicos de estas jhon Caciopo [7] explica que “quienes son solitarios tienden a utilizarlas como barrera entre ellos y los demás, mientras que el resto le saca provecho para acortar distancia” este autor concluye que el uso de estas nos puede llevar más a la integración que al aislamiento, y en este punto coincide con lo dicho por A. Blandin A. Nava [3] al considerar a las “redes sociales como una forma de interacción social, a través de un intercambio dinámico entre ciudadanos, ciudadanas, grupos e instituciones en contextos diferentes de complejidad”. Aspectos como estos dejan entrever que los posibles puntos neurálgicos de la polémica giran en torno a los diferentes “usos” y sus respectivos alcances más que a las mismas RS; reiterando el hecho de que mas allá de los posibles procesos -indistintivamente cuales sean- todo depende del control y aprovechamiento que se le dé, lo que confirma la idea de que el problema no reside en el objeto mismo y sus potenciales implicaciones, sino en el uso pensado y efectivo de estas aplicaciones y en este último muchas veces va reflejado aspectos particulares del mismo usuario.
El software social De la misma manera en que las tecnologías han incursionado en la vida moderna para satisfacer las necesidades
del hombre, este a su vez con su uso constante, ha demandado -con el paso del tiempo y de manera creciente- un sinnúmero de nuevas aplicaciones sociales e interactivas, cada vez más específicas y diversas. Es así como nos encontramos en una era, en la que los nuevos recursos del ámbito social, nos permiten el acceso a nuevos entornos y se da cabida a varias herramientas que facilitan la expresión libre, en la que se rompen los esquemas tradicionales de comunicación y se aprovecha el potencial comunicativo de las redes. Este agregado de instrumentos denominados software social es reconocido por I. Solano Fernández y P. López Vicent (2007) [10] como un “conjunto de aplicaciones que amplían las posibilidades de comunicación y conexión entre personas”. Esta definición se ve articulada a la de O. Peláez (2011) [11] quien afirma que “el software social involucra a diferentes aplicaciones o servicios que permite a los usuarios interactuar y compartir información”, permitiendo fortalecimiento de vínculos entre comunidades o personas que comparten un interés en común. Adicional a todo esto Margaix-Arnal (2007) [12], afirman que estas “aplicaciones informáticas permiten a los usuarios comunicarse entre ellos y seguir esas conversaciones a través de la web”, su postura en definitiva es similar a la propuesta por J. A. del Moral [13] pues afirma que el software social permite “ampliar las posibilidades de comunicación y de conexión entre personas que ya permiten el e-mail o los sistemas de mensajería instantánea”. Si bien nuestro primer contacto de software social fueron las listas de correo que permitían conectar a muchas personas al mismo tiempo, cada vez éste se encuentra más cerca de cualquier persona, pues hace un quiebre entre las prácticas online y las del mundo real [14]. Así entonces teniendo presente la importancia de los avances en la comunicación, la primordial particularidad del software social es que permite la disposición del conocimiento y la opinión colectiva, mejorando su utilidad cuando aumenta el número de usuarios; por otro lado permite mantener conversaciones bidireccionales o grupales, valorar, organizar y compartir contenidos, además de representar relaciones sociales, “da soporte a redes y publicaciones de este tipo, las cuales son empleadas para trabajar, socializar, educar, entre otros[15], [16].
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 121-131 ¦ 123
Diana Castillejo, Diana Garzón.
De igual manera, el software social puede ser clave en la formación virtual y en el proceso de enseñanza - aprendizaje, porque permite una mayor interacción entre los docentes y los estudiantes; y además se da paso a la creación de comunidades educativas a través de las cuales el conocimiento es compartido o creado de manera colaborativa. I. Solano Fernández y P. López Vicent (Ibid. 2007) consideran que “los jóvenes de hoy encuentran en estas aplicaciones un nuevo modo de expresión más acorde con su capacidad de exploración integrada (…)la enseñanza se aprovecharía de sus beneficios si se realiza una adecuada propuesta didáctica de integración de las mismas en la enseñanza”[17].
Analizando ahora la historia, el modelo de interacción hombre - máquina de hace algunas décadas es muy distinto al actual, teniendo en cuenta no sólo la calidad sino también la cantidad de dispositivos al alcance de las personas. En 1991, Marc Weiser, considerado un ideólogo de la “computación ubicua”, llegó a hablar de una tecnología invisible e integrada en el entorno [19], y aunque parecía una mirada inaccesible en ese entonces, hoy en día es algo que se considera posible, pues estamos acercándonos con el uso de varios dispositivos portátiles tales como notebooks, TabletPCs, smartphones [20], entre otros, que se vuelven cada vez más potentes y específicos en tamaños, dependiendo de la necesidad que apunten.
Viendo todo esto desde el aspecto pedagógico C. Cabezas afirma que “mientras mayor es la comunidad de usuarios de estas tecnologías, los alumnos demuestran mejor disposición a usarlas (…) permite alcanzar acuerdos sobre principios de convivencia en línea, compartir modos y estrategias de investigación aceptables y desarrollar habilidades para interactuar con múltiples medios, como parte de una alfabetización informacional” [18].
Estos dispositivos integrados en nuestro contexto actual, brindan servicios que responden a determinadas condiciones del entorno, tales como la posición espacial, temperatura, iluminación, etc. Estos mecanismos podrán incluso predecir las necesidades del consumidor a través de sensores, orientándolo a emplear correctamente cualquier herramienta o programa que se ejecute en un computador.
Así pues, la innovación en las herramientas comunicativas a partir del adelanto tecnológico tiene potencial para cambiar el modo de enseñar y aprender, su facilidad de uso y su libre disponibilidad permiten la colaboración en un entorno académico, donde las personas de forma colaborativa crean y modifican su propia información, a la vez que comparten en un nuevo espacio interactivo .El software social, permiten entonces un ámbito de actuación donde las personas pueden participar e interactuar de manera constructiva y significativa.
La computación sensible El ambiente entra en este punto a tornarse el foco de reflexiones y el fin para el cual se desarrollaran las posibles soluciones que hagan a la tecnología una herramienta cada vez más indispensable para el usuario. “En ello se puede identificar la importancia de desarrollar el proceso de interacción del entorno con la tecnología, con el fin de buscar mecanismos que permitan la resolución de problemas en la cotidianidad de los sujetos, para esto se especifican tres fases dentro del proceso de la sensibilidad computacional: 1º, captura de contexto, 2º, interpretación del contexto y 3º, ejecución de acciones. [21]
Además del trabajo de Weisner, en San Francisco en el año 2010 [22] se llevó a cabo un evento definitivo para el avance de la computación sensible: el Intel Developer Forum, donde el vicepresidente de Intel, Justin Rattner, a través de unas breves palabras y ejemplos visibilizó que los dispositivos se irán perfeccionando en términos de procesamiento, conectividad y diversas capacidades sensitivas: “Imaginen un dispositivo que utilice diversas modalidades sensoriales para determinar lo que está haciendo en un momento determinado (…). Al obtener información de sensores sobre dónde se encuentra y las condiciones a su alrededor, combinadas con sensores, como su calendario, su red social y las preferencias, los futuros dispositivos constantemente aprenderán acerca de quién es usted, cómo vive, trabaja y juega”. [23] Siguiendo esta línea D. I. Tapia Martínez (2009) [24] reconoce que la computación sensible al contexto, plantea una nueva manera de interacción entre las personas y la tecnología, haciendo que estas últimas, se adapten a las necesidades de los individuos y al entorno que los rodea, lo que se puede considerar como una gran ayuda a personas usuarias, pues podría mejorar en gran medida la calidad de vida de estas, debido a que como bien lo aclara J. Monteagudo (2006) [25], este tipo de computación sensible involucra el seguimiento fiable
124 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 121-131
Consideraciones tecnológicas y pedagógicas del constructivismo social
de una persona, con un rastreo definido de actividades en relación con otras personas, objetos o situaciones en el entorno del puesto de trabajo de un profesional o un paciente. Esta definición de carácter positivo es afirmada por J. Fraile Nieto (2011) [26], quien asegura que el sistema desarrollado asumirá un mayor grado de conocimiento del contexto del beneficiario para brindar recursos eficientes, facilitando la información adecuada en el momento justo. Así, tecnología y capacidades sensibles son indispensables para comprender y asimilar las relaciones humanas y los tejidos sociales que existen en el mundo contemporáneo, en la medida que ambas permiten establecer las habilidades de comunicación de los sujetos y las formas de interacción frente a las demandas del mundo actual. Varios ejemplos de ello, son las aplicaciones las cuales permiten una integración de la tecnología y el entorno, tales como el EMI2 [27] (Environment-Mobile Intelligent Interaction), que es una arquitectura que permite avanzar hacia el concepto de computación sensible; el dispositivo móvil llamado Personal Vacation Assistant [28] que emplea tecnologías de cómputo conscientes del contexto para ayudar al usuario a sacar el máximo provecho de una experiencia de viaje; el OASIS [29] (Object-Aware Situated Interactive System) ajusta algoritmos de computación, cámaras y micro-proyección en 3D para el reconocimiento rápido y el seguimiento de objetos físicos y gestos cotidianos, lo que se puede usar a través de diversos ambientes, por ejemplo, el hogar (Home Care); entre otros. Visto este enfoque en la escuela, como el espacio de interacción de sujetos con el discurso educativo y matizado por componentes tecnológicos cambiantes y diversos, la computación también tiene su cabida dentro de las aulas al ayudar a los docentes con métodos de aprendizaje individualizados para sus estudiantes, tal como lo proponen N. Ferran, M. Pascual, C. Córcoles y J. Minguillón (2007) [30] contemplando sus potencialidades y habilidades personales. Ejemplo de ello La tecnología Classmate Assist emplea la visión por computadora y la proyección de imágenes para guiar a los educandos en la realización de sus tareas de manera autónoma y a su propio ritmo, a la vez que les permite a los docentes seguir el progreso de cada estudiante de manera personalizada.
Dentro de este mismo ámbito se sugiere el uso de la aplicación Mobile Augmented Reality World Browser de la plataforma Atom, pues gracias a un dispositivo con esta tecnología se puede acceder al depósito de información disponible en la red. En síntesis, mirando hacia el futuro, los dispositivos “sensibles al entorno” se podrían anticipar a las necesidades del beneficiario, le brindarán consejos y le guiarán, todo esto a través de un mayor poder de procesamiento, conectividad optimizada y nuevas posibilidades de detección. Ahora parece que entramos en el preludio de una nueva era, la de la Computación Sensible, que se podría enmarcar fácilmente como uno de las muchos adelantos que proseguirán nuestro constante devenir histórico de ahora en adelante.
El constructivismo social En respuesta a todos estos avances tecnológicos y novedades, consecuentes de la realidad mediática actual, la educación en su preocupación constante por adoptar un espíritu crítico investigativo, ha desarrollado en forma paralela estudios en este campo, encontrando que estos ambientes virtuales tienen características y patrones que describen teorías pedagógicas de gran posicionamiento histórico, las cuales de manera consecuente afinando y adaptando sus postulados a las nuevas condiciones del medio, pueden conceptualizar un enfoque solido, que direccione de manera eficaz un proceso contextualizado de aprendizaje, basado en la incorporación y uso de las nuevas tecnologías y la conciencia de las implicaciones del medio virtual en el que se desarrollan. De esta forma el constructivismo social rama derivada del constructivismo basada en las ideas de Vygotsky, reivindica la importancia de la interacción con otros individuos en el proceso de aprendizaje. Concibe al individuo como un ser social y el conocimiento como un producto también social. [48] En este sentido, Martin Dougiamas, el creador de Moodle, es un firme defensor del constructivismo social [45] debido a que este medio como tal, es producto y productor a su vez de múltiples y singulares condiciones, rectificando que: “Si las nuevas tecnologías propician el desarrollo del trabajo colaborativo entre personas de espacios diferentes, también potencian la creación de comunidades virtuales (CV ), las cuales
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 121-131 ¦ 125
Diana Castillejo, Diana Garzón.
deben ser saludables, y por tanto, favorecer la participación de todos los miembros..[43] En esta línea una preocupación esencial del constructivismo social como teoría sociológica del conocimiento, consiste en descubrir las formas en que los grupos e individuos participan en la creación de la realidad social que perciben[49], este modelo explica los efectos de la interacción mediante el concepto de zona de desarrollo próximo (en adelante, ZDP),concluyendo que el núcleo del conocimiento colectivo es mayor que el de cada individuo, pero también que cada persona puede apoyar el desarrollo cognitivo del grupo proporcionando un andamiaje para otros en dominios donde su conocimiento no puede ser aún utilizado de forma autónoma[50] (como se ilustra en la figura 1) [48]. Fig. 1. Núcleo de conocimiento y zona de desarrollo próximo Individuos
Núcleos del conocimiento
Grupos
Zona de desarrollo próximo
Dentro de estas interacciones se producen entonces el aprendizaje colaborativo se viene aplicando en las aulas desde los años 70, aunque la gran mayoría de los estudios teóricos relacionados con este campo datan de los 80 y se refiere a un método instruccional en el que los estudiantes trabajan juntos en pequeños grupos hacia una meta común[41], entonces en vez de competir, han de ayudarse mutuamente, a través de una propuesta de compromiso [39], favoreciéndose con el diálogo, la reflexión sobre las propuestas propias y las de los compañeros[31], en un medio donde se rechaza la observación pasiva, la repetición y la memorización, para promover la confrontación de opiniones, el compartir conocimientos, el liderazgo múltiple y la multidisciplinariedad[32]. Siguiendo esta idea es claro que debido a las ventajas que para los estudiantes acarrea trabajar colaborativamente, el aprendizaje colaborativo soportado por computadora es un método instruccional donde se intenta que la inte-
racción entre los estudiantes, mediada por computadoras, promueva un aprendizaje efectivo [41], pero para que el aprendizaje colaborativo funcione debemos tener en cuenta cinco componentes esenciales: 1. Interdependencia positiva, 2. Exigibilidad personal: 3. Interacción positiva cara a cara, 4. Habilidades interpersonales y de grupo 5. Autoanálisis del grupo (Padilla et al., 2008, 461): [33]. Todos estos requisitos son abordados también por P. Marqué, distinguiendo la importante diferencia entre trabajo en grupo, aprendizaje cooperativo y colaborativo de la siguiente manera: En un trabajo en grupo muchas veces los estudiantes dividen el trabajo en tareas sencillas y cada uno de ellos hace una parte, esta metodología que no ayuda demasiado a la construcción del conocimiento compartido. En el aprendizaje colaborativo existe un trabajo grupal orientado a la adquisición de aprendizajes, se da autonomía e interdependencia positiva ( Johnson y Johnson, 1991). Si el profesor estructura las interacciones entre los alumnos y el reparto de las tareas, lo denomina aprendizaje cooperativo (Dewey, 1938).)[34] en el aprendizaje colaborativo por tanto, no existe un líder, sino que cada uno actúa como líder en la tarea que le ha designado el grupo.[32] en este sentido se centra en el funcionamiento del grupo como un todo interdependiente. [36] y[38] pero se considera que ambas modalidades pueden ser complementarias, por ello, es coherente que el aprendizaje cooperativo preceda al aprendizaje colaborativo ya que éste último exige mayor grado de autonomía y control de su aprendizaje al alumnado. [40] Viendo todas esta serie de consideraciones dentro de este enfoque los rolles comúnmente desarrollados cambian debido a las particularidades del ambiente virtual y tecnológico en que se produce la integración estudiante donde “el Roll del docente es el de experto [48], [37], determinando las formas organizativas que estime más apropiadas, de acuerdo a sus conocimientos y experiencia [47], controlando el proceso de aprendizaje por parte del profesorado mediante Reglas: rígidas, definidas previamente, donde la Productividad: es su fin [45], y teniendo en cuenta que la cantidad de interacciones de los estudiantes entre sí y de éstos con el profesor como uno de los indicadores del proceso colaborativo. [42] Así entonces, Desde una perspectiva social-constructivista la evaluación, auto-evaluación y coevaluación tienen la función del motor en todo el proceso que se
126 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 121-131
Consideraciones tecnológicas y pedagógicas del constructivismo social
está produciendo la construcción de conocimientos. [37] Así concebida, la evaluación del proceso grupal [32] bajo una interdependencia positiva, donde se trataría de asegurar la responsabilidad individual, la co-responsabilidad grupal y la evaluación del contenido[36].Esta misma actitud crítica es la que se ejerce en el proceso de evaluación de las competencias conseguidas en cualquier tarea docente programada. [35]
la nueva sociedad del conocimiento, solo es el producto de una de las características dúctiles del ser humano, su adaptación, dando como resultado que los mismos aspectos que se producen en nuestro interactuar en el mundo no virtual, solo se trasvasen a otro medio para satisfacer las necesidades mediáticas de la evolución tecnológica y de las vanguardias, que pugnan por responder a las necesidades y al entorno cambiante del mundo.
Dentro de esta perspectiva ahora entonces “el Papel Del Estudiante es activo y constructivista al considerarlo procesador activo de la información recibida en vez de receptáculo pasivo de la misma, pero se enfatiza la importancia de la interacción con otros actores del proceso de aprendizaje.[48] exigiendo de los estudiantes poner en juego estrategias y procesos cognitivos superiores, ya que deben evaluar situaciones contextualizadas, tomar decisiones, proponer soluciones, negociar ideas con base en argumentos referenciados en conocimiento y construir la propuesta. [44], [32].
El internet entonces pasa a convertirse en un medio utilizado como espacio social, donde sus características reflejan los aspectos básicos de la humanidad y donde su norte demuestra que el fin viene a ser “el hombre mismo y su satisfacción”, en este sentido esta forma de conocimiento co-construido no es entonces algo novedoso sino que se convierte en el reflejo virtual de una necesidad de la humanidad, “su interactuar con el otro”. Esta misma civilización cognitiva que se abre en un nuevo contexto virtual, refleja al hombre y sus ser social, como una de sus más grandes preocupaciones pos satisfacer a nivel tecnológico lo que manifiesta como de manera cíclica las vanguardias deben ser adaptada a las “nuevas” necesidades del hombre una y otra vez, pero con la constante de satisfacer los mismos propósitos en cíclicamente.
De esta forma, al abordar aspectos de la construcción social del conocimiento de manera conectiva, esta teoría encierra una serie de elementos que atañen al ámbito computacional y al aprendizaje en red, apreciando de manera adicional la necesidad de estar “conectado” y de desarrollar habilidades en donde el simple hecho ya no de poseer cierta información, sino de saber “escoger” la correcta se vuelven cruciales. De manera paralela se valora ahora la importancia y los aspectos positivos del uso de las tecnologías de la información, como una herramienta por medio de la cual se puedan potencializar los conocimientos, dándole mayor grado de relevancia a las conexiones que dan origen al conocimiento mismo, haciéndonos ver en estas y sus variables todo un grado de complejidad que dotan al proceso de cambios inesperados, y que por su valía merecen ser incorporadas como parte clave del modelo pedagógico aquí planteado.
Conclusiones Dentro de todo este contexto tecnológico donde vemos reflejado nuestro aspecto social de manera un poco anecdótica, es posible entender que estas teorías tan antiguas, basadas en reflexiones de la cotidianidad del hombre y su relación con el contexto, son aplicables ahora debido a que
En este enfoque “se han descrito estudios que, partiendo de la creencia de que las TIC mejoran la comunicación entre el alumnado, han confirmado que su uso genera también progresos en su desarrollo académico, social y cognitivo. [40] “pero aunque el potencial educativo de las redes sociales es “prácticamente ilimitado”, las prácticas pedagógicas actuales a menudo no consiguen capturar ese potencial, ya que el legado del modelo de flujo de información en un solo sentido utilizado en muchas aulas ralentiza la innovación”[8] “ en este medio entonces emana una característica social denominada “colaboración” que apoyado por las tic potencia de manera notoria y masificada todas las posibilidades concernientes al proceso de aprendizaje comúnmente conocido y suponen de igual manera la consideración de nuevas habilidades relevantes en esta era digital [9]. Todas estas consideraciones confirman la idea de replantear las concepciones que se habían perpetuado con el paso del tiempo y que con la relatividad del nuevo medio, se ven momentáneas e inestables ante la avalancha de producción de conocimientos que se están generando, entendiendo que “el paradigma que está emergiendo en
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 121-131 ¦ 127
Diana Castillejo, Diana Garzón.
este nuevo siglo es el de aprendizaje en red basado en la interactividad global, el aprendizaje colaborativo y el acceso a las actividades y recursos educativos a lo largo de toda la vida [46] De esta forma el constructivismo social conectivista, agrupa todas las herramientas que las nuevas tecnologías proponen, las encausa para un aprovechamiento colectivo y significativo del conocimiento, a través de un uso exigente y ponderado del potencial conectivo de las redes sociales, enmarcándolos bajo en un análisis crítico de los procesos actuales de co-creación existentes. Siguiendo este enfoque se puede entrever como toda una red, deriva en una serie de condicionamientos para que se produzca un verdadero proceso de construcción de conocimiento, destacando destrezas que ayuden a agilizar y priorizar la información relevante, entendiendo que este tipo de aprendizaje tiene un nivel de complejidad que no debe subvalorarse y que está inmerso en un caos organizado, que a medida que se practica en su entendimiento y potencializacion de sus alcances, eleva a su vez los resultados que se esperan del mismo entorno. Por otro lado la terminología adaptada y asociada a las tecnologías, es entonces la más precisa a la hora de describir lo que acontece en un entorno en red, pero si las analizamos en profundidad, son una clara radiografía de lo que hace un ser humano en su entorno social, entendiendo que lo que cambia es el medio pero el que hace que esta cambie, es quien invoca de manera constante una recreación de sus necesidades y hábitos naturales. Toda esta nueva teoría al estudiarse, se ve como consecuencia de la inserción explicita de las tecnologías en la vida moderna, y por ende en la sociedad del conocimiento, esto nos explica de una manera concreta como los estudiantes actualmente están aprendiendo, como las redes sociales están influenciando en un proceso de co-creacion del conocimiento en ambientes colectivos sean estos virtuales o no; es así como de manera explícita, la idea de llegar a un raciocinio derivado de “estar apoyado en otros” se hace evidente, pero no es algo que muchos desconocieran sino que por el contrario no había sido estudiado desde este punto de vista como un fenómeno recurrente, al poder ser visualizado ahora por un medio tan gráfico y evidente como lo saben exponer las teorías de redes sociales.
Referencias [1] V. Díaz “Mitos Y Realidades De Las Redes Sociales” junio 2011. Revista de ciencias sociales 1 nº 6 – Junio 2011 – Nuevas formas de Relación Social. Sección Temática Universidad Carlos III de Madrid, Departamento de C.C. Políticas y Sociología [2] M. Castells “Internet y la sociedad red”, Conferencia de presentación del Programa de Doctorado sobre la Sociedad de la información y el Conocimiento, Universitat Oberta de Catalunya, 7-10-2000. Extraído el 11 de diciembre de 2011, de in Plastics, 2nd ed. vol. 3, J. Peters, Ed. New York: McGrawHill, 1964, pp. 15–64. [3] A. Blandir y A. Nava. “Las Redes Sociales: Concepción, Bondades Y Limitaciones”. Pág. 177-188. Formación Gerencial, Año 10 Nº 2, Noviembre (2011) ISSN 1690-074X Recibido: octubre 2010 Aprobado: mayo 2011. www.redalyc.org [4] T. Imaña, “Facebook, Tejiendo La Telaraña De Las Redes Sociales”. Razón y Palabra, vol. 13, núm. 1, mayo-junio, 2008. ISSN ( Versión impresa): 16054806 Instituto Tecnológico y de Estudios Superiores de Monterrey México. [5] B. Peña. “El alcance de la educación multimedia: las redes y la transformación social” Publicación en línea. Granada (España). Año IX Número 10. Junio de 2011. ISSN: 1695-324X1http://www.ugr. es/~sevimeco/revistaeticanet/index.htm. Universidad Católica San Antonio, Murcia. [6] F. Santamaría. “Posibilidades pedagógicas. Redes sociales y comunidades educativas”. http://sociedadinforma cion.fundacion.telefonica.com/telos/articulocuaderno. asp@idarticulo%3D7&rev%3D76.htm [7] Solos en un mundo hiperconectado. Publicación en línea. Opiniones de John Cacioppo, director del Centro de Neurociencia Social y Cognitiva en la Universidad de Chicago.Semana.http://www. semana.com/vida-moderna/solos-mundo-hiperco nectado/175904-3.aspx. [8] G. Siemens y M. Weller, “La enseñanza superior y las promesas y los peligros de las redes sociales”
128 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 121-131
Consideraciones tecnológicas y pedagógicas del constructivismo social
RU&SC. Revista de Universidad y Sociedad del Conocimiento, vol. 8, núm. 1, enero, 2011, pp. 157-163 Universitat Oberta de Catalunya Catalunya, España ISSN ( Versión electrónica): 1698-580X. [9] P. Bouchard (2011). «Las promesas de la red y sus implicaciones». En: «El impacto de las redes sociales en la enseñanza y el aprendizaje» [monográfico en línea]. Revista de Universidad y Sociedad del Conocimiento (RUSC). Vol. 8, n.º 1, págs. 272-287. UOC. [10] I. Solano Fernández y P. López Vicent “Integrando el software social en educación infantil y primaria: valoración, orientaciones y propuestas” Ponencia aceptada en Edutec 2007, Universidad de Murcia. España. [11] O. Peláez “Las redes sociales y el software social usados como herramientas de colaboración” Cisco Systems de México En: http://mundocontact.wordpress. com/2011/02/14/las-redes-sociales-y-el-softwaresocial-usados-como-herramientas-de-colaboracion/
española 2011” http://www.informeeespana.es/ docs/softwaresocial_empresas2011.pdf [18] C. Cabezas “Enseñanza de la bibliotecología usando software social” Serie Bibliotecología y Gestión de Información Nº 46, Universidad Tecnológica Metropolitana, Santiago, 2009. [19] USIL-Informatica (2011) “Nueva era:computación ubicua”. En:http://usil-spacecubicua.blogspot. com/2011/03/nueva-era-computacion-ubicua. html [20] C. Challiol, N. Lofeudo, S. Pérez, E. Pérez, S. Robles, L. Fernández y A. Fortie “Computación ubicua y aplicaciones sensibles al contexto”. En: http://itic. uncu.edu.ar/escuelapav/workshops/ingenieria_ de_software/computacionUbicuaYAplicaciones.pdf [21] Computación ubicua y agentes - Universidad de Vigo (España) “Computación sensible”. En: http://computacionubicuayagentes.blogspot. com/2007/05/computacin-sensible.html
[12] Margaix-Arnal, “Software social para bibliotecas”. En: Educación y biblioteca, ISSN 0214-7491, Año nº 19, Nº 161, 2007, pags. 85-89 [Consulta: 23-02-2009]. Disponible en: http://dospuntocero.dmaweb. info/2007/10/16/software-social-para-bibliotecas/
[22] UNIVERSIA (2010) “Computadoras y teléfonos se adelantarán a las necesidades de sus usuarios” En: http://noticias.universia.edu.ve/ciencia-nn-tt/ noticia/2010/09/29/519469/computadoras-telefonosadelantaran-necesidades-usuarios.html
[13] J. A. del Moral (2005) “¿Qué es el software social?”. En: http://blogs.alianzo.com/redesso ciales/2005/08/29/que_es_el_software_social/
[23] NEOMUNDO “Lo que viene: la tecnología será sensible al entorno”. En: http://www.neomundo. com.ar/Ciencia/-que-viene-tecnologia-serasensible-entorno/378/
[14] E. López, y C. Ballesteros “Caminando hacia el software social: una experiencia universitaria con blogs” Pixel-Bit. Revista de Medios y Educación Nº 32 Marzo 2008 pp. 67-82. [15] ICAMP (Innovative, Inclusive, Interactive & Intercultural Learning Campus) “Manual de uso del software social en la educación superior” programa TIC del VI Programa Marco. Information Society Technology, FP6 2008. [16] A. Landeta Etxeberría “Buenas Prácticas de e-learning” PARTE I - Tendencias en materia de E-Learning. Capítulo 9. - E-Learning 2.0. Editorial ANCED, Madrid 2007. [17] Fundación Orange - Grupo France Telecom “Estudio de uso del software social en la empresa
[24] D. I. Tapia Martínez “Arquitectura multiagente para entornos de inteligencia ambiental” Tesis Doctoral, Departamento de Informática y Automática, Facultad de Ciencias, Universidad Pontificia de Salamanca (España), 2009 [25] J. Monteagudo, O. Moreno, J. García y J. Reig “Redes inalámbricas para los nuevos servicios personales de e-salud basados en tecnologías de inteligencia ambiental” Instituto de Salud Carlos III, Área de Investigación en Telemedicina y Sociedad de la Información, España, 2006 [26] J. A. Fraile Nieto “Sistema multiagente sensible al contexto” Tesis Doctoral, Departamento de Informática y Automática, Facultad de Ciencias, Universidad Pontificia de Salamanca (España), 2011
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 121-131 ¦ 129
Diana Castillejo, Diana Garzón.
[27] Computación ubicua y agentes - Universidad de Vigo (España) “Arquitectura EMI2”. En: http://compu tacionubicuayagentes.blogspot.com/2007/05/ emi2-environment-mobile-intelligent.html
valorando el Proceso, el contenido y el producto de la actividad grupa lISSN: 1132-1873. Vol. 20 (2010) 221-241.,. Departamento de Psicopedagogía y Educación Física. Universidad de Alcalá. Madrid, España
[28] Computación ubicua y agentes - Universidad de Vigo (España) “Computación perceptual: nuevos pasos en la personalización de la tecnología”. En: http://www. emb.cl/channelnews/articulo.mvc?xid=1788&tip=11
[37] “Propuesta Metodológica Del Modelo Pedagógico Social- Cognitivo Para Mejorar El Desempeño Profesional De Docentes Que Laboran Con La Asignatura Estudios Sociales Y Cívica En Las Instituciones Educativas Del Nivel Medio De La Ciudad De San Miguel”. Universidad de Oriente. Septiembre De 2004san Miguel, El Salvador (publicación electrónica) http://www.univo.edu.sv:8081/ tesis/013431/013431_Cap2.pdf
[29] C. Dergarabedian “Computadoras y teléfonos sabrán de sus necesidades y le dirán a usted qué debe hacer” En: http://tecnologia.iprofesional.com/ notas/104540-Computadoras-y-telefonos-sabran-desus-necesidades-y-le-diran-a-Ud-que-debe-hacer.html [30] N. Ferran, M. Pascual, C. Córcoles y J. Minguillón “El software social como catalizador de las prácticas y recursos educativos abiertos” Proyecto europeo OLCOS EAC/23/05-AT-002 y proyecto PERSONAL (ONTO) del Ministerio de Educación y Ciencia TIN2006-15107-C02-01, 2007 [31] B. Barros & M.F. Verdejo. Entornos para la realización de actividades de aprendizaje colaborativo a distancia. Departamento de Lenguajes y Sistemas Informáticos (U.N.E.D.). Ciudad Universitaria, s/n - 28040 Madrid. [32] M. l. Carrió. Ventajas del uso de la tecnología en el aprendizaje colaborativo. Universidad Politécnica de Valencia, España. [33] M. O. de Urbina, S. Medina y C. De La Calle. Herramientas Para El Aprendizaje Colaborativo: Una Aplicación Práctica Del Juego De Rol. Universidad Rey Juan Carlos 2010. [34] R. Maenza y N. Fátima. El aprendizaje colaborativo mediatizado como estrategia para el desarrollo de competencias: una experiencia con residentes del profesorado de matemática TESI, 2011, pp. 112-132. [35] C. Prieto, C. Rodríguez, A. Hernández y A. Queiruga. Experiencias docentes de trabajo colaborativo en distintas áreas de ciencias. Universidad de Salamanca 2011. [36] A. Iborra. , M. Izquierdo. ¿Cómo afrontar la evaluación del aprendizaje colaborativo? Una propuesta
[38] M. Juárez, R. Nidia, M. Trigueros. De las prácticas convencionales a los ambientes de aprendizaje colaborativo a distancia. Un estudio con profesores de ciencias de bachillerato desde la Teoría de la actividad. Revista Mexicana de Investigación Educativa ISSN 1405 6666. México 2008. http://redalyc. uaemex.mx/pdf/140/14003903.pdf [39] J.López. Telemática, enseñanza y ambientes virtuales colaborativos. 2000; pp. 191-199.(publicación electrónica) www.revistacomunicar.com/ verpdf.php?numero=14&articulo [40] H. Salmerón, S. rodríguez y C. Gutiérrez. Metodologías que optimizan la comunicación en entornos de aprendizaje virtual. Comunicar, Nº 34, V. XVII, 2010, revista científica de Educomunicación; ISSN: 1134-3478; páginas 163-171granada (España). (publicación electrónica) www.revistacomunicar. com/verpdf.php?numero=34...34-2010-19 [41] R. Costaguta. Una revisión de desarrollos inteligentes para aprendizaje colaborativo soportado por computadora. Departamento de Informática, Facultad de Ciencias Exactas y Tecnologías, Universidad Nacional de Santiago del Estero, Argentina. Revista Ingeniería Informática, edición 13, noviembre de 2006. http://www.inf.udec.cl/revista. [42] A. Badia, C. García. Incorporación de las TIC en la enseñanza y el aprendizaje basados. En la elaboración colaborativa de proyectos.. Revista de Universidad y Sociedad del Conocimiento Vol. 3 - N.º 2 / Octubre de 2006. www.uoc.edu/rusc ISSN 1698580X. redalyc.uaemex.mx/pdf/780/78030211.pdf
130 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 121-131
Consideraciones tecnológicas y pedagógicas del constructivismo social
[43] J. Cabero. M. del C. Llorente. Propuestas de colaboración en educación a distancia y tecnologías para el aprendizaje. (Universidad de Sevilla – España – UE). http://edutec.rediris.es/Revelec2/revelec23/ jcabero/cabero.pdf
[47] R.D. Martínez, E.I. Martin, Y.H. Montero, y M. E. Pedrosa, (2004). Colaboración guiada y ordenadores: alguno. de sus efectos sobre logros en el aprendizaje. RELIEVE:, v.10, n. 1, p. 61-79. http:// www.uv.es/RELIEVE/v10n1/RELIEVEv10n1_4.htm
[44] Cenich, G. y Santos G. (2005). Propuesta de aprendizaje basado en proyectos y trabajo colaborativo: experiencia de un curso en línea. Revista Electrónica de Investigación Educativa. Buenos Aires-Argentina 2005. http://redie.uabc.mx/vol7no2/ contenido-cenich.html.
[48] R. Crespo “Metodología adaptativa. Para procesos colaborativos de evaluación en entornos de aprendizaje.. Tesis doctoral. Departamento de ingeniería telemática. Universidad Carlos III De Madrid. Marzo 2007.
[45] C. Echazarreta; F. Prados, J. Poch, [et al.] (2009). «La competencia “El trabajo colaborativo”: una oportunidad para incorporar las TIC en la didáctica universitaria. Descripción de la experiencia con la plataforma ACME (UdG)». En «Trabajo colaborativo, visiones disciplinarias» [dosier en línea]. UOC Papers. N.º 8. UOC. http://www.uoc.edu/uocpa pers/8/dt/esp/echazarreta_prados_poch_soler.pdf ISSN 1885-1541 [46] G. Montse; R. Teresa; P. mateo, (2007). «Competencias TIC y trabajo en equipo en entornos virtuales» [artículo en línea]. Revista de Universidad y Sociedad del Conocimiento (RUSC). Vol. 4, n.° 1. UOC. [Fecha de consulta: dd/mm/aa]. http://www. uoc.edu/rusc/4/1/dt/esp/guitert_romeu_ perezmateo.pdf issn 1698-580X
[49] A. Fernández. El constructivismo social en la ciencia. y la tecnología: las consecuencias no previstas de la ambivalencia epistemológica. ARBOR Ciencia, Pensamiento y Cultura.2009 pág. 689-703 ISSN: 0210-1963. University of Sussex. (versión electrónica). http:// independent.academia.edu/AnaFernandezZubieta/ Papers/1173682/El_constructivismo_social_en_la_ ciencia_ y_la_tecnologia_las_consecuencias_no_ previstas_de_la_ambivalencia_epistemologica_ The_Constructivist_Approach_in_Science_and_ [50] E. Londoño. Desentrañando la lógica interna del constructivismo social de vigotski. BogotaColombia 2010 (versión electrónica) http://www. pedagogica.edu.co/revistas/ojs/index.php/revis tafba/article/view/451/448
Las Autoras Diana Castillejo Docente del Magisterio. Aracataca-Magdalena. Graduada con honores de Licenciatura en Preescolar de la Universidad del Magdalena, continuo sus estudios gracias a una beca que le otorgo la misma universidad para ser Especialista en Pedagogía Infantil y actualmente es estudiante de la Maestría en Tecnologías de la Información y Comunicación de la Universidad Pedagógica Nacional.
Diana Garzón Docente. Bogotá-Cundinamarca. Licenciada en Educación Básica con énfasis en Ciencias Sociales de la Universidad Pedagógica Nacional y actualmente estudiante de la Maestría en Tecnologías de la Información y Comunicación de la Universidad Pedagógica Nacional.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 121-131 ¦ 131
Análisis de riesgo ocupacional asociado a la presencia de monóxido de carbono mediante un sistema gráfico Occupational risk analysis associated with the presence of carbon monoxide using a graphic system
José Luis Buitrago Buitrago, Möritz Velásquez Riaño.
Resumen
Abstract
l monóxido de carbono es uno de los mayores contaminantes de la atmósfera terrestre. Sus principales fuentes productoras de emisión (aproximadamente el 80%), son los vehículos que funcionan con gasolina o diésel y los procesos industriales. Este trabajo se enfoca en el análisis de riesgo ocupacional para un área de estudio donde se encuentran fuentes fijas y móviles de monóxido de carbono. En este estudio se empleó la técnica de isoconcentraciones con el fin de evidenciar gráficamente la concentración del contaminante, utilizando un detector que opera con tecnología de sensor infrarrojo no dispersivo. Posteriormente, se realizó un cálculo de riesgos (plasmado en un mapa), el cual relaciona la concentración del contaminante con valores límite establecidos por la OSHA y la WHO. Finalmente, se observó un riesgo aceptable con respecto a las concentraciones de monóxido de carbono en el mapa de riesgos, evidenciado por un coeficiente de peligro menor a 1 en toda el área de estudio.
E
arbon monoxide is one of the biggest polluters of the atmosphere. The main sources producing emission (about 80%) are the vehicles that run on gasoline or diesel and industrial processes. This work focuses on the analysis of occupational risk for a study area where they are stationary and mobile sources of carbon monoxide. In this study isoconcentrations technique was used in order to graphically demonstrate the pollutant concentration employing a detector technology that operates with non-dispersive infrared sensor. Then, a calculation of risks (reflected in a map), which relates the concentration of the pollutant limits set by OSHA and WHO was performed. Finally, an acceptable risk was observed for carbon monoxide levels in the risk map, evidenced by a danger coefficient of less than 1 throughout the study area.
C
Keywords: Carbon Monoxide, Risk Analysis, isoconcentration, Risk Map.
Palabras clave: Monóxido de Carbono, Análisis de Riesgo, Isoconcentración, Mapa de Riesgo.
Recibido / Received: Junio 01 de 2014 Aprobado / Aproved: Junio 15 de 2014 Tipo de artículo / Type of paper: Investigación científica y tecnológica terminada. Afiliación Institucional de los autores / Institutional Affiliation of authors: Grupo de Investigación Choc Izone, Facultad de Ingeniería, Programa de Ingeniería Ambiental, Universidad El Bosque. Autor para comunicaciones / Author communications: José Luis Buitrago Buitrago, josebuitrago9031@gmail.com Los autores declaran que no tienen conflicto de interés.
Análisis de riesgo ocupacional asociado a la presencia de monóxido de carbono mediante un sistema gráfico
Introducción El monóxido de carbono (CO) es un gas incoloro e inodoro formado por la combustión incompleta de material orgánico en deficiencia de oxígeno, es un gas ligeramente menos denso que el aire constituido por un átomo de carbono y otro de oxígeno [1]. Las principales fuentes responsables de las emisiones de CO a la atmósfera son la combustión de vehículos que usan combustibles fósiles como gasolina y diésel, los procesos industriales y los incendios forestales [2]. Los riesgos ocupacionales asociados al monóxido de carbono se atribuyen a labores como: conductores de taxi, policías de tráfico, asistentes de estaciones de gasolina, trabajadores de casetas de peaje y bomberos [3], actividades realizadas al aire libre, pero también pueden estar asociadas a exposiciones de trabajadores en hornos o actividades en el interior de empresas. Los efectos sobre la salud son ocasionados por la inhalación de este gas. Dentro del cuerpo, el CO se une al grupo hemo de la hemoglobina desplazando al oxígeno y formando un complejo llamado carboxihemoglobina (COHb); el cual interfiere con el transporte del oxígeno a los tejidos y células, produciendo una hipoxia generalizada [4]. La hemoglobina dispone de cuatro sitios de unión con el oxígeno; una vez el CO se ha unido con la hemoglobina, impide que los otros sitios libres de esta molécula se unan al oxígeno generando una desviación de la curva de disociación oxígeno-hemoglobina hacia la izquierda, esta alteración empeora la condición de hipoxia [5]. También, se ha evidenciado que existe una afinidad del CO con la mioglobina encontrada en el músculo cardiaco y esquelético, y se ha observado que la disociación de la oximioglobina es menor que la de COHb; esta condición puede generar lo que se denomina como “efecto rebote”, debido a que por un retorno tardío del CO liberado desde la mioglobina, puede aumentar los niveles de COHb [6]. El carácter fuertemente ligante del monóxido de carbono le permite unirse a los átomos de hierro de los citocromos, principalmente a los que intervienen en la cadena de la respiración mitocondrial, esto impide el adecuado uso de oxígeno por los tejidos orgánicos, lo cual agrava la condición de hipoxia tisular por déficit de oxígeno [7]. El monóxido de carbono también disminuye la actividad de la enzima arilsulfatasa A, la cual es esencial en el meta-
bolismo de la mielina ya que impide la acumulación y degradación de grupos sulfatides que son neurotóxicos. Esto puede generar una leucoencefalopatia en individuos que presenten una reducción de esta enzima al 10% [8]. A concentraciones menores al 10% de COHb en sangre, podría verse afectado el sistema nervioso central, ya que este sistema es mas sensible a las condiciones de hipoxia que otros sistemas. Se han realizado numerosos estudios del deterioro de la vigilancia la percepción y la realización de tareas delicadas después de la exposición a concentraciones de monóxido de carbono tan bajas que no produjeron signos o síntomas clínicos [9]. El análisis de riesgos es una técnica multidisciplinaria que usa conceptos desarrollados en varias ciencias. Esta técnica tiene varios usos como son identificar y evaluar problemas ambientales y de salud producidos por actividades peligrosas o el manejo de sustancias tóxicas, comparar tecnologías nuevas con las tradicionales para determinar la efectividad de los diferentes controles y técnicas de mitigación diseñadas para reducir los riesgos, localización de instalaciones potencialmente peligrosas y selección de prioridades entre las posibles alternativas de acción para establecer secuencias de ejecución de acciones correctivas y/o elaboración de reglamentos ambientales [10]. Dentro de las metodologías de análisis de riesgos ocupacional más empleadas se encuentra el Método de la Administración de Seguridad y Salud en el Trabajo de los Estados Unidos (OSHA por sus siglas en ingles). En este método, se comparan las concentraciones de los contaminantes con valores límites permisibles de exposición (PELs por sus siglas en inglés). Sin embargo, esta metodología no tiene en cuenta las exposiciones ocupaciones a largo plazo o crónicas, ni correlaciona de una manera directa las concentraciones de los contaminantes ni sus PELs, para establecer el nivel riesgo en un área de estudio. La mayoría de estudios se han centrado en evaluar intoxicaciones agudas (accidentes) por causa de este gas y en Colombia no se encuentra en la literatura reportes sobre estudios a nivel ocupacional. Por lo anterior, este trabajo surge de la necesidad de identificar la presencia de contaminantes como el CO y el riesgo que representa
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 132-138 ¦ 133
José Luis Buitrago Buitrago, Möritz Velásquez Riaño.
para la salud de los trabajadores la exposición a dicho gas dentro de una industria. El presente estudio basado en un sistema gráfico, busca mejorar la aplicación y la eficiencia de los métodos y practicas relacionadas con el manejo de dicho contaminante.
Figura 2. Plano del área de estudio con grilla, realizado con el programa ArcGIS 10.1.
Metodología Área de estudio Se realizó una medición de la planta mediante un odómetro manual (Karson). La zona de estudio cubrió un área de aproximadamente 2228m2 . 6 zonas representativas fueron identificadas así: zona 1 (bodega), zona 2, 3, 4 y 5 (producción), zona 6 (empaque). La planta también fue dividida en 24 puntos de muestreo (Figura 1). Utilizando el programa ArcGIS 10.1 (ESRI) y su herramienta grilla, los puntos anteriores fueron localizados en un plano, cada uno separado por 13 metros, adicionalmente se ubicaron 4 puntos que se utilizaron para trazar un marco al modelo gráfico (Figura 2). Figura 1. Plano base del área de estudio, realizado con el programa ArcGIS 10.1.
Mapa de isoconcentraciones El muestreo y el análisis del CO en cada uno de los 28 puntos de medición fue llevado a cabo cada 15 minutos durante una hora utilizando un medidor infrarojo de CO (BW Gas Alert Extreme). Se transcribieron los datos a una hoja Excel (Microsoft) para calcular el promedio de una hora usando la ecuación 1 [11]: Ecuación (1): Promedio de concentración de CO=
(C
1
∗ T1 ) + (C 2 ∗ T2 ) + (C 3 ∗ T3 ) + (C 4 ∗ T4 ) T1+ 2 +3+ 4
En dónde, C = Concentración de exposición, T = Tiempo de exposición. Luego se trascribieron estos datos en el programa ArcGis, con el fin de ubicar las concentraciones obtenidas en campo en un mapa de isoconcentraciones, utilizando la herramienta de análisis geoestadístico del programa.
Cálculo de riesgo Para el cálculo de riesgo se utilizó la metodología adaptada de Flores y cols. (2012) [12], en la cual a partir de un mapa de isoconcentraciones de la sustancia de interés elaborado con el Sistema ArgGis, se puede obtener un mapa de riesgos. A partir de este mapa, se puede apre134 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 132-138
Análisis de riesgo ocupacional asociado a la presencia de monóxido de carbono mediante un sistema gráfico
ciar gráficamente el Índice o Coeficiente de Peligro, que se define como la relación entre las concentraciones de sustancias químicas obtenidas en los muestreos del aire con respecto a valores límites umbral (ecuación 2), reportados por la OSHA (50 ppm) y la WHO (26 ppm) [13]: Ecuación (2): Cálculo de Riesgos =
mínimos están representados en tonos de color azul, con valores de CP entre 0 y 0,04. Figura 4. Mapa de riesgos con los valores límites permisibles de exposición establecidos para el CO por la OSHA.
Promedio de consentracíon de CO Valor máximo permisible de exposición
Resultados En la Figura 3, se puede apreciar el mapa de isoconcentraciones del monóxido de carbono muestreado durante 1 hora en el área de estudio. La concentración máxima obtenida de CO (7,5 ppm) está representada en color rojo y se evidencia en el punto 1 (zona 6), que corresponde el zona de empaque. En las zonas 3, 5 y 2 (producción) se evidenciaron concentraciones entre 1,73 ppm y 5,61 ppm (representadas en color naranja y amarillo). La zonas de mínima concentración del contaminante (0 ppm) se aprecian en color azul y corresponden a la zona 1 (bodega) y 4 (producción). Figura 3. Mapa de isoconcentraciones de CO en el área de estudio.
El mapa de riesgos obtenido a partir de los valores máximos permisibles establecidos por la WHO (Figura 5), presentó un CP entre 0 y 0,29. Los valores máximos están representados en color rojo (0,22 a 0,29 CP) se ubican en la zona 6 (empaque); los colores amarillo y naranja corresponden a valores de CP entre 0,07 a 0,22 y se evidencian en las zonas 2, 3 y 5 (producción) y hacen referencia a un nivel medio en los valores de CP; finalmente, las zonas representadas en tonos de color azul como la zona 1 (bodega de productos terminados) muestran valores de CP que oscilaron en un rango entre 0 y 0,07. Figura 5. Mapa de riesgos con las directrices establecidos para el CO por la WHO.
Los coeficientes de peligro obtenidos a partir del PEL de OSHA se representan en la Figura 4. Estos valores oscilaron entre 0 y 0,15. El valor máximo está representado en color rojo (0,15) y se observó en la zona 6 (donde también se encuentra la mayor concentración de contaminante, correspondiente a 7,5 ppm). Las zonas en amarillo y naranja corresponden a CP con valores entre 0,04 y 0,11 (zonas de producción 2, 3 y 5) y los valores Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 132-138 ¦ 135
José Luis Buitrago Buitrago, Möritz Velásquez Riaño.
Discusión La razón por la cual se realizó el cálculo de riesgos con la equación 2 en este proyecto, se fundamenta en el hecho de que agencias como la EPA, no han establecido una dosis de referencia o una concentración de referencia para el monóxido de carbono, por eso para el cálculo del coeficiente de peligro se tuvo que trabajar con PELs. También, se asumió que el muestreo de una jornada laboral de 8 horas, hubiera generado resultados muy parecidos a los obtenidos durante las mediciones en una hora, ya que la actividad tanto de las fuentes fijas como de las fuentes móviles de CO, es constante durante toda la jornada laboral.
también, indicaron un riesgo aceptable de exposición del contaminante como en el caso anterior.
En el mapa de isoconcentraciones (Figura 6) aunque se evidencia una concentración baja de monóxido de carbono en toda el área de estudio, se observa una mayor concentración del contaminante en la zona 1, se asume que se debe a un proceso de empaque donde se usa un quemador de plástico, que a su vez, se consideraría como la principal fuente fija de monóxido de carbono en el área de estudio. La dispersión del contaminante que se aprecia en las zonas de producción (2, 3 y 5) está asociada a fuentes móviles del contaminante (montacargas) los cuales funcionan con gas propano y gasolina. Adicionalmente, todos los valores de las concentraciones del contaminante que oscilaron entre 0 y 7,5 ppm, se encuentran dentro del rango establecido por las diferentes organizaciones especializadas en salud ocupacional, como la OSHA y la WHO, quienes han establecido como valores promedio máximos permisibles de exposición para una hora, 50 y 26 ppm, respectivamente.
Las diferencias que se pueden apreciar entre el estudio realizado por Flores y cols. (2012) [12] y el presente trabajo, radican principalmente en que en el primer estudio, se tomaron los datos en exteriores y no al interior de una industria como en el presente trabajo. Además, la medición de los datos de las concentraciones fue diferente, debido que en el trabajo de Flores, se obtuvo esta información mediante la fotointerpretación de imágenes satelitales obtenidas desde Landsat, que pueden generar un sesgo al emplear imágenes donde se representa un área muy amplia en un solo pixel (30 m) y que no puede asociarse con las condiciones reales del terreno, y en el presente trabajo mediante medición directa del CO.
Los coeficientes de peligro (CP) que se observan en el mapa de riesgos de la Figura 7, relacionan las concentraciones de monóxido de carbono muestreadas en los diferentes puntos de la planta con el valor promedio máximo permisible establecido por la OSHA (50 ppm), estos CP oscilaron entre 0 y 0,150, por lo tanto, indican un riesgo aceptable respecto a la exposición a monóxido de carbono, por encontrarse por debajo de 1. En la Figura 8, se observa el mapa de riesgos obtenido a partir de los valores de concentraciones del contaminante sobre el valor promedio máximo permisible establecido por la WHO (26 ppm). Los coeficientes de peligro que se observan en este mapa, estuvieron entre 0 y 0,29, y
Al comparar los mapas de riesgos obtenidos a partir de los valores promedio máximos permisibles establecidos por la OSHA y la WHO, se puede apreciar una leve diferencia en cuanto a los valores de CP, entre los puntos 7 y 8 y entre los puntos 10 y 17; lo que indica claramente que el mapa de riesgos de la Figura 8 obtenido a partir de los valores de la WHO (cuyo valor es casi la mitad del valor establecido por la OSHA) es más sensible en cuanto al cálculo de riesgos.
En Colombia no se ha estudiado ampliamente los análisis de riesgo ocupacional, por lo cual hay una carencia de valores límite umbral orientados a este nivel y se deben utilizar los establecidos por agencias internacionales como la OSHA. Sin embargo, en el presente trabajo, se puede observar que se cumpliría con la resolución 610 de 2010 del Ministerio de Ambiente Vivienda y Desarrollo Territorial [14], en lo que respecta a la concentración de monóxido de carbono en el aire, la cual establece un máximo valor permisible de exposición de CO de 40 mg/ m3 o 35 ppm. Como se mencionó anteriormente, se decidió realizar un muestreo promedio de una hora al considerarse representativo de toda la jornada laboral. Sin embargo, si se tiene en cuenta la directriz de 9 ppm para CO en una jornada de 8 horas establecidas por la WHO, se podría evidenciar un posible riesgo a la salud en el presente estudio, ya que la máxima concentración de CO obtenida
136 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 132-138
Análisis de riesgo ocupacional asociado a la presencia de monóxido de carbono mediante un sistema gráfico
fue de 7,5 ppm (lo que correspondería a un CP de 0,86), valor que estaría llegando al umbral de lo considerado seguro. También, hay que tener en cuenta que las Dosis y Concentraciones de Referencia establecidas por la EPA para la mayoría de contaminantes son mucho menores que los PELs que manejan agencias como la OSHA, lo que afirmaria que con los valores obtenidos podría haber un riesgo ocupacional por la exposición a CO. El uso de la técnica de isoconcentraciones a nivel ocupacional, puede ser una herramienta muy adecuada para orientar recursos y tiempo, ya que la observación directa en un mapa, permite analizar la dispersión del contaminante en un área específica y permite definir los puntos críticos de monitoreo, de esta manera se pueden reducir considerablemente los puntos a muestrear durante una jornada laboral. La metodología presentada en este estudio se podría aplicar a otros contaminantes de interés ocupacional, con el fin de realizar un análisis de riesgo y de esta manera tomar acciones orientadas a prevenir, disminuir o controlar el riesgo que afrontan las personas en su medio de trabajo por la exposición a diversas sustancias tóxicas
Conclusiones En el mapa de isoconcentraciones se puede observar claramente la dispersión del monóxido de carbono en la zona de estudio, identificándose la zona 6 como un área crítica a incluir en un futuro programa de monitoreo. Los Coeficientes de Peligro obtenidos a partir de la metodología planteada en este proyecto se encontraron por debajo de uno, lo que indica que el riesgo por la exposición al monóxido de carbono en la zona de estudio es considerado aceptable.
Bibliografia [1] R. Davies, D. C. Buss and P. A. Routledge, “Monóxido de carbono,” in Manual De Toxicología Básica, E. Mencías and L. M. Mayero, Eds. Madrid: Editorial Diaz de Santos, 2000, pp. 593-595. [2] Téllez, Rodríguez and Fajardo, “Contaminación por monóxido de carbono: un problema de salud ambiental,” Revista De Salud Pública, vol. 8, pp. 108-117, 2006.
[3] ATSDR, “Toxicological profile for carbon monoxide,” Department of Health and Human Services., Atlanta: U.S., 2012. [4] E. K. Medina-Palacios and L. J. Hernández-Florez, “Protocolo de la vigilancia epidemiológica, y ambiental de la intoxicación aguda por monóxido de carbono,” Secretaria Distrital de Salud, Bogotá, 2012. [5] J. Ladrón de Guevara, Moya and V., “Carbono y sus compuestos inorgánicos. en: Toxicología médica: Clínica y laboral.” in Toxicología Médica: Clínica Y Laboral.Anonymous Madrid: Ed. Panamericana, McGraw-Hill, 1995, pp. 204. [6] J. A. Téllez-Mosquera., Aspectos Toxicológicos De La Exposición Ocupacional Y Ambiental Al Monóxido De Carbono. Bogotá, Colombia: Universidad Nacional de Colombia, Facultad de Medicina, 2008. [7] Piantadosi, “Carbon Monoxide Poisoning,” New England Journal of Medicine, vol. 347, pp. 10541055, 2002. [8] Amitai Y, Zlotogorski Z, Golan-Katzav V, Wexler A, Gross D., “Neuropsychological Impairment From Acute Low-Level Exposure to Carbon Monoxide,” JAMA Neurology, vol. 55, 6, pp. 845-848, 1998. [9] OMS and OPS, Criterios De Salud Ambiental 13. Monóxido De Carbono. Washington, DC, 1980. [10] C. E. Peña, D. E. Carter and F. Ayala-Fierro, Toxicologia Ambiental: Evaluación De Riesgos Y Restauración Ambiental. Arizona: EE.UU.: The University of Arizona, 2001. [11] Ministry of Manpower, “A semi-quantitative method to assess occupational exposure to harmul chemicals,” Occupational Safety and Health Division, Singapore, 2005. [12] R. M. Flores-Serrano, J. G. Ramos-Hernández, A. A. Castro-Rodríguez and G. Pérez-Casimiro, “Mapa de riesgo para la salud en un área contaminada con hidrocarburos de méxico,” Instituto de Ingeniería, UNAM., México, 2012.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 132-138 ¦ 137
José Luis Buitrago Buitrago, Möritz Velásquez Riaño.
[13] D. D. MacDonald, C. G. Ingersoll and T. A. Berger, “Development and evaluation of consensus-based sediment quality guidelines for freshwater ecosystems.” Arch. Environ. Contam. Toxicol., vol. 39, pp. 20-31, July, 2000. [14] Ministerio de Ambiente, Vivienda y Desarrollo Sostenible, “Resolución 0610,” Diario Oficial, Bogotá, 2010.
Los Autores Möritz Velásquez Riaño Ocupación actual: Profesor Asociado, Facultad de Ingeniería, Programa de Ingeniería Ambiental, Universidad el Bosque. Amplia experiencia como docente e investigador en las áreas de salud y medio ambiente, biología celular y molecular, microbiología general y ambiental, biotecnología ambiental y microbiología de alimentos. He participado en el diseño curricular de programas como Biotecnología y de líneas de énfasis en Microbiología de Alimentos. En la parte administrativa he sido Director de la Unidad para el Desarrollo de la Ciencia y la Investigación. En el sector privado he trabajado en el área de farmacovigilancia y como asesor en la implementación de la Norma ISO 17025. Soy revisor de la revista inglesa Water Science and Technology desde el 2008 y he participado como revisor del Congreso Mundial del Agua de Montreal (Canadá) en 2010 y en Busan (Corea del Sur) en 2012. José Luis Buitrago Buitrago Ingeniero Ambiental de la Universidad El Bosque, correo: josebuitrago9031@gmail.com, en el 2014 apoyando el área de Seguridad Industrial y Control Ambiental para una multinacional de productos de consumo, realizando medición, control y manejo de contaminantes ambientales. Pregrado: Universidad el Bosque de Colombia. Carrera de Ingeniería Ambiental.
138 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 132-138
Reseña / Critical Essay Segunda generación planificación y gestión territorial, como instrumento operativo para la toma de decisiones postconflicto en los PDM y POT Second generation planning and land management operating as instrument for post-conflict decision-making in PDM and POT
Ernesto Villegas Rodríguez.
Introducción Hablar de la “SEGUNDA GENERACIÓN”, en los Planes de Desarrollo (PD) y obviamente en los procesos de reestructuración de los Planes de Ordenamiento Territorial conocidos como los POTs de énfasis municipal; requieren de cambios de pensamiento, tanto para los administradores públicos como para los asesores o consultores y sociedad en general. La Segunda Generación de planes, consiste en el proceso de reconstrucción del nuevo pensamiento de producir los objetivos precisos en el territorio y su administración en la armonización de las distintas políticas públicas, que se han implementado a lo largo de la construcción de los PD y d elos POT desde la promulgación de la misma Ley (Ley 152/94 y Ley 388/97) en los diferentes contextos de la geografía colombiana. Los procesos de ocupación en el territorio, sus vínculos espaciales, los procesos productivos jalonados por el Plan de Desarrollo Nacional, precisamente por la denominada locomotora de la minería, que no precisamente está diseñada para un periodo de cuatro años, sino involucra el plan de vida de las entidades territoriales conocidas como municipios, por periodos que involucran distintas etapas como la exploratoria, de explotación, por empresas a las cuales se les han asignadas grandes territorios los cuales en el corto plazo son de su propiedad,
pero que inciden directamente en las políticas públicas de las entidades territoriales en las modificaciones de los usos de los suelos y directamente a sus comunidades las cuales han tenido que trasladarse a otros territorios . Sin embargo, la Segunda Generación, implica tanto para las administraciones públicas como para la sociedad en general, tener el conocimiento y de sus implicaciones de la puesta en marcha de los conocidos instrumentos de planificación, tanto propuestos por la constitución del 91 y ratificados por las distintas políticas públicas entendidas y conocidas como las leyes, decretos ordenanzas y acuerdos.
“El municipio es la entidad territorial fundamental de la división político administrativa del Estado, con autonomía política, fiscal y administrativa dentro de los límites que lo señalen la Constitución y la ley y cuya finalidad es el bienestar general y el mejoramiento de la calidad de vida de la población en su respectivo territorio”. [1] Ley estatutaria de los mecanismos de participación del pueblo regula la iniciativa popular legislativa y normativa; el referendo; la consulta popular, del orden nacional, departamental, distrital, municipal y local; la revocatoria del mandato; el plebiscito y el cabildo abierto. Establece las normas fundamentales por las que se regirá la participación democrática de las organizaciones civiles. [2]
Ernesto Villegas Rodríguez.
Dichas promulgaciones como precedentes nacionales, las cuales los municipios fortalecen sus procesos de descentralización y autonomía, se demuestra que desde los Planes de Desarrollo y los Planes de Ordenamiento Territorial no cuentan con los suficientes instrumentos que llevan al planteamiento de la integralidad, sostenibilidad, asociatividad, autonomía entre otras, al no lograr cumplirse por la gran dependencia de las entidades locales con el gobierno central. Por lo tanto, este artículo, cuyo título esta direccionado al fortalecimiento de la autonomía, descentralización y participación, teniendo en cuenta las características que deben ser diseñadas a través de los Planes de Desarrollo y los Planes de Ordenamiento Territorial y entre ellos estructurasen las condiciones para la armonización territorial, obligatoria en tiempos que equivalgan a las directrices planteadas en el mismo Plan Nacional de Desarrollo, como por ejemplo las Locomotoras del Desarrollo; entre ellas, las de hidrocarburos, minería, agricultura y vivienda, que están directamente involucrando las áreas rurales de las entidades municipales y de manera autoritaria los preceptos de autonomía, descentralización y participación, los cuales ciertas estructuras no son vinculantes en las etapas de diagnóstico, formulación e implementación tanto de los Planes de Desarrollo como de la visión prospectiva de los Planes de Ordenamiento Territorial. La armonización territorial entre las distintas entidades territoriales tanto departamentales como municipales nos acercan para hablar de región en Colombia, equivalente cuando queremos dirigirnos a territorio específicos como es el departamento, esto ha llevado al mismo gobierno, medios de comunicación y comunidad en general a desvirtuar el verdadero concepto de región, la cual, involucra procesos administrativos y de participación más integrales, como es el caso de la planificación y la gestión territorial al entenderse la participación de las distintas Dimensiones de Desarrollo (DD), que para su comprensión más integral del desarrollo y el crecimiento se involucran en el análisis lo ambiental, social, económica, cultural, administrativa y territorial. Si vemos, la fragilidad municipal que dificulta la interrelación con la planificación estatal, la gobernabilidad y la gobernanza territorial no se armoniza con cabalidad con la base social, económica y ambiental, los cuales son algunos de los ingredientes o desafíos para la planifica-
ción y la gestión territorial. Lo cual, la gestión territorial gravita en torno a tres fundamentos: Política de Estado; mecanismos de planificación y los mecanismos para proyectar espacialmente las políticas públicas; las cuales después de dos décadas, no se ha visto un verdadero engranaje en desarrollo y crecimiento territorial. Ahora bien, que podemos después de cincuenta años de conflicto armando, determinar los alcances de los PD y POT a las directrices impartidas por el gobierno central a través del Plan Nacional de Desarrollo 2010 - 2014, armonizar directamente el tema de Postconflicto a través de nuevas instancias como los Comités de Integración Territorial, [3] las Unidad Administrativa Especial para la Consolidación Territorial; con el propósito de cumplir con los objetivos de la Política de Consolidación del Plan Nacional de Consolidación territorial que permita el fortalecimiento de las mismas instituciones tanto públicas como privadas en la inclusión de las políticas que serán objeto de implementación tanto en las instancias departamentales como municipales . [4]
Planes de desarrollo y ordenamiento territorial. En postconflicto Es importante incurrir en la nueva organización del Estado, tanto en lo político y administrativo, con participación activa de la sociedad involucrada que han padecido el conflicto o participado en él; abordar los fenómenos del postconflicto a partir de una estrategia que se proponga y deberá ser la más acertada para crear oportunidades para reintegrar a la sociedad a quienes lo han padecido. El fortalecimiento de la democracia y las oportunidades que se brinden a través de las entidades territoriales que han estado involucradas durante más de cincuenta años, son las llamadas a desarrollar las políticas de Estado, que deberán estar orientadas al postconflicto que indudablemente tendrán incidencia directa en la visión a corto, mediano y largo plazo en la formulación de la visión de los Planes de Desarrollo Municipal en las determinantes en la reglamentación y adecuación de los usos del suelo a través de en los Planes de Ordenamiento Territorial. Es así que la reconciliación entre la sociedad reviste incuestionable importancia en una nueva visión dado el momento por el cual pasa Colombia, cuando se requiere
140 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 139-142
Reseña / Critical Essay
insistir en la posibilidad de avanzar hacia un reencuentro histórico entre los colombianos, que impida la agudización del conflicto armado y la profundización de la crisis social, después que se llegase a las firmas entre las partes involucradas en la negociación del conflicto. Ciertamente, la reforma de la Administración pública, con irremediables consecuencias para la planificación territorial, estará pendiente de la propia reformulación del Estado, visto tanto en lo político-administrativo en la división territorial de las actuales entidades; lo que fue esperado por la promulgación de la constitución del 91, que de alguna manera no se ha logrado consolidar a través de las distintas políticas públicas, como también entre ella la recientemente aprobada Ley Orgánica de Ordenamiento Territorial 1454 de 2011 denominada LOOT. Sin embargo, se pretenden adoptar medidas (políticas) de carácter administrativo, como son la hipotética fusión de los municipios y la probable redefinición de las competencias municipales, departamentales, provinciales, sin previamente abordar la ineludible reforma del Estado actual, perfilado de acuerdo con la Constitución de 1991. Por lo tanto, la noción de gobernanza y gobernabilidad replanteará ir más allá de la visión del buen gobierno, baluarte del Plan Nacional de Desarrollo 2010-2014 (prosperidad ´para todos), en términos de administración del Estado y participación ciudadana, es tratar de superar las limitaciones de la gestión efectiva de la política pública, al seguir manteniendo los mecanismos tradicionales de la política. Fundamentalmente, la Segunda Generación para la elaboración de los Planes de Desarrollo como los Planes de Ordenamiento territorial, en términos de visualizar desde la planificación y la gestión territorial, para la toma de decisiones postconflicto, teniendo en cuenta la incorporación desde el análisis de la Dimensión Social, la incorporación de nuevos sectores de la población; jóvenes, desmovilizados, campesinos empobrecidos o habitantes de regiones excluidas de los procesos de desarrollo económico), de igual forma políticas públicas que actúen sobre factores que puedan incidir directa o indirectamente en el conflicto como las políticas de tierras, de desarrollo rural o de control de cultivos de uso ilícito; en salud, educación, atención psicosocial, formación para el trabajo, inserción económica y asistencia jurídica. Lo anterior, incide en los Planes de Desarrollo y en espacial los Planes de Ordenamiento Territorial (POT), como
visualización para que municipios y departamentos en compañía con el gobierno nacional, viertan su atención a los intereses políticos, ventajas y desventajas que representan los POT en su perfil de las Dimensiones de Desarrollo social, económico, ambiental, administrativo, cultural y territorial, en la manera en que afectaría las arcas municipales. Además, se debe tener una mirada sico-espaciales, así como a los Lazos de identidad transmunicipal o departamental, que más tarde puedan tener injerencia en una nueva delimitación municipal o departamental, según lo determine el reordenamiento político-administrativo de Colombia, teniendo su mirada en la Ley de Orgánica de Ordenamiento Territorial (Ley 1454 de 2011) Dicha Ley abre los espacios de organización territorial para que el país cuente con unas instancias intermedias flexibles de administración y planificación territorial que atiendan la diversidad y dinámicas de cambio territorial, sin necesariamente recurrir a la creación de entidades territoriales. La ley ha sido concebida atendiendo la necesidad de modificar a la rigidez de la división político-administrativa actual para facilitar la gobernabilidad territorial del Estado; promueve la construcción de una visión de país con enfoque integral de desarrollo a largo plazo para la paz y la convivencia. En el año 2000 se crean los Comités de Integración Territorial (CIT), adicional a la Ley 388 de 1997, por medio de la Ley 614 de septiembre 18; cuyo objeto central es el de establecer los mecanismos de integración, coordinación y armonización de las diferentes entidades en materia de ordenamiento territorial para la implementación del ordenamiento territorial.
“Comités de Integración Territorial. Los Comités de Integración Territorial son cuerpos colegiados en los cuales las autoridades competentes concertarán lo referente a la implementación de los planes de ordenamiento territorial y a la presentación de la visión estratégica de desarrollo futuro del área de influencia territorial; así mismo serán escenarios de participación comunitaria en los términos previstos en el artículo 4° de la Ley 388 de 1997”. Igualmente, la ley reconoce el área de influencia, conformado por la capital de departamento o municipio principal y municipios circunvecinos, en los cuales se presenten hechos que hagan indispensable la implementación conjunta de los planes de ordenamiento territorial,
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 139-142 ¦ 141
Ernesto Villegas Rodríguez.
el área de influencia, deberá hacerse en consenso entre los municipios que cumplan con las características para su conformación como fenómenos de conurbación, relaciones estrechas en el uso del suelo o relaciones estrechas en la prestación de servicios públicos entre otros. Finalmente, el Decreto Número 4161 de 2011 del 3 de noviembre, [5] como resultado de la revisión estratégica del Plan Nacional de Desarrollo 2010-2014.Se consolida el Plan Nacional de Consolidación Territorial.
“El Plan Nacional de Consolidación Territorial es un proceso coordinado, progresivo e irreversible, por medio del cual se busca afianzar la articulación de los esfuerzos estatales para garantizar de manera sostenible un ambiente de seguridad y paz que permita el fortalecimiento de las instituciones democráticas, en beneficio del libre ejercicio de los derechos ciudadanos y de la generación de condiciones para su desarrollo humano”. [6] Como resultado del Plan Nacional de Consolidación, se establecieron acuerdos interinstitucionales en la incorporación de los temas prioritarios de la agenda Gubernamental, y se definieron estrategias y planes de acción sectorial para la creación de la Política Nacional de Consolidación y Reconstrucción Territorial (PNCRT). Lo cual se requiere de una entidad con capacidad técnica e institucional, que coordine y movilice la institucionalidad estatal, el sector privado y la cooperación internacional, sí como ejecute recursos de inversión a nivel regional afectadas por la violencia. El compromiso de las entidades municipales y departamentales son incluyentes en el manejo del ordenamiento y consolidación de los Planes de Desarrollo como de su Ordenamiento Territorial, manejando las instancias de
las políticas públicas enmarcadas en los distintos Planes de Acción, como resultado del proceso institucional en el manejo del Postconflicto. Son cuatro normas e instrumentos de planificación y de gestión territorial que consolidan el marco legal, con el fin de visualizar de forma integral la armonización e integración territorial a través de los Planes de Desarrollo y ordenamiento Territorial.
Referencias [1] LEY 136 de 1994, (junio 2), Principios Generales sobre la Organización y el Funcionamiento de los Municipios. [2] Ley 134 de 1994 (mayo 31), Por la cual se dictan normas sobre mecanismos de Participación Ciudadana. [3] Ley 614 de 2000 (septiembre) por medio de la cual se adiciona a la Ley 388 de 1997 y se crean los Comités de Integración Territorial para la adopción de los planes de ordenamiento territorial. [4] Decreto Número 4161 de 2011 (3 de noviembre), Por el cual se crea la Unidad Administrativa Especial para la Consolidación Territorial y se determinan sus objetivos, estructura y funciones. [5] Ley Número 1444 (4 de mayo), por medio de la cual se escinden unos ministerios, se otorgan precisas facultades extraordinarias al presidente de la República para modificar la estructura de la administración pública y la planta de personal de la Fiscalía General de la Nación y se dictan otras disposiciones. [6] Plan Nacional de Consolidación Territorial (20 de marzo de 2009).
El Autor Ernesto Villegas Rodríguez Arquitecto de la Universidad de América, (1984), Especialista en Planificación y Administración del Desarrollo Regional (CIDER Universidad de los Andes 1991) con estudios de Especialización y Maestría en Manejo Integral de Cuencas Hidrográficas (MICH), de la Universidad Nacional de La Plata Argentina Facultad de Ciencias Agrícolas y Forestales (2009). Docente Investigador Universitario El Bosque, Facultad de Ingeniería, Programa de Ingeniería Ambiental, grupo de Investigación CHOC-IZONE.
142 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 139-142
Números anteriores Lista de títulos de artículos publicados, organizados cronológicamente en orden de aparición en cada número de la revista del año anterior 2012.
Volumen 11 No. 1 enero- junio 2012 Una metodología para la gestión de proyectos de auditoría informática bajo el enfoque PMI Sara María Romero Selección de servidor base para el manejo de streaming de audio y video en tiempo real Nidya Aidé Monroy Rodríguez, Deivy Arley Torres, Alejandro García Sistema integrado de logística del mantenimiento de equipos biomédicos para la Clínica El Bosque Andrés David Copete Palacios, Liceth Lobo Moreno Aplicación de la programación multiobjetivo en la optimización del tráfico generado por un IDS/IPS Carlos Arturo Castillo Medina
Volumen 11 No. Especial septiembre 2012 El rincón del profesor: Semblanza de un profesor de ingeniería Rubén Darío Tamayo Ramírez Presente y futuro de la investigación en la Facultad de Ingeniería de la Universidad El Bosque Mario Opazo Gutiérrez Una organización para la investigación en ingeniería en la Universidad El Bosque Juan Felipe García-Peña - Orlando López-Cruz Caproc software para propiedad horizontal On-Line Davide Marangoni - Adolfo Reyes - Alejandro León Estados del arte en Colombia: centralización de la información - Germán Gonzalo Vargas Sánchez Paola Ángela Parrado Castro - Edgar Alfonso Clavijo Duarte Efectos e impactos ambientales generados por el desbordamiento del Río Bogotá en los territorios de su área de influencia - cuenca alta media y baja Mario Opazo Gutiérrez Aportes del grupo de investigación en innovación tecnológica y productividad- Gintecpro- de la Universidad El Bosque Paloma Martínez - Carolina Montoya - Nubia Patarroyo
Competencias: herramienta clave en la formación profesional de los ingenieros industriales para su inserción en el mercado laboral Nubia Patarroyo - Laura Marcela García - Ana María Sierra Paloma. Martínez - Carolina Montoya Rodríguez. El diseño ecológico aplicado al caso de un empaque de gomas de mascar Paloma Martínez- Laura Galán - Leonardo Jaime - Cristian Silva - Carolina Montoya - Nubia Patarroyo. Bioingeniería: mucho más que una novedosa opción profesional Juan M. Escobar.
Volumen 11 No. 2 julio - diciembre 2012 Estado de la Articulación entre el Sistema de Gestión de Calidad ISO 9001:2008 y el Sistema Logístico. Estudio de Casos de Empresas en Bogotá. John Henry Ávila Bohórquez, Pablo César Ocampo Vélez, Arturo Rojas Rincón. Contabilidad de huella hídrica en la fase de cultivo y pos-cosecha en papa, Solanum tuberosum L., variedad Pastusa Suprema. Estudios de caso: municipios de Carmen de Carupa y Tausa, Cundinamarca. Carlos Quintero Murillo, Miguel Benavides Unigarro, Yury Guzmán Rodríguez. Historia Clínica: un sistema de información funcional y usable en unidades de cuidado intensivo Alejandro León Mora, Vanessa Carolina Gutiérrez Mendoza, Daniel F. Reyes Meneses. Nadie sabe para quién trabaja: un acercamiento a la sabiduría popular desde el modelo de la incertidumbre Jaime Alberto Montaña. Calidad Biológica de las Aguas Superficiales de la Parte Baja de la Cuenca del Río Bogotá: Subcuenca del Río Apulo Arturo Liévano. Propuesta para el diseño de un dispositivo que reduzca el riesgo de muerte en lactantes de 3 a 6 meses de edad por el síndrome de muerte súbita infantil (SMSL) en Bogotá Mónica Ariza Cuesto, Katherine Gutiérrez Triana, Paloma Martínez Sánchez.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 143-152 ¦ 143
Números anteriores
Plan de desarrollo 2012 – 2016 Reseña del documento original elaborada por Ernesto Villegas Rodríguez.
Volumen 12 No. 1 enero - junio 2013 The Future of Manufacturing in Resource-rich Economies: How mining could generate jobs and competitiveness beyond extraction of ore Gunter Pauli. Ahorro y uso responsable del agua en el sistema institucional de gestión ambiental SAURA en la Universidad El Bosque Jaime Alberto Romero-Infante, Rafael André Moré-Jaramillo, Luz Ángela Luna-Castillo. Metodología integral para la valoración social y económica del humedal Santa María del Lago Yolanda Díaz Lozano, Maribel Pinilla Rivera. Las redes sociales como herramienta para la educación ambiental Viviana Osorno Acosta. El video: herramienta de asimilación de contenidos en el aula de clase Eilen Lorena Pérez Montero. Resiliencia, un método dinámico en la ingeniería industrial - clúster plásticos Carlos Gabriel Correa Chaparro, Laura Juliana Vega Marín. Arte rupestre muisca, cultura e ingenio humano Mónica Sofía Rico Ramírez. Evaluación de la contaminación por vertimiento de mercurio en la zona minera, Pacarní - San Luis departamento del Huila García Gómez Angela Goretty.
Rincón del profesor Fabio Tellez Voces Jóvenes Mateo Ledesma Bohorquez A national experience in training teachers: Scratch and Robotics in Uruguay Inés Friss de Kereki, André Fonseca de Oliveira Learning & Study Strategies from a Public University in the North of México Kutugata, A. & Araiza, M.J. Implicaciones pedagógicas del uso de las TICs en la educación superior Alicia García Bejarano, Janeth Angarita, Cristian Velandia Rúbrica de evaluación de competencias profesionales para un curso de Logística, en programas de Ingeniería Martha Ruth Mendoza Torres Efectividad del uso de la plataforma virtual en el proceso de enseñanza y aprendizaje en la Universidad del Magdalena Mónica Luz Pérez Cervantes, Anuar Francisco Saker Barros Integrando Moodle, OpenSim y GBL para fomentar el aprendizaje significativo Guiovanna P. Sabogal, Nydia A. Monroy, Fernando H. Valencia, Germán R. Navarrete, Mónica Uribe Aportes de la ingeniería a la salud y la calidad de vida: una revisión Kenneth Ochoa Reseña Ernesto Villegas Rodríguez
Volumen 12 No. 2 julio - diciembre 2013
Learning and adaptation as conservation practices in resilient traditional socio-ecological systems: The Elder Brothers of Sierra Nevada de Santa Marta Francisco Felipe Gelves Gómez.
Editorial La función biótica de los sistemas productivos humanos Ing. Jaime Alberto Romero
Funciones de valor para construir un indice de sostenibilidad para la evaluación de áreas naturales con uso turístico Luis Fernando Gutiérrez-Fernández
Rincón del profesor / Teacher corner Anécdotas de vida de un Ingeniero de sistemas-Docente Hernando Camargo Mila
Volumen 12 No. Especial mayo - octubre de 2013 Editorial Ing. Jaime Alberto Romero
Estándares y metodologías: Instrumentos esenciales para la aplicación de la dirección de proyectos Maricela I. Montes-Guerra, Faustino N. Gimena Ramos, H. Mauricio Díez-Silva
144 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 143-152
Números anteriores
Integrated farming system for the foothill-regions of Colombia – Ariporo System (A.S.) Forero Buitrago Gonzalo Alberto
Diseño de un sistema de accionamiento para motor trifásico Julián Andrés Gómez, Roberto William Muñoz
Electro-myographic patterns of sub-vocal Speech: Records and classification Luis Enrique Mendoza, Jesús Peña Rodríguez, Jairo Lenin Ramón Valencia
Evaluación del clasificador Naïve Bayes como herramienta de diagnóstico en Unidades de Cuidado Intensivo Javier A. Chaparro, Beatriz Giraldo, Susana Rodón
Cálculo diferencial: aprendiendo con nuevas tecnologías Guiovanna Sabogal, Nidya Monroy, José Luis Landero Pinzón, Yeison Ramiro Molina Vega Movilidad sostenible en Bogotá D.C. – caso metro Bogotá Rafael Andrés Moré Jaramillo, Matthieu Giret Calidad Biológica de las Aguas Superficiales de la cuenca del Río Apulo* Arturo Liévano-León Cuantificación de azúcares reductores en las cáscaras de naranja y banano William Giovanni Cortes Ortiz, José Francisco Ibla Gordillo, Lina María Calderón Velásquez, Andrés Felipe Herrera Bueno et Altri.
Diseño de una estrategia de control que involucre los actores de la cadena productiva de medicamentos a partir de la identificación y análisis de riesgos generados por el manejo inadecuado de los desechos en la localidad de Usaquén Pilar Bejarano Bejarano, Paola Andrea Medina Chaux State-of-the-Art of Audio Perceptual Compression Systems Marcelo Herrera Martínez, Ana María Guzmán Palacios Metodologías ágiles en el desarrollo de aplicaciones para dispositivos móviles. Estado actual Yohn Daniel Amaya Balaguera
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 143-152 ¦ 145
Indicaciones para autores / Instructions to authors a Revista de Tecnología - Journal of Technology es una publicación periódica semestral, editada por la Universidad El Bosque cuyo objetivo y alcance está declarado al comienzo de cada ejemplar. Está abierta en forma permanente a recibir todos los documentos que sean postulados para publicación, no obstante serán impresos aquellos que el Comité Editorial considere que contribuyan a la divulgación del conocimiento y a la discusión en el contexto científico de los trabajos de investigación de las distintas disciplinas de la Ingeniería. Se privilegia la publicación de artículos que correspondan al informe de resultados de investigaciones terminadas, que en el ámbito general de la academia se conocen como “artículos originales” en términos de la tipología del IBN Publindex (Colciencias) se privilegian los siguientes tres (3) tipos de artículos en la tipología del IBN Publindex (Colciencias): Tipo 1. Artículo de investigación científica y tecnológica, Tipo 2. Artículo de reflexión y Tipo 3. Artículo de revisión.
L
Para garantizar razonablemente los objetivos de calidad científica inherentes a esta publicación, cada documento es sometido a la revisión por parte de pares evaluadores o árbitros asignados por el Comité Editorial. Los pares evaluadores o árbitros enviarán al Comité Editorial un concepto sobre el documento siguiendo las pautas establecidas por la Revista. Con la postulación del artículo para publicación en la Revista de Tecnología - Journal of Technology, se entiende implícita la autorización de los autores para la eventual publicación del mismo en formato electrónico y su almacenamiento en medios propios de la publicación o de cualquier otro editor. El Comité Editorial se reserva el derecho de última instancia de publicar documentos recibidos. No obstante, su publicación no significa que el editor-en-jefe, el comité editorial, la Facultad de Ingeniería o la Universidad El Bosque estén de acuerdo con su contenido. La responsabilidad del contenido de los documentos publicados y los efectos que se deriven de sus contenidos recaen exclusivamente sobre los autores. Los autores garantizan que los contenidos respetan los principios de propiedad
intelectual, específicamente los derechos de autor y que no ha sido publicado total o parcialmente en ningún otro medio. Además, los autores garantizan que han obtenido autorizaciones y permisos de los titulares del material que no es de su propiedad. Se aceptan artículos en cualquier idioma, especialmente castellano o inglés. Los documentos deben seguir las directrices IEEE Citation Reference del Institute for Electrical and Electronics Engineers - IEEE. Puede ser utilizado como plantilla el archivo trans-jour.doc que puede ser obtenido en www.ieee.org. Una impresión del contenido de trans-jour.doc está impreso en este número. Además de cumplir con las exigencias del formato para el artículo, se solicita seguir las siguientes recomendaciones: • Cuando tenga listo el artículo conforme al formato
antes referido, prepare un mensaje por correo electrónico en el que el asunto señale “Artículo para publicar y envíelo a revistatecnologia@ unbosque.edu.co. • Al envío por correo electrónico, también anexe
un archivo por cada figura y tabla (en el formato del programa con el que fueron elaboradas) que aparezca en el artículo. El conjunto de archivos debe estar conformado por el texto del artículo con todas sus partes y un archivo por cada figura y tabla en el formato original en el que fueron obtenidas. Un archivo (o carpeta) comprimido con el conjunto total de los archivos puede ser recibido en algunos formatos. • Asegúrese de que todas las figuras y tablas que
aparecen dentro del artículo estén debidamente identificadas (rotuladas) y referenciadas en el texto. • Asegúrese de que el artículo no tiene notas a pie de
página. En caso de aparecer notas a pie de página, el Comité Editorial evaluará su pertinencia y que estén ajustadas a la cantidad estrictamente necesaria. • Las figuras y las imágenes deben respetar los prin-
cipios de propiedad intelectual, especialmente los relacionados con los derechos de autor de
146 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 143-152
Indicaciones para autores / Instructions to authors
imágenes y fuentes de datos. Las imágenes que no son de propiedad del (los) autor(es) del artículo, deberán estar acompañadas de su respectiva fuente (rindiendo los créditos) y contar con el permiso de utilización de la misma.
que será colocada a la izquierda de los datos biográficos. El tamaño final de impresión de la fotografía de un autor es 2,54cm de ancho por 3,18 cm de largo. Los autores deben señalar explícitamente que no se encuentran en conflicto de interés.
• Las tablas e imágenes deben ser remitidas sólo en
El envío del artículo no obliga a la Revista de Tecnología – Journal of Technolog y ni la compromete a su publicación. El Comité Editorial informará a los autores dentro del término de tres (3) meses desde la recepción de su artículo, si el documento fue aceptado para publicación. No obstante lo anterior, los autores aceptan que este término puede ser variado sin previo aviso.
blanco y negro (escala de grises), esto incluye las fotografías de los autores. Las tablas e imágenes que exijan la utilización de color, serán evaluadas por el Comité Editorial. En todo caso, al enviar un texto a la Revista de Tecnología – Journal of Technolog y, el autor concede la autoridad al Comité Editorial para evaluar la utilización de la policromía y, en caso de que decida que no es necesaria, autoriza los cambios sobre las mismas sin perjuicio de los resultados. El (los) autor(es) debe(n) acompañar sus archivos con una carta de presentación y cesión de derechos de autor (un formato aparece impreso en este número) con el título del artículo, propuesta de clasificación del artículo según la tipología del IBN- Publindex (Colciencias), indicar el acceso al registro CvLAC de cada uno de los autores (caso en el que los autores estén en Colombia) y declaración de no haber publicado o estar considerando publicar este artículo en otra revista. El(los) autor(es) que no dispone(n) de registro CvLAC deben incluir los siguientes datos: Nombre(s), apellido(s), fecha de nacimiento, nacionalidad, país de nacimiento, tipo de documento de identidad, número de documento de identidad, dirección de correo electrónico, filiación institucional (organización a la cual se encuentra vinculado), nivel de formación académica (postdoctorado, doctorado, maestría, especialización, profesional) y área de formación académica (detallando estudios de pregrado y postgrado), declaración sobre si ha recibido financiación para la realización del trabajo, dirección geográfica (incluyendo ciudad, región, país, código postal), correo electrónico de contacto y una fotografía en blanco y negro
El Comité Editorial se reserva el derecho de indicar al (los) autor(es) postulante las modificaciones que deban ser introducidas al documento con el fin de que el documento cumpla con las características de calidad de la publicación. Las referencias bibliográficas deben efectuarse siguiendo las directrices IEEE Citation Reference del Institute for Electrical and Electronics Engineers – IEEE. Entre otras consideraciones, el(los) autor(es) debe(n) numerar las citaciones consecutivamente entre corchetes (paréntesis cuadrados) empezando en uno [1]. Dentro del texto del artículo, la puntuación de la frase se fija después de los corchetes. Las referencias múltiples [2], [4] se numeran con corchetes separados por coma si no son consecutivas (la referencia 2 y la 4), o separados con guión si son consecutivas [2]-[4] (las referencias desde la 2 hasta la 4). En el texto del artículo, simplemente referencia el número, por ejemplo [3]. No use “Ref. [3]” ni “referencia [3]”, excepto al comienzo de una oración: “La referencia [3] muestra...” El estilo permite referenciar el apellido de los autores como “De acuerdo con Maxwell [2]…”. No use “et.al.” a menos que haya seis autores o más. Las iniciales del nombre del autor deben anteceder al apellido.
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 143-152 ¦ 147
Políticas Editoriales / Editorial Policy a Revista De Tecnología – Journal Of Technolog y es una publicación seriada académica de la Universidad El Bosque, en Bogotá D.C., Colombia y está comprometida con la divulgación de documentos de calidad científica que presenten resultados originales de investigaciones y estudios realizados por la comunidad académica en todos los países y sin discriminación del origen o creencias de sus autores.
resumen y abstract. También es responsabilidad del(los) autor(es) adjuntar una carta de presentación cediendo los derechos de autor a la Revista de Tecnología – Journal of Technology de la Universidad El Bosque.
La Revista de Tecnología – Journal Of Technolog y está abierta a recibir todos los documentos que sean postulados dentro de los Objetivos y Alcance de la publicación. No obstante, para garantizar los objetivos de calidad inherentes a toda publicación científica y tecnológica, todo documento que sea postulado a publicación se somete a revisión y evaluación mediante el procedimiento double blind de un par evaluador experto en el tema del artículo.
1. Artículo de investigación científica y tecnológica. Documento que presenta, de manera detallada, los resultados originales de proyectos terminados de investigación. La estructura generalmente utilizada contiene cuatro apartes importantes: introducción, materiales y método, resultados y conclusiones.
L
La Revista De Tecnología – Journal Of Technolog y propende por la responsabilidad y transparencia de los resultados de investigación científica y tecnológica presentados en los artículos. Por eso, además de efectuar los anteriores procedimientos, solicita a los autores enviar una fotografía que será publicada al lado de su nombre y datos biográficos, así como la dirección geográfica y la dirección electrónica del autor principal del artículo. Los autores que deseen publicar sus artículos en la Revista De Tecnología – Journal Of Technolog y pueden enviar sus artículos en cualquier época del año, en idioma castellano o inglés. Los artículos deben cumplir con el formato declarado para la publicación, como aparece en Instrucciones a los Autores. Allí se señalan las partes mínimas de todo artículo: título (en castellano e inglés), Nombre(s) del(los) autor(es), Resumen, abstract, palabras clave, keywords, Introducción, Materiales y Métodos, Resultados, Discusión o conclusión y Referencias. Es responsabilidad del(los) autor(es) remitir su artículo con título en, al menos, castellano e inglés, así como
La calidad científica de la Revista De Tecnología – Journal Of Technolog y se rige por los parámetros del Índice Bibliográfico Nacional Publindex que establece, entre otros criterios, que los artículos se clasifican de la siguiente manera:
2. Artículo de reflexión. Documento que presenta resultados de investigación terminada desde una perspectiva analítica, interpretativa o crítica del autor, sobre un tema específico, recurriendo a fuentes originales. 3. Artículo de revisión. Documento resultado de una investigación terminada donde se analizan, sistematizan e integran los resultados de investigaciones publicadas o no publicadas, sobre un campo en ciencia o tecnología, con el fin de dar cuenta de los avances y las tendencias de desarrollo. Se caracteriza por presentar una cuidadosa revisión bibliográfica de por lo menos 50 referencias. 4. Artículo corto. Documento breve que presenta resultados originales preliminares o parciales de una investigación científica o tecnológica, que por lo general requieren de una pronta difusión. 5. Reporte de caso. Documento que presenta los resultados de un estudio sobre una situación particular con el fin de dar a conocer las experiencias técnicas y metodológicas consideradas en un caso específico. Incluye una revisión sistemática comentada de la literatura sobre casos análogos.
148 ¦ Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 143-152
Políticas Editoriales / Editorial Policy
6. Revisión de tema. Documento resultado de la revisión crítica de la literatura sobre un tema en particular. 7. Cartas al editor. Posiciones críticas, analíticas o interpretativas sobre los documentos publicados en la revista, que a juicio del Comité editorial constituyen un aporte importante a la discusión del tema por parte de la comunidad científica de referencia. 8. Editorial. Documento escrito por el editor, un miembro del comité editorial o un investigador invitado sobre orientaciones en el dominio temático de la revista. 9. Traducción. Traducciones de textos clásicos o de actualidad o transcripciones de documentos históricos o de interés particular en el dominio de publicación de la revista. 10. Documento de reflexión no derivado de investigación. 11. Reseña bibliográfica. 12. Otros. La Revista De Tecnología – Journal Of Technolog y privilegia la publicación de artículos tipo 1,2 y 3. Los datos de los artículos y de los autores son registrados en el Índice Bibliográfico Nacional Publindex de Colombia, sin perjuicio de que sean registrados en otros
Índices y bases de datos bibliográficas dentro o fuera de Colombia. El (los) autor(es) deben declarar que conocen las políticas editoriales de la Revista de Tecnología, que comprenden que la postulación de su artículo para publicación (impresa o electrónica) implica la cesión de derechos de autor a la Revista De Tecnología – Journal Of Technolog y de la Universidad El Bosque en el marco de la legislación colombiana y de la normatividad del la propiedad intelectual en el ámbito internacional y, por consiguiente, el(los) autor(es) es consciente de que sólo puede postular sus artículos a una revista a la vez y, en este caso, a la Revista De Tecnología – Journal Of Technolog y, y de la misma manera que su artículo no ha sido postulado a otra revista o no ha sido publicado.
Comité Editorial Revista De Tecnología – Journal Of Technolog y Universidad El Bosque, Bogotá D.C., Colombia, 2.013 Jaime Alberto Romero Infante romerojaimea@unbosque.edu.co Ernesto Villegas Rodríguez villegasernesto@unbosque.edu.co Revista de Tecnología revistatecnologia@unbosque.edu.co
Universidad El Bosque Avenida Carrera 9 131A-02 – Edificio Fundadores, Piso 3 – ala sur Oficina de Publicaciones de la Facultad de Ingeniería, Universidad El Bosque, Bogotá D.C., Colombia. Tel. + 571 648 9000 ext. 1385 – Fax + 571 625 2030 revistatecnologia@unbosque.edu.co
Seleccione la modalidad de suscripción Un año US $ 18.00
Cúpon de suscripción
Dos años US $ 30.000
Nombre:
Col $30.000 dos números suscripción nacional. No incluye envío por correo. dos números suscripción internacional. No incluye envío por correo. Col $50.000 dos números suscripción nacional. No incluye envío por correo. dos número suscripcion internacional. No incluye envio por correo.
Dirección: Institución: Ciudad:
País:
Teléfono:
Celular:
Revista de Tecnología ¦ Journal of Technology ¦ Volumen 13 ¦ Número 1 ¦ Págs. 143-152 ¦ 151
Revista de
Tecnología Journal of Technology
Contenido Editorial
Ing. Jaime Alberto Romero .................................................................................................................................................................................................................................................................................................. 4
Rincón del profesor
Ing. Orlando Tarazona Morales.......................................................................................................................................................................................................................................................................................... 7
Improving Flood Forecasting Skill with the Ensemble Kalman Filter
Humberto Vergara, Yang Hong, Jonathan J. Gourley........................................................................................................................................................................................................................................................ 9
A Critical Evaluation of Post-Normal Science’s role in Climate Change Modelling and Political Decision-Making
Kai Whiting, Luis Gabriel Carmona.................................................................................................................................................................................................................................................................................. 28
Tratamientos Aplicables a Materiales Lignocelulósicos para la Obtención de Etanol y Productos Químicos
William Giovanni Cortes Ortiz.......................................................................................................................................................................................................................................................................................... 39
New Generation Networks: a Networking Trend
Carlos Arturo Castillo Medina, Octavio José Salcedo Parra, Felipe Forero Rodríguez................................................................................................................................................................................................. 45
¿En época de crisis, es factible construir el futuro?
Ricardo Prada Ospina, Pablo C. Ocampo Vélez.............................................................................................................................................................................................................................................................. 55
Reconocimiento del estado actual del paisaje del municipio de gutiérrez (Cundinamarca), mediante el uso de indicadores de ecología del paisaje
Daniel León Garay, Fernando Gutiérrez F. ..................................................................................................................................................................................................................................................................... 63
Productividad en Empresas de Construcción: Conocimiento adquirido de las bases de datos
Hernando Camargo Mila, Rogelio Flórez Díaz............................................................................................................................................................................................................................................................... 73
Modelo integral de enfoques de cooperativismo y clusters en PYMES sector artes gráficas de Bogotá
Carlos Gabriel Correa Chaparro, Natalia Torres............................................................................................................................................................................................................................................................ 78
Microfinanzas Aplicadas a los Municipios del Alto Magdalena y Otras Regiones
Rodrigo Pérez Peña, Andrés Felipe Ortiz Zamora........................................................................................................................................................................................................................................................... 87
Propuesta de retención de personal médico en el área de urgencias de una clínica de nivel III – IV en la ciudad de Bogotá, Colombia
Chicuasuque Cardozo Camilo, Jaime Cornejo Leonardo Andrés, Patarroyo Durán Nubia Isolina........................................................................................................................................................................ 102
Revisión sobre los impactos generados por la competencia ente plantas nativas e introducidas como base para el control de Ulex europaeus en la Ciudad de Bogotá D.C
Viviana Osorno Acosta..................................................................................................................................................................................................................................................................................................... 108
Producción y Comprensión de Textos: La cognición situada entre lo cotidiano y el b-learning
Diana Patricia Gutiérrez Sastoque, Diana Yenny Ávila Valbuena............................................................................................................................................................................................................................... 114
Consideraciones tecnológicas y pedagógicas del constructivismo social
Diana Castillejo, Diana Garzón..................................................................................................................................................................................................................................................................................... 121
Análisis de riesgo ocupacional asociado a la presencia de monóxido de carbono mediante un sistema gráfico
José Luis Buitrago Buitrago, Möritz Velásquez Riaño.................................................................................................................................................................................................................................................... 132
Reseña
Ernesto Villegas Rodríguez............................................................................................................................................................................................................................................................................................... 139
Por una cultura de la vida, su calidad y su sentido Avenida Carrera 9 131A - 02• PBX (571) 6489000 Bogotá, Colombia