Ventana informática

Page 1


CENTRO DE INVESTIGACIÓN, DESARROLLO E INNOVACIÓN DE LA FACULTAD DE INGENIERÍA - CIDIFIUM Carrera 9 No. 19-03 - Apartado Aéreo: 868 Conmutador (6) 887 9680 extensión: 299 Teléfonos directos (6) 883 2208 - 883 2331 - 883 3108 www.umanizales.edu.co - cifi@umanizales.edu.co Manizales, Colombia


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

GUILLERMO ORLANDO SIERRA SIERRA Rector

ANA GLORIA RÍOS PATIÑO Vicerrector Académico

JORGE IVÁN JURADO SALGADO Vicerrector Administrativo

JOSÉ FERNANDO MEJÍA CORREA Decano Facultad de Ingeniería Director de la revista

OMAR ANTONIO VEGA

Director Centro de Investigaciones, Desarrollo e Innovación de la Facultad de Ingeniería

Revisión y ajuste de textos en idioma inglés Gustavo Aristizábal Docente, Departamento de Idiomas – Universidad de Manizales Diseño y Diagramación Gonzalo Gallego González Impresión Centro Editorial Universidad de Manizales Derechos Reservados 2009

2


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

CONSEJO EDITORIAL María Cecilia Calani Baranuskas, PhD. UNICAMP Campinas, Sao Paulo, Brasil David Grau Merconchini, MSc. Centro de Información y Gestión Tecnológica, MEGACEN Santiago de Cuba, Cuba Héctor Mora Páez, MSc Instituto Colombiano de Geología y Minería, INGEOMINAS Bogotá, Colombia Carlos Eugenio Oliveros Tascón, PhD. Centro Nacional de Investigaciones de Café, CENICAFÉ Chinchiná, Colombia Luis Rodríguez Baena, PhD. Universidad Pontificia de Salamanca, UPSAM Madrid, España

CONSEJO DE REDACCIÓN

(Integrantes que realizaron arbitraje de artículos para este número) André Atanásio Maranhão Almeida, MSc. Instituto de Computación, UNICAMP Campinas, Brasil Juan Luis Arias Vargas, MSc. Universidad Católica Popular del Risaralda, UCPR Pereira, Colombia Luis Carlos Arraut Camargo, PhD. Universidad Tecnológica de Bolívar Cartagena de Indias, Colombia Line Yasmín Becerra Sánchez, MSc. Universidad Católica Popular del Risaralda, UCPR Pereira, Colombia Luis Marcial Bertel Paternina, Esp. Universidad de Manizales Manizales, Colombia Luis Carlos Correa Ortiz, MSc. Universidad de Manizales Manizales, Colombia Mauro Callejas Cuervo, MSc. Universidad Pedagógica y Tecnológica de Colombia, UPTC Tunja, Colombia

3


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Luis Alejandro Flétscher Bocanegra, MSc. Universidad Católica Popular del Risaralda, UCPR Pereira, Colombia Mario A. Giraldo, PhD. Kennesaw State University, KSU Kennesaw, Georgia, USA Julio César Gómez Castaño, Esp. Universidad de Manizales Manizales, Colombia John Makario Londoño Bonilla, PhD. Instituto Colombiano de Geología y Minería, INGEOMINAS Manizales, Colombia Alejandro Londoño Valencia, MSc. Universidad de Manizales Manizales, Colombia Marcelo López Trujillo, PhD(c) Universidad de Caldas Manizales, Colombia Diego Samir Melo Solarte, MSc. Universidad de Manizales, Manizales, Colombia Odalis Ibet Moreno Oliva, MSc. Centro de Información y Gestión Tecnológica, MEGACEN Santiago de Cuba, Cuba Luis Eduardo Peláez Valencia, Esp. Universidad Católica Popular del Risaralda, UCPR Pereira, Colombia Liliana María Puerta Escobar OFG Consultores Madrid, España Óscar Ramírez Betancur, MSc. Universidad de Manizales Manizales, Colombia José Horacio Rivera Posada, PhD. Universidad Nacional de Colombia Palmira, Colombia Jaime Antonio Rueda Rivera, PhD(c) Génesis Data Bucaramanga, Colombia Ricardo Timarán Pereira, PhD. Universidad de Nariño Pasto, Colombia

4


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

En esta edición Página Editorial................................................................................................7 Omar Antonio Vega

Seguimiento y trazabilidad del ganado bovino (Bos sp. y Bubalus sp.) ..................................................................... 11 [Monitoring and traceability of cattle bovine (Bos sp. and Bubalus sp.)] Ruiz Pérez, Diana Marcela; Idá rraga Cardona, Killian Y López Cardona, Diego.

Variabilidad espacial de la producción de café en un Andisol de la zona cafetera colombiana...................................33 [Coffee yield spatial variability in an Andisol of the central Colombian coffee zone] Moreno Berrocal, Argemiro Miguel

uCLAVS: Arquitectura basada en múltiples motores para análisis de malware en la nube de computación................................47 [uCLAVS: an architecture of a multi-engine based malware analysis service in the network cloud] Martínez, Cristian Adriá n E Isaza, Gustavo Adolfo

Desarrollo de competencias matemáticas en adultos del sector rural..................................................................67 [Math skills development in rural area of adults] López Cardona, Diego

Prácticas seguras de programación para sistemas web....................91 [Safe practice of programming systems for web] Wolf Iszaevich, Gunnar Eyal

Evolución de la conectividad en el departamento de Caldas........... 113 [Evolution of connectivity in department of Caldas] Padilla Tamayo, Danish

La experiencia del sistema de información regional nodo ecorregión Eje Cafetero.............................................127 [Experience of regional information system in the Eje Cafetero eco-region node] Tabares Saldarriaga, Ricardo

5


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Outsourcing informático como proceso innovador: Estado del arte y mejores prácticas.................................................141 [Innovative computer as process outsourcing: State of the art and best practices] Petrella, Carlos

Artefactos awareness para groupware que apoyen el trabajo colaborativo en comunidades indígenas del Cauca Andino.............175 [Groupware awareness devices to support collaborative work in indigenous communities of the Andean Cauca] Dejesú s Vega, Catalina; Argote Bolaños, Deiby Y Magé Imbachí, Pablo Augusto

Pruebas de software y gestión documental.....................................197 [Testing software and documental management] Mendoza Cardona, Carolina; Valencia Estrada, Marcela; Valencia Ortiz, Juan David Y Carvajal Vargas, José Juliá n

Pautas editoriales de la revista Ventana Informática.......................209

Nota: Los conceptos expresados en esta publicación son responsabilidad de los autores y no comprometen el pensamiento de la Universidad ni de la Facultad de Ingeniería. COPYRIGHT © UNIVERSIDAD DE MANIZALES

6


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Editorial Omar Antonio Vega

La revista Ventana Informática ha llegado al No. 21, esa cifra que en algunos juegos determina la aparición de un nuevo triunfador y la culminación de la contienda, o como lo consideran algunos amigos de la kabala, un número que ofrece una recompensa kármica, al dar la victoria después de un camino recorrido donde la fortaleza y decisión son puestas a prueba. Sin embargo, la realidad es otra; no se constituye en un triunfo, sino en un paso, en su reto de consolidación como órgano de divulgación tecno-científica, tratando de tener como condición sine qua non la calidad académica de los artículos que en ella se publiquen, apoyada en un rigoroso proceso evaluativo, así como en mantener abiertas las puertas a colaboraciones procedentes de diversas comunidades académicas relacionadas con la informática, las telecomunicaciones y la sociedad de la información y el conocimiento. En coherencia con lo anterior, de los 26 artículos presentados como respuesta a la convocatoria cerrada en septiembre 15, se publican 10, distribuidos en cuatro científicos y seis monográficos, procedentes, de la Universidades de Caldas, de Cauca, Nacional Autónoma de México y de Manizales, así como de Cenicafé, Aguas de Manizales y Secnet (Uruguay). Inicialmente se encuentran los artículos científicos: • El primero presenta las bases teóricas y técnicas en la que se basa el Sistema de Información para Trazabilidad del Ganado Bovino (SITGB), implementado en software libre y en ambiente web, que cumple con las necesidades mínimas para cada operación y obedece a la integridad de los datos y seguridad en el trato de la información, ampliable en la capacidad para almacenar los diferentes tipos de especies y razas, además integra los géneros Bos (Vacuno) y Bubalus (Búfalo). • El segundo consiste en un estudio realizado en un Andisol de la zona cafetera central colombiana, para conocer la variabilidad espacial de la producción de café junto con la humedad volúmetrica del suelo y la resistencia mecánica a la penetración a través del perfil del suelo, en el cual se observó, mediante el interpolador kriging ordinario, dependencia espacial de la producción de café, ajustada a un mo7


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

delo exponencial isotrópico. Asimismo, la humedad volumétrica y la resistencia mecánica a la penetración del perfil del suelo, también mostraron dependencia espacial moderada. • El tercero propone un modelo de detección de malware, uCLAVS (acrónimo de University of Caldas’ AntiVirus Service), un servicio basado en múltiples motores que sigue el conjunto de protocolos y estándares definidos para las tecnologías Web Services, apoyado en que el análisis de archivos comúnmente realizado por aplicaciones residentes en el cliente puede mejorar su desempeño si se traslada a la red, donde en vez de correr software complejo en cada nodo, se le dota a cada uno de un proceso liviano que adquiera los archivos que entran al sistema, los envíe a la red para ser analizados por múltiples motores, y luego pueda decidir su ejecución de acuerdo al reporte de amenaza entregado. • El último de ellos presenta un trabajo destinado a desarrollar competencias matemáticas en adultos del sector rural, mediante aprendizaje cooperativo con medios virtuales, como herramienta didáctica. En el proceso se manejaron las operaciones fundamentales y sus combinaciones en problemas simples y complejos, el sistema métrico y el sistema de medidas, involucradas armónicamente durante el desarrollo de un curso sobre beneficio ecológico del café y manejo de subproductos. Luego aparecen los artículos de tipo monográfico, discriminados de la siguiente manera: • El primero parte definiendo qué debe entenderse por seguridad en cómputo, y por qué este concepto debe ir más allá de definiciones duras y frías, para reflejar que antes que otra cosa, el cómputo es una disciplina con la misma flexibilidad que los estudios humanísticos, para luego presentar la parte medular del trabajo, que consiste en la ejemplificación, analizando tres categorías de vulnerabilidad informática de alto perfil hoy en día (inyecciones de SQL, Cross-Site Scripting y manejo de sesiones a través de galletas HTTP), de especial relevancia para los sistemas Web desarrollados hoy en día. Y poco abordadas en especi¬fico por los principales textos con que se enseña la disciplina. • El segundo recoge la evolución del departamento de Caldas en lo relacionado con la conectividad, mostrando casos específicos y planteando algunas dificultades existentes para la adopción en las regiones y municipios del departamento; también describe las tecnologías utilizadas. 8


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

• El tercero realiza un análisis del proceso de estructuración del Sistema de Información Regional para el Departamento de Caldas, y se precisan algunos aspectos fundamentales en la implementación del Sistema de Información Geográfica Ecorregión Eje Cafetero. • El cuarto trata profundamente el tema del outsourcing o tercerización, considerado como un proceso innovador que no sólo impacta en la administración de los recursos vitales sino en la propia concepción de las actividades fundamentales de una organización, al permitirle a los ejecutivos enfocarse en lo que realmente saben hacer. Ha tomado gran auge en la actualidad, cuando se están generando transformaciones en la propia gestión de los servicios, que se han transferido gradualmente de las oficinas internas de la organización a terceras partes. • En el quinto, en un claro ejemplo de la expansión de las TIC a zonas no urbanas, se identifica el uso de sistemas colaborativos en las comunidades indígenas colombianas del Cauca Andino y en particular en el resguardo de Puracé, pueblo de los Kokonucos, desde un caso de estudio, donde se detectan las dinámicas administrativas existentes, para al final proponer un sistema CSCW con características de awareness que soporte algunos procesos colaborativos originados al interior del cabildo. • El sexto artículo monográfico enfatiza la importancia de realizar pruebas de software y manejar una gestión documental garantizando la calidad de la información digitalizada al momento de dar utilidad a ella, presentando la suficiente documentación sobre estos dos aspectos, indispensables en el mundo actual. En sus páginas finales se presentan las pautas editoriales y el formato para la información de los autores que debe acompañar los artículos que se envíen, y también la propuesta al canje interinstitucional, como manera de compartir y socializar la producción de diferentes comunidades científicas. Es de recordar que la revista cierra su convocatoria en marzo 15 para los números del primer semestre, y para el segundo en septiembre 15, lo cual se constituye en una invitación abierta a participar, porque…

Alguien está necesitando la información que usted está dispuesto a brindar, usted está necesitando la información que alguien está dispuesto a brindar… 9


Nยบ 21 - Universidad de Manizales, julio - diciembre / 2009

Ventana Informรกtica se mantiene abierta para que la informaciรณn fluya en ambas direcciones.

10


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

ARTÍCULO CIENTÍFICO

Seguimiento y trazabilidad del ganado bovino (Bos sp. y Bubalus sp.)1 [Monitoring and traceability of cattle bovine (Bos sp. and Bubalus sp.)] Diana Marcela Ruíz-Pérez Killian Idá rraga-Cardona2 Diego López-Cardona3 Recibo: 08.07.2009 - Ajuste: 30.07.2009 - Ajuste: 17.11.2009 Aprobación: 20.11.2009

Resumen La globalización ha permitido que empresas, como la ganadería colombiana, incursionen en la exportación de productos cárnicos y lácteos; pero también en la importación de materia prima para la producción de alimentos. Esto ha obligado a cumplir con exigencias sanitarias en la compraventa de los mismos. Los sistemas de información han contribuido para que las empresas implementen programas de trazabilidad para hacer seguimiento y control de la información que se obtiene de los procesos de ceba y explotación lechera del ganado bovino, como un proyecto de desarrollo que contribuye a que el sector ganadero colombiano registre en línea y haga un seguimiento a la información de su empresa ganadera.

1 Modelo para citación: RUIZ PÉREZ, Diana Marcela; IDÁRRAGA CARDONA, Killian y LÓPEZ CARDONA, Diego. (2009). Seguimiento y trazabilidad del ganado bovino (Bos sp. y Bubalus sp.). En: Ventana Informática. No. 21 (jul-dic., 2009). Manizales (Colombia): Universidad de Manizales. p. 11-32. ISSN: 0123-9678 2 Egresados del programa de Ingeniería de Sistemas y Telecomunicaciones, Facultad de Ingeniería, Universidad de Manizales. Manizales, Caldas, Colombia. Correos electrónicos: andreiariu27@hotmail.com y kidac@msn.com, respectivamente. 3 Ingeniero Industrial, docente facultad de Ingeniería, Universidad de Manizales. Doctorando en Ingeniería Informática Universidad de Salamanca, Magíster en Educación. Docencia, especialista en Instrumentación Física, especialista en Informática y computación. Correos electrónicos: dlopez@umanizales.edu.co, diegolopezcardona@yahoo.es Nº 21 - Universidad de Manizales, julio - diciembre/2009 - pp 11-32

11


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

El artículo presenta las bases teóricas y fundamentación técnica en la que se basaron dos estudiantes de la Facultad de Ingeniería de la Universidad de Manizales para el desarrollo del Sistema de Información para Trazabilidad del Ganado Bovino (SITGB) como un producto que puede contribuir al desarrollo del sector ganadero colombiano. El sistema de información, implementado en software libre y en ambiente web, permite su manejo con el uso de la Internet, cumple con las necesidades mínimas para cada operación, obedece a la integridad de los datos y seguridad en el trato de la información, es ampliable en la capacidad para almacenar los diferentes tipos de especies y razas, además integra los ganados de los géneros Bos (Vacuno) y Bubalus (Búfalo), sin dejar a un lado las características esenciales de cada especie. Palabras Clave: trazabilidad, sistema de información, software libre, bovino, búfalo, seguimiento.

Abstract Globalization has allowed companies such as livestock Colombian incursions in the export of meat and milk products, but also on the import of raw materials for food production. This has meant that have to comply with health requirements in the purchase of sale of the same. Information systems have helped companies to implement programs to monitor traceability and control of information that is obtained from the processes of fattening and dairy cattle as a development project that contributes to the livestock sector the Colombian register online and follow up with your business information livestock. The article presents the theoretical and technical foundation based on which two students from the Faculty of Engineering at the University of Manizales for the development of the Information System for Traceability of Beef Cattle (SITGB) as a product that can contribute to development livestock sector in Colombia. The information system meets the minimum requirements for each operation, due to data integrity and safety in the treatment of information, it is scalable in capacity to store the different types of species and breeds, as well as integrated livestock Bos (cattle) and Bubalus (buffalo), without leaving aside the essential characteristics of each species. It’s built on free software and web environment that allows its management to the use of the Internet. Keywords: traceability, information system, free software, cattle, buffalo, monitoring.

12


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Introducción En el mundo se conocen enfermedades tan graves como el mal de las vacas locas, la peste porcina, la peste NewCastle, la fiebre aftosa, entre otras, que han generado epidemias e inclusive pandemias4, ocasionando la muerte aparte de cantidad de animales que son la materia prima para la producción masiva y también de personas; lo que demuestra qué tan importante es tener el conocimiento de la historia de los productos de consumo, como: su origen, procedencia, cómo y donde es elaborado, transporte, manipulación, enfermedades y tratamientos y una larga lista de elementos que permiten el seguimiento. En los problemas mencionados, la falta de datos y la poca accesibilidad a los mismos, no han permitido que la ciencia avance en la búsqueda de propuestas que solucionen los graves problemas generados, que terminan dependiendo del producto o de la empresa que suministra el producto ya sea materia prima o alimento de consumo masivo, generando desconfianza, pérdida de credibilidad, daños a la marca comercial y unos altos costos en la búsqueda de soluciones. Pero la falta de seguimiento de los datos y el suministro oportuno, no sólo es problema de las grandes cadenas alimentarias sino también de cualquier empresa sin importar el tamaño. Los gobiernos cada vez son más exigentes en las normas de calidad y suministro de los datos de origen de los productos para garantizar la calidad al cliente. La trazabilidad se ha convertido en un factor preponderante para que las empresas de cualquier tipo puedan acceder a certificaciones nacionales e internacionales que les permitan obtener un mejor precio y 4 Estas son algunas de las enfermedades más comunes que han ocasionado crisis alimentaria en ciertas zonas del mundo como en Gran Bretaña, países asiáticos, los Estados Unidos, entre otros. La encefalopatía espongiforme bovina (EEB), llamada el mal de las vacas locas, se manifiesta por alteraciones nerviosas en el animal que lo conducen a la muerte, enfermedad transmisible que es capaz de superar la barrera de las especies. La crisis se originó en Gran Bretaña causada por un uso indiscriminado de harinas cárnicas en la alimentación animal. La enfermedad de NexCastle o peste aviar, fue descubierta en NexCastle en 1926, altamente contagiosa, ataca especialmente las aves. Virus altamente reproductivo que se vuelve inmune a las vacuna y se regenera en forma rápida. Fiebre aftosa, también ocasionada por un virus. Ataca especialmente a los vacunos y porcinos y se manifiesta por fiebre en el animal y ampollas en la lengua y labios. La contaminación es fácil y rápida con la colaboración de las mosca, los excrementos, la orina, el agua, los pastos, la lecha, los alimentos; se transmite de animal a animal. Estas y otras enfermedades ocasionadas por la búsqueda de una alta rentabilidad por parte de la industria cárnica, ha puesto en la balanza el interés de estas empresas por obtener mejores ganancias versus la salud pública, lo que ha obligado a posteriori a los Gobiernos el determinar medidas de seguimiento y control.

13


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

garantizar ciertos sellos de calidad para ofertar sus productos al sector industrial o comercial. El seguimiento y registro de los datos no sólo es importante para prevenir y controlar problemas masivos, sino que por falta de estos procesos de forma sistemática se incurre en grandes costos y frecuentes problemas por un seguimiento parcial y defectuoso de los procesos de producción, que ocasionan poco rendimiento, mala calidad y baja producción. El aseguramiento de la calidad en la cadena de suministro y en la producción y logística de la empresa, y el acceso instantáneo a toda la información de seguimiento, es fundamental para la toma de decisiones, sin importar el tipo de empresa. Uno de los sectores con mayor riesgo, donde apenas se están diseñando y desarrollando sistemas de información para el seguimiento y control de la información, es el ganadero, sector fundamental en la cadena alimentaria de la población colombiana (De Felipe y Britz, 2004). Una buena solución, para este problema, la proporciona el sistema de información para la Trazabilidad del Ganado Bovino (SITGB) diseñado y desarrollado en la Facultad de Ingeniería de la Universidad de Manizales, motivados por la necesidad de llegar a comunidades alejadas de los grandes centros urbanos y con paradigmas con relación a la tecnología informática como: sistemas demasiado costosos, programas difíciles de manejar que exige expertos o ingenieros para su uso, falta de conciencia por la carencia de regulaciones oficiales, no ver la oportunidad de negocio que se presenta al cumplir con normas de trazabilidad, entre otras. Este trabajo integra los datos que se requieren para cumplir con la trazabilidad del ganado bufalino y bovino desde su origen hasta el sitio de sacrificio, en un sistema de información que le permitirá al usuario, ya sea operario o administrador y al beneficiario o propietario de una ganadería, consultar en tiempo real por reportes y estadísticas de los diferentes procesos en el manejo de los animales, para facilitar la toma de decisiones, seguimiento de las variables, control de peso y crecimiento, enfermedades y tratamientos vacunas, lactancia, reproducción, historial genético, entre otras, como sistema colaborativo para la predicción y la administración.

14


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

1. Marco teórico Este apartado presenta las definiciones para el ganado, sus clasificaciones, género, razas; para continuar con los conceptos de trazabilidad y terminar con el entendimiento de la tecnología utilizada para el desarrollo del SITGB.

1.1

Ganadería

La industria ganadera, desde un punto de vista evolutivo, se fortalece poco a poco. Los animales son fundamentales, hacen parte principal en la cadena alimentaria, por tal motivo la carne es un alimento esencial para la vida humana. • «La ganadería es una actividad económica, dedicada a la crianza del conjunto de especies animales para sacar provecho al animal y sus productos derivados, así como la propia explotación del ganado» (Ganadería, 2008). • «La ganadería intensiva es aquel sistema de crianza de ganado, el cual se lleva a cabo en pequeñas extensiones de terreno, donde la carga va desde cuatro (4) hasta treinta (30) animales por hectárea (10.000 m2). La ganancia en peso promedio oscila entre 450 y 1500 gramos/día» (El portal de los ganaderos, 2007a). • «La ganadería extensiva es aquel sistema de crianza de ganado, el cual se lleva a cabo en grandes extensiones de terreno, donde la carga va hasta dos (2) animales por hectárea (10.000 m2). La ganancia en peso promedio día oscila 0 y 450 gramos/día» (El portal de los ganaderos, 2007b). Según las anteriores definiciones, la ganadería cubre las actividades de ubicación, generación, transformación, disposición y aprovechamiento del ganado, cumpliendo con parámetros definidos para el bienestar colectivo, siendo el ganado uno de los objetos principales en la industria ganadera. 1.1.1 Ganado Bovino. A lo largo de la historia en la ganadería colombiana, el ganado bovino se ha posicionado como fuente de materia prima para las industrias que importan y exportan sus productos como son: calzado, prendas de vestir, accesorios en cuero, productos lácteos y cárnicos. 1.1.1.1 Género Bos. Sin duda alguna, este género ha sido una de las principales fuentes de alimentación del ser humano desde tiempos remotos. En Colombia se encuentran razas como: Aberdeen Angus, Brahmán, Bon, Lucerna, Chino Santandereano, Hartón del Valle, Casanareño, 15


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Costeño con cuernos, Sanmartinero, Velázquez, Campuzano, Romosinuano y Criollo Caqueteño. Estas razas se encuentran en la mayoría de ganaderías, convirtiéndose en el producto cárnico más elegido por el consumidor. «La historia del ganado bovino en América comienza 500 años atrás con los viajes de Cristóbal Colón; en ellos se introdujeron a República Dominicana y Haití los primeros animales de origen Bos taurus provenientes de la Península Ibérica, los cuales dieron origen a las hoy denominadas razas criollas» (Ariza; Barrera y Martínez, 2006). El género Bos, se encuentra en el continente Americano por tener abundante fauna y flora, proporcionando un entorno apto para la supervivencia de cualquier especie. Las principales características del género Bos. • «Animal grande, de cuerpo robusto, patas fuertes y gruesas y cola larga con pelos en su extremo distal. La parte occipital del cráneo forma un ángulo agudo con la cara. La parte anterior del cuerpo es más masiva que la posterior y la espalda es prácticamente recta. Mansedumbre natural, excepto la raza Casanare de Colombia» (Álvarez y A, 2005, 1). • «Predominio de una sola capa de pelo de color entre amarillo claro y rojo cereza, excepto la raza Bon en Colombia, las criollas de Argentina, Uruguay y la Crioula Lageana en Brasil. • Cabeza con cuernos, excepto la raza Romosinuano en Colombia, el Mocho Nacional y el Caracú, variedad mocha en Brasil. • Sobresalientes en fertilidad, habilidad materna y longevidad. • Piel bien pigmentada y ombligo corto. • Desprendimiento alto de la cola. • Dorso de apariencia ensillada, excepto la raza Casanare de Colombia. • Partos normales y terneros fuertes al nacimiento. • Toros sexualmente activos. • Alto vigor híbrido en cruces con Cebú» (Bavera, s.f.). Los cruces en razas dan como resultado ganado productivo y adaptable a diferentes climas, como por ejemplo, la raza Ayrshire, es calificada como una de las mejores en leche y la raza cebú, con mayor rusticidad adaptable al trópico, dan como resultado ganado lechero en climas tropicales. 1.1.1.2 Género Bubalus. El búfalo doméstico ha tenido una gran aceptación por parte de los ganaderos Colombianos, no solo por ser un ganado 16


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

fuerte y adaptable a cualquier clima, sino también, por la producción de carne y leche. «El búfalo es originario de Asia y existe evidencia que en el 6000 AC llegó al Oriente Medio y al África, para luego trasladarse a Europa y a Oceanía. Su presencia en Colombia data de 1966 cuando el INCORA introdujo algunos ejemplares desde Trinidad y Tobago, los cuales fueron ubicados en el municipio de Guapi (Cauca) en donde se tuvieron sin brindarles el cuidado requerido. Más tarde, el Fondo Ganadero de Caldas hoy Fondo Ganadero del Centro, rescató parte de esta población ubicándola en el municipio de La Dorada, con mejores condiciones de manejo zootécnico y dedicándose a aprender sobre su adecuada explotación para la producción de leche, carne y trabajo» (Amador, 2006). La participación de los grandes y pequeños ganaderos frente a la crianza y explotación del ganado bubalino, indican un crecimiento sustancial en la población de este género, no sólo por la nobleza y docilidad en el manejo sino también por la excelente producción de leche y carne. El cuero es muy apreciado en la industria de calzado, marroquinería y prendas de vestir, por el grosor, el cual permite mayor resistencia en sus productos. A continuación se muestran las principales características de razas de búfalos: • Murrah. Es originaria del Noroeste de la India, son animales de color negro azabache con pelos en la región torácica, con manchas blancas sólo en la punta de la cola, son macizos, robustos, con una conformación profunda y ancha, de extremidades cortas y huesos pesados, poseen una buen conformación carnicera. Sus cuernos y orejas son cortas. Tienen ubres bien desarrolladas y cuartos bien encuadrados, pezones de fácil manipulación y tracción, la bajada de la leche es rápida, está considerado como el búfalo más lechero, precoz y resistente a enfermedades infectocontagiosas. • Jafabaradi. Su nombre se deriva de la ciudad de Jafarabad. Son de color negro, los cuernos son pesados y anchos. Requiere mayor volumen de alimentos para generar la energía necesaria y en restricciones de alimento alarga el intervalo interparto, demorando su recuperación, tiene excelente conformación lechera y carnicera. • Mediterránea. Se originó en la India, a pesar de haberse definido como raza en Europa. Son de color negro, los cuernos son medianos, dirigidos hacia tras y los costados. Con las puntas curvadas hacia arriba, formando una media luna. El cuerpo es ancho con relación a su largo y las extremidades son cortas y robustas. La 17


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

cola es corta. En general es una animal compacto, musculoso y profundo. • Carabao. Es tipo principal del Extremo Oriente, destinado para el trabajo en los arrozales y para la tracción. En el estado de Pará y en la Isla de Marajó, en Brasil se le destina para la producción de carne. Sus cuernos son largos y abiertos. Son de color gris pardo, tiene manchas blancas en las patas, frente y cuello (en forma de collar). Su cuerpo es corto y su vientre ancho son de conformación compacta, maciza, con apreciables cortes carniceros. • Bufalipso. Estos provienen de animales mestizos, denominado Bufalipso, cuya expresión deriva de la unión de las palabras buffalo y calypso, este último el nombre de un baile típico de Trinidad- Tobago. Es un cruzamiento seleccionado para la producción de leche y carne. Los machos pesan entre 600-700 kgs y las hembras 450 -500 kgs (Almaguer, 2007, 4). Como toda especie, el ganado bubalino posee razas con diferentes características, que son explotadas según las necesidades del medio. «Aunque en Colombia se tienen búfalos de raza pura de Murrah Búlgaro y de Murrah Brasilero, predomina la población sin determinación racial, es decir una mezcla de Surtí, Mediterráneo, Carabao, Murrah, Nili Ravi y Jafarabadi» (Amador, 2006). El Murrah, es una de las razas lecheras de mayor producción, la resistencia a enfermedades infectocontagiosas, la posiciona como la más utilizada, no solo en Colombia, sino también, en el continente americano, especialmente en sur América. Sin importar la raza, el Búfalo en general, es un animal más longevo, con mayor rusticidad, utilidad, sostenibilidad y laboriosidad, aportando así cualidades significativas que la hacen benéfica en todas las áreas de producción y reproducción.

1.2 Trazabilidad Los sistemas enfocados en verificar, organizar y evaluar sus procesos conllevan en cierta medida, a la consecución de métodos que mejoren y tipifiquen su funcionamiento. Teniendo en cuenta la competitividad como factor de cambio en cada proceso, si aumenta, estos van quedando obsoletos y vulnerables al rechazo, es así como se crean sistemas como la trazabilidad para dar orden a cada uno, organizándolo desde su generación hasta su disposición final verificable. Existen varios puntos de vista con relación a la definición de trazabilidad donde se involucran todos los procesos que se manejan en la cadena de valor de administración del animal. 18


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

«La trazabilidad es un conjunto de acciones, medidas y procedimientos técnicos que permiten identificar y registrar cada producto desde su nacimiento hasta el final de la cadena de comercialización. La trazabilidad permite rastrear la cadena de producción y otorga a los productores la posibilidad de colocar sus productos en mercados específicos más rentables, que exigen la certeza del origen y de las distintas etapas del proceso productivo» (Friogan, 2008). La disposición final de los productos incluidos en la trazabilidad, son verificados desde su origen o generación, es así, como se da una rastreabilidad adecuada de cada producto. Es importante tener en cuenta «cada agente involucrado en la cadena de suministro debe disponer de un sistema informático preparado para poder generar, gestionar y registrar la información de trazabilidad necesaria en cada momento (entendiendo como información de trazabilidad los lotes y/o fechas asociados a cada producto)» (Aecoc, s.f., 2), es decir, los sistemas de trazabilidad para su funcionamiento y desempeño necesitan estar provistos por otros sistemas como son los de monitoreo o sistemas de información, estos contienen todos los procesos de la trazabilidad, que a su vez son almacenados en bases de datos. «En Colombia, gracias a la Ley 914 de 2004 se crea el Sistema Nacional de Identificación e Información de Ganado Bovino, un programa a través del cual, se dispondrá de la información de un Bovino y sus productos, desde el nacimiento de éste, como inicio de la cadena alimenticia, hasta llegar al consumidor final; Este sistema está a cargo del Gobierno Nacional a través del Ministerio de Agricultura y Desarrollo Rural y la Federación Colombiana de Ganaderos, FEDEGÁN, como entidad administradora» (Friogan, 2008). Los tipos de identificación para el ganado, son implementados con el fin de tipificar cada animal, permitiendo así obtener la información individual o grupal del hato. 1.2.1 Objetivos de la trazabilidad. Antes de comprar un producto alimenticio, es necesario investigar acerca del origen y su proceso de fabricación. Cuando un consumidor verifica, que el producto que compra, es el que está buscando, pasa a un segundo plano el precio, es de mayor importancia la calidad y no la cantidad de un producto. La trazabilidad tiene una serie de objetivos que se pueden resumir en los siguientes: • «Control de calidad. • Detección de errores en el proceso. 19


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

• Optimización de procesos y de gestión. • A nivel de ofrecer información a los consumidores, sobre el producto que está consumiendo. • Mejorar los planes sanitarios, a fin de posibilitar estrategias para la erradicación de enfermedades. • Cronología del producto final. • Consecución de la ISO 9000 de identificación de productos de trazabilidad» (Rumitag, s.f.). EL seguimiento contínuo de un producto, garantiza que la procedencia y manipulación en los procesos de fabricación, son ciertas y verificables, brindando tranquilidad y seguridad, de la calidad del producto. Al implementar la trazabilidad a los productos alimenticios, permite en caso de contaminación, infección o enfermedad, encontrar el foco transmisor, impidiendo que el daño se expanda. 1.2.2 Norma ISO 22000:2005. La normatividad y organismos de control, exigen la implementación de herramientas, procedimientos claros y certificados en la fabricación de productos, especialmente alimenticios. «La norma ISO 22000 es un nuevo estándar internacional diseñado para asegurar la inocuidad de la cadena de suministros de alimentos en todo el mundo» (Lezgon, s.f.). Ésta norma obliga a las organizaciones dentro de la cadena alimentaria, implementar sistemas de higiene, control y manipulación en sus productos. «La norma ISO 22000 por lo tanto, está diseñada para permitir que todas las organizaciones dentro de la cadena de alimentos puedan poner en práctica un Sistema de Gestión de Seguridad Alimentaria» (Lezgon, s.f.). Cualquier organización vinculada a la cadena de suministros alimenticios debe implementar un sistema de gestión de seguridad alimentaria sin importar el tipo, tamaño y producto que fabriquen.

1.3 Tecnología utilizada en el proceso El factor humano, los contenidos de la información, el equipamiento, la infraestructura, el software, el hardware, los mecanismos de intercambio de información, los elementos de política y regulación además de los recursos financieros son los principales componentes que suministran datos para la integración y convergencia de la computación, las telecomunicaciones y la técnica para el procesamiento de datos. 1.3.1 Sistemas de información. El objeto principal de todo sistema de información, es la solución de problemas, además, es un conjunto 20


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

organizado de procesos que tipifican cada actividad. El flujo de estos encamina cada proceso por las diferentes posibilidades para las que fue desarrollado el sistema. Se ha definido la información como parte principal de todo sistema, es importante que esté provista con atributos tales como: identidad, confiabilidad y autenticación, es decir, que se pueda verificar o consultar en cualquier momento. «Un sistema de información se define como un conjunto de procedimientos interrelacionados que forman un todo, es decir, obtiene, procesa, almacena y distribuye información (datos manipulados) para apoyar la toma de decisiones y el control en una organización. Igualmente apoya la coordinación, análisis de problemas, visualización de aspectos complejos, entre otros aspectos. Los elementos interactúan entre sí con el fin de apoyar las actividades de las empresas, negocios u organizaciones» (Ahumada, s.f.). Gracias a los Sistemas de Información y a las Tecnologías de la Información, se ha cambiado la forma en que operan las organizaciones actuales, se automatizan los procesos operativos, se suministra información necesaria para la toma de decisiones permitiendo lograr ventajas competitivas o reducir la ventaja de los rivales. 1.3.2 La Internet. En tiempos pasados, la mayor limitación de todo sistema era el acceso desde cualquier lugar del mundo, acompañada de la lentitud de las operaciones que dificulta la actualización oportuna. A finales de la década de los ochenta, la interconexión de miles de redes de área local había convertido la Internet en el mayor almacén de datos que jamás hubiese existido, pero también en el más caótico. Las posibilidades eran enormes, pero las dificultades resultaban frustrantes: formatos incompatibles, programas distintos, protocolos heterogéneos, etc. Se imponía la necesidad de simplificar el acceso a este caudal de información, hacerlo más sencillo y homogéneo. La Internet como bien se sabe es una red de área extensa (WAN), es decir la red de redes, sobre esta se acoplan las demás redes como son la red de área local (LAN), y red de área metropolitana (MAN). Cada una se configura según la necesidad de cada sistema. Según el modo de conexión, las redes pueden ser de difusión, es decir, conexión en un solo sentido y en varios sentidos como son las redes de punto a punto. 1.3.3 Bases de datos. Las bases de datos son herramientas diseñadas para el almacenamiento de la información, además de esto sirve en cierta medida a la organización de los datos, las bases de datos bien

21


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

definidas y estructuradas, ayudan a mejorar la consulta y seguridad de la información. García (2007) define una base de datos como «una serie de datos organizados y relacionados entre sí, los cuales son recolectados y explotados por los sistemas de información de una empresa o negocio en particular», en tanto Sánchez (2009) asegura que «antes de la aparición de las aplicaciones informáticas, las empresas tenían como únicas herramientas de gestión de datos a los cajones, carpetas y fichas en las que se almacenaban los datos». Es así como se caracteriza cada operación de la empresa, teniendo en cuenta las tareas más rutinarias y obsoletas que disminuyen el rendimiento en el sistema y como resultado la optimización de procesos dentro de la organización. 1.3.3.1 Características de las bases de datos. Entre las características de las bases de datos se describen las siguientes: • • • • • • • •

«Independencia lógica y física de los datos. Redundancia mínima. Acceso concurrente por parte de múltiples usuarios. Integridad de los datos. Consultas complejas optimizadas. Seguridad de acceso y auditoria. Respaldo y recuperación. Acceso a través de lenguajes de programación estándar» (García, 2007). Si las anteriores características son aplicadas en su totalidad, garantizan orden, eficiencia y rendimiento en cualquier sistema. Además, ayuda a agilizar las consultas, obviar datos innecesarios y mejorar la seguridad de la información. 1.3.3.2 Sistemas de Gestión de Bases de Datos. Para entender un poco más la definición sobre SGDB, se tiene en cuenta la siguiente definición: «Los sistemas de gestión de base de datos son un tipo de software muy específico, dedicado a servir de interfaz entre la base de datos, el usuario y las aplicaciones que la utilizan. Se compone de un lenguaje de definición de datos, de un lenguaje de manipulación de datos y de un lenguaje de consulta» (Tecnologías101, s.f.). 1.3.3.3 Postgres, motor de base de datos. Mientras mayor sea el volumen de información que se necesite para almacenar y procesar en una organización, mayores deben ser los atributos que caracterizan cada base de datos, es así como se han venido desarrollando motores de bases de datos que satisfagan las necesidades de cada sistema, si 22


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

bien el acceso a estos es importante, de tal forma que aporte tanto beneficio económico como operativo, comparando el motor de base de datos postgres, con los demás motores comerciales, postgres aporta más accesibilidad, Aliaga denota la siguiente definición de PostgreSQL: «Es un servidor de base de datos objeto relacional libre, ya que incluye características de la orientación a objetos, como puede ser la herencia, tipos de datos, funciones, restricciones, disparadores, reglas e integridad transaccional, liberado bajo la licencia BSD. Como muchos otros proyectos open source, el desarrollo de PostgreSQL no es manejado por una sola compañía sino que es dirigido por una comunidad de desarrolladores y organizaciones comerciales las cuales trabajan en su desarrollo, dicha comunidad es denominada el PGDG (PostgreSQL Global Development Group)» (Aliaga y Miani, 2008.). En conclusión, Postgres aporta compatibilidad con los demás sistemas a un bajo costo y alto nivel de soporte y confiablidad. PostgresSQL se puede ejecutar en la gran mayoría de sistemas operativos y emplea diversos lenguajes de programación para interactuar con los deferentes aplicativos. 1.3.4 Lenguajes de programación. Los lenguajes de programación con el paso del tiempo han venido evolucionando de maneja ostensiva, si bien, antes eran estructurados, se llegó a la conclusión que los sistemas en cierta medida no eran secuenciales, es decir, la abstracción del mundo real conllevó a los lenguajes a utilizar medidas orientadas a objetos, estas ayudan a encapsular los datos y heredar atributos del sistema. Gallús profundiza más sobre el concepto de herencia, utilizada en el lenguaje de programación PHP: «Como su nombre indica el concepto de herencia se aplica cuando creamos una clase, que va a heredar los métodos y atributos de una ya definida, entonces la clase que hemos creado es una subclase» (Gallús, 2002). Ángel, aporta el siguiente antecedente sobre la programación orientada a objetos implementada en Php: «Con las primeras 2 versiones de PHP, PHP 3 y PHP 4, se había conseguido una plataforma potente y estable para la programación de páginas del lado del servidor. Estas versiones han servido de mucha ayuda para la comunidad de desarrolladores, haciendo posible que PHP sea el lenguaje más utilizado en la web para la realización de páginas avanzadas» (Álvarez, 2004). A partir de estas versiones se crea PHP5, con atributos mas definidos sobre la programación orientada a objetos.

23


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

2. Metodología Este proyecto de desarrollo pertenece a la línea de Gestión del Conocimiento del Grupo de investigación Sociedad de la Información, Gestión e Innovación del Conocimiento, de la Facultad de Ingeniería de la Universidad de Manizales. El sistema de información para la rastreabilidad del ganado Búfalo y bovino, SITGB, es la aplicación de un software específico para enfrentar la variabilidad de la especie, en el sector: productivo, reproductivo y de mercadeo de productos de consumo masivo. En la recopilación de información, las fuentes fueron extraídas del Fondo Ganadero del Centro y del personal involucrado en el sector agropecuario que trabaja en el SENA regional Caldas, a través de entrevistas, manipulación de información, permitiendo la observación de una serie de estadísticas y procesos, almacenados en diferentes medios, representando la fuente directa para el desarrollo del trabajo. Las fuentes indirectas fueron: folletos, libros y páginas Web que incluyen los diferentes sistemas de trazabilidad del ganado Búfalo. Durante el análisis de la información en el Fondo Ganadero del Centro, se encontró la necesidad de reorganizar sus procedimientos, de tal forma que en cada proceso existiera un responsable o funcionario encargado, es así como se garantiza una operatividad eficiente y un compromiso sobre cada actividad realizada. En el análisis se estudió la información extraída en el proceso de recopilación, atendiendo la integridad, fiabilidad, y concordancia con lo expuesto en el área problemática. Se utilizó la metodología RUP (Rational Unified Process) para el análisis y diseño del sistema, junto con la metodología UML (Unified Modeling Language) para ilustrar los diagramas. Para la parte técnica se empleó Xampp como hosting casero. El motor de base de datos aplicado fue Postgres. Los procedimientos y funciones fueron programados con ayuda de Php respecto al desarrollo web, y Java Script, para la validación de los diferentes tipos de datos. Los reportes y estadísticas se diseñaron con ayuda de la utilidad Chart Director.

24


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

3. Resultados y discusión 3.1 Descripción de resultados Como principal resultado del trabajo se obtiene el Sistema de Información para el monitoreo del ganado Bovino –SITGB- que permite la captura de la información desde que nace el animal, registrando su procedencia y tipo de adquisición, pasando por su manutención hasta consignar el lugar de sacrificio. Este sistema está diseñado para ser administrado a través de Internet, vía web. La administración de los procesos del ganado en tiempo real hace del sistema una fuerte herramienta para el análisis de desempeño y productividad de la ganadería. Cada usuario del sistema desempeña un rol fundamental, por tal motivo se ofrecen tres interfaces o menús diferentes. Posee un sistema de seguridad donde el administrador del sistema, el digitador o el administrativo o propietario del hato, pueden digitar un nombre y una clave única de acceso. El programa validará el dato para permitir su ingreso mostrando el menú respectivo. El primer menú o interfaz del digitador permite ingresar y manipular la información de los registros de animales permitiéndole realizar actividades como: nombre, procedencia, fecha de nacimiento, padres, fechas de parto, edad, tiempo de gestación del animal, destetes entre otros, que antes se hacían de forma manual. El sistema le recordará al usuario cada vez que ingrese algún registro, qué información le falta digitar para completarla. El segundo menú le permite al usuario administrativo elegir el tipo de reporte que desea analizar según sus necesidades, permitiendo mostrar reportes y gráficas en tiempo real, facilitando al usuario el análisis del desempeño y productividad de la ganadería, de esta manera se podrá asumir soluciones rápidas y eficaces a posibles pérdidas que se den en ésta. El usuario elige consultar reportes de hatos o generales, éstos pueden ser: registros de leche, peso y crecimiento, reproductivos, operarios, proveedores, insumos, medicamentos, propiedades entre otros. En el tercer menú, al administrador del sistema le permite ingresar usuarios al aplicativo, asigna grupos, es decir, fija un rol y proporcionar un nombre y una clave. 25


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

En la programación no se ha descuidado detalle, de tal manera que la información sea validada por su tipo, evitando que el operario cometa errores, no le deja continuar los procesos si la información no está completa, además de estar diseñado en un formato sencillo, amigable, teniendo en cuenta que la mayoría de usuarios son secretarias o administradores rurales con pocos conocimientos en informática.

3.2 Discusión de resultados En la tabla 1 pueden encontrarse las ventajas operativas y competitivas del SITGB con relación al sistema empleado en el Fondo Ganadero del Centro que fue el programa que sirvió de base de comparación y con el cual trabajan. Tabla 1. Comparación de los sistemas FONDO GANADERO DEL CENTRO El sistema que maneja actualmente el Fondo Ganadero del Centro cumple con algunos requisitos de los usuarios más no con todas las necesidades. Por ejemplo, el sistema no trabaja vía web, por tanto no se pueden consultar información veraz y actual del sistema. Cada finca envía la información en forma física o digital a una sede de procesamiento, allí se ingresa al sistema y luego es distribuida a cada sede administrativa, este proceso demora un mes aproximadamente. Otro problema notable del sistema que maneja el Fondo es la capacidad limitada de almacenamiento y de proceso, pues el motor de base de datos no soporta el volumen de la consultas por el sistema de contrato que hicieron con el proveedor, cuya base de datos está soportada por el programa Acces. El Fondo Ganadero del Centro maneja dos especies: Búfalo y Bovino. El software actual es exclusivo para Bovinos por tal motivo el ganado Búfalo no es tenido en cuenta. El Búfalo es una especie con una productividad mayor a la del ganado Bovino. Una hembra Búfala tiene mayor cantidad de partos que la de una hembra Bovina, por tal razón el sistema del fondo ganadero limita la cantidad de partos pues éste, solo está en capacidad de almacenar la información del ganado Bovino.

26

SITGB

El sistema trabaja vía web por tal razón no tiene este problema, pues los usuarios administrativos pueden obtener sus reportes en tiempo real, es así como proporciona herramientas que permiten mostrar la utilidad del sistema.

El sistema cuenta con un motor de base de datos robusto y confiable permitiendo el ingreso y consulta de la información El aplicativo desarrollado integra las dos especies, respetando las características de cada una, como son las razas, categorías (cría, ceba, reproductor, etc.), clase de animal (vientre, levante, torete, toro, vaca, etc.) El sistema de información está en la capacidad de almacenar cualquier tipo de información no solo del ganado Bovino sino también del Búfalo, no tiene ninguna restricción para el manejo de las dos especies en el sistema.


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

FONDO GANADERO DEL CENTRO Monousuario Cuando un sistema no es diseñado según las necesidades del medio, hace que el usuario se acople a lo que el sistema ofrece, dejando a un lado sus requerimientos El costo de software inglés es alto, se le compró a una empresa distribuidora Colombiana pagando un alto costo por usuario y por cada año de uso.

SITGB El manejo de aplicaciones diferentes para cada usuario, proporciona seguridad en el sistema, éstos solo tienen acceso a ciertas operaciones que su rol le permita en el aplicativo. El programa se acopla a las necesidades del medio, permitiendo diversos procesos que actualmente el software del Fondo no permite, como la compra de animales rentados, registros de devoluciones, manejo de operarios y proveedores entre otros. Los costos del sistema SITGB son bajos, pues se construyó bajo software libre y no se tiene que pagar valores por licenciamiento.

En la tabla 2 se describen otros programas que hacen procesos parecidos, pero que están desarrollados en programas propietario lo que hace encarecer los costos. Consultando por los valores, el más barato tiene un costo superior a US$1.000 la licencia de uso por terminal. Lo que marca la diferencia con relación a la competencia del programa SITGB, es que fue realizado como proceso de desarrollo investigativo de estudiantes de la Facultad de Ingeniería de la Universidad de Manizales, bajo software libre, lo que indica su capacidad para diseñar programas de proyección social orientado a su masificación a través de entidades como UMATAS, Alcaldías, Colegios Agropecuarios, SENA, Asociaciones de ganaderos, entre otros. Tabla 2. Otros programas existentes en el mercado. SOFTWARE

Software +Ganadero TP

Software ganadero PROGAN

Software ganadero para el monitoreo de fincas

DESCRIPCIÓN La empresa desarrolladora de software USATI LTDA (s.f), ofrece un sistema que permite manejar registros de: Inventarios de animales, reproducción, producción, sanidad, alimentación, genética, trazabilidad y costos. Le permite tener un control y saber lo que pasa en su hato. Está diseñado para Windows, desarrollado con lenguaje de programación en Microsoft. El sistema maneja lechería, cría, ceba y doble propósito del ganado Vacuno y bufalino. La empresa INSOLCA (1998), desarrolló un software para manejar todo tipo de ganadería, sea carne, leche, doble propósito, centros de cría, ceba engorde o búfalos. PROGAN, está hecho para Windows, lo cual lo hace fácil de manejar. El sistema puede utilizarlo vía web, como también obtener cualquier tipo de reportes para el análisis de los hatos. FedeAgrario (2009), es un centro de servicio tecnológico ganadero el cual ofrece un sistema que permite la identificación de los animales, proporcionando el manejo de información productiva y financiera de las empresas ganaderas.

27


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

SOFTWARE

GanSoft

CattleMax

Huella Software

InterHerd

TaurusWebs

DESCRIPCIÓN La casa de software SoftSupply (2009), ofrece un software que permite manejar todo el historial del ganado Bovino como: historia reproductiva, historia clínica, Historia de cambios de vaqueras o lotes, Historia de cambios de condición corporal, Histórico de pesos, Historia de lactancia, Historia de pesajes de leche por lactancia, Historia de comentarios, entre otros. GanSoft está construido bajo Windows, permite el control de animales en forma individual o grupal. El sistema está hecho para el ganado Vacuno, pero se puede adaptar al Búfalo, caballos entre otros. CattleMax (s.f.), diseñó un sistema para la organización y administración de registros de ganado. Permite el manejo de identificaciones individuales en animales, como también la visualización del pedigrí y fotos. UNCPBA (s.f.), desarrolló un producto que permite el manejo de registros: productivos, reproductivos, sanitarios, económicos y otros, de manera grupal o individual, gracias a la integración de identificaciones electrónicas. La información se puede consultar en dispositivos móviles, como también exportar a Excel, generando alrededor de 100 reportes de productividad y trazabilidad listos para entregar. La distribuidora de software CompuAgro (2001), ofrece el software InterHerd el cual permite el manejo de fincas ganaderas, el cual le ofrece facilidad en los procesos de captura de datos y una amplia gama de listas y reportes analíticos sobre los distintos aspectos técnicos y económicos de la explotación SADEP LTDA (2005) es una empresa desarrolladora de software ganadero. TaurusWebs, es una aplicación que permite el control integral de explotaciones ganaderas de carne, leche y doble propósito. Monitorea la producción y reproducción del hato, se puede obtener estadísticas que ayudan al análisis de la ganadería.

En general, los aplicativos ganaderos a nivel de sur América, no manejan un control sobre operarios, insumos, medicamentos y proveedores, disminuyendo el monitoreo de posibles focos causantes de problemas ya sean de salud, infecciosos, sanidad, procedimentales, etc. El hecho de implementar la trazabilidad no hace seguro los alimentos, se trata de una herramienta de gestión del riesgo que con la información que suministra ayuda a: detener problemas de seguridad alimentaria, evitar que se siga comercializando con alimentos no seguros, suministrar información específica a los consumidores, comercializadores o proveedores. También es importante destacar que con la implementación masiva de estos programas las autoridades van a poder centralizar la información y establecer políticas de control y seguimiento, detectar focos de riesgo, zonas de mejores prácticas ganaderas, zonas de producción especializada, el movimiento del ganado, los desarrollos implementados ante 28


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

problemas existentes, facilitando el contacto cliente-proveedor, cliente-producto, producto-consumidor; permitiendo que cualquiera de los agentes que intervienen en el proceso de producción, comercialización y consumo, de respuesta a los interrogantes como: ¿Qué se recibió?, ¿De quién?, ¿Cuál es su procedencia?, ¿Qué procedimientos se han empleado?, ¿Qué es lo que se entrega?, ¿A quién se entrega?, ¿Cuándo?, ¿Medio de transporte?, ¿Cómo?, ¿Qué se hizo?, ¿Volumen?, etc. En general el SITGB permitirá promover la seguridad comercial y confianza de los consumidores, ayudará con suma precisión a encontrar el origen de un problema, a hacer frente a las reclamaciones de los clientes, facilita la localización, inmovilización y retirada de los lotes ante posibles focos o situaciones de crisis, aumento de confianza y mayor eficacia.

4. Conclusiones La información específica de cada registro puede ser almacenada en forma segura, datos con múltiples atributos, desde la compatibilidad hasta el manejo de grandes volúmenes de información. La validación de los diferentes tipos de datos en el sistema es completa, mostrando alertas de error cuando un dato no es coherente. En cuanto a la parte operativa y procedimental de cada animal, se incluyeron las variables pertinentes para cada registro como son: registros iníciales, reproductivos, de peso y crecimiento, de cirugías y tratamientos, de leche, de compras, de ventas, de operarios, de proveedores, de ubicación, de propiedades, de ventas, de devoluciones, de traslados, de muertes, de padres entre otros, con los anteriores registros se establece la trazabilidad completa de cada animal, dando como resultado un producto de excelente calidad. Otra fortaleza del sistema es que permite implementar la información de ambas especies, la bovina y la bufalina, con sus diferentes tipos de razas. El tratamiento para cada animal con respecto a la ubicación es de forma jerárquica, es decir, en el momento que se genere un registro inicial, el animal es ubicado ya sea en fincas, secciones, lotes o grupos, lo que ofrece una organización completa y verificación exacta de todo el ganado. La flexibilidad del sistema, para el ingreso de nuevos registros está presente en casos como nuevas razas, programación de even29


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

tos, nuevos usuarios ya sean éstos digitadores, administrativos y administradores. Los resultados de cada proceso son plasmados en reportes y en completas estadísticas, arrojando indicadores de desempeño, producción, ubicación, peso y crecimiento, etc. Otro punto a tener en cuenta es la accesibilidad del sistema a entidades de pocos recursos, si bien es desarrollado en software libre, garantiza confianza sobre la forma de operar y manejar cada resultado, con inversión mínima en el aspecto técnico, humano y económico. El manejo de la información en tiempo real es otra fortaleza del sistema, con ayuda de herramientas web es actualizado, consultado y operado por distintos medios en diferentes partes. En un futuro el sistema se podrá integrar con diferentes tipos de Identificación electrónica que le permitirá al usuario un escaneo y seguimiento continuo a cada animal. El uso de esta tecnología le permitirá al pequeño y gran ganadero darse cuenta dentro de su proceso de administración de los indicadores que está cumpliendo y los que le hacen faltan para que su producto sea aceptado en el mercado nacional e internacional.

30


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Bibliografía AECOC (s.f.). Registro de Información. [en línea]. Barcelona (España): AECOC. <http://sede. aecoc.es/web/codificacion.nsf/0/925b46b62071aab5c1256f2e00506b2e/$FILE/Preguntas% 20trazabilidad%20.pdf> [Consulta: 29/07/2008]  AHUMADA ESPINOZA, Martha Judith (s.f.). Análisis y diseño de sistemas de información. [en línea]. Pleasanton, (CA, USA): ZOHO Corporation. <http://export.writer.zoho.com/public/cfe/ LOS-SISTEMAS-DE-INFORMACION1/fullpage> [Consulta: 20/06/2009]  ALIAGA IBARRA, Antonio y MIANI FLORES Marcos Agustín. (2008). PostgeSQL. [en línea]. San Vicente del Raspeig (Alicante, España): I.E.S. San Vicente, <http://www.iessanvicente. com/colaboraciones/postgreSQL.pdf> [Consulta: 15/04/2009]  ALMAGUER PÉREZ, Yanara. (2007). El búfalo una opción de la ganadería. [en línea]. En: Revista electrónica de Veterinaria. Volumen VIII, Número 8 (Agosto, 2007). Cuba: Veterinaria Organización®. p. 4-23. ISSN: 1695-7504. <http://www.veterinaria.org/revistas/redvet/n080807/080709. pdf> [Consulta: 10/06/2009]  ÁLVAREZ, Miguel Ángel. (2004). Introducción al manual del lenguaje PHP en su versión 5. [en línea]. Las Rozas (Madrid, España): Desarrollo Web. <http://www.desarrolloweb.com/articulos/1696.php> [Consulta: 25/04/2009]  AMADOR, Ignacio. (2006). Primer concurso de búfalos cebados. [en línea]. Bogotá (Colombia): Asociación Colombiana de Médicos Veterinarios y Zootecnistas, ACOVEZ. <http://www.acovez. org/index.php?option=com_content&task=view&id=21&Itemid=1> [Consulta: 12/06/2009]  ARIZA, Manuel Fernando; BARRERA, Gloria Patricia y MARTÍNEZ, Rodrigo Alfredo. (2006). Identificación de ADN Mitocondrial Bos Taurus en poblaciones de ganado Cebú Brahmán Colombiano. [en Línea]. Bogotá (Colombia): Corpoica. <http://www.corpoica.gov.co/SitioWeb/ Ofertas/articulo.asp?id=1427> [Consulta: 15/06/2009]  BAVERA, Guillermo Alejandro (s.f.). Producción bovina de carne. [en Línea]. Rio Cuarto (Córdoba, Argentina): Sitio Argentino de producción animal. <http://www.produccion-animal.com.ar/informacion_tecnica/raza_Criolla/54-criollo.htm> [Consulta: 12/06/2009]  CATTLEMAX (s.f.). Servicios agropecuarios y cinegéticos. [en línea]. México: Servicios Agropecuarios y Cinegéticos. <http://servagropecuarios.com/software.aspx> [Consulta: 15/06/2009]  COMPUAGRO. (2001). Sistemas de información para la industria ganadera. [en línea]. Bogotá (Colombia): CompuAgro. <http://www.compuagro.net/index.php> [Consulta: 14/06/2009]  DE FELIPE BOENTE, Isabel y BRITZ ESCRIBANO, Julián. (2004). Seguridad y trazabilidad alimentaria en el contexto internacional. [en línea] En: Revista ICE. Boletín Económico de ICE  N° 2790, del 15 de diciembre de 2003 al 4 de enero de 2004. Madrid (España): Información Comercial Española, ICE. <http://www.revistasice.com/cmsrevistasICE/pdfs/BICE_2790_4149__A587C2767C34E9156D659AC16D0FCDDD.pdf >[Consulta: 16/11/2009]  FEDEAGRARIO. (2009). Software ganadero para el monitoreo de fincas [en línea]. Bogotá? (Colombia): Fedeagrario. <http://www.fedeagrario.com/servicios.html> [Consulta: 10/06/2009]  FRIOGAN. (2008). Frigoríficos Ganaderos de Colombia. Calidad y seguridad alimentaria. [en Línea]. Bogotá (Colombia): Frigoríficos Ganaderos de Colombia, Friogan. <http://www.friogan. com/contenido/contenido.aspx?catID=21&conID=59> [Consulta: 15/07/2008]  GALLÚS, Carlos. (2002). Que es la herencia en php y como implementarla. [en Línea]. Zaragoza (España): WebEstilo.com. <http://www.webestilo.com/php/articulo.phtml?art=30> [Consulta: 25/04/2009]  GARCÍA CHÁVEZ, Carlos. (2007). Definición de Base de Datos. [en línea]. s.l.: Maestros del Web. <http://www.maestrosdelweb.com/principiantes/%C2%BFque-son-las-bases-de-datos/> [Consulta: 05/01/2009]  INSOLCA. (1998). Software ganadero PROGAN. [en línea]. Caracas (Venezuela): Insolca. <http:// www.progansoftware.com/default.htm> [Consulta: 10/06/2009]  LA GANADERÍA - EL PORTAL DE LOS GANADEROS. (2007a). Que se entiende por ganadería intensiva. [en línea]. Bucaramanga (Colombia): La Ganadería. <http://www.laganaderia.org/ index.php?option=com_content&task=view&id=37&Itemid=28> [Consulta: 23/07/2008]

31


Nº 21 - Universidad de Manizales, julio - diciembre / 2009 LA GANADERÍA - EL PORTAL DE LOS GANADEROS. (2007b). Que se entiende por ganadería extensiva. [en línea]. Bucaramanga (Colombia): La Ganadería. <http://www.laganaderia.org/ index.php?option=com_content&task=view&id=36&Itemid=28> [Consulta: 23/07/2008]  LEZGON (s.f). Norma ISO 22000:2005. [en línea]. s.l.: Editorial Lezgon. <http://www.lezgon.com/ pdf/IB00000003/32%20Gestion%20Calidad.pdf> [Consulta: 20/08/2008]  RUMITAG. Trazabilidad (Tras la huella o rastreabilidad). [en línea]. Cartagena (Colombia): USATI Ltda. y RUMITAG S.L. <http://www.rumitagcolombia.com/trazabilidad.html> [Consulta: 20/08/2008]  SADEP. (2005). Expertos en tecnología de información. [en línea]. Bogotá (Colombia): SADEP Ltda. <http://tauruswebs.com/wwwtauruswebs/> [Consulta: 14/06/2009]  SÁNCHEZ, Jorge. (2009). Sistema de Gestión de Base de Datos. [en línea]. s.l.: Intercambios Virtuales. <http://www.intercambiosvirtuales.org/libros-manuales/sistema-de-gestion-de-basede-datos> [Consulta: 10/01/2009]  SOFTSUPPLY. (2009). Programa ganadero GanSoft. [en línea]. Maracaibo (Zulia, Venezuela): SoftSupply, C.A.. <http://www.softsupply.com.ve/index.asp> [Consulta: 15/06/2009]  TECNOLOGÍAS101 (s.f.). Sistema de Gestión de Base de Datos. [en línea]. San Salvador (El Salvador): Tecnologías 101, S.A. de C.V.<http://tecnologias101.com/tec101/it/index. php?option=com_content&task=view&id=88&Itemid=75> [Consulta: 30/01/2009]  UNCPBA. Huella software, la mejor solución para la gestión productiva de bovinos de carne. [en línea]. Tandil (Buenos Aires, Argentina): Facultad de Ciencias Agropecuarias, Universidad Nacional del Centro de la Provincia de Buenos Aires, UNCPBA. <http://www.softhuella.com. ar/index.html> [Consulta: 01/06/2009]  USATI. Líderes en sistematización de hatos. [en línea]. Cartagena (Colombia): USATI Ltda. y RUMITAG S.L. <http://www.softwareganadero.com/> [Consulta: 10/06/2009]

32


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

ARTÍCULO CIENTÍFICO

Variabilidad espacial de la producción de café en un andisol de la zona cafetera colombiana1 [Coffee yield spatial variability in an andisol of the central Colombian coffee zone] Argemiro Miguel Moreno-Berrocal2 Recibo: 29.07.2009 - Ajuste: 20.11.2009 - Aprobación: 22.11.2009

Resumen La producción de una planta varía en función del sitio donde crece, la geoestadística permite conocer esa variabilidad en un lote de terreno, la cual se puede modelar y representar como un mapa de producción. El mapa de producción se puede usar como guía para aplicar de forma variable los insumos agrícolas a fin de mejorar la producción y la rentabilidad de los cultivos; parte de lo que hoy se conoce como agricultura de precisión. Para conocer la variabilidad espacial de la producción de café se hizo un estudio de la humedad volúmetrica del suelo y la resistencia mecánica a la penetración a través del perfil del suelo, para evaluar posibles asociaciones de la producción con dichas variables, en un andisol de la zona cafetera central de Colombia. Con el interpolador kriging ordinario, se observó dependencia espacial de la producción de café, ajustada a un modelo exponencial isotrópico. La humedad volumétrica y la resistencia mecánica a la penetración del perfil del suelo, también mostraron dependencia espacial moderada. No hubo asociación entre las variables estudiadas.

1 Modelo para citación: MORENO BERROCAL, Argemiro Miguel. (2009). Variabilidad espacial de la producción de café en un Andisol de la zona cafetera colombiana. En: Ventana Informática. No. 21 (jul-dic., 2009). Manizales (Colombia): Universidad de Manizales. p. 33-46. ISSN: 0123-9678 2 Investigador Científico II. Disciplina Fitotecnia, Centro Nacional de Investigaciones de Café (Cenicafé). Chinchiná, Colombia. Correos electrónicos: argemiro.moreno@cafedecolombia. com; argemiro.moreno@gmail.com. Nº 21 - Universidad de Manizales, julio - diciembre/2009 - pp 33-46

33


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Palabras Clave: Variabilidad espacial, kriging, café, Mapa de producción.

Abstract Plants yield depends on the place where they grow, with Geostatistics it is possible to know the variability of a crop in a stand, so that it can be modelated and represented in a map named production map; this map may be used as a guide to apply agricultural inputs partially, to obtain more profits and effective inputs use, as part that nowadays is known Precision Agriculture. It was carried out a study to know the spatial variability and possible associations of coffee yield, soil volumetric moisture content, and mechanical penetration resistance throw the soil profile, in an Andisol of the Central Colombian Coffee Zone. The results shows spatial dependence of coffee yield adjusted to a exponential isotropic model, using the kriging interpolator. Soil volumetric moisture content and mechanical penetration resistance throw the soil profile, showed moderate spatial dependence too. There no were significative associations between the variables studied. Keywords: Spatial variability, kriging, coffee, Map production.

Introducción La respuesta de las plantas al ambiente determina su adaptación y el efecto de las mejoras en los sistemas de producción que se pueden lograr con los cambios en las prácticas de manejo y el mejoramiento genético, cuya importancia radica en los aumentos de la eficiencia de los cultivos para producir alimentos o materias primas, como una necesidad actual y hacia el futuro a fin de suministrarle alimentos y materias primas a la población humana en constante crecimiento. Por tanto, entender y medir esas respuestas al ambiente proporcionan la base fundamental para desarrollar métodos, tanto agronómicos como tecnológicos que permitan aprovechar el potencial de los cultivos y la eficiencia en el uso de los insumos que se necesitan para tal fin (Hall, 2001, 1). La productividad de un cultivo depende de su material genético, del ambiente, manejo y de la interacción genotipo por ambiente, donde el suelo es un componente importante del ambiente pero variable en su 34


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

fertilidad natural, y sus componentes bióticos y abióticos, influyen de forma directa en la producción de los cultivos, por esto la producción es variable dentro de un lote; hoy día, esto ha conducido a distintas tecnologías agrícolas como el manejo específico por sitio (MES) para que la variabilidad de la producción sea mínima y se maximice el uso de los insumos agrícolas. Taylor et al (2003, 452), asumen que la conveniencia del manejo específico por sitio debe evaluarse cada año porque la magnitud y el patrón de la variación cambia de una estación a otra; y el relieve, es otro factor importante cuando el suelo tiene uso agrícola, Kravchenko et al. (2005, 514). En consecuencia, el conocimiento de la variabilidad de los factores de la producción y su relación con la productividad de los cultivos, ha sido la base de la agricultura de precisión, lo cual es fundamental para establecer sistemas de producción más sostenibles y eficientes en el uso del suelo y de los insumos, los cuales se pueden optimizar mediante aplicaciones variables de fertilizantes, herbicidas, insecticidas, fungicidas con adecuados esquemas de manejo (McBratney and Pringle (1999, 125). La demanda estimada del mercado mundial de café en el 2009 es de 131 millones de sacos de 46 kg y Colombia en el 2008 participó en ese mercado con once millones ciento tres mil sacos de 60 kg, lo cual generó un ingreso de divisas por un valor de U$1.953 millones, (OIC, 2009), lo anterior es una muestra de la importancia del café en la economía colombiana, por tanto todo aporte que se pueda hacer para contribuir a la competitividad de la caficultura colombiana, será importante para este agronegocio. Por estar establecida la caficultura colombiana en suelos de ladera, el manejo actual se caracteriza por el uso y aplicación generalizada de insumos, lo cual no va acorde con la variabilidad interna de los lotes ni en el tiempo, por tanto, se puede considerar que este tipo de manejo puede repercutir negativamente tanto en la competitividad del cultivo como en las características de los suelos. Aunque son varios los autores que se refieren al estudio de los suelos en sus diferentes aspectos: estudiar la variabilidad espacial de las propiedades del suelo, de forma general se puede hacer mediante análisis geoestadístico, Goovaerts (1999), ya sea para mejorar los levantamientos de suelos, Webster (1985), estudiar la génesis de los suelos, la pureza de las unidades de mapeo, Wilding y Drees (1983), determinar el grado de degradación de los suelos, Martínez y Zinck (1994); Martínez y Zinck (2004); citados por Valbuena et al. (2008, 1146) o determinar cuando y dónde las variaciones en las propiedades del suelo causan variaciones en el rendimiento de 35


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

un cultivo determinado, Mulla y Schepers (1997, 1). Todo esto conduce al gran desafío que enfrenta la agricultura de precisión, aplicando las diferentes tecnologías que existen hoy día.

1. Marco teórico La teoría de las variables regionalizadas, que considera diferencias entre pares de valores de una característica en lugares separados por una distancia y los expresa como varianzas, considerando su dirección, Webster (1985, 8) permite relacionar características aleatorias y estructuradas de las variables espacialmente distribuidas, logrando una descripción bastante adecuada, y es el soporte teórico de la geoestadística, la cual se puede usar para analizar la variabilidad espacial de las propiedades del suelo y en consecuencia de la producción de los cultivos, con las posibles relaciones entre la producción de un cultivo y las variables que caracterizan al suelo, tales como pH, contenido de materia orgánica, contenidos de nutrimentos, humedad volumétrica, textura y resistencia mecánica a la penetración a través del perfil. El semivariograma es la herramienta fundamental de la geoestadística para estimar la estructura de la variabilidad espacial de muchas propiedades biológicas, químicas y físicas del suelo, describiéndolas a manera de mapas, como es el caso de los mapas de rendimiento de un cultivo. El semivariograma, representa la tasa media de cambio de una propiedad con la distancia. La dependencia espacial disminuye a medida que se incrementa la distancia h, y finaliza a una cierta distancia, el alcance. Más allá del alcance la tasa media de cambio es independiente de la separación entre las observaciones. La autocorrelación de la variable sólo aparece dentro del alcance del semivariograma, por tanto es ahí donde se puede tomar alguna decisión de conformidad con los objetivos del estudio. La literatura no presenta métodos estandarizados para estudiar la variabilidad de los suelos ni de la producción de los cultivos. Henríquez y Viloria (1999, 5), al estudiar el número de observaciones para estimar el semivariograma de algunas propiedades del suelo y distancias de muestreo, encontraron que cuando se aumenta el número de observaciones el ruido disminuye por lo que la precisión de las estimaciones aumenta, de tal manera que 66 observaciones o menos no son suficientes para este propósito, pero un número entre 66 y 89 pudieran ser suficientes para el área estudiada. Además concluyen que del mismo análisis se 36


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

desprende la ocurrencia de una variabilidad de corto alcance, a causa de la existencia de altos valores de varianza en cortas distancias y una dependencia espacial entre 30 m y 70 m, por lo que una distancia de muestreo menor que 30 m sería suficiente en lotes dedicados a la investigación y 70 m para los de otros usos. McBratney and Pringle (1999, 149), encontraron que con una resolución de 20mx20m se necesita conocer la variabilidad espacial del suelo a intervalos de 20 m a 30 m según la variable de interés. Wollenhaupt et al. (1994), Franzen and Peck (1995) y Pierce et al. (1995) citados por Cambardella and Karlen (1999, 6) recomiendan que cuando se hace una malla de puntos de muestreos para muestreos en el suelo, éstos no deben ser mayores que 66 m a 100 m. El semivariograma experimental constituye el primer paso hacia una descripción cuantitativa de la variación espacial de una variable, y el modelo matemático que permite calcularlo es el siguiente:

1 N γ ( h) = Σ [ Z ( xi ) + Z ( xi 2 N (h) i =1

+ h )]

2

(1)

Donde: Z(xi) representa los valores muestrales en los puntos xi en los cuales se ha obtenido datos tanto en xi como en xi + h; N(h) corresponde al número de pares de datos separados por una distancia h. En la práctica se define un número finito de distancias, hj y se asigna al cálculo de γ(hj) todos los pares de valores contenidos en el intervalo (hj - Δhj, hj + Δhj). Por tanto, al ser el semivariograma el promedio de todos los pares de semivarianzas para cada distancia de separación (lag) depende del número total de datos y de la consistencia de los mismos. En consecuencia, se puede afirmar que el semivariograma puede resultar erróneo cuando hay pocos datos o cuando en ellos existen valores extremos. De otra parte, al ser h un vector que implica dirección además de distancia, puede haber anisotropía en la variación espacial de la variable, es decir un comportamiento diferente según la dirección elegida, Webster and Oliver (1990, 215-220). Para interpretar el semivariograma se necesita ajustar una función o modelo teórico que proporciona unos parámetros con los que se describe la variación espacial de la variable (mapeo), los cuales se utilizan por el kriging, a fin de obtener la representación de la variación espacial de la variable en ℜ²; el mapa de producción por ejemplo. 37


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

En todo semivariograma, por definición γ(0)=0 pero con frecuencia γ(0) muestra un valor positivo dando lugar a lo que se ha denominado efecto pepita o varianza en el origen C0 (nugget) (Matheron citado por Cressie (1993, 59)); este efecto se debe a la variabilidad a una distancia más pequeña que la menor h considerada; en realidad es una estimación de la varianza aleatoria; el alcance, marca la distancia más allá de la cual la autocorrelación es nula; h es el vector de distancia; C0 + C1 es la meseta o valor estable de γ, el cual coincide con el valor de la varianza de la muestra en el alcance. También se ha establecido la relación entre el efecto pepita (Co) y el umbral (Co + C) la cual se denomina efecto pepita relativo o grado de dependencia espacial. Esta relación ha sido cuantificada por Cambardella et al. (1994, 1501), señalando que una relación menor que el 25% indica una fuerte dependencia espacial, entre 25% y 75% indica dependencia espacial moderada y cuando es mayor que el 75% indica una dependencia espacial débil. Según el propósito del estudio de una variable, el alcance es la pauta para tomar decisiones; por ejemplo si se estudia la variabilidad de la fertilidad natural de un suelo, el alcance en la materia orgánica, puede tomarse como la distancia máxima a la cual deben tomarse las submuestras de suelo para conformar una muestra compuesta, para enviar al laboratorio. Kemerer y Melchiori et al. (s.f.,) en un estudio sobre la variabilidad espacial en suelos agrícolas de la provincia de Entre Ríos, Argentina, encontraron en dos lotes de 50 ha y de 120 ha, de forma respectiva rangos de 332 m y 168 m; ajuste a un modelo esférico y exponencial y coeficientes de determinación de 0.86 y 0.83, para el contenido de materia orgánica. Esto indica que a la hora de usar estos resultados con fines de agricultura de precisión se debe estudiar cada lote en particular, para no caer en generalizaciones que conducirían a manejo específico por sitio erróneo. Los mapas de rendimientos de un cultivo, aparte de permitir el conocimiento de la variabilidad natural o inducida de los lotes, también permite: usar la tecnología de dosis variable (TDV) de los insumos para conocer su efectividad; planificar, ejecutar y evaluar ensayos de carácter agronómico; análisis acertado de los resultados que se obtienen; implementar prácticas agronómicas más eficientes; formular nuevas hipótesis de trabajo; y la integración con otras tecnologías de agricultura de precisión disponibles. Lo anterior, se fundamenta en que las propiedades químicas de los suelos pueden ser espacialmente dependientes, como una consecuencia de los procesos de su formación y del manejo (Cahn, et al., 1994, 1240). 38


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

En los suelos donde se produce café, se han hecho varios estudios relacionados con variables de tipo químico, con resultados diferentes en cuanto a la dependencia espacial y la distribución de las mismas (Ochoa et al., 2003,184), pero ninguno con relación a la dependencia espacial de la producción de café, tal vez por lo costoso que resulta este tipo de estudio, pues se necesita hacer la cosecha por planta o por sitio, según el sistema de siembra del café, en un tiempo determinado, pues la producción no es concentrada. De todos modos, el mapeo de la producción de un cultivo, es el resultado que determina la efectividad de un proyecto de agricultura de precisión, al permitir hacer los ajustes necesarios. El objetivo de este estudio, fue el de evaluar la variabilidad espacial de la producción de café (Coffea arabica L.) en un suelo de la unidad Chinchiná, como un primer paso que contribuya a la caficultura de precisión (CP) en cuanto que al conocer la variabilidad espacial de la producción (mapa de producción), ésta debe estar asociada de alguna forma con la variabilidad espacial de la fertilidad natural del suelo en por lo menos una de sus variables de fertilidad, de tal suerte que si se tratara del nitrógeno, se pueda pensar en un manejo específico por sitio (MES) de este elemento, a fin de mejorar su efectividad y reducir los costos de producción.

2. Metodología 2.1 Localización El experimento se hizo en un lote de la Subestación Experimental La Catalina, donde se desarrolla parte de la investigación del Centro Nacional de Investigaciones de Café (Cenicafé), con un área de 4.900 m². Este lote corresponde a un andisol de la unidad cartográfica Chinchiná y clasificación taxonómica Melanudands; el cual estaba sembrado con café variedad Colombia y listo para la renovación por medio de zoqueo a 30 cm, lo cual se hizo y se tomaron datos de cuatro cosechas entre los años 2003 y 2008. En la figura 1, se muestra el modelo digital de elevación (MDE) del lote, el cual se elaboró con el programa Surfer, con base en una malla de 100 puntos (10 x 10) tomados con un equipo GPS Garmin GPSMap CSx, cada 8 m. Aunque la diferencia de cota entre el punto más bajo y el más alto fue de 4 m, se puede observar que el lote no tiene superficie totalmente plana.

39


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Figura 1. Modelo digital de elevación (MDE) del lote donde se tomaron los datos de producción de café cereza por planta. Subestación Experimental La Catalina, Pereira, Risaralda.

2.2 Toma de datos Se hizo un muestreo sistemático mediante una cuadrícula, con espaciamiento de 6 m y una orientación en un eje de coordenadas (x-y). En cada punto o nodo de intersección de la cuadricula se tomaron los datos de producción en kg de café cereza por planta, en 144 puntos, figura 2. También se midió la resistencia mecánica a la penetración a través del perfil del suelo y la humedad volumétrica del suelo (% v/v), a 15 cm y 30 cm de profundidad el mismo día de forma sistemática, en una malla de 81 puntos a 8 m x 8 m. La resistencia mecánica a la penetración, se midió con un Penetrófrafo Eijkelkamp expresada en MPa y la humedad volumétrica del suelo se determinó con un equipo que se basa en la Reflectometría en el dominio del tiempo (TDR) de Trase Systems.

Figura 2. Malla de puntos de muestreo que corresponden a cada planta donde se tomó el dato de la producción de café cereza por planta en kg. Subestación Experimental La Catalina, Pereira, Risaralda.

40


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

2.3 Análisis estadístico Cuando se tiene un ciclo de producción de café, de forma general se analiza la media de las cosechas obtenidas porque la producción del café varía de un año a otro, en este caso fueron cuatro, por tanto los datos correspondientes se analizaron conforme a la estadística descriptiva: valor mínimo, valor máximo, media, mediana, desviación estándar (DE) y coeficiente de variación (CV). También se hizo un análisis de la distribución de frecuencia (histograma) de los datos, verificando si seguían una distribución normal. De otra parte, se hizo correlación de Pearson entre la producción, resistencia a la penetración y la humedad volumétrica del suelo (% v/v) a 15 cm y 30 cm de profundidad.

2.4 Análisis geoestadístico Para explicar la variación espacial de la producción de café, porcentaje de humedad volumétrica y resistencia a la penetración a través del perfil del suelo, los datos se procesaron de la siguiente forma: 1. Análisis exploratorio de datos, para ver tipo de comportamiento y su distribución. 2. Análisis estructural o variograma, enfocado principalmente a establecer a que modelo teórico se ajustaba y por tanto el modelo a asumir conforme a los datos. 3. Interpolación o estimación espacial: el kriging ordinario. Lo anterior se hizo con Excel de MS Office y un software geoestadístico (GS+, Gamma Design Software, St. Plainwell, MI, USA).

3. Resultados y discusión 3.1 Análisis estadístico En la tabla 1 se muestran los estadísticos que describen las variables analizadas en este estudio, para las cuales la prueba de bondad de ajuste a una distribución normal, resultó significativa, por tanto no hubo necesidad de hacer transformación alguna de los datos. Por los valores del coeficiente de variación se puede observar que los datos más dispersos corresponden a la producción de café cereza por planta, lo cual es normal en este tipo de datos, y los menos dispersos son los de la humedad volumétrica del suelo a 30 cm de profundidad en el perfil del suelo. La correlación de Pearson no mostró asociación entre la producción de café cereza por planta y las variables físicas medidas en el suelo. Aunque en otros cultivos, se ha estudiado la variabilidad de propiedades físicas, químicas y biológicas del suelo que afectan la productividad de 41


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

dichos cultivos, reportándose asociaciones entre éstas y el rendimiento (Mallarino et al., 1999, 15). Tabla 1. Estadística descriptiva de las variables de este estudio: kg de café cereza por planta, % de humedad (v/v) y resistencia a la penetración (Mpa), en un lote de café zoqueado después de cuatro cosechas. Variable kg café cereza/planta % humedad a 15 cm % humedad a 30 cm R. Penetración 15 cm R. Penetración 30 cm

Mínimo 2.01 18.8 27.8 0.81 1.05

Máximo 6.03 42.2 37.9 1.93 2.13

Rango 4.01 23.4 10.1 1.12 1.08

Estadísticos Media 3.83 32.6 33.0 1.38 1.70

Mediana 3.68 32.5 32.6 1.40 1.70

DE 1.17 3.9 2.5 0.22 0.23

CV (%) 30.7 11.9 7.6 15.9 13.9

De lo anterior se puede inferir que existe la posibilidad de encontrar asociaciones entre la producción y las variables que describen el suelo, sean de carácter físico, químico o biológico, pero encontrarlas para aplicarlas en agricultura de precisión, necesita de estudios más completos con equipos interdisciplinarios e incluyendo la variabilidad temporal, porque como en el caso del café, la producción varía de un año a otro, aparte de las variaciones climáticas que influyen de manera significativa en la productividad de los cultivos. Blackmore et al (2003, 455), al estudiar las tendencias espaciales y temporales de los mapas de producción durante seis años, recomiendan que cada lote debe manejarse conforme a las condiciones propias de cada año.

3.2 Análisis geoestadístico Los resultados del análisis estructural para caracterizar la estructura espacial de las variables kg de café cereza por planta, humedad volumétrica del suelo (% v/v) y la resistencia mecánica a la penetración a través del perfil del suelo, se muestran en la tabla 2. Se puede observar que excepto en la resistencia mecánica a la penetración a través del perfil del suelo medida a 15 cm, en las demás variables el valor del rango fue mayor que los de las distancias mínimas de muestreo utilizadas en este estudio los cuales fueron de 6 m y 8 m, esto permite concluir que las distancias de muestreo fueron adecuadas (Van Groenigen, et al. 2000, 1674). Ochoa et al., (2003, 184), al estudiar la variabilidad espacial de la materia orgánica, nitrógeno nítrico y nitrógeno total, con un muestreo sistemático a 10 m en Andisoles de cuatro localidades de la Zona cafetera central colombiana, encontraron rangos (Ao) con valores entre 28 y 146 m y diferentes modelos de ajuste 42


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

con el interpolador kriging ordinario, lo cual indica que la dependencia espacial de una variable, está supeditada a las condiciones del suelo donde se mida; esto es lo que justifica usar Tecnología de dosis variable (TDV) de insumos aplicados al suelo, en los sistemas de producción agrícolas y pecuarios con pastoreo. Tabla 2. Parámetros de los variogramas para kg por planta de café cereza, % de humedad del suelo y resistencia a la penetración a través del perfil. kg de café cereza/ planta Modelo de ajuste Efecto pepita (Co) Meseta (Co + C) Rango (Ao) E. pepita/meseta [Co/(Co+C)] Coef. de determinación (r²) RSS

% de Humedad volumétrica (v/v)

Resistencia mecánica a la penetración (Mpa) a 15 cm a 30 cm Esférico Esférico 0,0213 0,0324 0,04406 0,0693 61 131

Exponencial 1,147 2,295 161

a 15 cm Gaussiano 11,200 43,400 115

a 30 cm Gaussiano 5,500 11,001 211

49,97%

25,80%

49,99%

48,34%

46,75%

0,973

0,921

0,199

0,975

0,944

1,52E-3

3,63

1,36

6,204E-6

1,610E-5

Se optó por el kriging ordinario porque las distancias de muestro fueron bajas, hubo suficientes puntos de muestreo y en estos casos el kriging es igual o mejor que otros métodos interpoladores como el IWD (Inverse Distance Weighting), el cual puede ser útil cuando las distancias de muestreo son amplias, (Villatoro et al. 2008, 95). Aparte de lo anterior, los variogramas fueron isotrópicos. Con relación a la producción de café cereza por planta se obtuvo un semivariograma experimental isométrico que se ajustó al modelo matemático Exponencial (figura 3), cuya meseta se calculó en 2,295, el rango en 161m, efecto pepita en 1,147 y la relación efecto de pepita meseta fue de 49,97%. Con estos valores, se construyó una gráfica bidimensional de la estimación kriging ordinario para obtener el mapa de producción de café, figura 4, donde se puede observar su distribución espacial. Valbuena et al. (2008, 1146), al estudiar la Variabilidad espacial del suelo y su relación con el rendimiento de mango (Mangifera indica L.), con 61 puntos de muestreo, encontraron que las propiedades del suelo y el rendimiento presentaron un patrón de distribución espacial que varía de manera considerable dentro del lote y el rango de los modelos de semivarianza ajustados varió entre 10 y 192 m.

43


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Figura 3. Semivariograma para la variable kg de café cereza por planta a partir de toda el área de estudio (Parámetros de la ecuación se presentan en la Tabla 2).

Estos resultados indican que hay dependencia espacial de la variable producción de café por planta en el nivel de moderado y puede alcanzar hasta los 161 m. Al observar el mapa de producción, se aprecia que la producción varía conforme a la pendiente del lote, de tal suerte que se puede esperar que la producción se afecte por la pendiente del suelo, sin que esto signifique que no se pueda producir café en ladera. De otra parte, la producción también depende de la fertilidad del suelo, y el comportamiento espacial de sus características es variable, Cambardella and Karlen (1999, 1), en su análisis espacial de los parámetros de la fertilidad del suelo, encontraron rangos mayores que 182 m para pH, calcio, carbono orgánico y nitrógeno, mientras que para fósforo y magnesio el rango fue menor que 100 m.

Figura 4. Mapa de producción de café en función de la variable kg de café cereza por planta.

44


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

4. Conclusiones • Los análisis espaciales permitieron conocer la variabilidad espacial de las variables estudiadas, aunque no hubo asociación con la producción del café; la producción de café se ajustó a un modelo exponencial isotrópico, usando el interpolador kriging ordinario, con el cual se generó el respectivo mapa de producción. • Los mapas de producción de café pueden ser una guía para tomar decisiones con el propósito de hacer uso racional de los insumos agrícolas (Tecnología de dosis variable) para bajar los costos de producción y mejorar la rentabilidad del agronegocio; donde el interpolador kriging ordinario es una herramienta válida para hacer mapas de producción de café. • El enfoque general de la investigación basado en análisis espacial es apropiado para estudiar la variabilidad espacial de la producción, la fertilidad natural del suelo, sus propiedades físicas y químicas, con el propósito de hacer manejos específicos por sitio, que consideren la variabilidad espacial y busquen mayor eficiencia y sostenibilidad de la caficultura y de sus cultivos complementarios.

5. Agradecimientos A los caficultores de Colombia, quienes por medio de su institución la Federación Nacional de Cafeteros, contribuyeron para que fuera posible este sueño de formación en los Sistemas de Información Geográfica. A Edgar Hincapié, disciplina de suelos de Cenicafé, por sus valiosos aportes y haber facilitado los equipos TDR y penetrógrafo. A Andrés Mauricio Villegas, mejoramiento genético, por su valiosa colaboración de forma efectiva y oportuna. A todo el personal de la Subestación Experimental La Catalina, por todo el apoyo en la toma de datos de café. De manera especial a los auxiliares Javier Salazar y Arturo Gómez, quienes con mucha voluntad y entusiasmo colaboraron en la toma de los datos de suelo.

Bibliografía BLACKMORE, Simon; GODWIN, Richard J. and FOUNTAS, Spyros. (2003). The Analysis of Spatial and Temporal Trends in Yields Map Data Over Six Years. In: Biosystems Engineering. 84(4):455-466. Amsterdam (The Netherlands): Elsevier.B.V. ISSN 1537 5110. CAMBARDELLA, C. A.; MOORMAN, T. B. ; NOVAK, J. M.; PARKIN, T. B.; KARLEN, D. L.; TURCO, R. F. and KONOPLA, A. E. (1994). Field-Scale Variability of Soil Properties in Central Iowa Soils. In: Soil Science Society of America Journal. 58:1501-1511. Madison (WI, USA): Soil Science Society of America ISSN 0361-5995.

45


Nº 21 - Universidad de Manizales, julio - diciembre / 2009 CAMBARDELLA, C.A. and KARLEN, D. L. (1999). Spatial Analysis of Soil Fertility Parameters. In: Precision Agriculture. 1(1):5-14. Dordrecht (Netherlands): Springer Netherlands ISSN 1385-2256. CAHN, M. D. ; HUMMEL, J. W. and BROUER, B. H. (1994). Spatial Analysis of Soil fertility for Sitespecific Crop Management. In: Soil Science Society of America Journal.. 58:1240-1248. 1994. Madison (WI, USA): Soil Science Society of America ISSN 0361-5995. CRESSIE, N. A. C. (1993). Statistics For Spatial Data. Revised Edition. New York: John Wiley & Sons, 900 p. ISBN 0-471-00255-0. HALL, A. E. (2001). Crop Responses to Environment.. Boca Raton (Florida, USA): CRC Press LLC. ISBN 0-8493-1028-8. HENRÍQUEZ, M. y VILORIA, J. (1999). Número de observaciones para estimar semivariogramas de algunas propiedades de suelo y distancias de muestreo. En: Agronomía Tropical (Venezuela) 49(1):5-17. Maracay (Aragua, Venezuela): Centro Nacional de Investigaciones Agropecuarias (INIA-CENIAP) ISSN 002-192X KEMERER, A. C. y MELCHIORI, R. (s.f.) Variabilidad Espacial en Suelos Agrícolas de la Provincia de Entre Ríos. [en línea]. Buenos Aires (Argentina): Instituto Nacional de Tecnología Agropecuaria, INTA. <http://www.inta.gov.ar/parana/info/documentos/suelos/congreso/Kem erer%20&%20Melchiori%20-%20Variabilidad%20espacial%20en%20suelos%20agricolas. pdf>. [Consulta: 14/07/2009]. KRAVCHENKO, A.N.; ROBERSTON, G. P.; THELEN, K.D. and HARWOOD, R. R. (2005). Management, Topographical, and Weather Effects on Spatial Variability of Crop Grain Yields. In: Agronomy Journal, 97:514–523. Madison (WI, USA): American Society of Agronomy. ISSN 0002-1962 MALLARINO A. P.; OYARZABAL, E. S. and HINZ, P. N. (1999). In: Precision Agriculture, 1(1):1525). Dordrecht (Netherlands): Springer Netherlands ISSN 1385-2256. MCBRATNEY, A. B. and PRINGLE, M. J. (1999). Estimating Average and Proportional Variograms of Soil Properties and Their Potential Use. In: Precision Agriculture. 1(2):125-152. Dordrecht (Netherlands): Springer Netherlands ISSN 1385-2256. MULLA, D. J. and SCHEPERS, J. S. (1997). The State of Site Specific Management for Agriculture. [en línea]. ASA, CSSA, SSSA. p..1-18. Madison (WI, USA): American Society of Agronomy - Crops Science Society of America – Soil Science Society of America. <http://127.0.0.1:4664/ redir?url=D%3A%5CDocuments+and+Settings%5CAMor%5CMy+Documents%5CGeomatic a%5CFertilizacion+ante+NG+y+PG+en+maiz%2Epdf&src=8&schema=8&start=1&s=DYFjlm 5vZwPidjG9MrQnq2aGryk>. [Consulta: 09/07/2009]. OCHOA M., W.; SUÁREZ V., S. y SADEGHIAN K., S. (2003). Variabilidad espacial del nitrógeno disponible en Andisoles de la zona cafetera colombiana. En: Cenicafé 54(2):179 -189. Chinchiná (Colombia): Cenicafé. ISSN 0120-0275. TAYLOR, J. C.; WOOD, G. A.; EARL, R. and GODWIN, R. J. (2003). Soil Factors and their Influence on Within-field Crop Variability, Part II: Spatial Analysis and Determination of Management Zones. In: Biosystems Engineering, 84(4):441-453. (The Netherlands): Elsevier.B.V.. ISSN 1537-5110. VALBUENA CALDERÓN, C. A.; MARTÍNEZ MARTÍNEZ, L. J. y GIRALDO HENAO, R. (2008). Variabilidad espacial del suelo y su relación con el rendimiento de mango (Mangifera indica L.). En: Revista Brasileira de Fruticultura 30(4):1146-1151. Jaboticabal (SP, Brazil): Sociedade Brasileira de Fruticultura. ISSN 0100-2945. VAN GROENIGEN, G. M., BOUMA J. (2000). Soil Sampling Strategies for Precision Agriculture Research under Sahelian Conditions. In: Soil Science Society of America Journal. 64:16741680. Madison (WI, USA): Soil Science Society of America. ISSN 0361-5995. VILLATORO, M.; HENRÍQUEZ, C. y SANCHO, F. (2008). Comparación de los interpoladores IDW y kriging en la variación espacial de pH, Ca, CICE y P del suelo. En: Agronomía Costarricense 32(1):95-105. 2008. San José (Costa Rica): Ministerio de Agricultura y Ganadería, el Colegio de Ingenieros Agrónomos y la Universidad de Costa Rica. ISSN 0377-9424. WEBSTER, R. (1985). Quantitative Spatial Analysis of Soil in the field. In: Advances in Soil Science, B. A. Stewart Ed. 3:1-70. New York: Springer-Verlag, ISBN 0-387-96116-X. WEBSTER, R.; O. M. A. (1990). Statistical Methods in Soil and Land Resource Survey. Spatial Information Systems. Oxford (UK): Oxford University Press. 316 pp. ISBN 0-19-823316-7.

46


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

ARTÍCULO CIENTÍFICO

uCLAVS: Arquitectura basada en múltiples motores para análisis de malware en la nube de computación1 [uCLAVS: an architecture of a multiengine based malware analysis service in the network cloud] Cristian Adrian Martínez2 Gustavo Adolfo Isaza3 Recibo: 04.09.2009 - Aprobación: 27.11.2009

Resumen En este artículo se propone un modelo de detección de malware, uCLAVS, acrónimo de University of Caldas’ AntiVirus Service, un servicio basado en múltiples motores que sigue el conjunto de protocolos y estándares definidos para las tecnologías Web Services. uCLAVS está apoyado en la idea de que el análisis de archivos comúnmente llevado a cabo por aplicaciones residentes en el cliente puede mejorar su desempeño si se traslada a la red, donde en vez de correr software complejo en cada nodo, se le dota a cada uno de un proceso liviano que adquiera los archivos que entran al sistema, los envíe a la red para ser analizados por múltiples motores, y luego pueda decidir si se ejecutan o no de acuerdo al reporte de amenaza entregado. Como resultado de las pruebas realizadas con el prototipo de uCLAVS se puede argumentar, entre otras cosas, que brinda la posibilidad de aumentar la tasa de aserción en la caracterización de archivos nocivos, permite la construcción de clientes livianos, facilita las 1 Modelo para citación: MARTÍNEZ, Cristian Adrián e ISAZA, Gustavo Adolfo. (2009). uCLAVS: Arquitectura basada en múltiples motores para análisis de malware en la nube de computación. En: Ventana Informática. No. 21 (jul-dic., 2009). Manizales (Colombia): Universidad de Manizales. p. 47-65. ISSN: 0123-9678 2 Estudiante Maestría en Ciencias Computacionales. Ecole supérieure d’Ingénieurs en Electronique et Electrotechnique (ESIEE París – Francia). Ingeniero de Sistemas y Computación Universidad de Caldas (Colombia). Correo electrónico: adrian@sehablalinux.com 3 Estudiante Doctorado Ingeniería de Software (UPSA - España), Ms.C. en Ingeniería de Software. Ingeniero de Sistemas y Computación. Docente Departamento de Sistemas e Informática – Universidad de Caldas (Colombia). Correo electrónico: gustavo.isaza@ucaldas.edu.co Nº 21 - Universidad de Manizales, julio - diciembre/2009 - pp 47-65

47


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

actualizaciones de día cero, y provee una maximización de las capacidades forenses. Palabras clave: Cloud Computing, Detección de Malware, Antivirus, Web Services, Seguridad en la Nube

Abstract This paper aims to present a model for malware detection, uCLAVS (University of Caldas’ AntiVirus Service), a multiple engine service based that follows the set of defined protocols and standards for Web Services technologies. uCLAVS is based on the idea that the files analysis commonly carried by applications residing on the client can improve their performance if they are moved to the network, where instead of running complex software on every host, it gives each process a receiving the light entering the system files, send them to the network to be analyzed by multiple engines, and then to decide whether or not they are executed according to the report of threat delivered. As a result of the tests with the prototype can be uCLAVS arguing, among other things, that offers the possibility of increasing the rate of the assertion characterization harmful files, allows the construction of thin clients, facilitates zeroday updates, and provides a forensic capabilities enhancement. Keywords: Cloud Computing, Malware Detection, Antivirus, Web Services, Cloud Security

Introducción Los asuntos relacionados con la seguridad informática se han convertido en un tema importante de investigación principalmente porque en los últimos años el problema de la inseguridad ha crecido significativamente escalando el nivel de dificultad de gestión de la misma. En uno de los más reconocidos estudios sobre crimines informáticos realizado en el 2008 por el Computer Security Institute (Richardson, 2008) se estima, entre otros aspectos, que el costo anual de los incidentes de seguridad supera en todo el mundo los cientos de billones de dólares. Típicamente las amenazas pueden tener dos raíces, por un lado se encuentran las vulnerabilidades en el software, y por el otro, la ausencia de una configuración correcta de los sistemas; mientras el último aspecto puede ser más difícil de sobrellevar, la solución al primero parece demasiado obvia; crear programas que estén extensos de errores y debilidades. Muchas compañías han tratado de perseguir este fin a través de costosas pruebas y procedimientos rigurosos de validación de 48


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

software, sin embargo, se ha probado que esto es una tarea cada vez más compleja. Al respecto, Schneier (2004, 204) argumenta eliminar los errores que afectan el desempeño de un programa es una tarea difícil, pero lo es aún más encontrar aquellos que vulneran la seguridad. El problema de los virus informáticos es un buen ejemplo de ello y como Coursen (citado en Helenius, 2002) ha demostrado, el costo de los incidentes provocados puede ser demasiado alto. De acuerdo a las estimaciones expuestas en el último informe de Computer Economics (2007), la pérdida económica mundial causada por el malware excedió los 13 billones de dólares en el año de 2007. La detección de software de código malicioso representa uno de los problemas del día, y para detectarlos y detenerlos, los llamados programas antivirus se han convertido en una de las herramientas más utilizadas. El modo de operación de este tipo de software se basa principalmente en la utilización de firmas y heurísticas. Un fenómeno común que apoya este planteamiento es el aumento de la complejidad en el software destinado a combatir el malware, los estudios demuestran que la mayoría de antivirus conocidos fallan al detectar un porcentaje significativos de archivos maliciosos, lo que obliga a los vendedores a desarrollar técnicas más elaboradas para reducir el umbral, y aunque en la mayoría de los casos los nuevos mecanismos pueden ser provechosos, la brecha no se cierra, sin contar que existe una penalización considerable en los tiempos de ejecución de los programas, lo que afecta el desempeño de los sistemas cliente. Esta creciente complejidad de los programas antivirus también ha contribuido indirectamente a convertirlos en un foco de vulnerabilidades y ataques, el SANS Institute (2007) en su último reporte anual sobre los 20 principales riesgos de seguridad, deja al descubierto múltiples fragilidades en herramientas de varios fabricantes que son utilizadas para evadir su correcto funcionamiento o tomar el control de los sistemas involucrados. En este artículo se propone la definición de una arquitectura para la detección de malware apoyada en el concepto de los Web Services, uCLAVS (University of CaLdas’ AntiVirus Service) un servicio desplegado en la nube de computación que sigue el conjunto de protocolos y estándares definidos para tecnologías Web Services, el cual es capaz de detectar el contenido o comportamiento malicioso de un archivo desconocido a través del uso de múltiples engines que implementan estrategias de análisis heterogéneas. En el capítulo 1 se presenta una breve revisión del estado del arte y los aportes más relevantes; el apartado 2 describe la arquitectura, 49


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

modelos, implementación del servicio y especificaciones, finalmente se evidencian unas conclusiones preliminares del modelo diseñado y su prototipo subyacente.

1. Estado del arte y trabajos relacionados A pesar que la investigación de técnicas para el análisis de malware no es reciente, y muchos autores desde Cohen (1986), pasando por Borghello, Aycock, entre otros, la visión del análisis de malware como un servicio es de aparición reciente. La idea de convertir la detección de malware en un servicio de Cloud Computing fue explícitamente introducida en Oberheide, et al. (2007 y 2008), pero los sistemas de filtros para el correo electrónico y el protocolo HTTP desplegados in-cloud se fueron haciendo populares desde un tiempo atrás. Como se muestra en Link (2003), es posible realizar protección como forma de servicios. Las herramientas mencionadas en el protocolo ICAP, como servicios antivirus (corriendo en la misma máquina) pueden servir como un escáner de múltiples propósitos para facilitar la detección de virus a través de vía e-mail, web y servidores proxy. Por lo tanto, una mejor forma de hacerlo es escanear en tiempo de acceso, por ejemplo escanear un archivo mientras se está abriendo/o cerrando. Asumiendo que el servidor de Samba está corriendo bajo el sistema operativo Linux, se puede realizar Hooking, llamadas al sistema para la apertura o cierre de un archivo para realizar primero un escaneo antes de este ser ejecutado y si está infectado negar el acceso del mismo. (Link, 2003, 63). En Link (2003, 55-77) se presenta el diseño de samba-vscan un sistema de detección de malware en tiempo de acceso para Samba, una implementación libre del protocolo SMB de Microsoft Windows utilizado para compartir archivos en red, entre sus características más notables se encuentra el hooking a nivel del kernel de Linux de los eventos asociados al acceso a un archivo y la utilización de múltiples motores de análisis. Trasladar el descubrimiento de código que puede ser malicioso desde el anfitrión hasta el servidor, como se detallará en el contenido de este artículo, presenta ventajas considerables: − Múltiples motores de protección heterogéneos: Aumento de la tasa de aserción en la caracterización de archivos nocivos gracias a la implementación de varios motores de protección que utilizan métodos y técnicas heterogéneas de análisis y detección. 50


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

− Clientes Livianos: Reducción de los costos de procesamiento en los clientes en contraposición al complejo software de análisis de malware que ejecutan actualmente (Larkin, 2007), al permitir que corran un proceso liviano encargado de detectar la ejecución de los archivos, enviarlos al servicio en red para el análisis, y permitir su acceso basado en el reporte entregado. − Acceso a equipos con recursos limitados: Como consecuencia de la ejecución de procesos livianos es posible llevar los clientes a dispositivos de recursos restringidos como equipos móviles y sistemas embebidos, lo que los habilita para hacer frente al malware. − Actualizaciones de Día Cero: Las actualizaciones constantes de la base de firmas en las aplicaciones cliente dejan de ser necesarias, lo que reduce los costos administrativos. − Recursos escalables: Mientras una solución basada en el cliente comúnmente no puede crecer conforme a las exigencias, un servicio en red está en la capacidad de ser escalable, añadiendo más recursos según sea necesario. Esta característica permite que se generen clusters de servidores habilitados para atender tareas paralelas e incluso ejecutar varios grupos de engines de protección al tiempo. − Facilidades en la administración y el despliegue: El primer paso para hacer más simple la administración es centralizarla en el servicio y no en cada uno de − los clientes, este enfoque además posibilita el despliegue de nuevos engines de protección sin alterar la función del servicio. − Aumento de las capacidades forenses: La información recolectada por el servicio a través de los diferentes engines de protección maximiza la respuesta ante aquellas amenazas que han sido detectadas por otros clientes, o que poseen comportamientos similares a otras potencialmente nocivas. El registro almacenado también proporciona los datos necesarios para conocer el origen de un ataque y el camino de propagación, lo que faculta al administrador para identificar los clientes comprometidos y tomar los correctivos necesarios.

2. Propuesta del modelo de detección de malware basada en Cloud Computing 2.1 Contexto en la detección de malware Tradicionalmente se denomina malware al conjunto de programas creados con fines nocivos. Sin embargo, según Karresand (2002), esta definición es discutible, más aún cuando algunas de las aproximaciones 51


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

previas no abarcan los propósitos dañinos en modo alguno. Brunnstein (1999), fue uno de los primeros en escribir sobre la limitación de definir el malware, declarando que los razonamientos tradicionales se contradicen por sí mismos y no son exhaustivos. Del mismo modo, Helenius (1999) discute la problemática en la naturaleza de realizar esta precisión, según el autor, a menudo, incluso las personas relacionadas con la informática tienen una compresión escasa o hasta polémica de los términos asociados con los programas de código malicioso. Una de las razones de esta dificultad es que es imposible decir en todas las circunstancias del caso si un programa es malicioso o no. Kaminsky y O’Dea (2002) comentan al respecto en el artículo presentado dentro de las conferencias del Virus Bulletin 2002: «(...) El problema real inicia en el momento en que la línea más importante de separación se disuelve – aquella que divide los programas con una intención perjudicial y los que legítimamente no fueron considerados con este fin» (Kaminsky 2002). Como puede deducirse, incluir la intencionalidad del programador en la definición de malware no es lo más apropiado, pues es imposible medir exactamente tal acción. Si se encontrase al creador del programa sería muy complicado reconocer si este responde honestamente a un cuestionamiento relacionado con el propósito de usar su herramienta en un ataque. Para contrarrestar este vacío es necesario brindar una definición de malware que no incluya el objetivo de su creador, se centre en el programa perjudicial y no en el contexto u otros aspectos relacionados. En el desarrollo de este trabajo se utiliza una ampliación de la definición de Karresand (2002), en la cual se sustituye el término software por código de software como es sugerido en Helenius (2002), para hacer hincapié en que la definición también puede referirse a una porción de programa: «Malware es un término general que denomina una pieza de código de software la cual contiene instrucciones necesarias y suficientes para efectuar un ataque en un sistema computacional» (Helenius, 2002) Se presenta, dentro de la Tabla 1, una comparación entre las diferentes técnicas de detección utilizadas por los antivirus, cada una describe los puntos fuertes y débiles. Ninguna técnica es mejor detectando todos los tipos de virus, es más seguro el diseño cuando se utilizan modelos híbridos de análisis.

52


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Tabla 1. Comparación de las técnicas de detección de antivirus TÉCNICA Scanning Static Heuristics Integrity Checkers Behavior Analysis Emulation

PRO Entrega una precisa identificación de cualquier virus encontrado. Esta técnica detecta virus conocidos como desconocidos. Esta técnica no utiliza mayor recurso apara detectar virus tanto conocidos como desconocidos. Detecta virus conocidos como desconocidos. Cualquier virus encontrado en el ambiente seguro.

CONTRA Requiere de una actualización de formas de virus para que el scanning sea efectivo. Los falsos positivos son el mayor problema, además los virus son detectados pero no identificados. Y solo se pueden desinfectar utilizando métodos genéricos. La detección solo ocurre después de que el virus ha infectado la maquina, y el código infectado en algunas casos no es señalado. Es muy pesado y algunas casos se engaña a la maquina virtual. No puede identificar ni desinfectar el virus. La emulación es lenta. Igual que el anterior no cuenta con técnicas de identificación ni desinfección.

2.2 Detección de código malicioso en un archivo Un engine o detector de código malicioso es una herramienta que intenta determinar si una pieza de código de software tiene la capacidad de efectuar una ataque en un sistema computacional (Dalla, 2007, 124). Para lograr este fin, las soluciones actuales, como los programas antivirus, utilizan principalmente el análisis estático basado en firmas y heurísticas (Szor, 2005), aunque de forma reciente se han adoptado técnicas de análisis dinámico y otras estrategias de defensa semejantes. Un panorama común en la de detección de código malicioso consiste en una aplicación residente en el host la cual implementa algoritmos específicos para descubrir la mayor cantidad de malware que le sea posible. La actividad de estas herramientas se centra con más frecuencia en el análisis de archivos ejecutables procedentes del exterior y se desarrolla fundamentalmente en las modalidades de tiempo de acceso y bajo demanda. Los enfoques tradicionales no están exentos de inconvenientes, hay una mayor cantidad de administración debido a la gestión de que cada sistema de seguridad individual. Otro problema es que los sistemas de seguridad utilizados deben ser escalables para atender a un número significativo de clientes. Un multi-engine based file analysis service es un sistema remoto capaz de identificar el contenido o comportamiento de un archivo desconocido a través del análisis efectuado por múltiples engines (antivirus) que implementan estrategias heterogéneas. 53


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

uCLAVS, es un multi-engine based file scanning service desplegado en la nube de computación por medio del conjunto de protocolos y estándares definidos para los Web Services. La funcionalidad del servicio pretende ser simple y robusta: Identificar un archivo con código malicioso a través del análisis remoto efectuado por múltiples engines. La World Wide Web Consortium W3C define un Web Service como: «...una aplicación software identificada mediante una URI, cuyo interfaz (y uso) es capaz de ser definido, descrito y descubierto mediante artefactos XML, y soportar interacciones directas con otras aplicaciones software que definen una colección de operaciones accesibles de forma remota usando mensajes XML mediante protocolos estándar de Internet» (W3C, 2007). Según Cerami (2002, 11) un Web Service completo representa un servicio que cumple con las siguientes características: − Está disponible desde la Web. − Usa el estándar XML para el envío de mensajes. − No se encuentra ligado a un lenguaje de programación o sistema operativo. − Es capaz de describirse así mismo. Los Web Services son una implementación de la arquitectura orientada a servicios (SOA), que propone una implantación dinámica, de bajo acoplamiento y de aplicaciones distribuidas. SOA consiste en tres roles principales: un proveedor de servicios, un consumidor y un intermediario. De igual forma divide las principales funciones y componentes utilizados en la descripción de la arquitectura. (Papazoglou, 2007, 22). En la Figura 1 se presenta un diagrama general de contexto del modelo propuesto.

Figura 1. Diagrama de Contexto de uCLAVS

54


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

uCLAVS proporciona las mismas capacidades de detección de los productos anti-malware basados en el cliente, adicionalmente tendrá que seguir algunas disposiciones propias de su naturaleza de servicio en la nube, para esto debe cumplir algunos requerimientos: R1. Soporte para múltiples engines de análisis. El servicio debe permitir la utilización de múltiples motores de protección paralelos que utilicen métodos y técnicas heterogéneas para la detección de malware. R2. Notificación. Cuando se detecta un archivo como potencialmente peligroso, el servicio debe proporcionar al usuario la información necesaria para que conozca el incidente y tome la decisión más adecuada. R3. Recopilación de información. Toda la actividad del servicio deberá ser recopilada y accesible para propósitos de análisis y administración. R4. Administración del servicio. Debe proveer mecanismos para configurar y administrar el servicio. Los dos aspectos claves que hacen de uCLAVS una alternativa complementaria para mejorar la detección automática de malware son su naturaleza de Web Services y la capacidad de analizar un archivo utilizando múltiples motores de protección bajo un paradigma denominado n-protection.

2.3 Multi-engine Uno de los enfoques principales de esta implementación es la posibilidad de usar múltiples engines de protección que utilizan métodos y técnicas heterogéneas para la detección de malware, este modelo denominado N-version protection (Oberheide et al., 2007) está basado en el concepto de N-version programming introducido originalmente por Liming & Avizienis (1977), en donde se propone la creación de múltiples versiones de una aplicación con el fin de comparar sus salidas y así asegurar su funcionamiento correcto. Esta orientación provee varias implementaciones de una aplicación Web empleando tecnologías y plataformas de despliegue diferentes, para lograr comparar la salida de cada una de ellas, representada en código HTML, con el propósito de asegurar el funcionamiento correcto del sistema. En la Figura 2 se presenta un modelo de la arquitectura de uCLAVS, así como las capas, niveles y servicios ofrecidos. La descripción de los componentes presentes en la arquitectura se presenta como: - SOAP Proxy: El proxy SOAP está encargado de serializar/de-serializar los mensajes intercambiados entre uCLAVS y sus clientes con55


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

sumidores de manera que las implementaciones puedan utilizarlos de forma transparente. - Distpatcher: El despachador de peticiones desempeña un papel central en la arquitectura, funciona como una cola que permite gestionar las demandas de servicios entrantes, mientras que informa al registro de eventos. - Queue: La cola dentro de la arquitectura es una estructura de datos, caracterizada por ser una secuencia de elementos en la que la operación de inserción push se realiza por un extremo y la operación de extracción pop por el otro. Es administrada por el dispatcher.

Figura 2. Componentes arquitectura uCLAVS

- Storage Service: uCLAVS proporciona una sencilla interfaz de Web Services que utiliza para almacenar y recuperar cualquier cantidad de datos, en cualquier momento, desde cualquier lugar de la Web. - Analysis Service: Define una interfaz de Web Services, donde se solicita el análisis de un archivo posiblemente maliciosos, este se recibe el hash del archivo, para ser analizado por los engines. - Analysys Query Dispatcher (AQD): Se comporta como el dispatcher, pero su función es administrar y gestionar las demandas de los engine. - Adjudicator: Es el encargado de supervisar el rendimiento y trabajo de cada engine. - Engines: Se encuentran los motores de análisis añadidos a uCLAVS, dentro de la prueba de concepto se utilizaron 5 engines diferentes, Clamv, F-Prot ,Avast, BitDefender, Kaspersky. 56


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

- Proxy Agent: Los agentes proxy están encargados de comunicar la arquitectura con servicios que son prestados por servicios agente externos. - Metadata Manager: El administrador de metadatos está encargado organizar y controlar la información entregada por los diferentes engines. - Threat Policy Manager: El administrador de alertas de amenaza está encargado de entregar el reporte final de amenazas. - Retrospective Detection: Dentro de la detección retrospectiva se enfatiza la detección de virus que no están dentro de la base de datos, de igual forma se analizan los archivos que son sospechosos pero no poseen un nivel de alerta todavía alto para considerarlos maliciosos o no. - Events Log: El evento de log está encargado de controlar el acceso de los diferentes usuarios que implementen o utilicen los servicios de uCLAVS. - Administration Manager: El administrador, suministra una interfaz para gestionar todos los procesos anteriormente mencionados. En la Figura 3 se presenta el contexto de interacción de roles dentro de nuestra plataforma uCLAVS.

Figura 3. Contexto de interacción de roles uCLAVS

2.4 Implementación del servicio Para la implementación del servicio se utilizó el lenguaje PERL y el paquete SOAP::Lite disponible desde CPAN. SOAP::Lite es una colección de módulos PERL que proporcionan una API liviana para utilizar SOAP en clientes y servidores. El procesamiento de las peticiones está a cargo 57


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

del distpacher, la implementación resumida del uCLAVS Distpacher se muestra a continuación: use SOAP::Transport::HTTP; my $uri = ‘urn:uclavservice’; SOAP::Transport::HTTP::CGI ->serializer ($serializer) ->deserializer($deSerializer) ->dispatch_with( {“$uri:analysis” => ‘uCLAVS::Dispatcher::AnalysisService’, “$uri:storage” => ‘uCLAVS::Dispatcher::StorageService’}) ->on_action(\&onAction) ->handle;

A continuación se presenta la especificación simplificada del mensaje doScannerAnalysis que hace parte del servicio de análisis. sub doScannerAnalysis { my ( $class, $hash_in,$hash_type) = @_; unless ($hash_type) { $hash_type = ‘sha1’;} my $hash_sha1 = select_hash_sample( $hash_in, $hash_ type ); my $sample = get_sample($hash_sha1); my $initTime = Benchmark->new; my $results = scanner_analysis($sample); my $endTime = Benchmark->new; my ( $num_detections, $num_engines, @engines ) = scanner_results($results); my $time_taken = scanner_benchmark( $initTime, $endTime ); my $threat_level = scanner_threat_level($num_ detections,$num_engines); my $scan_date = SOAP::Utils:: format_datetime(localtime); save_scanner_analysis($hash_in, $hash_type, $threat_level, $num_detections,

58


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

$num_engines,$scan_date,$time_taken, @engines); return (scanner_analysis_result( $num_detections, $num_engines, $threat_level, $scan_date ) ); }

En el siguiente código simplificado se presenta la integración de un motor de antivirus de libre distribución embebido en uCLAVS. sub scan { my ($self, $path) = @_; my ($exitcode, $scan_response) = eval { $self->_run_commandline_scanner (join(‘ ‘, $self->{command}, @{ $self->{args} }, $path, ‘2>&1’)); }; if($@) { return uCLAVS::Analysis::Scanner:: Result->error($@); } if(0 == $exitcode) { return uCLAVS::Analysis::Scanner:: Result->clean(); } if(1 == $exitcode) { my ($virus_name) = $scan_response =~ m/\[infected by: (.*) .+/i; if(!$virus_name) { $virus_name = ‘unknown-Avast-virus’; } return uCLAVS::Analysis::Scanner:: Result->virus($virus_name); } (…) }

5.5 Modelo relacional En las Figuras 4 y 5 se presentan los modelos relacionales correspondientes a la gestión de la meta-información de los archivos y el resultado de los análisis. 59


Nยบ 21 - Universidad de Manizales, julio - diciembre / 2009

Figura 4. Modelo relacional para la meta-informaciรณn de los archivos

Figura 5. Modelo relacional para el resultado de los anรกlisis

Un ejemplo de descripciรณn de servicios para el proceso doScannerAnalysisResponse se evidencia en la tabla 2 y el cรณdigo del Web Services asociado. 60


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Tabla 2. Mensaje doScannerAnalysisResponse parts Used by Source

fileHash type xsd:string Operation doScannerAnalysis in PortType uCLAVSPort <wsdl:message name=”doScannerAnalysisRequest”> <wsdl:part name=”fileHash” type=”xsd:string”/> </wsdl:message>

<?xml version = “1.0” encoding = “UTF-8”?> <soap:Envelope xmlns:xsi = “http://www. w3.org/2001/XMLSchema-instance” xmlns:soapenc = “http://schemas.xmlsoap. org/soap/encoding/” xmlns:xsd = “http://www.w3.org/2001/XMLSchema” soap:encodingStyle = “http://schemas.xmlsoap. org/soap/encoding/” xmlns:soap = “http://schemas.xmlsoap. org/soap/envelope/”> <soap:Body> <doScannerAnalysis xmlns = “urn:uclavservice: analysis”> <fileHash xsi:type = “xsd:string”>3395856ce81f2b7382 dee72602f798b642f14140 </fileHash> </doScannerAnalysis> </soap:Body> </soap:Envelope>

2.6 Especificación WSDL En el siguiente código se evidencia un fragmento de la especificación WSDL del Web Services asociado al prototipo implementado. <?xml version=”1.0”?> <!-WSDL description of the University of Caldas’ Antivirus Service (uCLAVS) uCLAVS - A multi-engine based file analysis service in the network cloud This program is free software; you can redistribute it and/or modify it under the terms of the GNU General Public License version 2 as published by the Free Software Foundation.

61


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

uCLAVS are in beta release. All interfaces are subject to change as we refine and extend our APIs. Please see the terms of use for more information. --> <!-- Revision 2009-05-16 --> <definitions xmlns=”http://schemas.xmlsoap.org/wsdl/” xmlns:tns=”urn:uclavservice” xmlns:wsdl=”http://schemas.xmlsoap.org/wsdl/” xmlns:soap=”http://schemas.xmlsoap.org/wsdl/soap/” xmlns:enc=”http://schemas.xmlsoap. org/soap/encoding/” xmlns:xsd=”http://www.w3.org/2001/XMLSchema” name=”uCLAVS” targetNamespace=”urn:uclavservice”> <documentation> The WSDL Spec to uCLAVS </documentation> <wsdl:types> <xsd:schema targetNamespace=”urn:uclavservice” elementFormDefault=”qualified” attributeFormDefault=”unqualified”> <xsd:complexType name=”ScannerAnalysisResult ”> <xsd:all> <xsd:element name=”threatLevel” type=”xsd:byte”/> <xsd:element name=”numDetections” type=”xsd:int”/> …. …. …. <wsdl:message name=”doScannerAnalysisRequest”> <wsdl:part name=”fileHash” type=”xsd:string”/> <wsdl:part name=”fileType” type=”xsd:string”/> </wsdl:message> <wsdl:message name=”doScannerAnalysisResponse”> <wsdl:part name=”doScannerAnalysisResult” type=”tns:ScannerAnalysisResult”/> </wsdl:message> <wsdl:message name=”uploadSampleRequest”> <wsdl:part name=”filePath” type=”xsd:string”/> </wsdl:message> <wsdl:message name=”uploadSampleResponse”> <wsdl:part name=”fileHash” type=”xsd:string”/> </wsdl:message> … ….

62


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

2.7 Implementación de los clientes Utilizando PERL y la implementación de SOAP:Lite se construyó un cliente GNU/Linux para uCLAVS. Para el caso de plataformas bajo Windows se usó .NET y la implementación de SOAP::Lite

3. Resultados Las pruebas se han hecho con cerca de 1.2 millones de muestras y aproximadamente 25.000 instancias de malware de un total de 31 grupos. Como puede observarse en la Figura 6, el porcentaje de detección de malware está entre el 85% y 95%, uCLAVS al utilizar una arquitectura basada en multi-Engine y las propiedades de minimización de la carga en los clientes, generó una tasa de detección del 97% en este primer experimento. En la Tabla 3 y Figura 7 se evidencia la tasa de detección para los seis antivirus más populares y la propuesta de uCLAVS en función de la antigüedad de las muestras del malware correspondientes a 1 semana y 1 mes.

Figura 6. Tasa de Detección de uCLAVS y otros motores Anti-Malware Tabla 3. Comportamiento tasa de detección según la antigüedad del Malware en diferentes plataformas de AntiVirus ANTIVIRUS Avast AVG BitDefender ClamAV F-Prot Kaspersky uCLAVS

1 MES 54,2% 84,4% 81,2% 56,7% 53,4% 89,1% 90,07%

1 SEMANA 51,1% 82,2% 79,3% 54,2% 51,2% 86,8% 86,4%

63


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Figura 7. Tasa de Detección de Antivirus populares en función de la antigüedad del malware

4. Conclusiones En este artículo se presentó la arquitectura de un servicio desplegado en la nube de computación denominado uCLAVS. Para la definición de la arquitectura se han usado tecnologías basadas en Web Services que definen una comunicación con bajo acoplamiento utilizando diferentes estándares de la W3C, el que permitió que diferentes clientes implementados (linuCLAVS y WinuCLAVS) accedieran al servicio a través del estándar XML, utilizando el protocolo SOAP. uCLAVS al utilizar diferentes motores de análisis tiene una tasa de detección de malware del 97%, la cual es mayor que cualquiera de los otros motores utilizados en la prueba de concepto: Clamv, F-Prot, Avast, BitDefender, Kaspersky.

64


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Bibliografía CERAMI, E. (2002). Web Services Essentials. Distributed Applications with XML- RPC, SOAP, UDDI & WSDL. O’Reilly. COHEN, F. (1987). Computer Viruses - Theory and Experiments [en línea]. s.l.: VX Heavens. <http://vx.netlux.org/lib/afc01.html>. [Consulta: 29/01/2009] COMPUTER ECONOMICS. (2007). 2007 Malware Report: The Economic Impact of Viruses, Spyware, Adware, Botnets, and Other Malicious Code. [en línea] Irvine (CA, USA): Computer Economics, Inc. <http://www.computereconomics.com/custom.cfm?name=postPaymentG ateway.cfm&id=1224&CFID=6367119&CFTOKEN=13675654> (06/2007), 51 p. [Consulta: 03/02/2009] CHRISTIANSEN, C.; BURKE, B.; KOLODGY, C.; HUDSON, S.; XHENETI, I. and HANSON, A. (2008). Worldwide Security 2009 Top 10 Predictions: Security Trends. [en línea]. Framingham (MA, USA): International Data Corporation, IDC. <http://www.idc.ca/research/viewtoc. jsp?containerId=215771> (12/2008). 8 p. [Consulta: 02/04/2009] DALLA PREDA, M. (2007). Code Obfuscation and Malware Detection by Abstract Interpretation. [en línea] Tesis doctoral (). Verona (Italia): Università degli Studi di Verona. <http://profs.sci. univr.it/~dallapre/MilaDallaPreda_PhD.pdf> 201 p. [consulta: 11.02.2009]. HELENIUS, M. (1999). Problems, Advantages and Disadvantages of Malware Testing. [en línea]. EICAR Prodeedings 1999. Gattiker Urs, Pedersen Pia ja Petersen Karsten. Tampere (Finland): University of Tampere. <http://www.uta.fi/laitokset/virus/automat.html> [Consulta: 02/02/2009] HELENIUS, M. (2002). A System to Support the Analysis of Antivirus Products’ Virus Detection Capabilities [en línea]. Tampere (Finland): University of Tampere. <http://granum.uta.fi/english/ kirjanTiedot.php?tuote_id=6803> 103 p. [Consulta: 27/01/2009] KAMINSKI, J. and O’DEA, H. (2002). Anti-Virus Research - How to smell a RAT.[en línea]. Virus Bulletin Magazine. (09/2002). Abingdon (Oxfordshire, England): Virus Bulletin Ltd. <http://www. ca.com/us/securityadvisor/documents/collateral.aspx?cid=53581> [Consulta: 02/02/2009] KOETZLE, L. RUTSTEIN, C. LAMBERT, N. and WENNINGER S. (2004). Is Linux More Secure Than Windows?. [en línea] Cambridge (MA, USA): Forrester Research. (03/19/2004) <http:// download.microsoft.com/download/9/c/7/9c793b76-9eec-4081-98eff1d0ebfffe9d/LinuxWindowsSecurity.pdf> [consulta: 19/03/2009] NAGY, L.; FORD, R. and ALLEN, W. (2006). N-version programming for the detection of zero-day exploits. [en línea]. In: IEEE Topical Conference on Cybersecurity (Daytona Beach, FL, USA). (04/2006). <http://cs.fit.edu/media/TechnicalReports/cs-2006-04.pdf> [consulta: 17/03/2009] LINK, R. (2003). Server-based Virus-protection On Unix/Linux. [en línea]. Diploma thesis (Computer Networking). Furtwangen (Germany): University of Applied Sciences Furtwangen. <http://www. openantivirus.org/diploma-thesis.pdf> [Consulta: 15/01/2009]. OBERHEIDE, J. COOKE, E. and JAHANIAN, F. (2007). Rethinking antivirus: executable analysis in the network cloud. En: Proceedings of the 2nd USENIX workshop on Hot topics in security. Boston (MA, USA): USENIX Association. <http://portal.acm.org/citation.cfm?id=1361424> [Consulta: 16/01/2009] OBERHEIDE, J. COOKE, E. and JAHANIAN, F. (2008). CloudAV: N-Version Antivirus in the Network Cloud. En: Proceedings of the 17th USENIX Security Symposium (Security’08). San Jose, CA. (28/07-01/08/2008) < http://www.usenix.org/events/sec08/> [Consulta: 16/01/2009] PAPAZOGLOU, M. (2007). Web Services: Principles and Technology. Prentice Hall. ISBN 9780321155559 RICHARDSON, R. (2008). CSI Computer Crime & Security Survey. [en línea]. San Francisco (CA, USA): Computer Security Institute. <http://i.cmpnet.com/v2.gocsi.com/pdf/CSIsurvey2008. pdf> [Consulta: 19/03/2009] SCHNEIER, B. (2004). Secrets and Lies: Digital Security in a Networked World [en línea]. Hoboken (NJ, USA): John Wiley & Sons. ISBN 0-471-25311-1 <http://www.amazon.com/Secrets-LiesDigital- Security-Networked/dp/0471453803> [Consulta: 16/03/2009] SZOR, P. (2005). The Art of Computer Virus Research and Defense (illustrated edition). Indianapolis (Indiana, USA): Addison-Wesley Professional. ISBN:0321304543

65


Nยบ 21 - Universidad de Manizales, julio - diciembre / 2009

66


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

ARTÍCULO CIENTÍFICO

Desarrollo de competencias matemáticas en adultos del sector rural1 [Math skills development in rural area of adults] Diego López-Cardona2 Recibo: 15.09.2009 - Ajuste: 07.10.2009 - Aprobación: 12.11.2009

Resumen Ante la problemática del poco desarrollo de la habilidad matemática en los adultos del sector rural colombiano, donde tienen inconvenientes para pasar de lo concreto a lo conceptual y de lo conceptual a lo simbólico, se les dificulta la interpretación del conocimiento y el acceso a los adelantos científicos y tecnológicos, hecho que no les permite reaccionar ante los cambios constantes de un mundo competido y globalizado. El presente trabajo pretendió, como objetivo general, desarrollar competencias matemáticas en adultos del sector rural, mediante aprendizaje cooperativo con medios virtuales, como herramienta didáctica. Para ello, se utilizaron las operaciones fundamentales y sus combinaciones en problemas simples y complejos, el sistema métrico y el sistema de medidas –distancia, superficie, peso, volumen, tiempo-, teniendo en cuenta su contexto para preparar el material de enseñanza. Los diferentes temas matemáticos se involucraron a medida que se fue desarrollando el curso sobre beneficio ecológico del café y manejo de subproductos, temática significativa para ellos por el manejo constante que se hace en sus parcelas o fincas.

1 Modelo para citación: LÓPEZ CARDONA, Diego. (2009). Desarrollo de competencias matemáticas en adultos del sector rural. En: Ventana Informática. No. 21 (jul-dic., 2009). Manizales (Colombia): Universidad de Manizales. p. 67-90. ISSN: 0123-9678 2 Ingeniero Industrial, docente Facultad de Ingeniería, Universidad de Manizales. Doctorando en Ingeniería Informática Universidad de Salamanca, Magíster en Educación. Docencia, Especialista en Instrumentación Física, Especialista en Informática y Computación. Correos electrónicos: dlopez@umanizales.edu.co y diegolopezcardona@yahoo.es Nº 21 - Universidad de Manizales, julio - diciembre/2009 - pp 67-90

67


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

El curso se desarrolló con un grupo de 12 personas adultas del sector rural, con grado de escolaridad igual o inferior a noveno de educación básica secundaria. Con cada participante se utilizó un instrumento de prueba inicial para conocer en qué nivel de logro matemático se encontraba, se realizaron ejercicios durante todo el proceso no solo con problemas de su vida cotidiana, sino con temas no comunes y con diferente grado de dificultad. En el transcurso de la ejecución del proyecto se hicieron post-test periódicamente que permitieron identificar los cambios ocasionados y comprobar que mediante esta estrategia se puede desarrollar las competencias matemáticas en adultos del sector rural utilizando medios virtuales con la colaboración de un tutor o acompañante. Palabras Clave: Educación de adultos del sector rural, estrategias de enseñanza aprendizaje, competencias matemáticas, aprendizaje colaborativo, medios virtuales.

Abstract Faced with the problem of low development of mathematical ability that adults have the Colombian rural sector, where problems have to move from the concrete to the conceptual to the conceptual and symbolic, they are difficult to interpret knowledge and access to scientific and technological advances, which does not allow them to react to a constantly changing competitive and globalized world. This work aimed to develop general purpose math skills of adults in rural areas through cooperative learning in virtual environments as a pedagogical tool to perform the basic operations and their combinations in simple and complex problems, using the metric system and the system measures-distance, area, weight, volume, time, always taking into account its context in order to prepare the teaching material. The various mathematical topics involved as it was developing a course on ecological benefit of coffee and management products, a significant issue for them by the management that is constantly on their plots or farms. The course was developed with a group of 12 adults in the rural sector, with education level or less nine of basic secondary education. With each participant using an initial test to know at what level of math achievement was, exercises were conducted throughout the

68


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

process not only with problems in their daily lives, but with common themes and with varying degrees of difficulty. During the project implementation were post-test period to permit identification of changes caused by and check that this strategy is to develop the math skills of adults in rural areas by using virtual environments with the help of a tutor or assistant. Keywords: Adult Education in the rural sector, teaching and learning strategies, math skills, collaborative learning, virtual environments.

Introducción Inmersos en un ambiente globalizado y competido, se requiere de competencias y destrezas que permitan tomar las mejores decisiones en los momentos adecuados para poder continuar competitivos en él. Esta exigencia es importante para cualquier persona, como participante de la sociedad, especialmente para quienes son productores de recursos y/o servicios, sin distingo de área productiva, capacidad, tamaño o cualquier otra característica. Entre las referidas exigencias se encuentra la matemática, que permiten desarrollar en las personas la capacidad para razonar, formular y solucionar problemas de distinta índole. Esta es la base para alcanzar procesos cognitivos superiores en los cuales predomina el pensamiento crítico, reflexivo y analítico; más aún en el adulto del sector rural, tercermundista, que se encuentra en una situación preocupante (favorecida por el bajo nivel académico y la poca práctica). En el caso de la industria cafetera (donde el 19.0% de los productores no tienen ningún grado de escolaridad y 67.7% cursaron máximo el quinto grado de primaria (Federación Nacional de Cafeteros de Colombia, 1997)) que impide, o al menos, dificulta en grado sumo, el acceso y utilización adecuada de la información generada y divulgada en las universidades y los centros de investigación agropecuaria. Si se busca que el adulto del sector rural sea más competitivo y eficiente, necesariamente debe superarse el escollo de las competencia matemáticas –no como campaña de alfabetización, sino como condición de permanente desarrollo-, para que pueda acceder, interpretar y utilizar adecuadamente (acorde a sus intereses, necesidades y recursos) tanto la información técnica específica como la de otra índole (económicas, organizacionales, administrativas, etc.), que aparece en medios impresos, televisivos e informáticos. 69


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Al adulto, y en particular el del sector rural, en los procesos de capacitación solo le interesa lo que le es útil, él no busca tanto títulos, le interesa aquello que le brinde soluciones o le sirva para obtenerlas, de ahí que aprende mucho mejor en su medio, con material educativo sencillo y contextualizado, en un ambiente cooperativo. Son ellos quienes han entendido –mejor dicho, sentido- la necesidad de obtener mayor información relacionada con su quehacer, no sólo en su ámbito sino, más allá de las fronteras nacionales. Sin embargo, es bien conocido que la mayoría de ellos tienen dificultades para acceder a tal información de manera individual, y que quizás la manera más eficaz de que adquieran nuevos conocimientos es mediante aprendizaje cooperativo –fundamentado en el concepto de desarrollo cognitivo, buscando encontrar la Zona de Desarrollo Próximo-, que propone que las interacciones sociales con sujetos competentes jalonan el aprendizaje. También es conocido que el material impreso –cartillas, revistas- que se utilizan para la alfabetización o capacitación de adultos obedece a un sistema informativo, donde son más importantes los contenidos, su estructuración y secuencias rígidas para cada grado, se prefija un ritmo para el aprendizaje, se construye el material sin tener en cuenta las necesidades y la lógica de los adultos y luego se imparte o dictan los temas con el propósito de cumplir con la totalidad de los mismos sin importar el grado de asimilación.

1. Marco teórico El ser humano se desarrolla en la medida en que se apropia de una serie de instrumentos (físicos y psicológicos) de índole sociocultural, y cuando participa en dichas actividades prácticas y relaciones sociales con otros que saben más que él acerca de esos instrumentos y de esas prácticas. Con base en lo anterior, Bruner (2006) afirma que los procesos educativos se deben entender como foros culturales, es decir, como espacios en los que los enseñantes y los aprendices negocian, discuten, comparten y contribuyen a reconstruir los códigos y contenidos curriculares en su sentido más amplio: los saberes en los que se incluyen no solo conocimientos de tipo conceptual, sino también competencias, valores, actitudes, normas, etc. Dichos saberes, entiéndase, no son simplemente transmitidos por unos y reproducidos por otros, sino que en torno se crean interpretaciones y asimilaciones de significados, 70


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

gracias a la participación conjunta de ambos; así, los aprendices tienen oportunidad, una y varias veces, de recrearlos en formas varias durante su participación y mientras efectúan la reconstrucción de la cultura en que se desarrollan. En las prácticas educativas se crea el contexto necesario y propicio para que se dé la reestructuración de las funciones psicológicas superiores rudimentarias hasta modos más avanzados que se caracterizan por un control consciente y voluntario. Así mismo, la participación de los aprendices en tales prácticas les permite el acceso a ciertos instrumentos de mediación cultural con un carácter creciente de descontextualización, y que también impulsan el desarrollo de su psiquismo. El aprendizaje colaborativo se sustenta en teorías cognoscitivas. En la teoría constructivista (Vigotsky, 1979), el aprendiz requiere la acción de un agente mediador para acceder a la Zona de Desarrollo Próximo, éste será responsable de ir tendiendo un andamiaje que proporcione seguridad y permita que aquél se apropie del conocimiento y lo transfiera a su propio entorno. Vigotsky define la ZDP como: «La distancia entre el nivel real de desarrollo, determinado por la capacidad de resolver independientemente un problema, y el nivel de desarrollo potencial, determinado a través de la resolución de un problema bajo la guía de un adulto o en colaboración con otro compañero más capaz». En cuanto a las implicaciones educativas de lo anterior, Coll y Solé (1990), definen a la enseñanza como un proceso continuo de negociación de significados, de establecimiento de contextos mentales compartidos, fruto y plataforma, a su vez, del proceso de negociación, lo que permite verificar las conexiones entre aprendizaje, interacción y cooperación: los individuos que intervienen en un proceso de aprendizaje, se afectan mutuamente, intercambian proyectos y expectativas y replantean un proyecto mutuo, que los conduzca al logro mutuo de un nuevo nivel de conocimiento y satisfacción. El aprendizaje colaborativo parte de concebir a la educación como proceso de socioconstrucción que permite conocer las diferentes perspectivas para abordar un determinado problema, desarrollar tolerancia en torno a la diversidad y pericia para reelaborar una alternativa conjunta. Los entornos de aprendizaje constructivista se definen como un lugar donde los alumnos deben trabajar juntos, ayudándose unos a otros, usando una variedad de instrumentos y recursos informativos que permitan la búsqueda de los objetivos de aprendizaje y actividades para la solución de problemas (Wilson, 1995). 71


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Los sujetos negocian significados a partir de la observación y valoración de aspectos de la realidad que les son comunes. Los alumnos desarrollan sus propias estrategias de aprendizaje, señalan sus objetivos y metas, al mismo tiempo que se responsabilizan de qué y cómo aprender. La función del profesor es apoyar las decisiones del alumno (Gros, 1997).

1.1 Qué son las matemáticas Las matemáticas constituyen una de las ciencias más antiguas de la humanidad. Se puede decir que es la ciencia de los números y las demostraciones. Las matemáticas son una creación de la mente humana basada en hechos. Están constituidas por un conjunto de conocimientos mediante los cuales los seres humanos interpretan aspectos de la realidad y resuelven problemas que se presentan en la vida cotidiana (Ministerio de Educación Nacional, 2003). Según el Icfes (2001), los tres elementos, interrelacionados, que conforman la estructura de las matemáticas son: 1. El contexto. Los seres humanos viven y se desarrollan en ambientes específicos: el hogar, el barrio, el colegio, el sitio de trabajo –el campo-, y otros tantos que se frecuentan en las actividades diarias. En cada uno de estos ambientes se encuentran situaciones que se pueden estudiar a partir de las matemáticas. 2. Los procesos generales. Con la educación, las matemáticas permite el desarrollo de ciertas habilidades mentales, las cuales son muy útiles para estudiar, trabajar y realizar otras actividades fundamentales para la subsistencia como individuos y la supervivencia como especie. Los procesos generales que se desarrollan a través de las matemáticas son:  El razonamiento. Está relacionado con búsqueda y organización de la información. Se entiende por ello pensar, analizar, organizar ideas para obtener alguna conclusión. Algunos procesos de razonamiento son: explicar el por qué, explicar el cómo, encontrar ejemplos, encontrar relaciones, formular hipótesis, hacer predicciones. Lo estudiosos de la inteligencia han encontrado dos maneras de razonar a las que han denominado el método inductivo, pasar de los hechos a las generalizaciones y el método deductivo, pasar de lo general a lo particular.  El modelamiento, tiene que ver con la interpretación y elaboración de modelos, estos son construcciones teóricas que expresan conceptos. En matemática y en todos las ciencias, la palabra modelo tiene un 72


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

significado abstracto, siendo una construcción teórica que representa un determinado concepto.  El planteamiento y solución de problemas, consiste en resolver situaciones en las cuales existe uno o más interrogantes. Plantear un problema es presentar la información y formular un interrogante, mientras que resolverlo es encontrar el camino, allí donde no se conocía previamente camino alguno, es encontrar la forma de salir de una dificultad. Exige el uso de los dos procesos anteriores.  La comunicación, proceso por el cual se expresan las ideas y se comprenden a su vez los planteamientos que hacen otras personas. El razonamiento es el proceso primario que hace parte del modelamiento, ambos contribuyen al planteamiento y solución del problema. Los tres procesos pueden hacerse presentes en el momento de la comunicación. 3. Los conocimientos básicos. Las matemáticas como todas las ciencias están estructuradas por conjuntos integrados de conceptos. A cada conjunto se le ha denominado sistema siendo los más utilizados en la educación básica los siguientes:  Sistemas lógicos y conjuntos, que se encargan de estudiar las proposiciones con el fin de establecer su valor de verdad. Los conjuntos son una manera de organizar mentalmente los objetos del mundo real y a partir de ahí elaborar conceptos usados en los demás sistemas matemáticos.  Sistemas numéricos, tratan sobre la naturaleza del número, su significado, su representación, comprendiendo el sistema decimal, las relaciones de orden y las cuatro operaciones básicas junto con sus propiedades. El desarrollo del pensamiento numérico permite cuantificar las cosas del mundo físico y resolver problemas asociados a las cuatro operaciones básicas: suma, resta, multiplicación y división.  Sistemas geométricos, dan cuenta de las formas que toman los objetos del mundo físico. Ayuda a desarrollar el pensamiento espacial el cual sirve para orientar y elaborar modelos de los objetos existentes y diseñar nuevos objetos.  Sistemas de medidas. Con el desarrollo del pensamiento métrico se puede resolver problemas de la vida cotidiana para medir longitudes, volúmenes, la masa de un determinado cuerpo y el tiempo.  Sistema de datos, tratan de la organización de los mismos, la manera como se pueda interpretarlos y sacar conclusiones a partir de ellos, y  Sistemas algebraicos y analíticos. Los datos que se extraen de la realidad se pueden organizar en forma de variables. El desarrollo 73


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

del sistema variacional ayuda a comprender que en los fenómenos de la realidad unas variables dependen de otras.

1.2 Competencia matemática Se entiende por competencia matemática el saber hacer en el contexto matemático, es decir el uso que el estudiante hace de la matemática para comprender, utilizar, aplicar y comunicar conceptos y procedimientos matemáticos que se pueden evidenciar cuando: reconocen, nombran y dan ejemplos referidos a conceptos; usan modelos, diagramas y símbolos para representar conceptos y situaciones matematizables (cuantificar, visualizar o coordinar); identifican y aplican algoritmos, conceptos, propiedades y relaciones; realizan traducciones entre diferentes formas de representación; comparan, contrastan e integran conceptos; reconocen, interpretan y usan diferentes lenguajes (verbal, gráfico, tabular); enuncian e interpretan conjeturas acerca de regularidades y patrones; reconocen, relacionan y aplican procedimientos adecuados; usan, interpretan y relacionan datos; crean y usan diferentes estrategias y modelos para solucionar problemas; generan procedimientos diferentes a los enseñados en el aula; enriquecen condiciones, relaciones o preguntas planteadas en un problema; utilizan el razonamiento espacial y proporcional para resolver problemas, para justificar y dar argumentos sobre procedimientos y soluciones. Es costumbre asociar las competencias matemáticas refiriéndolas a expresiones como: razonamiento lógico, capacidad de análisis, razonamiento por analogía, interpretación y aplicación de algoritmos, creatividad, resolución de problemas, capacidad anticipatoria, capacidad de estructuración, etc. Sin embargo, generalmente no se explicitan los resultados asignados a cada una de estas expresiones ni las diferencias y relaciones entre ellas. Quizá la dificultad para la precisión requerida se deba a que es necesario recurrir a muchos y variados sectores del conocimiento para “acercarse” un poco a la definición de estos conceptos. Tal vez, la mejor aproximación al reconocimiento de las competencias matemáticas se encuentre en el análisis de las conductas intelectuales que se conocen como típicamente matemáticas. Escribe Poincaré (2002): «los matemáticos no estudian objetos, sino relaciones entre objetos; les resulta, pues, indiferente reemplazar esos objetos por otros, siempre que las relaciones no cambien. La materia no les importa, sólo la forma le interesa». 74


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Para Segura (1989), «la búsqueda de generalizaciones, de trascender el problema particular para incursionar en ´reglas generales´ es quizás el punto más alto del pensamiento matemático puesto que además de obedecer el proceso de los límites de la lógica interna del sistema matemático, requiere la capacidad de generalización y la posibilidad de poner a prueba teóricamente los resultados que se obtienen». Beth (1980), refiriéndose a la tipología de los matemáticos, recuerda la distinción hecha por Poincaré entre los lógicos, que recurren al análisis para resolver los problemas, y los intuitivos, que recurren a la geometría; pero afirma que es necesario tener en cuenta otros principios, diferentes a los corrientemente utilizados para tipificar a los matemáticos, y propone considerar:  El carácter más o menos consciente de las operaciones mentales que eventualmente conducen a la solución de los problemas que se tratan de resolver.  La forma como representa las operaciones mentales: operaciones que manejan palabras, símbolos, imágenes espaciales o temporales, representaciones visuales, auditivas, motrices, etc.  Las exigencias relativas al rigor  La amplitud o restricción del campo de intereses, y  La preferencia por el trabajo solitario o por el trabajo en común. Más adelante, el mismo autor, distingue tres clases de problemas matemáticos, según las exigencias para su solución:  Los problemas cuya solución no exige otra cosa que la aplicación correcta de cierto procedimiento rutinario  Los problemas cuya solución pide que se apliquen inteligentemente determinados métodos más o menos corrientes, y  Los problemas para los cuales los métodos corrientes no proporcionan solución alguna. Las comisiones del Sistema Nacional de Evaluación, basadas en las investigaciones experimentales de la psicología genética post-piagetana, concluyen que estos análisis no solo cualifican las tipificaciones clásicas del pensamiento matemático, sino que aportan al conocimiento sobre los procesos inherentes al aprendizaje matemático. La importancia de estos estudios para la evaluación de las competencias matemáticas, radica en la posibilidad que ofrece para rastrear la capacidad lógica aplicada en la solución de problemas; capacidad que puede ser obser75


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

vada según niveles de complejidad creciente de acuerdo con criterios de tipo matemático. Desde esta perspectiva, una evaluación de competencias para resolver problemas matemáticos, puede dar cuenta del logro en matemáticas, el cual, comprende no sólo cuando se aproxima el alumno a los objetivos fijados dentro de un currículo, sino también una evaluación del dominio de las competencias básicas para resolver problemas matemáticos. Promover el desarrollo del pensamiento matemático en los estudiantes implica abordar un enfoque de formulación y resolución de problemas como eje orientador de la actividad pedagógica, incluyendo en ella la evaluación. Diferentes investigaciones3 han demostrado que este enfoque contribuye al desarrollo del pensamiento matemático, pues los problemas se conciben con situaciones en las que los estudiantes identifican, seleccionan y usan estrategias pertinentes y adecuadas para obtener soluciones válidas en el contexto matemático; así, estas distintas acciones que posibilitan los problemas se consideran como una aproximación al quehacer del matemático. Teniendo en cuenta que la competencia en cada estudiante está en desarrollo, más allá de determinar que un estudiante es competente o no, con base a los diferentes niveles de logro en la competencia que tiene definido el Ministerio de Educación Nacional (2003) en su programa de Evaluación de la Calidad en la Educación, define cuatro niveles de acuerdo al grado de complejidad en el uso de las herramientas –operaciones fundamentales- para la interpretación, análisis y solución de problemas cotidianos o de contexto. A lo que el estudiante llega, es lo que se denomina logro en la competencia matemática.

1.3 Niveles de logro en matemáticas Para expresar los resultados de logro en matemáticas, se eligieron los niveles diseñados por el ICFES e implementados por el Ministerio de Educación Nacional a través del Servicio Nacional de Evaluación de la Calidad de la Educación –SABER-. Estos niveles se establecieron de acuerdo con la complejidad de los problemas, teniendo en cuenta aspectos como: el número de relaciones que éstos plantean, los tópicos de la matemática a los que tiene que recurrir el estudiante para solucionarlos, las situaciones en donde fueron planteados y la presentación de la información. Estos aspectos y las 3 Al respecto se destacan las investigaciones de George Pólya (1977) y Luz Manuel Santos Trigo (1992), CINVESTAV (Centro de Investigación y Estudios Avanzados) México; y de Alan Shoenfeld (1992) investigador de la Universidad de Berkeley.

76


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

relaciones que se derivan entre ellos, implican una mayor complejidad en los procesos que debe evidenciar y poner en acción la persona que se enfrenta a su resolución, en este caso los estudiantes. 1.3.1 Nivel X. En este nivel se ubican los estudiantes que no alcanzan siquiera un nivel mínimo de conocimientos y destrezas. 1.3.2 Nivel B: Establecimiento de relaciones directas en problemas rutinarios. En este nivel se proponen problemas rutinarios en los que la información necesaria para resolverlos se encuentra en el enunciado. Además, la información, está en el orden en que se debe operar para resolver los, requiriendo tan sólo de una operación o una relación para su resolución. Las situaciones a las que hacen referencia son de carácter concreto, las cuales se pueden considerar como cotidianas para el estudiante, en la medida en que son situaciones tipo que usan los maestros para enseñar ciertos conceptos. Para resolver estos problemas se necesita solamente una estrategia de un área del conocimiento matemático: aritmética, geometría o esta dística. 1.3.3 Nivel C: Establecimiento de relaciones directas en problemas no rutinarios simples. En este nivel se proponen problemas no rutinarios simples, donde al igual que los anteriores, la información necesaria para resolverlos se encuentra en el enunciado, sin embargo, se diferencian de los del nivel anterior porque en éstos es necesario reorganizar la información para poder resolverlos. Los problemas, en su mayoría, son planteados en situaciones hipotéticas, caracterizados en su lenguaje por la forma “si sucede x, pasaría que...” Para solucionar los problemas también se requiere una sola estrategia de alguna de estos dominios: aritmética, geometría o estadística. 1.3.4 Nivel D: Establecimiento de relaciones no directas en problemas no rutinarios complejos. En este nivel se proponen problemas no rutinarios complejos, cuyos datos del enunciado no determinan por sí mismos el posible desarrollo de su resolución; los datos no están puestos en el orden en el que el resolutor debe operar con ellos. Además de que los datos no están organizados, se requieren otros pasos para su resolución, de tal forma que es imposible resolverlos a través de uno sólo. Estos problemas están planteados en situaciones hipotéticas o no rutinarias para el estudiante, es decir, situaciones que no son las típicas en el trabajo de determinados conceptos matemáticos en la escuela. Su resolución implica la combinación de estrategias de los diferentes dominios de la matemática como son aritmética y geometría, aritmética y estadística. 77


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

1.3.5 Nivel E. Establecimiento de relaciones formales no directas en problemas no rutinarios complejos. En este nivel se ubican los estudiantes que son capaces de resolver problemas no – rutinarios complejos, ya que deben descubrir en el enunciado relaciones no explícitas que le posibiliten establecer una estrategia para encontrar la solución. Requiere establecer sub-metas y utilizar estrategias involucrando distintos tópicos del conocimiento matemático. Para la resolución de éstos problemas el estudiante pone en juego un conocimiento matemático que da cuenta de un mayor nivel de conceptualización logrado. Para el estudio se tuvieron en cuenta los niveles B, C y D; el nivel E no se consideró dado que en el sector rural colombiano son pocos los adultos que han alcanzado y superado el noveno grado de escolaridad de la educación básica secundaria.

1.4 Evaluación en matemáticas El gran poder de la evaluación es que permite darse cuenta de los aciertos para afianzarlos y de las dificultades para superarlas. Permite, además, descubrir los caminos exitosos y los no exitosos en la búsqueda por comprender qué se aprende, cómo se aprende y cuáles son las mejores estrategias para lograrlo, es el propósito de la evaluación. La evaluación, para que surta resultados esperados, tiene que cumplir dos características: sistemática –si tiene en cuenta todos los elementos de aquello que se quiere evaluar - y continua, permitiendo dar cuenta de los procesos mentales que se quieren desarrollar y de los conceptos específicos que se quieren aprender, haciéndola permanente a través de todo el proceso educativo. En el caso de las matemáticas se evalúan los procesos generales y los conceptos específicos, lo mismo que las metodologías de estudio y la actitud del estudiante frente a esta área del conocimiento. Esta evaluación debe hacerse desde los niveles de auto, co y heteroevaluación. Existen varios instrumentos para evaluar como la entrevista, el diálogo, la discusión y las pruebas, siendo ésta el más importante de todos los medios. Una prueba se puede considerar como un reto. Es como una tarea que se coloca para saber si el estudiante es capaz o no de realizarla. La prueba está constituida en forma de pregunta. Una pregunta es un enunciado que contiene información y a la vez plantea un interrogante, es decir, algo incierto, que no se conoce. Dependiendo de la respuesta se puede tener una idea de qué tanto dominio se tiene sobre un determinado concepto o una determinada competencia. 78


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

2. Metodología e instrumentos para el análisis 2.1 Tipo de investigación Se realizó un estudio cuasi-experimental de series cronológicas. Fue cuasi-experimental dado que no se tuvo grupo control y la selección de los participantes se realizó por conveniencia. En cada unidad se realizaron evaluaciones pretest-postest con el fin de valorar el desplazamiento de la competencia matemática entre los niveles de logro matemático. Esta investigación involucró una población compuesta por adultos del sector rural del país cafetero colombiano con edades superiores a los 18 años, con grado de escolaridad inferiores a noveno grado de educación básica secundaria y con algún nivel de lectura. Como muestra se seleccionaron por conveniencia 12 agricultores de los municipios de Villamaría, Chinchiná y Pereira que laboran como patieros –aquella personas encargadas del beneficio del café- de diferentes fincas. Entre los estudiantes, se tenía dos con noveno grado de escolaridad, uno con octavo, dos con quinto, dos con cuarto, dos con tercero y tres con segundo; y edades entre 19 y 38 años.

2.2 Instrumentos A continuación se define la operacionalización de los niveles de logro matemático que se utilizaron en la investigación.  Nivel B. Establecimiento de relaciones directas en problemas rutinarios. Ejemplo: Si una lima cuesta $2.400, un cabo para la lima cuesta $800 y un machete de 20 pulgadas cuesta $6.500, ¿Cuánto debo pagar en total?. ¿Qué operaciones hago?  Nivel C. Establecimiento de relaciones directas en problemas no rutinarios simples. Ejemplo: Arabú es un niño indígena experto en criptogramas. Ha elegido cinco animales de su preferencia y a cada uno le ha asignado un número. De acuerdo con las siguientes operaciones descubra el valor de cada animal. Loro + guagua = cobra; Loro X guagua = mico; Guagua + 7 = 12; Mico + cobra = delfín; Cobra X 5 = 40; 30 - delfín = 7.  Nivel D. Establecimiento de relaciones no directas en problemas no rutinarios complejos. Ejemplo: El área de un cuadrado o rectángulo se calcula multiplicando un lado por el otro lado, siempre y cuando tengan las mismas unidades. Tengo un lote que mide 1.5 kilómetros por un lado y 40 Decámetros por el otro lado. Deseo sembrar palma 79


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

africana a una distancia de seis metros por ocho (6 X 8). ¿Cuántas palmas puedo sembrar en el lote?

2.3 Diseño del instrumento de evaluación inicial y prueba piloto El instrumento de medición inicial se diseñó planteando cinco problemas rutinarios –nivel B-, cinco no rutinarios simples – nivel C- y cinco no rutinarios complejos –nivel D- con base en el sistema numérico buscando resolver problemas asociados a las operaciones fundamentales –suma, resta, multiplicación y división- y sus combinaciones, relacionados con su contexto. Inicialmente se realizó una prueba piloto con cinco agricultores del sector rural de la vereda Bajo español, ubicada en el occidente del municipio de Chinchiná, Caldas, Colombia, diferentes al grupo de estudio. La metodología consistió en entregar a cada alumno el formulario con los 15 ejercicios, cuyo objetivo fue establecer el nivel de logro matemático de cada participante. Se evidenciaron problemas de manejo de las operaciones fundamentales como la multiplicación y la división, mostraron su habilidad mental con la suma y la resta agrupando y desagrupando. Todos los participantes superaron el nivel de logro matemático B y sólo los alumnos con escolaridades de cuarto y undécimo grado respectivamente, superaron los niveles C y D. También se observa el valor alcanzado porcentualmente de acuerdo al número de ejercicios resueltos. Si el alumno respondió la totalidad de los ejercicios alcanzó el 100% de respuestas para ese nivel de logro. Aunque el instrumento permitió ubicar a los participantes, se consideró que no permitía hacer seguimiento al avance de un nivel a otro por la cotidianidad de los contenidos, el número de problemas y por utilizar solo el sistema numérico. También se encontró problemas en el planteamiento y solución de los ejercicios. Los alumnos que superaron todos los niveles a pesar de la diferencia en su escolaridad -4º y 11º-, manifestaron estar en contacto permanente con la aplicación de las matemáticas en sus trabajos cotidianos. Una vez evaluado lo anterior se diseñó otro instrumento donde se incluyó el sistema de medidas -longitud, volumen, peso y tiempo-, combinándolo con el sistema numérico, dándole a los problemas cotidianos como a 80


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

los no cotidianos un mayor nivel de complejidad; además, se redujo el número de ejercicios. En esta prueba se incluyeron tres ejercicios por cada nivel de logro matemático. Se realizaron cinco pruebas con agricultores diferentes a los anteriores con escolaridad entre 1º y 6º grado, y edades entre 17 y 48 años. La prueba se realizó en el mismo momento, en forma individual. En esta prueba los estudiantes manifestaron su dificultad para resolver los problemas no cotidianos y relacionados con un sistema diferente al numérico, no manifestaron problemas en su comprensión pero si dificultades para el planteamiento de la solución y falta de habilidad en el manejo de algunas operaciones –multiplicación, división-. Todos los participantes superaron el nivel B y sólo dos alumnos resolvieron todos los ejercicios del nivel C y dos problemas del nivel D. A partir de los resultados obtenidos en las pruebas piloto uno y dos se decidió por el tipo de problemas que se debían plantear, los temas a abordar y el uso de sistema numérico y el de medidas, así como el grado de complejidad. Se aplicó el instrumento al grupo de adultos involucrados en el proceso de desarrollo de la habilidad matemática para determinar su nivel de logro inicial y se procedió a diseñar los diferentes pos-test para hacerle seguimiento en los avances de un nivel a otro. En general cada nivel de logro tuvo una participación equilibrada en toda la investigación. En total se realizaron ocho pruebas, con ciento veinte opciones de respuesta; cada nivel de logro tuvo una participación equilibrada en toda la investigación.

2.4 Instrumentos utilizados Se prepararon ocho instrumentos para hacer seguimiento al alumno y medir el nivel de logro matemático, comenzando con la prueba inicial y terminando con la entrevista. En la prueba inicial se plantearon seis problemas, dos por cada nivel de logro, con diferentes grados de complejidad, cotidiano y no cotidiano, donde se incluyó el sistema numérico, el sistema de medidas y su combinación, para encontrar el nivel de logro matemático de cada participante. Luego de la prueba inicial se construyeron instrumentos –seis postest- que de acuerdo a la temática permitieron hacerle seguimiento al alumno.

81


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

El proceso se terminó con una entrevista donde se evaluó la forma como eran capaces de plantear el problema y explicar su solución, buscando que los alumnos reconocieran lo que aprendieron durante el proceso, valoraran los avances en sus intervenciones y los nuevos conocimiento y estrategias de aprendizaje de que disponían.

2.5 Procedimiento Para el desarrollo de la temática el grupo de ubicó en un salón de la finca Maracay en el municipio de Chinchiná. Se utilizó una computadora con el material multimedial debidamente preparado y grabado en el disco duro. Esta computadora se conectó a través de una dispositivo en red con cable coaxial –TV elite- a tres televisores que funcionaron como terminales4. En cada terminal se ubicaron cuatro adultos que leían de las pantallas simultáneamente. El tutor dirigía desde el computador las temáticas, el ritmo de aprendizaje lo colocaban los estudiantes. Los participantes no acudían a recibir una clase de sólo matemática, sino que los temas fueron mezclados con el desarrollo de otros temas de aprendizaje significativo para ellos como es el beneficio ecológico del café y manejo de subproductos. A través del desarrollo del curso en las temáticas se fueron involucrando conceptos pertinentes a las matemáticas como el manejo de las operaciones fundamentales, sus propiedades, combinación de operaciones, el sistema de medidas con sus múltiplos y submúltiplos, la conversión de las diferentes medidas de longitud, superficie, capacidad, peso y tiempo, en un lenguaje totalmente contextualizado y acorde con la temática. Fraccionarios, porcentajes, proporciones, manejo de decimales, manejo de la moneda. Ambos sistemas, el numérico y el de medidas se combinaron constantemente. Se realizaron talleres con temáticas diferentes a los tratados en clase con el propósito de comprobar el desarrollo y aplicación de la habilidad matemática en otro contexto, lo mismo que la entrevista donde se verificó mediante la explicación realizada por los estudiantes, los procedimientos empleados en la solución de problemas complejos. Durante el desarrollo de las temáticas se procuró primero que cada subgrupo –de cuatro personas- discutiera y solucionara sus inquietudes, 4 Se construyó una red con cable coaxial, vinculando una computadora con televisores que funcionaron como terminales. Esta es una red de bajo costo que cualquiera la puede implementar, teniendo en cuenta que la tecnología utilizada siempre se miró como un medio. Hoy día, gracias al desarrollo de la tecnología se puede realizar utilizando la Internet o cualquier otra red con cableado estructurado o inalámbrico.

82


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

segundo expusieran sus problemas ante el grupo y por último se le diera solución a los problemas con la ayuda del docente, quien siempre obró como un facilitador. Durante todo el proceso se realizaron observaciones y diálogos permanentes con los participantes, se observó cómo participaban en los debates en el subgrupo y con el grupo, su actitud frente a los ejercicios planteados, cómo se involucraba con los compañeros que más dominaban del tema –se mezclaron los que más sabían con los que menos conocían a medida que avanzaba el curso-, la forma de preguntar y de hacer sus cálculos. Esta evaluación permanente también permitió determinar la falencia que se tenía en la construcción del material de enseñanza. El curso se realizó en 70 horas distribuidas en 18 sesiones de tres horas cada una, y cuatro prácticas en campo. Se trabajó los sábados y martes desde las 2 p.m. hasta las 5 p.m. durante 18 días en el aula de clase. El grupo también fue llevado a una sala de sistemas con conexión a la Internet ubicada en un colegio de Chinchiná, donde se practicó en forma personalizada algunas herramientas existentes para desarrollo matemático. Cuando se construyeron los post-test, se buscó que involucrara ejercicios de una temática anterior ya superada por el estudiante, para verificar que la solución satisfactoria de los ejercicios no fue por causas del azar sino que fue por la apropiación del conocimiento anterior. Al final del programa se realizó una entrevista donde se le planteó un problema cotidiano complejo para la liquidación de una nómina de pago de una finca con sus respectivos descuentos. Esta entrevista se hizo con cada participante individualmente, en momentos diferentes, donde él debía resolver el problema en forma escrita y luego explicar al tutor los procedimientos empleados, entrevista que fue grabada con el consentimiento del participante.

4. Resultados Cuando se aplicó el pre-test o prueba inicial, sólo tres alumnos no alcanzaron ningún nivel de logro matemático, ubicándose en el nivel X o nivel inicial, alumnos que no alcanzaron en esta prueba a demostrar un mínimo de conocimientos y destrezas; los demás alcanzaron el nivel B, demostrando su habilidad para resolver problemas rutinarios simples. Del total del grupo, tres superaron la prueba para solucionar ejercicios 83


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

no rutinarios simples –nivel C- y uno solucionó los ejercicios planteados para el nivel D; cinco de los participantes alcanzaron a resolver un ejercicio de este nivel de los dos problemas planteados. Los participantes en la comunicación oral del razonamiento, planteamiento y solución del problema, no tienen ninguna dificultad, todos, según la entrevista, dominan estos aspectos. Los alumnos que tienen contacto permanente con las matemáticas dada su relación laboral, son los que sobresalen (7 en total), es decir, alumnos que con facilidad escribieron su solución, en contraste con los otros que mostraron alguna dificultad sobre todo en modelar oralmente o por escrito la solución al problema y las alternativas planteadas. Todos los participantes se movieron de un nivel a otro a medida que avanzaba el curso. Los alumnos que inicialmente se ubicaron en el nivel X, se movieron a los niveles B y C una vez terminado el proceso. El estudiantes que al comienzo estaba en el nivel C se movió al D y en general cada participante superó su nivel inicial. Como se detalló con cada participante, el hecho que unos estudiantes avanzaron más rápido que otros se debe principalmente a la dependencia laboral, a las labores socioculturales donde mantiene una mayor participación con contenidos matemáticos que le exigen afrontar problemas no rutinarios simples y complejos constantemente.

5. Discusión De los participantes en el proceso de desarrollo de la habilidad matemática, se encontró que aquellos que tienen contacto permanente con las matemáticas son los que se ubicaron más rápido en un nivel de logro y se desplazaron hacia otros niveles. Se demostró con los alumnos 2, 3, 6, 8, 9 y 11, quienes por el tipo de funciones que realizan en los predios donde laboran, administradores, alcanzaron a entender más rápido y a plantear soluciones a los problemas planteados. De acuerdo a estos resultados, se señala que esa habilidad puede incrementarse y complejizarse en contextos en los que se propicie la interacción entre las conocimientos previos y los nuevos conocimientos. Las características de las estrategias empleadas en esta investigación y que parecen vincularse con los logros obtenidos, fueron: • La temática en que se apoyó, no se llevó al participante a una clase magistral de matemática, sino que a través de un tema específico y 84


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

• • • • • • •

de interés para él, -beneficio ecológico del café-, se fueron involucrando los temas a estudiar. Se construyó el material de acuerdo con las necesidades de los participantes. El realizar una evaluación permanente, formativa. Siempre se partió de sus saberes previos, desde la prueba inicial se buscó conocer sus competencias y deficiencias en el uso de las matemáticas. Permitir primero la interacción entre ellos y luego con el tutor, en un aprendizaje colaborativo. El mezclar los grupos de acuerdo a su experiencia y contacto permanente con las matemáticas, es decir, crear subgrupos donde se mezclaron los que más saben con los que menos saben. El tener en cuenta el desarrollo de la habilidad lectora en congruencia con el desarrollo de la habilidad matemática. El estar en contacto con medios virtuales sirvió como elemento motivador.

Este modelo de enseñanza está en contravía con las prácticas oficiales (Mesa, 1990) para la enseñanza de las matemáticas, modelo rígido, informativo donde es más importante los contenidos, secuencias rígidas para cada grado y no se respeta el ritmo de aprendizaje. Casi el 95% de las cartillas y libros que se elaboran para adultos (Benavides, 1990), están copiando los libros de los niños. Comienzan partiendo de una concepción axiomática de las matemáticas y además parten de cómo si el adulto nunca hubiera estado en contacto con el número y comienzan enseñándole el 1 - 2 - 3-. La elaboración del material para la capacitación de los participantes se tomó como referencia de las temáticas propuestas en las cartillas Cuentas Claras (El Campesino, 1988) y Hace cuentas (Gobernación de Caldas, 1990), pero el material se construyó a medida que se avanzó en el curso basados en que la evolución de la competencia para resolver los problemas era diferente en cada uno de las personas. Esta metodología no coincide con la forma como han capacitado adultos en Colombia y en otros países (Duarte, 1990) -Nicaragua, Brasil, Venezuela- donde primero construyen un material sin tener en cuenta sus necesidades de conocimiento y luego se imparte o dictan los contenidos con el propósito de cumplir con la totalidad de los mismos sin importar el grado de asimilación.

85


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Como el desarrollo de la competencia matemática se realizó involucrando los contenidos con el avance de una temática que fue significativa para ellos como el beneficio del café, no se prefijó en una clase el estudiar un tema único de aritmética, es decir, los temas se fueron enseñando a medida que se necesitaba suplir sus deficiencias de conocimiento matemático en forma cooperativa y con un tema significativo para ellos. Los resultados alcanzados durante el trabajo, coinciden con los encontrados por los profesores de la Universidad de Antioquia (Mesa, 1990), quienes afirman que facilitar al adulto la construcción del saber matemático, significó ayudarle a encontrar un sentido a lo que sabe y a lo que va aprendiendo; en cualquier caso el adulto se encuentra en un estado A de conocimientos y destrezas sin importar de donde venga, y con el proceso llega a un estado B; lo mismo que con la propuesta del Centro Loubach de Educación Popular Básica de Adultos (CLEBA, 1990), quienes afirman que en el aprendizaje de las matemáticas se deben colocar sobre la mesa los conocimientos del adulto, su propia experiencia, la forma como realiza sus cálculos mentales, las formas como relaciona los objetos, la forma como agrupa y des-agrupa objetos para alcanzar resultados, es decir, toda su construcción matemática que mezclada con los nuevos conocimiento le permite apropiarse de ellos. El profesor actuó como un moderador durante todo el proceso, estuvo acorde con los intereses, necesidades y posibilidades de los adultos, además que propició la interacción entre los participantes, fue un miembro más del grupo, basándose en los principios de la comunicación interpersonal, como proceso de intercambio recíproco de experiencias, competencias y conocimientos entre las personas del grupo, en forma coordinada, tendiendo el andamiaje por medio del cual el alumno fue elaborando las construcciones necesarias para aprender los contenidos. Esta metodología posibilitó el debate, la reflexión en grupo y la recreación de conocimientos y competencias. Desformalizó el proceso de enseñanza y no presentó al orientador o moderador como alguien que siempre enseña, sino, como alguien que comparte sus experiencias y conocimientos y que, inclusive también aprende, como lo planteó Bedoya (1990) en su propuesta para la alfabetización de adultos en matemáticas. Inicialmente los participantes evidenciaron problemas en la comprensión y solución de los ejercicios por el poco desarrollo de la competencia 86


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

lectora y su dificultad para representarlo. Si bien durante el proceso se realizó un intercambio con otro trabajo que pretendía el desarrollo de la habilidad lectora (Higuera, 1990) -pasarlos de decodificación primaria hasta decodificación terciaria- y que en congruencia con dicho trabajo, a medida que avanzaba en los niveles de lectura, también avanzaba en los niveles de logro matemático, se puede afirmar que si el adulto no potencia esta habilidad, le es difícil avanzar en el desarrollo de su habilidad matemática. Los resultados encontrados en los diferentes tipos de prueba y el seguimiento que se le hizo a cada una –observación y evaluación permanente, evaluación formativa-, coincidieron con los resultados encontrados con la entrevista, donde los procesos generales que se desarrollan con las matemáticas como el razonamiento, el planteamiento y solución de problemas y la comunicación se desarrollaron en cada participante, encontrando mayor dificultad en la representación gráfica. Aunque no fue objeto de estudio en este trabajo, los adultos tienen poco desarrollada la motricidad fina, lo que hace que acuda a la ayuda de otros instrumentos como la calculadora para realizar las operaciones. Todos los participantes son hábiles en la oralidad; en la solución y explicación del problema se destacan aquellos estudiantes que por el contacto permanente con las matemáticas dada su relación laboral, son los que sobresalen -alumnos 2, 3, 6, 8, 9, 11-, en contraste con los alumnos 4, 10, 12 que no tienen tanta habilidad, por no estar en contacto permanente con las matemáticas por el tipo de labor que desempeñan. Con el enfoque de formulación y solución de problemas, la inclusión de la evaluación permanente como proceso que tuvo en cuenta todos los elementos que se querían evaluar en forma consecutiva para dar cuenta de los avances, se contribuyó al desarrollo del pensamiento matemático, competencia que se encuentra en constante desarrollo, donde los alumnos identifican, seleccionan y usan estrategias pertinentes y adecuadas para obtener soluciones válidas en su contexto, como se reflejó en la correcta solución de los ejercicios. Otro aspecto importante para resaltar es que no hay relación directa entre el rendimiento del estudiante con el grado de escolaridad y la edad. Prueba de ello fue el alumno 3 que con segundo grado y 37 años fue uno de los más adelantados, en contraste con el alumno 4 con 22 años y quinto grado; pero si existe relación directa entre el rendimiento y su experiencia con las matemáticas, es decir, que aquellos participantes 87


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

que han tenido contacto permanente con el cálculo matemático desarrollan más fácil la competencia matemática. El utilizar medios virtuales permitió reformar el material previamente diseñado en tiempo real y construir los talleres y ejercicios que sugería el seguimiento que se le hizo al proceso, para incluir nuevas temáticas y adaptar el material de acuerdo a las necesidades de los participantes; hecho que no se hubiera podido realizar si se tuvieran cartillas o cuadernillos previamente construidos. El estar en contacto con los medios virtuales, resultó ser motivador para el adulto participante en el proceso. Este tipo de aprendizaje utilizando medios virtuales como medio didáctico, fue evaluado en experiencias anteriores (López, Vega y Mejía, 2000), demostrando sus bondades en trabajos de capacitación con adultos que presentan bajo nivel de escolaridad, ya que cada uno, de manera activa, aporta desde sus experiencias y conocimientos a la vez que recibe lo de sus compañeros y del tutor.

88


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Bibliografía BEDOYA, E. (1990). Una propuesta y una experiencia para la enseñanza de las matemáticas. En: CEAAL. CLEBA. La enseñanza de las matemáticas con los adultos de los sectores populares (experiencias e investigaciones). Bogotá: Dimensión educativa. p. 83-86 BENAVIDES, L. (1990). Explicación: investigación sobre la enseñanza de las matemáticas con adultos y el trabajo con el ábaco. En CEAAL. CLEBA. La enseñanza de las matemáticas con los adultos de los sectores populares (experiencias e investigaciones). Bogotá: Dimensión educativa. p. 26-32 BETH, E. (1980). Epistemología matemática y psicología. Barcelona: Crítica, p. 103-110. (Traducción Castellana de Víctor Sánchez Zavala). BRUNER, J. (2006). Actos de significado. Más allá de la revolución cognitiva. 2 ed. Madrid: Alianza. ISBN: 8420648124. 168 p. ISBN-13: 9788420648125 CLEBA. (1990). Experiencias. En CEAAL. CLEBA. La enseñanza de las matemáticas con los adultos de los sectores populares (experiencias e investigaciones). Bogotá: Dimensión educativa. p. 12-25 COLL, C. y SOLÉ, I. (1990). La interacción profesor/alumno en el proceso de enseñanza y aprendizaje. En: COLL; C.; PALACIOS, J y. Marchesi, A (eds.). Desarrollo psicológico y educación II. Madrid: Alianza editorial. 332 p. DUARTE, N. (1990). Reflexión teórica sobre experiencias en matemáticas con funcionarios analfabetos. Fundamentación epistemológica y político-pedagógica como punto de partida en la experiencia con adultos. En CEAAL. CLEBA. La enseñanza de las matemáticas con los adultos de los sectores populares (experiencias e investigaciones). Bogotá: Dimensión educativa. p. 3-11 EL CAMPESINO. (1988). Cuentas Claras. Semanario para la cultura del pueblo. Bogotá; Acción Cultural Popular. FEDERACIÓN NACIONAL DE CAFETEROS DE COLOMBIA. (1997). Estadísticas cafeteras fases I-II-III (y IV), Sistema de Información Cafetera, Encuesta nacional cafetera, Santafé de Bogotá, D.C. GOBERNACIÓN DE CALDAS. (1990). Hace Cuentas. Curso de cálculo matemático. Manizales: Secretaría de Educación Departamental. Sección Educación de Adultos y Fomento Cultural. GROS, B. (1997). Diseño y programas educativos. Pautas pedagógicas para la elaboración de software. Barcelona: Ariel. HIGUERA, C. (1990). Las matemáticas, componente clave en el proceso de alfabetización. En CEAAL. CLEBA. La enseñanza de las matemáticas con los adultos de los sectores populares (experiencias e investigaciones). Bogotá: Dimensión educativa. p. 106-110. INSTITUTO COLOMBIANO PARA EL FOMENTO DE LA EDUCACIÓN SUPERIOR, ICFES. (2001). Servicio Nacional de Pruebas. Pruebas de logro de matemáticas y lenguaje. Educación básica primaria y secundaria. Lineamientos teóricos: factores asociables – Datos básicos. –SNPSantafé de Bogotá: ICFES.Documento 80. Serie Saber No. 5. LÓPEZ, D.; VEGA, O. A. y MEJÍA, J. (2000). Aplicación de una metodología educativa para la capacitación de personas con bajo nivel de escolaridad utilizando la Internet. En: Ventana Informática: Universidad de Manizales. No. 7 (jul. 2000); p. 13-25. ISSN 0123-9678 MESA B., O. y PAREJA, G. (1990). Modelos de la enseñanza de las matemáticas en la educación de adultos. En CEAAL. CLEBA. La enseñanza de las matemáticas con los adultos de los sectores populares (experiencias e investigaciones). Bogotá: Dimensión educativa. p. 12-25. MINISTERIO DE EDUCACIÓN NACIONAL, ICFES. (2003). Serie Publicaciones para maestros. Sistema Nacional de Evaluación de la Educación. SNE. Evaluación de logros en Matemáticas. Lineamientos teóricos. Bogotá: MEN – ICFES. POINCARÉ, H. (2002). La ciencia y la hipótesis. Madrid: Espasa Calpe. (Traducción del francés por Alfredo B. Besio y Jóse Benfi). POLYA, G. (1977). Como plantear y resolver problemas, México, Trillas. SANTOS, L. M. (1992). Resolución de problemas. El trabajo de Alan Schoenfeld: Una propuesta a Considerar en el Aprendizaje de las Matemáticas. En: Revista Educación Matemática, Vol. 4, Nº 2, México D. F.: Grupo Editorial Iberoamérica, 1992

89


Nº 21 - Universidad de Manizales, julio - diciembre / 2009 SEGURA, D. (1989). Algunas observaciones sobre la enseñanza de la matemática. Coloquio de matemáticas, Bogotá, Noviembre de 1989. SCHOENFELD, A. (1992). Learning to think mathematically: Problem solving, metacognition and sense making in Mathematics, en: GROUWS, D. A. (ed), Handbook of Research on Mathematics Teaching and Learning, New York, Macmillan, 1992, p. 334-370. TIMS INTERNATIONAL STUDY CENTER. (1997). Performance Assessment in the Third International Mathematics and Sciencie Study. Boston College. VIGOTSKY, L. S. (1979). El desarrollo de las funciones psicológicas superiores. Madrid: Grijalbo. 133 p. WILSON, J. (1995). Cómo valorar la calidad de la enseñanza. Madrid: Paidós Ibérica. ISBN: 84-7509-822-3

90


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

ARTÍCULO MONOGRÁFICO

Prácticas seguras de programación para sistemas web1 [Safe practice of programming systems for web] Gunnar Eyal Wolf-Iszaevich 2 Recibo: 04.09.2009 - Aprobación: 12.11.2009

Resumen El campo de la seguridad en cómputo muchas veces es visto como un trabajo investigativo (búsqueda de nuevas categorías de fallos), reactivo (corrección de fallos encontrados, o incluso buscarlos proactivamente) o, en el peor de los casos, un campo donde los personajes más destacados son quienes saben abusar de los sistemas ajenos. Nada más lejano de la realidad. En la seguridad en cómputo, el rol más importante debe ser el desarrollador de sistemas, una de las piezas más importantes de la sociedad actual. Este trabajo parte definiendo qué debe entenderse por seguridad en cómputo, y por qué este concepto debe ir más allá de definiciones duras y frías, para reflejar que antes que otra cosa, el cómputo es una disciplina con la misma flexibilidad que los estudios humanísticos. La parte medular del trabajo se centra en ejemplificar, analizando tres categorías de vulnerabilidad informática de alto perfil hoy en día (inyecciones de SQL, Cross-Site Scripting y manejo de sesiones a través de galletas HTTP), de especial relevancia para los sistemas Web desarrollados hoy en día, poco abordadas en especi­fico por los principales textos con que se enseña la disciplina.

1 Modelo para citación: WOLF ISZAEVICH, Gunnar Eyal. (2009). Prácticas seguras de programación para sistemas web. En: Ventana Informática. No. 21 (jul-dic., 2009). Manizales (Colombia): Universidad de Manizales. p. 91-111. ISSN: 0123-9678 2 B.Sc. Computer Science. Técnico Académico Asociado C de Tiempo Completo, Instituto de Investigaciones Económicas, Universidad Nacional Autónoma de México, México. Correos electrónicos: gwolf@iiec.unam.mx, gwolf@gwolf.org. Nº 21 - Universidad de Manizales, julio - diciembre/2009 - pp 91-111

91


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Palabras Clave: Seguridad en cómputo, redefinición, inyecciones SQL, mapeo, Objeto-relacional, cross-site scripting, XSS, sesiones HTTP, Galletas HTTP, resumen criptográfico.

Abstract The Computes Security field is often seen as one where work is mostly devoted to research (finding new bug/vulnerability categories), reactive (fixing bugs as they are found, or even proactively looking for them), or in the worst case, a field where the most renowned characters are those who can abuse other systems. Nothing farther from truth In Computer Security, the most important role must always be that of the systems developer, one of the key parts of today’s society. This work starts by defining what we want to understand about Computer Security, and why this concept must reach beyond the hard and cold definitions, to reflect that, before anything else, computing is a discipline with the same amount of flexibility tan humanistic studies. The core of this work is centered on exemplifying, by analyzing three currently high-profile computer vulnerability categories which are especially relevant for Web systems developed today (SQL injections, cross-site scripting and session handling through HTTP cookies), which do not receive enough coverage by the main texts with which this discipline is learnt. Keywords: Computer Security, redefinition, SQL injection, objectrelation, mapped, cross-site scripting, XSS, HTTP sessions, HTTP cookies, cryptographic digest

Introducción La evolución del rol que cumplen los sistemas en las organizaciones ha cambiado por completo -afortunadamente- el punto de vista que la mayor parte de los desarrolladores tiene con respecto a la seguridad. Hace una o dos décadas el tema de la seguridad en cómputo era frecuentemente evitado. Y hasta cierto punto, justificable: ¿Intrusos? ¿Integridad? ¿Validaciones? Conceptos que hoy a todos parecen fundamentales eran vistos como distracciones teóricas que sólo entorpecían la usabilidad de los sistemas. En la década de los 80, había muy poco software diseñado para su operación en red, y mucho menos, para la idea de red que se 92


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

tiene hoy en día. Y si bien es cierto que la mayor parte de los ataques se originan -y siempre se han originado- dentro del parámetro de confianza de la organización, hace 20 años sencillamente había menos información sensible alojada en medios electrónicos, menos gente con el conocimiento necesario para manipularla, e incluso la manipulación tenía efectos más nocivos: Si bien hace años la infraestructura de cómputo era el soporte facilitador, la copia maestra estaba en papel - Hoy se transita hacia la situación opuesta, en que la versión electrónica es la primaria. Hoy, una intrusión en los sistemas puede poner en jaque la integridad de la información primaria. Mantener la seguridad en los sistemas que se desarrollan implica un alto costo: Los programadores tienen que aprender a evitar errores comunes; tienen que concientizarse y acostumbrarse a dedicar recursos a implementar baterías de pruebas; tienen que entrar en juego validaciones y conversiones sobre los datos que se manipulan, con costos en tiempos de procesamiento de cada solicitud... Pero, afortunadamente, ha crecido también la conciencia de la importancia de destinar a la seguridad la atención y recursos que requiere. El problema sigue siendo, coloquialmente... ¿con quién se come?. La seguridad en cómputo sigue siendo un campo difícil de entender, con muchas aristas ocultas. En este arti­culo se abordan algunos temas fundamentales, que a pesar de ser bien conocidos, siguen siendo origen de un sinfín de nuevos sistemas creados con obvios agujeros.

1. ¿Qué es la seguridad en cómputo? A riesgo de que parezca perogrullada, un sistema seguro no es otra cosa que un sistema que responde como debe, un sistema que cubre las necesidades y requerimientos con que fue concebido. Claro, esta pregunta hay que verla a la luz de varios criterios para que en verdad signifique algo. Un sistema seguro presenta: - Consistencia: Ante las mismas circunstancias, debe presentar el mismo comportamiento. Ante un sistema seguro, el tradicional remedio de ¿ya intentaste reiniciarlo?, no surte efecto. Si una grandísima proporción de usuarios se ha acostumbrado a que un reinicio resuelve las cosas, es porque el ambiente de ejecución se ensucia con elementos que debería haber descartado. Por tanto, puede concluirse que los sistemas en cuestión son inherentemente inseguros. 93


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

- Protección y separación: Los datos, instrucciones y espacio de memoria de un programa, componente o usuario no deben interferir ni permitir interferencia de otros. Las condiciones anormales ocurridas en uno de los componentes -sean accidentales o expresas- deben tener un impacto mínimo en el sistema como un conjunto. - Autenticación: El sistema debe poseer los mecanismos necesarios para asegurarse que un usuario es realmente quien dice ser. - Control de acceso: El sistema debe poder controlar con toda la granularidad necesaria, los permisos de acceso a sus datos, es decir, quién tiene acceso a que recursos, y qué tipo de acceso tiene. - Auditoría: El sistema debe ser capaz de registrar, así­ como de notificar, a quien sea necesario, de cualquier anomalía o evento importante. Los atributos mensionados deben ir matizados, priorizándolos al nivel adecuado a las necesidades. Ir demasiado lejos en uno de ellos puede ser perjudicial para los fines del sistema; por ejemplo, es de todos bien conocido que el tradicional esquema de autenticación basado en usuario y contraseña es fácil de engañar, basta adivinar (o conseguir) un pedazo de información, típicamente de muy débil complejidad, para estar autenticado como determinado usuario. En México, desde hace algunos años, los bancos exigen la identificación del cliente a través de dispositivos que presenten una mayor complejidad, generando cadenas de números que cambian periódicamente. Pero, obviamente, poca gente requerirá un nivel de seguridad similar a éste, o basado en parámetros biométricos, para abrir su cuenta de correo. Si bien es aceptable demandar que un usuario bancario tenga acceso al dispositivo como una medida de seguridad (lo cual es una inconveniencia, dado que muchos usuarios prefieren no cargarlo consigo constantemente, precisamente pensando en la seguridad), requerir medidas similares para acceso al correo electrónico será de inmediato criticado por todos los usuarios como excesivo y como limitante a la usabilidad. Y otra anotación: Es natural aspirar a la perfección, al 100%. Sin embargo, dice el refrán que ‘lo mejor es enemigo de lo bueno’. Es importante recordar que, en toda etapa de la planeación, desarrollo, implantación y tiempo de vida de un sistema, un 100% de seguridad es una utopía, un objetivo que sólo puede servir para guiar el trabajo diario. 94


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Los programas son escritos por humanos, y son también humanos quienes administran los sistemas en que corren. Hay una gran cantidad de interacciones entre los elementos de un programa y el sistema, y un cambio en cualquiera de ellos puede tener consecuencias inesperadas si no se hace con cuidado y conciencia. Constantemente aparecen nuevas categorías de errores capaces de llevar a problemas de seguridad. Parte fundamental, de la actuación como profesionales en este campo, debe ser la constante actualización con los últimos desarrollos y las últimas amenazas.

2. El estado actual de la seguridad en cómputo En un estudio, Sans y Mitre (2009) publicaron la lista de los 25 errores de seguridad más importantes en frecuencia y relevancia. Este listado incluye muchos temas fundamentales que deberí­an ser comprendidos por cualquier programador que se diga profesional. Vienen explicados con un buen nivel de detalle, detallando como evitar o mitigar sus efectos. Este estudio ha contado con amplio apoyo por parte de diversos sectores, tanto de la academia como de la industria. Sin embargo, volviendo al tema, en realidad ¿el hecho de que ahora la seguridad en cómputo sea un tema que forma parte del inconsciente colectivo, realmente ha llevado al mejoramiento de la calidad general del código? Es muy posible estar ante un claro caso de falso sentido de seguridad. Usuarios y programadores están al tanto del peligro que corren al utilizar un sistema informático. Obviamente, los programadores están (o por lo menos, deberían estar) más atentos, dado que se dedican profesionalmente al cómputo y que comprenden (o, nuevamente, deberí­an comprender) mucho mejor las interacciones que llevan a las principales vulnerabilidades. Sin embargo, una y otra vez se encuentran sistemas con las mismas clases básicas de errores, de tremendos agujeros de seguridad, a través de los cuales podrí­an pasar marchando regimientos completos. ¿Por qué sucede esto? En sí­ntesis, podrí­a resumirse en los siguientes factores: - Confianza ciega en la propaganda de los proveedores. Prácticamente todos los proveedores de herramientas de desarrollo, de 95


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

-

- -

-

-

96

modelado, de verificación aseguran ser la más segura. En el mundo del software propietario (en contraposición al Software Libre), muchos usuarios tienden a creer en la voz de los gurúes sin poderla verificar, algo que no pueden siquiera validar lo que estos anuncian. Ceguera. Si bien algunos modelos de programación actuales hasta­ protegen de las más graves fallas técnicas, muchos programadores se sentirán mágicamente protegidos por la tecnología que tenga la mezcla correcta de palabras de moda, sin verdaderamente averiguar que es lo que dichas palabras significan. No hay peor ceguera que la de quien no quiere ver, asegura la sabiduría popular, y no hay peor profesional que el que cree en un acrónimo sin comprender su significado. Falta de actualización. Al estudiar los peligros relativos a la seguridad, se sigue pensando en las mayores amenazas de seguridad que fueron estudiadas y descubiertas hace décadas. Desbordamiento de pila (Wheeler, 2003), desbordamiento de enteros Williams (2009). Sin embargo, pocos cursos relativos a la seguridad se han actualizado a los errores que plagan a la clase actual de aplicaciones, mayormente desarrolladas en marcos que inherentemente se protegen de estos graves errores de hace décadas. El síndrome NIH (Not Invented Here - no inventado aquí)­ (Katz y Allen, 1982), es un antipatrón de diseño definido como la tendencia a reinventar algo ya existente, basándose en la casi siempre falsa creencia de que un desarrollo llevado a cabo en casa resultara más adecuado, más seguro o más controlado que implementaciones ya existentes. Procedimientos tediosos. Muchos errores de diseño de sistemas podrán ser fácilmente paliados si los desarrolladores no tuvieran que llevar a cabo prácticas engorrosas o tediosas para evitarlos. Por ejemplo, casi la totalidad de los lenguajes desarrollados en las últimas décadas liberan a sus desarrolladores del manejo (asignación, liberación) explícito de bloques de memoria. Si bien esto reduce sensiblemente la rapidez del software desarrollado y resta un poco de flexibilidad (imposibilita trabajar sobre conjuntos de datos con simple aritmética de apuntadores), evita por completo los principales problemas que plagaban al desarrollo de software en los años 80 y 90, como se menciona dos párrafos atrás, los diversos tipos de desbordamiento, o errores típicamente no asociados con la seguridad, como las dobles liberaciones (Mitre, 2009) o las fugas de memoria (Erickson, 2002).


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Es por esto que resulta tan importante enfatizar en explicar y enseñar respecto a las principales vulnerabilidades actuales. Una grandísima proporción de los sistemas desarrollados hoy en dí­a siguen el paradigma cliente-servidor. Y si bien hay muy diferentes maneras de implementar estos sistemas, indudablemente la más difundida y prevalente es la de los sistemas Web. Al mismo tiempo, dado el medio mismo a través del cual se transporta y por el ámbito global que han adquirido muchos de estos sistemas, es este modelo de desarrollo la categoría más expuesta directamente a elementos hostiles, por lo cual el presente artículo adopta un enfoque principalmente orientado a este tipo de sistemas. Si bien hay una tremenda cantidad de categorías en las cuales puede ahondarse, los tres casos (Inyecciones de SQLF, Cross-Site Scripting (XSS) y Manejo de sesiones a través de galletas HTTP) presentados a continuación, son una buena muestra de las vulnerabilidades más comunes, peligrosas, y de las cuales es más importante estar consciente y atento al programar o al auditar sistemas existentes.

3. Ejemplo: Inyecciones de SQL Se toma como ejemplo un URL típico generado por uno de los sistemas de administración de contenido (CMS) en boga hoy en dí­a: Joomla. Por razones obvias, el nombre verdadero del sitio en cuestión ha sido reemplazado por www.ejemplo.com (http://www.ejemplo.com/content/ view/825). Para quien haya analizado URLs, resultará obvio que 825 corresponda al ID de la nota en la base de datos, y que los componentes content y view indiquen la operación que el sistema debe realizar ante una solicitud. Ahora bien, ¿a qué se refiere la expresión cruzamos las barreras entre las capas? ¿Y cuáles son las principales? Enfoque en el ID: Al analizar el URL, el ID es un pedazo de texto (formalmente es una cadena que es recibida como parte del método GET, uno de los métodos definidos para el protocolo HTTP). El servidor Web que recibe la solicitud interpreta este método GET y encuentra -utilizando mod_rewrite, en caso de tratarse de un servidor Apache, como la mayoría de los sitios de la red, a través de configuración típicamente indicada en el archivo .htaccess- que el contenido, indicado por la ruta /content/view/*, debe ser procesado por el archivo index.php, que a su vez (dada su terminación o demás reglas que pueden aplicarse), es 97


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

manejado por el lenguaje PHP. El archivo index.php es provisto por el sistema Joomla, que reconoce la ruta, convierte al ID en su representación numérica, y lo utiliza para pedir a la base de datos le entregue los datos relacionados con determinado artículo. Entonces, aquí­puede reconocerse los siguientes puntos principales de manipulación de la solicitud: Apache recibe una solicitud HTTP, y (vía mod_rewrite) la reescribe, indicando content, view y 825 como parámetros a index.php. PHP analiza, separa y estructura los parámetros recibidos para ser utilizados por Joomla solicita el artículo 825 a la base de datos La variabilidad de los primeros pasos es en realidad menor, pero al solicitar a la base de datos el artículo 825 (y este es el caso base, el más sencillo de todos) deben pasar muchas cosas. Primero, que 825 es una cadena de caracteres. PHP es un lenguaje débilmente tipificado (los números se convierten en cadenas y viceversa automáticamente según sea requerido), pero una base de datos maneja tipos estrictamente. Un atacante, una persona que quiere causar daño u obtener acceso mayor al cual tiene autorizado en el sistema, basará su acercamiento en ser creativo respecto a cómo engañarlo: Es muy poco frecuente que busque adivinar usuarios/contraseñas; más bien, intentará engañar al sistema para entregar resultados distintos de aquello que parece estar siendo solicitado. ¿Y cómo se engaña a un sistema? Pidiéndole algo que no se espere - Por ejemplo, 825aaa. En este caso, el código PHP que invoca a la base de datos se­verifica que el tipo de datos sea correcto: Hace una conversión a entero, y descarta lo que sobra. Sin embargo, en muchos sistemas desarrollados en casa, una solicitud similar lleva a un mensaje como: Warning: pg_execute () [function.pg-execute]: Query failed: ERROR: Invalid input syntax for integer: “825aaa” in /home/(...)/index.php on line 192

Esto indica que uno de los parámetros fue pasado sin verificación de PHP al motor de base de datos, y fue este el que reconocía al error.

Ahora, esto no califica aún como inyección de SQL (dado que el motor de bases de datos supo reaccionar ante esta situación), pero se está prácticamente a las puertas. El código desarrollado por una determinada persona, en un lapso de tiempo dado tiende a repetir muchos patrones Es casi un hecho que si el desarrollador no valida la entrada en un punto, habrá muchos otros en que no lo haya hecho. Este error en particular 98


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

indica que el código construye la cadena de consulta SQL a través de una interpolación parecida a la siguiente: $id_art = $_GET [‘id’];

$sql = “SELECT * FROM articulo WHERE id = $id_art”

La vulnerabilidad aquí­ consiste en que el programador no toma en cuenta que $id_art puede contener cualquier cosa enviada por el usuario - Por el atacante en potencia. ¿Cómo puede aprovecharse esto?... No hay límites más que la imaginación. A continuación, se presentan algunos ejemplos, evitando el enfoque en ningún lenguaje en específico, ya que lo importante es el proceso y el tratamiento que se da al SQL generado. Para estos ejemplos, se cambia un poco el caso de uso, nuevamente, recordando que errores derivados del estilo de codificación detectados en un punto, muy probablemente se repitan a lo largo del programa. En vez de ubicar recursos, se habla acerca de una de las operaciones más comunes: La identificación de un usuario con login y contraseña. Se supone que el mismo sistema del código recién mencionado utilizala siguiente función para validar a sus usuarios: $data = $db->fetch (“SELECT id FROM usuarios WHERE login = ‘$login’ AND passwd = ‘$passwd’”); If ($data) {

$uid = $data [0]; } else {

print “<h1>Usuario invalido!</h1>”;}

Aquí­puede apreciarse la práctica muy cómoda y común de interpolar variables dentro de una cadena. Muchos lenguajes permiten construir cadenas donde se expande el contenido de determinadas variables. En caso de que el lenguaje favorito no maneje esta característica, concatenar las sub-cadenas y las variables lleva al mismo efecto. Por ejemplo, en Visual BASIC se obtendría la misma vulnerabilidad construyendo la cadena así­: Dim sql as String = “SELECT id FROM usuarios WHERE login = ‘” & login & “’ AND passwd = ‘” & passwd & “

Sin embargo... ¿Que pasarí­a aquí­si el usuario jugara un pequeño truco? Si solicitara, por ejemplo, entrar al sistema utilizando como login a fulano’;--, esto llevaría al sistema a ignorar lo que se diera por contraseña: se estaría ejecutando la siguiente solicitud: 99


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

SELECT id FROM usuarios WHERE login = ‘fulano’;--’ AND PASSWD = ‘’

La clave de este ataque es confundir a la base de datos para aceptar comandos generados por el usuario. El ataque completo se limita a cuatro caracteres (‘;--). Al cerrar la comilla e indicar (con el punto y coma) que termina el comando, la base de datos entiende que la solicitud se da por terminada, y cualquier cosa que siga es otro comando. Se podría enviarle más de un comando consecutivo que concluyera de forma coherente, pero lo más sencillo es utilizar el doble guión indicando que inicia un comentario. De este modo, se logra vulnerar la seguridad del sistema, entrando como un usuario cuyo login se conoce, aún desconociendo su contraseña. Pero puede irse más allá. Siguiendo con este ejemplo, típicamente el ID del administrador de un sistema es el más bajo. Si se imagina el resultado de los siguientes nombres de usuario falsos: ninguno’ OR id = 1;-- ninguno no es un usuario válido del sistema, pero esto resultará en una sesión con privilegios de administrador. INSERT INTO usuarios (login, passwd) VALUES (‘fulano’, ‘de tal’); --

Esto no otorgará en un primer momento una sesión válida, pero creará una nueva cuenta con los valores especificados. Obviamente, es posible que fuera necesario averiguar -a prueba y error- qué otros valores son necesarios agregar para que esto otorgue un usuario válido con suficientes privilegios. DROP TABLE usuarios: Un atacante puede darse por satisfecho con destruir la información. En este caso, el atacante destruirá de un plumazo la tabla de usuarios. Es imposible dejar de sugerir la visita al ya famoso Bobby Tables (Munroe, 2007).

3.1 Evitando las inyecciones de SQL ¿Y qué puede hacerse? Protegerse de inyección de SQL es sencillo, pero hay que hacerlo en prácticamente todas la consultas, y convertir la manera natural de escribir código en una segura. La regla de oro es nunca cruzar fronteras incorporando datos no confiables, y esto no sólo es muy sencillo, sino que muchas veces (específicamente cuando se itera sobre un conjunto de valores, efectuando la misma consulta para cada uno de ellos) hará los tiempos de respuesta del sistema sensiblemente mejores. La respuesta es separar preparación y ejecución de las consultas. Al preparar una consulta, el 100


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

motor de bases de datos la compila y prepara las estructuras necesarias para recibir los parámetros a través de placeholders, marcadores que serán substituidos por los valores que se indiquen en una solicitud posterior. Volviendo al ejemplo del login/contraseña, en este caso, se presenta como será construido desde el lenguaje Perl: $query = $db->prepare (‘SELECT id FROM usuarios WHERE login =? AND passwd =?’); $data = $query->execute ($login, $passwd);

Los símbolos de interrogación son enviados como literales a la base de datos, que sabe ya qué se le pedirá y prepara los índices para responder. Puede enviarse contenido arbitrario como login y password, ya sin preocupación de si el motor lo intentará interpretar. Algunos lenguajes y bibliotecas de acceso a bases de datos (notablemente, la popular combinación PHP+MySQL) no implementan la funcionalidad necesaria para separar los pasos de preparación y ejecución. La respuesta en dichos lenguajes es utilizar funciones que escapen explícitamente los caracteres que puedan ser nocivos. En el caso mencionado de PHP+MySQL, esta función será mysql_real_escape_string (Achour, 1997-2009): $login = mysql_real_escape_string ($_GET[‘login’]);

$passwd = mysql_real_escape_string ($_GET[‘passwd’]);

$query = “SELECT id FROM usuarios WHERE login = ‘$login’ AND passwd = ‘’”; $data = $db->fetch ($query);

Una gran desventaja que esto conlleva es la cantidad de pasos que el programador debe efectuar manualmente, especialmente cuando entran en juego mayores cantidades de datos, y hay que verificar cada uno de ellos. Cabe mencionar que las bibliotecas que implementan conectividad a otras bases de datos para PHP (por ejemplo, PostgreSQL), ofrecen las facilidades necesarias para la preparación y ejecución como dos pasos separados, con una semántica muy similar a la anteriormente descrita. Revisar todas las cadenas enviadas a la base de datos puede parecer una tarea tediosa, pero ante la facilidad de encontrar y explotar este tipo de vulnerabilidades, bien vale la pena. En Mavituna (2007), Microsoft (2009) y Friedl (2007) existe información mucho más completa y detallada acerca de la anatomía de las inyecciones SQL, y 101


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

diversas maneras de explotarlas, incluso cuando existe cierto grado de validación.

3.2 Alternativa específica: el uso de ORMs Otra alternativa interesante que todo programador debe conocer es el uso de marcos de abstracción, como los mapeos objeto-relacionales, ORMs (Ulloa, Salazar y Solar, 2006). Estos marcos se encargan de crear todo el pegamento necesario para hermanar a dos mundos diferentes (el de las bases de datos relacionales, basados en registros almacenados en tablas, y el de la programación orientada a objetos, basado en objetos instanciados de clases), mundos que comparten algunas características (estructura homogénea a todos los elementos del mismo tipo), pero no otras (manejo de relaciones complejas como composición o agregación). Sin embargo, en el ámbito aquí­discutido, la principal característica de los ORMs es que se encargan de cubrir los detalles relativos a la integración de dos lenguajes y dos formas de ver al mundo muy distintas. Uno de los grandes atractivos de los ORMs es que, entre otras muchas ventajas, su uso puede liberar por completo (o en una gran medida) de escribir directamente código SQL en la totalidad del proyecto. Una solicitud similar a la anterior a través del ORM Active Record en el lenguaje Ruby sería sencillamente: usuario = Usuario.find_by_login (login, :conditions => ‘passwd = ?’, passwd)

En este caso, será directamente la biblioteca la que convierte una llamada find a la clase Usuario (que hereda de Active Record: Base) en una consulta SQL, escapa/limpia las entradas y enví­a la solicitud a la base de datos. Esto proporciona la ventaja adicional de que todo el código relativo al paso de parámetros a la base de datos está concentrado en un solo punto (y en un punto ampliamente utilizado y escrutado por profesionales de todo el mundo); toda omisión o error que vaya siendo detectado, llevará a que este sea corregido en un solo punto, y la aplicación recibirá, en todas las consultas que pasen a través del ORM, el beneficio de esta mejora. Además, estando desarrollada verdaderamente en un solo lenguaje, la aplicación se mantiene más limpia y resulta más fácil de comprender y depurar. Active Record es solo uno de muchos ORMs existentes; está implementado para Ruby (Heinemeier, 2004-2009) y para .NET (Verissimo, 2003-2009), además de implementaciones muy cercanas a este patrón en varios otros lenguajes. 102


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

4. Ejemplo 2: Cross-Site Scripting (XSS) Como ya se mencionó, las inyecciones se presentan cuando se cruzan fronteras. Las inyecciones SQL no son, ni mucho menos, el único tipo de inyección de código malicioso; cualquier lugar en que un mismo dato puede significar cosas diferentes, dependiendo del contexto en que es evaluado, es susceptible a ser vulnerable a inyección. Las siguientes categorías las menciono únicamente para invitar al lector a empaparse en la problemática que conllevan. Del mismo modo que deben sanitizarse3 los datos, que se llevan hacia abajo a través de las capas del diseño del sistema, debe hacerse lo mismo al subir. ¿Qué significa esto? Que no sólo deben protegerse las capas privadas de la aplicación, a las cuales un posible atacante no debería tener acceso directo, sino también proteger a las capas superiores, aquellas que están incluso fuera de control, como el navegador de los demás usuarios (Mitre, 2008-2009b). En un sistema Web (especialmente si se quiere participar en la llamada Web 2.0) muchas veces se despliega a un usuario información provista por otros usuarios. Para ofrecer toda la funcionalidad y respuesta ágil de un sitio moderno, los navegadores están típicamente configurados para ejecutar todo código Java Script que reciben, confiando en quien lo origina. Ahora, ¿qué pasará si un usuario malicioso deja en un blog el siguiente comentario?: <script language=”Java Script”>

window.location=”http://www.hackme.org/1234”; </script>

En efecto, inmediatamente al cargar la página en cuestión, el usuario será redirigido a un sitio diferente (y con justa razón: para su navegador, esta indicación viene del sitio, no puede saber que viene de un elemento hostil). Este sitio podrá hacerse pasar por el sitio víctima, sin que el usuario se diera cuenta, y podrá llevar al usuario a diferentes escenarios donde se le extrajera información confidencial (por ejemplo, se le puede pedir que se vuelva a autenticar). La mayor parte de los usuarios caerán en el engaño, con lo que puede volverse un potente mecanismo para suplantación de identidad. Por si no bastara, cada usuario, obviamente, tiene un perfil diferente y normalmente, nivel o credenciales de acceso también diferentes. ¿Que 3 Entendido como limpiar o escapar.

103


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

pasaría si el código Java Script fuera muy ligeramente más malicioso? Por ejemplo (y nuevamente, meramente como ejemplo ficticio), podrá hacer que un administrador le diera acceso completo al sitio. Si el atacante recibía el usuario número 152, podrá enviar un mensaje privado al administrador del sitio que incluyera: <script language=”Java Script”>

window.location=”/admin/user/152/edit?set_admin=1”; </Script>

Claro está, asignar una nueva dirección a window.location es probablemente la manera más burda y notoria para llevar a cabo estos ataques; hay muchas formas más sigilosas, que pueden pasar completamente desapercibidas por un usuario casual. Este tipo de ataques son conocidos genéricamente bajo el nombre de XSS o Cross-Site Scripting (Mitre, 2008-2009c). La clave para evitarlos es nuevamente sanitizar toda la información, pero en este caso, toda la información a enviar al cliente. En el caso de HTML, prácticamente basta con escapar ciertas entidades (caracteres que pueden tener significados especiales). Por ejemplo, reemplazando todos los caracteres « » por su representación « » y todos los caracteres «>» por «g» (como primer acercamiento), este código será desplegado de una manera limpia. Este es típicamente un proceso aún más engorroso que sanitizar la entrada, por la cantidad de puntos donde hay que repetir la validación. Dependiendo del caso, muchos desarrolladores optan por limpiar a la entrada todo lo que será eventualmente desplegado, pero esto puede llevar al usuario a algunas condiciones en que el navegador no lo dessanitiza, resultando sencillamente en una salida aparentemente llena de basura. Como nota adicional, es posible (y altamente deseable) sanitizar toda la información a la entrada, desechando lo que no sea claramente aceptable. Sin embargo, siempre hay casos en que se requiere guardar la información completa y sin manipular. Si bien evitar XSS es más difícil que evitar inyecciones de SQL, a pesar de que el impacto de XSS, a primera vista, es menos severo que el de una inyección de SQL. Este puede tardar mucho más tiempo en ser corregido, puede estar presente en más puntos del código, y por sobre todo, es más tedioso de arreglar, por lo que es fundamental tener la costumbre de verificar, a tiempo, toda la información que se despliegue. Además, si bien el impacto es menos inmediato, es típicamente más sigiloso. Si un atacante obtiene la información de acceso de una gran 104


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

cantidad de usuarios, para propósitos prácticos no puede volverse a confiar en ninguno de ellos, ya que todos pueden estar potencialmente controlados por el atacante.

5. Ejemplo 3: Manejo de sesiones a través de galletas HTTP La conjunción de un protocolo verdaderamente simple para la distribución de contenido (HTTP) con un esquema de marcado suficientemente simple, pero suficientemente rico para presentar una interfaz de usuario con la mayor parte de las funciones requeridas por los usuarios (HTML), llevó a la creación del entorno ideal para el despliegue de aplicaciones distribuidas. Desde sus principios, el estándar de HTTP menciona cuatro verbos por medio de los cuales se puede acceder a la información: - GET (solicitud de información sin requerir cambio de estado), - POST (interacción por medio de la cual el cliente manda información compleja y que determinará la naturaleza de la respuesta, así­ como posibles cambios de estado del lado del servidor), - PUT (creación de un nuevo objeto en el servidor) y - DELETE (destrucción de un determinado objeto en el servidor). Sin embargo, por muchos años, los verbos fueron mayormente ignorados. La mayor parte de los sistemas hace caso omiso a través de qué verbo llega una solicitud determinada; muchos navegadores no implementan siquiera PUT y DELETE, dado su bajísimo nivel de uso, aunque con la popularización del paradigma REST (Costello, s.f.), principalmente orientado a servicios Web (interfaces expuestas va HTTP, pero orientadas a ser consumidas/empleadas por otros programas, no por humanos), esto probablemente está por cambiar. El protocolo HTTP, sin embargo, junto con su gran simplicidad aporta un gran peligro, no una vulnerabilidad inherente a los sistemas Web, sino que un peligro derivado de que muchos programadores no presten atención a un aspecto fundamental de los sistemas Web: Cómo manejar la interacción repetida sobre de un protocolo que delega el mantener el estado o sesión a una capa superior. Esto por que, para un servidor

105


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

HTTP, toda solicitud es única. En especial, un criterio de diseño debe ser que toda solicitud GET sea idempotente4. ¿Cuál es el peligro? Consiste en que diversas aplicaciones, desde los robots indexadores de buscadores como Google y hasta aceleradores de descargas ingenuos que buscan hacer más ágil la navegación de un usuario (siguiendo de modo preventivo todas las ligas GET del sistema para que el usuario no tenga que esperar en el momento de seleccionar alguna de las acciones en la página) van a disparar estos eventos de manera inesperada e indiscriminada. HTTP fue concebido, segúnBerners-Lee (1996), como un protocolo a través del cual se solicitará información estática. Al implementar las primeras aplicaciones sobre HTTP, se encuentra que cada solicitud debía incluir la totalidad del estado. En términos de redes, TCP implementa exclusivamente la capa 4 del modelo OSI, y si bien mantiene varios rasgos que permiten hablar también de sesiones a nivel conexión, estas son sencillamente descartadas. Las capas 5 y superiores deben ser implementadas a nivel aplicación. HTTP es un protocolo puramente capa 6 (omite toda información relacionada con la sesión y sirve únicamente para presentar ya sea la aplicación o el contenido estático). Es por esto que los muchos sistemas Web hacen un uso extensivo de los campos ocultos (hidden) en todos sus formularios y ligas internas, transportando los valores de interacciones previas que forman parte conceptualmente de una sola interacción distribuida a lo largo de varios formularios, o números mágicos, que permiten al servidor recordar desde quien es el usuario en cuestión, hasta todo tipo de preferencias que ha manifestado a lo largo de su interacción. Sin embargo, este mecanismo resulta no solo muy engorroso, sino muy frágil: Un usuario malicioso o curioso puede verse tentado a modificar estos valores; es fácil capturar y alterar los campos de una solicitud HTTP a través de herramientas muy útiles para la depuración. E incluso sin estas herramientas, el protocolo HTTP es muy simple, y puede codificarse a mano, sin más armas que un telnet abierto al puerto donde escucha nuestro sistema. Cada uno de los campos y sus valores se indican en texto plano, y modificar el campo user_id es tan fácil como decirlo. 4 Esto significa que un GET no debe alterar de manera significativa el estado de los datos, es aceptable que a través de un GET, por ejemplo, se aumente el contador de visitas, (que haya un cambio no substantivo), pero muchos desarrolladores han sufrido por enlazar a través de un GET (como todo navegador responde a una liga HTML estándar), por ejemplo, el botón para eliminar cierto objeto.

106


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

En 1994, Netscape introdujo un mecanismo denominado galletas (cookies), que permite al sistema almacenar valores arbitrarios en el cliente. Este mecanismo indica que todas las galletas que defina un servidor a determinado cliente serán enviadas en los encabezados de cada solicitud que este le realice, por lo que se recomienda mantenerla corta. Atendiendo a esta recomendación, varias implementaciones de galletas no soportan más de 4KB. Un año más tarde, Microsoft lo incluye en su Internet Explorer; el mecanismo fue estandarizado en 1997 y extendido en el 2000 (Kristol y Montulli (1997) y Kristol y Montulli (2000)). El uso de las galletas libera al desarrollador del engorro antes mencionado, y le permite implementar fácilmente un esquema verdadero de manejo de sesiones, pero, ante programadores poco cuidadosos, abre muchas nuevas maneras de adivinaron cometer errores. Dentro del cliente (típicamente un navegador) las galletas están guardadas bajo una estructura de doble diccionario: en primer término, toda galleta pertenece a un determinado servidor (esto es, al servidor que la envía). La mayor parte de los usuarios tienen configurados a sus navegadores, por privacidad y por seguridad, para entregar el valor de una galleta únicamente a su dominio origen (de modo que al entrar a un determinado sitio hostil este no pueda robar su sesión en el banco); sin embargo, todo sistema puede solicitar galletas arbitrarias guardadas en el cliente. Para cada servidor, pueden almacenarse varias galletas, cada una con una diferente llave, un nombre que la identifica dentro del espacio del servidor. Además de estos datos, cada galleta guarda la ruta a la que esta pertenece, si requiere seguridad en la conexión (permitiendo solo su envío a través de conexiones cifradas), y su periodo de validez, pasado el cual serán consideradas rancias y ya no se enviarán. El periodo de validez se mide según el reloj del cliente. Guardar la información de estado del lado del cliente es riesgoso, especialmente si se hace sobre un protocolo tan simple como HTTP. No es difícil para un atacante modificar la información enviada al servidor, y si bien en un principio los desarrolladores guardaban en las galletas la información de formas parciales, se llega a una regla de oro: Nunca guardar información real en ellas. En vez de esto, es recomendado guardar un token (literalmente, ficha o símbolo) que apunte a la información. Esto es, en vez de guardar el ID de un usuario, debe enviarse una cadena criptográficamente fuerte (Martínez y Vázquez, 2008) que apunte a un registro en la base de datos del servidor. ¿A qué se refiere esto?... a que tampoco es recomendable grabar directamente el ID 107


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

de la sesión (dado que siendo sencillamente un número, será para un atacante trivial probar con diferentes valores hasta aterrizar en una sesión interesante), sino una cadena aparentemente aleatoria, creada con un algoritmo que garantice una muy baja posibilidad de colisión y un espacio de búsqueda demasiado grande como para que un atacante lo encuentre a través de la fuerza bruta. Los algoritmos más comunes para este tipo de uso son los llamados funciones de resumen o digest (Bellare and Kohno, 2003). Estos generan una cadena de longitud fija; dependiendo del algoritmo, hoy en día van de los 128 a los 512 bits. Las funciones de resumen más comunes son las variaciones del algoritmo SHA desarrollado por el NIST y publicado en 1994; usar las bibliotecas que los implementan es verdaderamente trivial. Por ejemplo, usando Perl: use Digest::SHA1;

print Digest::SHA1->sha1_hex(“Esta es mi llave”); entrega la cadena:

c3b6603b8f841444bca1740b4ffc585aef7bc5fa

Pero, ¿qué valor usar para enviar como llave? Definitivamente no servirá enviar, por ejemplo, el ID de la sesión, ya que dejará una situación igual de riesgosa que incluir el ID del usuario. Un atacante puede fácilmente crear un diccionario del resultado de aplicar SHA1 a la conversión de los diferentes números en cadenas (mecanismo conocido como rainbow tables o tablas arcoíris; hay varios proyectos que han construido tablas para diversas aplicaciones, como la recuperación de contraseñas en sistemas Windows). La representación hexadecimal del SHA1 de ‘1’ siempre será d688d9b3d3ba401b25095389262a3ecd2ad5ad68, y del de 100 siempre será daaa8121aa28fca0edb4b3e1f7b7c23d6152eed; el identificador de la sesión debe contener elementos que varíen según algún dato no adivinable por el atacante (como la hora exacta del día, con precisión a centésimas de segundo) o, mejor aún, con datos aleatorios. Este mecanismo lleva a asociar una cadena suficientemente aleatoria, como para asumir que las sesiones de los usuarios no serán fácilmente secuestradas5, y así poder dormir tranquilos, sabiendo que el sistema de manejo de sesiones en el sistema es prácticamente inmune al ataque por fuerza bruta.

5 Esto es, que un atacante no le atinará al ID de la sesión de otro usuario.

108


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Y ya como último punto, las galletas son muchas veces vistas como un peligro por los activistas de la privacidad y el anonimato, dado que permiten crear un perfil de las páginas que va visitando un usuario (especialmente en el caso de empresas como Google o DoubleClick, que han sido especialmente exitosas en ofrecer herramientas de anuncios o de monitoreo/estadísticas a diversos administradores de sitios en todo el mundo). Es importante recordar que algunas personas han elegido desactivar el uso de galletas en su navegación diaria, a excepción de los sitios que expresamente autoricen. Es interesante tener en cuenta que una galleta puede no haber sido guardada en el navegador cliente, y esto desembocará en una experiencia de navegación interrumpida y errática para dichos usuarios. Es importante detectar si en el momento de establecer una galleta, esta no fue aceptada, para dar la información pertinente al usuario, para saber qué hacer y no estar frente a un sistema inoperativo más.

6. Conclusiones • A lo largo de este artículo se revisan tres de las principales categorías de vulnerabilidades/errores de programación que, a juicio del autor, más prevalentes y peligrosas resultan hoy en dí­a. Ahora bien, no es casualidad que el encabezado de cada una de las secciones correspondientes fuera Ejemplo. Este artículo no implico que baste con estar conciente y alerta ante estas amenazas para dejar de lado las demás. • La seguridad en cómputo, si bien es un campo fascinante, es un campo que requiere constante actualización. Además, si bien este artículo se enfoca a las vulnerabilidades más comunes en servicios Web no es, ni busca ser, comprehensivos. Hay amplísimas categorías a las cuales no hubo acercamiento, siquiera, y eso no debe entenderse como que carezcan de importancia Las tres categorías analizadas son meramente ejemplos de lo que hay que considerar. • Ser desarrollador de sistemas es una profesión demandante. Para cumplirla a cabalidad, requiere estar al día en lo tocante a seguridad. No estarlo significa una irresponsabilidad ante usuarios o clientes del desarrollo. • La sociedad depende más que nunca de la sistematización de los procesos y de la capacidad de sustentarlos a distancia. Los programadores, y en especial los programadores de sistemas en red, se 109


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

han vuelto piezas fundamentales del tejido social. Es fundamental reconocer y aceptar el nuevo rol responsablemente, que quienes se sientan desarrolladores de sistemas, comprendan la importancia de este trabajo para la sociedad toda, y actúen en consecuencia.

Bibliografía ACHOUR, Mehdi; et al. (1997-2009). PHP Manual [en línea]. s.l.: PHP Documentation Group. <http://www.php.net/manual/en/> <http://www.php.net/mysql_real_escape_string> [Consulta: 08/2009] BELLARE, M. and KOHNO, T. (2003). A theoretical treatment of related-key attacks: RKA-PRPs, RKA-PRFs, and applications [en línea] Eurocrypt 2003 (4-8/05/2003), Warsaw (Poland): International Association for Cryptologic Research, IACR. Proc. EUROCRYPT 2003, Lecture Notes in Computer Science No. 2656, p. 491-506, Springer-Verlag. <www.iacr.org/archive/ eurocrypt2003/26560491/26560491.ps> [Consulta: 08/2009] BERNERS-LEE, Tim. (1996). The Original HTTP as defined in 1991 [en línea]. s.l.: W3C. <http:// www.w3.org/Protocols/HTTP/AsImplemented.html> [Consulta: 08/2009] COSTELLO, Roger (s.f.) Building Web Services the REST Way [en línea]. s.l.: xFront. <http://www. xfront.com/REST-Web-Services.html> [Consulta: 08/2009] ERICKSON, Cal (2002). Memory Leak Detection in Embedded Systems. En: Linux Journal, No. 101 (sep 2002) Beltdown Media, ISSN 1075-3583 <http://www.linuxjournal.com/article/6059> [Consulta: 08/2009] FRIEDL, Steve (2007) SQL Injection Attacks by Example [en línea]. Yorba Linda (USA): Unixwiz. <http://www.unixwiz.net/techtips/sql-injection.html> [Consulta: 08/2009] HALFOND, W. G.; ORSO, A. and MANOLIOS, P. (2006). Using positive tainting and syntax-aware evaluation to counter SQL injection attacks. [en línea]. In: Proceedings of the 14th ACM SIGSOFT international Symposium on Foundations of Software Engineering (Portland, Oregon, USA, November 05 - 11, 2006). SIGSOFT ‘06/FSE-14. ACM, New York, NY, p. 175-185. <http://portal.acm.org/citation.cfm?id=1181797> [consulta: 08/2009] HEINEMEIER, David (2004-2009) ActiveRecord para Ruby [en línea]. <http://ar.rubyonrails.org/> [Consulta: 08-2009] K AT Z , R a l p h a n d A L L E N , T h o m a s J . ( 1 9 8 2 ) . I n v e s t i g a t i n g t h e N o t I n v e n ted Here (NIH) syndrome: A look at the performance, tenure, and communication patterns of 50 R & D Project Groups [en línea]. En: R&D Management Volume 12, Issue 1, p. 7 – 20 (Published Online: 05.05. 2007). Hoboken (USA): Basil Blackwell. <http://www3.interscience.wiley.com/journal/120045051/abstract?CRETRY=1&SRETRY=0> [consulta: 08/2009] KRISTOL, David M. and MONTULLI, Lou (2000). RFC 2965: HTTP State Management Mechanism [en línea]. <http://www.ietf.org/rfc/rfc2965.txt> [Consulta: 08/2009] KRISTOL, David M. and MONTULLI, Lou. (1997). RFC 2109: HTTP State Management Mechanism [en línea]. <http://www.ietf.org/rfc/rfc2965.txt> [Consulta: 08/2009] MARTÍNEZ, I. y VÁZQUEZ, M. R. (2008) Esquemas de Autenticación de Mensajes Utilizando Funciones Hash. En: V Congreso Internacional de Telemática y Telecomunicaciones CITTEL´08 (1-5/12/2008), La Habana (Cuba): Departamento de Telecomunicaciones y Telemática del Instituto Superior Politécnico José Antonio Echeverría, CUJAE. Cittel 2008: Congreso Internacional de Telemática y Telecomunicaciones. <http://www.cujae.edu.cu/eventos/convencion/cittel/Trabajos/CIT060.pdf> [consulta: 08/2009] MAVITUNA, Ferruh (2007). SQL Injection Cheat Sheet. [en línea]. <http://ferruh.mavituna.com/sqlinjection-cheatsheet-oku/> [Consulta: 08/2009] MICROSOFT (2009). SQL Server 2008 Product Documentation - SQL Server 2008 Books Online - Threat and Vulnerability Mitigation – SQL Injection [en línea]. <http://msdn.microsoft.com/enus/library/ms161953.aspx> [Consulta: 08/2009]

110


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA MITRE (2008-2009a). Common Weakness Enumeration (CWE) 415: Double Free [en línea]. <http:// cwe.mitre.org/data/definitions/415.html> [Consulta: 08/2009] MITRE (2008-2009b). Common Weakness Enumeration (CWE) 116: Improper Encoding or Escaping of Output [en línea]. <http://cwe.mitre.org/data/definitions/116.html> [Consulta: 08/2009] MITRE (2008-2009c). Common Weakness Enumeration (CWE) 79: Failure to Preserve Web Page Structure (‘Cross-site Scripting’) [en línea]. <http://cwe.mitre.org/data/definitions/79. html> [Consulta: 08/2009] MUNROE, Randall (2007). Webcomic xcdr [en línea]. <http://es.xkcd.com/xkcd-es/strips/exploitsde-una-madre/> [Consulta: 08/2009] SANS/MITRE (2009). Top 25 Most Dangerous Programming Errors [en línea]. <http://www.sans. org/top25errors/> [Consulta: 08/2009] SHMOO GROUP (2005-2006). Rainbow Tables [en línea]. <http://rainbowtables.shmoo.com/> [Consulta: 08/2009] ULLOA, C.; SALAZAR J. P. y SOLAR, M. (2006). Metodología para evaluar el rendimiento de sistemas de almacenamiento y recuperación de documentos xml en bases datos nativas para xml y no nativas habilitadas para XML. [en línea]. En: Síntesis Tecnológica, Vol. 3 No. 1 (may, 2006) p. 1-13. Valdivia (Chile): Facultad de Ciencias de la Ingeniería, Universidad Austral de Chile. ISSN 0718-025X <http://mingaonline.uach.cl/scielo.php?script=sci_arttext&pid=S0718025X2006000100001&lng=es&nrm=iso>. [consulta: 08/2009] VERISSIMO, Hamilton, et. al. (2003-2009). Castle ActiveRecord [en línea]. <http://www.castleproject.org/activerecord/index.html> [Consulta: 08-2009] WHEELER, David A. (1999-2003) Secure Programming for Linux and Unix HOWTO; capítulo 6: Avoid Buffer Overflow [en línea]. <http://www.dwheeler.com/secure-programs/Secure-Programs-HOWTO/buffer-overflow.html> [Consulta: 08/2009] WILLIAMS, Jeff, et. al. (2006-2009) Integer overflow [en línea]. OWASP: the free and open application security community <http://www.owasp.org/index.php/Integer_overflow> [Consulta: 08/2009]

111


Nยบ 21 - Universidad de Manizales, julio - diciembre / 2009

112


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

ARTÍCULO MONOGRÁFICO

Evolución de la conectividad en el departamento de Caldas1 [Evolution of connectivity in department of Caldas] Danish Padilla-Tamayo2 Recibo: 01.07.2009 - Ajuste: 23.07.2009 - Ajuste: 19.10.2009 Aprobación: 25.11.2009

Resumen Las nuevas tecnologías trasforman las grandes ciudades de Colombia, la llegada de la banda ancha al hogar, las redes inalámbricas, la conectividad a través de fibra óptica, el estándar de la voz sobre IP, han generado cambios especialmente en la industria, la educación, la salud, el comercio y las telecomunicaciones a través de las tecnologías de la información y la comunicación (TIC). Se empiezan al culturizar con servicios de valor agregado las capitales medianas; la conectividad entre sedes en formato digital, teleconferencias, vídeo de alta calidad, la red de la próxima generación (NGN), el empaquetamiento de servicios son algunos beneficios disponibles en las ciudades capitales, que incluye a Manizales, mientras que a la provincia caldense llegan las tecnologías como resultado de un proceso que marcha a la velocidad de las necesidades del comercio, porque aún no tienen una utilidad aparente, la relación costo beneficio hace que el proveedor se concentre en las ciudades donde el recurso tecnológico está disponible, sólo las nuevas generaciones pueden obtener un provecho de estas tecnologías, a pesar que crecen en el mismo entorno, tecnológicamente viven en otro diferente. Palabras clave: Banda Ancha, TIC, NGN, Brecha Digital

1 Modelo para citación: PADILLA TAMAYO, Danish. (2009). Evolución de la conectividad en el departamento de Caldas. En: Ventana Informática. No. 21 (jul-dic., 2009). Manizales (Colombia): Universidad de Manizales. p. 113-126. ISSN: 0123-9678 2 Ingeniero de sistemas. Especialista en Telecomunicaciones. Profesor de la Universidad de Manizales, Ingeniero proyecto conectividad Susuerte Caldas, Apostar Risaralda (2000-2006), Jefe de Sistemas Siderúrgica de Caldas S.A. Correo electrónico: danish.padilla@acasa.com.co Nº 21 - Universidad de Manizales, julio - diciembre/2009 - pp 113-126

113


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Abstract New technology has transformed the largest cities in Colombia. The arrival of Information Technologies and Communication (TIC) namely, broadband wireless networking, fiber optics connectivity, and IP Voiceover, has brought about changes in industry, education, health, commerce and telecommunications. This is turn has increased the value of the media capitals (including Manizales), which are also benefitting from digital connectivity, high quality video conferencing and Next Generation Network packages (NGN). In other areas of the Caldas region, new technology has been brought about by the need to improve trade. The cost benefits have lured supplier to cities where the latest technological resources are available. However, it is only the younger generation which is able to take advantage of these new technologies. Keywords: Broadband, TIC, NGN, Digital Breach.

Introducción El proceso de la conectividad en Caldas ha estado acorde con las necesidades y los medios disponibles. Éste inicia con las conexiones a través del cobre, ofreciendo servicios análogos y termina mostrando como con la misma infraestructura mejorada los mismos proveedores ofrecen servicios de banda ancha. El departamento de Caldas (Figura 1) tiene una infraestructura que favorece la llegada de las redes informáticas a todas sus provincias, sin embargo, sólo la capital está dando paso a las redes de nueva generación, una exaltada comunidad universitaria, un selecto sector de la industria, una población en desarrollo, justifican cualquier inversión, que aunque alta, garantiza el retorno de la misma. Las empresas proveedoras de los servicios de conectividad han utilizado paso a paso las diferentes tecnologías; es así como dichas empresas han invertido en la repotencialización de cobre; estas redes eran utilizadas únicamente para las comunicaciones de voz, y ahora son la infraestructura preferida para la banda ancha empresarial y de hogar. Los proveedores actuales de servicios han optado por la renovación de las centrales telefónicas de análogas a digitales, mientras que las nuevas llegan con una propuesta de última tecnología, tal como las redes híbridas de fibra óptica y cobre (HFC), implementadas en países como China y Estados Unidos. 114


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Figura 1. Mapa político-administrativo de Caldas (IGAC, 2008)

Las tecnologías satelitales han sido implementadas en las zonas rurales y demás municipios del departamento por el programa gobierno en línea que plantea: • Incrementar la eficiencia del Estado. • Fortalecer las trasparencia del Estado y la participación ciudadana. • Mejorar la prestación de servicios a los ciudadanos y las empresas. El programa Compartel3 ha llegado, a julio 1 de 2008, a 164 puntos del departamento (Compartel, 2008), con el propósito establecido por el gobierno, este programa ha canalizado sus esfuerzos a los centros educativos y la telefonía rural.

3 Compartel: Programa de Telecomunicaciones Sociales creado por el Ministerio de Tecnologías de la Información y las Comunicaciones.

115


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Para los demás sectores, la empresa privada ofrece servicios de banda ancha a través de cobre en los principales municipios de Caldas, gracias a las nuevas alternativas de equipos como Cisco4 y Huawei5. Un sector más reducido del comercio valiéndose de las tecnologías disponibles para las actuales infraestructuras de cobre y redes inalámbricas, ha logrado llevar banda ancha para soluciones puntuales como es el caso del sector comercial y juegos de azar, éste último llega a los 27 municipios del departamento de Caldas.

1. Migración a la banda ancha «Durante más de un siglo, la principal infraestructura de telecomunicaciones internacional ha sido el sistema telefónico público de conmutación de circuitos. Este sistema se diseñó para la transmisión analógica de voz y es inadecuado para las necesidades de las comunicaciones modernas. Anticipando una demanda considerable por parte de los usuarios de un servicio digital de extremo a extremo, las compañías telefónicas del mundo y la administración de correo, telégrafo y teléfono (PTT) se reunieron en 1984 bajo los auspicios de La UIT [Unión Internacional de Telecomunicaciones] y estuvieron de acuerdo con construir un sistema de teléfonos de conmutación de circuitos nuevo, completamente digital, para principios del siglo XXI. Este nuevo sistema, llamado ISDN (red digital de servicios integrados), tiene como meta principal la integración de servicios de voz y sin voz» (Tanenbaum, 2000, 139). Según la Resolución 1740 del 2007 (CRT, 2007), para que un enlace sea catalogado en Colombia como banda ancha debe tener una velocidad mínima desde el proveedor hacia el usuario (Downstream) de 512Kbps y desde el usuario al proveedor (Upstream) de 256Kbps ó 128Kbps para conexiones satelitales, Partiendo de este criterio se hace un recorrido del proceso de evolución tecnológica en Caldas, teniendo en cuenta la participación del autor de este documento en la implementación de la mayoría de las tecnologías mencionadas en más del 70% de los municipios del departamento.

1.1 Conexión por línea conmutada Con esta conexión se dio inicio a las comunicaciones de dos equipos ubicados en municipios diferentes, cuando se tenía como único recurso 4 Cisco: Multinacional dedicada a la fabricación de equipos de telecomunicaciones. 5 Huawei: Mayor fabricante de equipos de redes y telecomunicaciones en China.

116


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

la línea de teléfono y un módem (Figura 2), empezándose a usar las redes diseñadas para voz también para la transmisión de datos.

Figura 2. Conexión por línea conmutada

Los costos se limitaban al tiempo de conexión, es decir al tiempo de duración de la llamada y la conexión se realizaba sin una inversión adicional en los equipos de la Red Telefónica Pública Conmutada (PSTN, por sus siglas en inglés Public Switched Telephone Network), las tasas de velocidad con esta tecnología alcanzaban los 56Kbps y el proceso de conexión requería del marcado tradicional de esta tecnología. La conexión conmutada ha sido bien aceptada en el sector bancario para la confirmación de transacciones y otras aplicaciones con baja tasa de transferencia de datos, debido a disponibilidad del servicio, al bajo costo y poca inversión requerida para su uso. Para los municipios del norte de Caldas (Neira, Filadelfia, La Merced y Marmato), los del oriente (Marulanda, Marquetalia, Pensilvania, Samaná, Norcasia y Victoria) fueron implementadas soluciones por línea conmutada, por requerimientos específicos del sector privado. Así mismo se uso esta tecnología para interconectar oficinas del mismo usuario dentro del área urbana de los municipios con conexión digital con la capital (Manizales). El proveedor de telefonía pública básica conmutada (TPBC), Telefónica - Telecom hasta el año 2006 ofrece el servicio de internet conmutado en los 25 de los 27 municipios de caldas donde tiene presencia actual117


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

mente y cuenta con 55.592 líneas activas según el informe “Gerencia de Mantenimiento Distrito Caldas Risaralda Departamento de Caldas” de julio de 2009.

1.2 Conexión por enlace semipermanente Este enlace fue una solución puntual a los requerimientos de velocidad en el tiempo de conexión para los enlaces conmutados, usa los mismos medios y tecnología que la línea conmutada, difiere en el tiempo para conexión (figura 3), el operador de telefonía establece la llamada de forma permanente y el canal de voz siempre disponible para la transmisión de datos, como el uso del enlace no es por demanda, este tipo de conexión incrementa el costo en las llamadas de larga distancia, por esa razón fue la solución recomendada entre sitios del mismo municipio.

Figura 3. Conexión por enlace semipermanente

Fue el más utilizado en el sector comercial para aplicaciones contables y financieras, por la respuesta inmediata y sus bajos requerimientos en la trasferencia de datos. Esta solución se utilizó en forma complementaria con los enlaces digitales (La Dorada, Anserma y Supía) e inalámbricos (Palestina y Chinchiná); entre otros, donde la conexión contra la capital se establecía en forma digital y dentro de los mismos municipios con enlaces semipermanentes para los diferentes sitios del usuario final. 118


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

1.3 Conexión Drop insertando un time slot de un E1 El protocolo E1 se creó para interconectar troncales entre centrales telefónicas, la trama del E1 empaca 32 muestras en divisiones (time slots) de la portadora PCM (Pulse Code Modulation) de 64Kb cada una, dos son utilizadas para señalización, lo que deja un total de 30 divisiones para uso de telefonía, un E1 equivale a 2048kb o 2 Megabits por segundo. Contratar una trama E1 significa disponer del servicio de 30 líneas telefónicas digitales para nuestras comunicaciones; ésta es la forma como llegan las empresas proveedoras más grandes de servicio telefónico a los municipios del departamento (Telefónica y Une). Los proveedores no estaban preparados para ofrecer un canal de 64Kb de un E1 como canal para la transmisión de datos, la infraestructura de equipos solo permitía usar los 30 canales, sin embargo, los primeros pasos a la banda ancha se dieron utilizando estos canales. Considerando que el proveedor de la TPBC podía ofrecer servicios digitales en los municipios donde contara con centrales con nodos de datos; en el caso de telefónica se exceptúan los municipios de Belalcázar, Marulanda, Norcasia, Samaná, donde tiene centrales solo de telefonía y los municipios de Palestina y Villamaría, que son atendidos por une que es otro de los operadores locales. Con inversiones nuevas, los proveedores pudieron extraer de los 30 canales de voz un canal (time slot) e insertarlo en un nuevo equipo (Router), proceso conocido como (Drop and insert), que finalmente se podía entregar al usuario final, fue la forma como se entregaron los 64Kb ó 128Kb digitales a los usuarios para uso de datos en los municipios del departamento de Caldas (Figura 4). Este tipo de conexión fue utilizado para el primer café internet instalado en el municipio de Manizales, capital del departamento de Caldas, en el año de 1998 con un ancho de banda de 128K, para luego ofrecer el mismo servicio en los municipios de La Dorada y Chinchiná en el año 2000, le siguieron los municipios de Riosucio y Salamina en el año 2003.

1.4 Conexión satelital La conexión satelital comenzó como una opción de uso exclusivo de proveedores, donde los costos de operación eran justificados por las necesidades de conectividad de los clientes y por ser la única considerando las distancias y costos de llegar con medios físicos a los sitios. 119


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Figura 4. Conexión Drop insertando un E1

En la actualidad algunos municipios de Caldas cuentan con servicios telefónicos y de banda ancha gracias a esta tecnología. «Otra ventaja de los servicios por satélite para muchas organizaciones es que son muy fáciles de instalar. No hemos de preocuparnos por la coordinación entre la compañía de inter-intercambio y la compañía local o por el tiempo de instalación. En comunicaciones vía satélite, un VSAT, Terminal de apertura muy pequeña (very small aperture terminal), con una antena de tamaño de 1,2 o 2,8 metros puede instalarse en un tejado o aparcamiento en pocas horas. Lógicamente, estos sistemas son, además, relativamente móviles y ahorran gastos de instalación telefónica entre centros operativos temporales» (Derfler, 1998, 221). La conexión, esquematizada en la Figura 5, ha sido utilizada por el gobierno nacional, con su programa Gobierno en línea a través de Compartel, aprovechando la bondad de esta tecnología, para llegar a los municipios más alejados (que tiene menos probabilidad en el corto plazo de tener medios como el cobre o la fibra óptica), especialmente a las instituciones educativas. De acuerdo a Compartel (2008), «la meta SIGOB6 de conectividad a instituciones Públicas es Nacional. (…) En cada una de las fases del programa de conectividad se han tenido en cuenta diferentes criterios, 6 SIGOB: Gestión y Seguimiento a las Metas de Gobierno.

120


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

lo cual ha buscado iniciar el cubrimiento por las instituciones de mayor matrícula y que contaban con la infraestructura computacional y en la medida en que se avanzan las fases se ha venido disminuyendo el número de matrícula, se han eliminado la exigencia asociada a contar con computadores y se ha fijado el criterio de contar con fluido eléctrico».

Figura 5. Conexión satelital

El programa del gobierno ayuda a relacionar como la tecnología satelital contribuye en la migración a la banda ancha. En el caso de Telefónica es el método que puede ofrecer canales digitales en los únicos cuatro municipios ya relacionados donde tiene presencia con centrales sin nodos de datos.

1.5 Conexión vía enlace inalámbrico Las soluciones inalámbricas que usen las bandas de 2400 a 2483,5Mhz y de 5725 a 5850Mhz, pueden ser usadas en forma libre sin necesidad de contraprestación o pago, según resolución 000689 de 2004 del Ministerio de Comunicaciones, implementadas hasta hace poco en redes de área local, empezaron a ser utilizadas para la conectividad entre municipios del departamento, gracias a la madurez de la tecnología y a los nuevos equipos ofrecidos por los fabricantes, que ofrecen una mayor distancia a baja potencia, cada vez más fáciles de configurar, económicos y con una cobertura en distancia que no sobrepasan las de los municipios de Caldas, que se encuentran en línea de vista con la 121


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

capital; Palestina, Risaralda, San José, Belalcázar y Viterbo (occidente), el municipio de Anserma, se conecta a través de una antena repetidora en el municipio de Risaralda. Para los municipios del oriente, que no tienen línea de vista con la capital, se usan sitios repetidores como el Ruíz y Cerro Sargento, para llegar al municipio de Aranzazu se usan repetidores en Buenavista, Cruz Helecho y La Cruz. Esta tecnología (figura 6) ya estaba implementada a otras frecuencias, no libres, con enlaces microondas por parte de los proveedores de servicios telefónicos, ahora son los mismos usuarios, apoyados en empresas integradoras que implementan sus enlaces en las frecuencias de 2.4Ghz y 5Ghz a costos muy bajos comparados con el beneficio de tener la conectividad de la banda ancha en sus municipios.

Figura 6. Enlace vía radio en frecuencia libre

1.6 Conexión digital a través del par telefónico La más reciente tecnología disponible en las provincias, ya implementada en la ciudad, es la ofrecida en formato digital a través de las líneas telefónicas tradicionales, los proveedores de esta tecnología han invertido en nuevos equipos que permite separar del par de cobre las frecuencias bajas para trasportar la voz, y las frecuencias altas para trasportar datos simultáneamente, con un pequeño dispositivo divisor de cada lado; proveedor (ATU-C) y usuario final (ATU-R). La mejor opción teniendo en cuenta su principal ventaja; usar la red de 122


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

cobre existente y una pequeña inversión en el equipo terminal del lado del usuario. La tecnología se presenta al mercado como Suscripción de Línea Digital (DSL), si bien del lado de los abonados la inversión es baja con un equipo terminal y un divisor de frecuencias pasa altas y pasa bajas, el despliegue sólo fue posible gracias a los equipos DSLAM (Digital Subscriber Line Access Multiplexer), que resolvieron el cómo ofrecer este servicio a muchos abonados desde las oficinas del proveedor como se ilustra en la figura 7. Apoyado en esta tecnología el proveedor local une puede ofrecer servicios de banda ancha en los municipios de Villamaría y Chinchiná, en otros municipios como: Palestina, Riosucio, Anserma, Viterbo, Belalcázar y Neira este proveedor ofrece servicio de internet por línea conmutada.

Figura 7. Servicio digital por par telefónico

En el reporte de Telefónica Telecom de “Gerencia de Mantenimiento Distrito Caldas-Risaralda, Departamento de Caldas” de julio de 2009, se reporta la disponibilidad de banda ancha para los municipios con nodos de datos, recogida en la tabla 1.

123


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Tabla 1. Disponibilidad de Banda ancha en el departamento de Caldas. (Telefónica Telecom, 2009) LOCALIDAD Anserma La Dorada Manizales Riosucio Salamina Supía Chinchiná Total Caldas

SUMA DE OCUPADOS 104 1468 44 118 103 125 752 2714

SUMA DE LIBRES

SUMA DE TOTAL

469 291 147 352 248 255 231 1993

576 1790 192 480 352 384 992 4766

SUMA DE OFERTA REAL 470 308 149 353 249 257 235 2021

1.7 Conexión de datos por telefonía móvil La telefonía celular hoy tiene una amplia cobertura en el territorio nacional y en el departamento de Caldas, que así como los proveedores de telefonía fija han querido aprovechar para ofrecer servicios de datos sobre su infraestructura de voz lo propio hacen los proveedores de la telefonía móvil, quienes con ofertas que apuntan más a la movilidad que a la velocidad llegaron al sector comercial y particular de las provincias de Caldas, solo se requiere el modem celular que se conectara a la red a través de la BTS (Broadcast Transmitting Station) más próxima (Figura 8).

Figura 8. Conexión por telefonía móvil

Este tipo de conexión es muy utilizada por usuarios de equipos portátiles que requieren una conexión móvil dentro de los municipios de Caldas. Con respecto a las tecnologías y la conectividad que llegan a 124


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

las provincias en general, Andrade Castro (2007, 9) expresa que «en la sociedad de la información se han eliminado fronteras y barreras; no obstante, las exclusiones sociales no sólo se han globalizado, sino que también se han regionalizado. Si bien es cierto que en nuestras sociedades las desigualdades están principalmente basadas en las clases sociales, hoy estamos en presencia de una nueva diferencia que repercute negativamente en el proceso de enseñanza-aprendizaje. Se trata de las diferencias territoriales que se generan como consecuencia de la preferencia en el desarrollo de políticas educativas que le dan prioridad al acceso de tecnologías de información en regiones más urbanizadas, o a sectores con mayores posibilidades de recursos de infraestructura técnica y tecnológica que sustentan la instalación de equipos de computación, tales como la electrificación el acceso a líneas telefónicas, edificaciones adecuadas, etcétera».

2. Conclusiones • La evolución tecnológica en Caldas ha tenido la misma base, el cobre, los proveedores han ampliado la cobertura y mejorado los equipos en proporción; al comienzo, a las necesidades puntuales del sector privado, pero luego con una visión de negocio, pensando en los servicios de valor agregado que hoy se ofrece en la ciudad capital • A los 27 municipios del departamento llega la conectividad a través del cobre y seguramente se podrá implementar la banda ancha, pero exceptuando los municipios más grandes en términos de comercio (La Dorada, Chinchiná, Anserma, Riosucio, Supía, Villamaría, Aranzazu, Salamina, Pácora y Aguadas), los municipios no presentan necesidades manifiestas que puedan generar la demanda de las nuevas tecnologías, como se evidencia en el informe de Telefónica Telecom, que teniendo en algunos municipios centrales con nodos de datos, no los presentan dentro de la disponibilidad de banda ancha. • La topografía del departamento favoreció la alternativa inalámbrica, las conexiones drop insertando un time slot preferidas en su momento, se convirtieron en la contingencia de las redes sin cable y es el medio actualmente más utilizado por los proveedores y la empresa privada para sus enlaces principales, como sucede en Chinchiná, La Dorada, Anserma, Belalcázar, San José y Risaralda que disponen de enlaces de inalámbricos. • Por su inversión, cobertura y capacidad, las soluciones satelitales, son usadas actualmente en forma exclusiva por el gobierno en la 125


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

ejecución de sus programas de conectividad, el gran favorecido y mejor usuario de éstas, es el sector educativo; usado en forma casi exclusiva para comunicación telefónica y enlaces de baja velocidad. • La evolución de la conectividad en Caldas se ha dado en proporción de la necesidad, programas como el de gobierno en línea han permitido llevar infraestructura para voz y datos a muchos municipios, algunos ya cuentan con la tecnología ADSL. Empresas como Empocaldas usa enlaces con protocolo Frame Relay entre los municipios de Anserma, La Dorada, Chinchiná, Aguadas y Supía; la Cámara de Comercio usa enlaces con el protocolo MPLS (Miltiprotocol Label Switching) entre los municipios de Anserma, Riosucio, Salamina y Aguadas, sin embargo, la plataforma sigue siendo cobre y es ésta misma plataforma la que soportará las redes de nueva generación, pero seguirán enmarcadas en una relación costo beneficio que aplica para el sector público y privado con fines de comercio, para el habitante de la provincia esto significa que la brecha digital continuará creciendo. • Teniendo en cuenta aspectos como: velocidad, capacidad proyectada y aplicaciones, la evolución de la conectividad en el departamento de Caldas ha sido consecuente con la necesidad y los medios disponibles en Colombia.

Bibliografía ANDRADE CASTRO, Jesús (2007). Tecnologías de la información para la inclusión digital, Debate,. Maracaibo (Venezuela): Departamento de Computación de la Facultad de Ciencias de la Universidad de Zulia, Maracaibo. 13 p. COMPARTEL (2008). Conectividad en Banda Ancha para Instituciones Públicas. [en línea]. Bogotá: Compartel. <http://www.compartel.gov.co/programas.asp?linki=contenido2.asp> [Consulta: 20/06/2009]. CRT (2007). Resolución 1740 DE 2007 (octubre 26). [en línea]. Bogotá: Comisión de Regulación de Telecomunicaciones, CRT. <http://www.avancejuridico.com/actualidad/documentosoficiales/2007/46784/r_crt_1740_2007.html> [consulta: 16/07/2009] DERFLER Frank (1998). Descubre Redes LAN & WAN. Madrid: Prentice Hall, 392 p. ISBN: 84-8322-091-1 IGAC (2008). Mapas. [en línea]. Bogotá: Instituto Geográfico Agustín Codazzi, IGAC. <http://www. igac.gov.co:8080/igac_web/UserFiles/File/mapas_pdf/departamentos/Caldas1seg.pdf>. [consulta: 16/07/2009]. MINISTERIO DE COMUNICACIONES (Colombia), (2009). Normatividad [en línea]. Bogotá: Ministerio de Comunicaciones. <http://www.mincomunicaciones.gov.co/mincom/src/user_docs/Archivos/normatividad/2004/Resolucion/R00689d2004.pdf>. [consulta: 16/07/2009]. TANENBAUM, Andrew S. (2000). Redes de Computadoras. 3 ed. México: Pearson, 813 p. ISBN: 0-13-349945-6 TELEFÓNICA – TELECOM (2009). Informe Gerencia de Mantenimiento Distrito Caldas Risaralda Departamento de Caldas. (julio, 2009)

126


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

ARTÍCULO MONOGRÁFICO

La experiencia del sistema de información regional nodo ecorregión Eje Cafetero1 [Experience of regional information system in the Eje Cafetero eco-region node] Ricardo Tabares-Saldarriaga2 Recibo: 24.07.2009 - Ajuste: 19.10.2009 - Aprobación: 15.11.2009

Resumen El presente artículo, pretende analizar el proceso de estructuración del Sistema de Información Regional para el Departamento de Caldas, basado en experiencias institucionales desde una óptica personal. Además se precisan aspectos fundamentales en la implementación de éste SIG; denominado Ecorregión Eje Cafetero tales como: antecedentes, protocolos, aplicaciones experiencias, proyectos, talleres, convenios, y en sí una crítica constructiva y algunas conclusiones. Palabras clave: SIR - Sistema de Información Regional, Ecorregión Eje Cafetero Nodo Caldas, SIG - Sistema de Información Geográfica.

Abstract This article pretends to analyze the Caldas Department regional system structure, based on institutional experiences toward a personal point of view. Furthermore, I also preciss main aspects in the implementation of this GIS; called “Ecorregión Eje Cafetero” such us: History, protocols, aplications, experiences, projects, workshops, conventions, and a constructive criticism and some conclusions.

1 Modelo para citación: TABARES SALDARRIAGA, Ricardo. (2009). La experiencia del sistema de información regional nodo ecorregión Eje Cafetero. En: Ventana Informática. No. 21 (jul-dic., 2009). Manizales (Colombia): Universidad de Manizales. p. 127-140. ISSN: 0123-9678 2 Técnico en Sistemas; Ingeniero Civil. Ingeniero Auxiliar de Redes, Aguas de Manizales S.A. E.S.P. Manizales, Caldas, Colombia. Correo electrónico: rtabares@aguasdemanizales.com.co Nº 21 - Universidad de Manizales, julio - diciembre/2009 - pp 127-140

127


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Keywords: RIS - Regional Information System, Ecoregion “Eje Cafetero” Node Caldas, GIS - Geographic Information System.

Introducción El presente artículo pretende mostrar de forma clara y completa, lo relacionado al Sistema de Información Geográfica para los departamento del viejo Caldas, Tolima grande y Valle del Cauca; denominado Sistema de Información Regional para el Ecorregión Eje Cafetero. Se hace relación a una serie de experiencias institucionales que junto a las experiencias académicas permiten conceptuar y dar algunos aportes al tema que, desde hace varios años se ha trabajado y estudiado en distintos campos. Para la implementación de este SIG, se ha trabajado desde el sector educativo con las universidades Nacional, de Caldas y UTP de Pereira, como también desde el público con las gobernaciones y corporaciones autónomas regionales, como también con entidades municipales y empresas de servicios públicos del Eje Cafetero. En pues, un análisis sobre la estructuración del Sistema de Información Regional, teniendo en cuenta temas de importancia como los estándares, protocolos, inventarios, convenios, etc., además un breve recuento sobre las contribuciones que han hecho y tienen proyectado realizar entidades tan importantes como Corpocaldas y Alma Mater3. La realización del mismo se fundamenta en varios hechos: que dicho proyecto hace méritos y da pasos directos de vinculación para con el Proyecto Nacional de La Construcción de Infraestructura de Datos Espaciales, y que durante el desarrollo de la especialización en SIG se generaron ciertas inquietudes e ideas que tiene que ver con lo regional y la información compartida. Se suma, a lo anterior, la oportunidad de conocer de cerca y de primera mano los proyectos y actividades que vienen desarrollando en Manizales, la Universidad Nacional con el Instituto de estudios Ambientales - IDEA, así como de docentes, estudiantes de pregrado y postgrado y algunos funcionarios públicos que desde varios puntos de vista han aportado un sin número de conocimientos y experiencias sobre los sistemas de información geográfica. Todo lo anterior enmarcado en la premisa ‘sin la información y la tecnología nunca habrá desarrollo’. 3 Red de universidades públicas del eje cafetero, conformada por las Universidades de Caldas, del Quindío, Tecnológica de Pereira, del Tolima y Nacional de Colombia sede Manizales.

128


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

1. Antecedentes En el año 2004 se realizó una convocatoria para la financiación de proyectos de investigación conjuntos entre grupos de trabajo académico de la Universidad Nacional de Colombia sede Manizales y la Universidad de Caldas. Dicha invitación estuvo en cabeza de Instituto de Estudios Ambientales – IDEA, de la Universidad Nacional, sus grupos de trabajo académico en Ingeniería Hidráulica y Ambiental y su similar en Urbanística, como también de los profesores Beatriz González y José Luis Naranjo Henao de la Universidad de Caldas. Según Mejía y Acevedo (2004, 2), alma mater en conjunto con las corporaciones autónomas de Caldas, Quindío, Risaralda, Tolima, y Valle, la ESAP y el Ministerio de Ambiente, Vivienda y Desarrollo Territorial firman el convenio interinstitucional cuyo objeto es la Construcción de un ordenamiento territorial para el desarrollo sostenible de la Ecorregión eje cafetero. Se tenía la visión de vincularse y aportar en el Proyecto Nacional de la construcción de Infraestructura de Datos Espaciales - ICDE «Políticas, estándares, organizaciones y recursos tecnológicos que facilitan la producción, el acceso y el uso de la información geográfica. SIR» (Mejía y Acevedo, 2004, 2) y de satisfacer las necesidades de geoinformación, tales como proyectos de investigación, de desarrollo social y económico a nivel local. Lo anterior se tenía estipulado en la convocatoria para la financiación de proyectos de investigación conjuntos entre grupos de trabajo académico de la Universidad Nacional de Colombia sede Manizales y la Universidad de Caldas. Se deseaba entonces la implementación del Sistema de Información Regional SIR Nodo Caldas. El SIR entendido como el «conjunto articulado de instituciones públicas y privadas y sociedad civil organizada; y de procesos de carácter técnico y organizado orientado al acopio, almacenamiento, estandarización, procesamiento de datos y a la generación y distribución de la información requerida para el desarrollo sostenible de la Ecorregión Eje Cafetero» (SIR, 2009a, 2) En el proyecto inicialmente planteado se pretendía estructurar el Nodo Caldas pero debido a la falta de apoyo institucional, la poca intervención del resto de Universidades, se ha configurado como el Nodo Ecorregión Eje Cafetero. 129


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

2. El sistema de información regional 2.1 La implementación del SIG en las organizaciones Para ilustrar este tema se trae a colación este concepto, el cual hace relación a que «Una visión de redes de organizaciones locales utilizando SIG de bajo costo, para apoyar las estrategias de gestión de poblaciones vulnerables, es radicalmente distinta a la visión de organizaciones centralizadas utilizando SIG sofisticados para sustentar estrategias convencionales de gestión de riesgos» (Maskrey, 1998, 72). Ejemplo claro de este aparte, lo son las empresas de servicios públicos domiciliarios, que trabajan independientes y buscan cada una sobresalir con sus despampanantes aplicaciones de consulta y archivo de sus redes. Si se utilizara software libre, de tecnología y desarrollo local, se lograrían políticas de manejo de información articulada y homogénea entre las organizaciones. Éste tipo de herramientas regionales, como el SIR Nodo Ecorregión Eje Cafetero son de vital importancia para muchos funcionarios públicos; como los jefes de oficina de planeación y obras púbicas de los municipios, en especial en el tema del ordenamiento y la planificación territorial. El Documento Nro. 3305 del CONPES - Consejo Nacional de Política Social Económica y Social, denominado Lineamientos para optimizar la Política de Desarrollo Urbano, en su Capítulo IV Gestión Del Desarrollo Urbano, Numeral 7. Ajuste institucional y normativo, estipula: «(i) promover la adecuada articulación de los planes de ordenamiento territorial, planes de desarrollo y presupuestos anuales del orden territorial;…(iv) reforzar las funciones de apoyo a la gestión urbana de las Corporaciones Autónomas Regionales;…y, (vii) estudiar alternativas como la integración de municipios que permitan equilibrar la distribución del ingreso y fortalezcan a municipios que no cuentan con capacidad institucional para asumir sus procesos de planificación» (DNP - MAVDAT, 2004, 19) Cada municipio, al contar con información georreferenciada que a la par con su esquema o plan de ordenamiento territorial (el cual debe actualizar según la ley 388 de 1997), cuenta con insumos y herramientas que le permitan mejorar la planeación y ejecución de sus recursos, respetando la normatividad y basado en los objetivos y metas consagrados en los programas y proyectos de cada plan de desarrollo municipal.

2.2 Protocolo para el manejo de información Ya se tiene un protocolo para el manejo de información como Documento de Trabajo en el cual, se hace énfasis en «la existencia de datos georre130


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

ferenciados digitales en cantidad y calidad de acuerdo a los objetivos del proyecto» (SIR, 2009b, 1). Además hace hincapié en la normalización y estandarización de la información dentro del contexto de ecorregión. El sistema de información regional SIR (2009b), establece el protocolo para el Nodo Ecorregión Eje Cafetero, con normas básicas tales como: − Cartografía: formato, referencia cartográfica, escala, precisión, criterios de exactitud planimétrica y criterios de exactitud topológica − Formatos de trabajo: vectorial, raster, metadatos − Nivel topológico − Nivel descriptivo: bases de datos georreferenciadas y bases de datos de atributos − Nivel analítico − Unidades En resumen, el Protocolo para el Manejo de la Información del SIR (2009b) presentan las siguientes especificaciones técnicas que se pueden destacar: − Para la información espacial, se produce en formatos compatibles con ArqView/ArcInfo, Shapefile (*.shp) para compatibilizarlos con software SIG ArqView 3.2 y ArcInfo 8.3 − Para procesamiento de imágenes “raster” con satélite; los formatos aceptados los compatibles con los programas ERDAS Imagine usando archivos *.img, *.tiff o *.jpg. − En cuanto a las bases de datos alfanuméricas; se requiere elaboración en formato DBF, SQL Server, Microsoft Access o SQL. − La escala que se utiliza para el contexto ecorregión es de 1:500.000 − Para la implementación de metadatos debe usarse el software M3Cat, o en su defecto la aplicación que tiene incorporado el ArqGis 8.3 o superior. − El sistema de codificación de la cartografía generada deberá ceñirse a la metodología existente, la cual se encuentra plenamente estandarizada e implementada en el modelo de datos urbano y su catálogo de objetos por el IGAC - Instituto Geográfico Agustín Codazzi. El documento «ofrece los lineamientos generales que orientan a las distintas instituciones que desarrollen proyectos dentro de la ecorregión Eje Cafetero, en la temática referente a la información georreferenciada, la cartografía y la documentación de la información o metadatos». (SIR, 2009b, 2)

131


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

2.3 Aplicación: buscador de metadatos Dentro de los desarrollos y aplicaciones que ha tenido el sistema de información regional SIR, se encuentra la herramienta de consulta que permite a sus usuarios, tal como lo indica su nombre; la búsqueda de metadatos según las condiciones y criterios seleccionados. Se tiene información de los departamentos del viejo Caldas, Tolima grande y Valle del Cauca, de una manera muy práctica y haciendo combinaciones gráficas y alfanuméricas; con temas como salud, población, educación, cultura, biodiversidad y ordenamiento territorial. A manera de ejemplo, en el tema de biodiversidad el SIR (2000c) establece información sobre: − Áreas protegidas del eje cafetero y por departamentos. − Investigación en silvicultura, biodiversidad vegetal y estructura de los bosque de agua − Biodiversidad en guaduales. − Coberturas vegetales

2.4 Experiencias 2.4.1 Proyectos de investigación. En cuanto a las expectativas que se tenían en la convocatoria para la implementación del SIR Nodo Caldas, se esperaba que su puesta en marcha permitiera seguir promoviendo el apoyo a los proyectos de investigación fundamentados en el uso de las tecnologías y herramientas SIG. A continuación se relacionan algunos temas desarrollados durante los últimos cuatro años en distintas tesis de grado elaboradas para optar al título de Magister en Medio Ambiente y Desarrollo de la Universidad Nacional de Colombia sede Manizales y que han utilizado de una u otra forma los SIG: Por un lado, la ordenación y manejo ambiental de cuencas hidrográficas, con proyectos sobre: − Evaluación holística del riesgo frente a deslizamientos en áreas urbanas Andinas. − Valoración del paisaje, base para un modelo de desarrollo integral alternativo. − La cuenca urbana sostenible, modelo de unidad para la planificación territorial de ciudades intermedias de Colombia. Y por el otro, la modelación hidrológica, con artículos como: 132


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

− Estudio del proceso lluvia escorrentía en cuencas de ciudades de media montaña Andina. − Modelación hidrológica distribuida de tipo conceptual como elemento para ordenación y manejo ambiental de cuencas hidrográficas. 2.4.2 Taller sobre Implementación de nodos servidores. Con el apoyo de PREDECAM - Prevención de Desastres de la Comunidad Andina se realizó en la ciudad de Pereira durante los días 5 al 8 de mayo de 2009, el taller regional, o más bien una jornada de capacitación, con la participación de entidades territoriales (Tabla 1) como gobernaciones, corporaciones autónomas regionales, empresas de servicios públicos domiciliarios y representantes del sistema de información regional SIR y del proyecto SIGMA, que hicieron parte de dicha actividad. La actividad denominada «Taller para la Implementación de Nodos Servidores de Información para Infraestructuras de Datos Espaciales, Desarrollo e Implementación del Sistema de Información Andino para Prevención y Atención de Desastres – SIAPAD» (Comunidad Andina, 2009, 1), ha sido posible gracias al interés y trabajo coordinado por CORPOCALDAS con su profesional especializado en Planeación y Sistemas y la PREDECAN, quien actúa como oficina para el apoyo para la prevención de desastres en la comunidad andina. Tabla 1. Participantes Taller Regional SIR (Comunidad Andina, 2009,1) Tipo de Entidad

Empresa Caldas

Gobernaciones

Risaralda Quindío

CAR - Corporaciones Autónomas Regionales

Entidades Municipales

EPS - Empresas de Servicios Públicos

CORPOCALDAS

Caldas

CARDER

Risaralda

CRQ

Quindío

CORTOLIMA

Tolima

CVC Valle del Cauca OMPAD - Oficina Municipal para la Prevención y Atención de Desastres Aguas de Manizales S.A. E.S.P INVAMA - Instituto de Valorización de Manizales Gas Natural del Centro S.A. E.S.P CHEC E.S.P - Central Hidroeléctrica de Caldas

Otros

SIR - Sistema de Información Regional

133


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Todos los participantes al evento son desarrolladores o administradores de los sistemas de información geográfica de cada una de las instituciones. La autoridad ambiental ha sido la encargada de coordinar de una manera práctica y estratégica las mesas de trabajo con los líderes de los departamentos de planeación y manejo de la información en las principales entidades municipales y departamentales. Como se observa en la Tabla 2, en términos generales para la comunidad andina (2009), el taller fijó en temas puntuales como: asistencia técnica al grupo SIR, revisión de implementación de Geonetwork como plataforma única para administración de metadatos y capacitaciones prácticas sobre las tecnologías IDE implementadas por el SIAPAD, configuración de servicios de mapas y datos y configuración de servicios de metadatos y catalogación. Tabla 2. Temas tratados en el Taller Regional SIR (Comunidad Andina, 2009, 1) DÍA

1

Revisión de fases implementadas en el SIR

2

Objetivos del curso y del plan de trabajo

3

Instalación PostgreSql.

4

Estándares para catalogación de datos

TEMAS Y PRÁCTICAS DESARROLLADAS Uso de plataforma Estándares y Ventajas de tecnológica políticas entre Postgres-PostGIS del SIR Eje entidades SIR Cafetero Conceptos Implementación Conceptos básicos sobre con PostGIS, básicos IDES. Gestión del MapServer y Arquitectura Geonetwork. Riesgo (GR) Base de Prácticas Configuración de datos PostgreSql servicios WMS, espacial Postgis. WFS y WCS en PostGIS (Apache/ MapServer (T) Tomcat) (T/PD) Gestión de Gestión de metadatos y Instalación de metadatos en GeoNetwork. servicios en gvSIG GeoNetwork y GEORiesgo.

Verificación de funcionamiento de Geonetwork Módulo de administración del SIAPAD Configuración WMS en MapServer y con gvSIG Firma de compromisos institucionales

Puede apreciarse que se compartieron experiencias en distintos temas, se realizó un diagnóstico y un análisis detallado al proceso de implementación del sistema de información regional para la ecorregión Eje Cafetero. Las prácticas con software, la instalación de servidores, las configuraciones de datos y la gestión de metadatos; permitieron abarcar temas de vital importancia para la implementación de los denominados nodos servidores de información. 134


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

2.4.3 Convenio Interinstitucional de cooperación. La Corporación Autónoma Regional de Caldas - CORPOCALDAS y la Universidad Tecnológica de Pereira - UTP, en el marco de la Infraestructura de Datos Espaciales del Eje Cafetero - IDEE, celebraron el Convenio 121 de 2007. (SIR, 2008, 3) A continuación se detallan algunos de los alcances y las acciones adelantadas en el informe del mismo: − Se realizó la selección del conjunto de datos fundamentales del departamento de Caldas, esta información será entonces contenida en la base de datos geográfica del departamento y se encuentra integrada por información de CORPOCALDAS y gobernación de Caldas. − Estructuración topológica de la información cartográfica validada por el SIR acorde con el modelo de datos propuesto por el SIR dentro de la Infraestructura de Datos Espaciales del Eje Cafetero - IDEEC. − Se encuentra estructurada y terminada la base de datos correspondiente al modelo SIR para el Nodo Caldas, la cual será instalada en CORPOCALDAS, esta base de datos fue elaborada en PosgresSQL Versión 8.2. − A la fecha se realizó la instalación del aplicativo de metadatos en línea SWAMI V2 del Instituto Geográfico Agustín Codazzi - IGAC y la capacitación en el manejo del mismo acorde a la Norma Técnica de Metadatos NTC 4611. − Instalación de un servicio de consulta de los datos fundamentales del departamento en la intranet de la CORPORACION. El software seleccionado luego de realizar las pruebas respectivas es KOSMO versión 1.2 el cual permitirá a los usuarios la conexión con la base de datos geográfica y el despliegue de la información contenida en la misma. − Actualmente se encuentran en proceso de legalización dos Convenios para la consolidación del SIR Nodo Caldas, uno de ellos con la gobernación de Caldas y otro con la Universidad de Caldas. − Instalación de la geotabase, en la gobernación de Caldas. Básicamente la UTP ha estructurado y ha sido el soporte de este desarrollo, entidad que a pesar de no ser de Manizales directamente es el representante del sector educativo que más se ha vinculado con el SIR Nodo Caldas. 2.4.4 Nodos departamentales. Entre los diferentes nodos departamentales, los cuales son concebidos como «subsistemas de información que 135


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

están integrados por los usuarios y generadores de información que cumplen los lineamientos definidos por el Nodo Central» (SIR, 2009a, 9), se han adelantado trabajos regionales y locales en temas como: − El diseño del sistema de información para la guadua, dentro del proyecto manejo sostenible de bosque para Colombia. Área piloto eje cafetero. − Implementación de información sobre biodiversidad. Con la iniciativa del Instituto Humbolt y el apoyo del IDEAM, INVEMAR y Universidad Nacional con su instituto de Ciencias Naturales. − Usos y coberturas − y otras aplicaciones con la CVC Corporación Autónoma Regional del Valle. − Existen cinco (5) Nodos departamentales: el SIR Tolima, Risaralda, Valle, Caldas y el SIR Quindío. 2.4.5 SIR vs Información municipal para la toma de decisiones. A manera de ejercicio se tuvo la tarea de consultar detenida y detalladamente la información existente en el SIR para el departamento de Caldas y realmente deja mucho que desear y otro tanto más para pensar. Claro que, no se puede desmeritar la información que hay en el momento que por cierto me parece muy valiosa y se observa el trabajo interdisciplinario y conjunto entre las entidades que han apoyado el proyecto desde sus inicios. Claro está que; para otras personas y alguna que otra entidad ésta información será de gran utilidad. La información que actualmente muestra el Sistema de Información Regional realmente debería ser la Información Municipal sobre los municipios de la Ecorregión Eje Cafetero, pero no es así, y lo digo por la experiencia que me da el haber sido funcionario del sector público, y más; teniendo en cuenta que, sé de primera mano la imperiosa necesidad de la información y de los requerimientos para la elaboración, formulación y puesta en marcha de un Plan de Desarrollo para una entidad territorial del norte de Caldas; específicamente el municipio de Pácora; siendo en ese entonces secretario de Planeación y Obras Públicas. Lo primero que todo candidato a un puesto público (llámese alcalde, concejal, secretario de despacho, funcionario de carrera administrativa, técnico, operario y/o funcionario) debería conocer de entrada, sería el Expediente Municipal de la entidad donde desea laborar o prestar sus servicios, en el cual se muestra todo el progreso, los picos y los 136


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

bajos, estadísticas y los distintos indicadores que reflejan el aumento o decremento del desarrollo de una determinada región. Planeación Nacional ha querido que todos los municipios de Colombia tengan sus expedientes y pueden conocer los respectivos avances en las distintas áreas de los programas de gobierno. La denominada línea base, que no es más que un estado del arte de lo que se tiene, lo que hay, estadística sencilla e información básica sobre una amplia gama de aspectos políticos, económicos, culturales, deportivos, etc. En verdad parece apropiado y muy pertinente por cierto que, por tratarse de un Sistema de Información Regional para la ecorregión cafetera se tenga presente más información; y mucho más teniendo en cuenta que ésta es de carácter público: − Los informes de gestión y resultados de las entidades territoriales y empresas del estado tales como: municipios, ESE hospitales, empresas de servicios públicos y demás entidades descentralizadas del orden municipal − Los informes de auditoría por parte de las denominadas IAS: la Contraloría, la procuraduría, superintendencias, corporación autónoma regional, consejos y veedurías públicas; entre otros. − Los planes de mejoramiento y sus respectivos avances para con las entidades de control. − Expedientes municipales. − Planes de desarrollo y ejecución de los mismos, la cual se remite anualmente a la contraloría. − Proyectos regionales. − Estadísticas y datos presupuestales; entre otros. La mayoría de esta información, más o menos cerca del 95%, se encuentra disponible en las secretarias de planeación de los distintos municipios, la cual por lo general es la encargada de reunir con el apoyo de sus correspondientes en hacienda, salud, educación, entre otros y remitirla a las entidades de control y vigilancia pública. El gobierno nacional, a través del plan denominado Gobierno en Línea, viene instaurando una política de transparencia, con el fin de que cada municipio pueda mantener colgada en su propia página web toda la información pertinente a imagen corporativa, contratación, noticias, eventos, solicitud de información, atención de PQR, y otras aplicaciones de gran utilidad en ésta era de las comunicaciones por Internet. 137


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Sería de gran utilidad para las futuras campañas y proyectos políticos tener de primera mano información actualizada y veraz de cada región del eje cafetero. La información básica y fundamental para la toma de decisiones en un municipio se resume en el planeamiento estratégico, y por ende el desarrollo de los planes y programas y proyectos. Y por tratarse de éste tema de información, se comenta en seguida sobre dos temas en especial que se requieren específicamente para la toma de decisiones por parte varias entidades, dentro de la cuales puedo mencionar: las oficinas municipales de prevención y atención de desastres, y las secretarias de infraestructura, vías y transportes, etc. Los temas se describen a continuación: Uno de ellos es la información cartográfica, la cual debería encajar de una u otra manera a través de herramientas como software libre y desarrollos informáticos de las distintas Universidades con los planos topográficos y topológicos de los POT (planes de ordenamiento territorial) y sus respectivas actualizaciones que, a propósito, es de ley mantenerlos actualizados y vigentes, como también se podría pensar en tener en un futuro las actualizaciones catastrales que realiza el Instituto geográfico Agustín Codazzi. Al respecto de los POT ó EOT, Corpocaldas ya tiene un trabajo adelantando con su Sistema de Información de Gestión Ambiental Municipal (SIGAM) ligado también a las agendas ambientales. El otro; la información climática, los boletines meteorológicos deberían estar estrechamente vinculados con la información de la red de estaciones meteorológicas para prevención de desastres de Manizales con la que cuenta la Universidad Nacional de Colombia sede Manizales, la cual fue desarrollada y actualmente dirigida por el Instituto de Estudios Ambientales - IDEA con el apoyo del Laboratorio de Hidráulica de la misma Universidad. Si bien se muestra gráfica y cuantitativamente las variables del clima de América del Sur, incluida la ecorregión Eje Cafetero con un sistema que utiliza imágenes provenientes de los satélites GOES-8, GOES-10, METEOSAT y los satélites de GMS de última tecnología, considero mucho más importante y práctico hacer uso de la información regional para el caso de Manizales, obtenida con tecnología local, supervisada, generadora de informes permanentes y actualizados, y brinda una información local y particular; mas no general. En la actualidad se disponen de 15 estaciones distribuidas a lo largo y ancho de la zona urbana del municipio de Manizales, que proporcionan información en tiempo real de variables como temperatura del aire, humedad relativa, velocidad y dirección del viento, radiación solar, etc. 138


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

3. Conclusiones • Es relativamente difícil y complicado que, a pesar de que se tenga establecido en los protocolos de manejo de información la no utilización de sistemas cerrados o exclusivos, algunas instituciones buscan tener privilegios propios y son egoístas al momento de querer trabajar y compartir información. • Bajo los parámetros y conceptos de la Infraestructura de Datos Espaciales - ICDE, el Nodo cuenta con los estándares para la información georreferenciada digital; y de esta manera para su manejo y producción, se dispone de una terminología y definiciones en común. • En cuanto a las expectativas planteadas en la convocatoria para la implementación del SIR Nodo Caldas, se sigue esperando que su puesta en marcha permita seguir promoviendo el apoyo a los proyectos de investigación fundamentados en el uso de las tecnologías y herramientas SIG. • Es importante ver la diversidad de temas que permite abarcar la investigación fundamentada en el uso de las tecnologías y herramientas SIG. Haciendo un análisis sobre los temas principales de algunos trabajos de grado de la Universidad Nacional, se pueden destacar: por un lado, la Evaluación del riesgo, Ordenación y Manejo Ambiental de Cuencas Hidrográficas, y por el otro, la Modelación Hidrológica. • En términos generales, el Nodo Ecorregión Eje Cafetero fija dos objetivos muy claros; tener un portal de metadatos y compartir información. • Para el Sistema de Información Andino para la Prevención y Atención de Desastres - SIAPAD; ha sido un modelo para mostrar el trabajo que se ha venido realizando por CORPOCALDAS en cuanto a la experiencia del SIR y la información que se tiene publicada. • Los principales avances y proyectos adelantados en el proceso del SIR son: tener la base de datos geográfica del departamento integrada por información de Corpocaldas y Gobernación de Caldas, contar con la estructuración topológica de la información cartográfica dentro de la Infraestructura de Datos Espaciales del Eje Cafetero - IDEEC, tener la base de datos del modelo SIR para el Nodo Caldas en PosgresSQL Versión 8.2, la instalación del aplicativo de metadatos en línea y dos convenios para la consolidación del SIR Nodo Caldas. • Para resaltar, la necesidad de integración regional en el ambiente de apoyo y alianza en el manejo de la información más como una cues-

139


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

tión de eficiencia y concurso regional y no de eficiencia meramente institucional.

Bibliografía ÁGREDO CARDONA, Gustavo. (2008). La cuenca urbana sostenible. Modelo de unidad para la planificación territorial de ciudades intermedias de Colombia. Tesis de Grado (Magíster en Medio Ambiente y Desarrollo) Manizales: Universidad Nacional de Colombia. 269 p COMUNIDAD ANDINA (2009). Taller para la Implementación de Nodos Servidores de Información para Infraestructuras de Datos Espaciales, Desarrollo e Implementación del Sistema de Información Andino para Prevención y Atención de Desastres. SIAPAD. Pereira: Predecan - Apoyo a la Prevención de Desastres en la Comunidad Andina [may, 2009]. 4p. DNP - MAVDAT (2004). Documento Conpes 3305. Lineamientos para Optimizar la Política de Desarrollo Urbano. Bogotá: Departamento Nacional de Planeación Ministerio de Ambiente, Vivienda y Desarrollo Territorial. [ago, 2004]. - 22p. JIMÉNEZ GALLEGO, Ángela María. (2007). Valoración del paisaje del Municipio de Pitalito - Huila. Base para un modelo de desarrollo integral alternativo. Tesis de Grado (Magíster en Medio Ambiente y Desarrollo) Manizales: Universidad Nacional de Colombia. 351 p LONDOÑO LINARES, Juan Pablo. (2006). Evaluación holística del riesgo frente a deslizamientos en áreas urbanas Andinas. Estudio de caso: Manizales. Tesis de Grado (Magíster en Medio Ambiente y Desarrollo) Manizales: Universidad Nacional de Colombia. 322 p MASKREY, Andrew (ed.) (1998). Navegando entre Brumas. La Aplicación de los Sistemas de Información Geográfica al Análisis de Riesgo en América Latina. Lima (Perú): Intermediate Technology Development Group: Red de Estudios Sociales en Prevención de Desastres en América Latina. 344 p. ISBN 9972 47 017 2. MEJÍA FERNÁNDEZ, Fernando y ACEBEDO RESTREPO, Luis Fernando. (2004). convocatoria para la financiación de proyectos de investigación conjuntos entre Grupos de Trabajo académico de la Universidad Nacional de Colombia sede Manizales y la Universidad de Caldas. Manizales: Universidad Nacional y Universidad de Caldas.18 p. SISTEMA DE INFORMACIÓN REGIONAL, SIR (2008). Informe convenio interinstitucional de cooperación No. 121 de 2007 celebrado entre la Universidad Tecnológica de Pereira y la Corporación Autónoma Regional de Caldas - Corpocaldas. Manizales: Corporación Autónoma Regional de Caldas, Corpocaldas. [ago, 2008]. 8p. SISTEMA DE INFORMACIÓN REGIONAL, SIR (2009a). Documento de implementación del SIR [en línea]. Manizales. <http://www.sirideec.org.co/dmdocuments/IMPLEMESIR.pdf>. [Consulta: 07/08/2009]. SISTEMA DE INFORMACIÓN REGIONAL, SIR (2009b). Protocolo para intercambio de información del SIR [en línea]. Manizales. <http://www.sirideec.org.co/dmdocuments/PROTOCOLO%20 MANEJO%20DE%20INFORMACION.pdf [Consulta: 07/08/2009] SISTEMA DE INFORMACIÓN REGIONAL, SIR (2009c). Como utilizar el buscador de Metadatos [en línea]. Manizales. <http://www.sirideec.org.co/dmdocuments/Como%20realizar%20cons ultas%20con%20el%20buscador%20de%20metadatos.pdf> [Consulta: 10/08/2009]. SUÁREZ HINCAPIÉ, Joan Nathalie. (2008) Propuesta metodológica para el estudio del proceso lluvia escorrentía en cuencas de ciudades de media montaña Andina. Caso de estudio: Cuenca experimental quebrada San Luís, Manizales, Caldas. Tesis de Grado (Magíster en Medio Ambiente y Desarrollo) Manizales: Universidad Nacional de Colombia. 142 p VALENCIA GIRALDO, Marinela Del Carmen. (2008). Modelación Hidrológica Distribuida de tipo conceptual como elemento para ordenación y manejo ambiental de cuencas hidrográficas. Caso de estudio: cuenca hidrográfica del río La Miel, Departamento de Caldas Colombia. Tesis de Grado (Magíster en Medio Ambiente y Desarrollo) Manizales: Universidad Nacional de Colombia.103 p.

140


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

ARTÍCULO MONOGRÁFICO

Outsourcing informático como proceso innovador: Estado del arte y mejores prácticas1 [Innovative computer as process outsourcing: State of the art and best practices] Carlos Petrella2 Recibo: 07.09.2009 - Ajuste: 11.09.2009 - Aprobación: 15.10.2009

Resumen Las compañías deben buscar ser cada vez más eficientes, enfocando las actividades sustantivas. Para ello una de las alternativas es dedicarse a lo esencial de su negocio y encargar a otras compañías la administración de los demás procesos que consideran menos importantes. Eso es encarar procesos de outsourcing que a veces constituyen una innovación en las prácticas previas. Como tesis clave se sostiene que se debe manejar la información y el conocimiento de la organización como algo muy dinámico y por ende contemplar que cambia a lo largo del tiempo y requiere tambien ajustes en los servicios y los contratos asociados, de manera que la evolución de los aspectos tecnológicos y económicos no generen condiciones contraproducentes. El objeto fundamental de estas contrataciones, con importantes componentes informáticos, ha comenzado a cambiar gradualmente en los últimos veinte años, pasando de ser simples instrumentos para el procesamiento de grandes cantidades de información en

1 Modelo para citación: PETRELLA, Carlos. (2009). Outsourcing informático como proceso innovador: Estado del arte y mejores prácticas. En: Ventana Informática. No. 21 (jul-dic., 2009). Manizales (Colombia): Universidad de Manizales. p. 141-174. ISSN: 0123-9678 2 Ingeniero de sistemas, MBA y DEA. Docente de grado y posgrado en varias universidades. Consultor en transformación institucional y procesos de reingeniería en grandes organizaciones. CEO de Secnet, empresa de desarrollo de productos innovadores de educación y entretenimiento en Internet (www.secnetpro.com). Montevideo, Uruguay. Correos electrónicos: cpetrell@ucu.edu.uy y cpetrella@secnetpro.com Nº 21 - Universidad de Manizales, julio - diciembre/2009 - pp 141-174

141


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

los servicios de apoyo administrativo en sus comienzos, a ser la base de cambios importantes en las actividades sustantivas. Por ello es que se plantea que muchas veces un contrato de outsourcing constituye un proceso innovador que no sólo impacta en la administración de los recursos vitales sino en la propia concepción de las actividades fundamentales de una organización, ya que les permite a los ejecutivos poner el foco en lo que realmente saben hacer. Se están generando transformaciones en la propia gestión de los servicios, que se han transferido también gradualmente de las oficinas internas de cada organización, a terceras partes. Oficinas que antes ejecutaban toda la tarea de procesamiento y que ahora deben controlar la ejecución de los contratos y, especialmente, los niveles de servicio que se obtienen. Palabras Clave: Innovación, outsourcing, informática, niveles de servicio, contrataciones, conocimiento.

Abstract Companies must always seek alternatives to become more efficient, putting focus on the substantive activities. To do that, one of the possibilities is to dedicate to the essential of your business and entrust to other companies the administration of the other processes that are considered less important. That represents undergoing processes of outsourcing that sometimes constitute a breakthrough in previous practices. As a key concept it is sustained that the information and knowledge of the organization must be managed very dynamically; contemplating that it changes in time and thus it requires adjustments in the services and associated contracts, so that the evolution of technological and economic aspects doesn´t generate unfavourable conditions. The main object of this hiring process, with special regard of informatic components, has changed gradually in the last twenty years, from simple instruments to process huge amounts of information as administration support services in the beginning to becoming the basis of important changes in the substantive activities today. That´s why many times an outsourcing contract represents an innovative process that not only impacts the administration of the essential resources, but it also affects the conception itself of the substantive activities of an organization, in the sense that it allows the executives to put focus in what they really know how to do.

142


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

The management of services itself is undergoing transformations. It has transferred the administration of services from the internal offices of each organization to third parties. Offices that used to manage the entire processing tasks, now must control the fulfilment of contracts, and especially, survey the quality of the final services. Keywords: Innovation, outsourcing, informatics, levels of service, contracting, knowledge.

Introducción Las compañías deben buscar ser cada vez más eficientes, enfocando las actividades sustantivas. Para ello una de las alternativas es dedicarse a lo esencial de su negocio y encargar a otras compañías la administración de los demás procesos que consideran menos importantes. Esta tendencia comenzó a desarrollarse por actividades de menor trascendencia como por ejemplo, la limpieza en las instalaciones o el fotocopiado de documentos y se fue extendiendo a otras áreas de actividad, de mayor relevancia. Hoy en día entre las actividades a tercerizar se encuentran la administración de sus sistemas de información y de las tecnologías asociadas, lo que generó mayor atención a estos procesos, tanto por su impacto en las operaciones como por su costo. El fenómeno del outsourcing se generó a partir de la necesidad manifiesta de disponer de servicios más eficientes para soportar los procesos de cambio, acelerados por la integración nacional de sistemas y principalmente a nivel regional, por la integración regional en el Mercosur. En algunos casos, terceras partes funcionarían como servicios operadores en una transición, y en otros, serían concebidos como algo mucho más permanente. En Uruguay, la Administración Nacional de Puertos (ANP) realizó uno de los primeros contratos de outsourcing informático a comienzos de los años 90. También lo hizo, a mediados de los 90, el Banco de Previsión Social (BPS) para desarrollar e implantar su sistema de administración de las AFAP. Se han dado procesos de evolución muy marcados en estos servicios. Las actuales contrataciones informáticas ya no sólo comprenden la simple compra del equipamiento y software estándares o personalizados. Ellas llegan a abarcar la contratación de soluciones integrales, en la que se requiere el desarrollo o la operación de complejos sistemas, la instalación de importantes centros de cómputos o la disponibilidad 143


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

de redes de comunicaciones. Se contratan proyectos enteros con un fuerte impacto en la cultura y estructura organizacional que pasan a tener un peso significativo en los presupuestos. Es por tal motivo, que las grandes contrataciones informáticas, en la medida que inciden en las áreas estratégicas de las compañías se están transformando en temas corporativos. Dada la relevancia y el impacto creciente de los servicios involucrados, el desarrollo adecuado de estos procesos de contratación de servicios ha generado cada vez más interés tanto en el ámbito empresarial como en el académico, lo que refuerza la pertinencia de este tema de estudio, que procura situar la problemática y analizar las prácticas exitosas, considerando posibles alternativas para obtener mejores resultados. Se ha generado preocupación en los más altos niveles. «Los ejecutivos, en particular los gerentes de más alto rango, son casi unánimes en reconocer las numerosas ventajas de contratar proveedores externos de servicios componentes de los sistemas de información y la tecnología de computación de sus compañías» (Ripin y Sayles, 2000, 2). Además estos procesos de mejora en el manejo de los recursos informáticos se han acelerado debido a un contexto cada vez más competitrivo que plantea circunstancias apremiantes de mejora de desempeño. «Debido a la relevancia que ha cobrado en los últimos años para las empresas temas concernientes a reducción de costos y adquirir una postura más competitiva frente al resto del mercado, es que entonces surge la corriente de la tercerización en el candelero de la discusión y como materia sujeta a investigación». Y lo hace en muchas áreas de actividad, pero muy especialmente y particularmente con gran intensidad en lo referido a servicios relacionados con Tecnologías de la Información y Comunicaciones (TIC) como queda en evidencia claramente en el planteo teórico y en el estudio de campo de la tesis de maestría de Salaberry (2004). No usar bien los recursos informáticos en cualquier organización que enfrente exigencias de competitividad, genera muchos dolores de cabeza. Las malas prácticas en el terreno de las tercerizaciones pueden generar muchos percances tanto a las compañías que contratan, como a las que proveen servicios informáticos. Como plantea Giorgi (citado por Petrella, 1999a, 10), en su evaluación de las contrataciones informáticas, la mala elección, producto de una contratación errónea, puede ocasionar daños a mediano y largo plazo de difícil y costosa reversión. Si la misma por el contrario es acertada, significará un cambio profundo en la prestación del servicio, con el correspondiente beneficio para los administrados y la mejora en la imagen de la organización 144


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

No es extraño entonces que en el mundo universitario surgieran iniciativas de estudio de la problemática de las tercerizaciones informáticas. Específicamente en Uruguay se han producido a partir del año 2000, fundamentalmente a nivel académico, un conjunto de estudios sobre el outsourcing, entre los que se destacan a las tesis de Canedo y Pena (2002) y de Salaberry (2004). Payssé (2005) ha culminado su tesis de grado sobre Acuerdo de niveles de Servicio en Outsourcing de IT3, realizando un interesante aporte. Un tiempo depués publicaría un libro al respecto. Estos estudios reflejan la situación del estado del arte y aspectos prácticos de su aplicación en el campo a escala global con muchas referencias a la situación en Uruguay. Por otra parte, para Petrella (1993, 1999a y 1999b), este ha sido un centro de actividad profesional como gerente de sistemas y como consultor en proyectos informáticos por mucho tiempo, analizando el marco teórico de estos procesos de contratación y la necesidad de adaptarlos a cada situación específica, especialmente en instituciones estatales, considerando aspectos funcionales, técnicos, económicos, legales y notariales de cada proceso. Esto ha generado una inquietud recurrente del suscrito por estar al día respecto del estado del arte e identificar las buenas y malas prácticas relacionadas con las contrataciones informáticas vistas como proceso. En particular estos trabajos previos relacionados con la problemática del outsourcing informático fueron analizados y profundizados por Petrella para generar una actualización del estado del arte a través de los estudios de Doctorado en Sociedad de la Información y el Conocimiento en la Universidad Pontificia de Salamanca desde comienzos del año 2004. Precisamente este informe con algunas actualizaciones, es una parte de esos estudios, que actualmente están finalizando. La tesis de Doctorado está en estos momentos en proceso de defensa y este trabajo ha formado parte del estudio de la problemática de la administración de procesos innovadores, que ha sido parte del foco de la investigación final.

1. Precisiones sobre conceptos A fines del siglo XX el eje de las propuestas empresariales se ha puesto en la competitividad. «En los años noventa, algunos teóricos de la administración expusieron que el factor más importante para mantener 3 Tecnologías de la Información, por sus iniciales en inglés.

145


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

la competitividad era diferenciar entre las funciones centrales y secundarias, y después transferir las últimas a un especialista en dicha función. La idea no era especialmente nueva, pero sin duda era una idea “a la que le había llegado su hora”. A medida que el debate sobre este aspecto creció y evolucionó, nació el concepto de organización virtual. La teoría que reside tras la organización virtual es que cualquier función secundaria debe ser transferida a un especialista externo» (Heywood, 2002, 29). Precisamente la idea de transferir actividades a un especialista externo para mejorar la competitividad dio origen a una serie de modalidades que pasaron de la dirección de recursos por terceros, al soporte a la transición entre una forma de desarrollar algunas actividades actuales y las nuevas, o la creación de sociedades de capital de riesgo para explotar una nueva oportunidad empresarial. Se comenzaban a vislumbrar gradualmente opciones de transferir la administración de determinadas funciones -más o menos importantes de las compañías- para que fueran desarrolladas por terceros. Y el espaldarazo a estas nuevas prácticas, lo dió la necesidad de manejar mejor el área informática y los sistemas de información que soporta. Las tercerizaciones (outsourcing en inglés) se pueden plantear como una estrategia empresarial que busca mejorar la competitividad, o como un proceso que se encara como alternativa para mejorar la eficacia o la eficiencia de las compañías. Cualquiera de las dos formas de ver este enfoque son correctas, dependiendo del alcance que su aplicación comprenda en una organización. No es lo mismo -considerando el impacto en las funcionalidades y los presupuestos asociados- tercerizar enteramente todos los procesos informáticos de comercialización usando herramientas de comercio electrónico que instalar un help-desk administrado por un tercero, para soporte de una intranet. El outsourcing se ha ido transformando en una estrategia de gestión empresarial a través de la cual una organización terceriza partes importantes pero no esenciales a un proveedor de servicios especializado. La idea es que la compañía pueda concentrar sus esfuerzos en aquello que la organización interna sabe y debe hacer, para desarrollar lo esencial de su negocio. Outsourcing, según The Outsourcing Institute (s.f.) es «el uso estratégico de recursos externos para realizar actividades que tradicionalmente eran llevadas a cabo a través de gerenciamiento y recursos internos». O sea, sacar de la organización interna ciertas actividades que de esa manera quedan en manos de terceros, lo que pueden generar un cambio de gran magnitud en la organización de origen. 146


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Payssé (2005, 1) define outsourcing como el «proceso mediante el cual una compañía identifica una porción de su proceso de negocio que podría ser desempeñada más eficientemente y efectivamente por otra corporación experta en el tema, la cual es contratada para desarrollar esa porción del negocio». Heywood (2002, 27) plantea una definición completa del concepto, al sostener que es «la transferencia de una función o funciones comerciales internas, mas cualquier otro activo asociado, a un proveedor externo o proveedor de servicios que ofrece un servicio definido durante un período específico de tiempo a un precio acorde, si bien probablemente limitado». El término según el Outsourcing Center (s.f.) toma la definición dada por Bendor-Samuel: «Outsourcing ocurre cuando una organización transfiere la propiedad de un proceso de negocio a un proveedor. La clave a esta definición es el aspecto de transferencia de control». El outsourcing se produce, entonces, cuando hay trasferencia a un tercero. La clave a esta definición es el aspecto de transferencia de control (Figura 1), «esto es cuando el proceso en cuestión, es realizado conceptualmente fuera de la organización que contrata» (Payssé, 2005, 3).

Figura 1. Fórmula del outsourcing

Por lo expuesto precedentemente considerando el papel fundamental de la transferencia del control de los recursos involucrados, «la aplicación del concepto de outsourcing va en dirección opuesta a poseer los factores de producción ya que establece trasladar las actividades afuera de la empresa hasta donde se encuentran los expertos» (Salaberry, 2004, 15). Por supuesto que afuera de la organización, significa lógicamente fuera, esto es fuera del control lógico por parte del contratante. 147


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

El outsourcing, según Greaver (1999), es «el acto de transferir alguna de las actividades internas y derechos de decisión recurrentes de una organización a proveedores externos, como parte de un contrato». Y esto puede implicar la trasferencia tanto del control de producción, como de los derechos de decisión sobre la ejecución de determinados procesos. Los factores de producción a considerar son todos aquellos recursos que hacen posible que las actividades sucedan. Incluyen: personal, facilidades, equipamiento, tecnología y otros activos y los derechos de decisión, las responsabilidades consecuentes para la toma de decisiones, sobre ciertos componentes que hacen a las actividades transferidas. Las compañías del más diverso tipo -procurando concentrarse en lo que son sus actividades sustantivas y buscando mayor eficiencia en sus servicios- desarrollan procesos de outsourcing de las distintas actividades con muy diversos alcances, pero siempre que se da outsourcing, se produce una transferencia del control de una actividad a otra compañía. Los primeros pasos de las organizaciones con el outsourcing son encarados considerando aquellas actividades puntuales que no son identificadas como competencias esenciales por sus respectivas direcciones, como por ejemplo la limpieza de las instalaciones o la reproducción de documentos. Pasos posteriores demuestran por la vía de la práctica reforzada por historias de éxito, cada vez mayor audacia en el alcance de las actividades a tercerizar llegando por ejemplo, a las propias funciones productivas de la organización, e incluso a sus servicios informáticos hasta cuando estos soportan la gestión de actividades sustantivas de las compañías. En un mundo automatizado e interconectado, las compañías requieren mejores capacidades de organización para administrar sus recursos informáticos y ser eficientes en el uso de sus sistemas de información. Y estas exigencias requieren desarrollos no siempre posibles desde la interna de la organización. No siempre las competencias para administrar los recursos informáticos son desarrolladas internamente de manera eficiente. Como consecuencia, las actividades de outsourcing también han llegado a los sistemas de información (SI) y a las tecnologías de la información y las comunicaciones (TIC). Lo importante no siempre se mantiene conceptualmente y prácticamente bajo el control de las organizaciones. «Paradójicamente, la dependencia cada vez mayor de sistemas de información está acompañada por una 148


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

utilización cada vez mayor de proveedores externos de servicios para diseñar y manejar este decisivo recurso» (Ripin y Sayles, 2000, 1). Sin embargo, estas paradojas reafirmadas por las teorías prevalecientes y por las mejores prácticas, no deberían ser evitadas sino confrontadas. Como sostienen Ripin y Sayles (2000), las compañías realmente exitosas han sido las que cuentan con una dirección capaz de confrontar y hacer frente a anomalías y contradicciones… «De hecho, eso puede ser la mejor prueba de excelencia de dirección». Por la vía de los hechos consumados -miles de tercerizaciones que están actualmente en curso- las compañías están aprendiendo a manejar un nuevo concepto. Las tercerización «se ha convertido en una idea conocida para el mundo empresarial y el mundo de las comunicaciones asociado» (Heywood, 2002, 27). Eso ya de por si representa un avance muy importante, porque cuando determinados procesos comienzan a manejarse asiduamente se va generando un conocimiento mayor de las reglas que lo gobiernan y de los patrones de éxito que se le asocian. Esto comienza a romper gradualmente el paradigma reafirmado desde la interna de las organizaciones de que hecho en casa es necesariamente mejor que comprado fuera. Todo parece indicar que le ha llegado la hora al outsourcing y que los procesos de tercerización de los SI y las TIC irán a la cabeza de estas trasformaciones en la forma de administrar recursos de las compañías para mejorar la competitividad. Eso ha sido particularmente evidente en los últimos años, sobre todo en las grandes empresas estatales uruguayas y la tendencia se ha mantenido a pesar de los cambios de orientación política de los sucesivos gobiernos democráticos en el Uruguay. Una tendencia que también se ha marcado fuertemente en la región aunque con características bien diferentes, según los respectivos países, sobre todo en la forma de encararla, en la órbita del Estado.

2. El posible alcance del outsourcing o tercerización El alcance de las tercerizaciones ha ido creciendo con el tiempo. ¿Qué se puede tercerizar? La respuesta es clara. No hay límites pre-establecidos del alcance de lo que se puede tercerizar en una compañía. El outsourcing puede contemplar múltiples dimensiones de la actividad de la organización, atravesando toda la estructura formal y sus principales funciones. Los procesos de outsourcing pueden abarcar diferentes as149


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

pectos de la gestión de las compañías, incluyendo componentes específicos, actividades funciones o procesos o una combinación cualquiera de los elementos antes mencionados. Esos procesos pueden generar verdaderas revoluciones en la organización y funcionamiento de las organizaciones, consolidando procesos innovadres a todos los niveles. Pero no todas las áreas de las organizaciones han evolucionado de la misma manera en términos de procesos de tercerización. La escalada de las tercerizaciones tiene áreas estrella, que parecen ser la piedra angular de los cambios organizacionales producidos a través de esta modalidad. El Outsourcing Institute realizó un estudio en el año 2004 sobre cuáles eran las áreas de las compañías que se tercerizaban en mayor cantidad, y en este estudio surge claramente que la tercerización de funciones de Tecnología Informática, es el área que más está siendo tercerizada, seguida por administración y en menor medida recursos humanos (7th annual Outsourcing Index, 2004). Y se trata de una tendencia que se ha mantenido en el tiempo. A su vez, además de lo referido a áreas específicas de aplicación, el outsourcing puede desarrollarse con alcances muy diversos en las compañias. Según Maurice Greaver (1999) el outsourcing se puede presentar básicamente en cuatro niveles diferentes: − A nivel de partes de componentes: La tercerización de partes de componentes es utilizado para la producción de partes como, por ejemplo, asientos de autos. Un tercero fabrica un bien o presta un servicio visto como un componente de un producto mayor que se desarrolla fuera de la compañía. − A nivel de actividad individual: La tercerización de actividades individuales conlleva el traslado de empleos específicos fuera de la empresa. Un tercero es contratado para realizar una actividad con compromiso de medios (por ejemplo dedicación) o con compromiso de resultados (realizar una determinada obra). − A nivel funcional: La tercerización a nivel funcional tiene una relación directa con la estructura que presentan las empresas, las cuales están organizadas alrededor de centro de costos funcionales y estas unidades funcionales poseen conocimientos especializados y responsabilidades específicas. − A nivel de proceso: La tercerización a nivel de procesos es la práctica que está gozando de un mayor crecimiento en los últimos tiempos. Los procesos son el resultado de un conglomerado de actividades similares que brindan un resultado determinado al cliente.

150


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Por otra parte, los tipos de relación organizacional entre las partes en un outsourcing, pueden ser muy distintos, yendo desde una sociedad estratégica entre iguales, a una relación asimétrica del tipo cliente con proveedor, de perfil muy variable según el caso. Según Salaberry (2004) cuando se entabla una relación entre una compañía que ofrece sus servicios y otra que consume dichos servicios, se tiene como opciones la relación de socio o la relación de aliado (Figura 2), pero no la clásica de quien adquiere bienes o servicios.

Figura 2. Relación estratégica: Socio o aliado.

En una relación de tipo socio es de mayor nivel de involucramiento de las partes y está implícita una vinculación permanente entre los agentes involucrados, con finalidades duraderas, «como si fuese un matrimonio tanto en las buenas como en las malas» (Salaberry, 2004). Es importante que los intereses estén fuertemente alineados. En cambio, en una relación de tipo aliados, ambas partes actúan en conjunto para beneficiarse cada uno, teniendo intereses en común en el marco de un proyecto compartido. A pesar que se apunta a largo plazo, esta relación no permanece cuando sus intereses dejan de ser iguales. Teniendo presente lo anteriormente mencionado, Greaver (1995) asegura que los participantes en una relación de outsourcing tienen un comportamiento que se asemeja más a una relación de aliados, que la relación de socios. Y definitivamente no a la relación de proveedores aislados de bienes o servicios. Sin embargo, posiblemente esta relación deba analizarse con un enfoque situacional, sin plantear generalizaciones. En algunos casos, las partes operarán como aliados y en otras 151


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

como socios. Se trata de procesos en los que el vínculo va más allá de una relación comercial de compra de bienes o servicios. En la compra de bienes o servicios el contratista es propietario del proceso y lo controla. Le comunica al proveedor qué y cómo quiere que se desempeñen y se fabriquen los productos o servicios comprados, por lo que el proveedor no puede variar las instrucciones en ninguna forma. En el caso de outsourcing el comprador transfiere la propiedad al proveedor, es decir, no instruye al mismo en cómo desempeñar una tarea, sino que se enfoca en la comunicación de qué resultados quiere y le deja al oferente el proceso de obtenerlos. Esto libera a la primera organización, para poder enfocarse en la parte o función central de su negocio (Payssé, 2005, 3). El outsourcing plantea casi siempre la necesidad de preparar la estructura de la organización, la gente involucrada y los procesos abarcados para desarrollar una nueva modalidad de prestación de servicios. Estos procesos de tercerización requieren en muchos casos, la realización de asociaciones productivas entre dos o más compañías, que respondan adecuadamente a las expectativas de la organización contratante y también a las posibilidades de la organización u organizaciones que prestan los servicios. Por su parte las prácticas que son buenas en un contexto de administración propia, dejan de serlo en uno de tercerización y deben ser reanalizadas. Los plazos en los procesos de outsourcing son muy variados. Dependiendo del alcance proyectado, deberán preverse necesidades de puesta en marcha con fronteras temporales muy diferentes. Muchas veces se generan expectativas no acordes con la realidad, lo que no es bueno para encarar los cambios requeridos. Y esto no es conveniente porque no refuerza la credibilidad de los agentes involucrados. Si los proyectos son fuertemente cuestionados, antes de puedan ponerse en evidencia los primeros resultados exitosos, pueden correr peligro los propios cambios en la gestión que han sido proyectados. Por ello la programación debe contemplar la generación de evidencias de resultados parciales adecuados, como un aspecto muy importante del proceso de la tercerización.

3. Razones fundamentales para tercerizar La importancia de las tercerizaciones en las áreas de TI comparada con otras áreas de las compañías, tiene su razón de ser. En general 152


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

la administración de servicios informáticos es complicada y presupuestalmente pesada e incluye el desarrollo de complejos proyectos informáticos que son emprendimientos riesgosos en que los fracasos suelen ser más que los éxitos. «Se estima que aproximadamente una tercera parte de los proyectos para aplicación de computadoras se cancelan antes de su terminación. Más de la mitad de ellos cuestan más del doble de sus estimados originales. En grandes compañías, menos del 10% se terminan a tiempo y dentro de los límites del presupuesto» (Ripin y Sayles, 2000, 19). Evidentemente se trata de grandes problemas que las organizaciones no siempre están en condiciones de sobrellevar por sus propios medios. Usualmente requieren el apoyo de terceras partes para desarrollar, implantar y hasta explotar sistemas, procurando resultados en términos de eficacia y eficiencia, que atenúen los problemas antes mencionados. No es extraño entonces que muchas compañías busquen soluciones a través de terceros, a los que se les encomienda hacer algo dentro de la organización, pensando en reducir costos o en especializarse. Las estrategias de tercerización apuntan genéricamente a la competencia por precio o a la competencia por especialización. En esa línea de pensamiento, las dos justificaciones principales para tercerizar un servicio son precisamente: - Reducir costos manteniendo los mismos niveles de servicio, y - Concentrarse en lo que es esencial en la empresa. Esto es consistente con los estudios de Canedo y Pena (2002), que concluyen: «dentro de los objetivos estratégicos, los más importantes parecen ser: liberar recursos escasos, focalizarse en las funciones clave de la empresa, adquirir nuevas tecnologías o ampliar conocimientos, los cuales son logrados en forma aceptable o muy satisfactoria». Clark, Zmud y McCray (1995) identificaron algunos factores que apoyan al proceso de tercerización y entre ellos, se destacan el propio cambio tecnológico que expande el abanico de opciones y los cambios en la gestión de la tecnología de la información que fomentan el outsourcing. Según Payssé (2005, 18), las cinco razones estratégicas más importantes para tercerizar son: − Mejorar el enfoque de la empresa. Permite a la compañía enfocarse en asuntos empresariales ampliamente, concentrarse en las actividades principales de la empresa, dejando el resto de las actividades de la empresa en manos de especialistas en el tema, de forma que éstos asuman las responsabilidades y detalles de operación. El outsourcing es una herramienta moldeadora de organizaciones que 153


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

permite clarificar y focalizar los esfuerzos en alcanzar las necesidades de nuestros clientes. − Tener acceso a las capacidades de clase mundial. La misma naturaleza de sus especializaciones, los proveedores ofrecen una amplia gama de recursos de clase mundial para satisfacer las necesidades de sus clientes. Se accede de esta manera a nueva tecnología, herramientas y técnicas que la organización no posee, metodologías estructuradas, procedimientos y documentación y se elimina la necesidad de estar continuamente invirtiendo en tecnología y la capacitación necesaria para operar esta tecnología. − Acelerar los beneficios de reingeniería. Permite a la compañía verificar inmediatamente los beneficios de la reingeniería. Cada vez más se ven organizaciones que tercerizan distintas funciones a un proveedor que garantiza las mejoras que se obtienen con la reingeniería y asume los riesgos asociados. − Compartir riesgos.Hay varios riesgos asociados a las inversiones que realiza una compañía. Cuando las compañías tercerizan se convierten en organizaciones más flexibles y dinámicas y se adaptan mejor a las oportunidades de cambio. Competencias de mercado, regulaciones gubernamentales, condiciones financieras y tecnológicas cambian de forma muy rápida y mantenerse al día con estos cambios requiere una inversión en recursos. El outsourcing es una herramienta que permite compartir estos riesgos entre las compañías involucradas. − Destinar recursos para otros propósitos. Las compañías tienen límites en la disponibilidad de los recursos. El outsourcing permite redistribuir esos recursos de forma tal que puedan ser utilizados en tareas que hacen a la razón del negocio en vez de destinarlos a actividades que no lo son. Un proceso de tercerización de servicios IT, según Salaberry (2004), apunta a que la organización mejore la efectividad mediante la focalización en lo que la empresa hace mejor o aumente la flexibilidad para alcanzar condiciones más competitivas o bien incremente el valor de un producto o la satisfacción del cliente, entre otros. El Outsourcing Institute - en su sexto informe anual de outsourcing - establece las diez razones más importantes para llevar adelante un proceso de outsourcing según las respuestas obtenidas de empresas en Estados Unidos de América: El factor con mayor peso y que puede inclinar la balanza para que un proceso de outsourcing sea exitoso es la selección del proveedor 154


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

correcto del outsourcing. Es por ello que el Outsourcing Institute (s.f.) en su sexto informe anual de outsourcing hizo un estudio en particular sobre este factor escribiendo en mayores detalles sus características, donde identifican como factores relevantes de selección: el precio del servicio, el compromiso de calidad, los términos de contrato y las referencias, como los criterios que utilizan las empresas para contratar a una compañía proveedora de servicios para llevar adelante un proceso de outsourcing. Tal como sucede cada vez que se analiza una temática compleja, es difícil conseguir consenso de opiniones favorables al cambio y el outsourcing no es la excepción a la regla. Por ello, ante cualquier proyecto de este tipo es usual que se generan situaciones encontradas entre especialistas funcionales o técnicos, que plantean controversias sobre si se debe tercerizar o no. Salaberry (2004, 34) analiza algunas de las causas que pueden ofrecer resistencia a la adopción de una práctica de outsourcing en su tesis sobre el tema. Entre las razones para no tercerizar un servicio, según Salaberry (2004, 27), ocupan un lugar importante la incertidumbre y también las excusas fortalecidas por el descontento de las fuerzas internas de la organización. Un camino necesario entonces para utilizar las tercerizaciones adecuadamente, tiene que ver con dar a conocer adecuadamente sus posibilidades y sobre todo, con enseñar a las fuerzas internas cómo puede manejarse el proceso, sin incrementar los riesgos de desarrollo de estas.

4. La conciencia de la complejidad del proceso Uno de los asuntos que ha puesto a las tecnologías en el centro de muchos debates -y especialmente las tecnologías informáticas- es el reconocimiento de que tienen un valor cada vez más estratégico para el desarrollo de las compañías en general, desde fines del siglo XX. Una nueva economía de la información está ocupando cada vez mayores lugares en relación con la economía industrial del siglo pasado. Evans y Wuster (2000, 4), aseguran: «Nuevas tecnologías de la información surgen de cualquier lado y demuelen marcas y negocios que han estado establecidos por décadas y hasta centurias». La complejidad de los servicios informáticos y los sistemas de información administrados requeridos suele ser muy grande, pero la percepción 155


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

de la misma por parte de los administradores no siempre es consistente con esa realidad. Pocas compañías, señalan Ripin y Sayles (2000, 11), «parecen estar conscientes de las complejidades de la propia contratación de proveedores externos de servicios. (…) Las intimidantes complejidades de las tecnologías de los sistemas de información han creado una precipitación hacia la contratación de proveedores externos de servicios». Se requiere un proceso importante de asimilación de información, conocimientos y competencias para administrar adecuadamente esa complejidad creciente. La gran diversidad de bienes y servicios informáticos a contratar, hace necesario definir especificaciones técnicas y condiciones contractuales diferenciadas para atender cuestiones tan diferentes como el mantenimiento o la operación de los sistemas o la transferencia de know how y sobre todo formas de evaluar el desempeño diferenciado para cada tipo de servicios y niveles de exigencia requeridos. Hay ciertas singularidades a tener en cuenta. Muchos temas nuevos aparecen en la agenda del equipo de trabajo de un proyecto de contratación complejo, como lo son habitualmente los de outsourcing informático. Al desarrollar contratos informáticos hay aspectos singulares de la actividad que no se deben soslayar y que tienen que ver con cuestiones en general muy específicas como las cláusulas abusivas, las trasferencias de dominio, la titularidad del software o las garantías de servicio entre otros aspectos, que están descritos en Petrella (1999a, 269). Correa, et al (1987, 156) realizan un análisis de la problemática de los contratos de adhesión en tecnologías y de la presencia de cláusulas abusivas, que si bien tienen una presencia más atenuada en la última década, en ciertas circunstancias parecen recobrar su perdido vigor debido a la falta de conocimientos de las contrapartes contratantes. Todo ello suele dificultar un tratamiento equilibrado de las relaciones entre el proveedor y el usuario de los servicios. Y estas dificultades replantean la necesidad de preparar los agentes internos para poder tercerizar con eficiencia. Otro tema que muchas veces permanece en la agenda abierta de las tercerizaciones, es la transmisión de dominio. Con el avance de nuevas modalidades contractuales que marcan una fuerte interacción entre la parte contratante y el adjudicatario, se generan verdaderas zonas grises en las responsabilidades contractuales que son caldo de cultivo de futuras confrontaciones que de no resolverse entre las partes, pueden llegar al terreno de la justicia civil o penal, lo que en general no es beneficioso para ningún proyecto. 156


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Algo similar podría decirse de la titularidad del software en contextos legales, que generan incertidumbre sobre el alcance de la protección que puede ser aplicable o que en un caso sea conveniente aplicar. Una incertidumbre que se hace todavía más evidente cuando el software se desarrolla a medida, con la participación de agentes de la organización contratante y del adjudicatario del encargo. Una cuestión también relevante que hace a la singularidad contractual de este tipo de procesos, son las garantías de funcionamiento de productos contratados, que incluyen bienes y servicios informáticos combinados en los que deben establecerse condiciones de disponibilidad y rendimiento que pueden llegar a ser muy sofisticadas, sobre todo en procesos de tercerización. Un tema que requerirá un tratamiento diferenciado a nivel de gestión y de documentación, que analizaremos más adelante, al plantear la problemática de los niveles de servicio. El acceso dispar a la información tecnológica y su capacidad de interpretarla es una limitante importante para trabajar en equipo en procesos de transformación institucional. Como plantean Correa, et al. (1987, 151): «La falta de conocimientos técnicos dificulta la redacción e interpretación de ese tipo de contratos y en particular la identificación de las principales cuestiones que deben ser consideradas». Se deben conjuntar especialistas muy diversos para integrar un equipo multidisciplinario equilibrado para tender proyectos complicados, inmersos en realidades complejas. Las organizaciones que sabían hacer una tarea por sus propios medios, no necesariamente sabrán como controlarla cuando la hacen otros. El outsourcing no es hacer lo mismo, pero desde fuera. Una organización no puede abordar un emprendimiento de contratación de este tipo, si no está adecuadamente preparada. Cuando una compañía inicia un proceso de outsourcing, debe tener en cuenta su experiencia en ello y si no la tiene, buscar el asesoramiento que sea necesario. Sin embargo, todos no son asesoramientos adecuados sobre procesos, tecnología, dinero y normas. Por sobre todo, en condiciones tan complejas e imprevisibles como las contrataciones de outsourcing, es necesario cierta dosis de liderazgo para actuar marcando el rumbo ante los problemas y para llevar adelante las diferentes instancias del emprendimiento. Ciertamente que hay muchas cosas escritas sobre liderazgo. Pero, para reflexionar profundamente sobre el tema, es necesario buscar escenarios comparativos en los que se requieran acciones decisivas en momentos complicados (Phillips, 1993). 157


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

La complejidad de los procesos, genera ciertos desafíos para innovar en las prácticas de abordaje. Sababerry (2004, 58) plantea un conjunto de prácticas alternativas de outsourcing que permiten compartir la responsabilidad ante la complejidad del desarrollo del negocio, con las empresas seleccionadas para encarar la tercerización. Así las empresas contratadas podrían operar como socios estratégicos en los emprendimientos. En especial, el autor señala dos alternativas que son particularmente interesantes: - Business Process Outsourcing en la que se contrata a una organización para que tome la responsabilidad principal de proveer un proceso de negocio o una función específica de la empresa. - Business Transformational Outsourcing en la que se contrata a un tercero para que transforme los resultados obtenidos a nivel empresarial pudiendo formalizarse join venture, para administrar recursos conjuntos. Finalmente, pero no por ello menos importante, es señalar que se están desarrollando nuevas alternativas de outsourcing como el Outsourcing Offshore, que es una práctica ya utilizada en el mundo, que según Sababerry (2004, 63), «está ganando terreno ya que la filosofía detrás es el traslado de las actividades a otro país, donde se obtiene la realización de las mismas a un menor costo de lo que sale en el país de origen debido en parte a los bajos niveles salariales», comparativos de origen y destino de los servicios.

5. La relevancia de rediseñar exitosamente los procesos Los proyectos complejos necesitan capacidad de entender la realidad y transformarla. Un servicio de outsourcing generalmente requiere ideas estratégicas claras de partida y un proyecto de desarrollo que las respalden para poder instrumentarlas. Pensando en ello, se deberán establecer previamente y con la mayor claridad posible, las pautas de la estrategia del outsourcing a seguir, como ser: identificar las capacidades que la empresa quiere desarrollar, las estructuras jerárquicas requeridas, el caso del negocio en sí mismo y sobre estas bases, establecer los servicios que mantiene y los que terceriza. Además y siguiendo normas simples de buena administración de proyectos, se deberán tener en cuenta como siguiente paso en el abordaje 158


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

del emprendimiento, cuáles son las necesidades de la empresa, cómo se planea hacer para cubrir las necesidades conocidas y también los riesgos asociados para ejecutar las tareas que se consideren. Lo común en las prácticas correctas que enseñan los libros -pero no tan fácil de lograr- en el manejo de proyectos reales en el campo en que las urgencias políticas y los costos de oportunidad, generan problemas que a veces requieren soluciones expeditivas y no por ello menos convenientes. Cuando los problemas que tienen los proyectos de cambio están relacionados con las diferentes formas de rediseñar exitosamente las organizaciones, se abren numerosas posibilidades de actuar que tienen que ver con cambios en la forma de trabajar para mejorar esas organizaciones. Un aporte sustantivo a considerar es reingeniería en la gerencia de James Champy (1995), cuyo planteo gira en torno a la necesidad de cambiar la práctica de la administración y los proyectos de outsourcing, son una interesante posibilidad para propiciar rediseños en los procesos, que pueden ser potenciales innovaciones. Para encuadrar esos procesos debe tenerse presente que la meta genérica de las evoluciones en los servicios informáticos está asociada con la estrategia de la organización. La clave para gobernar todos estos desarrollos informáticos tanto propios como tercerizados, es esencialmente mantener la competitividad de la compañía. Todos los procesos que se desarrollen deben apuntar a ello, sin contemplar desviaciones. Y esa competitividad implicará establecer la mezcla adecuada de calidad, mejora continua, velocidad de resultados y reducción de costo (Heywood, 2002, 11). Por otra parte, Andreu, Ricart y Valor (1996) plantean muy bien la relación entre la estrategia empresarial, los sistemas de información y las tecnologías de la información, convirtiendo su libro en un excelente punto de entrada para el análisis de las tres dimensiones del desarrollo informático de las organizaciones; dimensiones que se integran a partir del estudio de las cadenas de valor de las organizaciones que generan la senda por la cual dicho desarrollo debe encararse, algo a tener muy en cuenta durante el diseño y desarrollo de las tercerizaciones. Un punto muy importante del proceso –sobre todo en cuestiones que tienen componentes tan sofisticados y alcances tan complejos- es definir qué entiende por éxito en la propia relación contractual entre el proveedor y el receptor del servicio de outsourcing y en los resultados que se deberían alcanzar. Si no se define qué es lo que se espera como resultado exitoso, no habrá puntos de referencia para establecer cual159


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

quier posible patrón de medición. Como contrapartida también puede ser muy útil establecer las condiciones de no conformidad o la manera de establecer observaciones en los resultados. Como ejemplos de factores de éxito a considerar en proyectos de outsourcing se pueden mencionar cuestiones consistentes con aspectos económico-financieros (ahorrar dinero) de capacidad de desarrollo (grado de innovación deseada), calidad de servicio (niveles de servicio) o integración empresaria (inter- relacionamiento con otras áreas del proceso). Para controlar todo esto es necesario aportar guías de trabajo apoyadas de ser posible, en soportes automatizados para la gestión de proyectos. Se pueden considerar, a modo de ejemplo, desde las tradicionales herramientas de manejo de redes de tareas, hasta las asociadas con flujos de tipo work-flow o las utilizadas para manejar equipos de trabajo virtuales del tipo groupware. A su vez, los cambios en las organizaciones van de la mano de la capacidad para aprender, como lo considera Senge (1992). En particular debería tenerse presente lo referente al pensamiento sistémico, el domino personal, los modelos mentales, la construcción de una visión compartida y el aprendizaje en equipo. Estos temas también están presentes en el enfoque de Licitaciones Informáticas Exitosas (Petrella, 1999a y 1999b) y en El lado Humano de la Computación (Petrella, 1997).

6. La necesidad de generar un plan de acción adecuado La teoría que establece el deber ser es un primer paso, pero sólo constituye el principio para orientar la tarea de campo en un largo camino. Lo que hay que concretar en términos generales en la práctica también está muy claro pero no siempre es fácil de concretar. Hay que manejar adecuadamente el complejo proceso de desarrollo de un proyecto. Entre los puntos que señala KPMG se destacan los principios de gestión recomendados y particularmente el énfasis que se plantea en conservar el control sobre la dirección estratégica, mantener la responsabilidad para establecer los estándares para trabajar y seleccionar un contratista de primera calidad. (Johnson, 2004). Construir planes es la base necesaria para sustentar la ejecución de las actividades. Una vez que se haya decidido la tercerización como estrategia de negocio, es esencial establecer un plan de acción, es 160


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

decir planificar cada paso o etapa en forma estructurada de forma de llegar a los objetivos deseados. Es primordial tener una metodología bien definida de forma de poder desarrollar un proceso de tercerización exitoso. El plan debe especificar con claridad cuáles son los pasos a seguir, de qué forma estos pasos van a ser llevados a cabo y por quien serán llevados a cabo (Payssé, 2005, 4). Ripin y Sayles (2000, 27) establecen lo que hay que decidir paso por paso, en los procesos de desarrollo de las tercerizaciones. Recomiendan que se decida primero lo que desea y se exprese sin ambigüedades en una solicitud de propuesta y después en un modelo de servicios a requerir al futuro adjudicatario. Paso seguido plantean que se seleccione un buen socio-contratista para hacer el trabajo. Ya en la ejecución debe verificarse el desempeño y pagarse por él y si el desempeño no satisface las expectativas, debe lograrse que devuelvan el dinero y finalmente cambiar de socio Considerando temas operativos, ante la complejidad del proceso de contratación y ejecución del contrato, Salaberry (2004) plantea la necesidad de contar con un mapa de ruta para navegación en el proceso. Payssé (2005) también insiste en tener una guía, incluyendo una cadena de procesos para proceder ordenadamente en este tipo de proyectos. Se podría conjeturar, como condición necesaria pero no suficiente, que cuanto mejor este diseñado el mapa de ruta o la cadena de procesos, más fácil será el viaje para alcanzar su destino, relacionado con el desarrollo exitoso del proceso de outsourcing. Aun para los técnicos que usualmente se mantienen al margen de la parte económica –los costos también cuentan al hacer el estudio de oportunidad de lo demandado– debe considerarse la disponibilidad económica de quien requiere los servicios, estableciendo un balance entre los niveles de servicio provistos y los costos asociados para prestar dichos servicios. Hay que tener cuidado con lo que se plantea como necesidad básica y como opcional. Los servicios que se requieren tarde o temprano se deberán pagar. Cuanto más alto es el nivel de disponibilidad y rendimiento del servicio demandado, entonces seguramente será más costoso proveer dicho servicio. Es conveniente generar opciones para cuantificar profesionalmente precios y costos de manera previa y durante el proceso de tercerización. Para dimensionar precios de los servicios en relación con el mercado se pueden realizar estudios comparados sistemáticos mediante benchmarking en mercados equivalentes y compañías similares. A su vez, 161


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

para cuantificar los costos de los servicios de outsourcing de manera profesional, se puede manejar por ejemplo el TCO (Total Cost of Ownership) que son los costos totales reales relacionados con determinados componentes del servicio (Salaberry, 2004). Giorgi, citado por Petrella (1999, 10), plantea que -además de los problemas funcionales y presupuestales asociados a las necesidades y disponibilidades del servicio- es importante considerar los marcos legales implicados en la contratación y de los recursos presupuestales para desarrollar tales emprendimientos: «El conocimiento de las necesidades del servicio y del mercado informático donde se han de demandar las soluciones, el cuidado de los aspectos jurídico-normativos, la obtención de la ecuación económica más conveniente y contar con las adecuadas previsiones presupuestales son todos elementos básicos para quien pretenda arribar a una buena contratación». Respecto de los aspectos legales, y hasta notariales, es necesario y conveniente tenerlos bien presentes, en contextos de la contratación privada y de la contratación del Estado. Es prudente invertir en esos asesoramientos desde el principio. Hay que saber -de acuerdo con la normativa vigente en cada ámbito- qué se puede hacer en casos normales y excepcionales y qué pueden hacer las otras partes involucradas. También hay que cuidar las formas administrativas que respaldan los actos llevados adelante. Los asesoramientos jurídicos y notariales en este aspecto deberían ser siempre pro-activos para mantener la iniciativa y ajustarse a las condiciones y no reactivos, en el medio de un problema civil o penal para el cual el propio proyecto pueda no estar bien preparado y como consecuencia, la compañía no tenga buenas opciones. Gente, procesos y estructuras de las organizaciones, interactúan fuertemente durante los proyectos de cambio organizacional de manera diferente que en períodos de estabilidad (Figura 3). A su vez, como muchas veces no ocurre en situaciones régimen de los sistemas, los valores y los principios éticos o el relacionamiento con el medio, constituyen factores fuertemente determinantes de los resultados que se pueden alcanzar. Finalmente la tecnología, con lo poderosa que puede llegar a ser para transformar determinadas reglas de juego, no es en definitiva otra cosa que un instrumento estratégico o táctico para poder cambiar. Sin embargo, la guía de trabajo - por mejor armadas que estén las cadenas de actividades - son sólo instrumentos al servicio de un proyecto. Se requiere una filosofía de trabajo para sacarle el mejor partido a estos 162


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

instrumentos. Ante las dificultades derivadas de la contraposición de intereses, es aconsejable apostar a relaciones contractuales virtuosas del tipo gana-gana, procurando que cada parte obtenga sus beneficios sin necesidad de restarle algo a la otra. Si una parte (o la otra, igual da) no gana sistemáticamente, entonces posiblemente se tendrá como consecuencia un traslado de lo perdido a la otra parte, con consecuencias no deseadas en la calidad o el costo de los servicios.

Figura 3. Gestión de múltiples dimensiones

Todos estos procesos pueden hacerse de cualquier manera o con un importante soporte de control de calidad. Las dos opciones son curiosamente muy usadas. La segunda es obviamente la más recomendable. Es importante tener presente el tema calidad en el proceso de las contrataciones y pone el foco en las personas y no en los procesos. Como referencia, se destaca especialmente de Julio Lobos: La calidad a través de las personas, pues pone el énfasis en las personas – no en los procesos - para realizar los procesos de transformación en búsqueda de la calidad en las organizaciones. Johnson (2004) destaca finalmente la conveniencia de equiparar las expectativas con las necesidades e incluir dentro del contrato de outsourcing un plan de contingencia. Y esto hacerlo conservando el dinamismo necesario para trabajar en un ambiente cambiante incluyendo mantener el derecho de invitar u ofrecer personal para nuevos trabajos e identificar requerimientos que pueden cambiar y serán necesarios de ajustar. Hay que asegurarse que los acuerdos de niveles de servicio pactados sean siempre realistas para respaldar la gestión. Además no se espera permanezcan estáticos por lo que hay que adaptarlos, 163


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

tomando siempre el punto de referencia del servicio, considerando aproximaciones alternativas.

7. La importancia de desarrollar bien todo el proceso Un tema muy importante para lograr buenos resultados es seleccionar adecuadamente al socio proveedor de los servicios, sobre todo cuando se trata de integrarlo en aspectos medulares del negocio. Ripin y Sayles (2000, 61) realizan un interesante estudio. Concluyen que esa integración no pasa por escribir cuidadosas especificaciones de requerimientos, sino por buscar información adecuada y comenzar a estructurar el diálogo con potenciales interlocutores para realizar las exploraciones preliminares. Luego seguramente se generarán espacios para formar una asociación creativa para buscar soluciones. «En esta etapa del proceso el cliente seguramente tendrá cuatro a cinco propuestas para evaluar. Tendrá que evaluar la habilidad técnica de cada proveedor, la experiencia de cada uno de ellos en casos similares, la cultura de cada empresa, evaluación financiera de cada propuesta, entendimiento de los requerimientos y situación del cliente, etc. Para que la evaluación sea efectiva hay que basarse en los objetivos de la tercerización y considerar todo contacto previo que se realizó con el proveedor, por ejemplo durante el período de preparación de las propuestas» (Payssé, 2005, 40). Otro asunto relevante para el desarrollo del emprendimiento es la negociación adecuada del contrato, entendido como una declaración de trabajo entre las partes, que debe ser adecuadamente construida, considerando las mejores prácticas que no deben excluir una valoración ética de la relación. Es necesario que esta declaración de acuerdo de partes, integre adecuadamente las bases de conocimientos del cliente (qué, cuándo y por qué) y del contratista / vendedor (cómo, dónde y quién) y establezca condiciones como duración del contrato y normas de cumplimiento del servicio, permitiendo manejar la incertidumbre razonablemente, además de los aspectos éticos fundamentales del acuerdo. A pesar de todo lo que se trabaje para evitar los conflictos, éstos se presentarán y habrá que enfrentarlos. Si las preocupaciones van por el lado de la problemática de la negociación, que es uno de los talones de Aquiles de la aplicación práctica del procedimiento de contratación 164


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

es muy recomendable el clásico de Fisher, Ury y Patton (1994) y Ury (1995), recordando especialmente sus sugerencias prácticas para negociar con personas que adoptan posiciones obstinadas. Y buscar caminos de entendimiento siendo especialmente duro con los problemas y más flexible (acertivo) con las personas. Luego de cumplida la fase anteriormente mencionada, se deberá entrar en el proceso de desarrollo de las actividades de tecerización en sí mismas. Se deberá diagramar y definir un equipo a cargo de la administración de la relación del proceso de outsourcing en la etapa de ejecución. En este paso es fundamental, convocar a las personas idóneas según sus habilidades para garantizar el desarrollo del proceso y generar una estructura adecuada para el respaldo del mismo. No es bueno que en esta etapa participen agentes de ambas partes si realmente no conocen en profundidad el negocio a tercerizar y también las mejores práticas para poder hacerlo. El proceso de tercerización requiere además que se establezcan vías de comunicación abiertas, claras y honestas (Salaberry, 2004) desde las primeras etapas para todo el personal que se pueda sentir involucrado. Esta prevención ayudará a despejar tormentas virtuales generadas por el rumor mejorando el clima organizacional. También se deberán aplicar fuertes procesos de capacitación y entrenamiento al personal para prepararlo para el nuevo escenario. Finalmente deberán generarse incentivos para retener a los empleados más valiosos para atender los problemas que se irán generando. Para Johnson (2004) es necesario cuidar especialmente la comunicación institucional durante todo el proceso, mantener contacto en todos los niveles entre las partes, incluso si las cosas están funcionando bien, establecer una relación abierta y estar preparado para tomar el compromiso, generar una relación de confianza con el proveedor y realizar reuniones regulares para realizar seguimiento de los resultados. Y sobre todo el tratamiento de los incidentes, problemas y errores. Se debe cuidar especialmente la conveniencia de definir procedimientos escalables, no abusar de ellos y animar a las partes a que actualicen las formas de trabajo. Como en cualquier emprendimiento en que interactúan muchas personas muy diferentes, adquiere especial importancia la capacidad de comunicación entre las partes. Como muy bien plantea Borrell (1996) «nos pagan para comunicarnos bien». En particular, hay que tener presente que la comunicación interpersonal es una herramienta de primera línea 165


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

para mejorar el funcionamiento de las organizaciones (Figura 4), y eso es todavía más importante cuando se desarrollan proyectos de cambio muy complejos en que se cambian patrones de comportamiento. El adecuado equilibrio entre metas de corto y largo plazo y el proceso de eventuales ajustes es fundamental en el desarrollo del emprendimiento. Lo aconsejable es apostar a relaciones contractuales adaptables y duraderas en el tiempo, pero que puedan ajustarse. Se deben considerar condiciones contractuales flexibles y también limitantes en los plazos involucrados para tener un panorama claro de variaciones posibles y de fronteras temporales. Deben generarse opciones para contemplar los requerimientos cambiantes, mediante instancias formales que prevean cláusulas gatillo y posibilidades de renegociaciones de forma periódica.

Figura 4. Procesos sociales de transformación

Según Salaberry (2004), medir es importante y hacerlo sin problemas mucho mejor. La medición no problemática es clave para no comprometer la relación entre las partes. Los administradores de tecnologías de la información a través del tiempo han intentado medir y evaluar el desempeño de los servicios provistos a sus compañías y también por terceros, pero esta visión sufría una miopía en sus comienzos debido a que lo observado estaba enfocado en el área de hardware y software como entidades independientes cuando forman parte de un sistema que opera de manera fuertemente relacionadas. Pensando en la naturaleza de los objetos que tienen que ser administrados, los aspectos relevantes a considerar en la evaluación de proyectos de outsourcing son esencialmente funcionales (y no técnicos) y tienen que ver fundamentalmente con cuestiones como la disponibilidad o el rendimiento (performance) de los servicios, los niveles de carga de tra166


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

bajo requeridos, la exactitud en los datos manejados o la restauración a una situación estable ante condiciones de corte. Además en procesos de prestación de servicios de outsourcing que se extienden mucho en el tiempo, también importan aspectos como la gestión continua de la seguridad que debe definir quién puede acceder al servicio, la naturaleza del acceso autorizado, el reporte de accesos no autorizados y los mecanismos utilizados para la detección y aspectos de prevención, incluyendo cuestiones relacionadas con la auditabilidad de los procesos incluyendo la trazabilidad de las actuaciones. Las contrataciones informáticas -y especialmente las de outsourcingsiguen formando parte de un mundo sumamente dinámico que debe explorarse constantemente para no comprometer la propia capacidad profesional al comprender los cambios acelerados que se producen en los requerimientos de los servicios usuarios y consecuentemente poder encarar propuestas acordes con tales cambios. Estas condiciones generan en buena medida, la necesidad de medios alternativos de formación e intercambio de experiencias.

8. La oportunidad de trabajar con niveles de servicio Para darle contenido al contrato se establecen niveles de servicio. Los niveles de servicio definen indicadores (por ejemplo disponibilidad de utilización de un componente informático crítico como los discos del sistema o una transacción importante) y medios de evaluación (por ejemplo estadísticas de uso provenientes de la bitácora de uso de ese componente) que serán requeridos en el contrato. Consecuentemente, en el desarrollo de un contrato importa, y mucho, la capacidad de la organización contratante de administrar esos niveles de servicio en los términos requeridos y de la organización prestataria de poder cumplirlos adecuadamente. Para ello es importante que cuente con la capacidad de gestionar los niveles de servicio y la formalice en un instrumento de gestión de procesos, conocido como Service Level Management (SLM). El SLM «es la metodología y procedimientos pro-activos utilizados para asegurar la entrega de un adecuado nivel de servicio a todos los usuarios de IT, de acuerdo con las prioridades del negocio y con un costo aceptable» (Sturum, Morris y Jander, 2000). Con la gestión de los recursos informáticos a través de SLM, el área de IT puede prever los 167


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

problemas y resolverlos con rapidez, lo que los coloca en una situación pro-activa en vez de reactiva. La importancia de la gestión de niveles de servicio (SLM) para el departamento de tecnologías de la información es de un alto grado, ya que sirve como conducto para lograr obtener un desempeño adecuado. Establece pautas de gestión de los recursos, haciendo explícito lo que se está administrando. Las principales causas que motivan una gran atención en la aplicación de SLM en los últimos tiempos son básicamente el crecimiento en el número de aplicaciones y la importancia de estas y el aumento en la sofisticación de los usuarios y su creciente insatisfacción con el nivel de servicio que están recibiendo. La herramienta que sirve para apuntalar y cristalizar el concepto de SLM es SLA (Service Level Agreement). «Un acuerdo de niveles de servicio (SLA) es una “herramienta” que ayuda a los proveedores y clientes de un servicio a llegar a un consenso en términos de nivel de servicio requeridos para sustentar las necesidades del negocio” Un contrato de SLA define tanto las responsabilidades del proveedor del servicio, como las de los usuarios de dicho servicio prestado. También identifica y define los servicios suministrados, así como los productos soportados, criterios de medición, criterios de reporte, niveles de calidad del servicio, performance, disponibilidad y recuperación, satisfacción del cliente, recursos, costos, etc.» (Payssé, 2005, 5). El SLA es la forma práctica de clarificar las expectativas respecto del servicio. «Típicamente, el propósito de los SLA es la especificación de las expectativas del cliente con respecto a los servicios que desea recibir del proveedor de IT en una forma aceptada entre las partes. Cuando se desarrolla un acuerdo de nivel de servicio, se crea una buena oportunidad para establecer un alineamiento entre los servicios que brinda el proveedor con las metas y requerimientos de los clientes. Esto implica establecer un modelo de negocio para el proveedor de servicios de IT que focaliza sus esfuerzos en asegurar que sus servicios podrán ser medidos y entregados en el nivel de servicio que satisface al cliente» (Payssé, 2005: 55). Un SLA adecuadamente especificado, genera mayor claridad para establecer el relacionamiento entre las partes contractualmente vinculadas y a la vez sirve como un vehículo de comunicación entre ambas, fija estándares mutuos por el servicio requerido y además define cómo el nivel de servicio establecido será medido en cada caso. Define la forma y el contenido de establecer el vínculo y cómo va a ser evaluado, esta168


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

bleciendo los instrumentos necesarios para mejorar las comunciaciones y resolver los conflictos propios de la administración de los servicios de outsourcing, que pueden ser muy complejos. Otro aspecto fundamental son las responsabilidades debidamente documentadas de cada parte. Según Payssé (2005, 5), los beneficios que se obtienen con un SLA son: establecer las responsabilidades de las partes involucradas; crear niveles de servicio que son negociados y estandarizados, documentar claramente cuales son los acuerdos pactados, definir los criterios de evaluación de los servicios prestados, proveer una base para realizar un mejoramiento continuo de los servicios, favorecer la comunicación de las partes y proveer permanencia y aportar claridad en las expectativas de los involucrados. Un SLA opera como un medio por el cual se establece un estándar para medir el nivel de servicio brindado. A su vez, un SLA debería definir que niveles de servicio son considerados como aceptables y por contrapartida los niveles que el proveedor debiera comprometerse a brindar. Al estar documentadas las expectativas de los especialistas y los usuarios de la tecnología y los sistemas en un SLA, éstas sirven como punto de referencia de las partes al momento de demandar prestaciones específicas relacionadas con los requerimientos de sus servicios. Un acuerdo bien documentado, afirma Salaberry (2004), debería contemplar aspectos como la identificación de las partes del acuerdo, el plazo de duración del acuerdo, el alcance del acuerdo, definiendo los servicios cubiertos, las limitaciones, como ser el volumen, la topología, los objetivos del nivel de servicio y los indicadores de niveles de servicio. Adicionalmente el acuerdo debería contemplar una identificación de casos normales y excepcionales relacionados con la ejecución incluyendo opciones y exclusiones; además de cuestiones operativas como la administración general, la emisión de reportes, las revisiones y las aprobaciones del contrato. Los niveles de servicio típicamente son definidos en términos de disponibilidad y rendimiento. Puede definirse disponibilidad como el porcentaje de tiempo que el servicio está en condiciones de ser utilizado. Es el factor más importante que influencia directamente en la percepción que tiene el usuario sobre la calidad del servicio. El rendimiento de un servicio es el resultado de la conformidad de la aplicación del mismo a usuarios interactivos y del tiempo requerido para completar cada trabajo a ser procesado junto con la respuesta de la aplicación. Niveles de respuesta inesperados, serán percibidos como inaceptables. 169


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

También importan -como parte de los niveles de servicio- aspectos como la seguridad física o lógica, definida como quién puede acceder al servicio, la naturaleza del acceso requerido, el reporte de accesos no autorizados y los mecanismos utilizados para la detección y prevención. En la misma línea de importancia, está la restauración del servicio a una situación estable ante condiciones de corte no planeadas, tan rápido como sea posible. El objetivo de una recuperación, es restablecer el servicio rápidamente para darle continuidad al negocio o estar tan cerca de alcanzarlo, como sea posible. La práctica de establecer SLM y SLA, señala Salaberry (2004, 41), se analiza desde dos puntos de vista (positivo y negativo). Por el lado beneficioso, los SLM tienen: importancia creciente debido a su popularidad mundial, cuentan con una gran variedad de casos exitosos y han probado que sirven para bajar los costos de administración. Como contrapartida, los SLA requieren un enorme tiempo y esfuerzo para ser implementados, muchos proveedores le sacan indebidamente partido propio y se afirma que pueden ser una moda pasajera. Como síntesis final de este punto -en un contexto de oportunidades de desarrollo y algunas llamadas de atención- se reseña que un SLM (Service Level Management) es un proceso de gestión, mientras que un SLA (Service Level Agreement) es un documento fruto de una serie de procesos. Ambos son componentes importantes para gestionar y para documentar los contratos de outsourcing o en general, cualquier otro contrato de servicios. Hay que aprender a manejar bien lo que puede ofrecer cada uno de los componentes. Y sobre todo las oportunidades que ofrecen para solucionar conflictos.

9. Conclusiones • Mas allá de los medios – y tercerizar es uno de ellos - hay que saber adónde ir, antes que acordar cómo deberíamos hacerlo. Por ello se ha planteado prioritariamente entre las recomendaciones, tomar conciencia de la complejidad de los procesos empresarios y sobre todo, analizar cuidadosamente las alternativas para rediseñarlos exitosamente. Los modelos mentales para realizar este trabajo, e ir aprendiendo en el camino, se apartan del enfoque reduccionista de mediados del siglo XX, para requerir modelos más orientados al pensamiento sistémico en la línea de la propuesta de la quinta disciplina de Peter Senge (1992) y sus seguidores. 170


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

• Lo que actualmente se maneja internamente en las organizaciones y lo que se terceriza está cambiando muy rápidamente. Los procesos de outsourcing suelen ser cada vez con mayor asiduidad, componentes muy importantes de la propia estrategia institucional de las organizaciones de cara al siglo XXI, tanto públicas como privadas. La idea es que dichas organizaciones puedan bajar sus costos informáticos y dedicarse a sus actividades sustantivas sin mayores riesgos. Lo que mejora su posicionamiento para enfrentar nuevos retos en contextos muy cambiantes. • Se requieren bienes y servicios informáticos muy complejos a precios razonables y por plazos muy largos. Esto plantea la conveniencia de realizar un cambio de enfoque en la administración de los proyectos de transformación. Antes estos proyectos se hacían mayoritariamente con recursos propios y ahora, se utilizan además recursos de terceros. En este contexto, la tarea de administrar tecnologías de la información ha sufrido un proceso de profesionalización creciente y sostenido. Proceso que se ha acelerado, con el aporte de terceras partes en modalidad de outsourcing. • Es necesario mantener los conocimientos del negocio. Se reivindica nuevamente la necesidad de contar con Subject Matter Expert (S.M.E.) que son técnicos internos que ostentan la mayor experiencia en efectuar una determinada tarea. Se requieren frecuentemente en estos proyectos, un alto grado de especialización para manejar especificaciones técnicas y condiciones contractuales diferenciadas para atender por ejemplo el desarrollo o mantenimiento de aplicaciones a medida, la implantación de paquetes estándares o la operación de sistemas en producción. • La propia tarea de integrar agentes diferentes que hagan su aporte en las compañías, también ha evolucionado, cuando se necesitan manejar opciones de tercerización. La gestión de la relación de las partes en un contrato de outsourcing es de por si una problemática muy complicada, que debe procurarse encarrilar a través de la utilización de las mejores prácticas de gestión. Esa es la principal ganancia metodológica que propone la existencia de un SLM, como una guía operacional para encarar la gestión, que es algo muy útil para cualquier servicio, incluso uno que no esté tercerizado. • Para administrar adecuadamente los recursos de la organización en el marco de las tercerizaciones, es necesario definir un contrato adecuado para regular las acciones entre proveedor y receptor, donde se formalicen cuestiones que hacen a la correcta especificación de la tarea a realizar, como los niveles de servicio, estableciendo las 171


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

funcionalidades requeridas y como medirlas. En este contexto, se valorizan particularmente los SLA, como instrumentos para administrar profesionalmente la relación contractual. Para establecer un marco de referencia para poder gestionar adecuadamente el contrato. Los aspectos relevantes en los acuerdos de nivel de servicio son esencialmente funcionales y tienen que ver con cuestiones como la disponibilidad o el rendimiento de los servicios, con cuestiones de seguridad y auditabilidad de las operaciones y con el control de los costos de operación de los sistemas. Todas problemáticas muy relevantes, especialmente cuando se trata de asuntos como el manejo de los sistemas de información y las tecnologías asociadas, que hacen al modelo con el que de administra la organización y sirven de soporte a la toma de decisiones empresarias. El manejo de la información y el conocimiento resultan claves, cuando no la sabiduría para acordar en condiciones conflictivas. Como concepto clave de la gestión, Salaberry (2004) sostiene que se debe manejar la información y el conocimiento de la organización, como algo muy dinámico y por ende contemplar que cambia a lo largo del tiempo y requiere tambien ajustes en los servicios y los contratos asociados. El ejemplo más claro de ello según el autor, fue el boom de mediados de los años 90 con Internet, si se aplicaba un contrato rígido de outsourcing a 10 años, a comienzos del mileno, quedaban fuera del acuerdo cuestiones fundamentales del servicio. Debe tenerse presente que las contrataciones informáticas (y específicamente los contratos de outsourcing) son, hoy por hoy, uno de los instrumentos de cambio más poderosos que existen para mejorar rápidamente el funcionamiento de las organizaciones. No solamente cuando se introducen cambios mediante fuertes inversiones en tecnología, sino, y principalmente, cuando se aprende a administrar mejor esa tecnología, incluyendo eventuales asociaciones con terceras partes para capitalizar sus potencialidades, potenciando los negocios sustantivos de una compañía. El objeto de este tipo de contrataciones ha comenzado a cambiar gradualmente en los últimos veinte años, pasando de ser simples instrumentos para el procesamiento de grandes cantidades de información en los servicios de apoyo administrativo en sus comienzos, a ser la base de cambios importantes en las actividades sustantivas, especialmente en las compañías medianas o grandes, desde fines de la década de los 80, hasta nuestros días. Y a su vez, la apertura que ha generado la red, ha agregado todavía mayor complejidad a las operaciones utilizando Internet.

172


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

• Además de estos cambios en el alcance funcional y los medios empleados, se ha comenzado a dar un proceso mantenido de integración de servicios provenientes del sector privado en el sector público, que se ha desarrollado a través de contrataciones de outsourcing, que comenzaron con actividades periféricas, como la limpieza de edificios, pero que han llegado hasta la operación de los principales sistemas informáticos en producción, esenciales para mantener los servicios de atención de clientes en funcionamiento y en los últimos tiempos a la integrción de sistemas trasversales. • No hay recetas mágicas para encarar tamaños desafíos. Por supuesto que se pueden encontrar gran cantidad de propuestas prácticas recomendables para encarar estos procesos. Muchas de ellas son realmente muy interesantes. En particular, la completa guía presentada por KPMG con distintos principios generales a seguir para poder obtener un outsourcing exitoso (KPMG Impact Programme, en el libro Outsourcing in brief, de Mike Johnson). Constituye una muy buena lista de control inicial de principios de gestión, administración de recursos humanos, comunicación institucional, manejo general del negocio y atención especial de los servicios involucrados. • El problema a resolver no pasa por contar con muy buenas guías de apoyo. El desafío que deben enfrentar los agentes decisores, no es sólo un problema de lograr el mayor entendimiento sobre las mejores prácticas. La necesidad de «adecuación de las respuestas vitales de los individuos», planteada por Bustamante (2005), genera necesidades de cambio en los modelos mentales de abordaje de las contrataciones de outsourcing, que requieren transformaciones institucionales, grupales y personales que van más allá de los que puedan aportar puntuales instructivos sobre lo que habría que hacer en cada situación, por mejor formulados que éstos estén. • A pesar de la complejidad planteada precedente y considerando todo lo complicado que resulta una contratación de tecnologías de la información de este tipo, finalmente todo se reduce como muy bien explicaron Ripin y Sayles (2000, 27), a establecer claramente lo qué hay que hacer, expresarlo adecuadamente, seleccionar un buen socio-contratista, verificar el desempeño y pagar puntualmente por él. Y si el desempeño no satisface las expectativas, terminar la relación contractual, perdiendo lo menos posible. Así de sencillo, cuando se expresa tan claramente, aunque luego cueste tanto lograrlo, si no se cuenta con «la capacidad de asimilación, de reflexión, de comprensión de las nuevas situaciones», referida por Bustamante (2005).

173


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

Bibliografía ANDREU, Rafael; RICART, Joan y VALOR, Josep. (1996). Estrategias y Sistemas de Información. México: McGraw-Hill Iberoamericana. BENDOR-SAMUEL, Peter. (2000). Turning lead into gold. USA: Executive Excellence Publishing. BUSTAMANTE DONAS, Javier. (2005) Dilemas éticos en la sociedad de la información: apuntes para una discusión. [en línea]. Sevilla (España): Universidad de Sevilla. <www.argumentos. us.es/bustaman.htm> [consulta: 01/07/2009]. BORRELL, Francesc. (1996) Comunicar bien para dirigir mejor, Barcelona: Gestión 2000. BRIAN HEYWOOD, Jennings. (2002) El dilema del Outsourcing. Madrid: Pearson Educación. CANEDO, Andrea y PENA, Patricia. (2002) Tercerización de Tecnologías de la Información. Tesis de Maestría, Montevideo: Universidad Católica del Uruguay. CHAMPY, James. (1995) Reingeniería en la gerencia, Bogotá: Norma. CLARK, Thomas; ZMUD, Robert y MCCRAY, Gordon. (1995) The outsourcing of information services: transforming the nature of business in the information industry, [en línea]. Montevideo (Uruguay): Universidad Católica. <www.palgrave-journals.com/jit/journal/v10/n4/.../jit199526a. html > [consulta: 10/07/2009]. CORREA, Carlos; BATTO, Hilda; CZAR DE ZALDUENDO, Susana y NAZAR ESPECHE, Félix. (1987) Derecho Informático, Buenos Aires: Depalma. EVANS, Philips y WUSTER, Thomas. (2000). Blown to bits. USA: Harvard Business School Press. FISHER, Roger; URY, William y PATTON, Bruce. (1994). Obtenga el sí: El arte de negociar sin ceder. México: Continental. JOHNSON, Mike. (2004). Outsourcing in brief. Documento de KPMG Impact Programme. GREAVER, Maurice. (1999). Strategic Outsourcing. (USA): AMACOM. GTNEWS (2002). GTNews de Septiembre de 2002. [en línea] Bethesda (MD, USA): GTNews, Perspectives Guiding Global Treasury and Finance. <http://www.gtnews.com/default.cfm> [consulta: 20/08/2009] OUTSOURCING INSTITUTE (2004). 7th Annual Outsourcing Index [en línea]. Jericho, (NY, USA): The Outsourcing Institute (OI). <http://www.outsourcing.com/content.asp?page=01b/other/oe/ q304/7index.html&nonav=true> [Consulta: 08/2009] OUTSOURCING CENTER. Documentos de referencia [en línea]. Dallas (TX, USA): Outsourcing Center. <http://www.outsourcing-center.com/> [consulta: 07/2009] PAYSSÉ, Milagros. (2005) Acuerdo de niveles de Servicio en Outsourcing de IT. Tesis de Grado. Montevideo: Universidad Católica del Uruguay. PETRELLA, Carlos. (1993) Licitando dolores de cabeza. Contrataciones informáticas estatales. Montevideo: Ediciones de la Plaza. PETRELLA, Carlos. (1997) El lado humano de la computación. Montevideo: Big Ben. PETRELLA, Carlos. (1999 a) Licitaciones informáticas exitosas, Parte a: Básico, Montevideo: Ideas. PETRELLA, Carlos. (1999 b) Licitaciones informáticas exitosas, Parte b: Anexos, Montevideo: Ideas. PHILLIPS, Donald. (1993) Lincoln y el liderazgo. Buenos Aires: Compañía Editora Espasa Calpe Argentina. RIPIN, Kathy y SAYLES, Leonard. (2000) La contratación de servicios externos de sistemas de información. México: Oxford University Press. ROTHERY, Brian y ROBERTSON, Ian. (1996) Outsourcing. México: Limusa. SALABERRY, Washington. (2004) Estudio de campo de outsourcing de TI en el Uruguay. Tesis de Maestría, Montevideo, Universidad Católica del Uruguay. SENGE, Peter. (1992) La quinta disciplina. Buenos Aires: Juán Granica. STURM, Rick; MORRIS, Wayne and JANDER, Mary. (2000) Foundations of Service Level Management, USA: SAMS Publishing. URY, William. (1995) ¡Supere el no! Cómo negociar con personas que adoptan posiciones obstinadas. Bogotá: Norma.

174


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

ARTÍCULO MONOGRÁFICO

Artefactos awareness para groupware que apoyen el trabajo colaborativo en comunidades indígenas del Cauca Andino1 [Groupware awareness devices to support collaborative work in indigenous communities of the Andean Cauca] Catalina Dejesú s-Vega - Deiby Argote-Bolaños - Pablo Augusto Magé-Imbachí2 Recibo: 15.09.2009 - Ajuste: 24.09.2009 - Ajuste: 13.11.2009 Aprobación: 17.11.2009

Resumen En la actualidad el uso de sistemas colaborativos en entornos organizacionales, empresariales, académicos, entre otros, ha tenido un gran auge gracias a los múltiples beneficios que ofrece. En organizaciones como las comunidades indígenas colombianas del Cauca Andino y en particular en el resguardo de Puracé pueblo de los Kokonucos, caso de estudio de la presente investigación se originan numerosas dinámicas administrativas llevadas a cabo, en muchos casos mediante el trabajo colaborativo que realizan los miembros del ente que las rige, el cual es denominado Cabildo Indígena3. Sin embargo estas comunidades no cuentan con sistemas colaborativos que soporten dichas dinámicas. Partiendo de la situación anterior este artículo presenta en una primera parte el concepto de awareness4, como característica no funcional por

1 Modelo para citación: DEJESÚS VEGA, Catalina; ARGOTE BOLAÑOS, Deiby y MAGÉ IMBACHÍ, Pablo Augusto. (2009). Artefactos awareness para groupware que apoye el trabajo colaborativo en comunidades indígenas del Cauca Andino. En: Ventana Informática. No. 21 (jul-dic., 2009). Manizales (Colombia): Universidad de Manizales. p. 175-195. ISSN: 0123-9678 2 Grupo IDIS, Universidad del Cauca. Popayán, Cauca, Colombia. Correos electrónicos: {cdejesus, dargote, pmage}@unicauca.edu.co. 3 Cabildo Indígena: Entidad pública especial, cuyos miembros son indígenas elegidos y reconocidos por una parcialidad localizada en un territorio determinado, encargado de representar legalmente a su grupo y ejercer las funciones que le atribuye la ley y sus usos y costumbres. 4 Awareness: Termino anglosajón que significa conciencia o percepción de grupo Nº 21 - Universidad de Manizales, julio - diciembre/2009 - pp 175-195

175


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

excelencia de los sistemas groupware5, así como los trabajos relacionados con algunos artefactos awareness soportados en estos sistemas. En la segunda parte del documento se muestra el resultado de la investigación realizada al interior del Cabildo Indígena de Puracé, el cual permitió identificar procesos administrativos con características de trabajo colaborativo. En la parte final del documento se encuentra la propuesta de un sistema CSCW6 con características de awareness que soporte algunos procesos colaborativos originados al interior del cabildo. Palabras Clave: Awareness; CSCW; Comunidades Indigenas; Kokonucos;Groupware.

Abstract Nowadays, the use of collaborative systems in organizational, business and academic settings has had an enormous rise thanks to the multiple benefits they offer. In organizations such as the Indigenous Communities of the Andean Cauca in Colombia and in particular in the guard of Purace, town of the Kokonucos, numerous administrative dynamics take place and are carried out in many cases through the collaborative work completed by the members of their ruling body, which is known as the Indigenous Cabildo. However, these communities do not rely on collaborative systems that support such dynamics. Starting with the previous case this article presents in the first part the concept of awareness as a main non-functional feature of groupware, as well as some related work with awareness devices supported in these systems. The second part of the document shows the results of the research inside the Indigenous Cabildo of Purace, which allow the identification of administrative processes with features of collaborative work. The final part of the document proposes a CSCW system with awareness features to support collaborative processes originated from inside the Cabildo. Keywords: Awareness; CSCW; Indigenous Communities; Kokonucos; Groupware.

5 Groupware: Intentional group processes plus software to support them (Software que soporta procesos de grupo). 6 CSCW: Computer Supported Cooperative Work (Trabajo Cooperativo Soportado por Computador)

176


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Introducción Las sociedades modernas se están beneficiando con los avances tecnológicos de las TIC, pero las comunidades indígenas colombianas están quedando rezagadas en el uso de estos avances «en los pueblos indígenas del territorio nacional esto ha generado una brecha enorme en el acceso y la diseminación de la información, de y hacia su población, debido a la poderosa presencia de intereses económicos en los medios de comunicación y las transnacionales de la información en Colombia, junto a las políticas discriminatorias del Estado» (Otero, 2008, 9). Esta situación conduce a las comunidades indígenas del departamento del Cauca, a la aplicación de estrategias que permitan fortalecer sus formas de comunicación mediante nuevos medios. Según Otero (2008), con esto se han logrado ciertos beneficios, pero no los suficientes para satisfacer las numerosas necesidades de las comunidades, puesto que se han implementado en su mayoría sólo servicios básicos ofrecidos por las TIC, favoreciendo a pocas comunidades e ignorando de alguna manera a muchos pueblos indígenas colombianos. Según Alcázar (2005), en la actualidad, el uso de las TIC es considerado como el impulso para el desarrollo de una nueva sociedad basada en la información y el conocimiento, puesto que cada día, más personas incorporan su uso; en la dinámica de sus labores tanto individuales como colectivas. Actividades diarias como la forma de trabajo o de diversión de los individuos son apoyadas por los avances tecnológicos. Un caso particular es el trabajo colaborativo desarrollado por un grupo de personas en una empresa u organización; para el cual existe cierto tipo de herramientas groupware con algunas características de awareness7. Sin embargo, aún no se tienen herramientas de esta naturaleza para organizaciones indígenas que demanden su implementación, esto puede deberse, según Sendín (2006) a que los diseñadores de groupware no cuentan con directrices o frameworks guías para la creación de entornos colaborativos de diversos ámbitos, así como tampoco para la incorporación de artefactos de awareness en ellos. Se opta entonces por seguir un enfoque centrado en el contexto8 de grupo, para la creación de un sistema con las anteriores 7 Características de awareness: La implementación de estas características en el groupware permite tener bien informados a los individuos de la organización de las actividades que realizan sus compañeros en el espacio de trabajo. 8 Contexto: Según del diccionario en línea WordReference se trata del conjunto de circunstancias que rodena o condicionan un hecho.

177


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

características; realizando una investigación de las personas, los grupos y los recursos. De acuerdo con Alarcón (2005), estos son los tres elementos mínimos, comunes y útiles para determinar el contexto del grupo, además el enfoque seleccionado se ajusta muy bien a la investigación socio-técnica llevada a cabo, pues según Totter (1998) la parte social es un factor relevante en el desarrollo del groupware y puede llevarlo al éxito o al fracaso. Con el fin de ayudar y aportar al mejoramiento de las estrategias de desarrollo y crecimiento creadas por las comunidades indígenas, se encuentra en marcha el proyecto “Sistema Groupware Con Soporte de Awareness para Beneficiar el Trabajo Colaborativo Originado en la Dinámica Administrativa de las Comunidades Indígenas del Cauca Andino” propuesta que se encuentra enmarcada dentro un proyecto de mayor envergadura denominado Análisis, uso, adecuación y apropiación de servicios sobre tecnologías inalámbricas en zonas de difícil acceso de las poblaciones indígenas del Cauca Andino9. Esta propuesta busca aprovechar la forma de trabajo colaborativo inmerso en la cultura de las comunidades indígenas; para apoyarlo mediante medios virtuales; y de esta manera aprovechar los beneficios de las TIC para facilitar y fortalecer el trabajo administrativo de los grupos, haciéndolo posible en escenarios donde sus miembros se encuentren dispersos geográficamente. Se expondrá entonces la propuesta de una herramienta groupware con mecanismos de awareness que busca potenciar las posibilidades de colaboración. A continuación se presenta el estado del arte, tanto de los mecanismos de awareness presentes en sistemas groupware asíncronos, síncronos y semi-asíncronos, como de los tipos de awareness desde las ciencias sociales.

9 Análisis, uso, adecuación y apropiación de servicios sobre tecnologías inalámbricas en zonas de difícil acceso de las poblaciones indígenas del Cauca Andino: Proyecto en el cual participa un equipo de trabajo interdisciplinario, conformado por algunos miembros de los grupos I+D: GNTT (Grupo I+D Nuevas Tecnologías en Telecomunicaciones) – GESC (Grupo de Estudios Sociales Comparativos) – IDIS (Investigación y Desarrollo en Ingeniería de Software) de la Universidad del Cauca, contando con la financiación de FRIDA (Fondo Regional para la Innovación digital en América Latina y el Caribe), durante el periodo 2008-2009.

178


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

1. Mecanismos awareness en sistemas groupware El concepto de awareness está cobrando cada vez más importancia dentro de los entornos colaborativos, debido a un incremento en el número de participantes y a la cantidad de información que no está siendo administrada correctamente en estos entornos, es por esto que muchos grupos de investigación dentro del CSCW centran sus estudios en el awareness. «Sin un buen awareness la facilidad y naturalidad de las colaboraciones se pierde y las herramientas groupware dejan de ser útiles para llegar a convertirse incluso en un obstáculo» Penichet (2007, 97). Los sistemas groupware que proporcionan información de awareness son distinguidos de acuerdo a la naturaleza temporal que soportan (asíncronos, síncronos y semi-asíncronos): los sistemas groupware asíncronos soportan colaboración en tiempos diferentes; los sistemas groupware síncronos soportan colaboración en tiempo real; y los sistemas groupware semi-asíncronos aplican la noción de lugar más que de sección o reunión, donde se pueden tener características, tanto de sistemas asíncronos como síncronos. Los mecanismos awareness proporcionados típicamente por los sistemas groupware se presentan en la Tabla 1. Tabla 1. Mecanismos Awareness en Sistemas Groupware (Totter, 1998, 3) Sistemas Groupware que proporcionan awareness Sistemas Groupware asíncronos (ej. captura de sesión y sistema de repetición)

Editores colaborativos de gráficos y de texto síncronos. (ej. GroupDesign)

Características para proporcionar información de awareness de grupo Captura de las interacciones de los usuarios con algunas aplicaciones y registro de los datos en un objeto de sesión; capturando las acciones de los usuarios. Características claves: Repeticiones de las acciones pasadas de los usuarios (lo que tú ves ahora es lo que yo vi entonces) (what-you-see-now-is-what-Isaw-then, WYSNIWIST) Herramienta de dibujo para computadores Macintosh Apple, diseñado para la colaboración entre un número largo de usuarios creando graficas estructuradas. Características claves: • Los objetos manipulados son marcados con el icono de ocupado por el color del usuario • Notificaciones de audio y graficas acerca de los cambios (‘echo’) • Búsqueda de las posiciones de otros usuarios (modo de localización) • Los objetos tienen el color de los usuarios que han creado o modificado por última vez un objeto (modo de identificación) • Mecanismos históricos

Información de awareness proporcionada

Awareness de espacios de trabajo.

Awareness de espacio de trabajo, audio y video echo.

179


Nº 21 - Universidad de Manizales, julio - diciembre / 2009 Sistemas Groupware que proporcionan awareness Editores colaborativos síncronos con awareness acerca de los actores (ej. ClearBoard)

Ambientes virtuales colaborativos síncronos (ej. MASSIVE)

Ambientes de oficina virtual semi asíncronos

Sistemas de notificación de eventos semi asíncronos (ej. Khronika, GroupDesk)

*

180

Características para proporcionar información de awareness de grupo Medio de grafico compartido para la colaboración remota entre dos usuarios en modo síncrono. La metáfora clave aplicada es “hablar a través de y sobre una ventana de cristal transparente”. Características claves: • La imagen de la cabeza del compañero de dibujo es superpuesta con la imagen de los artefactos compartidos. • La cámara se enfoca en la cabeza de los participantes permitiendo la transmisión de expresiones y gestos faciales (gaze awareness) • Gestos y dibujos simultáneos Realidad virtual (VR), sistemas de conferencia que soportan comunicación multimedia a través de audio, video, texto, y soportan mediación parcial; esto es, el awareness de otros usuarios es medido en términos especiales. Características claves: • Reuniones simultaneas pueden llevarse a cabo al mismo tiempo • Los usuarios son personificados como blokies mostrando sus características (ej. ´textie´ representando a los usuarios con terminales de texto) • Noción de espacio-distancia entre los medios de influencias que los usuarios puedan usar y la información de awareness que puedan obtener de los demás y que ellos mismos emiten. Los ambientes de oficina virtual se esfuerzan por integrar sin fisuras varios sistemas groupware dentro de un único ambiente virtual. La integración se refiere a la funcionalidad de sistemas groupware como comunicación, cooperación, y awareness, así como a modos de integración como cooperación en tiempo real y cooperación asíncrona. Características claves: • Modelo de oficina personal, se integra documentos y escritorio para la colaboración. • Los salones pueden ser asignados a propósitos especiales. Khronika es un sistema, el cual aumenta el awareness de las personas con respecto a lo que está sucediendo alrededor de ellos durante el tiempo por notificación y navegación de eventos en un ambiente X11. Este recibe información acerca de los eventos desde varios clientes, guarda esto en la base de datos, y libera notificaciones acerca de esta información para los usuarios que están interesados en ella: Características claves: • Los usuarios pueden suscribirse para el tipo de evento en el cual están interesados. • En función de los derechos de acceso a los eventos, Khronika puede proporcionar información sobre todas las actividades de todos los usuarios actualmente registrados y en todos los tiempos y los eventos del sistema. • GroupDesk proporciona información de awareness acerca de las actividades presentes, así como las pasadas y acerca de eventos conectados, los cuales son eventos que están relacionados con las actividades actuales de un usuario, así como eventos no relacionados, los cuales son eventos que no están directamente relacionados con las actividades actuales de un usuario, pero son en general interesantes.

Información de awareness proporcionada

Awareness de espacio de trabajo y gaze awareness*

Awareness informal, Awareness social

Awareness Informal, Awareness de espacios de trabajo compartido

Awareness de espacio de trabajo

Gaze awareness: Es la capacidad de informar lo que alguien está mirando, prestando atención a la dirección de sus ojos.


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Sistemas Groupware que proporcionan awareness

Sistemas basados en WWW semi asíncronos (ej. CSCW3)

Espacios de los medios de comunicación: sistemas de awareness constante (ej. Portholes)

Espacios de medios de comunicación: sistemas de navegación social (ej. Montage)

Características para proporcionar información de awareness de grupo Computer Supported Cooperative World-Wide Web trata de ‘poblar’ Internet – esto es, las páginas Web son consideradas como salas, en las cuales los usuarios entran cuando visitan una página; los usuarios son proporcionados de información de awareness acerca de otros visitantes de la misma página y pueden comunicase con ellos. Características claves: • A los usuarios se les provee con información acerca de otros usuarios quienes visitan la misma página Web o quienes recientemente salieron de la página. • Los usuarios pueden encontrarse con otros en las páginas Web e intercambiar información y marcadores favoritos • Los usuarios pueden chatear en una herramienta de chat tipo IRC y enviar varias clases de iconos y/o emoticones • Los usuarios pueden buscar colegas registrados en el mismo servidor CSCW3 • Los usuarios pueden proporcionar sus perfiles a otros usuarios • Los usuarios pueden anotar las páginas Web de otros • Los usuarios pueden navegar en forma conjunta a través de internet • Los usuarios pueden ocultar su perfil si desean navegar anónimamente Sistemas de Awareness constante (también conocido como estaciones o sistemas disponibles) proporcionan información permanentemente acerca de la presencia, actividades y disponibilidad de los otros en un espacio virtual; el objetivo del proyecto portholes es demostrar que el awareness puede ser soportado a través de largas distancias y sin embargo ser útil. Imágenes de video digitalizadas son enviadas desde Xerox Research Centre en Cambridge, UK, para Xerox PARC en Palo Alto, California y viceversa. Características claves: • Sistemas PVC despliegan imágenes a los otros • El Sistema Edison adicionalmente presenta secuencias de video • El Sistema View-master despliega imágenes de lugares públicos. Los sistemas de navegación social están basados en suposiciones de lo que un usuario desea saber, si cierta persona está presente en el espacio virtual, o más general, quien más está presente en el espacio virtual; Montage usa un modelo hallway. Características claves: • El modelo hallway permite a los usuarios navegar pasajes virtuales y ojear otros oficios; las ojeadas dan una buena impresión si el usuario está en su oficina y si actualmente desea ser abordado. • Si la puerta está abierta, la persona que está cruzando puede mirar; ojear es una acción reciproca- esto es, una persona que es monitoreada puede también mirar a su observador. • Los usuarios pueden poner signos en sus puertas diciendo que están disponibles, ocupados, etc. • Desde estas ojeadas reciprocas, todas la funciones conferencias de video de escritorio pueden iniciarse inmediatamente.

Información de awareness proporcionada

Awareness Informal. Awareness de espacio de trabajo

Awareness Informal. Awareness social

Awareness Informal

La investigación realizada sobre sistemas groupware que soportan mecanismos de awareness permite concluir que no se cuenta con una 181


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

visión muy clara por parte de la comunidad CSCW, en cuanto a la forma de integrar mecanismos de awareness en herramientas groupware, «Típicamente, el conocimiento compartido es poco estructurado, implícito y restringido a la aplicación. Con pocas excepciones, los mecanismos de awareness propuestos hasta el momento involucran soluciones particulares a problemas de dominios específicos, así como aproximaciones y principios aislados, difíciles de generalizar» (Sendín, 2006,10). Se tiene entonces un área dentro del CSCW, con escasas directrices o frameworks que guíen la creación e incorporación de mecanismos awareness en herramientas groupware de diversos entornos. Siguiendo con la investigación de artefactos awareness en sistemas groupware a continuación se expone un estudio de los mismos desde una perspectiva social.

2. Awareness desde las ciencias sociales Los aspectos de usabilidad son un problema común en muchos sistemas groupware que proporcionan información de awareness, y según Totter (1998) en la mayoría de los casos se debe a que los diseñadores de este tipo de sistemas, se enfocan en desafíos técnicos y realizables, más que en un adecuado soporte para la información de awareness de grupo, «Uno de los inconvenientes de los entornos CSCW, es la falta de reconocimiento de la compleja dinámica social donde la actividad grupal se desarrolla» (Sendín, 2006, 2). Teniendo en cuenta lo anterior se presentan a continuación varios tipos de awareness desde una perspectiva social.

1.1 Awareness de grupo • Comportamientos afectivos en forma de expresiones de emoción. • Orientaciones colectivas. • Particularismo.

1.2 Awareness social Para Sheldon y Johnson (1993, 321) existen ocho formas de awareness social. • Awareness de nuestra propia experiencia, desde la autoevaluación: Ej. me siento enojado. • Awareness de nuestra propia experiencia, desde la perspectiva de otra persona: Ej. ella está reaccionando como si yo estuviera enfadado – quizá lo esté. 182


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

• Awareness de la experiencia de otros, desde la auto perspectiva: Ej. ella no tiene derecho a estar tan disgustada. • Awareness de la experiencia de otros, desde la perspectiva de esa persona: Ej. yo estaría también furioso si estuviera allí. • Awareness de la propia apariencia, desde la perspectiva misma: Ej. examinarnos en un espejo. • Awareness de la propia apariencia, desde la perspectiva de otros: Ej. de repente notar que alguien esta observándonos. • Awareness de la apariencia física de los demás, desde nuestra propia perspectiva: Ej. ¿por qué él no peina su pelo? • Awareness de la apariencia física del otro, desde la perspectiva de esa persona: Ej. observar que un adolecente parece obsesionado con su cutis.

1.3 Awareness de tareas específicas del proceso de trabajo Asegura Etelaepelto (1993, 251), que puede ser demostrado por la descripción adecuada de las estrategias usadas (monitoreando conscientemente y regulando estas estrategias), y para informes detallados de las dificultades en el entendimiento de una tarea.

1.4 Awareness de la situación De acuerdo con Hogg, Folleso y Strand-Volden (1995,2394), existen tres niveles de awareness de contexto. • Nivel 1 concerniente a las habilidades para percibir elementos en la situación actual. • Nivel 2 el awareness de situación integra información concerniente al estado de proceso actual derivado del nivel 1 dentro de la comprensión global de la situación actual. • Nivel 3 el awareness de situación se refiere a la proyección del estado del proceso actual dentro de un futuro cercano. La importancia de esta proyección futura es que el operador debe evaluar ahora, si el estado del futuro anticipado es percibido como desigual con los objetivos operacionales, y en consecuencia con el plan de medidas de mitigación.

5.5 Awareness de libre objetivo Totter (1998) considera que estudiar el concepto de Awareness desde las ciencias sociales tiene dos importantes ventajas: principalmente, 183


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

enriquece la explicación y el entendimiento de awareness en el desarrollo de sistemas y, segundo, habilita una nueva generación de artefactos (como parte de un sistema socio-técnico) que proporciona características de awareness orientado al ser humano para sistemas CSCW. La importancia de incorporar artefactos awareness en el groupware ha sido ampliamente reconocida en los últimos años, según Gutwin (1997) se ha demostrado que la mantención de información de awareness en el espacio de trabajo mejora la usabilidad del groupware, «Se trata de un concepto de diseño que contribuye a reducir el esfuerzo meta-comunicativo necesario para desarrollar actividades colaborativas, y por tanto mejora la usabilidad» (Sendín, 2006, 2). Sin embargo son muy pocos los entornos colaborativos que lo integran. A continuación se presentan algunos sistemas o proyectos groupware que implementan ciertos mecanismos de awareness, los cuales podrían ser incluidos en la herramienta groupware a construir.

3. Trabajos relacionados En la investigación sobre mecanismos de awareness se estudiaron específicamente el de tareas, el social y el informal, puesto que el análisis del entorno de colaboración en el cabido ha llevado a la conclusión de que estos son los tipos de awareness que debe de tener la herramienta a implementar. A continuación se presentan sistemas groupware que proporcionan estos tipos de awareness.

3.1 Editor colaborativo Co2de, sistema que proporciona awareness síncrono y de tareas (awareness de espacio de trabajo) El grupo CHORD de la Universidad Federal de Río de Janeiro ha desarrollado un editor colaborativo que permite trabajar de un modo interactivo y en tiempo real a varias personas. Según Meire (2007), con CO2DE, se pueden crear diagramas entre varios miembros de un equipo a pesar de que estén separados en la distancia. CO2DE se encarga de la representación y del awareness de los diferentes puntos de vista de los participantes sobre un artefacto. CO2DE usa un mecanismo de versionado para la edición de graficas colaborativas, en el cual los cambios en el artefacto pueden hacerse independientemente del trabajo global, y en el cual los diferentes puntos de vista pueden ser identificados y discutidos. La herramienta permite el uso de diferentes 184


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

estrategias de edición como recurso para proporcionar a los participantes con awareness del flujo de la discusión y de los diferentes puntos de vista concernientes a los artefactos.

3.2 proyectos de desarrollo de software, sistemas que proporcionan awareness asíncrono y de tareas (awareness de espacios de trabajo) La Universidad de Saskatchewan (Saskatoon, Canadá), asegura Grudin (1994), realiza estudios sobre la percepción de grupo en el desarrollo de software distribuido. Los proyectos de desarrollo de software abierto son casi siempre colaborativos y distribuidos. Las dificultades impuestas por la distancia no han sido obstáculo, para la creación de proyectos que han tenido un gran éxito beneficiado a muchas comunidades, organización, universidades, etc. Alrededor del mundo, proyectos como el sistema operativo Linux, el servidor Web Apache y las aplicaciones Open Office son los resultados más relevantes. Esta percepción de grupo incluye conocimiento sobre quién está en el proyecto, en qué parte del código trabaja, qué hace, cuáles son sus planes, etc. Se mantienen informados y saben coordinar sus esfuerzos, añadir código sin problemas, hacer cambios que afectan a otros módulos o evitar realizar un mismo trabajo varias veces. Un proyecto relacionado con lo anterior, según Čubranić (2004), es el prototipo Hipikat de la Universidad de British Columbia (Canadá), que permite el aprendizaje desde los proyectos software de programación que están en ejecución, de tal manera que la persona que ingrese en el proyecto puede utilizarlo para aprender de él en lugar de acudir sólo a otros miembros del proyecto. Consiste en adquirir recursos humanos productivos de forma inmediata al entrar en proyectos que ya estaban en marcha. Por un lado se crea la memoria de proyecto a partir de los diferentes artefactos y comunicaciones creados durante la historia del desarrollo del proyecto y luego se crean unas recomendaciones para el desarrollador a partir de esta memoria y relacionadas con la tarea que está o va a llevar a cabo. Cuando el desarrollador hace alguna consulta relacionada con algún artefacto, inmediatamente el sistema sigue los enlaces establecidos y le sugiere diferentes posibilidades. Por ejemplo, si el desarrollador quiere realizar una tarea de cambio de una característica, el sistema sugerirá que mire otros cambios que se realizaron con anterioridad y que están relacionados con éste. Así probablemente pueda ver trozos de código que ya se generaron y que le puedan servir ahora, o ver mensajes asociados, etc. 185


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

3.3 Autospeakerid (ASID), sistema que proporcionan awareness social y awareness informal La herramienta AutoSpeakerID (ASID), señala McCarthy (2008), ha sido desarrollada entre el Intel Research y la Universidad de Washington en 2003 y mejorada en los últimos años incorporándole nuevas características que facilitan la colaboración y la comunicación en espacios sociales como conferencias académicas. Las conferencias académicas proporcionan un tiempo y un espacio ideales para personas con intereses comunes, para que puedan intercambiar opiniones e información mutuamente, para aprender del trabajo de cada uno. Incluso se dan intercambios informales de información en momentos como la recepción o los breaks. Una de las formas posibles consiste en un proactive display: un gran dispositivo de computación que está equipado con sensores que detectan personas cercanas y les responde en el contexto adecuado. AutoSpeakerID (ASID) muestra la foto, el nombre y la afiliación de la persona que está realizando la pregunta (o respuesta) durante el turno de preguntas y respuestas que sigue a la presentación de un artículo o un panel. El micrófono está “aumentado” (augmented) con una antena RFID, de manera que cuando la persona que va a realizar la pregunta se acerca el micrófono, si ésta lleva un RFID tag en su placa distintiva, se reconocerá y mandará la señal para que sea esta la persona que salga por pantalla con los datos mencionados. Al no contar con herramientas, directrices o frameworks que guíen la creación de sistemas groupware y la incorporación de artefactos awareness en ellos, se opta por seguir un enfoque centrado en el contexto de grupo, que permita entender sofisticadamente la perspectiva que tienen los usuarios del ambiente colaborativo, según Sendín (2006) y Alarcón (2005), el diseño de aplicaciones groupware debe estar centrado en el contexto de grupo. Aplicar este enfoque en la incorporación de artefactos awareness en una herramienta groupware, requiere una investigación de las personas, los grupos y los recursos, según Alarcon (2005) estos son los tres principales componentes del espacio de trabajo. A continuación se presentan los resultados de esta investigación, realizada en el resguardo indígena10 tomado como caso de estudio. 10 Resguardo indígena: Es una institución legal y sociopolítica de carácter especial, conformada por una comunidad o parcialidad indígena, que con un título de propiedad comunitaria, posee su territorio y se rige para el manejo de éste y de su vida interna por una organización ajustada al fuero indígena o a sus pautas y tradiciones culturales.

186


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

4. Identificación del escenario El cabildo indígena del municipio de Puracé, Cauca, es el encargado de regir a la comunidad de los Kokonucos residente en esta zona, en la actualidad está conformado por siete miembros con sus respectivos suplentes así: Gobernador, Alcalde, Secretario, Capitán General, Alguacil, Comisario y Tesorero, además de los capitanes veredales que son el brazo derecho del Cabildo en la comunicación personalizada entre este con los miembros de la comunidad indígena, afirma Mazabuel (2001), estos cabildantes deben pertenecer al pueblo de los Kokonucos y ser elegidos en una gran asamblea general cada año, a través de voto popular. Esta organización trabaja en aspectos sociales, políticos, económicos, educativos, ambientales y culturales. Según el señor Alejandro Caldón gobernador suplente “el cabildo es como un estado social de derecho”11. La labor investigativa realizada hasta el momento ha permitido identificar numerosas tareas administrativas como la gestión de temáticas, programas y propuestas, por medio de la cual se manejan los recursos económicos destinados al resguardo por la ley de transferencias12. Otra labor es la gestión de casos, donde se tratan los hechos presentados en la comunidad a nivel personal, familiar y social, los cuales deben ser procesados con intervención del cabildo, por ejemplo las denuncias de paternidad responsable, la violencia intrafamiliar, el abigeato, la repartición de tierra, entre otros. El cabildo maneja un gran flujo de información de carácter social, político, económico, educativo, ambiental y cultural, a nivel interno como externo, pero no cuenta con un archivo digital en donde se pueda guardar tal información, una parte de esta se encuentra recopilada en archivos físicos y otra en la memoria de los mayores13 y líderes de la comunidad. Este conocimiento se ha transmitido de generación en generación, a través de la tradición oral; esto ha generado la pérdida de valiosa información, así como de saberes ancestrales muy importantes para la comunidad, dificultando muchos de los procesos que se llevan a cabo. Un caso particular es la falta de un archivo digital de temáticas, programas y propuestas, que además de la perdida de información, no 11 Entrevista realizada en día 13 de junio de 2009 al señor Alejandro Caldón, gobernador suplente del Cabildo de Puracé. 12 Ley de transferencias: Gestiona la transferencia de recursos de la nación a los departamentos de Colombia. 13 Mayores: personas sabias que poseen conocimientos ancestrales y son muy respetados en la comunidad.

187


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

ha permitido a los miembros de la comunidad enterarse por completo de todo lo que implican, es decir, no se encuentra información disponible sobre participantes, duración, objetivos, resultados y demás datos de las temáticas, programas y propuestas desarrolladas en la comunidad. A continuación se expone la gestión de temáticas, programas y propuestas como escenario de colaboración a ser apoyado por la herramienta groupware con artefactos de awareness.

5. Escenario de colaboración En las tareas administrativas realizadas al interior del cabildo indígena de Puracé se encuentra inmerso el trabajo colaborativo, los cabildantes son los encargados de la ejecución de tales actividades, para lo cual programan una agenda de trabajo semanal, donde se asigna tareas según el cargo, pero en las cuales pueden colaborar todos los cabildantes, lideres y personal que con su conocimiento y trabajo contribuyan a alcanzar los objetivos del plan de vida14 de la comunidad. La gestión de temáticas, programas y propuestas se rige bajo las premisas del Plan Operativo Anual de Inversiones (POAI). Las temáticas y los programas son planteados o replanteados cada año por el nuevo cabildo, los programas son ejecutados mediante propuestas, y las necesidades presentes en cada vereda originan la formulación de las mismas. Las propuestas pueden ser planteadas por las juntas de acción comunal en cabeza de su presidente, tesorero o gobernador del cabildo, y los cuadros de apoyo15. Los resguardos deben formular propuestas dirigidas a su alcaldía para poder administrar los recursos destinados por el gobierno, pero también cuentan con la autonomía para gestionar propuestas dirigidas a instituciones gubernamentales y no gubernamentales de carácter regional, nacional e internacional. La formulación de propuestas se realiza mediante el trabajo colaborativo de los grupos involucrados en este proceso. Las dinámicas presentadas son las siguientes:

14 Plan de Vida: Guía para la realización de actividades de toda índole en pro de comunidad indígena, en él se trabajan los sectores económicos, ambientales, administrativos, sociales, políticos y culturales. 15 Cuadros de apoyo: Grupos donde se trabajan aspectos sociales, políticos, culturales, económicos, y del medio ambiente, se enfocan en la capacitación y reflexión, cada cuadro de apoyo trabaja en un aspecto en particular y está conformado por 25 personas.

188


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

5.1 Si la propuesta se origina en las juntas de acción comunal o en los cuadros de apoyo: 5.1.1 El presidente de la junta o miembro de algún cuadro de apoyo formula la propuesta, la cual debe contener como mínimo los siguientes puntos: descripción de la necesidad, objetivos generales y específicos, solución propuesta, forma de implementación y presupuesto. 5.1.2 La propuesta es enviada a la tesorería del cabildo para su revisión. 5.1.3 En tesorería, la propuesta entra a competir con otras propuestas, seleccionando las que tengan necesidades urgentes. 5.1.4 El tesorero revisa la propuesta seleccionada: 5.1.4.1 Si cumple con todos los requisitos es aprobada y enviada al gobernador del cabildo para su revisión. Pasa al punto 5.1.5. 5.1.4.2 Si no, el tesorero debe retroalimentar la propuesta sugiriendo correcciones, proporcionado información, así como posibles colaboradores, quienes generalmente pertenecen a los cuadros de apoyo y están en el deber de ayudar en la formulación de la propuesta. Pasa al punto 5.1.4.3. 5.1.4.3 La propuesta es presentada nuevamente siguiendo la dinámica del punto 5.1.4. 5.1.5 El gobernador revisa la propuesta aprobada por tesorería: 5.1.5.1 Si es aprobada por el gobernador, la propuesta es enviada a la alcaldía. 5.1.5.2 Si no, entonces el gobernador realiza lo citado en 5.1.4.2. Pasa al punto 5.1.5.3. 5.1.5.3 La propuesta es presentada nuevamente siguiendo la dinámica del punto 5.1.5.

5.2 Si la propuesta se origina en la tesorería del cabildo:

5.2.1 El tesorero formula la propuesta y pasa a ser revisada por el gobernador. 5.2.2 El gobernador revisa la propuesta: 5.2.2.1 Si es aprobada por el gobernador, la propuesta es enviada a la alcaldía. 1.2.2.2 Si no, entonces el gobernador realiza lo citado en 5.1.4.2. 1.2.2.3 La propuesta es presentada nuevamente siguiendo la dinámica del punto 5.1.5.

5.3 Si la propuesta se origina en la gobernación del cabildo: 189


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

El gobernador formula la propuesta con el acompañamiento del tesorero. Toda propuesta debe contar con el aval estos dos cabildantes, en cualquier etapa de la formulación se puede solicitar colaboración de los cuadros de apoyo, cuando la propuesta esté revisada y aprobada se envía a la alcaldía de la localidad. La Figura 1 muestra un gráfico con los entes involucrados en la dinámica para la gestión de propuestas, la Figura 2 muestra la organización de los cuadros de apoyo con las temáticas y los programas que se tratan en estos.

Figura 1. Vista general dinamica de la gestión de propuestas

190


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Figura 2. Vista Organización de los cuadros de apoyo

Con el fin de proporcionarle al cabildo indígena de Puracé, un sistema groupware que apoye algunos procesos administrativos del resguardo y además permita el trabajo colaborativo de los lideres y comuneros sin importar que se encuentren dispersos geográficamente, a continuación se presentan las posibles características con las que contará la herramienta groupware.

6. Herramienta propuesta En el escenario de colaboración descrito en el punto 5 se han identificado características de trabajo colaborativo entre los diferentes actores, debido a que todos ellos aportan para la consecución de los objetivos. Teniendo en cuenta estos aspectos y conscientes de que el cabido no cuenta con una herramienta groupware que apoye tales dinámicas; 191


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

se propone la implementación de este tipo de sistema con soporte de awareness, adaptado a las necesidades presentes en el proceso seguido por una propuesta, esto con el objetivo de beneficiar el trabajo colaborativo. Se plantea entonces, una herramienta que permita: 1. Llevar un histórico con toda la información: participantes, estado, recursos, objetivos, duración, resultados, avances y demás información generada por las propuestas y proyectos desarrollados en la comunidad. 2. Percepción de lo que los usuarios hacen en el sistema. 3. Comunicación a distancia, reduciendo el número de reuniones. 4. Mantener informados a todos los miembros del grupo sin necesidad de tener un gran número de personas dedicadas a ello para hacerlo de forma personal. 5. Acceso a información nueva y/o de última hora por parte de todos los miembros. 6. Proveer un espacio donde los miembros de los grupos de trabajo compartan material relacionado con leyes, decretos, acuerdos, entre otros documentos, que faciliten la realización de tareas y propicien el auto aprendizaje. 7. Envío de información a los miembros del grupo dependiendo su rol y la tarea que se estén ejecutando en determinado momento (awareness de tareas), esta información podrá contener ayuda para la actividad que se esté desarrollando (datos de otros proyectos que tengan algún tipo de relación con el actual), así como los datos de posibles colaboradores (personas que han realizado una actividad similar en el actual u otros proyectos, awareness social). 8. Proveer a cada participante con una agenda personal, donde puedan ingresar eventos y tareas. 9. Llevar una agenda de trabajo compartida, donde se encuentren las tareas y los eventos, junto con participantes y responsables de estas actividades. 10. Envío de recordatorios a cada participante/responsable, teniendo en cuenta tanto la agenda personal como la compartida (awareness de tareas). El objetivo es implementar una herramienta que facilite el trabajo colaborativo y que provea los elementos necesarios para propiciar la comunicación, interacción y coordinación entre sus miembros. En la última parte del articulo se exponen las conclusiones de la investigación realizada al interior del cabildo de Puracé, la cual permitió iden192


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

tificar el escenario de colaboración, así como los artefactos awareness que se pueden implementar en el sistema groupware que apoyara la gestión de temáticas, programas y propuestas.

7. Conclusiones y trabajo futuro La investigación realizada sobre mecanismos de awareness en sistemas groupware permite concluir que la comunidad CSCW no cuenta con herramientas, directrices o frameworks que guíen la creación de sistemas groupware para diversos ambientes colaborativos, así como tampoco para la incorporación de mecanismos de awareness en ellos. El diseño de herramientas groupware con artefactos awareness debería estar enfocado al contexto de grupo, realizando un análisis sofisticado de las personas, las tareas y los recursos, con el fin de reconocer la compleja dinámica social donde la actividad grupal se desarrolla. La incorporación de artefactos awareness en herramientas groupware es un aspecto relevante para mejorar la usabilidad de este tipo de sistemas, pues propician alta interacción y entendimiento entre los miembros del grupo. La investigación etnográfica apoyada por métodos como la observación directa, la entrevista y la encuesta, permiten la identificación del contexto de grupo y sus tres componentes principales. Su aplicación permitió identificar el trabajo colaborativo presente en las actividades administrativas, constatando que se encuentra inmerso en numerosos procesos que se verían beneficiados, al apoyarse con herramientas groupware, que brinden soporte de awareness. Se propone entonces la creación de este tipo de sistema para la gestión de Temáticas, Programas y Propuestas, debido a la gran importancia que tiene esta dinámica para el desarrollo de la comunidad. Los mecanismos awareness que debe tener la herramienta a implementar son los de tareas, social e informal, desde la perspectiva de awareness del espacio de trabajo compartido. Estos mecanismos han sido escogidos a partir de las ciencias sociales, es decir, desde el comportamiento del ser humano, aplicando un enfoque centrado en el contexto de grupo, con esto se espera que la comunidad apropie el sistema y se pueda beneficiar el trabajo colaborativo originado en la gestión de Temáticas, Programas y Propuestas. Teniendo claro el escenario de colaboración el paso a seguir es el diseño del sistema groupware con artefactos de awareness que apoye 193


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

la dinámica administrativa originada al interior del resguardo indígena de Puracé. Las soluciones tecnológicas planteadas por áreas como el CSCW y llevadas a cabo por la academia, con el fin dar solución a problemas reales en comunidades cuyo acceso a las TIC es casi nulo o limitado, contribuye a cerrar la gran brecha digital presente en estos grupos. Como trabajo inmediato se plantea el estudio de herramientas groupware de código abierto, con el fin de analizar si es conveniente la construcción de la herramienta propuesta a partir de código ya implementado. Se plantea formalizar la técnica utilizada en el presente proyecto para la creación de herramientas groupware y la incorporación de artefactos awareness en las mismas, con el propósito de aportar al establecimiento de directrices de colaboración y representación de conocimiento compartido en área del CSCW.

8. Agradecimientos El presente proyecto está siendo financiado por FRIDA (Fondo Regional para la Innovación digital en América Latina y el Caribe), y soportado por algunos miembros de los grupos I+D: GNTT (Grupo I+D Nuevas Tecnologías en Telecomunicaciones) – GESC (Grupo de Estudios Sociales Comparativos) – IDIS (Investigación y Desarrollo en Ingeniería de Software) de la Universidad del Cauca. Se hace necesario agradecer a la comunidad indígena de los Kokonucos residente el pueblo de Puracé, especialmente a los cabildantes y a los miembros de la Asociación de Cabildos Genaro Sánchez perteneciente al CRIC (Consejo Regional Indígena Del Cauca), su participación en la investigación etnográfica ha sido fundamental, ellos han destinado un poco de su tiempo y nos han hecho valiosas y oportunas contribuciones para elaborar la propuesta del sistema groupware.

194


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Bibliografía ALARCON, Rosa; GUERRERO, Luis and PINO, José. (2005). Groupware Components as Providers of Contextual Information [en linea]. Chile: Universidad de Chile. <http://www.dcc.uchile. cl/~luguerre/papers/CONTEXT-05a.pdf>. [Consulta: 05/08/2009]. ALCÁZAR DÍAZ DE LEÓN, Lorena. (2005). Análisis de funcionalidad de los portales de gobierno estatal en México.Tesis de Pregrado (Licenciada en Administración de Empresas). México: Universidad de las Américas Puebla. 189 p. CUBRANIC, Davor; MURPHY, Gail; SINGER, Janice and BOOTH, Kellogg. (2004). Learning from Project History: A Case Study for Software Development. En: ACM 2004 Conference on Computer Supported Cooperative Work, (06-10/11/2004), Chicago, Illinois: ACM. The ACM Digital Library. p. 82-91. ISBN:1-58113-810-5 ETELAEPELTO, A. (1993). Metacognition and the Expertise of Computer Program Comprehension. En: Scandinavian journal of educational research. Vol. 37, No. 3, (1993). Abingdon, ROYAUME-UNI: Taylor & Francis Group. p. 243-254. ISSN 0031-3831 GRUDIN, Jonathan. (1994). Groupware and social dynamics: eight challenges for developers. En: Communications of the ACM. Vol. 37 (1994). New York, NY: ACM. p. 92-105. ISSN:0001-0782 GUTWIN, C. (1997)  Workspace Awareness in Real-Time Distributed Groupware. Tesis Doctoral (Doctor en Ciencias de la Computacion). Calgary, Alberta (Canadá):  Department of Computer Science, University of Calgary. 270 p. HOGG, D. N.; FOLLESO, K.; STRAND-VOLDEN, F. and TORRALBA B. (1995) Development of a Situation Awareness Measure to Evaluate Advanced Alarm Systems in Nuclear Power Plant Control Rooms. En: Ergonomics. Vol 38, Nº 11 (nov,1995). Abingdon, ROYAUME-UNI. Taylor & Francis Group. p. 2394-2412. ISSN 0014-0139 MAZABUEL, Olmedo. (2001). Reflexión sobre el proceso de Formulación del Plan de Vida del resguardo Indígena de Puracé. Tesis de Pregrado (Licenciado en Etnoeducacion). Popayán: Universidad del Cauca. 120 p. McCARTHY, Joseph; CONGLETON, Ben and HARPER, Maxwell. (2008). The context, content & community collage: sharing personal digital media in the physical workplace. En: ACM 2008 Conference on Computer Supported Cooperative Work, (8-12/11/2008), San Diego, CA: ACM. The ACM Digital Library, p. 97-106. ISBN:978-1-60558-007-4 MEIRE, Alexandre; BORGES, Marcos and MENDES DE ARAÚJO, Renata. (2007). Supporting multiple viewpoints in collaborative graphical editing. En: Multimedia Tools and Applications. Vol. 32, No. 2 (feb, 2007). Rio de Janeiro, Brazil: Springer Netherlands. p. 185-208. ISSN 1380-7501 OTERO, José. (2008). El Derecho a la comunicación en el plan de vida de los pueblos indígenas del Cauca. [en línea]. Bogota: Centro de Competencia en Comunicación para América Latina. <http://www.c3fes.net/docs/comunicacionindigenacaucacric.pdf> [Consulta: 03/20/ 2009]. PENICHET, Victor. (2007). Task-Oriented and User-Centred Process Model for Developing Interfaces for Human-Computer-Human Environments. Tesis Doctoral (Doctor en Informática). Castilla-La Mancha: Universidad de Castilla-La Mancha. p. 353. SENDIN, Montserrat; COLLAZOS, César y LÓPEZ, Víctor (2006). Framework de Plasticidad Explicita: Un Marco Conceptual de Generacion de IUSs Plasticas para Entornos Colaborativos: En Interacción 2006, (13-17/11/2006), Puertollano (España): Universidad Castilla de la Mancha. AIPO Interacción 2006, pp. 419-429. SHELDON, Kennon y JOHNSON, Joel. (1993). Forms of Social Awareness: Their Frequency and Correlates. En: Personality and Social Psychology Bulletin. Vol. 19. No. 3 (1993). Michigan (USA): Shinobu Kitayama University of Michigan. p. 320-330. ISSN 0146-1672 TOTTER, Alex; GROSS, Tom and STARY, Chris. (1998). Functional versus Conscious Awareness in CSCW-Systems. En: The XV. IFIP World Computer Congress. Telecooperation--The Global Office, Teleworking and Communication Tools, (31-4/08-09/1998), Vienna: Federation of national computer societies that, irrespective of politics, economics, or social differences (IFIP). OCG, Vienna, AUTRICHE (1998) (Monographie). p. 67-76. ISBN 3-85403-121-1

195


Nยบ 21 - Universidad de Manizales, julio - diciembre / 2009

196


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

ARTÍCULO MONOGRÁFICO

Pruebas de software y gestión documental1 [Testing software and documental management] Carolina Mendoza-Cardona - Marcela Valencia-Estrada Juan David Valencia-Ortiz2 - José Juliá n Carvajal-Vargas3 Recibo: 18.05.2009 - Ajuste: 29.07.2009 - Aprobación: 16.11.2009

Resumen Actualmente existen varias entidades encargadas de realizar pruebas de software para definir claramente la existencia de un error, defecto o falla, y así corregirlas, para garantizar el nivel de calidad confiable de las aplicaciones, para que éstas cumplan con los requerimientos en forma satisfactoria. Al momento de realizar el proceso de testing se verifica que el software se ajuste a los requerimientos y además validar que las funciones se implementan correctamente, cumpliendo con los estándares planteados por organizaciones encargadas de normalizar los procesos de desarrollo de software. Por otro lado, la gestión documental facilita la ubicación y el manejo de la información, ya que los documentos originales, una vez preparados, son transformados en documentos digitales, los cuales serán almacenados en un repositorio para que los usuarios finales se conecten y puedan acceder a la información. Es necesario realizar las pruebas para asegurar el correcto funcionamiento y manejo de información de la gestión documental, 1 Modelo para citación: MENDOZA CARDONA, Carolina; VALENCIA ESTRADA, Marcela; VALENCIA ORTIZ, Juan David y CARVAJAL VARGAS, José Julián. (2009). Pruebas de software y gestión documental. En: Ventana Informática. No. 21 (jul-dic., 2009). Manizales (Colombia): Universidad de Manizales. p. 197-208. ISSN: 0123-9678 2 Ingenieros de Sistemas y Telecomunicaciones. Universidad de Manizales. Correos electrónicos: mc.carolina@gmail.com, marcela.1322@hotmail.com y jdavidval@hotmail.com, respectivamente. 3 Ingeniero de Sistemas. Universidad Autónoma de Manizales. Especialista en Gerencia de Proyectos. Universidad EAFIT. jucarva@umanizales.edu.co. Nº 21 - Universidad de Manizales, julio - diciembre/2009 - pp 197-208

197


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

además asegurar su calidad implementando políticas y normas requeridas para una excelente gestión documental. Palabras Clave: Software, Pruebas, Calidad, Archivo, Digitalización de Documentos, Gestión Documental.

Abstract Nowdays, there are several entities in charge of testing software to define the existence of errors, defects or fails in the software, they correct and they guarantee a level of quality in the aplications, so that they execute the requirements satisfactorily. Besides, testing process the software is verified to the requirements and valídate the functions are implemented correctly,carrying out the standards set by organizations in cherge of standardize, the software development processes. On the other hand, the documental management makes casy the locations and management of information because the documents originals are transformed into digital documents, which will be stored in a repository for the users connect and access to the information. It is necessary to perform the tests to ensure proper operation and management of information in documental management, besides implementing quality assurance policies and standards required for an excellent documental management. Keywords: Software, Testing, Quality, File, digitizing of documents, documental management.

Introducción Este artículo enfatiza en la importancia de realizar pruebas de software y manejar una gestión documental garantizando la calidad de la información digitalizada al momento de dar utilidad a ella. Para comenzar es importante dar a conocer los conceptos principales, los cuales facilitarán la comprensión del documento; iniciando por el software testing el cual asegura la calidad de los procesos de desarrollo, implementación y mantenimiento del software, además de un conjunto de actividades que verifican que esté desarrollado o modificado de acuerdo a los requerimientos solicitados en forma satisfactoria. Son necesarias las pruebas de software realizadas en todas las fases del ciclo de vida, para garantizar la entrega y puesta en producción de una 198


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

aplicación con un número mínimo de fallas, asegurando la confiabilidad en las áreas de desarrollo y la satisfacción de los usuarios. La adecuada gestión documental de una empresa debe manejar una actividad archivística desde la producción del documento hasta su destinación final, con el fin de controlar la eliminación o conservación permanente del mismo, para brindar una información organizada y recuperable para su uso. Para llevar a cabo un control de calidad en la gestión documental, es recomendable la digitalización de archivos para almacenar, consultar y administrar de forma más económica y sencilla de manejar grandes volúmenes de papel.

1. Pruebas de software 1.1 Definición Según Sommerville (2005, 492), las pruebas de software se aplican para descubrir los defectos, estableciendo que el sistema satisfaga los requerimientos funcionales y no funcionales; para convencer a los desarrolladores del sistema y a los clientes de que el software es suficientemente eficaz para su uso operacional. Alegsa (2008), define las pruebas de software como un proceso empleado para identificar que una aplicación sea correcta, completa, segura y de buena calidad en el desarrollo. Además se considera que la fase de pruebas de software es uno de los pasos más complejos e importantes en su desarrollo, porque ésta incluye el proceso de encontrar errores en el software y se relaciona con atributos como la fiabilidad, eficiencia, portabilidad, escalabilidad, mantenibilidad, compatibilidad, usabilidad y capacidad del mismo. El Centro de Innovación de la Tecnología de la Información (2009), considera las pruebas de software como un elemento crítico para determinar su calidad. Las pruebas permiten validar y verificar el sistema, entendiendo como validación del software el proceso que determina si éste satisface los requisitos; y en la verificación si los productos de una fase satisfacen sus condiciones, manejando como estrategias la revisión de requerimientos, la revisión del diseño, la revisión e inspección general del código. De acuerdo a las anteriores definiciones se entenderá las pruebas de software como el proceso de calidad implementado para verificar 199


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

el correcto funcionamiento de una aplicación y así demostrar si es o no válida con respecto a los requerimientos planteados para dicho software.

1.2 Empresas colombianas que brindan el servicio de testing Las empresas encargadas de realizar pruebas de software tienen como objetivo principal ejercitar las aplicaciones para detectar errores, verificar que satisfaga los requerimientos funcionales y no funcionales especificados; para así mejorar la calidad del producto final, la rentabilidad de producción y la reducción de costos en mantenimiento. A continuación, se mencionan algunas empresas colombianas: • La empresa Choucair Testing S.A. (2009), se encarga de realizar pruebas de software, manejan una metodología certificada y efectiva para prestar un servicio confiable disminuyendo los riesgos en operación dentro del proceso de creación del software. El servicio de pruebas prestado por Choucair Testing S.A es un proceso que se realiza paralelamente a las diferentes etapas de desarrollo de software y comprende pruebas funcionales, de rendimiento, de seguridad en aplicativos y de migración de datos. • GREEN SQA (2008), brinda servicios de pruebas de software, por esta razón Parquesoft se ha unido a ésta para trabajar conjuntamente en una estrategia de calidad que cubra todos los aspectos en la producción de software, para que los productos desarrollados en Parquesoft sean probados por Green SQA. Esta empresa tiene como concepto de negocio el fortalecimiento de las fábricas de software mediante la implantación de un proceso maduro de desarrollo soportado por las mejores prácticas de aseguramiento de calidad. • Software Quality Assurance, SQA S.A. (2008), busca satisfacer las necesidades de calidad exigidas en los productos de software, con el fin de conseguir un éxito estratégico para que los sistemas sean confiables, estables, cumplan con los estándares, especificaciones y validar las reglas del negocio. Además, realiza en forma integral el proceso de pruebas satisfaciendo al cliente, con el objetivo de certificar productos de alta calidad, suministrando personal especializado, metodología de pruebas, herramientas y coordinación de proyectos. 200


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

• Litsa Consulting Ltda (2004), presta servicios de outsorcing, ingeniería de software, aseguramiento de calidad de aplicaciones y consultoría. El servicio de aseguramiento de calidad de aplicaciones responde a la necesidad del cliente con un grupo de profesionales trabajando en procesos de análisis de pruebas, diseños de casos de pruebas, preparación de datos de pruebas, ejecución de pruebas manuales y automáticas, seguimiento a errores y certificación de sistemas de información para el paso a producción.

1.3 Estándares utilizados para pruebas de software Según Garzás (2009), existen varias organizaciones de normalización (ISO, IEEE, SEI, etc.) las cuales vienen trabajando sobre la verificación y validación del software. En el mes de mayo del 2007, ISO desarrolló un nuevo Estándar de Pruebas Software, con el fin de eliminar las inconsistencias existentes entre las actuales normas, cubriendo las áreas del Testing. Esta norma se conoce como ISO/IEC 29119 Software Testing, la cual cubrirá el ciclo de vida completo, a través del análisis, diseño, implementación y mantenimiento de las pruebas de software. 1.3.1 IEEE (2008). El Institute of Electrical and Electronics Engineers, IEEE, es una asociación de profesionales estadounidenses que aporta criterios de estandarización para la calidad de pruebas, la verificación, validación y revisiones, por consiguiente tiene como objetivo especificar un modelo para realizar las pruebas de unidad al software y describir los conceptos de la ingeniería de software. Los estándares de pruebas de software desarrollados por la IEEE son: 1.3.1.1 IEEE 730-2002: Planes de aseguramiento de la calidad del software. «Esta norma establece un contenido mínimo exigido para los planes de aseguramiento de la calidad del software. Está dirigido hacia el desarrollo y mantenimiento de software. La orientación es delinear todas las acciones planificadas y sistemáticas en un proyecto que proporcione la confianza adecuada para que el producto de software se ajuste a los requisitos técnicos establecidos. Esta norma se ha armonizado con los requisitos de software para planes de aseguramiento de la calidad» (SAQ-Fachgruppe Informatik, 1998). 1.3.1.2 IEEE 829-1998: Documentación de pruebas del software. «El propósito de esta norma es describir una serie de documentos de prueba de software. Un documento de prueba estándar puede facilitar 201


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

la comunicación, proporcionando un marco común de referencia. El contenido de una definición normalizada de prueba de un documento puede servir como una completa lista de verificación para el correspondiente proceso de pruebas. Un conjunto normalizado puede también proporcionar una base para la evaluación de las actuales prácticas de documentación de prueba. En muchas organizaciones, el uso de estos documentos, aumenta significativamente la capacidad de administración de las pruebas» (Clarke, 2009). 1.3.1.3 IEEE 982.1: Diccionario estándar de medidas para producir software fiable. «Esta norma especifica y clasifica las medidas de los aspectos de fiabilidad del software. Se trata de una ampliación del alcance de la norma vigente, la revisión incluye los siguientes aspectos de funcionamiento: la fiabilidad, disponibilidad y mantenibilidad del software. La aplicabilidad de esta norma es cualquier sistema de software» (IHS, 2008). 1.3.1.4 IEEE 1008-1987: Pruebas de unidad del software. «Se describe el proceso de prueba compuesto por una jerarquía de fases, actividades y tareas y define un conjunto mínimo de tareas para cada actividad. La norma se puede aplicar a la unidad de pruebas digitales de cualquier software. Los conceptos de ingeniería de software y pruebas en la que esta norma se basa es en el enfoque, la orientación y los recursos de información para ayudar con la implementación y uso de la unidad estándar de prueba» (SAQ-Fachgruppe Informatik, 2002). 1.3.1.5 IEEE 1012-1998: Verificación y validación del software. «Verifica y valida los procesos que determinan si los productos del desarrollo de una actividad determinada se ajusten a los requisitos de esa actividad, y si el software cumple con su uso previsto y las necesidades de los usuarios. Esta determinación puede incluir el análisis, evaluación, revisión, inspección, evaluación y pruebas de productos de software y procesos» (IEEE-S.A, 2004a). 1.3.1.6 IEEE 1028-1997: Revisiones del software. «Este estándar define cinco tipos de software de evaluación, esta norma se refiere únicamente a los exámenes, junto con los procedimientos necesarios para la ejecución de cada tipo de examen. Incluye exámenes de gestión, técnicas de evaluación, inspecciones, paseos y auditorías» (IEEE-S.A, 2004b). 1.3.1.7 IEEE 1044-1993: Clasificación estándar para anomalías del software. «Proporciona un enfoque uniforme para la clasificación de las anomalías encontradas en el software y su documentación. Las 202


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

anomalías descubiertas durante cualquier fase del ciclo de vida del software se describen y se clasifican para identificar y realizar un seguimiento de las anomalías que se presentan. Esta norma no tiene por objeto definir el formato de procedimiento o requisitos para usar el sistema de clasificación» (IEEE-S.A, 2004c). 1.3.1.8 IEEE 1061-1998: Estándar para una metodología de métricas de calidad del software. «Una metodología para el establecimiento de requisitos de calidad, identificación, aplicación, análisis y validación de los procesos y productos de software define las métricas para la calidad del software. La metodología abarca la totalidad del ciclo de vida del software» (IEEE-S.A, 2004d). 1.3.1.9 IEEE 1228-1994: Planes de seguridad del software. «Se aplica para gestionar un plan de seguridad en el desarrollo del software. Esta norma no contiene disposiciones especiales para los programas informáticos utilizados en sistemas distribuidos o procesadores en paralelo» (IEEE-S.A, 2004e). 1.3.2 ISO (2009a). El propósito de la Organización Internacional para la Normalización (International Organization for Standardization), ISO, es promover el desarrollo de la normalización para fomentar el intercambio de bienes y servicios para el desarrollo de la cooperación en actividades económicas, intelectuales, científicas y tecnológicas. Los estándares de pruebas de software desarrollados por la ISO son: 1.3.2.1 ISO/IEC 25051-2006: Requisitos de calidad de productos de software y las instrucciones para las pruebas. «Esta norma cubre los productos de software en la forma en que se ofrecen en el mercado y la entrega a los clientes. Los programas y los datos son principalmente la prueba de cumplimiento con la descripción del producto y la documentación de usuario» (ISO, 2009b). 1.3.2.2 ISO/IEC TR 13233-1995: Acreditación de tecnologías de la información y telecomunicaciones de laboratorios de pruebas de software y servicios de pruebas de protocolo. «Proporciona orientación para asesores y laboratorios de ensayo sobre la interpretación específica de los requisitos de acreditación aplicables a la prueba en el campo de la tecnología de la información y telecomunicaciones (IT & T), específicamente en relación con el protocolo de pruebas de software y servicios. No se aplicará a la acreditación de la inspección, certificación y aseguramiento de la calidad de evaluación de actividades» (ISO, 2009c).

203


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

1.3.3 ITIL. (Osiatis, 2009). Biblioteca de infraestructura de tecnologías de la información (Information Technology Infrastructure Library), iniciado como una guía para consulta, educación y soporte de herramientas de software. Se ha convertido en el estándar mundial de factor en la Gestión de Servicios Informáticos. ITIL ha dado como resultado una necesidad creciente de asesorías que correspondan con los objetivos del negocio, y que satisfagan los requisitos y las expectativas del cliente. Sus libros cubren áreas de: Soporte al servicio se preocupa de todos los aspectos que garanticen la continuidad, disponibilidad y calidad del servicio prestado al usuario. Prestación del servicio se ocupa de los servicios ofrecidos en si mismos. En particular de los niveles de servicio, su disponibilidad, su continuidad, su viabilidad financiera, la capacidad necesaria de la infraestructura TI y los niveles de seguridad requeridos.

2. Gestión documental 2.1 Definición Conjunto de normas, técnicas y prácticas usadas para administrar el flujo de información en una organización, permitiendo su recuperación, determinando el tiempo que los documentos deben guardarse y asegurando la conservación indefinida de los mismos, situándolos en un repositorio de acceso privado, donde sólo podrán ingresar los usuarios autorizados para manipular dicha información.

2.2 Gestión documental y estado El archivo general de la nación busca servir a la comunidad y garantizar los principios, derechos y deberes constitucionales. Encargándose de: • Formular, orientar y controlar la política archivística. • Coordinar el sistema nacional de archivos. • Recuperar, conservar y difundir la documentación del país. Para disponer de una documentación organizada, en tal forma que la información institucional sea recuperable para uso de la administración en el servicio al ciudadano y como fuente de la historia, se ha decretado la Ley 594 de 2000; ésta tiene por objetivo establecer reglas y principios generales que regulan la función archivística del estado, para los efectos de esta ley se define la Gestión Documental como un «Conjunto de actividades administrativas y técnicas tendientes a la planificación, manejo y organización de la documentación producida y 204


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

recibidas por las entidades, desde su origen hasta su destino final con el objeto de facilitar su utilización y conservación» (Congreso Nacional de la República de Colombia, 2008). La Ley 594 de 2000 (Congreso Nacional de la República de Colombia, 2008), propone que la gestión documental deba contemplar nuevas tecnologías y soportes, donde los procesos archivísticos cumplan con la producción o recepción, distribución, consulta, organización, recuperación, y disposición final de la información. Los documentos deben cumplir con un ciclo de vida loa cual se lleva a cabo clasificando los archivos de la siguiente manera: - Archivo de gestión: documentación que va a ser utilizada y consultada frecuentemente. - Archivo central: Documentos transferidos por los archivos de gestión, cuya consulta no es frecuente pero sigue siendo vigente. - Archivo histórico: documentos transferidos por el archivo central, los cuales serán de conservación permanente.

2.3 Gestión documental y calidad La gestión documental va de la mano con el aseguramiento de calidad, ya que ésta califica y verifica que los archivos estén debidamente organizados y administrados para tener un control en la gestión documental, definiendo el tiempo de vida, uso y aplicación de la información generada; además el aseguramiento de calidad permite que sean revisados continuamente los planteamientos de los procesos, políticas, normas aplicadas en la gestión documental con el fin de actualizarlo y mejorarlo aplicando un sistema de calidad. Para controlar la gestión documental es importante llevar a cabo manuales de procedimientos con el fin de cumplir con reglamentos y planes de desarrollo para así asegurar su calidad.

2.4 Gestión documental y pruebas Al momento de tener la documentación digitalizada y almacenada ordenadamente, su paso a seguir es guardar la información en un repositorio en el cual puede tener acceso varios usuarios; para que éstos no tengan inconvenientes al momento de manipular la información, de antemano es necesario realizar el proceso de Testing para así incluir pruebas de recepción de la base de datos usada, el equipo lógico de usuario, los periféricos, las condiciones de ingreso a la red. También se debe comprobar la funcionalidad de acuerdo al tiempo de acceso a 205


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

la información, una visualización clara de los archivos y evitar la redundancia de los mismos para realizar una búsqueda rápida.

3. Propuesta Actualmente, el desarrollo tecnológico pretende sorprender y satisfacer a la sociedad; esto genera programas sistemáticos mucho más complejos lo cual exige excelentes grupos de desarrollo de software, este grupo debe estar compuesto por un personal de pruebas que se encargue de verificar la calidad del sistema desarrollado, y corrija todos los errores que por mínimos que sean, pueden generar fallas en el sistema. Lo anterior puede ser aplicado en todo tipo de proyecto de ingeniería, por ejemplo en la gestión documental, la cual necesita un proceso muy complejo para poder sistematizar completamente la información de una entidad, empresa u oficina. Las grandes empresas necesitan de una gestión documental que proporcione un excelente control y administración de información, con servidores y una base de datos segura y confiable para soportar la cantidad de información que la empresa debe manejar. Se propone para las empresas u oficinas cambiar el tipo de archivo que actualmente todas manejan, el cual es manipulando papel a diario lo cual ocupa grandes espacios por la cantidad de información, por esto es recomendable buscar soluciones innovadoras que ofrezcan ventajas sobre los sistemas de almacenamiento, y para ello está la gestión documental; ya que ésta proporciona el ahorro de gastos en locales los cuales son utilizados como depósitos para guardar la documentación que fue necesario sacar de la oficina para no ocupar espacio. Además, con la información sistematizada y almacenada en un servidor se garantiza el estado de conservación de documentos, se ahorra tiempo dedicado a la organización y búsqueda de éstos. Obviamente, la gestión documental debe asegurar la calidad de ésta y es recomendable que una persona realice pruebas constantemente sobre el gestor documental comprobando su correcto funcionamiento; con el fin de prevenir fallas en la administración de información ya que ésta crece acorde a la dimensión de la empresa.

4. Conclusiones 206


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

• El software testing se ha convertido en una necesidad prioritaria para las organizaciones que desarrollan software, porque los errores no detectados a tiempo afectan directa o indirectamente a la organización, ya que por simple que sea un error puede resultar muy difícil y costoso de detectar. • Es importante definir desde el inicio las etapas del proceso de pruebas, la plataforma tecnológica que se utilizará, y la responsabilidad en la verificación de los defectos. • La gestión documental permite un manejo integral de la información, facilitando la organización y el control de la manipulación de los documentos. • Después de digitalizada la información es recomendable realizar copia de seguridad, almacenando la información en (discos duros, sistemas de almacenamiento electrónico, DVD) lo cual garantiza una consulta inmediata y la conservación del documento original. • Cuando no se realiza las pruebas de software trae como consecuencia un software que no cumple con los requerimientos planteados y en vez de producir software o soluciones se estará corrigiendo errores.

Bibliografía ALEGSA. (2008). Definición de Testeo del software. [en línea]. Santa fe: Exception. <http://www. alegsa.com.ar/Dic/testeo%20del%20software.php> [Consulta: 01/05/2009] ARCHIVO GENERAL DE LA NACIÓN (Colombia). (2009). Misión-Visión. [en línea]. Bogotá D.C: Micrositios Ltda. <http://www.archivogeneral.gov.co/?idcategoria=1157> [Consulta 26/04/2009] BERTRAND, Meyer. (1997). Construcción de Software Orientado a Objetos. 2 ed. Madrid: Prentice Hall. 1198 p. ISBN: 84-8322-040-7. CENTRO DE INNOVACIÓN DE TI. (2009). Pruebas de software. [en línea]. Azcarate Puebla: Software Guru. <http://www.citip.org.mx/servicios/software/pruebaslab/Pages/PruebasSoftware. aspx> [Consulta: 26/04/2009] CHOUCAIR TESTING S.A. (2009). Aseguramiento de Calidad en el Desarrollo de Software. [en línea]. Medellín: Catálogo de software. <http://www.catalogodesoftware.com/producto. aspx?pid=201> [Consulta: 25/04/2009] CLARKE, Arthur C. (2009). Estándar IEEE para la Prueba de Software Documentación. [en línea]. Madrid: Sitemap. <www.ruleworks.co.uk/testguide/IEEE-std-829-1998.htm> [Consulta 02/05/2009] CONGRESO NACIONAL DE LA REPÚBLICA DE COLOMBIA. (2008). Ley 594 2000. [en línea]. Bogota: Contraloría General de la Nación < www.contraloria.gov.co/archivos-pdf/normas/ Ley%20594%20de%202000.doc> [Consulta 26/04/2009] GREEN SQA (2008). Que es Green SQA. [en línea]. Cali: Parque Tecnológico de Software de Cali. <http://www.greensqa.com/index.php> [Consulta: 25/04/2009] HEREDIA H, Antonia. (1991). Archivística General. 5 ed. Sevilla: Diputación Provincial. 512 p. ISBN: 84-7798-056-X IEEE-S.A. (2004a). IEEE 1012-1998: Estándar de Software de Verificación y Validación-Descripción. [en línea]. New York: The Institute of Electrical and Electronics Engineers. <standards.ieee. org/.../std_public/description/se/1012-1998_desc.html> [Consulta 02/05/2009]

207


Nº 21 - Universidad de Manizales, julio - diciembre / 2009 IEEE-S.A. (2004b). IEEE 1028-1997: Estándar Revisiones del software. [en línea]. New York: The Institute of Electrical and Electronics Engineers. <standards.ieee.org/.../std_public/description/ se/1028-1997_desc.html> [Consulta 02/05/2009] IEEE-S.A. (2004c). IEEE 1044-1993: Estándar de Clasificación de Software de Anomalías-Descripción. [en línea]. New York: The Institute of Electrical and Electronics Engineers. <standards. ieee.org/.../std_public/description/se/1044-1993_desc.html> [Consulta 02/05/2009] IEEE-S.A. (2004d). IEEE 1061-1998: Estándar de Calidad de Software Metodología Métrica-Descripción. [en línea]. New York: The Institute of Electrical and Electronics Engineers. <standards. ieee.org/.../std_public/description/se/1061-1998_desc.html> [Consulta 02/05/2009] IEEE-S.A. (2004e). IEEE 1228-1994: estándar de software para planes de seguridad-Descripción. [en línea]. New York: The Institute of Electrical and Electronics Engineers. <standards.ieee. org/.../std_public/description/se/1228-1994_desc.html> [Consulta 02/05/2009] IEEE. (2008). Marco normativo. Estándares IEEE. [en línea]. Madrid: The Institute of Electrical and Electronics Engineers <www.ieee.com.es > [Consulta 26/04/2009] IHS. (2008). IEEE 982.1: Diccionario estándar de medidas para producir software fiable. [en línea]. New York: The Institute of Electrical and Electronics Engineers. <store.ihs.com/specsstore/ controller?event=LINK_DOCDETAILS&mid=W > [Consulta 02/05/2009] ISO. (2009a). International Standards for Business, Government and Society Standards development. [en línea]. Switzerland: International Organization for Standardization. <www.iso.org> [Consulta 26/04/2009] ISO. (2009b). Pruebas de productos de software de acuerdo a la norma ISO / IEC 25051:2006. [en línea]. Augsburg: International Organization for Standardization. <www.tuvit.de/english/ ISO_25051.asp> [Consulta 02/05/2009] ISO. (2009c). ISO/IEC TR 13233-1995. [en línea]. Switzerland: International Organization for Standardization. <www.iso.org/iso/catalogue_detail.htm?csnumber=21468> [Consulta 02/05/2009] OSIATIS (2009). Fundamentos de la Gestión TI: ¿Qué es ITIL? [en línea]. Madrid: Osiatis. <http:// itil.osiatis.es/Curso_ITIL/Gestion_Servicios_TI/fundamentos_de_la_gestion_TI/que_es_ITIL/ que_es_ITIL.php> [Consulta 26/04/2009] GARZÁS, Javier (2009). ISO/IEC 29119, hacia una nueva norma para pruebas software. [en línea]. Madrid: Kybele Consulting. <http://kybeleconsulting.blogspot.com/2009/03/isoiec-29119-haciaun-nueva-norma-para.html> [Consulta 24/04/2009] LITSA CONSULTING LTDA (2004). Actividad de la empresa. [en línea]. En: Colombia.acambiode. com: Empresas que intercambian. Bogotá: Colombia.acambiode. <http://colombia.acambiode. com/empresa_8377030092052685769495154534556.html > [Consulta 26/04/2009] PONJUÁN D., Gloria. (1998). Gestión de Información en las Organizaciones. 1 ed. Santiago de Chile: CECAPI. 222 p. ISBN: 956-7782-00-8 SOMMERVILLE, Ian. (2005). Ingeniería del software. 7 ed. Madrid: Pearson educación. 687 p. ISBN: 9701054733 SQA (2008). Software Quality Assurance [en línea]. Medellín: Software Quality Assurance S.A. <http://www.sqasa.com/> [Consulta 26/04/2009] SAQ-FACHGRUPPE INFORMATIK. (1998). 730-2002: Norma IEEE para planes de Calidad de Software. [en línea]. Brussels: The Institute of Electrical and Electronics Engineers. <www. saq.ch/software/Standards/IEEE_0730-2002.htm> [Consulta 02/05/2009] SAQ-FACHGRUPPE INFORMATIK. (2002). IEEE 1008-1987: Estándar Unidad de Pruebas de Software. [en línea]. Brussels: The Institute of Electrical and Electronics Engineers. <www. saq.ch/software/Standards/IEEE_1008-1987.htm> [Consulta 02/05/2009]

208


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Pautas para publicar en Ventana Informática La Revista VENTANA INFORMÁTICA, de frecuencia semestral, con el fin de agilizar los procesos de recibo, evaluación y publicación de los documentos, solicita atender las siguientes pautas.

1. Criterios de publicación La Revista VENTANA INFORMÁTICA es una publicación de carácter científicotecnológico, orientada a promover y difundir en Colombia y Latinoamérica, los desarrollos y la investigación en el área de la informática, las telecomunicaciones y disciplinas relacionadas. La Revista VENTANA INFORMÁTICA señala que la publicación de artículos no da derecho a remuneración alguna y que la responsabilidad del contenido de los artículos es de los autores, inclusive en lo relacionado con la propiedad intelectual de otros autores y/o fuentes, por lo que la Universidad de Manizales no asume responsabilidad por las opiniones expresadas en los documentos publicados. El contenido de los trabajos puede ser reproducido, total o parcialmente, citando procedencia y solicitando autorización escrita al Director antes de la publicación de dicho material. Asimismo, en la citación de trabajos publicados en esta Revista se debe incluir siempre la siguiente información: Revista Ventana Informática. Manizales (Colombia): Universidad de Manizales, número de la revista, página(s) y año de publicación. ISSN 0123-9678 La revista se constituye por derecho propio en un espacio abierto al debate académico y en esa medida fija los presentes criterios de publicación que actúan a manera de reglamento editorial.

2. Tipos de artículos publicables La Revista VENTANA INFORMÁTICA recibe artículos, en la perspectiva conceptual-disciplinal o de análisis práctico de la informática, las telecomunicaciones y las disciplinas que se consideren conexas con ella y sus desarrollos, que correspondan a cualquiera de estos dos tipos: 2.1 ARTÍCULO CIENTÍFICO Su objetivo es presentar los resultados originales de un proyecto de investigación y/o desarrollo. Todo artículo científico comprende las siguientes partes: Fundamento teórico, - Metodología, - Resultados y Discusión, - Conclusiones.

209


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

2.2 ARTÍCULO MONOGRÁFICO Tiene como objetivo comunicar una construcción novedosa (no se ha tratado o implica un nuevo tratamiento) y analítica sobre un tema determinado, como resultado de una compilación bibliográfica, de una investigación original o del análisis de experiencias. Presentan las siguientes partes: - Desarrollo de la temática, - Conclusiones. Los artículos son preferiblemente inéditos, y en caso de no serlo, los autores son responsables de obtener los debidos permisos para reproducir en esta revista.

3. Lineamientos para autores 3.1 Tamaño y fuente • Los artículos deben tener una extensión entre 10 y 30 páginas, tamaño carta (21,59 cm. x 27,94 cm.), con márgenes simétricas de 3 cm., e interlineado sencillo. Podrán ser escritos en los idiomas español, inglés, francés o portugués. En todos los casos deberá evitarse el corte de palabras. • La fuente utilizada es Arial 12 normal para el texto, y cursivas para títulos de obras, nombres de revistas, términos en otros idiomas o no reconocidos, y expresiones a las que se quiera dar relevancia en el cuerpo de texto. • Para los títulos se utiliza fuente Arial 12 en negrita. Los títulos de primer y segundo nivel se presentan en mayúscula sostenida, en tanto, los títulos de menor nivel se presentan en letra minúscula. • Todo el documento se justifica, excepto los títulos de primer orden, el nombre del autor o autores, el tipo de artículo, y los títulos de figura y tablas, que se presentan centrados. • Los artículos se presentan en procesador de texto, preferiblemente formato .doc, y se entregan en medio magnético o mediante correo electrónico. • En la primera página se presenta: - Título del artículo, debe facilitar la identificación del tema y su longitud no debe superar las 15 palabras. Se presenta en el idioma original del artículo (mayúscula sostenida, negrita, fuente Arial 14, centrado). Asimismo, se presenta en idioma inglés (entre [ ], mayúscula sostenida, negrita, fuente Arial 11, centrado), excepto cuando el artículo sea escrito en este idioma, que se presenta en español. - Nombre completo del autor o autores (fuente Arial 10, mayúscula sostenida, negrita, centrado) y, como nota de pie de página, su respectiva información académica y laboral (cargo, institución y dirección de correo electrónico). - Tipo de artículo (científico o monográfico, mayúscula sostenida, en fuente Arial 10, centrado, cursiva). - Resumen (texto en Arial 10, cursiva y justificado).

210


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

• • •

- Palabras claves (entre 3 y 6, en fuente Arial 10, justificado y en cursiva). - Abstract (en Arial 10, cursiva y justificado). - Key words (entre 3 y 6, en fuente Arial 10, justificado y en cursiva). Se utilizan adecuadamente la terminología técnica y científica correspondiente. La redacción del documento se realiza de manera impersonal. El documento debe presentar una adecuada secuencia lógica, que facilite su lectura comprensiva.

3.2 RESUMEN Todos los artículos incluyen su respectivo resumen en idiomas español e inglés, con longitud entre 60 y 300 palabras. Si el artículo está redactado en francés o portugués, tiene también su resumen en el idioma original. En el resumen se orienta al lector para identificar el contenido básico y su relevancia, al presentar de forma clara y breve los objetivos, el alcance del estudio, los procedimientos utilizados, los principales hallazgos y las conclusiones. 3.3 INTRODUCCIÓN Todos los artículos presentan la correspondiente Introducción, donde se identifica claramente el problema o la temática, presenta brevemente los trabajos más relevantes y las contribuciones de otros autores al tema, así como también se justifica la realización del trabajo. 3.4 CITAS BIBLIOGRÁFICAS Las citas textuales o directas deberán diferenciarse perfectamente del texto general mediante la utilización de comillas tipográficas (« »), y la indicación, entre paréntesis, del autor, año y página consultada (en caso de documento paginado). Si no se cuenta con el año de publicación, se utiliza la expresión s.f. (sin fecha). Ejemplos: «Es imposible hablar de los problemas sociales sin abordar la cuestión educacional. El acceso a la educación aún es muy precario, principalmente en ciertas regiones de América Latina» (Suaiden, 2004, 57). «Pero el anuncio del genoma es sólo el comienzo, porque el documento que ha generado –un libro con 3.300 millones de letras, el equivalente a 900 Biblias- es casi completamente misterioso» (Ridley, 2001, 26). «Las amenazas a la seguridad en una red pueden caracterizarse modelando el sistema como un flujo de información desde una fuente, como por ejemplo un fichero o una región de la memoria principal, a un destino, como por ejemplo otro fichero o un usuario. Un ataque no es más que la realización de una amenaza» (Álvarez, s.f.).

211


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

En caso de citas contextuales o indirectas, se indicarán el autor y entre paréntesis, el año y la página de donde proviene la información (en caso de documento paginado). Ejemplo: Según la CEPAL (2001, 11), la balanza de pagos o financiera argentina fue la única crítica en la región, contagiando, durante los trimestres segundo y tercero, a las economías vecinas, las cuales, debido a la evolución del cuarto trimestre, se confía que se habrían desvinculado de ella. Si existen varias referencias del mismo autor publicadas en el mismo año, se diferencian colocando las letras a, b, c, etc., a continuación del año, característica que se conservará en la bibliografía. Ejemplo: (Thomas, 2007a), (Thomas, 2007b), (Thomas, 2007c). 3.5 NOTAS DE PIE DE PÁGINA Se presentan en fuente Arial 10 justificado, enumeradas consecutivamente a lo largo del texto, cerciorándose de que todas estén correctamente identificadas en el texto. 3.6 FIGURAS Y TABLAS

Ejemplo de figura:

Sólo son utilizadas si contribuyen a la claridad y nitidez del texto. Se numeran, describen e invocan en el texto, y se ubican en la misma página o en la siguiente, después de su identificación. En caso de no ser original del autor del artículo, a continuación del título de la figura o la tabla, y entre paréntesis, se indica la fuente respectiva (Autor, año, página consultada). Las figuras se presentan, sin comprimir, en formato .jpg o .tif, Figura 1. Esquema de una red Wifi (Canut, 2006) preferiblemente en escala de grises. Además, se solicita que se uniformice el tamaño de las figuras, hasta donde sea posible, en aproximadamente 8.6x11.5 cm. Se recomienda que el contenido de las tablas se presente en fuente Arial 10.

212


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Ejemplo de tabla: Tabla 1. Atributos Básicos del Sistema (Cuervo, 2006, 117) Atributo Presentación Interfaz Tolerancia a Fallas Tiempo de respuesta Plataforma

Detalles y restricciones Será un ambiente de ventanas y menús fáciles de acceder y lógicamente distribuidos. La interfaz de usuario se desarrollará en un ambiente visual. Se validarán errores de acceso al sistema para evitar que se caiga. Inmediatos (5 a 25 segundos). Pueden variar según las velocidades de comunicación de los equipos Servidor con Sistema Operativo Windows NT Server 2000, base de datos MSDE (Microsoft Data Engine), código fuente en Borland Delphi versión 7.0. El Usuario puede acceder a él, con cualquier sistema operativo

3.7 BIBLIOGRAFÍA Todos los artículos presentan una bibliografía, que contiene tanto las referencias bibliográficas citadas en el texto, como también aquellas fuentes complementarias, ordenadas alfabéticamente por autor y sin ningún tipo de numeración o viñeta. Se recomienda presentar mínimo seis referencias pertinentes, actualizadas y confiables. • La información del autor es: APELLIDO, Nombre. En caso de varios autores se separan por punto y coma (;), excepto el último que se separa con la conjunción y, o su equivalente en el idioma de la referencia. Debe considerarse las normas internacionalmente aceptadas sobre diferencias de presentar los autores de acuerdo a su nacionalidad. • En caso de autor corporativo se coloca su nombre en mayúscula sostenida. Si en varias ciudades o países existe el nombre del autor corporativo, se indica la ciudad o país entre paréntesis. Ejemplo: MINISTERIO DE TRANSPORTE (Colombia); MINISTERIO DE TRANSPORTE (Venezuela). MUSEO DE ARTE MODERNO (Medellín); MUSEO DE ARTE MODERNO (Cartagena de Indias); MUSEO DE ARTE MODERNO (Bogotá); MUSEO DE ARTE MODERNO (México). • Si existen varias citas del mismo autor, se ordenan por año empezando por la más antigua. • Si existen varias citas del mismo autor publicadas en el mismo año, se diferencian colocando las letras a, b, c, etc., a continuación del respectivo año. • La referencia de alguien como editor o compilador, entre paréntesis, después del nombre sin coma previa, de preferencia abreviado y en minúsculas: (ed.), (comp.). • El estilo de referencia a utilizar es: - Revistas: Autor. (Año). Título del artículo. En: Título de la revista. Número del volumen, número de la entrega (mes, año). Lugar de publicación: Editorial. Paginación. ISSN

213


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

- Libros: Autor. (Año). Título. Edición. Ciudad: Editor. Paginación. ISBN Ejemplos: CEPAL. (2001). Balance preliminar de las economías de América Latina y el Caribe. Santiago de Chile: CEPAL. 105 p. ISBN: 92-1-32188-8 SÁNCHEZ ILABACA, Jaime. (2000). Informática Educativa. 3 ed. Santiago de Chile: Universitaria. 191 p. ISBN: 956-201-473-8 SUAIDEN, Emir José. (2004). El papel de la Sociedad de la Información en América Latina. En: CARIDAD SEBASTIÁN, Mercedes y NOGALES FLORES, J. Tomás. (comp.) (2004). La información en la posmodernidad: La sociedad del conocimiento en España e Iberoamérica. Madrid: Centro de Estudios Ramón Areces. 336 p. ISBN: 84-8004-643-0 - Tesis y otros trabajos de grado: Autor (año). Título. Tipo de trabajo (título académico). Ciudad: Institución. Paginación. Ejemplos: PARRA FUENTE, Javier. (2005). Servicios Web Reflectivos y Adaptables Dinámicamente sobre Servidores de Aplicaciones soportados por Máquinas Virtuales. Tesis doctoral (Doctor en Informática). Madrid: Universidad Pontificia de Salamanca. 308 p. SANABRIA HIGUERA, Fredy Mauricio y ROMERO VARGAS, Rafael Alfonso. (2005). Diseño e implementación de un sistema para el almacenamiento de historial clínico en tarjetas inteligentes. Trabajo de grado (Ingeniero Electrónico). Bogotá: Universidad de los Andes. 93 p. - Ponencias y Conferencias: Autor. (Año). Título. En: Nombre del evento, (días/ mes/año), Ciudad sede: Organizador del evento. Denominación de las memorias, Paginación. ISBN o ISSN. Ejemplos: PETRELLA, Carlos. (2008). Radios en Internet un aporte a la Sociedad de la Información y del Conocimiento. En: Semana Internacional del Conocimiento – VI Asamblea CISC (29-31/10/2008), Manizales: Comunidad Iberoamericana de Sistemas de Conocimiento, CISC. Recopilación de ponencias, p. 215-245. ISBN: 978-958-98891-0-7 VILLANUEVA NÚÑEZ, Édgar (2003). Batalla por el software libre en el Perú. En: II Congreso Internacional Software Libre GNU/Linux (7-9/05/2003), Manizales: Facultad de Ingeniería, Universidad de Manizales. Ventana Informática, Edición Especial, p. 25-28. ISSN: 0123-9678 - Documentos electrónicos: Autor (Año publicación o actualización). Título. [Método de acceso (en línea, fuera de línea, CD-ROM)]. Ciudad: Editorial. <Dirección completa de la ubicación del documento>. Fecha de consulta entre [ ]. Ejemplos: CANUT, Jordi. (2006). Crear una red WiFi en casa. [en línea]. Madrid: Casadomo. <http://www.casadomo.com/noticiasDetalle.aspx?id=8815&c=6&id m=10&pat=10> [Consulta: 12/07/2007] THOMAS, Florence. (2007a). Perdonar lo imperdonable. [en línea]. Bogotá: El Tiempo. En: EL TIEMPO.COM/ Editorial (01, may, 2007). <http://www.eltiempo.com/opinion/columnistas/florencethomas/ARTICULO-WEBNOTA_

214


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

INTERIOR-3539350.html> [Consulta: 12/06/2007] THOMAS, Florence. (2007b). Opción para mujeres. [en línea]. Bogotá: El Tiempo. En: EL TIEMPO. COM/ Editorial (26, jun, 2007). <http://www.eltiempo.com/opinion/columnistas/florencethomas/ARTICULO-WEBNOTA_ INTERIOR-3612893.html> [Consulta: 27/06/2007] En caso de revistas, libros o ponencias en formato digital, se utiliza el estilo respectivo indicado anteriormente, agregándole la dirección completa de la ubicación del documento y la fecha de consulta. 4. ENVÍO DE DOCUMENTOS Las convocatorias para el recibo de artículos se vencen en marzo 15 y septiembre 15 de cada año, aclarando que su recepción no implica la publicación ni el compromiso en cuanto a la fecha de publicación. Los artículos son enviados mediante correo electrónico a la dirección ventanainformatica@umanizales.edu.co, o entregados en disco en las instalaciones del Centro de Investigaciones de la Facultad de Ingeniería. Además del artículo en formato .doc, se entregan las figuras en formato .jpg o .tif debidamente identificados, y los datos del autor o autores, en el formulario Información de autores debidamente diligenciado. Comprobados el cumplimiento de los requisitos formales y la adecuación al interés temático de la Revista, el artículo será enviado a evaluación por parte de tres revisores expertos, de forma confidencial y anónima (doble ciego), quienes emiten su concepto sobre la conveniencia o no de su publicación, y las recomendaciones para mejoramiento del artículo, que es tenido en cuenta por el Consejo Editorial. El concepto será informado a los autores oportunamente mediante correo electrónico. Cada colaborador recibirá un ejemplar impreso del correspondiente número, así como la copia de su colaboración en formato .pdf.

215


Nº 21 - Universidad de Manizales, julio - diciembre / 2009

INFORMACIÓN DE LOS AUTORES PRIMER AUTOR*

Foto reciente

Nombres: Apellidos: Nacionalidad: Fecha de nacimiento: Lugar de nacimiento: Manera como desea aparecer citado: Título:_________________________________________________________ Institución:______________________________________________________

Información académica

Año de obtención: Título:_________________________________________________________ Institución:______________________________________________________ Año de obtención: Título:_________________________________________________________ Institución:______________________________________________________ Año de obtención: Dirección:______________________________________________________

Información residencia

Municipio:_____________________Departamento:_____________________ Teléfono fijo:___________________Teléfono celular:____________________ E-mail personal: Cargo:_________________________________________________________ Institución:______________________________________________________

Información laboral

Dirección:______________________________________________________ Municipio______________________Departamento:_____________________ Teléfono fijo: ___________________ Teléfono celular:___________________ E-mail laboral: E-mail personal_________________ E-mail laboral_____________________

Contacto preferido

Correo a residencia______________Correo a oficina____________________ Teléfono fijo residencia___________ Teléfono fijo oficina_________________ Celular personal

Celular laboral

* Se solicita usar tantas tablas como cantidad de autores.

REVISTA VENTANA INFORMÁTICA

Centro de Investigaciones, Desarrollo e Innovación de la Facultad de Ingeniería de la Universidad de Manizales Carrera 9 No. 19-03 oficina 239 Teléfono +576 887 9680 extensión 299 - Fax +576 8832718

Correos electrónicos: ventanainformatica@umanizales.edu.co o cifi@umanizales.edu.co

Manizales, Caldas, Colombia

216


CENTRO DE INVESTIGACIONES Y DESARROLLO - FACULTAD DE INGENIERÍA

Formulario para canje Estamos interesados en recibir la revista VENTANA INFORMÁTICA, en canje por: Título:

______________________________________

______________________________________

______________________________________

Periodicidad:

______________________________________

Director o editor: ______________________________________

______________________________________

Dirección contacto: ____________________________________

______________________________________

______________________________________

______________________________________

Cualquier información adicional en: CENTRO DE INVESTIGACIONES, DESARROLLO E INNOVACIÓN DE LA FACULTAD DE INGENIERÍA -CIDIFIUMUniversidad de Manizales, Oficina 239 Teléfono: 887 9680 extensión 299

Correos electrónicos: ventanainformatica@umanizales.edu.co o cifi@umanizales.edu.co

217


Nยบ 21 - Universidad de Manizales, julio - diciembre / 2009

218


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.