Revista fronteras del saber año 2 no 1

Page 1

UNIVERSIDAD SIMÓN BOLÍVAR

1

Directivos Universidad Simón Bolívar, Extensión Cúcuta Director de la Extensión

REVISTA FRONTERAS DEL SABER REVISTA DE LA UNIVERSIDAD SIMÓN BOLÍVAR, EXTENSIÓN CÚCUTA San José de Cúcuta, Diciembre 2010 ISSN – 2011-1150 Publicación científica que presenta la producción de trabajos de investigación de la Universidad Simón Bolívar, Extensión Cúcuta a la comunidad académica en general. Es una publicación anual que tiene como finalidad la publicación de artículos de investigación científica, tecnológica, de reflexión, revisión y transcripción, en los diferentes temas de la ciencia y la tecnología, cuya calidad se determinará por el grado de innovación que presenten los artículos publicados.

Tomás Wilches Bonilla Subdirección Académica Sandra Yaneth Wilches Durán Subdirectora Administrativa y Financiera Miriam Cecilia Wilches Durán Subdirectora de Bienestar Universitario Myrian Alicia Duran de Wilches Secretario General William Tomas Wilches Durán Coordinación y Dirección General de la Revista Sandra Yaneth Wilches Durán

Periodicidad Anual

Comité Editorial

Presentación

Francisco Espinel Forero

Todos los artículos recepcionados se someten antes de la publicación a la revisión de pares evaluadores externos. Los autores de los trabajos asumen toda responsabilidad que pudiera derivarse de los mismos. Se autoriza la reproducción total o parcial de los artículos citando la fuente y los créditos de los autores. Nota del Editor La corrección de la edición ha sido responsabilidad del autor. Segunda Edición Diciembre 2010 Diseño, diagramación e impresión Offset La Opinión S.A. 5710632 Cúcuta, Colombia.

Competencias Comunicativas Coordinador de Investigación Jovanny Gómez Vahos Editora Laura Vianey Barrera Rodríguez Comité Científico Dr. Sir Alecxis Suárez Castrillón Dr. Gabriel Peña Rodríguez Dra. Yolanda Antonia Gallardo de Parada


2

FRONTERAS DEL SABER

Contenido Las tecnologías de la información y la comunicación en el contexto educativo actual Information technology and communication in the current educational background

Sonidos de nuestros ancestros… los hijos de la selva Sounds of our ancestors ... the daughters and sons of the forest

Recuperación de la tradición oral Nortesantandereana en el geriátrico “Rudesindo Soto” de la ciudad de Cúcuta Recovery of oral tradition in Northsantander geriatric “Rudesindo Soto” in the city of Cúcuta

Fortalecimiento Asociativo y Administrativo de Microempresas del Barrio Alonsito de la Comuna 6 del Municipio de San José de Cúcuta Strengthen partnerships and Microenterprise Administrative District of the Commune Alonsito 6 of the Municipality of San José de Cúcuta

Análisis histórico – epistemológico del concepto mol: una mirada hacia el pasado que renueve la enseñanza del presente Historical analysis - the concept epistemological mol: a look at the past to renew the education of this

Requisitos preliminares de las aplicaciones en un plan de migración de software propietario a libre Preliminary requirements for applications in a plan of migration of proprietary software for free

Modelado de ontologías usando técnicas de inteligencia artificial, ingeniería de software y bases de datos. Ontologies modeling using artificial intelligence techniques, software engineering and databases

Agentes móviles (AM) en computación ubicua (CU) Mobile agent (MA) ubiquitous computing (UC)

Diseño e implementación de un sistema para la supervisión del proceso de secado de la línea cerámica Monserrate, basado en un sistema “Scada” (supervisory control and data acquisition)1. Design and implementation of a system for monitoring the drying process of ceramic Monserrate line based on a SCADA (Supervisory control and data acquisition).

4

12

17

21

27

33

38

44

52


UNIVERSIDAD SIMÓN BOLÍVAR

3

Presentación Uno de los indicadores que refleja la inversión de una sociedad en investigación y desarrollo (I+D), son sus publicaciones; por lo tanto las universidades tienen la responsabilidad de destinar mayores esfuerzos a la producción de conocimiento científico en los campos de conocimiento en que se desenvuelven, traducibles en mayor número de artículos en Ciencia e Investigación (C+I). De acuerdo a lo anterior, la Universidad Simón Bolívar extensión Cúcuta, se complace en presentar la 2da edición de la revista Fronteras del Saber, una publicación anual que tiene como finalidad la divulgación de artículos de investigación científica, tecnológica, de reflexión, revisión y trascripción en los diferentes temas de ciencia y tecnología. De esta manera se sigue haciendo hincapié en el lema que representa a esta alma Mater: “la Universidad es la luz del pueblo y el pueblo es la voz de Dios”, es por ello que estamos convencidos de que con esta muestra de resultados de investigación científica, seguimos avanzando en pro de ser los abanderados en materia de Ciencia y Tecnología de nuestro país, porque creemos y tenemos fe que este sueño cada día debe dar mas frutos para nuestra sociedad. TOMAS WILCHES BONILLA Director - Universidad Simón Bolívar Extensión Cúcuta


4

FRONTERAS DEL SABER

Las tecnologías de la información y la comunicación en el contexto educativo actual Franlet Rocío Araque Castellanos1

Resumen Las tecnologías de la información y la comunicación (TIC´s), se incorporan masivamente en los diferentes ámbitos de la vida cotidiana de las sociedades contemporáneas. La educación en el siglo XXI integra dichas tecnologías como un elemento competitivo en sus procesos educativos. Así, resulta importante reflexionar sobre los cambios, retos y potencialidades de integrar las TIC´s a la Educación. Con este propósito, se presenta a continuación una revisión de las investigaciones y experiencias internacionales, latinoamericanas y nacionales que dimensionan las relaciones y los encuentros entre las TIC´s y la educación para formular líneas de investigación sobre el tema. Palabras Clave: Pedagogía, tecnologías de la información y la comunicación, prácticas pedagógicas.

Abstract The technologies of information and communication technologies (ICT´s) were introduced on a massive scale in different areas of daily life in contemporary societies. Education in the XXI century integrates these technologies as a competitive element in their educational processes. Thus, it is important to reflect on changes, challenges and potentials of integrating ICT´s in education. To this end, the following is a tour of research and international experiences and national sized Latin American relations and encounters between ICT´s and education in this way, think of lines that guide research on the topic. Keywords: Pedagogy, information and communication technologies, pedagogical practices.

Introducción

P

ara las generaciones educadas antes de la masificación de las computadoras personales, el internet y los dispositivos móviles, el libro fue la tecnología imperante en el sistema educativo tradicional y por lo tanto la primera 1

tarea en este sistema era aprender a leer y a escribir. Hoy en día, resulta sugestivo que los niños de edad pre-escolar manipulen los videojuegos aún antes de conocer las primeras letras. Para algunos estudiosos en el tema, “Son los nativos digitales, aquellos “teens” que nacieron cerca de un computador personal o un Nintendo, que han visto los mouse

Psicóloga. Candidata a Magister en Estudios Culturales - Centro de Investigación Universidad Simón Bolívar- Extensión Cúcuta. Directora Grupo de Investigación Reconstruyendo Redes.*e-mail: franlet@gmail.com


UNIVERSIDAD SIMÓN BOLÍVAR

y teclados desde pequeños y que aprendieron a interactuar con ellos naturalmente, los que no conciben ir a revelar un rollo para ver las fotografías que tomaron, los que consideran una pérdida de tiempo escribir una carta y enviarla por el correo tradicional” (Cárcamo, 2008). Hasta aquí todo suena bien, aún si se considera que los avances en las TIC´s impactan significativamente la educación, especialmente si se cuenta con los recursos para que todos accedan a ellas, sin embargo, la realidad es diferente. El término brecha digital es usado por políticos y académicos para referirse a “estas desigualdades al momento de acceder a la tecnología, basadas en factores de ingresos y educación”. (Orduz, 2010) Algunas cifras del Informe Mundial 2010 de la UIT y referenciadas por Orduz (2010), muestran diferencias mundiales marcadas en este aspecto. En las economías avanzadas, el 71% de los habitantes están conectados, mientras que en los países en vía desarrollo sólo el 21% lo están. En Colombia, la penetración de los PC´s (número de computadores por cada cien habitantes) ha aumentado notoriamente en los últimos años hasta alcanzar un valor del 23% en la actualidad. Ante estas limitaciones tecnológicas, los Estados se han preocupado por financiar programas de ampliación del acceso a los computadores y el internet para reducir la brecha. Sin embargo, junto a esta necesidad de mejoramiento del acceso y de la infraestructura en los centros educativos, comunitarios y en los hogares, se requiere el diseño de programas, metodologías y estrategias didácticas que capaciten a los usuarios en el manejo de herramientas informáticas que sirvan tanto en la educación como en la vida laboral. Por lo tanto, conviene ser prudente en el uso de las TIC´s en el contexto educativo ya que la incorporación de tecnologías de vanguardia no garantiza la calidad de la educación. La imprenta de Gutenberg también fue una innovación tecnológica y cultural que de alguna manera se compara en la actualidad con los sistemas informáticos, sin embargo, dicho artefacto por sí solo no garantizó la educación crítica y en el presente, quinientos años después, también existen “analfabetas funcionales” que aunque leen y escriben no desarrollan las mínimas competencias lectoras. El uso del computador no es sinónimo de calidad en los procesos pedagógicos, pero por otra parte es

5

imposible desconocer la importancia de las TIC´s en el ámbito educativo.

Nuevas tecnologías de la información en la educación. Las tecnologías de la información y la comunicación se insertaron en los diferentes ámbitos de la vida individual y colectiva e influyeron en las actividades, actitudes y modos de vida de los seres humanos, considerándose hoy como objetos de estudio. Los avances crecientes en materia de dispositivos y herramientas tecnológicas, aumentan el interés de estudio desde diferentes perspectivas de incidencia en la educación, la cultura y el nacimiento de una nueva cultura o Cibercultura (Rueda,2008). De esta forma, las investigaciones referentes al uso y apropiación de las TIC´s han sido abordadas e implementadas con diferentes enfoques y metodologías. Las investigaciones en torno a las TIC´s, no son ajenas a las dinámicas de la “economía-mundo capitalista” que integra la producción tecnológica en los países centro con la distribución hacia la periferia. Es así que “los centros de poder… son los primeros en explorar la emergencia del fenómeno de las TIC´s, ya que son los escenarios donde más tempranamente aparecen y emergen las modificaciones al sistema social. Los países del primer mundo desarrollan y adoptan la tecnología antes que los países en vía de desarrollo, así también su academia incursiona más temprano en las interpretaciones que dicha tecnología propicia” (Ramírez; Arellano & Zermefio 2007). De esta manera, los países Europeos han sido los más interesados en integrar las TIC´s a su fuerza laboral iniciando este proceso con la incorporación de las TIC´s en la Educación. Las directrices de la Unión Europea, implementan el proyecto e-learning, y las iniciativas públicas al amparo de gobiernos locales y de organizaciones no gubernamentales, haciendo un llamado a la “Alfabetización digital” (Moreno, 2008). La AD es un proceso que promueve en aprendizaje en el manejo de los dispositivos electrónicos como el PC, los móviles (celulares) y las cámaras fotográficas entre otros, como requisito para ajustarse a la Sociedad de la Información y la Comunicación. Sin embargo, Moreno (2008) resalta la posibilidad


6

FRONTERAS DEL SABER

de que la AD derive exclusiones que “se generan ante las nuevas formas de pensamiento, de comunicación, de educación y de trabajo”, además de acentuar las inequidades existentes en términos geopolíticos, económicos y culturales que amplían la brecha digital. A nivel individual, algunos de estos factores de disyunción surgen en relación a las condiciones de género, edad y nivel socio-cultural. Las disparidades en la producción, acceso e incorporación de las TIC´s son evidentes en los países latinoaméricanos y siguen la lógica implantada en el “Sistema Mundo Capitalista” ya que Latinoamérica no es ajena a la adopción de las nuevas tecnologías informáticas. El uso actual de los teléfonos móviles es generalizado entre poblaciones urbanas y rurales, es el caso de países como Colombia, donde en el año 2008, el número de celulares activos se equiparaba con el número de la población total del país (elespectador.com, 21/ene/2009). Los ámbitos académicos y culturales no son ajenos a esta realidad y por esto, en las últimas décadas también se han visto avocados a construir redes de colaboración en el estudio de las TIC´s, sin embargo, la dependencia de los centros de conocimiento en la búsqueda de los estándares europeos y norteamericanos es latente. Muestra de ello es el proyecto INTEGRA, financiado por la Unión Europea para incorporar TIC´s en América latina durante tres años, el cual marcó un punto de partida para el desarrollo de esta innovación tecnológica. Este proyecto busca que los países adopten y utilicen efectivamente, políticas públicas en la enseñanza y administración de las instituciones educativas, vinculando de manera directa a través de una red de centros de innovación, Cede I, a directivos, docentes, personal técnico y estudiantes de países como Argentina, Chile y Uruguay, apoyados por países europeos como España, Italia e Irlanda. El proyecto se inició con la integración de las TIC´s en los procesos pedagógicos y administrativos de las instituciones, se continuó con la organización de las redes para compartir vivencias y se expandió con la multiplicación de experiencias en diferentes instituciones educativas. Siguiendo en el contexto latinoamericano, y particularmente el colombiano, Martín-Barbero (2002), Orozco (1996), Valderrama (2004) y Rueda (2008) se acercaron al estudio de las mediciones tecnológicas con la convicción de que la educación debe convertirse en el espacio de conversación de los saberes y las narrativas

que configuran las nuevas oralidades, literalidades y visualidades. Según el balance de la revista de Estudios sobre las Culturas Contemporáneas, “las categorías conceptuales van desde comunicación mediada por computadora (CMC), modalidades de uso y apropiaciones, memorias mediáticas, rutinas de producción, expectativas de vida, significados sociales, relaciones de poder, tecnología hablada, mundos posibles, tiempo libre, cibercultura e identidades” (Ramírez et al, 2007) En dichos estudios, se aprecia una variedad de dispositivos analizados como la computadora, los videojuegos, el Internet, el CD-ROM y el Chat. En este mismo sentido, “Las poblaciones estudiadas son productoras de tecnología, profesores, jóvenes y niños. Las metodologías empleadas son variadas y ricas no solo en su concepción sino en sus combinaciones: inductivo - deductivo, histórico - descriptivo, constructivista, cuantitativo y cualitativo; las técnicas empleadas incluyen los grupos de discusión, las redes semánticas, los grupos focales, el proceso documental, las entrevistas, etnografía y la encuesta”. (Ramírez et al ,2007). Respecto a las investigaciones de corte interpretativo, Sanz (2006), resalta que a nivel metodológico “las investigaciones cualitativas etnográficas de las TIC´s son muy recientes pero revelan una aproximación de la configuración del ciberespacio como nudo de relaciones con varias tendencias: las que consideran el espacio tecnológico como una mediación de la comunicación, las que lo señalan como un límite y evitación para la intimidad de las relaciones y las que lo recomiendan para establecer relaciones efectivas de cualquier tipo”.(Sanz, 2006). Desde el campo de las aplicaciones pedagógicas de las nuevas tecnologías en la educación, se referencian varias experiencias y aprendizajes. En el campo educativo, las investigaciones se han segmentado respondiendo a necesidades específicas de los docentes, los estudiantes y en algunos casos se ocupan de la interrelación entre estos. De igual manera, las apropiaciones en el campo educativo de las TIC, buscan desarrollar desde la alfabetización digital de forma instrumental, hasta las propuestas que enfatizan el aprendizaje colaborativo y el surgimiento de nuevos modos de pensar, interactuar y construir ciudadanos. Según Moreno (2008), “en el sistema educativo, la tecnología desempeña principalmente tres funciones: la función tradicional de instrumento para que los alumnos adquieran un nivel mínimo de conocimientos


UNIVERSIDAD SIMÓN BOLÍVAR

informáticos; la de apoyar y complementar los contenidos curriculares y una tercera como medio de interacción entre los distintos componentes de la comunidad educativa”. Autores como Martín-Barbero (2002), Sanz (2006) y Valderrama (2004), enfatizan este último enfoque, resaltando que gran parte de las investigaciones “concluyen en la necesidad de articular las TIC´s con los procesos pedagógicos que posibiliten la interacción y el aprendizaje cooperativo y solidario” (Sanz, 2006). Lo que está en juego, es el papel tradicional de la educación y su capacidad de reinventarse, lo cual constituye un reto monumental, especialmente si se tiene en cuenta que el sistema educativo, se resiste a cambiar en varios sentidos como estructuras verticales y reguladoras que la han consolidado durante siglos. Actualmente, la discusión sobre el cambio de modelos educativos tradicionales es el producto de una discusión de varias décadas y los docentes son más conscientes en este sentido. Por lo tanto, pensar en una educación que integre los avances de las TIC´s en la educación, se considera como una revolución pedagógica en la que se deben analizar los roles de estudiantes y los profesores. Así lo expresa Marín, Flora & Armentia, quienes resaltan que la profesión docente vive cambios en los cuales “se le pide que asuma el papel de guía, moderador, orientador virtual y tutor, al docente se le debe educar para alcanzar el nivel exigido en este nuevo escenario educativo…” Desde el rol del estudiante, se visualiza un desafío de vivir su educación “como alguien independiente, autosuficiente y motivado” (Marín, Flora & Armentia 2009). Algunas concepciones ideales de las prácticas educativas plantean un período de transición y cambio para atender esta coyuntura.

Las TIC´s en las manos de los docentes y los estudiantes. Las investigaciones que involucran los actores y los escenarios de las apropiaciones de las TIC´s en las prácticas educativas, deben remitirnos a los conceptos que consideran las experiencias de los docentes, los estudiantes y las instituciones educativas. En el caso de los docentes, las investigaciones abundan y adoptan diferentes contextos de apropiación de las tecnologías en relación con sus habilidades, actitudes

7

y competencias, así como la resistencia al cambio, los usos y las prácticas. Desde la visión de los estudiantes, se enfatiza en la capacitación en informática, los usos de las tecnologías y su relación con los modelos pedagógicos. Con relación a las instituciones educativas, las investigaciones aun son incipientes y con vacíos, como lo resalta Jaramillo, al enfatizar que “… son escasos los estudios e investigaciones que identifiquen qué sucede en las aulas cuando los maestros y estudiantes hacen uso de las TIC´s” (Jaramillo, 2005). En torno a la incorporación de las TIC´s en las prácticas docentes, se enfatiza que no basta con la alfabetización digital y el desarrollo básico de aptitudes informáticas. En este sentido, la UNESCO (2000) define que por muy compleja, sofisticada y accesible que sea la tecnología, requiere un contexto de apropiación. Cuando las TIC´s están desvinculadas de los proyectos educativos planificados, de las experiencias organizadas o de las intenciones pedagógicas y sistemáticas, tienen pocas posibilidades de generar innovaciones para mejorar la calidad educativa. “La tecnología no es solo un asunto de competencia instrumental, tiene que ver con la relación social en que se implanta: la mejor tecnología puede fallar en un medio de relación pedagógica precaria.” (Sanz, 2005). En este sentido, los Estados Unidos y el Reino Unido cuentan con investigaciones que revelan cómo pueden aprender los docentes con las tecnologías digitales y cual es su impacto en las políticas educativas y las prácticas escolares. (Fisher, Higgins, Loveless, 2006) (Dede, 1996, 2004). En investigaciones como Teachers learning with digital technologies: a review of research and projects, (Fisher, Higgins, Loveless, 2006), se realiza un análisis de cinco estudios de casos desarrollados en el Reino Unido, los cuales concluyen que las dificultades en la apropiación de las tecnologías digitales aprendizaje por parte de los docentes no condiciona la eficiencia de los procesos tecnológicos, sino que representa un cambio de la cultura en la profesión docente. Desde México, Alcántara referencia el proyecto @ prende dirigido a los docentes, el cual “…tiene interés en ambientes que aprovechan la tecnología para incrementar los niveles de interacción entre los profesores y estudiantes, tomando en cuenta que la riqueza de la experiencia educativa está relacionada con el grado de interacción. En este esquema, los profesores también participan como agentes de aprendizaje y no sólo como proveedores de conocimiento”. (Alcántara, 2007).


8

FRONTERAS DEL SABER

Esta misma idea está presente en el reciente estudio de Tejedor, García -Valcárcel y Prada sobre las actitudes del profesorado universitario ante la integración de las TIC´s. “El verdadero reto de la educación no está en la innovación tecnológica sino en la innovación pedagógica, que deberá incluir el uso de las herramientas didácticas más apropiadas (entre ellas las TIC´s), para diseñar actividades de aprendizaje de calidad para los estudiantes, bajo los parámetros de modelos educativos constructivistas y colaborativos (Tejedor, García-Valcárcel y Prada 2009)”. Gargallo, Suárez & Almerich, se acercan al estudio de las actitudes en los docentes, concluyendo que “los profesores con un mejor perfil actitudinal son los que realizan un uso más intenso y eficaz de Internet tanto en lo referido al uso personal en casa, como al uso en el centro con sus diversas funcionalidades posibles (visita a páginas web, obtención de información, uso curricular, uso con alumnos, usos avanzados, etc.)”. (Gargallo, Suárez & Almerich, 2006). De allí se desprende la sugerencia de los investigadores de integrar el componente actitudinal de los profesores con las habilidades en TIC´s. En otras palabras, las actitudes como unidad de análisis psicológico, integran percepciones, cogniciones, afectos y comportamientos ante una situación dada, lo que en términos culturales sugiere a los docentes cambios en las creencias e imaginarios en las prácticas. De forma paralela, las TIC proponen retos y cambios a los estudiantes, no sólo en función de adquirir destrezas que sus padres nunca desarrollarán, sino en cuanto al cambio de perspectivas e intereses de aprendizaje mediados por las demandas del mercado laboral en la “Sociedad del conocimiento”, como escenario cada vez más exigente en la formación de su personal. Para Cabero (2006), el nuevo estudiante debe poseer las siguientes destrezas: “conocer el momento de la necesidad de información, identificar la necesidad, trabajar con diversas fuentes y sistemas simbólicos, conocer, evaluar, discriminar y organizar la sobrecarga y la calidad de la información, tener habilidad para la exposición de pensamientos, demostrar eficacia en el uso de la información para dirigir el problema y saber comunicar la información…”. (Citado por Marín, & Armentia, 2009). La enseñanza atraviesa una transición desde un modelo instruccional y conductual en el que la transmisión directa de conocimientos del profesor al estudiante pierde privilegios al convertirse en una facilitación por parte de

los docentes. En este orden de ideas, la educación ayuda al estudiante no solo a desarrollar habilidades cognitivas sino a desarrollar el interés y la habilidad para resolver situaciones problemáticas con la ayuda de otros a partir de la experiencia y la reflexión. El aprendizaje autónomo del estudiante se presenta como una de las ventajas del proceso. Se trata de crear un sentimiento de comunidad entre los participantes donde el diálogo y el feed back deben posibilitar la construcción de un conocimiento compartido y enriquecido por los aportes de los integrantes. Las nuevas tecnologías por si mismas no conllevan necesariamente a una modificación de las inercias pedagógicas del pasado; Francesc Esteve señala que: “Existe un desfase entre la potencialidad de las TIC´s incorporadas en las aulas y la escasa renovación de los procesos pedagógicos. (...) Sólo asociadas a adecuadas prácticas educativas pueden ser una gran fuente de posibilidades de aprendizaje contextualizado.” (Citado por, Marín & Armentia, 2009). Sin embargo, los resultados en las aulas señalan que el trabajo aún es incipiente. Jaramillo (2005), en observaciones a las Instituciones educativas distritales de básica primaria en Bogotá, encontró que el uso del computador por parte de los estudiantes no desarrolla argumentos en torno a algún tema ni reconocen la necesidad de la información para el aprendizaje. Tampoco adelantan actividades que facilitan el desarrollo de productos para expresar su comprensión sobre algún tema. Por lo tanto, sugiere adelantar procesos formativos con los maestros acerca de las estrategias metodológicas apoyadas en las TIC´s, que se centran en los estudiantes y no en los equipos, el software o los contenidos y que privilegian la comprensión sobre la memorización, sacando provecho de la tecnología para apoyar el aprendizaje.

Las TIC´s en el contexto Colombiano. Aunque el debate académico se ha desarrollado desde la década de los ochenta, las políticas de Estado sobre el acceso y la incorporación de TIC´s son recientes. En el marco de las políticas nacionales de educación tendientes a ampliar la cobertura, mejorar la eficiencia del sector y la calidad de la educación, surge el Programa Nacional de Uso de Medios y Tecnologías de Información y Comunicación en el año 2002, como una iniciativa del Ministerio de Educación y del Gobierno Nacional


UNIVERSIDAD SIMÓN BOLÍVAR

encaminada a mejorar la calidad de la educación. (Ministerio de Educación Nacional, 2006). El desarrollo del programa contempla el acceso, los usos y las apropiaciones de las TIC´s. El primer objetivo ofrece un acceso a las tecnologías informáticas que se desarrolla con proyectos como la Red de Conocimientos de Colombia Aprende, consistente en un portal que ofrece contenidos a los instituciones educativas, el proyecto Computadores para Educar, como proveedor de la infraestructura y Compartel como proveedor de conectividad (Conexión a la red). (Ministerio de Educación Nacional y CEP, 2006). El segundo eje hace referencia a los usos con iniciativas enfocadas hacia la formación de los docentes, bajo un modelo de desarrollo profesional apoyado con nuevas tecnologías; este sistema conocido como PIOLA, busca desarrollar los siguientes elementos en el medio educativo: P: Productividad individual, simplificando las actividades y amplificando la capacidad personal. I: Mediatizar la Interacción sincrónica o asincrónica con el apoyo de la red. O: Explorar Objetos de estudio, indagación, construcción y expresión del conocimiento. L: Apoyar Labores educativas de preparación de clase, pruebas, creación y administración de los ambientes de aprendizaje. A: Ampliar el Acervo cultural, científico y tecnológico mediante la actualización basada en la consulta de fuentes directas Este acompañamiento de docentes se materializa en proyectos como: “A que te cojo ratón”, “Educar para el futuro” y “Entre pares”, los cuales se orientan hacia la capacitación del docente en el diseño de Ambientes de Aprendizaje que incorporan las TIC´s para apoyar el mejoramiento institucional y el desarrollo de las competencias básicas de los estudiantes. En el marco de las directrices del Ministerio de Educación, se mantienen como ejes transversales tres políticas centrales: el mejoramiento de la calidad educativa, la ampliación de la cobertura de la educación y el mejoramiento en la eficiencia del sector educativo. Entre éstos se encuentra el Programa Nacional de Uso de Medios y TIC´s en Educación, donde se enmarca la iniciativa de objetos virtuales de aprendizaje (OVAS). Para Leal (2008), el trabajo de este equipo evidencia las diferencias entre un recurso digital básico y un objeto

9

virtual de aprendizaje, los cuales guardan una similitud estructural con la utilizada por CISCO Systems (1999) en sus procesos de entrenamiento: (Leal, 2008).

Conclusiones La incorporación de las nuevas TIC´s en las prácticas educativas, es un factor decisivo en la búsqueda de una educación de calidad. Sin embargo, en Latinoamérica la brecha tecnológica representa un obstáculo para el acceso y la infraestructura que se agudiza con la exclusión de los sectores vulnerables de la población como los escolares menores de edad y los adultos mayores de bajos recursos. Aunque es urgente capacitar a los docentes y estudiantes en el desarrollo de competencias en informática, los resultados de las investigaciones enfatizan la necesidad de priorizar los cambios sustanciales en las prácticas pedagógicas para apropiar las TIC´s en la educación más allá de la utilización de modelos instruccionales y conductuales. Los horizontes para la investigación en TIC´s, plantean un reto ineludible para la educación, de acuerdo con los siguientes principios: La mediación entre el docente y el estudiante no se basa únicamente en la presentación digital o visual de textos informativos altamente conceptualizados, sino en el acercamiento meta - teórico e interactivo basado en la optimización de la utilidad de las TIC´s. Los estudios etnográficos aplicados en las “redes sociales virtuales” plantean la reinvención de las posibilidades de estudio de esta disciplina desde la perspectiva virtual como una experiencia en nuevos mundos posibles. De acuerdo con esto, surgen propuestas técnicas basadas en el análisis tecnológico, que facilitan la realización de estudios investigativos desde el enfoque cualitativo donde el interés por las problemáticas educativas está materializado en las herramientas tecnológicas de carácter investigativo.


10

FRONTERAS DEL SABER

Bibliografía ALCÁNTARA, Ó. 2007. “Capacitación de profesores para gestar la virtualidad”. Apertura, Año 6, núm.3 (nueva época) CÁRCAMO ULLOA, Luis Ramón et adl. (2008): “Nativos Digitales Chilensis: Los jóvenes, al sur de la Internet”, en Revista Latina de Comunicación Social, 63, páginas 22 a 30. La Laguna (Tenerife): Universidad de La Laguna. Tomado de: http://www.ull.es/publicaciones/latina/_2008/03_ Carcamo_y_Nesbet.html DEDE, Chris. 2004. “Planning for “Neomillennial” learning styles: implications for investment in technology and faculty”. (Harvard Graduate School of Education). elespectador.com 21 de Enero de2009. Tomado de: http:// www.elespectador.com/noticias/negocios/articulo110117colombia-hay-un-celular-persona. Consulta del 15 de Noviembre de 2010. FISHER,T; Higgins, C ; Loveless, A. 2006 “Teachers learning with digital technologies: a review of research and projects”. Futurelab series, Report 14, 2006. www.futurelab.org.uk/download/pdfs/research/lit_ reviews/futurelab_review_14.pdf GALVIS, Álvaro 2006. “Desarrollo profesional docente con apoyo de tecnologías de información y de comunicación”. Marco Conceptual desarrollado para la Alianza por la educación MEN-MICROSOFT GARGALLO, B; Suárez, J & Almerich, G. 2006. La influencia de las actitudes de los profesores en el uso de las nuevas tecnologías. Revista española de pedagogía año LXIV, No. 233, enero-abril 2006, Pág. 45-66. JARAMILLO, Patricia. 2005. “Uso de tecnologías de información en el aula. ¿Qué saben hacer los niños con los computadores y la Información?”. Revista de estudios sociales No. 20, junio del 2005, Pág. 27-44. EBSCO Host. Biblioteca de la Universidad Nacional de Colombia, Bogotá. Consulta, de enero del 2010. LEAL, Diego Ernesto. 2008. “Iniciativa colombiana de objetos de aprendizaje: situación actual y potencial para el futuro”. Apertura, año 8, No. 8 (nueva época), noviembre del 2008.

MARÍN, Flora y Armentia, José. 2009. “Los estudiantes frente al reto de las TIC en la universidad. Moodle y eKasi en la Facultad de Ciencias Sociales y de la Comunicación” (Universidad del País Vasco). Revista de Estudios de Comunicación. Zer Vol. 14 No. 27 Pág. 11371102 pp, 319-347 MARTIN-Barbero, Jesús 2002. “La educación desde la comunicación”. EDUTEKA (Junio 8 de 2002). Editorial Norma 2002. MINISTERIO DE EDUCACIÓN NACIONAL 2006. “Hacia un Modelo de desarrollo profesional de docentes en el uso de medios y nuevas tecnologías”. VIII Encuentro Académico, Alianza Universidades CPE, Medellín. MINISTERIO DE EDUCACIÓN NACIONAL. 2006. “Proyecto estratégico para la competitividad: Uso de medios y tecnologías de información y comunicación en educación.” MORENO, M. 2008. “Alfabetización digital: el pleno dominio del lápiz y el ratón”. Comunicar, 30, XV. 2008. ORDUZ, Rafael. 2010. Del informe Mundial 2010 de la UIT: La conectividad aumenta…aunque hay enormes brechas aún. Tomado de: http://colombiadigital.net/index. php?option=com_k2&view=item&id=414:del-informemundial-2010-de-la-uit-la-conectividad-aumentaaunquehay-enormes-brechas-a%C3%BAn&Itemid=284 Consultado el 20 de noviembre del 2010. OROZCO, Guillermo. 1996. “Educación, medios de difusión y generación de conocimiento: Hacia una pedagogía crítica de la representación”. Revista Nómadas No. 5 Septiembre 1996 - Febrero 1997. Universidad Central, Bogotá Pág. 23-30 RAMÍREZ, Vanessa, Arellano, Aide & Zermeilo, Ana. 2007. “¿Qué ha publicado ESCC sobre Tecnologías de información y comunicación (TIC)?”: un objeto de estudio emergente. Estudios sobre las Culturas Contemporáneas. Época II. Vol. XIII. No. 26, Colima Pág. 127-136. RUEDA, Rocío. 2008. Cibercultura: metáforas, prácticas sociales y colectivas en red. Nómadas 8. Pág. 8-20. SANCHO Gil, Juana. 2002. Las tecnologías de la información y la comunicación en la enseñanza superior:


UNIVERSIDAD SIMÓN BOLÍVAR

Una comunicación compleja. Educación y Pedagogía 14,33, 31: 28-48 (Medellín) Universidad de Antioquia. SANZ, J. 2006. “Elementos para un marco conceptual sobre la incorporación de las TIC en la educación.” Cuadernos de Filosofía Latinoamericana 27, 94. VALDERRAMA, Carlos. 2004. Discursos y dinámicas comunicativas escolares. Revista colombiana de educación 46, 136-154. 2004.

11


12

FRONTERAS DEL SABER

Sonidos de nuestros ancestros… los hijos de la selva Julio Hoyos, Yahir1, Pacheco Flórez, Ileana2

Resumen La Coordinación de Cultura y Ciudadanía de la Universidad Simón Bolívar – Extensión Cúcuta, y el Grupo de Investigación Gestores de la Cultura Nortesantandereana; lideran un proceso investigativo de los aspectos folclóricos referentes a las expresiones musicales, dancísticas, demosóficas, mitología y cultura ciudadana, de la Cultura Motilón Barí. Este informe es el producto de la primera fase de la investigación, y presenta los datos encontrados acerca de las expresiones musicales de la Comunidad Barí a través de la revisión de literatura y entrevistas. Todo esto tiene como propósito integrar el folclor de los ancestros nortesantandereanos a los grupos culturales de la Universidad para dar a conocer su cultura y fomentar la identidad regional. Palabras Clave: cultura, música, Barí, motilón, folclor, identidad regional

Abstract Coordination of Culture and Citizenship at the Simón Bolívar University in Cúcuta, leads a research process about the state of art of Motilón Barí Culture, specifically on aspects like folklore, organized in four major expressions: music, dance, art anculinary, mythology and citizenship culture. This report represents the first step of the investigation, which presents the data about musical expressions of the Barí Community, found through a literature review and interviews. All this, is intended to integrate Motilon Barí’s culture to cultural groups in the University, promoting its culture and fostering regional identity. Keywords: culture, music, Barí, motilón, folklore, regional identity Ishtana El territorio es el origen del hoy y la Construcción del mañana, es la otra Mitad del Barí, es la vida, el reflejo de los ancestros, Es la historia de una lucha, es la leyenda viva. Eso lo que saben los jóvenes y lo retienen con su cuerpo, con su razón, con sus sueños, con su memoria… Gobernación del Norte de Santander (2003).

Introducción

L

a Universidad Simón Bolívar – Extensión Cúcuta, plantea en su Misión que al interior de la Institución “se valora y cultiva la identidad, la cultura propia y el respeto del ancestro” (Universidad Simón Bolívar, 2008). Por esta razón, la realización de un proceso investigativo sobre la Cultura Motilón Barí concuerda con

1

los propósitos institucionales en el que se busca conocer y reconocer la cultura ancestral como parte de la identidad regional. Sin embargo, la construcción del Estado del Arte de esta cultura posee grandes alcances; La Coordinación de Cultura y Ciudadanía asume la investigación desde los aspectos folclóricos, considerando cuatro fases, a saber: 1. Expresiones musicales 2. Expresiones dancísticas

Grupo de investigación gestores de la cultura Norte Santandereana. Universidad Simón Bolívar – Extensión Cúcuta. yhoyos10@unisimonbolivar.edu.co 2 Grupo de investigación gestores de la cultura Norte Santandereana. Universidad Simón Bolívar – Extensión Cúcuta. ipacheco@unisimonbolivar.edu.co


UNIVERSIDAD SIMÓN BOLÍVAR

3. 4.

Expresiones demosóficas Mitología y cultura ciudadana

Cada componente proporciona una información que permitirá integrar el conocimiento de la Cultura Barí en las acciones realizadas por los Grupos culturales de la Universidad que responden a estas expresiones folclóricas. De acuerdo con lo anterior, este artículo representa los avances del proceso investigativo en relación a la primera fase sobre las expresiones musicales de la Cultura Motilón Barí.

Materiales y métodos La investigación a nivel general se enmarca en un diseño micro etnografía, en tanto pretende describir y analizar la cultura de una comunidad específica como la Motilón Barí. De acuerdo con esto, la primera fase de la investigación se considera cualitativa y aplicando técnicas para la recolección de la información como la revisión literaria (bibliográfica y audiovisual) y la entrevista (Hernández, Fernández y Baptista, 2010). La revisión literaria bibliográfica, incluye la revisión de publicaciones relacionadas con la Cultura Barí, que una vez identificadas se seleccionan por sus contenidos de información sobre las expresiones musicales y los momentos relevantes en los que la música se constituye como elemento fundamental para esta comunidad. Se realizó un filtro para escoger la información más actualizada referente a las expresiones musicales. Con el material seleccionado se elaboraron y sistematizaron fichas bibliográficas a las que se incorporaron materiales de apoyo de audio y video para complementar la información encontrada en los libros. Se realizó entrevistas a profundidad, puesto que en la investigación cualitativa estas se estructuran de acuerdo con el trabajo de campo (Hernández, Fernández y Baptista, 2010). Este instrumento se aplicó con una joven perteneciente a la Comunidad Caricachaboquira del municipio de Tibú, quien suministró información acerca de la utilización de los instrumentos musicales empleados en los encuentros entre las comunidades y otros elementos importantes de la Cultura Motilón Barí para contrastar estos datos con la información encontrada en la revisión literaria.

13

“Los Barí – dicen: los ancianos – éramos numerosos y luchábamos guiados por el Barí de ojos limpios, nuestros aliados, quienes nos conducían en la noche” Gobernación del Norte de Santander (2003).

Resultados y discusión De acuerdo con la información encontrada, se inicia la presentación de resultados contextualizados en la Comunidad Motilón Barí; seguidamente se presentan los momentos especiales en los que se observan expresiones musicales y posteriormente se describen los instrumentos empleados por esta cultura en sus celebraciones. Los Motilón Barí, se han caracterizado por ser una raza fuerte, guerrera e incansable. El título de guerrero no se les atribuye por ser agresivos o por sus enfrentamientos con los blancos, sino por su perseverancia en apoyarse mutuamente y mantener viva su esencia como grupo étnico, preservar sus tierras, sus raíces, sus costumbres y su razón de ser como Barí. Los Barí, ocupan actualmente un territorio de aproximadamente 1.200 km2 de extensión, los cuales están distribuidos en 120 Km de largo por 10 Km de ancho, que se extienden desde los ríos Santa Ana y Tokuko de Venezuela hasta el Rio de Oro en nuestra amada República de Colombia. Figura 1. Mapa de ubicación de los asentamientos de la comunidad Barí


14

FRONTERAS DEL SABER

Además, la comunidad de los motilón Barí, se encuentra distribuida estratégicamente en cuatro resguardos descritos en la siguiente tabla:

Imagen 1. Bohío comunal.

Tabla 1. Resguardos de la Comunidad Barí. (Gobernación del Norte de Santander, 2003).

Viven en grandes bohíos comunales que miden de 9 a 12 metros de altura, entre 10 y 60 metros de longitud y de 8 a 25 metros de anchura, además tienen otro tipo de bohíos en las montañas empleados en época de lluvia para la cacería y otros en las llanuras para la pesca en temporada de sequía. Imagen 2. Bohío en las montañas.

Como hijos de la selva… los Barí aún conservan la esencia de su cultura, son cazadores, pescadores y agricultores por naturaleza y usan arcos y flechas como herramientas de cacería. Cargan cestas manufacturadas con fibras naturales sujetas a sus frentes y reposando sobre su espalda, en las que llevan los productos recolectados. Los hombres utilizan guayuco y las mujeres faldas, algunos utilizan collares hechos con dientes, plumas, uñas de los animales que cazan.

La música… lenguaje sublime de la naturaleza Son muchos los elementos que conforman la Cultura Motilón Barí; sin embargo, este espacio se dedica especialmente a la música, la cual ha representado algo muy importante para nuestros ancestros y para las civilizaciones en general, pues a través de ella se representan manifestaciones religiosas, ceremoniales, rituales de gestación, de agradecimiento a los dioses y a la madre naturaleza.


UNIVERSIDAD SIMÓN BOLÍVAR

De igual manera, el motilón Barí ve en la música la posibilidad de exaltar los momentos más significativos de su cultura y tradición, momentos que influyen colectivamente en la comunidad. La cultura Motilón Barí cree que si un miembro de la comunidad muere, se transforma en basunchimba y pasa a vivir en el cielo velando por los que se quedan en la tierra. Los vivos realizan cantos en nombre de los basunchimbas, para que desde lo alto, provean la protección mientras realizan sus labores de caza y de siembra; de igual forma, cantan a los taibiaboyi para que aumente la pesca. “No todos los Barí tienen la oportunidad de cantar; hacerlo implica preparación desde que se es niño y hacerlo bien es muestra de respeto hacia quienes lo escuchan” Gobernación del Norte de Santander (2003).

Las siguientes manifestaciones dejan al descubierto el significado que tiene la música para la cultura de los Motilón Barí: • Rito de nacimiento: Después de cada parto Barí, se canta para que los basunchimba escuchen y protejan al recién nacido.

15

• Fiesta del Bollito: en acción de gracias, los Barí cantan a los basunchimbas bailando alrededor del bohío por la abundancia de plátanos bocadillos. Como se puede observar, las ocasiones especiales representan para el motilón Barí un encuentro con la música (Ramón y Rivera, 1965). La música de los Motilón Barí está acompañada principalmente por instrumentos de viento, flautas elaboradas con materiales de su entorno como los calabazos, las totumas, el bambú y otros tipos de caña. A continuación se describen los instrumentos de viento empleados con mayor frecuencia: El Motúbik, tiene dos presentaciones, la alargada y la natural; generalmente se elaboran con cañas de bambú, entre 15 y 25 mm de diámetro, cortadas en los nudos de manera que todas las flautas son cerradas en ambos extremos. Poseen tres orificios, uno en cada extremo y un tercero aproximado hacia el extremo inferior. Imagen3. Motúbik

• Rito de adolescencia: para todas las comunidades Barí indígenas y no indígenas la transición a la adolescencia o pubertad es todo un ritual, pues cuando una niña llega a esa edad es necesario aislarla en el encierro durante cierto tiempo, mientras que los niños son llevados a una piedra para un rito especial. Cuando toda la ceremonia termina, los jóvenes están listos para ser adultos y cantar a los basunchimba. • Rito del matrimonio: Este rito es muy particular, pues los recién casados ó conyugues cantan hasta quedar roncos, para que los basunchimba se enteren que están casados y puedan protegerlos en su nueva vida. • Consagración del tabaco: los Barí escogen una casa especial donde guardan el tabaco en totumitas colgantes y posteriormente en las horas de medio día, cantan y bailan alrededor del bohío.

La forma de tocar este instrumento es similar a una flauta traversa, se ubica de manera horizontal, descargando el labio inferior sobre el borde del orificio, a manera de boquilla para la emisión de aire; los otros dos orificios (el inferior y el central cercano a este), se manejan con los dedos índices mientras la flauta es sostenida con los dedos pulgares.

• Inauguración del Bohío: cada vez que los Barí inauguran y habitan un bohío, se acuestan en sus chinchorros y cantan a los basunchimbas para que los visiten en su nuevo hogar.

El sonido emitido por el instrumento posee una calidad tímbrica aguda. La Motúbik es utilizada con mayor frecuencia por los Motilones ubicados en la frontera colombiana.


16

FRONTERAS DEL SABER

El Darikbará es una flauta de calabacita alargada, con un agujero bucal en el centro, ubicado cerca de la base otros dos agujeros para modificar el sonido. La interpretación del instrumento consiste en sostenerlo con los pulgares y ponerlo sobre el labio inferior junto al agujero del soplo; con el índice de la mano derecha se maneja el agujero inferior, y con el índice de la izquierda el agujero lateral.

De esta manera, el equipo de investigación elaboró estos instrumentos con la participación del Grupo de formación en música folclórica del segundo periodo del 2010 para reconocer y proyectar el ejercicio musical de los Motilón Barí y para complementar una muestra dancística de esta comunidad, como parte de los resultados del segundo periodo del 2011.

Las tonadas interpretadas con este instrumento son alusivas a los sonidos de la naturaleza de esta región, especialmente al canto de las aves.

Agradecimientos

Las melodías interpretadas con estos instrumentos no cuentan con una extensión en sus registros tonales, como puede hacerse con otros instrumentos de viento conocidos como la flauta dulce o el clarinete debido a que la carencia de orificios limita su digitación. Imagen 4. Darikbará

A Ingry Lisbeth Aleximaná Axdramina, por sus aportes en el desarrollo de la investigación, al compartir con nosotros su experiencia como miembro de la Comunidad Caricachaboquira. A Danny Torres, Gestor Cultural en el Estado Táchira – Venezuela, quien nos proporcionó buena parte del material bibliográfico y audiovisual. A Corponor, la Biblioteca Pública Julio Pérez Ferrero y la Biblioteca del Banco de la República. Finalmente, al Centro de Investigación de la Universidad Simón Bolívar – Extensión Cúcuta, especialmente a la Profesora Lucy Gómez, Coordinadora del Grupo Gestores de la Cultura Nortesantandereana, por su apoyo incondicional en el desarrollo de este proceso investigativo.

Otro instrumento es el Guasá, también conocido como Chucho, consistente en un cilindro de caña guadua o bambú, que contiene en su interior semillas o piedrecitas utilizadas para generar sonido al ser sacudido. Su extensión depende de la distancia de los nudos de la caña; uno de sus extremos es abierto para insertar las semillas y luego es sellado con madera. Su ejecución se realiza con una o ambas manos al sacudiendo el instrumento.

Conclusiones El conocimiento de estos instrumentos y expresiones musicales como parte de esta investigación, permitió constatar que para los Motilón Barí, la música se relaciona con sus vivencias, la interacción con la tierra y las experiencias que representan un gran significado dentro de su identidad cultural como “Hijos de la Selva”.

Bibliografía Gobernación del Norte de Santander (2003). Ichidji ya ababi/ Algo nuestro, así somos los Barí. Hernández S., Roberto; Fernández C., Carlos; Baptista L., Pilar (2010). Metodología de la investigación. Edición 5. McGraw-Hill. Ramón y Rivera, Luis Felipe (1965). Música de los Motilones. Universidad Simón Bolívar (2008). Plan Estratégico de Desarrollo – PED 2008-2012. Cúcuta, Colombia.


UNIVERSIDAD SIMÓN BOLÍVAR

17

Recuperación de la tradición oral Nortesantandereana en el geriátrico “Rudesindo Soto” de la ciudad de Cúcuta

Fabián Mauricio Ramírez Álvarez1

Resumen En esta investigación se realizó un análisis socio lingüístico y dialectal de la relación entre la tradición oral - posmodernidad. El hábito verbal popular está amenazado por el alcance y desarrollo de los procesos de globalización mundial que amenazan la identidad local de las provincias, el Departamento Norte de Santander y la ciudad de Cúcuta. Es importante desarrollar proyectos tendientes a la recuperación de la oralidad, utilizando la investigación como una herramienta pertinente para rescatar la sabiduría lingüística que reposa en el adulto mayor del geriátrico “Rudesindo Soto”. Así, el cuento, la poesía, el refrán, el mito, la leyenda, la adivinanza y la tradición oral, sirven de bastión para hacer de la producción textual y oral el mejor motivo para reunirnos en torno a la palabra. Palabras clave: Tradición oral Nortesantandereana, posmodernidad, capitalismo cognitivo, culturas juveniles.

Abstract In this research we made a socio linguistic and dialectal relationship between oral tradition - postmodernity. The popular oral habit is threatened by the scope and development of the globalization processes that threaten the local identity of each province as Norte de Santander Department and the city of Cúcuta. It is important to develop any projects aimed at the recovery of orality, using research as a tool tending to rescue relevant linguistic wisdom lies in the geriatric elderly “Rudesindo Soto”. So, short story, poetry, proverb, myth, legend, the riddle and serve as a bastion oral tradition, to make oral text production and the best reason to gather around the word. Keywords: Northsantanderean oral tradition, postmodernism, cognitive capitalism, young culture.

Introducción

M

amá e hijo discutían diametralmente distantes e irreconciliables. Recreando la escena, se trataba del tradicional “no quiero salir en la foto” el joven cansado de negarse rotundamente a posar en la foto familiar

1

y ser compelido, también una y otra vez por sus tías, aceptó finalmente participar en el memorable cuadro. De momento los ánimos se apaciguaron hasta que la Mamá, algún tiempo después, se puso a ver las fotos, y para su asombro, su hijo no estaba. ¡Qué pasó!. El hijo explicaba con beneplácito a su madre como se había

Docente investigador del grupo de investigación Gestores de la Cultura Norte Santandereana, Universidad Simón Bolívar – Extensión Cúcuta, framirez5@unisimonbolivar.edu.co


18

FRONTERAS DEL SABER

eliminado de la foto haciendo uso de sus competencias digitales. Todo conspiró a su favor: una cámara digital, un programa de escaneo de imágenes, malicia informativa y misión cumplida. El verbo se conjuga pues, en presente subjetivo juvenil: yo escaneo, los adultos no escanean. Las sociedades neoliberales traen consigo consecuencias sociales, económicas, ambientales y culturales, donde los jóvenes tienen un ritmo de vida que poco permite diálogo consigo mismos. La globalización – no tan solo de beneficios sino también de riesgos - conlleva a una fluctuación sobre los posibles cambios; para los jóvenes, el riesgo de vivir en una sociedad en la que no intervienen decididamente, a la que no pueden cambiar porque la esencia está más allá de las instituciones locales que cohíben su palabra y lo condenan al olvido. La subjetividad juvenil tiene un discurso que se pierde en el ritmo de la ciudad posindustrial; en los hábitos matutinos de la realidad postmoderna, su música metalizada, sus hábitos urbanos, sus prácticas subjetivas, modas extravagantes y consumismo desaforado, sumen en la ignominia e indiferencia a miles de jóvenes resignados al silencio que los condena la globalización neoliberal, la economía de mercado, el biopoder o los dispositivos institucionales que influyen en la vida de millones de hombres en el mundo posmoderno. En medio de esto, la desvinculación de la familia en el cuidado del adulto mayor atraviesa una coyuntura de crisis, paralela al paradigma de la crisis de los valores, donde el joven no participa del cuidado del adulto mayor y se forma lingüísticamente por los medios masivos de comunicación, que toman la voz en los hogares como entes paternalistas que entregan las ordenes etéreo dirigidas. La palabra tradicional y ancestral que heredaron los adultos mayores de sus abuelos y de sus padres, se pierde en el geriátrico al que son llevados muchas veces con engaños de paseos a los que amenamente fueron invitados pero que se convirtieron en la boleta de entrada al encierro y al olvido. Es común para la escuela y la sociedad Nortesantandereana y global, usar denominaciones como “sujeto” o “individuo” para de hombres y mujeres que tienen subjetividades distintivas, imaginarios tribales, concepciones populares, íconos, dialectos, lenguajes y nociones espirituales particulares (comparables con la diversidad de sus huellas dactilares) que se homogenizan con el pensamiento desde la educación, la comunicación y la tecno cultura.

Según Lipovetsky (2009): “los jóvenes forman parte de una sociedad global radicalmente nueva, con nuevos valores y aspiraciones; así, no se trata de una crisis de valores interpretadas por los jóvenes, sino de contradicciones entre formas nuevas y formas viejas de comportamiento, de estimaciones sociales que son el cotidiano al que se resisten todos los que se ubican como un problema cuya responsabilidad se atribuye a los jóvenes” El sociólogo Alemán Ulrich Beck (2004) señala que los niños y los jóvenes actúan cual si fueran muertos vivos, es decir y su discurso carece de importancia y es arrastrado por la historia; la eficacia simbólica del pensamiento del joven nortesantandereano se descontextualiza respecto a los acontecimientos matutinos que lo afectan. Los jóvenes portan una revolución tecno cultural que les ubica en un momento espacio – temporal diferente al que vivieron sus padres y abuelos. El portavoz del ciberpunk, William Gibson (1986) afirma que “Hay un personaje algo siniestro en el libro que es una especie de ejecutivo publicitario sofisticado, que afirma que actualmente no existe el futuro, en el sentido en que nuestros abuelos o nuestros padres tenían un sentido del presente y del futuro. Ellos contaban con el lujo de vivir en un presente que se estaba quieto en el tiempo, lo suficiente para que pudiesen pensar, estamos aquí, y el futuro está más allá, y nos podemos imaginar cómo será ”. En la situación actual no hay un presente, todo cambia permanentemente y no hay manera de extrapolar un futuro. La poca claridad al enunciar referentes simbólicos que fortalezcan la identidad local, configuran un joven indiferente a la misión social que recae en sus hombros. Las últimas décadas han reconfigurado las formas de asumir la realidad, bien sea por la recesión económica, las guerras civiles, las transformaciones culturales, el impacto del terrorismo y los problemas ambientales, que obedecen al mapa de biopoder global, las organizaciones red, la democratización del conocimiento y la cobertura de la comunicación – cultura, que obligan a la sociedad a considerar nuevas comuniones y alianzas educativas como mediación de este panorama desolador respecto al perfil humanista del progreso social. En el Norte de Santander, en Colombia y en el mundo, la relación prospectiva entre literatura – cultura – educación, compromete la escuela como un ente mediador y responsable de diseñar estrategias humanistas, imaginar


UNIVERSIDAD SIMÓN BOLÍVAR

futuros posibles, generar políticas igualitarias e incluyentes que convenzan a niños y jóvenes de que es posible rescatar las identidades local y global para consolidar el progreso.

Resultados y discusión Para construir sentidos se requieren referentes, recursos simbólicos cada vez más escasos entre los jóvenes solitarios, marginados o excluidos. Una investigación sobre la concepción de vida y muerte en los jóvenes colombianos, reveló que el consumo cultural de libros, música y películas, posibilita a algunos de ellos a reafirmar sus ideas sobre la vida, la muerte o la violencia; también se reveló que lo simbólico, como el sentido, proviene de otro identificable significativo vacío que no transmite nada a nadie, como las frecuentes repeticiones mediáticas sobre la paz, la democracia, o los derechos humanos que carecen de similitud e identificación entre los jóvenes. En ese orden de ideas ¿El marco educativo colombiano y nortesantandereano se compromete con la elaboración de imaginarios colectivos significativos que haga del conocimiento un instrumento generador de identidad? ¿La comunicación – cultural sirve como eje transversal para moldear subjetividades locales, o solo globaliza el pensamiento? Y por último ¿Podemos hablar de subjetividades con identidad e idoneidad frente a los retos de la tecno cultura y la sociedad del conocimiento juvenil en el Norte de Santander? Vattimo (2007) dice: que en un contexto global de pérdida de sentidos unitarios, lo que se da es una liberación de los dialectos, de las lenguas de los pequeños grupos, y el estallido de una multiplicidad de racionalidades locales en las minorías étnicas, sexuales, religiosas y culturales, las cuales, quizás por primera vez en la historia occidental toman la palabra. No es el caso de los jóvenes que subsisten en precarias condiciones de exclusión o marginalidad como los de nuestras comunidades latinoamericanas. Hay niños y jóvenes que no tienen la oportunidad de la palabra, sobre todo de la pública, dirigida a interlocutores confiables. El derecho a la expresión se asume, sustrae o escribe en un muro con dueños. El mundo de los jóvenes se construye para dejar huellas o intentar ser visibles mediante el uso de su jerga, con la intención de pertenecer al “parche”.

19

El refranero, producto de esta investigación constituye un manual ético del papel importante de la palabra en la formación integral de la persona, en su visión coherente de la vida. La compilación de mitos, leyendas, cuentos, adivinanzas, poemas y chascarrillos de la provincia Nortesantandereana merecen un capítulo especial en los planes curriculares de las Instituciones de la capital departamental y los municipios de la región, restableciendo la responsabilidad ancestral del cuidado del adulto mayor en las casas que ellos mismo erigieron antes de ser arrojados desconsideradamente a un centro geriátrico.

Conclusiones Las sociedades neoliberales occidentales y su capitalismo cognitivo, arriesgan su propia tradición oral regional y local. Los riesgos y beneficios de la globalización frente a la identidad de regional, representan un reto para la conservación del acervo cultural milenario y se afecta con el desarrollo de la posmodernidad. La resistencia política, económica, cultural y educativa, tienen en la poesía, el refrán, la adivinanza, el mito, el cuentos y la leyenda, un camino para generar identidad y transmitir nuestra esencia inter generacionalmente para dimensionar lo que seremos en un mundo cada vez más presuroso, interconectado y complejo. El proyecto de recuperación de la tradición oral Nortesantandereana en la Casa del Adulto Mayor “Rudesindo Soto”, pretende solucionar esta problemática que afecta el desarrollo de la vida de miles de jóvenes Nortesantandereanos sin una identidad definida, mediante el rescate de poemas, refranes, adivinanzas, mitos, cuentos y leyendas. ¿Será pertinente recuperar la tradición oral Nortesantandereana como mecanismo de resistencia al capitalismo cognitivo de las sociedades neoliberales?

Bibliografía BECK, Ulrico. ¿Qué es la globalización?: falacias del globalismo, respuesta a la globalización. Ediciones Paidós Ibérica. ISBN 978-84-493-0528. 2004


20

FRONTERAS DEL SABER

GIBSON, William. Conde Cero. Editorial Minotauro. ISBN 84-450-7095-9 reedici贸n de bolsillo ISBN 978-84-4507702-3. 1986 LIPOVETSKY, Gilles. La Pantalla global: cultura medi谩tica y cine en la era hipermoderna. Ediciones Anagrama ISBN 978-84-339-6290-4. 2009 SARTORI, Giovanni. Homo Videns. Teledirigida. Ediciones Taurus. 1998.

La

sociedad

VATTIMO, Gianni. Ecce comu. C贸mo se vuelve a ser lo que se era. Ediciones Fazi. Roma. 2007


UNIVERSIDAD SIMÓN BOLÍVAR

21

Apoyempresa Fortalecimiento Asociativo y Administrativo de Microempresas del Barrio Alonsito de la Comuna 6 del Municipio de San José de Cúcuta

Blanca Esther Guerrero Moncada1, Diana Escamilla Narváez2, Ana Emilce Contreras Wilches3, Karen Lorena Leal4

Resumen El proyecto Apoyempresa: Fortalecimiento Asociativo y Administrativo de Microempresas del Barrio Alonsito de la Comuna 6 del Municipio de San José de Cúcuta, es un proyecto de Proyección Social de la Universidad Simón Bolívar, dirigido a la población en situación de desplazamiento y vulnerabilidad de la comuna 6, quienes cuentan con microempresas o ideas de negocios que se constituyen en la mayoría de los casos como la única fuente de ingresos y sostenimiento familiar. Conociendo esta realidad, el programa académico de Administración de Empresas y su grupo de investigación GIGEM, realizan un proceso diagnóstico durante el año 2009, orientado a identificar dichas microempresas y sus necesidades, con el objetivo de crear rutas de fortalecimiento que articulen la academia, la empresa y las comunidades. De esta manera se origina el proyecto Apoyempresa, el cual se encuentra en ejecución durante el segundo semestre del año 2010 en calidad de proyecto ganador de la segunda convocatoria Nacional del Programa Servicio Social para la Educación Superior de la Asociación Colombiana de Universidades (ASCUN) y el Ministerio de Educación Nacional (MEN). En este participan treinta y ocho estudiantes de sexto, séptimo, noveno semestre y practicantes profesionales del programa de Administración de Empresas, así como cuatro estudiantes de Ingeniería de Sistemas, quienes acompañan los procesos de fortalecimiento empresarial en sus aspectos legales, administrativos, organización contable, mercadeo, producción, logística, conocimiento y uso de tecnologías de la información. Estos encuentros se llevan a cabo en la comunidad y en las instalaciones de la Universidad. Palabras Clave: Microempresas, fortalecimiento empresarial, áreas de la administración, responsabilidad social.

1

Coordinadora de Línea del grupo de investigación GIGEM. Programa de Administración de empresas, Universidad Simón Bolívar – Extensión Cúcuta, bguerrero@unisimonbolivar.edu.co 2 Directora del Programa e investigadora del grupo de investigación GIGEM. Programa de Administración de empresas, Universidad Simón Bolívar – Extensión Cúcuta, descamilla@ unisimonbolivar.edu.co 3 Docente e investigadora del grupo de investigación GIGEM. Programa de Administración de empresas, Universidad Simón Bolívar – Extensión Cúcuta, acontreras10@unisimonbolivar.edu.co 4 Coordinadora del grupo de investigación GIPES - Universidad Simón Bolívar – Extensión Cúcuta, kleal@unisimonbolivar.edu.co


22

FRONTERAS DEL SABER

Abstract Apoyempresa project: Administrative and associative enforcement for small companies of Alonsito neighborhood, commune 6, municipality of San José de Cúcuta, is a social projection of Simón Bolívar University, oriented to displaced and vulnerable population of commune 6, those with small companies or business ideas, which are in most cases the single source of incoming and family support. Knowing this reality, the academic program in business administration and its research group GIGEM, perform a diagnosis during 2009, tending to identify and integrate those small companies with the academy, communities and industry. Thus begins Apoyempresa project, which during second half of 2010 running as a winner project from second National Call of Social Service Program for Higher Education of Colombian Association of Universities (ASCUN) and National Ministry of Education. In this program participate thirty eight students of sixth, seventh and ninth semester and professional practitioners for Business Administration Program and four students of Computer Engineering Program, those who follow business - building processes in the areas of legal and administrative aspects, accounting organization, marketing, production and logistics and knowledge and / or use of information technologies. These meetings are held in the community and University facilities. Keywords: Small companies, strengthening business, management areas, social responsability.

Introducción

L

as acciones sociales orientadas a fortalecer las diferentes microempresas de la Comuna 6 de Cúcuta, especialmente aquellas conformadas por personas en situación de desplazamiento y vulnerabilidad, cuentan con recursos económicos limitados que solucionan parte de las necesidades de capital de trabajo, pero que afectan la continuidad de los procesos y la sostenibilidad en el tiempo, evidenciando que un apoyo económico inicial no asegura la permanencia en el mercado, porque adicionalmente se requieren instrumentos y mecanismos para aumentar la productividad y la comercialización de sus productos en los mercados de mayor valor agregado para los consumidores. Esta situación conlleva a la necesidad de ejecutar proyectos de apoyo integral (microempresas) y asociativo (asociaciones), que vinculen la academia con las realidades sociales, articulen las funciones de la investigación, la extensión y el currículo, desarrollen procesos que comprometan la institución y sean acompañados en cada semestre por generaciones de estudiantes de relevo como parte de las políticas institucionales de proyección social.

Colombia es una nación obligada a proponer nuevas alternativas para el planeta como requerimiento de supervivencia. Sólo es necesario ver las noticias para descubrir que somos un país de injusticias, desplazamientos, en proceso de guerra interna, con miedo y sin esperanza de mejoramiento de estos aspectos a corto plazo, además se estima que quienes han hecho algo para generar conciencia en la población colombiana, no pueden continuar con sus labores por diversos motivos. No se trata de un recetario de fórmulas mágicas, pero se entiende que por tratarse de una causa económica, la solución se encuentra en la misma economía; (Castillo, 2003). Este proyecto formula una posibilidad de acercamiento a las condiciones reales vividas por muchas de las comunidades vulnerables, quienes enfrentan dificultades para conseguir su sustento; desde allí se observa la pertinencia y la acción que permiten proyectar la academia desde el concepto de responsabilidad social a través de las iniciativas de extensión de la Universidad Simón Bolívar, para acercar a los estudiantes a la realidad de su entorno, como lo plantea De Zubiría (2001); “La educación superior


UNIVERSIDAD SIMÓN BOLÍVAR

enfrenta el reto de integrar las instituciones educativas, el sector empresarial y el Estado, buscando una optimización de los recursos disponibles para intentar un desarrollo sostenible de todos los seres humanos, favoreciendo espacios que permitan al futuro profesional pensar su hacer desde la responsabilidad social.

23

Por otra parte, los empresarios carecen de un soporte técnico suficiente para apoyar sus microempresas en sus procesos de inserción y apertura a nuevos mercados, lo que hace que las oportunidades de negocios y canales de comercialización sean limitadas, y lo más grave, que muchas de estas microempresas tiendan a desaparecer si no reciben un apoyo oportuno. Es por esto que se debe retomar el servicio social que redunde en beneficios para los estudiantes y los microempresarios.

De esta manera el proyecto Apoyempresa se articula con el currículo a través de las asignaturas denominadas Creación de empresas, Desarrollo económico y economía solidaria, Investigación de mercados, Electiva profesional III, Fundamentos de personal, Presupuesto y administración de la producción, las cuales cuentan con el apoyo del grupo de investigación GIGEM del programa académico de Administración de Empresas, y el Departamento. de Extensión Institucional a través de las políticas institucionales de Proyección Social y en el marco del Programa institucional empresa y comunidad. Además, se cuenta con la alianza estratégica entre la unión temporal IPES – MIMA (IPES - Promoción del Desarrollo Sostenible y MIMA Fundación para el manejo integrado del medio ambiente) que considera referentes de formación relacionados con el manejo integrado, cuidado del medio ambiente y los lineamientos para la implementación de los proyectos productivos o las microempresas.

Etapa A: Identificación y caracterización de las microempresas: En esta etapa se identificaron las ideas de negocios existentes en los barrios Alonsito, Caño Limón y Simón Bolívar de la comuna 6 de la ciudad de San José de Cúcuta, y se caracterizaron de acuerdo con los parámetros del proyecto y el sector económico, organizando una línea base inicial de estas y de las ideas de negocios.

La Universidad Simón Bolívar Extensión Cúcuta, desarrolla como propósitos principales las acciones continuas, tendientes al fortalecimiento de la relación Universidad – Empresa, que se reflejan en el acercamiento y la pertinencia de los programas académicos ofertados.

Etapa B: Procesos de Construcción Colectiva: En esta etapa Se realizan procesos de construcción colectiva entre los estudiantes y los líderes empresarios, teniendo en cuenta el factor ecológico para que respondan a las necesidades detectadas.

El Programa de Administración de Empresas de la extensión Cúcuta, definió en marzo de 2008 una serie de acciones concretas materializadas como proyectos de extensión en los sectores económicos de la región, para fortalecer estas unidades económicas. Sustentados en la necesidad de vincular las microempresas a mercados potenciales más estables y dinámicos para fomentar su crecimiento, se iniciaron trabajos de campo desde el año 2009. Si bien los resultados en Cúcuta no han sido los mejores debido a la situación económica y de orden social que afronta la zona de frontera, es posible afirmar que las empresas se mantuvieron pese a la situación del entorno a los ataques permanentes de la competencia que surte los productos elaborados por la industria de la confección, especialmente en zona de frontera. En el segundo semestre del año 2009, se iniciaron procesos de capacitación de microempresarios, asistidos por los docentes y los estudiantes del programa de Administración de Empresas.

Los procesos de construcción colectiva se desarrollan en la comunidad, y en la Universidad Simón Bolívar según los temas considerados. Las áreas de formación y fortalecimiento empresarial se establecen gracias a la información revelada por el diagnóstico inicial, así como su intensidad y su profundidad.

El proyecto propone fortalecer las microempresas de la Comuna 6 del Barrio Alonsito teniendo en cuenta dos fases: por una parte, el mejoramiento de las condiciones actuales de eficacia y organización y por la otra, el fortalecimiento de la visión gerencial, comercial y estratégica. Para lograrlo se implementa una metodología que incluye tres etapas que se describen a continuación:

De esta manera se determina el estado actual de la gestión empresarial de la población objeto, en cinco áreas organizacionales que a su vez se constituyen como las cinco grandes áreas de fortalecimiento empresarial a saber: a). Aspectos legales y administrativos b). Organización contable c). Mercadeo d). Producción y logística e). Conocimiento y/o uso de tecnologías de información


24

FRONTERAS DEL SABER

Etapa C: Sistematización y comunicación de los resultados: En esta etapa se sistematizan los resultados de la experiencia y se socializan a la comunidad educativa, comunitaria y a los participantes en el proceso. Para socializar los resultados finales, se plantea la realización de una feria empresarial en la comuna 6 y la documentación escrita y audiovisual para mostrar los aprendizajes derivados del proceso. Además, como técnica de seguimiento el proyecto cuenta con una marco lógico de operación organizado en las tres etapas antes mencionadas.

microempresas participantes, para lograr fortalecerlas y potenciarlas administrativa y organizacionalmente. 7. Visitar las empresas para proveerles acompañamiento personalizado mediante metodología: “Adopta una empresa”.

un la

8. Convocar reuniones quincenales del equipo de estudiantes, docentes investigadores, líderes empresariales y miembros de IPES Promoción del desarrollo sostenible, con el fin de hacer seguimiento a los procesos adelantados con las empresas. 9. Sistematizar los procesos adelantados con las microempresas.

Papel de los estudiantes Los estudiantes son los actores encargados de consolidar y desarrollar el Proyecto Apoyempresa, como una actividad académica e investigativa que fortalece su formación profesional como Administradores de Empresas, y su sentido de responsabilidad social al aplicar sus conocimientos y su creatividad al servicio de las microempresas participantes.

10. Elaborar un informe que incluya las sistematizaciones hechas y los resultados finales de la experiencia del proyecto APOYEMPRESA. 11. Organizar y participar activamente en el Encuentro Empresarial, en el cual se socializan las actividades comerciales de la microempresas, las experiencias vividas en el proyecto y la comunicación de los resultados finales.

Para lograrlo deben realizar las siguientes actividades: 1. Realizar visitas de identificación de las ideas de negocio en el barrio Alonsito de la comuna 6. 2. Aplicar las encuestas y entrevistas a las microempresas seleccionadas. 3. Sistematizar los resultados de las visitas y las encuestas aplicadas, y caracterizar las empresas seleccionadas. 4. Organizar y liderar encuentros de construcción colectiva que tienen en cuenta las microempresas identificadas como laboratorios empresariales, encaminados a la búsqueda de estrategias conjuntas para su fortalecimiento, haciendo hincapié en el cuidado del medio ambiente y uso ecológico de los recursos. 5. Organizar y desarrollar “mesas de trabajo” sobre distintos aspectos empresariales, a partir de los casos característicos de las microempresas participantes. 6. Realizar asesorías empresariales específicas a las

Resultados y discusión El proyecto vinculó como beneficiarios a veintiocho (28) microempresarios y emprendedores con idea de negocio; la anterior población se distribuye de acuerdo con las siguientes variables: • Caracterización de la población: - - - -

85% pertenecen al estrato . 40% no completó su educación básica primaria. 30% aportan al ingreso familiar total con la actividad económica de sus microempresas. 51% pertenecen a la población desplazada y vulnerable.

• Actividades Económicas: - - - -

Alimentos 38% Textil y confecciones 6% Construcción 9% Comunicaciones 9%


UNIVERSIDAD SIMÓN BOLÍVAR

- - - -

Química 4% Madera 4% Plásticos 4% Otras 26%

• Estado inicial de las áreas del plan de fortalecimiento empresarial: - 56% no tienen registrada su actividad económica en la Cámara de Comercio ni en la DIAN. - 79% no implementan estrategias de marketing. - 51% no mantienen registros contables. - 52% no conocen ni utilizan herramientas tecnológicas. - 20% de la población utiliza elementos técnicos para su producción. Además, entre los logros más significativos de este proyecto en ejecución, se encuentran: • La conformación de un equipo de microempresas o ideas de negocio que desean participar en el proyecto. • La participación activa y constante de veintiocho microempresarios y líderes comunitarios en los diferentes escenarios formativos y de fortalecimiento generados y liderados por el equipo interdisciplinar de la Universidad Simón Bolívar. • La caracterización de las microempresas seleccionadas y la organización de una línea base de beneficiarios. • La contribución a la formación de profesionales socialmente responsables, mediante la vinculación de los aprendizajes adquiridos desde la academia en la solución de problemáticas reales. • La Articulación del proyecto Apoyempresa con el Laboratorio Empresarial “Trabajemos”. • La realización del 100% de los encuentros de fortalecimiento y formación colectiva con las ideas de negocios y microempresas seleccionadas.

Conclusiones El tiempo de ejecución del proyecto Apoyempresa demostró que es posible el desarrollo de procesos de

25

construcción colectiva entre la comunidad y la academia, en los cuales se validen los conocimientos de la comunidad y los estudiantes como fuentes válidas en continua transformación y aprendizaje. Se comprobó la importancia de la vinculación institucional en este tipo de proyectos, lo cual garantiza el apoyo y la continuidad a los procesos. El acercamiento a la realidad de los microempresarios de la comuna 6 permitió revisar el currículo del programa académico de Administración de Empresas, haciendo aportes significativos a los contenidos programáticos y a las prácticas profesionales. Este proyecto representó para los estudiantes una experiencia enriquecedora en su formación como administradores, pues desde el carácter científico de la Administración de Empresas se pueden “construir explicaciones acerca de la realidad, por medio de procedimientos o métodos que permiten establecer explicaciones particulares de su objeto” (Méndez, 1988) y entender cómo el conocimiento adquirido durante el proceso educativo puede compartirse no solo en las aulas de clase, sino en la realidad mediante la ejecución de proyectos que pueden demostrar la calidad de la educación. El acercamiento a las comunidades desde la perspectiva asumida por el programa de Administración de Empresas, promovió la acción participativa, pues como lo considera Archilla (2004): “Un grupo de acción participativa es un grupo que establece sus propias metas u objetivos y que escoge las actividades que desarrollará en concordancia con sus propias metas”, y esta actividad se pudo propiciar durante el proyecto y desde sus resultados; así mismo la nueva visión de organización permitió potenciar “el deseo de ser independiente, la capacidad de tolerar la ambigüedad y el riesgo, la perseverancia y la autoconfianza” como características del empresario planteadas por Kantis (2004), desde las cuales se fortalece la visión empresarial de los beneficiarios; en el ámbito de la investigación, estas experiencias proporcionan reflexiones académicas que generan nuevas preguntas de investigación, materializadas en nuevos proyectos de la línea formativa. Como valor agregado y debido a la presencia de una cantidad significativa de niños y niñas en estos procesos de fortalecimiento en la comuna, un grupo de


26

FRONTERAS DEL SABER

estudiantes desarrolla un proyecto simultáneo llamado “pequeños emprendedores”, orientado a formar un espíritu emprendedor en los niños y niñas, en su mayoría familiares de los participantes en Apoyempresa. Por este motivo cada semana se organizan actividades lúdicas y pedagógicas lideradas por estudiantes. Se agradece de manera especial a las Subdirecciones Académica y Administrativa, así como a la dirección de la Extensión de la Universidad en Cúcuta, por el apoyo institucional hacia el proyecto, así como a las dependencias de extensión institucional, de valores y autodesarrollo. De manera especial se agradece al programa académico de Administración de empresas, su jefe de docencia, a su coordinadora de Proyección Social al igual que a los docentes del programa y del grupo de investigación GIGEM, quienes hicieron posible que la academia se vinculara con la comunidad, y se concretara una realidad, la apuesta institucional de formar profesionales socialmente responsables con un gran sentido de pertenencia con nuestra región.

Bibliografía ARCHILLA, D. F. (2004). Desarrollo organizacional, enfoque integral. México. LIMUSA Noriega Editores. 125. CASTILLO Sandoval, Darío. 2003. “Economía y sector solidario”. Unidad de Estudios Solidarios. Pontificia Universidad Javeriana. Bogotá (Colombia). DE ZUBIRÍA Samper, De la escuela abierta al constructivismo, un análisis crítico, Bogotá. Magisterio. 2001. 61 KANTIS, Hugo. (2004). Un enfoque sistémico de la creación de Empresas. Desarrollo Emprendedor: América Latina y la experiencia internacional. Banco interamericano de desarrollo. New York: 21 MÉNDEZ A, Carlos. Metodología, guía para la elaboración de diseños de investigación en ciencias económicas, contables y administrativas. Mc GrawHill. Bogotá. 1988.


UNIVERSIDAD SIMÓN BOLÍVAR

27

Análisis histórico – epistemológico del concepto mol: una mirada hacia el pasado que renueve la enseñanza del presente

Hernández Peña Yurley1, Gualdrón Vivas Dennys1, Barrera Rodríguez Laura Vianey2

Resumen Este trabajo se encuentra contenido dentro del Macro-Proyecto del GIPPEP (Grupo de Investigación en pedagogía y prácticas pedagógicas): Hacia una formación de maestros de ciencia en el marco de La Recontextualización del conocimiento científico. Donde se inicia la problematización de las disciplinas científicas y las formas de abordar los fenómenos de los que subyacen complejas construcciones históricas de los conceptos que las fundamentan. En química se evidencian las tensiones existentes en la construcción algunos conceptos. Un caso específico es el concepto mol, siendo indispensable en el aprendizaje de la química, ya que está inmerso en la concepción de dos mundos; el macroscópico y el microscópico, los cuales desde su perspectiva del mundo dan explicaciones a un fenómeno, que inicialmente fue la composición de la materia, y que actualmente permite conectar estos dos mundos. Sin embargo, es importante resaltar que esta construcción conceptual estuvo sujeta a aspectos sociales, como el desarrollo político, económico y cultural de la época, en este caso de los siglos XVIII al XX, que contribuyeron al avance de la misma ciencia, y a los conceptos construidos. Esta investigación analiza los estudios histórico–epistemológico del concepto cantidad de sustancia que llevó a pensar su enseñanza de forma diferente, ya que por su naturaleza abstracta, el concepto de cantidad de sustancia y mol requiere de una elevada exigencia cognitiva para su entendimiento, y se ha construido basado en modelos de la historia que como resultado, da múltiples interpretaciones que confunden la comprensión del concepto.

Palabras Clave: Átomo, cantidad de sustancia, mol, magnitud, aprendizaje, enseñanza.

1

Grupo de Investigación en prácticas pedagógicas (GIPEP) y Semillero de investigación en pedagogía (SIPE). Universidad Francisco de Paula Santander, Cúcuta – Colombia. 2 Licenciada em Biologia y Química, Grupo de Investigación en prácticas pedagógicas (GIPEP) y Semillero de investigación en pedagogía (SIPE). Universidad Francisco de Paula Santander, Cúcuta – Colombia *E-mail: deyoguvi@hotmail.com. Yulyka1@hotmail.com, lauvy757@hotmail.com


28

FRONTERAS DEL SABER

Abstract This work is contained within the Macro-GIPPEP Project (Research Group in pedagogy and teaching practices): Towards a science teacher training as part of the recontextualization of scientific knowledge. From there it enters problematised scientific disciplines and their different approaches to the phenomena that underlie complex historical constructions of the concepts based. In the case of chemistry is evident in the series of tensions around how certain concepts have been built. A case in point is the concept mol, this being vital for the chemical, as it is immersed in the conception of two worlds: the macroscopic and microscopic, which from his own perspective on the world trying to explain to a specific phenomenon, which initially was the composition of matter, and now connects these two worlds to each other.However, it is very important to note that this conceptual construct was also subject to social issues such as political, economic and cultural life of the time, in this case from the eighteenth to twentieth centuries, which contributed to the progress or not the science itself and, therefore, concepts have been built. That is why this research develops an analysis of historical and epistemological studies of the concept quantity of substance that led them to believe the teaching of this concept differently, since by its abstract nature, the concept of amount of substance and requires mol of high cognitive demand for their understanding, and because it has been built under different models of history that as a result, leave a multiplicity of interpretations that lead to confusion in understanding the concept.From the historical field research uses a contextual intellectual history to analyze how the concepts are built on science, given that the latter is part of a process that takes place in community and, therefore, is human activity in permanent construction, from there to recognize the social, cultural, economic and political which is involved and therefore different approaches glimpse of history. Keywords: Atom, amount of substance, Mol, magnitude, learning, teaching

Introducción

I

nvestigaciones han demostrado dificultades de profesores y estudiantes para comprender algunos conceptos químicos. En esta investigación se realizó un análisis histórico – epistemológico del concepto mol, éste concepto es de los que presenta mayor confusión a la hora de enseñarlo. Utilizar la historia para abordar el conocimiento con intenciones pedagógicas, es la finalidad del trabajo investigativo. Su importancia radica en reconstruir el conocimiento en el pasado para entender los avances Científicos en la actualidad. La química una ciencia que ha aportado avances a la sociedad, se reconoce en la historia su construcción y evolución, las teorías que la fundamentan han pasado por tensiones que motivaron el auge de paradigmas explicativos a los fenómenos. Este concepto demuestra cómo la ciencia se reconstruye y evoluciona en la

construcción de los conceptos, la labor humana de los filósofos naturalistas, se evidencia en las épocas, brindando respuestas a los fenómenos observados en momentos que varían dependiendo de la visión con que se concibe. El carácter histórico y pedagógico del trabajo lo hace objeto de interés para los docentes, ya que permite establecer una nueva relación con el conocimiento científico, desde el ámbito histórico, invitando a la recontextualización del mismo conocimiento. Se propone dar importancia a recurrir a la historia, por medio de estudios documentales que permiten analizar los eventos relevantes en la construcción de los conceptos, siendo una alternativa para renovar la enseñanza de la química. El análisis histórico – epistemológico permite realizar modificaciones pedagógicas que brinden herramientas al docente para mejorar la enseñanza y aprendizaje de los conceptos.


UNIVERSIDAD SIMÓN BOLÍVAR

Metodología La metodología de investigación se enmarca desde una concepción de ciencia que está en permanente construcción, en evolución continua de sus aportes a los fenómenos, por esto, es necesario recurrir a estudios histórico-epistemológicos para analizar el contexto sociocultural que originó polémicas en torno al concepto mol. El enfoque de este trabajo de investigación es cualitativo y se utilizó el método de análisis documental. El proceso investigativo se realiza en tres fases definidas como: Fase 1: El análisis previo de documentos: Consiste en primer momento de la elección de estudios históricosepistemológicos del concepto mol y en un segundo momento se aborda la lectura de los mismos para ver en conjunto del material. Fase 2: Selección de unidades de análisis o categorías: Los estudios históricos-epistemológicos leídos son desglosados y clasificados. Estas unidades seleccionadas rescataron elementos relevantes durante la construcción y evolución histórica del concepto, además se tuvo en cuenta para la enseñanza del mismo. Fase 3: Formulación de implicaciones pedagógicas: De las categorías consideradas se rescataron elementos importantes para mejorar la enseñanza del concepto, las categorías permitieron hacer una representación específica a nivel pedagógico, de los estudios históricos epistemológicos que conducen a la formulación de rutas orientadoras o implicaciones pedagógicas.

Resultados. En la actualidad el mol es considerado por la comunidad científica como la unidad de la magnitud cantidad de sustancia. Esta consideración no siempre ha sido así, pues en química, la construcción de los conceptos se da como resultado de innumerables aportes de los distintos paradigmas coexistentes, que tratan de dar explicación a los fenómenos químicos que se presentaban en la época.

29

Prueba de ello es que el problema del siglo XVIII, no era hallar el significado de mol, sino conocer de qué manera, durante una reacción química, se combinaban cuantitativamente los compuestos y cuál era el peso molecular (En esa época denominando peso relativo) de los elementos que se habían descubierto hasta entonces, todo esto llevo a la conformación de paradigmas. Uno de los paradigmas, el equivalentista pensaba que la formación de un compuesto se daba solo por la relación especifica de sus pesos, de donde se pueden calcular las masas equivalentes de elementos y compuestos con la suma de las masas equivalentes de dichos elementos que están en su composición, con esto se podía resolver cualquier problema estequiometricos y se alcanzaba un gran objetivo, “matematizar la química” El otro paradigma, el atomista, sugería que las combinaciones químicas se realizaban mediante unidades discretas, átomo a átomo, y que los átomos de cada elemento eran idénticos, así pues, se dio lugar a fuertes polémicas entre equivalentistas y atomistas del siglo XIX y XX. En 1900 Wilhelm Ostwald estableció por primera vez la idea de mol, y con posterioridad la comunidad científica (Unión Internacional de Física Pura y Aplicada, IUPAP) introdujo la magnitud cantidad de sustancia en 1957. En química, las primeras medidas realizadas fueron la masa y el volumen, estableciéndose con ellas las primeras leyes de la química que ayudaron a parametrizar el comportamiento de la materia. Entre estas leyes están: la conservación de la masa en 1789 por el químico francés Antoine Lavoisier, esta ley afirma que en una reacción química, la masa total de los reactivos, más los productos de la reacción, permanecen constantes; las proporciones reciprocas o equivalentes en 1793 por el alemán Jeremiah B. Richter, y establece que cuando dos soluciones neutras se mezclan, y siguen en descomposición, los nuevos productos resultantes son casi sin excepción también neutros; los elementos deben, por lo tanto, tener entre ellos mismos una cierta razón fija de masas. Las proporciones definidas por el francés Joseph Louis Proust en 1801, quien afirma que muestras diferentes del mismo compuesto contienen siempre los mismos elementos constituyentes en las mismas proporciones


30

FRONTERAS DEL SABER

en masa; y, las proporciones múltiples en 1803 por el inglés Jhon Dalton, en esta ley se afirma que, cuando dos elementos se unen en proporciones diversas para formar más de un compuesto, las masas de un elemento que se combinan con una masa fija del otro elemento guardan una relación sencilla de números enteros. Con la introducción de la teoría atómico-molecular, los fenómenos químicos empiezan a interpretarse en términos de átomos y moléculas. Surge así la hipótesis de Avogadro en 1811 que, para dar cuenta de la ley de los volúmenes de combinación de Gay Lussac (en 1809), inexplicable por la teoría atómica de Dalton (en 1808), introduce el concepto de molécula, estableciéndose así la diferencia entre átomos y moléculas. Esta hipótesis no es aceptada por los químicos de la época siendo ignoradas durante casi 50 años, tiempo en el que prevaleció una gran confusión en los cálculos de los químicos, hasta que el químico italiano Stanislao Cannizzaro la recupera en el Congreso de Karlsruhe en 1860. El químico necesita establecer una relación entre las propiedades macroscópicas, masa, volumen y la variable microscópica, número de partículas que intervienen en los procesos. El problema que se plantea a la hora de establecer las distintas relaciones cuantitativas, es que las partículas son muy pequeñas por lo que su masa y tamaño no pueden medirse y seleccionarse en pequeñas cantidades. Es necesario medir de una vez un número muy grande de ellas (la constante de Avogadro). Por ello se introduce el concepto de mol, un concepto tan fundamental para la química como las ideas de átomo y de molécula. Es bien conocido en la historia de la química, como Ostwald (en 1900) ideó el concepto de mol, debido a su escepticismo sobre la hipótesis atómica, él pensaba que esta hipótesis seguía sin ser verificada y su valor heurístico o discutible se estaba perdiendo por la emergente termodinámica, donde el concepto fundamental no era la materia sino la energía, por lo tanto átomos, moléculas e iones debían ser tomados como ficciones matemáticas para explicar las operaciones de la energía. Lo que fundamentaba que Ostwald no creyera en la existencia real de los átomos, ni inicialmente en la hipótesis molecular de Avogadro y mantenía las ideas de peso equivalente. Su problema era determinar la composición en peso de las sustancias compuestas y el cálculo cuantitativo de las proporciones en peso en que se combinan las sustancias en las reacciones químicas.

Ostwald introduce el concepto de “mol” como el peso de combinación expresado en gramos e identificaba «cantidad de sustancia» con peso (masa) coherentemente con el paradigma equivalentista y empirista al que se adscribe. A finales del siglo XIX tuvieron lugar feroces debates sobre la existencia de los átomos, hasta que el físico francés Jean Baptiste Perrin en su libro Los átomos, publicado en 1913 confirmó experimentalmente la existencia de las moléculas presentando pruebas de la naturaleza discontinua o atómica de la materia1, lo que condujo a una amplia aceptación de la existencia de los átomos y las moléculas. Sus trabajos confirmaron la teoría molecular permitiéndole calcular el tamaño molecular y el valor de la constante de Avogadro. La traducción a masa (expresada en gramos) de estas cantidades originó en el siglo pasado la introducción de conceptos como el átomo-gramo (masa atómica expresada en gramos que contiene un mol de átomos de ese elemento), la molécula-gramo (masa expresada en gramos que contiene un mol de moléculas de ese compuesto) y la fórmula-gramo, que luego fueron sustituidos por el termino mol. Con ello se trataba de hacer converger las visiones equivalentista y atomista sobre las reacciones químicas. Este tipo de historia epistemológica muestra, a grandes rasgos, la evolución que ha experimentado el concepto a lo largo de su construcción. Lo importante de esta historia es que aporta muchos elementos epistemológicos para denotar la existencia de tensiones que surgieron en la época y que llevaron a los científicos a indagar sobre las posibles soluciones para los problemas químicos. Sin embargo, se hace necesario considerar que, en la época en la que se desarrollaron dichas tensiones, también prevalecía una cultura específica que pudo haber ayudado o no al avance de la ciencia. Este encuadre cultural no debe estar aislado de la construcción epistémica del concepto, ya que, la particularidad de cada una, forman parte de una dinámica en la que se desarrolla la vida misma y, por lo tanto, el pensamiento y conducta de los científicos ineludiblemente tuvo que enmarcarse en la ideología que predominaba en la época. 1

Antes de 1800, se pensaba que la materia era continua, es decir, que podía ser dividida en infinitas partes más pequeñas sin cambiar la naturaleza del elemento. Sin embargo, alrededor de 1803 ganó aceptación la teoría atómica del inglés John Dalton (1766-1844).


UNIVERSIDAD SIMÓN BOLÍVAR

Lo anterior indica que un tipo de historia que se rehúse a mostrar el contexto socio- cultural en el que se construyó un concepto, es una historia contada a medias y desligada de una construcción colectiva y humana con base en hipótesis, experimentos, fracasos, logros, dudas y certezas que caracterizan a una comunidad científica. Todo esto nos lleva con dicho análisis se desarrollaron unas unidades de significación, que fueron los eventos más sobresalientes en las historia que nos permiten mejorar la enseñanza del concepto, dichas categorías son las siguientes, comprensión de la existencia de un mundo submicroscópico: un mundo visto desde la mente; es allí en lo micro donde se da explicación a lo macro y es en el mundo natural, ante nuestros ojos, de una forma concreta, por lo que se concibe de una manera continua, real e incluso inacabable, pero muy pocos hacen el intento de ver más allá de lo observable e inmiscuirse en un mundo microscópico que pueda dar explicaciones de las cosas visibles, el cual requiere del uso, no de nuestros sentidos, sino de una mente poseedora de gran capacidad abstracta y razonable. Este mundo micro hace referencia a la existencia real de los átomos y las partículas elementales que constituyen la materia, y es en este mundo donde acontecen diversos fenómenos que son evidentes solo en el mundo macroscópico, dando explicación a muchos interrogantes planteados desde lo observable, como lo son, el cambio de color en una reacción, la formación de precipitados, la variabilidad del PH en una sustancia, entre otros. En este momento se reconoce su existencia, y se le da un carácter activo, participativo durante las reacciones químicas, hay que comprender que los comportamientos observables de la sustancias tienen una causa que subyacen en las partículas elementales que habitan en el mundo submicroscópico, brindando estos parámetros la química se comprenderá, con una mirada más profunda en la materia y su comportamiento. El mol es un puente entre la descripción macroscópica (cuántas partículas están contenidas en una cierta cantidad de sustancia) y la descripción microscópica (la cantidad misma). ¿Cómo convencer de la necesidad de introducir este puente y de cuál tiene que ser su naturaleza? Es necesario entonces comprender que la unidad mol permite contar, se debe orientar hacia el entendimiento de lo que es medir y contar. Se pueden medir distancias, se puede medir la cantidad de harina para hacer arepas

31

con una balanza, se mide la temperatura, en cambio se pueden contar estudiantes en un aula de clase, se pueden contar naranjas, se pueden contar las arepas que se hacen con dos kilos de harina, etc. Está claro que no se pueden contar los átomos o las moléculas por su naturaleza submicroscópica. Aquí se necesita utilizar la unidad mol para cuantificar las partículas elementales, aun si poseen masas molares diferentes, que están contenidas en una determinada cantidad de sustancia. La naturaleza de la unidad mol y su magnitud se relaciona con un sistema de medida El concepto mol desde sus inicios sufrió varios cambios significativos que le permitieron fortalecerse. Por eso es de vital importancia que en las aulas de clase los docentes conozcan este proceso de construcción, y vean que la química no es difícil sino que hay que comprender los procesos de cambio vividos y que variaron con el tiempo, sin olvidar que a medida que avance la ciencia se pueden generar cambios, por lo tanto, lo que se enseña hoy no es verdad absoluta, es conocimiento en continua construcción, que permite mostrar a la ciencia de forma dinámica, que está en constante renovación de conceptos.

Conclusiones Utilizar la historia como mecanismo para averiguar en el pasado con intención pedagógica es apropiado, ya que se puede reconstruir la visión de ciencia que existía entonces, por lo tanto, el conocimiento histórico ayuda a valorar las teorías científicas que se llevan al aula. La historia se convierte en una herramienta válida para la enseñanza - aprendizaje de conceptos científicos permitiendo conocer las tensiones vividas en la época, las inquietudes planteadas y el nacimiento de explicaciones nuevas. El conocimiento de la construcción histórica de los conceptos químicos proporciona rutas orientadoras que vislumbran caminos con el fin de comprender los conceptos en su marco de recontextualización. Las categorías que resultaron del análisis histórico resaltaron los puntos claves en la historia que permitirían construir rutas orientadoras para enseñar el concepto cantidad de sustancia y mol.


32

FRONTERAS DEL SABER

La influencia que tiene la política, la economía, la religión, la ideología y cultura en la sociedad para la construcción de conocimiento se evidenció en el desarrollo de este trabajo. Este encuadre cultural tiene características determinantes en el pensamiento de todos los miembros de una sociedad, por lo que las explicaciones dadas a un fenómeno, son influenciadas por la formación cultural que se posea. Por lo tanto, el conocimiento científico es una construcción epistémica, pero también socio-cultural que permite identificar a la ciencia como un proceso humano. La concepción de la Química como disciplina científica se amplía ante el inmenso bagaje conceptual que constituye su construcción histórica, esta visión más contextualizada la proporciona el estudio de la evolución histórica y epistemológica de un concepto químico. La química es una disciplina que atravesó dificultades para constituirse como ciencia y ubicarse como una rama de estudio que proporciona explicaciones para satisfacer dudas sobre los diversos fenómenos químicos que hacen parte de la cotidianidad.

Agradecimientos Al Grupo de Investigación en prácticas pedagógicas (GIPEP) y Semillero de investigación en pedagogía (SIPE). Por su apoyo, Laura Barrera, Martha Cerquera, Giovanni Vahos, Alfonso Claret Zambrano.

Bibliografía BALOCCHI, Emilio. Aprendizaje cooperativo del concepto cantidad de sustancia con base en la teoría atómica de Dalton y la reacción química. Ciencia Para Niños Y Jóvenes, Enero de 2006. CHANG, Raymond. Química. Editorial Mc Graw Hill Interamericana Editores S. A. Séptima Edición. Traducida al español en México 2002. CLARET ZAMBRANO, Alfonso. Relación entre el conocimiento del estudiante y el conocimiento del maestro en las ciencias experimentales. Edición Grupo de educación en ciencias y tecnologías. Cali-Colombia, Marzo del 2.000. p. 69 - 124.

DIEGUÉZ, Antonio J. Realismo y Antirrealismo en la discusión sobre la existencia de los átomos. Universidad de Málaga, España. En: Revista Philosophia Malacitana, Edición 8. (Enero 1995); p. 49-65. DO CARMO PADULLA SOARES, Maria Aparecida. A grandeza quantidade de matéria e sua unidade mol: Uma Proposta de Abordagem Histórica no Processo de Ensino-Aprendizagem. Brasil: Universidade Estadual De Maringá. Programa de pós-graduação em educação para a ciência e o ensino de matemática. 2006. FURIÓ, Carlos, AZCONA, Rafael y GUISASOLA, Jenaro. Revisión de Investigaciones sobre la EnseñanzaAprendizaje de Los conceptos Cantidad de Sustancia y Mol. En: Investigación didáctica – Enseñanza de las ciencias (jun-ago.2002); p. 229-242. FURIÓ, Carlos; PADILLA, Kira. La Evolución Histórica de los conceptos científicos como prerrequisito para comprender su significado actual: el caso de la cantidad de sustancia y el mol. Universidad de Valencia, España y la Universidad Nacional Autónoma de México. En: Didáctica de las ciencias experimentales y sociales, edición nº 17 (marzo 2003); p. 55 – 74 GALLEGO TORRES, Adriana Patricia; BADILLO GALLEGO Rómulo. Historia, epistemología y didáctica de las ciencias: unas relaciones necesarias Universidad Distrital Francisco José de Caldas. Bogota, Colombia. Junio 2005 Gallegos, José A. Reflexiones sobre la enseñanza y la epistemología científica, Departamento de didácticas experimentales. Facultad de ciencias de la educación. Universidad de Granada. Polígono universitario Cartuja. 18071 Granada. 1996,17(2), 321-326. PEREZ MIRANDA, Royman. Las competencias: interpretar, argumentar y proponer en Química, un problema pedagógico y didáctico. Universidad Pedagógica Nacional. Primera Edición. Bogotá - Colombia. 2004.


UNIVERSIDAD SIMÓN BOLÍVAR

33

Requisitos preliminares de las aplicaciones en un plan de migración de software propietario a libre

Adarme Jaimes, Marco Antonio12*

Resumen La especificación de requisitos de las aplicaciones permite tomar decisiones a nivel de factibilidad técnica en un plan de migración. El estudio presenta las categorías principales de los objetos de software que se deben tomar en cuenta en el momento de implantar la solución bajo ambientes libres. Palabras clave: Plan de migración de software, software libre, software propietario.

Abstract The specification of the application requirements for the taking of decisions at the technical feasibility of a plan for migration. The study then presents the major categories of software objects to be taken into account when implementing the solution under free environments Keywords: migration plan software, free software, proprietary software

Introducción

U

n plan de migración de software, es todo aquel procedimiento y actividad necesarios para cambiar o trasladar el sistema base y sus aplicativos a otra versión de software más estable o reciente [1]. La transición propuesta comprende el cambio de plataformas propietarias (Windows) a libres (Linux), a nivel de su sistema base o sistema operativo (SO). Como etapa inicial del plan, se sugiere el levantamiento del inventario de las aplicaciones y sus usuarios[6], para esto es necesario el estudio de los tópicos principales proporcionados por las metodologías de migración (Tipo, usuarios e

1

identificación de aplicaciones). El resultado del estudio es la especificación de los tipos de software que se deben utilizar para preparar la planificación del proyecto.

I. Tipos de migración La migración puede realizarse de tres formas; su característica principal es la velocidad en la implantación del software libre (Sistema operativo o aplicaciones). Serán utilizados términos como usuario y maquinas, donde, los usuarios son el personal que trabaja con el SO

Grupo de Investigación INDETEB. Programa Ingeniería de Sistemas, Universidad Simón Bolívar – Extensión Cúcuta *e-mail: madarme@unisimonbolivar.edu.co

2


34

FRONTERAS DEL SABER

o una aplicación especifica, y las máquinas al hardware desnudo que se va a instalar el SO, los técnicos deben garantizar el correcto funcionamiento. Las migraciones comprenden: 1. Total o de Bing Bang: Los usuarios de la organización cambian su sistema propietario en una sola jornada de trabajo; es decir, los SO son instalados y sus aplicaciones migradas en sesiones donde la empresa no labora [2]. Este tipo, suele tener la ventaja de no incurrir en costos excesivos de estudio de requerimientos, la desventaja, es el cambio abrupto que provoca el rechazo del personal que interactúa con los sistemas, si este no llega a estar capacitado. Se utilizan en maquinas que no requieren software especializado, por ejemplo aquellas que solo utilizan aplicaciones ofimáticas. 2. Parcial por grupo de requerimientos: Las máquinas y sus usuarios son agrupados por requerimientos técnicos (Software y hardware) y el proceso se realiza teniendo en cuenta las necesidades definidas inicialmente por el grupo de trabajo[2-3]. En este momento se deben sugerir las modificaciones necesarias en el hardware, con sustitución gradual de la estación de trabajo, así como la actualización de las máquinas removidas de un grupo, para instalarlas en lugar de las máquinas antiguas de otro grupo. 3. Parcial por usuarios y requerimientos. También es llamada, “Paso a paso”. En este tipo, se toma cada uno de los usuarios, se realiza el análisis de los componentes a migrar y el proceso es individualizado[1]. Su práctica es más segura y confiable, sin embargo, el tiempo de migración es mucho mayor; por esto es difícil de implantar en organizaciones que tienen un gran numero de maquinas. Es común que el grupo técnico encargado del proceso escoja un tipo de migración en particular para un departamento de la organización; por ejemplo, en el caso de organizaciones educativas, las salas de cómputo pueden ser migradas en bing bang y la zona de servidores usando parcial por requerimientos. Es probable que los sistemas antiguos y nuevos tengan que funcionar lado a lado por algún tiempo. Es importante planear una estrategia de transición que habilite los sistemas antiguos y los nuevos para que trabajen juntos, para que las actividades de producción sigan normalmente durante el período de transición. Puede pasar un largo periodo hasta

la sustitución de la última máquina, entonces, es probable que la coexistencia venga a ser un factor relevante en el proceso [5]. No obstante, en este punto se tratan superficialmente los pasos de un plan de migración, se puede evidenciar una etapa de obtención de requerimientos, otra de capacitaciones para los usuarios y otra de implantación del SO que se estudiarán detalladamente en el modelo propuesto para una migración exitosa.

II. Definición de usuarios Los usuarios constituyen una parte vital en el proceso de migración, se pueden categorizar en aquellos que realizan su trabajo en el sistema a través de un cliente remoto (Interfaces web), y los que operaran en aplicaciones desktop tipo cliente-servidor (Software contable que se comparte en terminales), o simplemente aquellos que interactúan con aplicaciones ofimáticas. Se debe analizar qué tipos de usuarios junto con sus aplicaciones van a a migrar y si es posible realizar este proceso[2][4]. Para efectos del estudio se han definido tres tipos de usuarios y con ellos su grupo de aplicaciones. Estos comprenden: •

Usuario básico: Es un usuario local que consume varias aplicaciones instaladas en su máquina, por ejemplo: Clientes que solo utilizan editores de textos, hojas de cálculo y mensajería instantánea, en este caso la migración es rápida por el nivel de integración de las aplicaciones.

Usuario complejo: Es el que opera en aplicaciones creadas para un propósito especifico y sus herramientas no son de carácter multiplataforma; no basta con migrar su SO, deben cambiarse las aplicaciones y el acceso a los datos. Este tipo de usuario, es de cuidado y debe utilizar una migración individualizada.

Usuarios administradores: Son aquellos que operan con el hardware y software de red. Ellos se encargan de que la capa de aplicación funcione adecuadamente en un entorno red, si la decisión es migrar los servidores a software libre.


UNIVERSIDAD SIMÓN BOLÍVAR

Con el análisis anterior, se tiene una visión sencilla de los tipos de aplicaciones que necesitan ser migradas.

III. Especificación de aplicaciones Después de determinar los usuarios del sistema , es necesario categorizar las aplicaciones que se van a implantar o integrar al SO; estos dos términos aunque hacen dos acciones diferentes, por un lado la implantación se refiere a la actividad de cambiar una aplicación por otra, ejemplo: se tenía la suite ofimática Microsoft Office y ahora se va a reemplazar por OpenOficce; y la integración se refiere a la convivencia de las aplicaciones con la nueva plataforma operacional, se tiene una versión para realizar compresiones de archivos en formato zip y en el nuevo sistema se tendría un software igual o con GUI (Graphics User Interface) símiles[4][5]. Es importante resaltar que la integración de aplicativos incluye la convivencia de la capa de datos en los dos sistemas, esto es, el software que se utiliza estándar en sus repositorios de archivos de salidas (Archivos de texto ASCII por ejemplo). En de las categorías, se toman dos grupos derivados de los usuarios estudiados, en la figura 1 se destacan los tipos principales: Figura 1. Categorías de aplicaciones.

35

migrar. Se encuentran aplicativos de propósito específico poco comunes como: Administradores de proyectos o sistemas de información geográfica, por citar un ejemplo. Las actividades realizadas por la mínima muestra de usuarios no serán consideradas. La cantidad de software disponible en Linux indica que para muchas funciones existen diferentes aplicativos disponibles. La elección del aplicativo no siempre es evidente, debe ser pautada por directrices y especificaciones técnicas realizando un análisis de requisitos de integración o de migración. Un punto fuerte del software libre en Linux es ser modular y poder ser montado de formas diferentes, permitiendo que los sistemas sean tallados para satisfacer las necesidades específicas. Esa modularidad permite que el software se adapte a interfaces abiertas y disponibles públicamente. Esa flexibilidad puede traducirse como una dificultad, ya que los Administradores pueden impresionarse con la variedad de opciones disponibles. Hay muchas organizaciones que pueden proveer ayuda y soporte, de la misma forma como existe en el mercado propietario[10]. La figura 2, muestra los tipos de software que se estudian en la integración y migración específica. Figura 2. Categorías de aplicaciones.

• Servidores: Consideraciones acerca del ambiente operacional de los servicios de red que se prestan en la organización. • Estación de trabajo: Consideraciones del ambiente operacional y aplicaciones que se utilizan en las estaciones de trabajo. Cada grupo se subdivide dependiendo de aplicaciones especificas que pueden utilizar, es trabajo técnico determinar los niveles y realizar la recolección de información que determine los usuarios y los aplicativos que existen en la plataforma actual, así como los que van a

Hay varios sistemas operacionales en Linux, este es abastecido por algunas compañías como: Conectiva, Red Hat, SuSE, Mandriva y Ubuntu entre otros, con un conjunto de programas de soporte y aplicativos, como la distribución; las distribuciones comprenden sabores (Tipos) de Linux y todas comparten un mismo kernel; algunas son total o parcialmente libres. Las distribuciones comerciales vienen en paquetes con diferentes niveles


36

FRONTERAS DEL SABER

de soporte. La distribución disponible vía Internet tiene soporte generalmente por un año, y entonces, los usuarios deben hacer actualizaciones. La mayoría de las compañías ofrecen una versión Enterprise que tiene garantía de soporte por cinco años o más y que es basada en versiones estables. A diferencia del software propietario, cada distribución tiene sus versiones; por ejemplo: Mandriva tiene su versión 10.01, los números pares e impares en el argot del software libre hacen referencia a versiones estables e inestables respectivamente. Al tener un gran número de distribuciones por elegir, la tarea del equipo técnico es encontrar el sistema operacional adecuado tanto para ambientes de estaciones de trabajo como para los servidores. Dentro de las estaciones de trabajo tal como se evidencia en la Figura 2, los aplicativos se categorizan en: • Administradores de ventanas: Hay varias opciones, que van desde los gestores leves de ventanas simples, como el icewm, hasta gestores de sesión completas como los incluidos en el GNOMEy KDE, estos son los más estables y usados, pero existen otros en desarrollo que son usados en equipos de menor capacidad, dos ejemplos son: el ZAPPWM 6, que solo ocupa 2 MB, y el Blanes 20007 , que tiene la ventaja de una interface gráfica muy parecida con algunas versiones de software propietario[8][9]. • Suites de oficina: Comprenden los aplicativos para la creación, modificación e impresión de archivos de datos del negocio en un formato específico, tales como cartas, memorandos, hojas de cálculos para nomina, la creación, modificación e impresión de planillas y presentaciones. En software libre existen tres suites muy utilizadas: OpenOffice.org, KOffice e GNOME Office, estas se encuentran disponibles en internet o en algunos casos las distros las traen en sus repositorios[10]. • Herramientas para Internet: Comprenden los aplicativos para acceder a servicios de internet como: Navegadores, mensajería instantánea, lectores de correo electrónico, administradores de ftp, entre otros. Existe paquetes disponibles para tal tarea, de hecho, hay más herramientas libres que propietarias, entre las que se pueden nombrar: firefox, opera, X-IRC, amsn,cuteftp, entre otras.

• Administradores de contenidos: Son los aplicativos que gestionan los archivos locales almacenados en los medios de almacenamiento secundario. En ambientes propietarios, sería el navegador de carpetas de Windows. En el software libre, cada administrador de ventanas contiene gestionador de contenidos. • Software Utilitario: Son aplicativos para gestionar ciertos recursos secundarios en el SO, tales como: Administradores de dispositivos y de software, herramientas para compresión, antivirus, entre otras. Es usual encontrar en las distros panel de control con GUI similares a Windows.

Resultados y discusión Con el análisis de los requisitos preliminares del proceso de migración se toman en cuenta: El tipo, los usuarios y sus aplicaciones, se obtienen varios niveles de implantación para la solución libre. El éxito de esta etapa, se deriva del inventario de los objetos de migración, comprendiendo este término, como la unión del hardware y software existente o nuevo que debe “migrar” o “integrarse”.Los objetos se enuncian en la siguiente tabla: Tabla1. Objetos de migración de software.


UNIVERSIDAD SIMÓN BOLÍVAR

37

[2]. Díaz, Francisco J. 2004. Directrices IDA de migración a software de fuentes abiertas. [online]. http://www. netproject.com. [3]. Ministerio Del Interior Alemania. 2006. A guide to migrating the basic software components on server and workstation computers. [online]. http://www.kbst. bund.de/Anlage304428/Migration_Guide.pdf. [4]. Ministerio Del Popular Para Las Telecomunicaciones Y La Informática –Venezuela. 2008. Guía Para El Plan De Migración A Software Libre En La Administración Pública Nacional. [online]. http://www.softwarelibre.gob.ve/documentos/ Documento_Migracion.pdf. [5]. Linux Documentation Project Guides. 2003. Introductory training materials for end-users and trainers to use the Linux operating system. [online]. http://www.iosn.net/training/end-user-manual/ [6]. E. Gibin. 2005. Linux In Peru: Adoption And Demand. [Online] Http://Www.Idc.Com/Getdoc. Jsp?Containerid=Pe1401.

Conclusiones El cambio de una tecnología Windows a Linux sobre estaciones de trabajo y servidores implica aclarar las diferencias dominantes entre el estilo, arquitectura de implementación y despliegue de aplicaciones sobre el sistema base. La categorización de aplicaciones permite al equipo técnico realizar el inventario de software y conseguir la convivencia de las aplicaciones y sus formatos de una forma ágil y sencilla. Queda como estudio posterior la integración de aplicaciones que requiere toda una tarea técnica de despliegue a nivel de servidores y software de propósito especial.

Bibliografía [1]. Almond, Chris. 2005. Linux Client Migration ration Cookbook A Practical Planning and Implementation Guide for Migrating to Desktop Linux.[online]. http:// www.ibm.com/redbook/.

[7]. Winehq. Wine Is An Open Source Implementation Of The Windows Api On Top Of X And Unix. [Online] Http://Www.Winehq.Com. [8]. Gnome: The Free Software Desktop Project. 2009. Http://Www.Gnome.Org/ [9]. Denis, Howe. 2000. Windows Manager. [Online]. H t t p : / / D i c t i o n a r y. R e f e r e n c e . C o m / B r o w s e / Window%20manager. [10]. Organización OpenOffice. Migration Guide. 2004. [Online]. http://documentation.openoffice.org/ manuals/oooauthors2/0600MG-MigrationGuide. pdf


38

FRONTERAS DEL SABER

Modelado de ontologías usando técnicas de inteligencia artificial, ingeniería de software y bases de datos

Eduard Puerto*

Resumen Las ontologías se aplican exitosamente para intercambiar y/o reutilizar la información y el conocimiento entre las personas y las organizaciones. No obstante, modelar una ontología computacionalmente para un sistema de información organizacional, es una tarea complicada. Este trabajo discute y compara diversas técnicas del campo de la Inteligencia Artificial, la Ingeniería del Software y las Bases de Datos, empleadas para modelar ontologías. Se identificaron los principales componentes de una ontología general y se describieron en términos de una ontología particular, usando las técnicas de cada campo. Además se determinó cual técnica restringe mejor las interpretaciones de los términos contemplados en la ontología. Palabras Clave: ontologías, inteligencia artificial, ingeniería de software, bases de datos.

Abstract Ontologies are successfully applied in supporting information and knowledge exchange between people and organizations. However, computational ontology modeling for organizational information system is a hard task. This work discusses and compares different techniques in the field of Artificial Intelligence, Software Engineering and Data Base that can be used as ontology model. We identified the main components of general ontology and described these elements in terms of a particular ontology, using techniques from each of the fields. Besides it was determined technique which best restricts the possible interpretations of the terms listed in the ontology. Keywords: ontologies, artificial intelligence, software engineering, database.

1. Introducción

D

urante la última década los países industrializados han destinado esfuerzos considerables en investigación y recursos presupuestales, para desarrollar

*Grupo de Innovación y Desarrollo Tecnológico Bolivariano (INDETEB) Universidad Simón Bolívar – Extensión Cúcuta eduardpuerto@hotmail.com

herramientas, métodos y técnicas computarizadas para la solución de problemas complejos. Un gran número de estos sistemas han sido pensados y desarrollados como sistemas de información basados en los conocimientos, los cuales realizan una exploración y usan las ontologías, asociadas a un dominio específico de aplicación [9].


UNIVERSIDAD SIMÓN BOLÍVAR

Las ontologías empezaron adquirieron relevancia en el área de la Ingeniería de Sistemas o la Informática en 1991, dentro del Knowledge Sharing Effort, campaña emprendida por la agencia norteamericana DARPA1 [4]. El objetivo fue construir un sistema de información basado en el conocimiento, ensamblando los componentes reutilizables. Desde 1991, se han dado importantes avances en esta área y hoy las ontologías son elementos comunes en el desarrollo de un gran número de aplicaciones y áreas como la gestión de conocimientos, procesamiento del lenguaje natural, comercio electrónico integración de información inteligente, recuperación de la información, diseño e integración de bases de datos, bioinformática, educación, etc. En el campo de la informática2, la ontología es una especificación explicita y formal de una conceptualización compartida. Existen diferentes formalismos de representación del conocimiento para formalizar e implementar ontologías, cada uno con diversos componentes que comparten un conjunto mínimo de ellos, a saber:

39

individuos en una ontología. Por ejemplo: “Raúl trabaja en el proyecto TIC´s01” es una instancia de la relación trabaja_ en o Frank es un Investigador. Las ontologías se pueden consolidar además con formalismos y lenguajes creados específicamente para representar el conocimiento a través de enfoques de campo de la Ingeniería del Software, tales como el Unified Modeling Language (UML) [5] o los diagramas de entidad relación (ER) [2]. El artículo está estructurado en cinco sesiones: La primera sesión corresponde a la introducción; la segunda corresponde al uso de tecnologías de IA en la construcción de ontologías. La tercera sesión muestra el uso de tecnologías de Ingeniería del Software en la construcción de la ontología, la cuarta sesión presenta el uso de tecnología de bases de datos en la construcción de ontologías y finalmente, la quinta sesión muestra las conclusiones y recomendaciones, el tipo de tecnología a usar con base en la ontología o dominio de discurso a modelar.

Clases: Representan los conceptos tomados en su sentido amplio, por ejemplo, para el campo de la investigación, “Investigador” o “Unidad de Investigación”.

2. Como modelar ontologías usando las técnicas de Inteligencia Artificial

Relaciones: que representan un tipo de asociación entre los conceptos del dominio y se definen formalmente como cualquier subconjunto de un producto de n conjuntos, es C1xC2x…xCn. Donde R es la relación y Ci1 decir: R i n son los conceptos. Por ejemplo la relación binaria R=es_una en “un grupo de Investigación es_una unidad de Investigación”; relaciona el concepto C1 = grupo de investigación, el dominio de la relación con el concepto C2 = Unidad de Investigación, rango de la relación.

Gruber propuso modelar Ontologías usando Frames (Marcos) y la Lógica de primer orden [3]; identificó cinco componentes a saber: las clases, las relaciones, las funciones, los axiomas formales y las instancias. En esta sesión se presentan tales componentes con un ejemplo en el domino de vuelos propuesto por Gómez Pérez [8].

Axiomas: los axiomas sirven para modelizar afirmaciones que son siempre ciertas [7]. Un axioma en el domino de investigación sería: “un investigador trabaja en por lo menos un proyecto de investigación”. Instancias: Son representaciones de elementos o 1

DARPA (Agencia de Investigación de Proyectos Avanzados de Defensa) de los E.E.U.U.

Clases: las clases de las ontologías son usualmente organizadas en taxonomías a través de las cuales pueden aplicarse los mecanismos de herencia, por ejemplo, es posible representar una taxonomía de un lugar de entretenimiento (teatro, cine, concierto etc.) o de viaje (viaje de negocio, viaje de turistas etc.). A continuación se modelara en Ontolingua3, la clase Localidad4 como un punto espacial, el cual esta identificado por un nombre: (define-class Localidad (?localidad) “Una localidad es un punto espacial, identificado por un nombre”

2

En informática, el término ontología tiene sus raíces en filosofía, y se define como un “sistema particular de categorías sistematizando cierta visión del mundo.”

3

Ontolingua http://www.ksl.stanford.edu/software/ontolingua/. Localidad sitio o lugar.

4


40

FRONTERAS DEL SABER

:def (puntoEspacial ?Localidad) :axioma-def (Template-Facet-Value Cardinalidad nombredeLocalidad Localidad 1)) El signo de interrogación alude a una variable, la sentencia dentro de las palabras claves: def y: axiomadef son sentencias KIF5 que dicen que una localidad es un punto espacial y establecen una restricción sobre la cardinalidad de su atributo, en este caso que tiene un nombre. Relaciones: las relaciones también son usadas para conectar taxonomías, para expresar atributos del concepto. Los atributos usualmente se distinguen de las relaciones porque su rango es un tipo de dato como: String, Number, etc, mientras que el rango de relaciones es un concepto. Por ejemplo la relación binaria Subclass_Of se usa para construir una taxonomía de clases. Un “Hotel Cuatro Estrellas” es subclase de un “Hotel”, y un “Hotel” es subclase de “Alojamiento”. También, es posible expresar relaciones de mayor claridad6 tal como “una carretera conecta dos ciudades diferentes”. Esta sentencia relaciona tres conceptos; “Carretera”, “CiudadA” y “CiudadB”. En Ontolíngua esta relación es definida de la siguiente forma:

n-1 de elementos anteriores. Esto es usualmente expresado como: F: C1 x C2x….x Cn-1 Cn. Un ejemplo de función es Pagar, la cual obtiene el precio de una habitación después de aplicarle un descuento. La expresión lambdabody en la definición esta escrita en KIF y denota el valor de la función en términos de sus argumentos. (define-funcion Pagar (?habitacion ?descuento) : -> ?precioFinal “el precio de la habitación después de aplicar el descuento” :def (and (Habitacion ?habitacion) (Numero ?descuento) (Numero ?precioFinal) (Precio ?habitacion ?precio)) :lambda-body (- ?precio (/ (* ?precio ?descuento) 100))) Axiomas Formales: Son usadas para representar el conocimiento que no puede definirse formalmente por los otros componentes. Los axiomas formales son usados para verificar la consistencia de la Ontología o la consistencia del conocimiento almacenado en una base del conocimiento; los axiomas formales son usados para inferir un nuevo conocimiento. Un ejemplo de axioma es “no es posible viajar de Colombia a España por tren”7 que en Ontolingua es:

(define-relacion conecta (?ciudadA, ?ciudadB, ?carretera) “una carretera conecta dos ciudades diferentes” :def (and (Localidad ?ciudadA) (Localidad ?ciudadB) (TramoCarretera ?carretera) (not (parte_de ?ciudadA ?ciudadB)) (not (parte_de ?ciudadB ?ciudadA)) (or (and (comienza ?carretera ?ciudadA) (finaliza ?carretera ?ciudadB)) (and (comienza ?carretera ?ciudadB) (finaliza ?carretera ?ciudadA)))))

(define-axiom No-tren-de-Colombia-a-España “no es posible viajar de Colombia a España por tren” := (forall (?viaje) (forall (?ciudad1) (forall (?ciudad2) (=> (and (Viaje ?viaje) (lugardeLlegada ?viaje ?ciudad1) (lugardePartida ?viaje ?ciudad2) (localizacionAmerica Sur ?Ciudad1) (localizacionEuropa ?Ciudad2)) (not (viajeTren ?viaje)))))))

Funciones: son un caso especial de relaciones en las cuales el n-ésimo elemento de la relación es único para el 5

KIF Proporciona una notación como-LISP para escribir las definiciones de los axiomas en Ontolingua.

Instancias: Son usados para representar elementos o sujetos en una Ontología. Un ejemplo de instancia

6

aridad o numero de elementos que intervienen en la relación, unaria, binaria, ternaria, etc.

7

Al menos en estos tiempos


UNIVERSIDAD SIMÓN BOLÍVAR

podría ser “el vuelo AA666 que llega a la ciudad de Cúcuta en Diciembre 31, 2012, y cuesta 777 mil pesos”. (define-instance AA666-Dic-12-2012 (AA666) :def (( tarifaUnica AA666-Dic-12-2012 777) (fechaSalida AA666-Dic-12-2012 Dic-2012) (lugarLlegada AA666-Dic-12-2012 Cúcuta)))

41

la tercera hace referencia al nombre del lenguaje de lógica descriptiva que considera el número de constructores que contiene. Por ejemplo el lenguaje ALC formado por las letras AL+C incluye los constructores mencionados en la tabla. Tabla 1. Constructores DL comunes y su correspondencia con nombre de lenguajes

Existen plataformas para el modelado de Ontologías con marcos y lógica de primer orden como el editor Protégé-20008 [6] y el WebODE [1], que ayudan al ingeniero del conocimiento a construír la ontología. 2.1 Como modelar ontologías usando lógicas descriptivas La lógica descriptiva es un formalismo lógico para la representación del conocimiento. La teoría de la lógica descriptiva está dividida en dos partes: el TBox9 y el ABox10. El TBox contiene el conocimiento intencional en forma terminológica y se construye a través de declaraciones que describen las propiedades generales de los conceptos. El ABox contiene el conocimiento extendido (aserciones) y especifica los individuos del dominio de la discusión, en otras palabras, el TBox contiene las definiciones de los conceptos y los roles mientras que el ABox contiene las definiciones de los sujetos (instancias). Los sistemas de la lógica descriptiva permiten representar las Ontologías con tres clases o componentes que son: los conceptos, los roles y los individuos. En la lógica descriptiva, los conceptos tienen el mismo significado que en el paradigma de Frame (ellos representan clases de objetos). La tabla 1 resume los principales constructores de la lógica descriptiva y los nombres asignados a cada lenguaje. En la primera columna de la tabla 1 se nombra el constructor de DL (Description Logic). Los conceptos atómicos (de los cuales solo conocemos su nombre) son representados por una A mayúscula. Los conceptos no atómicos se representan con una C y D mayúsculas y los roles con un R. La segunda columna representa la sintaxis de escritura de una DL particular, mientras que

Con base en lo anterior, en la lógica descriptiva, una ontología se construye de la siguiente forma: El dominio de la ontología de Vuelos, y el concepto Vuelo_fly, plantea condiciones necesarias y suficientes para que un individuo pertenezca a sus dominios. Concepto: “un vuelo_fly es un vuelo por aeroplano” en el lenguaje LOOM11sería: (defconcept vuelo_fly “un vuelo_fly es un recorrido en aeroplano” :is (: and Vuelo (:all numeroVuelofly Numero) (: exactly 1 numeroVuelofly) (: filled-by medioTransporte “Aeroplano”)))

8

http://protege.stanford.edu/plugins/paltabs/PAL_tabs.html

9

TBox Terminology Box (Caja Terminológica)

10

ABox Assertion Box (Caja de Aseveraciones)

11

http://www.isi.edu/isd/LOOM/


42

FRONTERAS DEL SABER

3. Como modelar las ontologías con técnicas de ingeniería del software

4. Como modelar ontologías con técnicas de bases de datos.

UML (Lenguaje de Modelado Unificado) puede usarse como una técnica para modelar ontologías debido a que es fácil de entender y usar por personas ajenas a la comunidad de la Inteligencia Artificial. Existe un estándar grafico para la representación de los modelos UML y herramientas CASE12.

Las ontologías pueden modelarse empleando tecnologías de bases de datos con un modelo de entidad relación (ER) o con la extensión común de generalización de relaciones entre entidades. A continuación se modelarán los ejemplos previos sobre el dominio de vuelos usando un diagrama ER (entidad / relación) con la extensión común de generalización entre entidades. Como se puede observar en la figura 2, la notación ER permite modelar.

Los diagramas UML se usan para representar los conceptos y sus atributos, las relaciones entre conceptos (relaciones taxonómicas), los axiomas en OCL13 y la representación de las instancias.

Figura 2. Diagrama entidad-relación extendido para un ejemplo de viaje.

La figura 1 muestra parte un diagrama de clases y objetos con los conceptos Vuelo, Localidad, Vuelo_fly y Tramo de carretera con dos instancias (AA666 12 Dic 2012 y Cúcuta). Figura 1. Diagrama de clases y de objeto de la ontología de vuelo

Clases: son modeladas a través de entidades-ER. En la figura, los conceptos viaje, viaje_fly, localidad, y tramo de carretera son modelados. Las clases pueden ser organizadas en taxonomías de clases con la relación de generalización entre las entidades – ER, en la misma figura el concepto “Vuelo_Fly” es definido como una subclase del concepto Vuelo.

El UML se usa para modelar Ontologías en varios proyectos como el UBOT (UML basado en un conjunto de herramientas ontológicas) en el que se aplicaron transformaciones de UML a DAML+OIL para un mejor modelado de las ontologías. Además es importante resaltar que los editores Protege y Web ODE permiten exportar e importar ontologías en formatos UML. 12

CASE (Computer Aided Software Engineering, Ingeniería de Software Asistida por Computadora) 13

OCL Object Constraint Language

Atributos: son modeladas a través de atributos -ER. La notación ER permite representar el valor de los tipos de atributos. Por ejemplo, para la clase Viaje se le definen los atributos fechaLlegada, fechaSalida, nombreCompañia, TarifaUnica, y MedioTransporte cuyos valores de sus tipos de datos son Date, Date, String, Float y String respectivamente. Relaciones ad hoc: se modelan a través de relaciones ER entre entidades - ER. Las relaciones pueden ser n-arias. La figura 2 se representa la relación binaria “lugar de llegada” y “lugar de Salida” y la relación ternaria “conecta”. La notación ER permite modelar las cardinalidades de la relación. Por ejemplo, es posible definir que un “Vuelo”


UNIVERSIDAD SIMÓN BOLÍVAR

tiene por lo menos un lugar de llegada. Una propiedad importante de la notación – ER, es que permite representar atributos de relación. Por ejemplo, se puede definir como se muestra en la figura 2 la logitudConeccion como un atributo de la relación “conecta”. Axiomas formales: pueden ser representados como restricciones de integridad, usando algunas de las restricciones notaciones complementarias, como lógica de primer orden, reglas producción, etc.

5. Conclusiones y recomendaciones Se ha mostrado que las ontologías construidas usando técnicas de Inteligencia Artificial, permiten restringir mejor las posibles interpretaciones del vocabulario usado en la ontología, mucho más que las ontologías construidas con ingeniería del software y tecnología de base de datos. Para la construcción de ontologías en sistemas de información se considera lo siguiente: (a) si el dominio de conocimiento exige un mayor nivel semántico para su representación, es recomendable usar técnicas de Inteligencia Artificial, (b) cuando el domino de conocimiento es sencillo, no requiere una definición exhaustiva de los términos y contemple relaciones sencillas, debe modelarse este conocimiento usando la ingeniería del software y/o la tecnología de las bases de datos. Además, aunque la tecnología de bases de datos pueda ser usarse para construir ontologías, no es la más apropiada para la construcción de ontologías complejas.

Bibliografía [1] Oscar C., Asunción G.P, Mariano F., & Vicente O. (2002). WebODE: an Integrated Workbench for Ontology Representation, Reasoning and Exchange. In: Gomez-Pérez A, Benjamins VR (Eds) 13th International Conference on Knowledge Engineering and Knowledge Management (EKAW´02). Siguenza, Spain. (Lecture Notes in Artificial Intelligence LNAI 2473) Springger-Verlag, Berlin, Germany, pp 138-153 [2] Chen, P.P. (1976). The Entity-Relationship Model”: Toward a Unified View of Data. ACM Transactions on Database Dystems, PP.9-36.

43

[3] Gruber T.R. (1992). Ontolingua: A mechanism to Support Portable Ontologies. (project KLS-91-66,). Stanford, California. Universidad de Stanford. [4] Neches R., Fikes R.E., Finin T., Gruber T.R., Senator T., & Swartout W.R. (1991). Enabling technology for knowledge sharing. IA Magazine. pp 36-56. [5] Rumbaugh, J., Jacobson, J,. & Booch G. (1998). The Unified Modeling Language Regerence Manual. Boston, Massachusetts. Addison-Wesley. [6] Noy Nf, Fergerson Ew, & Musen Ma. (2000). The knowledge model of protégé-2000: Combining interoperability and flexibility. In: Dieng R, Corby O (eds) 12th International Conference in Knowledge Engineeering and Knouledge Management (EKAW´00). Jean-Les-Pins, France. (Lecture Notes in Artifical Intelligence LNAI 1937) Springer-Verlag, Berlin, Germany, pp 17-32. [7] Gruber T.R (1993). A translation approach to portable ontology specification. Knowledge Acquisition. pp 199-220. [8] Gomez P. (2002). A servey on Ontology Tools OntoWeb deliverable D1.3. Extraído el 22 de noviembre de 2010 de http://ontoweb.aifb.uni-karlsruhe.de/About/ Deriverables/D13_v1-0.zip. 2002. [9] Ding, Y. (2000). A review of ontologies with the Semantic Web in view, Journal of information Science.


44

FRONTERAS DEL SABER

Agentes móviles (AM) en computación ubicua (CU) Adriana Xiomara Reyes Gamboa, Fanny Mojica Sepúlveda1*

Resumen Este artículo presenta la evolución soportada por los sistemas computacionales en los últimos años, teniendo en cuenta que el papel de los Agentes Móviles (AM), es cada vez más relevante. Se estudia el conjunto de Agentes Móviles (Móviles con los usuarios y con los dispositivos) y su aplicación en la Computación Ubicua. Como resultado de la investigación se suministra un procedimiento y una guía que incluye aspectos a tener en cuenta en el momento de diseñar e implementar un agente en un ambiente ubicuo. Palabras clave: Agente móvil, computación ubicua, dispositivos móviles, ingeniería del software.

Abstract

This paper presents the rapid evolution of computer systems endured in recent years, since the role of agents and specifically, the Mobile Agent (MA) is increasingly important. Particular focus to all mobile operators (mobile users and devices) and its application in Ubiquitous Computing, as a result of the investigation procedure and provides a guide which covers aspects to consider when designing and implement an agent in a ubiquitous environment. keywords: mobile agent, computer locate, mobile devices, software engineering.

Introducción

L

a computación siempre ha causado grandes impactos tecnológicos, sociales y organizacionales.

En los años 80 nacieron los grandes sistemas informáticos, creados para servir con una sola máquina a muchos usuarios, pero eran complejos y costosos. En la década pasada, aparecieron los computadores personales, de sencillo manejo y bajo costo y actualmente la Computación Ubicua (CU), penetrante u omnipresente (Pervasive Computing), la cual ofrece posibilidades de interacción1

1

simples y cercanas al usuario mediante pequeños dispositivos dispersos en el entorno que los rodea, de fácil manejo, pero con limitaciones de implementación. Gracias a la evolución tecnológica en la miniaturización de los microprocesadores se han abierto nuevas posibilidades de servicios al usuario a través de la manipulación de la información presente en su entorno.

1

Todos los intercambios que suceden entre persona - computador [Baecker y Buxton, 1987]

Programa Ingeniería de Sistemas, Universidad Simón Bolívar – Extensión Cúcuta *e-mail: adrianax_reyes@hotmail.com, fasepulveda@hotmail.com


UNIVERSIDAD SIMÓN BOLÍVAR

Ahora no sólo se puede imaginar una industria compuesta por máquinas inteligentes, sino a muchos usuarios utilizando pequeños dispositivos inteligentes con limitado poder de procesamiento y comunicación que permiten la realización de muchos procesos. Es de esperar que la tecnología de Agentes sea un ayudante en el desarrollo de sistemas generalizados; ya que estos Agentes de software son entidades autónomas que pueden interactuar con su medio ambiente y se adaptan a los cambios frecuentes. Sin embargo, el uso de dichos agentes plantea importantes desafíos, y es necesario conocer sus ventajas para satisfacer las necesidades de estos; para poder disponer de la información en cualquier momento y desde cualquier lugar [1].

2. Conceptos generales La portabilidad de información se ha vuelto un recurso indispensable en la mayoría de las actividades humanas, siendo en algunos casos de vital importancia; pero de igual manera es necesario preguntarnos: ¿Cómo el computador comienza a estar encajado en los dispositivos electrónicos de uso diario de las personas y qué consecuencias tiene esto en sus actividades? ¿De qué forma los computadores empiezan a estar en todas partes, sin que nos demos cuenta?, por esto nace la Computación Ubicua (CU) que hace uso de dispositivos pequeños y baratos presentes en el entorno de usuario tanto en el hogar como la oficina. Se diferencia de la computación móvil o nómada, la cual dio paso a la (CU) ya que permite la realización de tareas de cómputo mientras el usuario se traslada o está en lugares diferentes a su entrono habitual. Por tanto, se requiere la innovación tecnológica para suplir estas necesidades. Al igual que la (CU) da recursos, impone restricciones en cuánto a: movilidad, autonomía, sociabilidad, seguridad entre otras; esto se puede eliminar con habilidades que tienen los Agentes Móviles (AM) como: Movilidad, autonomía y cooperación, para compartir recursos “hardware y software”, como información. Se entiende por Agente Móvil (AM) aquél que no está limitado al sistema donde se ejecutó, el mismo será capaz

45

de moverse de una máquina a otra a través de la red y “vuelve a casa” luego de completar su tarea [NwH] [2]. Una definición técnica es: “Los Agentes Móviles, son libres de migrar a través de la red creando un ambiente de ejecución, dónde migran su código (el programa que define su comportamiento o descripción estática), estado (el que le permite continuar con su actividad al moverse o la descripción en un momento determinado de ejecución) y los datos (que va recopilando en su recorrido por la red a otro ambiente de ejecución en la red)”; son autónomos con la función de ejecutar tareas, con el fin de cumplir sus objetivos, retornando al nodo inicial con los datos de resultados, y poder rechazar peticiones de otros Agentes.

3. Por qué el uso de los (AM) Los agentes móviles son procesos de software capaces de transitar por una red, interactuando con host alejados, reuniendo información para el usuario y volviendo a su origen cuando las tareas establecidas por el usuario se hayan cumplido. Algunas de las ventajas obtenidas al usar agentes móviles son [3]:

Reducen el costo de comunicación (Eficiencia), por ejemplo, cuando en una ubicación hay un mucha información que necesita ser examinada y transmitida, esto ocuparía una enorme cantidad de recursos en la red y consumiría mucho tiempo. En este caso el agente móvil solo encapsula la información necesaria. Esto se debe a que el Agente va a una dirección, hace la búsqueda / selección local y transfiere solamente la imagen elegida comprimida a través de la red. Computación asíncrona, mientras un agente móvil realiza su tarea el usuario puede ir ejecutando otra, después de un tiempo el resultado del agente móvil será enviado al usuario. Ejecución o cálculo asíncrono, los Agentes pueden operar cuando el usuario no este conectado a la red, y enviarán los resultados en alguno tiempo posterior. En cuánto a sus beneficios tenemos [4]:


46

FRONTERAS DEL SABER

Tabla 1. Beneficios de los Agentes Móviles

Los sistemas generados deben soportar la integración de los (AM) utilizados en los sistemas persuasivos, para ello es útil tener presente la especificaciones FIPA -ACL.

Como se muestra en la Figura 1.El procedimiento se puede ver desde el punto de vista del ciclo de vida del software pero dándole características de un software móvil. Teniendo en cuenta el modelo tradicional de ingeniería del software, empieza por: La especificación de Requisitos ->Análisis de Requerimientos->Diseño>Implementación->Pruebas y verificación->Operación y Mantenimiento. Figura 1. Ciclo de vida del SW

4. Procedimiento para la integración de un (AM) en un ambiente ubicuo El procedimiento debe especificar unos sistemas persuasivos utilizando primitivas conceptuales y protocolos de coordinación y comunicación propios de estos entornos. El procedimiento debe generar sistemas funcionalmente operativos a partir la especificación del mismo. 2

La noción Active Network representa la idea que los nodos de las redes de comunicación pasan a ser activos por tomar parte en el procesamiento de las aplicaciones y en el soporte de servicios personalizados.

Descripción de cada fase: 4.1 Diseño básico de un agente móvil 4.1.1 Desde el punto de vista físico Pensar en los constituyentes físicos de los objetos. 4.1.2 Desde el punto de vista del diseño. Pensar en la función de los objetos (diseñarlos para una función).


UNIVERSIDAD SIMÓN BOLÍVAR

4.1.3 Desde el punto de vista intencional Pensar en los objetos como agentes racionales (creencias, intenciones, deseos...) Entorno: ambiente ubicuo

47

los requisitos de los sistemas de agentes. Una de las alternativas establece la funcionalidad a través de construcciones “mentales”, como creencias, deseos e intenciones (Arquitectura BDI Belief, Desire, Intention); aunque no es fácil la construcción de especificaciones, estas se constituyen como una serie de “reglas” (fórmulas lógicas) como por ejemplo:

El Agente toma la información del contexto: 1. Adquiere información del contexto. 2. Procesa la información del contexto. 3. Razona sobre la información del contexto y obtiene nueva información del contexto (vuelve al paso al paso 1).

Si el agente1 cree que el agente2 cree que la opción 1 está vacía, entonces el agente1 debería creer que el agente2 tiene información errónea, y el agente1 debe intentar informar al agente2 de su error

Las creencias se usan para referir la información que el agente tiene sobre su entorno. Esta información puede ser incorrecta, de la misma manera que nuestra información sobre el entorno (nuestra creencia) puede ser incorrecta.

La intención se utiliza para referir una meta que el agente seguirá hasta que tenga éxito o falle totalmente. Se admite la posibilidad de fallo, ya que en muchos sistemas complejos se tiende a ignorar los formalismos tradicionales; se considera que el comportamiento proactivo de los agentes está representado en términos de una librería de planes, el agente selecciona un plan de la librería sobre la base de los objetivos que desea satisfacer. Un plan se instancia cuando ocurre el disparo de un evento que satisface su invocación y condiciones de contexto. Un plan instanciado es una intención. El cuerpo de un plan es un conjunto de tareas que pueden ser subobjetivos, acciones, aserciones de la base de creencias, consultas y mensajes a otros agentes. Cuando se forma una intención, estas tareas son ejecutadas por el agente en un esfuerzo por alcanzar un objetivo dado (deseos).

Especificación de requisitos ¿Qué? En esta fase se construye un documento teniendo en cuenta las necesidades del cliente con respecto al nuevo sistema, para establecer la manera precisa en que los desarrolladores intentarán construir el sistema. A partir de este documento se pueden identificar:

Las funcionalidades del sistema, Los Agentes Los Casos de Uso, Los diagramas de flujo de datos, Los diagramas de despliegue, para describir lógicamente el sistema.

Se define una arquitectura común para los sistemas previsivos que se van a construir; que permita interconectar componentes de software y hardware, los cuales hacen que un agente se comporte como tal.

Esta arquitectura determina como descomponer los agentes en módulos (o modelos) y como interactúan entre sí para lograr la funcionalidad requerida, también se debe especificar el método de descomposición de las tareas y los servicios de cada agente en el ambiente.

Algunos requisitos a tener en cuenta para la arquitectura móvil son:

Extensibilidad: Se refiere a la capacidad del sistema para adoptar mejoras o cambios, por ejemplo adaptación a nuevas tecnologías.

Portabilidad: Las aplicaciones desarrolladas sobre la arquitectura deben estar aisladas de las peculiaridades de los diferentes servidores de aplicaciones, bases de datos y sistemas de comunicaciones a través de una serie de interfaces genéricas (capas de abstracción software) que ocultarán los detalles de implementación

Arquitectura interna Existen varios modelos para la representación del conocimiento entre los cuales contamos: Lógico, Reactivo e Híbrido. Se han desarrollado alternativas para establecer


48

FRONTERAS DEL SABER

a la aplicación, de forma que el cambio de uno de estos recursos no implique un cambio en el código fuente de las aplicaciones, facilitando en consecuencia la portabilidad de la misma. Análisis de requerimientos

Obtener una descripción de los requisitos del sistema que se va a desarrollar, le dará forma, orden y se modelarán los procesos para un mejor entendimiento.

Esta etapa es considerada una de las fases más importantes, debido a que un documento de requisitos completo y preciso evitará propagar errores en las siguientes fases del ciclo. Refinamiento Después de tener una especificación de alto nivel, necesitamos transformar esta especificación en agentes, y relacionarlos con los otros de la estructura general del sistema. Este proceso se conoce como refinamiento. (En esta fase ya se sabe qué hace el sistema). Diseño del sistema ¿Cómo? Se han realizado esfuerzos para que el diseño de sistemas eficientes y robustos sea un proceso metódico y riguroso, pocos de esos esfuerzos se derivan hacia la aplicación de técnicas a los sistemas de agentes. Luego del refinamiento deben existir o crearse:

Guías para descomponer un problema de agentes y descifrar cómo afectará un diseño en el funcionamiento general del sistema.

Para esto el diseño debe realizarse, desde una perspectiva:

Top-down (descendente) (cómo se debería descomponer el sistema idealmente), y Bottom-up (ascendente) (qué componentes software existen ya y no pueden ser cambiados, o software ya existente).

Para obtener un buen diseño será necesario:

Descomponer el sistema, subsistemas o módulo en términos de los objetivos que ellos buscan. Diseñar o importar la ontología del dominio.

Basados en la ontología diseñar la base de conocimiento de cada agente y Adicionar habilidades cognitivas a cada agente (mecanismos de cooperación, coordinación y competencia). Ontología Para conseguir el principio de procesamiento independiente del contexto, es preciso utilizar un modelo genérico del conocimiento que aísle los servicios, los usuarios y los dispositivos. Este modelo se consigue mediante ontologías. Una ontología es una descripción (parecido a una descripción formal de un programa) de conceptos y relaciones que existen para un agente o una comunidad de agentes. Una ontología define el vocabulario de representación del conocimiento sobre un dominio y sus situaciones específicas. Cada ontología se modela mediante lenguajes de definición de ontologías (Web Semántica o WWW) como OWL3 y RDF4. Estos lenguajes permiten la descripción de cada uno de los modelos de datos de cada aplicación o servicio, en términos de clases, relaciones entre ellas, propiedades y atributos; la ontología de movilidad se proporciona por la plataforma a utilizar y el estándar FIPA. Implementación del sistema Existen varias arquitecturas, por ejemplo la inteligencia artificial que se construye con agentes basados en el conocimiento, codificando el comportamiento del agente en términos de reglas, frames o redes semánticas; y la otra es el lenguaje JAVA, no se puede decir cual es mejor, ya que ambas tienen ventajas y desventajas. Pruebas, validación y verificación En esta fase se definen aspectos importantes; por lo tanto se necesita: 3

Una guía para ver qué está pasando, utilidades

Lenguaje de Ontologías Web (Web Ontology Language) Marco de Descripción de Recurso (Resource Description Framework)

4


UNIVERSIDAD SIMÓN BOLÍVAR

de validación, verificación para avanzar en la ejecución y comprobar el comportamiento (interno y externo) del sistema para evaluar si cumple con los requisitos del cliente. La visualización se puede hacer por imágenes, ya que determinar lo que ocurre en un sistema es una tarea difícil. Esto es cierto en un agente, pero más entre agentes Móviles; de esta fase depende si hay que revisar la fase anterior o incluso la modificación de la fase de análisis donde se encuentran los requisitos del sistema. Operación y mantenimiento En esta fase el sistema está en funcionamiento y se refiere al cambio asociado a los errores ya sean: Detectados, Fallas, Mejoras solicitadas y cambios. En esta fase se considera el retiro del software.

5. Guía de diseño de un (AM) en un ambiente ubicuo Para desarrollar un sistema de Agentes Móviles se tienen en cuenta las características principales (Movilidad, autonomía, sociabilidad, proactividad, y reactividad), debe contener: 1. Modelo de entorno: Dirigido a las entidades participantes en el entorno ubicuo. 2. Modelo de agente: Describe la estructura interna del agente como parte del agente móvil, define las características de autonomía, aprendizaje y cooperatividad. También un modelo de consecución de objetivos, que facilite al agente alcanzar aquellos que le hayan sido fijados. 3. Modelo de ciclo de vida. Define los diferentes estados de ejecución de un agente móvil. 4. .Modelo computacional. Define las habilidades computacionales de un agente, como la manipulación de datos, primitivas y control de instrucciones (hilos de ejecución). 5. Modelo de comunicación. Es la implementación de un protocolo que se utilizará para solicitar a otros agentes o a humanos tareas externas, y para recibir solicitudes de otros agentes; probablemente un modelo de control que priorice sus propias tareas y

49

las que debe hacer para otros agentes. 6. Modelo de datos: Se refiere a los Datos en los que se registren, las percepciones de su entorno y su estado. 7. Modelo de seguridad. Se encarga de dos protecciones: la de los agentes sobre un nodo y la de los nodos sobre los agentes, describe cómo y qué agentes pueden acceder a los recursos de la red o a los propios agentes. 8. Modelo de navegación. Se refiere a todos los aspectos de movilidad, gestiona todas las características referidas al transporte de un agente (Con o sin su estado), entre dos entidades computacionales que residen en ubicaciones diferentes. Luego se construyen los agentes encargados de realizar las funciones de los modelos anteriores, estos podrían ser: Agentes de interfaz: Permiten al usuario interactuar con los demás sistemas, supervisan eventos y realizan tareas en el dominio de la aplicación. Agentes del sistema: Relacionan el modelo computacional con el modelo de comunicación, establecen una capa de inteligencia y los mecanismos de coordinación entre ellos. Agentes de gestión: Permiten que el proveedor de los servicios interactúe con los sistemas, como se muestra en la Figura 2, para el diseño de agentes se tiene en cuenta el ciclo de vida mediante estados y transiciones propuesto por la FIPA. Figura 2. Estados y transiciones de un Agente Móvil


50

FRONTERAS DEL SABER

Las Transiciones para pasar los agentes de un estado a otro son: Créate (Create): Creación de un nuevo agente. Invocación (Invoke): Invocación o activación de un nuevo agente una vez inicializado. Desaparece (Destroy): Fuerza la terminación de un agente. Esta acción solo se inicia por el AMS y no se ser puede ignorar. Acaba (Quit): Solicita la terminación de un agente. El agente puede ignorar la acción. Suspéndete (Suspend): Pone a un agente en estado suspendido. Esta acción puede iniciarla el propio agente o el AMS. Reactívate (Resume): Saca un agente del estado suspendido. Esta acción solo puede ser iniciada por el AMS. Espera (Wait): Lleva un agente al estado en espera. Esta acción solo puede ser iniciada por el propio agente. Despierta (Wake up): Saca un agente del estado en espera. Esta acción solo puede ser iniciada por el AMS.

tecnologías utilizadas en el desarrollo de este tipo de sistemas. Lenguaje de comunicación La comunicación es el elemento representativo en este tipo de sistemas, en agentes y en el medio en el que habitan. Además es fundamental crear un mecanismo adecuado de comunicación entre agentes. Para que esta interacción entre agentes sea significativa, constructiva e inteligente se requiere entonces de: Protocolo de redes Ad-Hoc5 Los protocolos habilitan la comunicación entre dos máquinas. Las máquinas se comunican para transportar agentes. Los protocolos operan sobre una cantidad de redes de transporte incluyendo aquellas basadas en el protocolo de Internet TCP/IP. Los protocolos operan en dos niveles. El nivel inferior gestiona el transporte de los agentes; y el superior la codificación y decodificación. La computación Ubicua requiere un conjunto de protocolos listos para ser usados, que implemente:

Únicamente los agentes móviles pueden entrar en el estado Tránsito “transit”. Esto asegura que los agentes estacionarios ejecuten todas sus instrucciones en el nodo donde fueron invocados; al igual que las acciones encerradas en color rojo solo son usadas por los agentes móviles: (Move): Pone un agente en el estado de transición. Esta acción solo puede ser iniciada por el propio agente. (Execute): Saca al agente del estado Plataforma La arquitectura de agentes se debe soportar en una plataforma de gestión de agentes que incorpore los recursos básicos para resistir: su ciclo de vida, el modelo de despliegue, su configuración, su supervisión, y la inclusión de nuevas funcionalidades. Entre ellas se encuentra el soporte a los diferentes protocolos de comunicación que componen el entorno ubicuo. El framework o plataforma que implemente la arquitectura definida, que facilita la integración de las

Un mecanismo de serialización que transforme la llamada al método en la forma adecuada para su transmisión sobre la red (SOAP6).

Una capa de transporte que lleve los datos inherentes al método entre los sistemas remotos.

Un mecanismo para encontrar, activar y desactivar objetos distribuidos.

Un modelo de seguridad para proteger el sistema local y remoto.

Los lenguajes facilitan la interoperabilidad, de manera que los agentes pueden comunicarse independientemente del lenguaje en el que han sido implementados. De acuerdo con lo anterior existen dos tipos de lenguajes los declarativos y los procedurales los segundos son los que se utilizan en el diseño de (AM) son sencillos y su ejecución es eficiente y directa, por lo tanto para facilitar 5

Redes cuya topología cambia constantemente debido a la ubicación de los dispositivos que a ella se conectan. 6 Aquitectura orientada a servicios (Simple Object Access Protocol).


UNIVERSIDAD SIMÓN BOLÍVAR

el desarrollo de las aplicaciones de comunicación, y la interacción entre lugares y Agentes Móviles el lenguaje de programación debe ser:

51

6. Conclusiones En este artículo se muestran ventajas y beneficios que da la tecnología de Agentes Móviles para el desarrollo de aplicaciones en dispositivos limitados que se comunican mediante protocolos inalámbricos. Siendo esta una contribución a la computación ubicua, porque permiten integrar los dispositivos limitados y embebidos en el mundo físico de un usuario. Gracias a la investigación se obtuvo la base de una Guía para ayudar en el diseño e implementación de este tipo de sistemas.

Completo: Para que cualquier algoritmo pueda ser expresado en el lenguaje.

Orientado a objetos: Para obtener los beneficios de esta tecnología.

Dinámico: Para que pueda transportar la clase que requerida para crear instancias de agentes en máquinas remotas.

Persistente: Para que el agente y su información sean respaldados en un medio no volátil.

Portable y seguro: Para ejecutarse sobre cualquier plataforma de una forma segura.

Bibliografía.

Versátil: Que permita tareas complejas de transporte, autenticidad y control de acceso.

[1] Mark Weiser. The Computer for the 21st Century. Scientific American, September 1991.

La desventaja es que requieren información de los agentes que recibirán los mensajes.

[2] [NwH]: Nwana H., Ndumu D. “An Introduction to Agent Technology”, ISR Agent Research http://more.btexact.com/projects/agents/publish/ papers/intro_agents.htm

Un mensaje esta estructurado como se muestra en la Tabla 2: Tabla 2. Estructura de un Mensaje

[3] D. Chess, C. Harrison, A. Kershenbaum. “Mobile Agents: Are They A Good Idea”. I.B.M., 1.995. [4] D. Lange Danny, Oshima Mitsuru. “Programming and Deploying Java Mobile Agents with Aglets”. Addisson-Wesley Longman, Reading http://gidis.ing.unlpam.edu.ar/downloads/pdfs/ AgentesMoviles_Arturo.pdf


52

FRONTERAS DEL SABER

Diseño e implementación de un sistema para la supervisión del proceso de secado de la línea cerámica Monserrate, basado en un sistema “Scada” (supervisory control and data acquisition) . 1

José Armando Becerra Vargas2, Carlos Alberto Meza Ortiz3, Asdrúbal Nieto Pabon4.

Resumen SCADA proviene de las siglas de “Supervisory Control And Data Adquisition”, (Adquisición de Datos y Control de Supervisión), que es un sistema controlado por un software de aplicación SCADA diseñado especialmente para monitorear las variables del sistema (también se pueden controlar mediante una estrategia programada en dicho software), que proporciona una comunicación con los dispositivos de campo (unidades remotas, controladores autónomos, PLC, etc.) para supervisar el proceso automáticamente y en tiempo real desde la pantalla del PC. [1] Palabras Clave: SCADA, Visual Basic, supervisión, base de datos.

Abstract SCADA comes from the acronyrn “SupeMsory Control and Data Adquisition”, (Adquisición de Datos y Control de Supervisión). This system is defined by a software application SCADA specially designed to monitor the system’s variables (they can also be controlled through a strategic prograrnrned in its software), proportioning a communication with the field’s diapositives (remote units, self controllers, PLC, etc.) to supervised the process automatically, and in real time, from the PC’s monitor. [1] Keywords: SCADA, Visual Basic, reviewing, data bass.

Introducción

E

n En el departamento Norte de Santander existen empresas dedicadas a la fabricación de productos cerámicos derivados de la arcilla como baldosas, tejas y cenefas entre otros. Debido a la globalización, las

exigencias de calidad y eficiencia son prioritarias para competir internacionalmente, por lo cual se han optimizado y automatizado los procesos de manufactura. En la industria arcillera, no cabe duda que las secciones de extrusado y secado son las más críticas del proceso de producción, por esto y con la vinculación de la

1

Para la empresa CERÁMICA ANDINA LTDA. Ubicada en el corregimiento de Cornejo departamento Norte de Santander. 2

Director del Grupo de Investigación de Automatización y Control “GIAC”, e-mail: jabecerr@bari. ufps.edu.co 3

Grupo de Investigación de Automatización y Control “GIAC”, e-mail: Doc_SAD@hotmail.com

4

Grupo de Investigación de Automatización y Control “GIAC”, e-mail: Asnie1118@hotmail.com


UNIVERSIDAD SIMÓN BOLÍVAR

Universidad y COLCIENCIAS, se plantea este proyecto encaminado a solucionar un problema que afecta a los alfareros en esta región arcillera, consistente en la identificación del problema en el proceso de supervisión de secado en la línea de producción, lo cual permitirá reducir el porcentaje de pérdida de material, mejorar la calidad del producto final y consecuentemente aumentar la eficiencia en la producción.

53

gráfico las variables del proceso de secado (temperatura y humedad relativa), con el fin de realizar ajustes al secado del material. También puede generar archivos históricos, alarmas del sistema, y quizá lo más importante, es su módulo de seguridad tipo usuario/contraseña para restringir el ingreso de personal no autorizado a la base de datos del sistema. Figura 1. Diagrama de un sistema SCADA

El proyecto se circunscribe al registro de los datos de temperatura y humedad como variables del proceso y posteriormente a la comparación y ajuste de los valores de acuerdo a un patrón de secado diferente para cada región o zona geográfica para finalmente presentar los resultados en forma gráfica. Actualmente existen en el mundo muchos sistemas SCADA, cuyos elevados costos y difícil manejo, niegan a las PYMES la oportunidad de automatizar y supervisar sus procesos de manufactura. El propósito principal del proyecto, es la implementación del sistema supervisorio, la logística de captura, procesamiento, almacenamiento y graficación de datos se da en un lenguaje sencillo, económico y amigable para el usuario, bajo un ambiente desarrollado con la aplicación VISUAL BASIC V 6.0, cuyo elemento de adquisición y transferencia es un PLC de la marca UNITRONIX, con excelentes características, un sistema integrado de funciones y bajo costo de operación. En este contexto, el grupo de Investigación en Automatización y Control “GIAC” reconocido por COLCIENCIAS y con categoría “B”, ha desarrollado un proyecto para la supervisión del proceso de secado de la línea Monserrate de la empresa CERAMICA ANDINA LTDA del corregimiento de Cornejo Departamento Norte de Santander, basado en un sistema SCADA; para ello se contó con la participación de estudiantes y docentes del programa de Ingeniería Electrónica de la Universidad Francisco de Paula Santander de la ciudad de Cúcuta, quién presta sus servicios de extensión para la solución de los problemas regionales. La participación directa del sector productivo, en este proyecto beneficia la región y la Universidad, especialmente por la coyuntura de esta última en el proceso de acreditación institucional. El sistema de supervisión denominado “SiMoTH” (Sistema de Monitoreo de Temperatura y Humedad Relativa), mide y transmite en tiempo real y en formato

En la figura 1, se describen las tres partes fundamentales de un sistema SCADA: Unidades remotas: RTU (Remote Terminal Unit) tienen las funciones de adecuar e interpretar las señales de los sensores de campo y enviar estos datos hacia el nivel de supervisión de la estación maestra mediante su canal de comunicación. Además, estas unidades son programables y tienen la capacidad de almacenar algoritmos de control. Un gran ejemplo de estas unidades remotas son los PLC (Controlador Lógico Programable). Estación maestra: La conforma un computador en cual se ejecuta un programa SCADA que comprende diversas funciones como recibir los datos de los sensores de campo, enviados a través de las unidades remotas para su análisis y posterior procesamiento, realizar la supervisión de procesos mediante un entorno gráfico, generar reportes y alarmas visuales del estado de las variables del sistema. Sistema de comunicación: Esta conformado por distintos soportes y medios de acuerdo con el tamaño del sistema SCADA, las distancias de las RTU y la velocidad y disponibilidad del servicio público de comunicación;


54

FRONTERAS DEL SABER

como ejemplo de estos sistemas, se pueden citar el RS232, RS485, MODBUS y PROFIBUS.

Tabla 1. Análisis comparativo de diferentes softwares de tipo SCADA

Actualmente los procesos productivos automatizados deben disponer de un sistema de supervisión que proporcione la información imprescindible para la toma de decisiones basadas en la información del proceso y otra información de la organización; por esto, los sistemas de supervisión son importantes en el medio industrial, ya que vigilan los procesos, brindan niveles óptimos de seguridad para los operarios, eliminan la necesidad del ser humano en ambientes de alto riesgo de accidente durante la inspección de las variables del proceso y permiten el monitoreo de estas desde un PC remoto y seguro. En este artículo se presenta el sistema SiMoTH como una solución de alta calidad y bajo costo necesaria para el medio industrial cerámico de la región para la supervisión de sus procesos, respecto a los sistemas SCADA comerciales de alto costo de licencia de instalación de software (alrededor de veintiséis millones de pesos).

Materiales y métodos Para la ejecución del presente diseño se mantuvieron como base los conceptos anteriormente descritos con una metodología de pasos o etapas a saber: Caracterización y selección del software y hardware a emplear en el diseño del sistema de supervisión (software de programación, plc, módulos de expansión, sensores) Lenguaje de programación: en la actualidad las aplicaciones SCADA deben permitir al usuario visualizar de manera sencilla, agradable y entendible toda la información del sistema, para interpretar rápida y eficazmente la información y tomar los correctivos respectivos para administrar el sistema. Esto se logra con un criterio comparativo entre diferentes softwares que permitan desarrollar una aplicación SCADA. La tabla 1 presenta las características de los softwares analizados.

Por estos motivos se concluyó que el lenguaje de programación que más se adapta a nuestras necesidades es el Visual Basic 6.0, por el bajo costo de la licencia y sus características de software abierto que permite la conexión y el manejo de otras aplicaciones como los motores de bases de datos, la importación de animaciones desarrolladas en flash u otro software específico y la comunicación por medio del protocolo DDE, adicionalmente su programación se orienta a eventos que interactúan con el usuario y presenta una interfaz gráfica optima para aplicaciones con el requerimiento de animación de las variables de los procesos o su estado. Controlador lógico programable PLC. Estos dispositivos se han convertido en un factor imprescindible en el área de automatización industrial, por ser programables, permitir consolidar algoritmos de estrategia de control y poseer características adicionales que permiten al operador del sistema obtener más información del mismo. El factor de evaluación que se siguió fue el número de entradas análogas y las posibilidades de expansión del PLC, por lo que se usó el OPLC Unitronics M91-2R6C, tomando como razón su interfaz HMI (panel de operador) integrada en el mismo OPLC, además su cable de programación no tiene costo y existe la posibilidad de comunicar directamente el software SCADA elegido con el OPLC Unitronics mediante su driver de comunicación DDE.


UNIVERSIDAD SIMÓN BOLÍVAR

Protocolo de comunicación. Aunque el software Visual Basic 6.0 puede comunicarse por el puerto paralelo y por el puerto serial, se implementó una comunicación por medio del puerto serial bajo el protocolo de intercambio dinámico de datos DDE, que permite la comunicación bidireccional en tiempo real entre dos aplicaciones activas, en este caso, el software SCADA y el driver UNIDDE del OPLC Unitronics, sin necesidad de un hardware intermedio adicional entre el PC y la unidad remota, lo cual excluye los errores de comunicación por efecto de ruidos y mala calibración de los instrumentos. Base de datos. Existen varios motores para el manejo de bases de datos como Microsoft Access, Visual Fox pro y MysQL, con características similares de manejo de bases de datos, como integridad referencial, índices de tablas, manejo de datos numéricos, texto y formatos de fecha. Sin embargo, se diferencian entre si en cuanto a que el motor MySQL es gratuito y esto lo hace el código fuente abierto más usado del mundo. Sensores de Campo. Existen muchos tipos de sensores para la medición de temperaturas como las sondas de temperatura (RTD) PT100, termocuplas tipo J, K, T, R, S y B entre otros; el bajo rango de las temperaturas consideradas en el proyecto (25ºC a100ºC), convierten al PT-100 en el dispositivo que más se ajusta a los requerimientos del sistema, ya que es un transductor ideal para las aplicaciones de bajas temperaturas de -100ºC a 200ºC y su conexión puede realizarse con cable de cobre normal, a diferencia de las termocuplas que requieren cable compensado de alto costo. Tabla 2. Rango de temperatura de operación y rango de salidas.

55

Según la tabla anterior, el dispositivo que mejor se ajusta al estudio es el RTD (Dispositivo Termo Resistente) PT100 ya que tiene rangos de sensibilidad térmica apropiados, aunque resultan ser levemente más costosos y menos que los termocuplas. Los PT100 pueden registrar variaciones de temperatura de una décima de grado con la ventaja de que no se descomponen gradualmente ni registran lecturas erróneas, si no que normalmente se abren para detectar inmediatamente la falla del sensor. La PT100 puede ser ubicada a una distancia de hasta 30 m. del medidor sin mayor problema utilizando cable de cobre convencional para realizar la extensión. Como existe la necesidad de monitorear la humedad relativa, se estudió la posibilidad de usar higrómetros industriales, comparando los precios de estos dispositivos para optimizar recursos. En este caso se optó por utilizar transmisores de temperatura y humedad (termo higrómetros), los cuales permitieron medir simultáneamente la temperatura y la humedad con un solo dispositivo. Planificación de la estrategia de automatización basada en la organización jerárquica de los procesos (pirámide CIM) para el sistema SiMoTH. Para el desarrollo del diseño del sistema de monitoreo, el primer paso es plantear una estructura jerárquica para manejar la información basada en la pirámide CIM como se presenta en la figura 2. Nivel de campo: Este nivel está integrado por los dispositivos termo resistentes PT100 y los transmisores de temperatura y humedad relativa HTS-801, los cuales están encargados de medir las variables del proceso de secado, transformando estas variables físicas de temperatura y humedad relativa en unidades eléctricas de voltaje (milivoltios - mV) y de corriente (miliamperios – mA). Nivel de control: Está compuesto por el OPLC Unitronics M91-2-R6C cuyas funciones son adecuar y acondicionar las señales de humedad relativa provenientes de dispositivo HTS-801, interpretar los valores enviados por los módulos de expansión IO-ATC8 e IO-PT4 los cuales acoplan y acondicionan las señales de temperatura generadas por el transmisor HTS-801 RTD y los PT100 respectivamente, al enviar los datos hacia el nivel de supervisión.


56

FRONTERAS DEL SABER

Figura 2. Pirámide CIM del Sistema SiMoTH

Figura 3. Distribución de los sensores en el secadero.

El nivel de campo esta conformado por el OPLC UNITONIC M91-2-R6C y los módulos de expansión IOATC8 e IO-PT4 que realizan un tratamiento a la señal de los sensores e incorporan los datos del sistema para enviarlos al siguiente nivel; dicha conexión de elementos se ilustra en la figura 4. Nivel de supervisión: Está conformado por un sistema SCADA llamado SiMoTH (Sistema de Monitoreo de Temperatura y Humedad Relativa) que recibe los datos de los sensores de campo, enviados a través del nivel de control para su análisis y procesamiento, para realizar las siguientes tareas: supervisar el proceso a través de un entorno gráfico, generar reportes de información y alarmas visuales del estado de las variables del sistema, registrar los valores óptimos de las variables de temperatura y humedad relativa requeridos por los operarios de la empresa Cerámica Andina LTDA en el proceso de secado.

Figura 4. Diagrama general de la conexión del OPLC, módulos de expansión y los sensores de campo.

Nivel de gestión: En este diseño el nivel de gestión no esta conformado por ningún elemento físico, esta integrado por la toma de decisiones del personal pertinente.

Descripción general del sistema SiMoTH La estructura del sistema SiMoTH se basada en la pirámide de jerarquía de la automatización, compuesta en su nivel de campo por siete transmisores de humedad y temperatura HTS-801 que suministran al sistema señales de corriente estándar 4-20 mA, además existen siete dispositivos termo resistentes PT-100 encargados de registrar los valores de temperatura de las secciones faltantes. En la figura 3 se describe la ubicación de los sensores en el secadero, donde los puntos marcados con el sufijo T indican la existencia de un sensor de temperatura y los puntos marcados con el sufijo H indican la existencia de un sensor de humedad relativa.

Este tratamiento consiste en la linealización de las señales y su conversión en valores enteros para realizar operaciones internas en el PLC y permitir el análisis de las variables del sistema. En el panel operador integrado del OPLC se diseñó una rutina para ingresar el lapso en el cual se desea generar una bitácora de los valores de humedad relativa y temperatura del sistema.


UNIVERSIDAD SIMÓN BOLÍVAR

Antes de explicar el nivel de supervisión, es necesario profundizar sobre el método de comunicación utilizado para enlazar el OPLC con el PC, usando conjuntamente el protocolo RS-485 y el protocolo DDE (intercambio dinámico de datos). La comunicación serial RS-485 se usa para comunicar el OPLC con su driver de comunicación UniDDE instalado previamente e el PC. Una vez los datos se encuentran dentro del PC en el driver UniDDE, se utiliza el protocolo DDE (Dynamic Data Exchange) que es un método de comunicación entre los procesos para intercambiar datos en tiempo real entre las aplicaciones ejecutadas bajo en entorno de Windows como el programa SCADA desarrollado en Visual Basic. Gracias a esto el software SCADA obtiene en tiempo real los datos suministrados por los sensores y permite muestrear cualquier cambio mínimo en los valores de manera inmediata.

57

• Manejo de uno o varios protocolos de comunicación. • Manejo y actualización de una Base de Datos. • Administración de alarmas (Eventos). • Generación de archivos históricos. Para el diseño del software SCADA partimos de un diagrama general de bloques que divide la aplicación en módulos con funciones específicas para integrar la aplicación total como se muestra en la figura 6. Figura 6. Diagrama de bloques de las aplicación del software SiMoTH

El protocolo DDE está basado en el sistema de mensajería proveído por Windows (Petzold, 1996) como se muestra en la figura 5, donde se representa una “conversación DDE” con mensajes entre ellos. Estos dos programas se conocen como el servidor y el cliente; un servidor DDE es un programa que tiene acceso a los datos que pueden ser útiles para otros programas, mientras que el cliente DDE es un programa que obtiene datos desde el servidor; para nuestro caso el servidor es el driver Unidde y el cliente es la aplicación SCADA. Figura 5. Diagrama de Conversación DDE Módulo presentación: En este modulo se visualiza la información específica del proyecto referente a las instituciones vinculadas, el director del proyecto y el grupo de investigación al cual pertenecen sus ejecutantes.

El nivel de supervisión genera una grafica de tendencias con los datos del nivel de control suministrados por el OPLC, con esto se visualiza en dos graficas la temperatura y la humedad relativa del secadero para supervisar el proceso comparando los valores obtenidos del set point (valores óptimos), necesarios para mantener el buen proceso de secado. Por este motivo se realiza el diseño de un software SCADA en lenguaje Visual Basic que cumple con los requerimientos y características requeridas por un software de esta naturaleza como los siguientes:

Módulo principal: Este modulo permite la navegación por todas las funciones del software SiMoTH y se constituye como la pantalla principal del software; su función es el de brindar el acceso a los otros módulos los cuales se encuentran deshabilitados hasta que el operario seleccione el tipo de tableta que se va a monitorear. También se visualizan la fecha y la hora del sistema y un botón con la función de salida de la aplicación. Módulo para la selección del tipo de tableta: Este modulo permite al usuario seleccionar el tipo de tableta que se desea monitorear desde una lista desplegable guardada en el sistema, para lo cual se realiza un acceso


58

FRONTERAS DEL SABER

a una base de datos MySQL para consultar el nombre de las tabletas con la posterior validación del operario manteniendo inactivos los demás módulos. Módulo para ingresar nueva línea de tableta: Este modulo permite almacenar el nombre de una nueva línea de tableta que posteriormente se puede monitorear y junto con esta acción se ingresan los datos de set point del la tableta con sus rangos de tolerancia específicos. Módulo de seguridad para el ingreso de datos set point: Es un modulo de seguridad cuya función es restringir el acceso de personas no autorizadas al sistema de ingreso de los set point; este modulo incluye elementos flexibles de acceso como de contraseñas como recordatorios, registro de nuevos usuarios y cambio de contraseñas. Este modulo envía una bitácora de eventos a una base de datos MySQL encargada de guardar los eventos del sistema SiMoTH. Módulo para registrar a un nuevo usuario: Esta función se realiza únicamente con la autorización de un usuario que introduce su nombre de usuario y contraseña y diligencia la información del nuevo usuario en un registro que posteriormente se almacena en una base de datos en MySQL. Por seguridad del sistema este modulo envía los datos diligenciados por el usuario que autoriza el nuevo registro, la fecha y la hora en la base de datos que almacena la información de los eventos especiales que se realizan dentro de SiMoTH. Módulo para recordar contraseñas: Es una ayuda para el usuario en caso de olvido de la contraseña; para ello se debe validar que el usuario del modulo sea autorizado por el sistema, verificando su nombre de usuario, una pregunta secreta que suministra el mismo y debe responderse correctamente para que solicite la contraseña. Al igual que los otros módulos que manejan información vital del sistema, este crea una bitácora de eventos en la base de datos MySQL que administra los registros de seguridad. Módulo para el cambio de contraseña: Este módulo realiza un mantenimiento de seguridad, consistente en el cambio frecuente de contraseñas para evitar el acceso de usuarios no autorizados y generar una bitácora en la base de datos de seguridad del sistema. Módulo para el ingreso de los datos de set point: Es un modulo con acceso a personal autorizado que permite

seleccionar los tipos de tableta del sistema e ingresar los valores de temperatura y humedad requeridos en el secadero para obtener un proceso óptimo; estos datos son conocidos conjuntamente como set point. También, se deben ingresar los rangos de tolerancia óptimos de la temperatura y la humedad requeridos para el criterio de sistema SiMoTH. Módulo de visualización de las curvas de temperatura y humedad relativa: Está diseñado para escoger el modo de visualización de las curvas de temperatura y humedad monitoreadas por el sistema en dos formas, gráficos separados ó las dos curvas en un solo gráfico. Una vez escogido el modo de visualización, el software SiMoTH se comunica con el OPLC, razón por la cual se debe iniciar la comunicación DDE y solicitar los datos de temperatura y humedad. Módulo para la construcción de las curvas: Este módulo permite visualizar en tiempo real los datos monitoreados en una curva y los datos óptimos (set point) mediante el acceso a una base de datos MySQL que guarda esta información y genera una gráfica de los datos reales adquiridos del OPLC. Módulo descriptivo del comportamiento de la temperatura y humedad relativa en el secadero: Es una forma alterna de visualización de los datos de humedad y temperatura en forma de un gráfico del secadero que revela los valores numero cronológicos de humedad y temperatura con la particularidad que cambian de color según su variabilidad. Módulo para la generación de informes: Este modulo está diseñado para visualizar e imprimir la información del sistema en cinco tipos de reporte: • Eventos del sistema. Se presentan la información del acceso y la salida de los módulos del sistema y el nombre del usuario que lo ha realizado. • Comportamiento de la temperatura. En este informe se muestran las anomalías del comportamiento de la temperatura junto con la fecha y hora del suceso. • Comportamiento de la humedad relativa. En este informe se muestran las anomalías del comportamiento de la humedad relativa junto con la fecha y la hora del suceso. • Bitácora de temperatura: Es un reporte con


UNIVERSIDAD SIMÓN BOLÍVAR

intervalos de tiempo de los valores de temperatura de las secciones del secadero después del inicio del proceso; este intervalo se puede ingresar y modificar mediante el OPLC. • Bitácora de humedad: Es un reporte de los valores de humedad de las secciones del secadero tomado con intervalos después del inicio del secado para realizar un seguimiento del proceso; este intervalo se puede ingresar y modificar mediante el OPLC.

59

El software utilizado en la programación del OPLC M91-2-R6C es el U90 Ladder V 4.0, cuyos componentes se destacan en la figura 8. Figura 8. Herramientas del U90 Ladder V 4.0

Estrategia de supervisión de la unidad remota (OPLC) Entre los factores más importantes en el desarrollo del sistema de supervisión del proceso de secado de la línea Monserrate de la empresa Cerámica Andina Ltda., sobresalen las curvas de temperatura y humedad relativa (ver figura 7) obtenidas a través de un estudio sobre las condiciones ideales del secadero. Figura 7. Curvas características de temperatura y humedad relativa del proceso de secado en la empresa Cerámica Andina LTDA.

Antes de programar el autómata, se aplica un modelo de diagrama general de bloques que divide en subtareas las funciones de adquisición, interpretación y conversión de las señales de los sensores de campo en valores apropiados para el procesamiento de la información en el PC. (Ver figura 9). Figura 9. Diagrama de bloques del OPLC para el manejo de datos

Módulo inicio. En este modulo se inicializan las variables, temporizadores y un mensaje de presentación.

Estas curvas son el resultado de mediciones y pruebas realizadas en esta empresa teniendo en cuenta un criterio fundamental consistente en un menor tiempo de secado sin que la tableta sufra desperfectos.

Módulo de punteros. Este módulo se encarga de examinar los valores provenientes de los módulos de expansión y de las entradas análogas del OPLC para transferirlos individualmente al siguiente modulo. Módulo temporizadores. Contiene temporizadores


60

FRONTERAS DEL SABER

que se encargar en ejecutar los tiempos de evaluación por parte de los punteros y el tiempo de despliegue de la visualización de los valores en el panel del operador. Módulo de linealización. Es el encargado de tomar los valores y adecuarlos a cifras puntuales de temperatura y humedad relativa para que el software los analice fácilmente.

propiedad enabled de los comandos citados. En la figura 11 se muestra el módulo principal del software SiMoTH. Figura 11. Módulo principal del software SiMoTH

Módulo de visualización del panel operador. En este modulo se muestran los valores linealizados con sus respectivas unidades expresadas en grados Celcius (°C) y valor porcentual (%) para presentarlos en forma automática o manual. Módulo activación DDE. Dispone los valores linealizados para enviar los datos al software de supervisión mediante el protocolo de comunicación DDE. Descripción de la interfaz gráfica y de la programación de los módulos del software SCADA. Módulo presentación. Esta interfaz grafica se basa en etiquetas (labels) y cajas de imagen (image box) cuya programación simple se basa en un botón de comando (command button) que oculta los módulos y permite visualizarlos cuando se activan con un click. (Véase figura 10). Figura 10. Módulo de presentación

Módulo para la selección del tipo de tableta. En su interfaz se usan cuatro comandos visuales a saber: etiquetas, botones de comando, un lista desplegable (listbox) y formas gráficas (shape), mientras que en la programación se emplean consultas de la base de datos MySQL mediante un lenguaje SQL que asigna el contenido del nombre de las líneas de tableta ingresadas al sistema para que el usuario seleccione aquella con el cual se va a trabajar. Figura 12. Módulo para la selección del tipo de tableta:

Módulo principal. En este modulo la interfaz gráfica es básica e incorpora un menú para las opciones del proceso de monitoreo; en la programación deben activarse los botones que conectan con los otros módulos mediante la

Módulo para ingresar una nueva línea de tableta. Al igual que el modulo anterior su interfaz grafica es básica y emplea herramientas visuales entre las que se encuentran las etiquetas, formas gráficas, botones de comando y una lista desplegable (listbox) que permite al usuario


UNIVERSIDAD SIMÓN BOLÍVAR

digitar el nombre de la nueva tableta para posteriormente incorporarla en la base de datos MySQL.

61

Figura 15. Módulo para recordar la contraseña.

Figura 13. Módulo para ingresar nueva línea de tableta

Módulo de seguridad para el ingreso de los datos set point. Su interfaz gráfica es más compleja y su programación incorpora rutinas de programación para validar la contraseña suministrada por el usuario. La caja de texto solo admite caracteres en mayúscula sin espacios programados con la ayuda del evento keypress de la caja de texto.

Figura 16. Módulo para cambiar la contraseña.

Figura 14. Módulo de seguridad para el ingreso de datos set point

Módulo para recordar y cambiar la contraseña. Estos módulos son similares en la interfaz grafica y en su programación; realiza una consulta con la base de datos mediante el lenguaje SQL preguntando el nombre de usuario, la contraseña, la pregunta y su respuesta secreta.. La diferencia con el módulo anterior radica en que el modulo de cambiar contraseña inserta una nueva contraseña en la base de datos. Las figuras 15 y 16 representan respectivamente el módulo para recordar la contraseña y el modulo para cambiar la contraseña.

Módulo para el ingreso de los datos de set point: Tiene una de las interfaces gráficas más complicadas del sistema que combina etiquetas, formas gráficas, listas desplegables y cajas de imagen. La programación no es tan compleja como la interfaz gráfica ya que realiza una sola consulta para seleccionar los tipos de tableta almacenados en el sistema y otra consulta para insertar los datos modificados de Set Point. (Ver figura 17).


62

FRONTERAS DEL SABER

Figura 17. Módulo para el ingreso de los datos de set point:

visualización de los datos leídos desde el OPLC, ya que cambian de color según el estado en que se encuentran. Las curvas se construyen en tiempo real y permiten visualizar el estado de las variables mediante el color verde es un estado óptimo, rojo en un estado de exceso y azul en un estado de deficiencia. En la figura 19 y la figura 20 se muestran los dos tipos de módulos de construcción de curvas. Figura 19. Módulo para la construcción de las curvas: en un gráfico compuesto.

Módulo de visualización de las curvas de temperatura y humedad relativa. Su interfaz grafica emplea botones de opción a los cuales se les programan las direcciones de los dos módulos gráficos, además mediante un botón de comando se incorpora la orden de continuar con la representación gráfica de los procesos. (Ver figura 18) Figura 18. Módulo de visualización de las curvas de temperatura y humedad relativa.

Módulo para la construcción de las curvas. Son los módulos más complejos del sistema con una interfaz de la curva realizada con la herramienta figure line cuyas propiedades X1, X2, Y1 y Y2 permiten programar una rutina de trabajo similar a las ecuaciones de la línea recta, con las cuales se representa una escala de resolución de la pantalla, mediante la multiplicación entre el valor de los datos del OPLC y los píxeles de la pantalla. Otra particularidad de este módulo son las etiquetas de

Figura 20. Módulo para la construcción de las curvas: en gráficos independientes.

Módulo descriptivo del comportamiento de la temperatura y humedad relativa en el secadero. Este módulo permite visualizar las variables monitoreadas del sistema y se diferencia con el anterior (figura 21) debido a que no genera curvas de comportamiento y la visualización se efectúa por medio de un grafico descriptivo del secadero que indica el estado de las lecturas con etiquetas que varían de color a lo largo del grafico, e indican la posición correspondiente a la posición exacta en el secadero real.


UNIVERSIDAD SIMÓN BOLÍVAR

Módulo para la generación de informes del sistema: Son módulos de información diseñados con etiquetas informativas del usuario, el titulo del módulo y el nombre de las cinco tipos de informe que se generan; los dos comandos empleados en este módulo son los botones de opción que permiten seleccionar el tipo de informe y el seleccionador de fechas tipo calendario (datapicker) con el cual se eligen los límites de tiempo iniciales y finales del intervalo expresados en días.

63

Figura 22. Módulo para la generación de informes del sistema.

En su programación se resaltan las instrucciones de consulta hechas en lenguaje SQL a las diferentes tablas de la base de datos del sistema, que se filtran según el criterio del intervalo de fechas seleccionadas por el usuario. (Ver figura 22). Para el formato de los informes se empleó la herramienta data report del Visual Basic, con la cual solo se requiere un diseño estático en el cual se realiza la estructura formal del informe (encabezado, membrete, logos, pie de página, títulos, etc.) y un diseño dinámico en que se emplean etiquetas (label) enlazadas a los campos de registro de la base de datos, diligenciados a través de las consultas realizadas en lenguaje SQL. En esta fase, el usuario debe seleccionar el tipo de informe, el lapso en el que se desea obtener la información y pulsar el botón aceptar para obtener los resultados. Para abandonar el módulo se programó un botón salir. En la figura 23 se muestra un informe de comportamiento de la humedad generado desde el sistema SiMoTH. Figura 21. Módulo descriptivo del comportamiento de la temperatura y la humedad relativa en el secadero

Figura 23. Informe de eventos del sistema generados por el sistema SiMoTH.


64

FRONTERAS DEL SABER

Módulo acerca de SiMoTH: Este modulo muestra en etiquetas la información referente a los entes involucrados con el desarrollo del proyecto entre los que se destacan las instituciones, empresas y participantes; Por otra parte, se incluye un comando especial para activar una animación flash en la cual se aprecia un cubo giratorio y cuyas caras contienen los logos que representan las instituciones involucradas. (Ver figura 24).

producción, analizar la calidad del proceso ó requerir la información necesaria para cualquier tipo de estudio en el que se necesiten registros históricos (ver figura 22 y figura 23). Se desarrolló un sistema óptimo de seguridad del proceso de secado que permite seleccionar y almacenar en la base de datos los datos y variables tratadas con la posibilidad de imprimir los eventos en un reporte.

Figura 24. Módulo acerca de SiMoTH.

Conclusiones El OPLC seleccionado que cumplió con las características del automatización para desarrollar el sistema de supervisión, brinda una ventaja adicional sobre los otros PLC porque tiene un panel de operador integrado de óptimo desempeño y un alto grado de confiabilidad debido a la estabilidad de las lecturas de datos registradas por el mismo. El sistema no presentó inconvenientes de funcionamiento ni de programación en su interacción con el medio industrial en el trabajo de campo.

Resultados Con el desarrollo de este proyecto se alcanzan los siguientes resultados: Se obtuvo un sistema de monitoreo de alta calidad tipo “SCADA” programado con el lenguaje Visual Basic, que redujo considerablemente los costos de desarrollo del sistema de supervisión y cumplió con las características de monitoreo presentes en un sistema SCADA comercial de alto costo como el LabView ó el Intouch.

Los módulos de expansión del OPLC Unitronics brindan mayor estabilidad y precisión en el tratamiento de la señal de los sensores de campo, porque tienen dispositivos necesarios para el óptimo acondicionamiento interno de la señal y reducen el hardware requerido, cuyo exceso de dispositivos eventualmente se afecta por las señales de ruido del ambiente industrial. Su calibración es original de fábrica bajo criterios y parámetros industriales que originan lecturas de gran precisión y confiabilidad. La integración del protocolo de comunicaciones DDE y el driver de comunicación UniDDE, ofrecen mayor confiabilidad del sistema de monitoreo, ya que el intercambio de datos no requiere hardware de enlace y se realiza en tiempo real entre el software de monitoreo que actúa como cliente y el OPLC que funciona como servidor.

El sistema formuló la creación de tres entornos gráficos que representan la supervisión de las variables incidentes en el proceso de secado (temperatura y humedad relativa) de una manera cómoda, precisa y eficaz. (Ver figura 19, figura 20 y figura 21).

El uso del lenguaje de programación Visual Basic reduce el costo de producción de las aplicaciones de tipo SCADA porque su licencia de instalación tiene un costo relativamente bajo respecto al valor de otras licencias industriales. Además permite elaborar una interfaz gráfica capaz de mantener la comunicación entre diferentes protocolos de comunicación.

Se generaron cinco reportes que permiten estudiar la

El motor de base de datos MySQL representa una


UNIVERSIDAD SIMÓN BOLÍVAR

solución para todas las aplicaciones que requieren archivos históricos, por su capacidad de adaptabilidad, la velocidad y el bajo costo por tratarse de un software libre. Se marcó un precedente ante la comunidad universitaria y la industria regional, al ser el primer ejercicio en el desarrollo de proyectos que involucran una entidad del sector industrial, el ente educativo superior y la institución de investigación estatal. Se elevó el nivel tecnológico en la empresa Cerámica Andina LTDA, para posicionarla en un mejor nivel de competitividad entre los sectores industriales tecnificados y elevar su nivel de calidad mediante la implementación un sistema jerárquico de procesos. Se logró un punto de partida para estudios y análisis futuros referentes a la producción, calidad u otros aspectos del proceso de secado de la empresa CERÁMICA ANDINA Ltda, gracias a los reportes y datos históricos de temperatura y humedad aportados por el sistema, lo cual representa un avance de la gestión de la pirámide CIM.

Bibliografía CLEMENTE, Antonio Muñoz y AGUILAR, Luis Joyanes.1999. Visual Basic 6.0. Iniciación y referencia. Editorial McGraw-Hill. 2009. CORNELL, Gary.1996. Manual de Visual Basic 4.0 para Windows 95. Editorial McGraw-Hill. 1996. GUTÍERREZ, Juan Diego. MysSQL 5 Guía práctica para usuarios. Editorial Anaya Multimedia MATHEW, Neil y STONES Richard. Principio de Bases de Datos con MySQL. Editorial Wrox. PETROUTSOS, Evangelos. Visual basic 6.0. Editorial Anaya Multimedia. UNITRONICS. Guia de usuario M90 micro OPLC operador panel y programable logic controller. TIMOTHY, Maloney. Electrónica Industrial Moderna. Editorial Prentice Hall.

Fundamentos en Sistemas SCADA. automatas.org/redes/scadas.htm

65

http://www.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.