Revista UCT - Volumen 13, Nº 52

Page 1

Revista de la Universidad Nacional Experimental Politécnica “Antonio José de Sucre” Puerto Ordaz, Venezuela - Depósito Legal pp 1997 02B081-ISSN 1316-4821

Volumen 13, Nº 52 - Septiembre 2009.

CONTROL DE PROCESOS Alfonso Alfonsi, Jesús Pérez, Sistema de control en tiempo real para una planta piloto usando software libre EFICIENCIA EMPRESARIAL Vicente Coll Serrano, Olga Blasco Blasco, Situación de la industria textil en España ante la liberalización del Sector: una visión desde el punto de vista de la eficiencia y del tamaño de las empresas ENSEÑANZA DE LA MATEMÁTICA Esther María Morales Urbina, Los conocimientos previos y su importancia para la comprensión del lenguaje matemático en la Educación Superior ERGONOMÍA Eliana del Valle Rodríguez, Crisdalith Cachutt, Eduardo E. Vargas, Emilio Aravena, Demanda biomecánica en el ensamblaje de un vehículo compacto SIMULACIÓN Herman Fernández, Abelardo Martínez, Víctor Guzmán, María Isabel Giménez, Simulación mediante PSPICE de un modelo simplificado y de alta eficiencia de una batería de plomo - ácido

NOTAS TÉCNICAS - Calendario de eventos - Ferias, salones y exposiciones


Vol. 13, Nº 52, septiembre 2009 Revista trimestral editada por la Universidad Nacional Experimental Politécnica “Antonio José de Sucre”, UNEXPO, Vicerrectorado Puerto Ordaz. INDIZADA EN: • Actualidad Iberoamericana • Aluminium Industry Abstracts • Corrosión Abstracts • CSA Engineering Research Database • CSA Materials Research Database with METADEX • CSA Recent References Related to Technology • CSA Technology Research Database • Environment Abstracts • LATINDEX • Mechanical & Transportation Engineering Abstracts • METADEX • REVENCYT • Colección SciELO Venezuela (www.scielo.org.ve) REGISTRADA EN: • Ulrich’s Internacional Periodicals Directory

Directora Dra. Minerva Arzola Editor Dr. Federico Genolet Comité Editorial (en orden Alfabético) Lic. María Isabel Blanco Dra. Elena de Cárdenas Dr. Rudy Castillo Dr. Ángel Custodio Dr. Ángel Duarte Dr. Héctor Fernández Ing. María Ferrer Dr. Federico Genolet Dr. Rafael Guevara Lic. Huáscar Guilarte Lic. Carolina Sánchez MSc. Sady Zurita Rávago • Autoridades Nacionales de UNEXPO Lic. Rita Añez, Rectora Prof. Fraisa Codecido, Vice-Rectora Académica Dra. Mazra Morales, Vice-Rector Administrativa Prof. Magly de Peraza, Secretaria

Nuestra Portada: Jacinto Convit, Nacido en Caracas el 11 de Septiembre de 1913, doctor en Ciencias Medicas en la Universidad Central de Venezuela en 1938 ha contribuido al conocimiento y tratamiento de enfermedades infecciosas tales como la lepra y leshmaniasis.

• Vice – Rectorado Puerto Ordaz Dr. Ovidio León Lara, Vice-Rector Dr. Carlos Pietri, Director Académico Ing. Miguel Leyton, Director Administrativo Dra. Minerva Arzola, Dir. Investigación y Postgrado

• Colaboradores

Fuente: http://jacintoconvit.blogspot.com/

Secciones Calendarios de Eventos y Ferias, Salones y Exposiciones: Dr. Ángel Duarte

Publicación Financiada por: • FONACIT • FUNDACITE Bolívar • UNEXPO, Vicerectorado Puerto Ordaz Año 2009

DIRECTORIO DE LA REVISTA UNIVERSIDAD, CIENCIA Y TECNOLOGÍA

Traducciones: Sr. Héctor Núñez Msc. Martha Chópite.

Precio de venta (Bs.) Suscripción Ejemplar Anual

Personas naturales Profesores UNEXPO Puerto Ordaz Región Guayana Resto del País

BsF. 5,00 BsF. 5,50 BsF. 6,00

20,00 22,0 24,00

Instituciones Externas

BsF. 7,50

30,00

Exterior

US$ 15

US$ 60

• Administración y transcripciones T.S.U Zorelys Romero

Concepto y Diseño Gráfico: Lic. Jesús Pérez Quijada Composición: Aureal Ars, C.A. Impresión: Imprenta Universitaria UNEXPO Puerto Ordaz

Los artículos, opiniones y colaboraciones que se publican en esta revista no representan necesariamente la filosofía informativa ni institucional de la UNEXPO y podrán ser reproducidos previa autorización del Editor. En caso de reproducción se agradece citar la fuente y enviar ejemplares del medio utilizado a la UNEXPO, a la siguiente dirección: Dirección de Investigación y Postgrado, UNEXPO, Vicerrectorado Puerto Ordaz, Alta Vista Sur, Urb. Villa Asia, Final de calle China, Apdo. Postal 78, Puerto Ordaz, Edo. Bolívar, Venezuela, Telf./fax (0286)962.52.45-961.13.82 zorelysromero874@hotmail.com, uripo.revista.uct@gmail.com



CENTROS DE INVESTIGACION ACTIVOS AÑO 200 9 UNEXPO PUERTO ORDAZ Nº

Centros

Coordinador

1

Difracción de Rayos X

Dr. Rafael Guevara guevarafael@gmail.com

2

Investigaciones Educativa

Prof. María Viloria mariaviloria60@cantv.net

3

De Idiomas

Prof. Noris Valdez norismargot@hotmail.com

4

De Investigación de Ambiente, Salud y Nuevas Tecnologías

Prof. Luisa Boet ltboet@gmail.com

5

Investigaciones Socio Histórico de la Región Guayana

Elizabeth Lezama

6

Transdisciplinario de Investigaciones

Lic. Luis García gluis38@hotmail.com

7

Redes Neuronales Artificiales y Robótica

Prof. Lácides Pinto lacidesrafael@yahoo.com

8

Investigaciones de Sistemas Eléctricos de potencia C.I.S.E.P.

Ing. Alexis Díaz adiaz@poz.unexpo.edu.ve

9

Investigaciones Electromagnéticas y Sistemas de Alta Tensión C.I.E.M.A.T.

Ing. Mazra Morales mazram@poz.unexpo.edu.ve

10

Automatización y Control CENAYC

Ing. Euclides Lyon ealyon@cantv.net

11

Interdisciplinario de Investigación Aplicada a la Ingeniería

Ing. Franklin Mendoza fmen@cantv.net

12

Mantenimiento Productivo Total

Ing. Dario Silva dmadriz@poz.unexpo.edu.ve

13

Ingeniería Biomédica C.I.B

Dr. Wilfredo Farinas wfarinas@poz.unexpo.edu.ve

14

Electrónica de Potencia y Accionamientos C.E.P.A.C.

Ing. Hermán Fernandez herman_fernand@cantv.net

15

Instrumentación y Control C.I.C.

Dr. Ángel Custodio cicunexpo@gmail.com

16

Investigación en Redes e Información C.I.R.I.

Prof. Alicia Ramos aramossanchez@gmail.com

17

Diseño Microelectrónico

Zulay Franco franco.zulayegilda@gmail.com

18

Diseño y Mecanizado CEDYMEC

Ing. Jesús Mendoza jesus_mendozaq@yahoo.com

19

Estudios Energéticos C.E.E.

Ing. Edgar Gutiérrez edgar010170@movistar.ve egutierrez@unexpo.edu.ve

20

Ingeniería de Fabricación C.I.F.

Dr. Angel Duarte

21

Microscopía Electrónica C.M.E.

Prof. Victor Maizo vmaizo@telcel.net.ve

22

Tecnología Mineral C.T.M.

23

Soldadura y Desarrollo de Materiales C.S.D.M.

Prof. Luz E. Salazar luzesthesalazar@gmail.com

24

Corrosión y Biomateriales CECOB

Dra. Linda Gil lindagil@cantv.net.

25

Materiales Cerámicos y Refractarios

Ricardo Higuerey higuereyricardo@yahoo.com

26

Procesos Siderúrgicos

Dr. Jesús López jesusrlopezh@cantv.net

27

Fundición

Prof. Aguedo Arteaga Earteaga2005@yahoo.es

28

Investigación y Desarrollo Industrial

Dr. Miguel Núñez mnunezb@cantv.net

29

Desarrollo Gerencial

Dra. Minerva Arzola marzola@poz.unexpo.edu.ve

30

CITADER

Andis Rodriguez randis@mail.com

angel_duarte2001@yahoo.es

Prof. Miguel Bastidas mbastidas@poz.unexpo.edu.ve


SISTEMA DE CONTROL EN TIEMPO REAL PARA UNA PLANTA PILOTO COMPACTA USANDO SOFTWARE LIBRE Alfonsi, Alfonso

Pérez, Jesús

Resumen: Un sistema de control en tiempo real se desarrolla en una planta piloto integrada por componentes industriales con fines académicos y de investigación, utilizando la metodología HOOD, Linux/Ubuntu como sistema operativo y Ada 2005 como soporte de ejecución. En el diseño lógico, hay nueve descomposiciones jerárquicas para el control individual y multivariable en lazo abierto y cerrado, de tres lazos: caudal, presión en la bomba y nivel en el tanque 2, con controladores deadbeat. En el diseño físico, se utiliza un planificador guiado por prioridades, y se aplica los análisis basados por utilización y en tiempo de respuesta, manifestando que las tareas tienen sus plazos garantizados, siendo esta condición necesaria y suficiente. Para el diseño detallado se generan paquetes, funciones, procedimientos y tareas. Finalmente en la fase de pruebas, se hacen experiencias en lazo abierto y cerrado. Las variables fueron validadas lógica y temporalmente. El sistema presenta un error en estado permanente y componente oscilatoria entre instantes de muestreo despreciables, existiendo los efectos del retardo computacional. Los códigos del sistema, son un aporte para el diseño de sistema de control en tiempo real asistido por computadora utilizando software libre. Palabras Clave: Sistemas de control discreto/ Sistemas de tiempo real/ Software libre.

REAL-TIME CONTROL SYSTEM FOR A COMPACT PILOT PLANT USING OPEN SOURCE SOFTWARE Abstract: A real-time control system is developed in a pilot plant integrated by industrial components with academic aims and of investigation. Using HOOD methodology, Linux/Ubuntu like operating system and like run supports Ada 2005. In the logical design, there are nine hierarchical decompositions for the individual control and multivariable in open and closed loop, of three loops: flow, pressure in the bomb and level in the tank 2, with deadbeat controllers. In the physical design, a scheduler is used guided by priorities, applying the based analyses for utilization and in response time, manifesting that the tasks have their guaranteed terms, being this necessary and enough condition. For the detailed design packages, features, procedures and tasks are generated. Finally in the phase of tests, experiences in open and closed loop become. The variables were validate logics and temporarily. The system presents an error in permanent state and oscillatory component among worthless sampling instants, the effects existing of the computational delay. The codes of the system are a contribution for the design of control system of real time computer-aided using open source software. Keywords: Discrete Control system/ Open Source Software/ Real Time System.

I. INTRODUCCIÓN Los sistemas de control por computadora son definidos de tiempo real por el hecho de realizarse con herramientas computacionales tradicionales, cualquier lenguaje de programación y/o por minimizar el tiempo de respuesta de un conjunto de procedimientos. Entonces es necesario utilizar las condicionantes en la implementación de este tipo de sistemas en los que el tiempo es fundamental.

En esta entrega se desarrolla un sistema capaz de manejar en tiempo real, lazos individuales y multivariable de una Planta Piloto Compacta (PPC) construida con componentes industriales [1], que sirve como contribución a la educación e investigación en el área de control e instrumentación, Fig. 1, usando metodologías y herramientas computacionales acordes con este tipo de sistemas y de libre distribución.

Manuscrito finalizado en Barcelona, Edo. Anzoátegui, Venezuela el 2009/02/16, recibido el 2009/03/23, en su forma final (aceptado) el 2009/05/27. El MSc. Alfonso S. Alfonsi es Profesor Asociado del Dpto. de Computación y Sistemas de la UDO, Núcleo de Anzoátegui, Barcelona, Edo. Anzoátegui, Venezuela, telef. 58-281-4203257, correo electrónico asas@cantv.net.ve. El Dr. Jesús A. Pérez es Profesor Titular del Instituto Universitario Tecnológico de la Victoria, Edo. Aragua y del Postgrado en Instrumentación de la Facultad de Ciencias de la Universidad Central de Venezuela, telef. 58-212-6051198, correo electrónico jesusperez@gmail.com.

Volumen 13, Nº 52, septiembre 2009. pp 189-198

189


Volumen 13, Nº 52, septiembre 2009. pp 189-198 En las aplicaciones en tiempo real se considera el soporte debido al sistema operativo, siendo la base el Ubuntu, basado en Debian [8]. Como soporte sobre la ejecución específica se escoge el Ada 2005, debido a que incluye en su definición librerías para tiempo real, y otros requisitos como concurrencia, manejo de excepciones, gestión de tiempo, acceso a interfaces, portabilidad, gestión de interrupciones (acceso a bajo nivel) y modelo de datos orientado a objetos y agentes [9]. Como compilador se usa, el GNAT GPL (acrónimo de GNU New York University Ada Translator) [10]. Figura 1.- Planta Piloto Compacta 1. Requisitos En la literatura se consiguen aportes en esta dirección. Balbastre [2] puntualiza la integración del tiempo real y el control industrial atacando la línea del análisis del retardo de un sistema de control. Torres [3] utiliza a HOOD para el diseño de una planta piloto de ensamblaje. Un trabajo interesante está en [4], que hace un acercamiento del control y tiempo real desde el punto de vista del codiseño. Seto [5] perfila uno de los primeros trabajos en esta área del conocimiento integrando la planificación de tareas a un sistema de control. En [6] se desarrolla un sistema de control en tiempo real que permite la simulación de los lazos involucrados en una planta piloto. El artículo está estructurado como sigue: En la sección siguiente, el desarrollo del sistema con HOOD y las herramientas computacionales utilizadas, los resultados para luego hacer la discusión de los mismos, culminando con las conclusiones y las respectivas referencias.

II. DESARROLLO Se siguen los pasos sugeridos en el método de diseño orientado a objetos estructurados para sistemas de tiempo real estricto HRT-HOOD [7], proceso iterativo centrado en la etapa de diseño (Fig. 2) de amplia utilización en esta área.

Se definen los funcionales y no funcionales, tomando como caso de estudio la PPC [1] manejada por una computadora Pentium III de 450 MHz. Tiene una aplicación en LabViewTM bajo WindowsTM, ubicada en el Laboratorio de Instrumentación de la Facultad de Ciencias de la Universidad Central de Venezuela. Consta de dos tanques (T1 y T2), dos bombas a la salida de cada uno de ellos (B1 y B2), varios equipos de medición y tres válvulas neumáticas para las acciones de control (FCV-01, PCV-03 y LCV-04). Todas las salidas de los medidores pasan por acondicionadores de señal y entran a la computadora, donde está el programa de aplicación con instrumentos virtuales que contempla: manejo manual de la planta, determinación de la respuesta al escalón y uso de instrumentos de medición.

1.1 Requisitos funcionales Se puede dividir en dos componentes: operación real e interacción con el operador. Todos los eventos deben ser almacenados en un archivo de datos y recuperados cuando así lo requiera el operador, para su posterior estudio, utilizando un computador Pentium IV de 1,2 GHz. Operación Real. Permitirá la operación en tiempo real de los diferentes lazos abiertos o cerrados (individual o multivariable) que conforman la planta: caudal en la tubería, presión en B1, nivel en T2. También se encuentra el control de seguridad de las bombas. Para operar físicamente el sistema se debe realizar programas puentes entre las dos computadoras, como instrumentos virtuales, funciones o procedimientos que permitan esta comunicación. Con respecto a los controladores se utilizan los pasos desarrollados en [11], quedando las funciones de transferencia: Caudal

(1) Figura 2.- Proceso de desarrollo iterativo

190


Alfonsi, A., Pérez, J. Sistema de control en tiempo real para una planta piloto compacta usando software libre

Presión B1: (2)

Nivel en T2: (3)

Con respecto al control de bombas, no deben salir de los límites de seguridad y se encuentran en los diferentes lazos de operación. Así será su operación: Para T1, se verifica que está abierta la válvula FCV-02 y PCV-03, entonces la Bomba B1 estará en funcionamiento. Para T2, se compara el nivel de T2 obtenido por LTI-04 con el nivel máximo y mínimo, si es verdadera la operación, y está abierta la válvula LCV-04, entonces la Bomba B2 estará en funcionamiento. Interacción con el Operador. Todo el sistema es monitoreado por un operador quien podrá manipular todos los elementos que conforman la PPC en tiempo real. La relación entre el sistema y los dispositivos externos se muestra en la Fig. 3.

Figura 3.- Relación entre el sistema y los dispositivos externos

1.2 Requisitos no funcionales Para estos requisitos se toman los temporales, períodos y tiempo de cómputo, dejando para otra entrega la confiabilidad. La operación sobre dispositivos es realizada por manejadores implementados como tareas, definidas siguiendo el patrón presentado en [12], Tabla I. Tabla I. Tipos y definición de tareas

Nomenclatura de los subíndices: T: identificación de la tarea, C: tiempo de cómputo, P: período, D: plazo de finalización, PR: prioridad, i: número de la tarea, l: lectura, s: sistema, c: control, e: escritura, m: monitorización.

2. Arquitectura del Sistema El diseño de la arquitectura se define en dos fases, la primera el diseño de la arquitectura lógica [7] que se avoca a la definición de compromisos con los requisitos funcionales, y la segunda, la arquitectura física donde se incorporan los requisitos temporales y la planificación.

2.1 Arquitectura lógica Descomposición de primer nivel. Los requisitos funcionales sugieren nueve (9) subsistemas, según se muestra en la Fig. 4.

191


Volumen 13, Nº 52, septiembre 2009. pp 189-198

Subsistema Consola. Responsable de la interfaz con el operador, al invocar Opreal. Llama a las operaciones: RL_Abierto de rlazo_abierto y RL_Cerrado de rlazo_cerrado. Subsistema r_lazo_abierto y r_lazo_cerrado. Aquí se encuentran las tareas periódicas necesarias para operar físicamente los diferentes lazos de la PPC, y están los controladores discretos de los tres lazos planteados. Otros Subsistemas. El subsistema control_bombas es el responsable del procedimiento de seguridad para el funcionamiento de las bombas B1 y B2. El Subsistema apertura_val es el responsable de establecer los porcentajes de apertura en las diferentes válvulas de control; tiene tres operaciones: Xcaudal, XPresion y XNivel. El Subsistema setpoint es el responsable para

establecer los puntos de operación de la PPC en lazo cerrado, tiene tres operaciones: REFECaudal, REFEPresion y REFENivel. El Subsistema vars es el responsable de alojar las variables que se utilizan en el sistema, debe ser protegido y tiene veinte (20) operaciones. El Subsistema medidas es el responsable de las lecturas a los diferentes dispositivos instalados en la PPC, aquí se desarrolla los manejadores de los puertos de comunicación. El Subsistema actuador es el responsable de enviar la señal de las aperturas de las válvulas de control (LVC-04, PVC-03, FVC-02) y de accionar el encendido apagado de las bombas. Aquí se desarrollan los manejadores del puerto de comunicación. Tiene siete operaciones agrupadas en la configuración del puerto de entrada (abrir o cerrar) y la transmisión de la magnitud de la señal de control tanto individual como multivariable.

Figura 4.- Descomposición jerárquica de primer nivel

192


Alfonsi, A., Pérez, J. Sistema de control en tiempo real para una planta piloto compacta usando software libre

2.2 Arquitectura Física

3. Diseño Detallado

La operación del sistema es realizada por paquetes y tareas definidas en la Tabla I, siendo sus requisitos temporales: tiempos de cómputo y períodos.

En esta fase se codifican los paquetes, funciones y procedimientos para la operación de la PPC en lazo abierto o lazo cerrado, para así cumplir con los objetivos planteados, siguiendo las descomposiciones jerárquicas de la arquitectura. Se presentaran a continuación los paquetes necesarios en lazo cerrado. Todos los códigos del sistema se encuentran en [12].

Tiempos de cómputo y períodos. Los tiempos de cómputo se obtienen analizando el código ejecutable. El código se descompone en bloques secuenciales, calculando el tiempo de ejecución de cada uno de ellos, y tomando el mayor, usando las funciones del paquete Calendar y Real_Time, librerías básicas de Ada de tiempo real, específicamente el procedimiento Split y la función To_Duration [9]. En cuanto a los períodos, se resolvió guiar sus magnitudes por el período de muestreo y sincronización de los computadores asociados al proyecto; hay transmisión de datos desde los sensores de la PPC hasta que ingresan en los arreglos respectivos en el computador donde se hospeda el sistema. Prioridades. Ada permite la programación prioridades y se declara con la directriz de compilación pragma [9]. Implementación de las tareas. La planificación se realiza usando un planificador guiado por prioridades, dándole más prioridad a las tareas de lectura. Para la comunican de las variables entre las tareas se implementa el método de variables compartidas, que permite un mecanismo de exclusión mutua en secciones críticas con objetos protegidos. Análisis de planificabilidad del sistema. Primero se utiliza la condición suficiente de planificabilidad de un sistema en tiempo real con las restricciones monotónicas de frecuencia, es decir, planificador expulsivo con asignación de mayor prioridad a las tareas más frecuentes, tareas periódicas e independientes y plazos iguales a los períodos [13]. U(n) representa la utilización máxima para que la planificabilidad de un sistema de n tareas esté garantizada.

(4)

Luego se aplica la ecuación del tiempo de respuesta [13], siendo la suma del tiempo de cómputo más la interferencia que sufre por la ejecución de tareas más prioritarias que se puedan ejecutar o activar al mismo tiempo, que se resuelve mediante la siguiente relación de recurrencia:

(5)

El paquete Con_Sim ofrece un ingreso a la operación real con la PPC, por el procedimiento Opreal. El paquete R_lazo_cerrado tiene la función de ofrecer tareas que ejecuten los diferentes lazos cerrados (individuales o multivariables), su acceso es por la tarea OP_PRIN_C, dando entrada por RL_Cerrado. A continuación se muestra un trozo de la especificación de lazo_cerrado.ads, referente al caudal. package r_lazo_cerrado is task OP_PRIN_C is entry RL_Cerrado; -- Entrada a lazo cerrado end OP_PRIN_C; … task C_CAUDAL is pragma Priority (system.Priority'_last); entry C_Flujo; end C_CAUDAL; task REAL_RQ is pragma Priority (system.Priority'_last-1); entry Caudal_rr; end REAL_RQ; task CTRLR_CAUDAL is pragma Priority (system.Priority'_last-2); entry CR_Caudal; end CTRLR_CAUDAL; … end r_lazo_cerrado; La tarea CTRLR_CAUDAL es donde se implementa el controlador digital, su código puede ser modificado para adaptarlo a otro algoritmo de control, sin necesidad de cambiar todo el sistema. A continuación se presenta el cuerpo de esta tarea: task body CTRLR_CAUDAL is Qct, SPQC, e1Q, e0Q, S1Q, S0Q: Float:= 0.0; Proxima_Vez: Time; begin accept CR_Caudal; -- Entrada de la tarea Fin:= Var.RSALIR; while (Fin=false) loop Var.LeerCaudal (Qct);-- Leer caudal de la PPC SPQC:=Var.retor_RQ; -- Leer el setpoint indicado e1Q:= SPQC - Qct; -- Magnitud del error -- Controlador lazo de caudal --

193


Volumen 13, Nº 52, septiembre 2009. pp 189-198 S1Q:= S0Q + 263.1578*e1Q - 261.10526*e0Q; S0Q:= S1Q; e0Q:= e1Q; Var.Apertura_Q (S1Q); -- Nueva apertura FCV-02 Visor.Escribe_Dato (S1Q);new_line; Proxima_Vez:=Clock + Intervalo; -- Próximo período delay until Proxima_Vez; -- Esperar Fin:= Var.RSALIR; end loop; end CTRLR_CAUDAL;

Otros paquetes del sistema. Se desarrollan paquetes siguiendo la descomposición jerárquica de primer nivel presentado en la Fig 4.

4. Resultados De los requisitos no funcionales, los períodos y cálculos temporales se presentan en la Tabla II. Como ejemplo de cálculo, un bloque de 8 códigos arroja un tiempo de cómputo aproximado de 0,168 ms.

El paquete VARS implementa la comunicación de variables mencionada anteriormente. A continuación se muestra un trozo de la especificación del paquete.

Aplicando el análisis basado en la utilización con 12 tareas, el cálculo usando (4) es:

package VARS is protected type VARIABLES is procedure PonerCaudal (valor: in float); procedure LeerCaudal (valor: out float); … private Qs,PB1s,NT2s:float; … end VARIABLES; end VARS;

En la Fig. 5 se muestra el diagrama temporal de ejecución, y en la Tabla III se presenta el cálculo del tiempo respuesta, usando (5).

Figura 5.- Diagrama de planificación de las tareas del sistema

194


Alfonsi, A., Pérez, J. Sistema de control en tiempo real para una planta piloto compacta usando software libre

Tabla II.- Períodos y plazos de finalización para las tareas

Tabla III.- Cálculo del tiempo de respuesta (w)

Fase de Pruebas Se ejecutaron diferentes experiencias en la obtención de las señales de salida del caudal, presión en la bomba 1 y nivel en el tanque 2 de la PPC, realizando pruebas de funcionamiento controlados a cada lazo, tanto abierto como cerrado. Prueba de Lazo Abierto. El procedimiento es el siguiente: Ejecutar la aplicación del computador bajo Linux. Invocando a main desde el Terminal y el sistema guía al operador. Se ingresa la apertura de la válvula FCV-02, en este caso 40%. Luego enciende la bomba y el sistema entra en ejecución. En la Fig. 6 se muestra la salida del sistema. También se realizan pruebas del lazo de presión y nivel. Prueba de Lazo Cerrado. El procedimiento es similar al anterior, sólo que pide ingresar la referencia de caudal, en este caso 19,41 LPM. Luego enciende la bomba y el sistema entra en ejecución. Se presenta la salida de la respuesta de este lazo y la entregada por simulación de [6], Fig. 7. La respuesta del lazo de presión y nivel se muestra en las Figuras 8 y 9.

195


Volumen 13, N潞 52, septiembre 2009. pp 189-198

Figura 6. Salida del sistema Lazo Abierto del Caudal

Figura 7. Respuesta lazo cerrado del Caudal

196

Figura 8. Respuesta lazo cerrado Presi贸n


Alfonsi, A., Pérez, J. Sistema de control en tiempo real para una planta piloto compacta usando software libre

De las Figuras 7, 8 y 9 se desprende que el comportamiento en lazo cerrado es el esperado, observándose que las salidas presentan un error debido a la comunicación del dato, y el error en estado permanente y el componente oscilatorio es despreciable, alcanzando las referencias aportadas por el operador.

Figura 9. Respuesta lazo cerrado Nivel 5. Discusión de resultados Del análisis por utilización, se extrae que el sistema no es planificable. Ello no significa que si el sistema tiene una mayor utilización no pueda ser planificable, sino que es suficiente comprobar la inecuación (4) para asegurar que el sistema es planificable bajo rate monotonic. En la Fig. 5 se demuestra que las tareas cumplen sus plazos, debido a la armonicidad de sus períodos, y los resultados de la Tabla III lo confirman, ya que este tiempo es la suma del tiempo de cómputo más la interferencia que sufre por la ejecución de tareas más prioritarias que se puedan activar al ejecutar o activar al mismo tiempo, siendo ésta una condición suficiente y necesaria. Del diseño detallado, se recoge que se realizaron nueve paquetes activos en Ada, y se ejecutaron según la planificación basada en prioridades. Las tareas utilizan un recurso compartido para almacenar las variables del proceso, usando paquetes protegidos y privados evitando el bloqueo. Las experiencias realizadas arrojan lo siguiente: el manejo en lazo abierto del caudal, con una apertura de FCV-02 de 40% llega a 19,41 LPM, Fig. 6. También se realizaron pruebas con la presión, abriendo la PCV-03 en 40% y la FCV-02 en 0%, alcanzando 27.68 psi; el nivel por su parte, con una apertura de LVC-04 de 40% y FCV-02 en 0%, el sistema monitores una disminución pasando por 20 cm en el tiempo previsto para ello. Es decir, el sistema maneja lógica y temporalmente la PPC.

En la literatura hay propuestas y aplicaciones que utilizan metodologías y herramientas propias en el desarrollo de sistemas en tiempo real, la gran mayoría en forma parcial como el ofrecido en [2] en el que se utiliza a HOOD sólo en el diseño de la arquitectura, y otras en las que se apoya la utilización total, como en [16] que usan herramientas para el desarrollo de sistemas de control de libre distribución, como COMEDI, Scilab y el sistema operativo de tiempo real RTAI. El aporte del presente trabajo utiliza a HOOD en todas sus etapas de diseño, confeccionando luego los subsistemas en Ada 2005, lenguaje con directrices de tiempo real, bajo el sistema operativo Linux/Ubuntu, herramientas de libre distribución. Como próxima entrega se utilizará un núcleo de sistema operativo en tiempo real, ya sea RTAI o MaRTE, con el propósito de cubrir completamente los requerimientos temporales del sistema y el análisis de confiabilidad.

III. CONCLUSIONES 1. Se entregan nueve descomposiciones jerárquicas que se transformaron en código para desarrollar los procedimientos, funciones y tareas del sistema. 2. Se aplicó el análisis basado por el factor de utilización y el tiempo de respuesta, dando como resultado que las tareas cumplen con sus plazos de finalización, siendo ésta una condición necesaria y suficiente para validar la planificabilidad. 3. Finalmente en la fase de pruebas, se desarrollan las experiencias en lazo abierto y cerrado, desde el punto de vista lógico y temporal, arrojando resultados favorables debido a la garantía que ofrece los períodos de activación y tiempo de respuesta de cada tarea. 4. Entonces se dispone de un programa en tiempo real, con códigos generados en Ada 2005, que puede ser utilizado como plantilla para generar otras situaciones, siendo éste

197


Volumen 13, Nº 52, septiembre 2009. pp 189-198 un aporte en el diseño de sistemas de control en tiempo real utilizando software libre.

IV. REFERENCIAS 1. García, A. Desarrollo y construcción de una Planta Piloto manejada por computadora. Trabajo Especial de Grado Maestría. Caracas, Facultad de Ciencias, UCV, octubre de 2004. 181p. 2. Balbastre, P., Lluesma, M. y Ripio, I. Análisis y compensación de los retardos de planificación en sistemas de control. Rev. Iberoamericana de Automática e Informática Industrial, vol. 3, Nº 2, abril 2006, pp. 40-49. 3. Torres, D. y Romero, C. Diseño de una planta piloto de ensamblaje automotriz a partir de un estilo de diseño topdown. Rev. Colombiana de Tecnologías de Avanzada. [online]. 2003, vol. 1, [citado el 12 de diciembre de 2008]. Disponible en: http://www.waset.org/pwaste/v21/v21-10.pdf 4. Martínez, D. et al. Codiseño de un sistema de control en una red para regular la velocidad de un motor DC. El hombre y la máquina. [online]. julio 2005, Nº 25, [citado el 17 de abril 2008], pp. 44-50. Disponible en: http://redalyc.uaemex.mx/redalyc/pdf/478/47802505.pdf 5. Seto D. et al. On Task schedulability in real-time control systems. In: Proceedings 17th IEEE Real-Time Systems Symphosium, Washington, 1996, pp. 13-21. 6. Alfonsi, A. y Pérez, J. Modelo y control de tiempo real. Caso: Planta Piloto Compacta-UCV. In: CD Memorias del XIII Congreso Latinoamericano de Control Automático/VI Congreso Venezolano de Automatización y Control. Mérida, Venezuela. noviembre 2008, pp. 298-304.

198

7. Burns, A. and Wellings, A. HRT-HOOD. A Structured Design Method for Real-Time Systems. Journal RealTime Systems, Vol 6, Nº 1, 1994, pp. 73-114. 8. Ubuntu. “Ubuntu Feisty Fawn ver. 7.04”. Oficial Page of Ubuntu. April 2007. Available in: http://www.ubuntu.com 9. ISO/IEC. Ada Reference Manual. ISO/IEC 8652:200y(E).Ed 3, 2006. Available in: http://www.adaic.com/standards/05rm/html/ RM-TTL.html 10. GNAT GPL. GNAT GPL user’s guide. AdaCore. Free Software Foundation, ver. 2007. (30/03/07), (2007). Available in: http://www.adaic.com/standards/05rm/ html/RM-TTL.html 11. Alfonsi, A. y Pérez, J. Modelo y control asistido por computadora de un sistema industrial. Caso: Planta Piloto Compacta-UCV”. Revista UCT, Vol 13, Nº 50, marzo 2009, 43-50. 12. Alfonsi, A. y Pérez, J. Control de tiempo real aplicado a la Planta Piloto Compacta-UCV. Trabajo de Grado de Maestría. Caracas, Facultad de Ciencias, UCV, mayo 2008, pp. 304. 13. Buttazzo, G. Rate Monotonic vs. EDF: Judgment day. Real-Time Systems, Vol. 6, Nº 29, 2005, pp. 526. 14. Flores, J., Díaz, E. y Cabezas, Y. Simulación y control en cascada de una planta POMTM en tiempo real con RTAILAB. In: CD Memorias del XIII Congreso Latinoamericano de Control Automático/VI Congreso Venezolano de Automatización y Control. Mérida, Venezuela. noviembre 2008, pp. 852-859.


SITUACIÓN DE LA INDUSTRIA TEXTIL EN ESPAÑA ANTE LA LIBERALIZACIÓN DEL SECTOR: UNA VISIÓN DESDE EL PUNTO DE VISTA DE LA EFICIENCIA Y EL TAMAÑO DE LAS EMPRESAS. Coll Serrano, Vicente

Blasco Blasco, Olga

Resumen: Actualmente, la industria textil en España atraviesa por una profunda crisis. Un gran número de empresas han cesado su actividad y el número de empleos que diariamente se pierden en la industria es elevado. Las empresas textiles españolas deben hacer frente a una competencia cada vez más intensa y agresiva, basada fundamentalmente en una estrategia de bajo coste. En la última década del siglo XX, la evaluación de la eficiencia ha adquirido un gran interés en el ámbito empresarial, especialmente en entornos altamente competitivos. En este trabajo se evalúa la eficiencia productiva del textil español mediante el Análisis Envolvente de Datos (DEA) y se investiga la existencia de diferencias en función del tamaño organizativo. El propósito del trabajo es establecer la capacidad de la industria textil española, en términos de eficiencia técnica, para hacer frente al incremento de la competencia proveniente de países como China, India, Pakistán, Vietnam, etc. Con tal finalidad, para evaluar la eficiencia productiva se ha contado con información contable correspondiente al cierre del ejercicio económico 2003 para un total de 1296 empresas. La utilización eficiente de los recursos productivos representa una estrategia que permite a la empresa mejorar su rentabilidad, sin embargo los resultados obtenidos indican que, en general, los niveles de eficiencia alcanzada por las empresas textiles españolas son bajos, siendo necesario promover importantes mejoras en la industria. Palabras clave: Industria textil/ Competitividad/ Eficiencia productiva/ Análisis Envolvente de Datos/ DEA/ Información contable.

THE SPANISH TEXTILE INDUSTRY BEFORE THE SECTOR’S LIBERALIZATION. AN ANALYSIS BASED ON THE TECHNICAL EFFICIENCY AND THE SIZE OF THE FIRMS. Abstract: The Spanish textile industry is in crisis as a result of increasing competition. The productive efficiency of the firms is established by the direct determinant of their level of competitiveness (Roca and Sala, 2005). Using accounting information, Data Envelopment Analysis (DEA) is employed to assess the productive efficiency of small and mid-size Spanish textile firms. Therefore, bearing in mind the size of the firm, the principal aim of the analysis conducted consists in evaluating the position of the Spanish textile industry, in terms of efficiency, in order to deal with increasingly more intense and aggressive competition from such countries as China, India, Pakistan and Vietnam, largely as a result of low prices. Of the seven textile sub-sectors established by CNAE-93, the results obtained indicate that efficiency levels are low, making it necessary to promote significant improvements in consumption product factors. Keywords: Textile Industry/ Competitiveness/ Productive Efficiency/ Data Envelopment Analysis/ DEA/ Accounting Information.

1. INTRODUCCION. La industria textil representa una agrupación industrial con un peso relativamente importante en la manufactura española. Según información del INE (Instituto Nacional de Estadística), en el año 2003 la industria “Textil, confección, cuero y calzado” ocupaba el noveno puesto en

cuanto a generación de riqueza, representando el 5,61% del total del valor añadido de la manufactura. Pero en lo referente a ocupación se situaba en tercera posición al suponer el 10,22% del total del empleo industrial, sólo superada por “Metalurgia y fabricación de productos metálicos” (15,19%) y “Alimentación, bebida y tabaco” (14,06%).

Manuscrito finalizado en Valencia , España el 2008/07/01, recibido el 2008/08/07, en su forma final (aceptado) el 2009/07/16. El Dr. Vicente Coll Serrano es Profesor del Área de Métodos Cuantitativos para la Economía y la Empresa, Dpto. de Economía Aplicada, Facultad de Economía, Universidad de Valencia, Avda. Tarongers s/n Edificio Departamental Oriental 46021 Valencia, España, telef 34-963828640, fax 34-963828415, correo electrónico vicente.coll@uv.es. La Dra. Olga Blasco Blasco es también Profesora en la misma Área de la misma Universidad, mismos telef. y fax, correo electrónico olga.blasco@uv.es.

Volumen 13, Nº 52, septiembre 2009. pp 199-210

199


Volumen 13, Nº 52, septiembre 2009. pp 199-210 Actualmente la industria textil española está atravesando una profunda crisis. A este respecto, hay que tener en cuenta que a finales del año 1995 se decidió la abolición del sistema de cuotas a la importación de productos textiles y el 1 de enero de 2005 finalizó el denominado Acuerdo Multifibras, que protegía al sector textil de los países industrializados de la competencia asiática. Para ilustrar el efecto de estos acontecimientos pueden considerarse algunos datos recientes. Según Euratex, la patronal del textil europeo, cada día se pierden 1.000 empleos y 50 empresas en la Unión Europea (UE), con una proyección de un millón de puestos de trabajo volatilizados hasta finales de 2006, ante la avalancha de productos textiles llegados de China. Para Filiep Libeert, presidente de Euratex, sólo en 2004 el sector perdió 165.000 empleos y 11.500 empresas en la UE. En España, puede decirse que para la mayor parte de las empresas textiles la verdadera crisis comenzó en 2004; este año desaparecieron 800 empresas y 35.000 empleos; el 2005 se saldó con el cierre de casi el 10% de las 7.000 empresas textiles y otros 19.000 empleos. En entornos altamente competitivos la evaluación de la eficiencia ha adquirido en los últimos años un gran interés en el ámbito empresarial. La utilización eficiente de los recursos productivos representa una estrategia que permite a la empresa mejorar su rentabilidad [1]. Así, el principal objetivo de este trabajo consiste en evaluar la capacidad de la industria textil española, en cuanto a la eficiencia productiva se refiere, para hacer frente a la cada vez más intensa y agresiva competencia -fundamentalmente basada en el bajo coste- de países como China, India, Pakistán, Vietnam, etc. El nivel de eficiencia productiva de las empresas se erige en un determinante directo de su nivel de competitividad [2], en un elemento de especial importancia para el análisis del posicionamiento competitivo de las empresas así como un determinante esencial de sus estrategias [3]. Ahora bien, hay que tener presente que la eficiencia no agota el conjunto de estrategias para ser competitivos ([4] y [5]). El trabajo se estructura como sigue. En el apartado 1 se hace referencia al concepto de eficiencia y tamaño organizativo. Los apartados 2 y 3 se dedican, respectivamente, a la exposición de la metodología y a las variables utilizadas para definir la eficiencia productiva. La discusión de los principales resultados obtenidos es el objeto del apartado 4. El trabajo finaliza con un apartado dedicado a conclusiones.

II. DESARROLLO 1. Eficiencia y tamaño emprearial. El objetivo principal de este trabajo consiste en evaluar la capacidad de la PYME (pequeña y mediana empresa) textil española, en términos de eficiencia productiva, para hacer

200

frente a la cada vez más intensa y agresiva competencia a la que se encuentra sometida así como en contrastar, en los distintos subsectores de actividad, la influencia que tiene el tamaño empresarial sobre la eficiencia técnica. Varias son las razones que han llevado a considerar como unidad de análisis la PYME, entre las que cabe destacar: a) Suponen prácticamente el 98% del total de las empresas de la industria textil. b) Son las que en mayor medida sufren los efectos de la crisis por la que atraviesa el sector dada su limitada capacidad de reacción. Una de las variables organizativas que influye en la reacción ante la crisis es la cantidad de recursos no comprometidos que la empresa pueda tener en el período de declive [6] y es evidente que esta capacidad corresponde a las empresas de mayor tamaño. Como aspecto a favor de la PYME, la flexibilidad. c) El número de grandes empresas especializadas disponible en cada grupo textil resultaba insuficiente para poder aplicar DEA. Se define la eficiencia técnica o productiva como la capacidad que tiene una empresa para obtener el máximo output a partir de un conjunto dado de inputs, y se obtiene al comparar el valor observado de cada empresa con el valor óptimo que viene definido por la frontera de producción estimada (isocuanta eficiente). Para cuantificar la eficiencia productiva de la industria textil se aplica, como se describe en el siguiente apartado, el análisis envolvente de datos (DEA, acrónimo de Data Envelopment Analysis), considerándose en la evaluación cada uno de los 7 subsectores en que la clasificación de actividades económicas CNAE-93 subdivide la industria. En el trabajo también se profundiza en la relación entre eficiencia productiva y tamaño de la empresa. Algunos autores detectan un vínculo positivo entre estas dos dimensiones ([7], [8], [9]), otras investigaciones defiende una relación negativa ([10], [11]) y, finalmente, determinados trabajos no encuentran ninguna relación significativa ([12], [13], [14]). La relación entre tamaño y otras características de la organización (en este caso, eficiencia productiva) está influida tanto por la forma de conceptuar como de medir el tamaño [15]. Por tanto, la manera de definir y medir el tamaño organizativo es una cuestión básica, porque los resultados de las investigaciones pueden variar en función de la conceptuación y medición de la variable [16]. De acuerdo con la Recomendación de la Comisión Europea, de 6 de mayo de 2003, sobre la definición de microempresas y pequeñas y medianas empresas (en vigor desde el 1 de enero de 2005), las medianas empresas tienen entre 50 y 249 trabajadores y, o bien un volumen de negocios de hasta 50 millones de euros o bien un balance general de hasta 43 millones de euros; las pequeñas empresas tienen entre 10 y 49 trabajadores y, o bien un volumen de negocioso o un balance general de hasta 10 millones de euros; y las microempresas tienen menos de 10 trabajadores y un límite de 2 millones de euros de volumen de negocios o balance general.


Coll, V., Blasco, O. Situación de la industria textil en España ante la liberalización del sector

No obstante, en esta aplicación se considerará como medida del tamaño de la empresa únicamente el número de trabajadores, que por otra parte es la medida más empleada en la literatura. Así pues, una empresa se considerará de tamaño micro si tiene menos de 10 empleados, de tamaño pequeño si tiene entre 10 y 49 empleados y de tamaño mediano si tiene entre 50 y 250 empleados.

empresa evaluada será eficiente en relación con las otras, puesto que no será posible encontrar ninguna empresa o combinación lineal de empresas que obtenga al menos el output de la empresa en cuestión utilizando menos factores. En caso contrario la empresa es ineficiente, pues será posible obtener, a partir de los valores , una combinación de empresas que funcione mejor que aquella objeto de evaluación.

2. Método

El modelo DEA-CCR es formulado suponiendo que la tecnología satisface, entre otras, la propiedad de rendimientos constantes a escala, obteniéndose una medida de eficiencia técnica global (ETG). [23] relajan este supuesto al permitir que la tecnología presente rendimientos variables a escala al introducir la restricción de convexidad , eliminando de esta forma la influencia de la escala de producción. La medida de eficiencia así obtenida es una medida de eficiencia técnica pura (ETP). Se trata de medidas de eficiencia técnica netas de cualquier efecto escala. La forma envolvente del modelo DEA-BCC input orientado puede escribirse de la siguiente forma:

DEA es una técnica de programación matemática que permite la construcción de una superficie envolvente, frontera eficiente o función de producción empírica, a partir de los datos observados para el conjunto de Unidades objeto de estudio -empresas textiles-. Aquellas empresas que determinan la envolvente son calificadas como eficientes y las que no permanecen sobre la misma son consideradas ineficientes. DEA permite la evaluación de la eficiencia relativa de cada una de las empresas (para más detalles puede consultarse [17]). Entre las principales ventajas de la metodología DEA cabe destacar su capacidad de manejar situaciones de múltiples inputs y outputs ([18], [19]) expresados en distintas unidades de medida [20]. Además, se trata de una técnica noparamétrica y, por tanto, no supone ninguna forma funcional que relacione inputs y outputs, ni supone una distribución de la ineficiencia [21]. El modelo DEA-CCR [22] input orientado busca, dado el nivel de outputs, la máxima reducción proporcional en el vector de inputs mientras permanece en la frontera de posibilidades de producción. Una Unidad no es eficiente si es posible disminuir cualquier input sin alterar sus outputs. Este modelo, que permite evaluar la eficiencia relativa de cada una de las n empresas consideradas a partir de s outputs y m inputs observados, puede expresarse en su forma envolvente como:

(DEA-CCR)

(DEA-BCC)

La empresa evaluada será calificada como eficiente (ETP), según la definición de Pareto-Koopmans, si y solo si en la solución óptima: a) = 1 y b) las variables de holguras son todas nulas, es decir, s+* = 0 y s-* = 0.

3. Variables y datos. En este apartado se centra la atención en la selección de las variables input y output a las que se recurre en este estudio para definir y evaluar la eficiencia productiva de una determinada empresa textil; y se hace una breve referencia al procedimiento seguido hasta obtener el número de empresas textiles que finalmente fueron analizadas.

3.1 Selección de las variables. donde Y es una matriz de outputs de orden (s×n); y0 representa el vector output de la empresa que está siendo evaluada; X es una matriz de inputs de orden (m×n); x0 representa el vector inputs de la empresa considerada, es el vector (n×1) de pesos o intensidades, y denota la puntuación de eficiencia (técnica) de la empresa evaluada. Si la solución óptima del problema anterior resulta ser =1 y todas las holguras output ( sr+* ) e input ( sr-* ) son cero, entonces la

La selección de las variables input/output es una cuestión de vital importancia a la hora de evaluar la eficiencia de un conjunto de empresas mediante DEA; por tanto, decidir qué input/s y output/s son considerados en el análisis no es, nunca debe serlo, un tema baladí [24]. En esta aplicación se recurre a información contable contenida

201


Volumen 13, Nº 52, septiembre 2009. pp 199-210 en la cuenta de pérdidas y ganancias y balance de situación para evaluar la eficiencia técnica de las PYMES textiles españolas. En la literatura puede encontrarse una gran disparidad de variables, [25] proporciona un completo resumen de las variables contables más usadas en el análisis de eficiencia frontera. Respecto a lo que podría considerarse como antecedentes más directos de la presente investigación, [26] usan DEA para evaluar 29 empresas textiles canadienses a partir de datos reales relativos al valor de las ventas (output) y número de empleados e inversión media anual de los últimos 10 años (inputs); y [24], que realiza una comparación en términos de eficiencia y productividad de la industria textil europea en el periodo 1996-1998, recurre al beneficio de explotación como proxy del resultado del proceso de transformación y venta que tiene lugar en la empresa, que emplea como principales factores productivos (inputs) el factor capital (activo tangible y otro activo fijo) y trabajo (número de empleados). En esta aplicación se ha optado por seleccionar, siguiendo la propuesta de [5], un total de tres inputs: activo total, número de empleados y coste de materiales; y un único output, el valor añadido. A continuación se define cada una de estas variables: Activo total: Engloba todos los elementos (bienes y derechos evaluables económicamente) que influyen positivamente en la situación patrimonial de la empresa. Activo fijo: Conjunto de elementos patrimoniales cuya permanencia es, en principio, superior al de un ejercicio contable, es decir que están adscritos al ciclo de estructura de la empresa. Incluye las inmovilizaciones inmateriales, materiales y financieras, así como los deudores por operaciones de tráfico a largo plazo. Activo circulante: Conjunto de valores en los que la empresa ha invertido fondos por exigencias de la actividad que ha de desarrollar, pero que carecen de carácter de permanencia. Incluye existencias, deudores, otros activos líquidos y tesorería. Número de empleados: Se refiere al conjunto de personas, fijas o eventuales, que en el año de referencia (2003) se encuentran trabajando en la empresa. Coste de materiales (Coste de mercaderías y materias primas): Este concepto recoge las compras netas (es decir, una vez descontados los rappels y devoluciones de compras) de materias primas (bienes adquiridos para su transformación en el proceso productivo) efectuadas por la empresa durante el año de referencia, disminuidas o aumentadas por el importe de la correspondiente variación de existencias (según sea ésta positiva o negativa).

202

Valor añadido: Es el valor que obtiene la empresa en su actividad principal, tras descontar el coste necesario para su realización, es decir, representa los recursos generados por la actividad de los factores productivos internos de la empresa (capital y trabajo). Se calcula como la diferencia entre los ingresos de explotación (importe neto de la cifra de negocios + otros ingresos de explotación) y los consumos de explotación y otros gastos de explotación. Por disponibilidad, los datos utilizados se refieren al cierre del ejercicio económico del año 2003 y han sido extraídos de la base de datos Sabi, elaborada por Bureau Van Dijk. A excepción de la variable relativa al personal, las restantes se encuentran expresadas en miles de euros corrientes.

3.2 Depuración de datos. Inicialmente se contó con un total de 2236 empresas cuya actividad principal se encuadraba en alguno de los siete subsectores en que la clasificación de actividades CNAE-93 divide la industria textil. DEA “exige” que las empresas sean comparables, en el sentido que todas ellas consumen los mismos inputs (en diferentes cantidades) para producir el mismo conjunto de outputs (en distintas cantidades) [27]. Por esta razón, la muestra inicial de empresas fue sometida a un proceso de depuración. Entre otras acciones, se eliminaron aquellas empresas que: a) se consideraron empresas diversificadas, al presentar actividad en otro sector y/o en más de un subsector textil, por carecer de criterio para asignar recursos y valor añadido a cada una de las distintas actividades empresariales realizadas, un total de 663; b) 277 empresas no proporcionaban información completa de las variables input/output, o mostraban valores nulos o negativos, o se encontraban en situación de “en liquidación”, etc. El número de empresas con las que finalmente se ha contado para llevar a cabo la evaluación de la eficiencia de la industria textil española ha sido de 1296, distribuyéndose entre los diferentes subsectores textiles, y según tamaño, tal y como se muestra en la Tabla I.

Tabla I. Distribución de empresas según tamaño y subsector textil de actividad.


Coll, V., Blasco, O. Situación de la industria textil en España ante la liberalización del sector

4. Eficiencia productiva de la PYME textil española: discusión de los principales resultados. En este trabajo se pretende evaluar la eficiencia productiva de la industria textil española y relacionar ésta con el tamaño de la empresa. Con tal finalidad, en cada subsector textil se ejecutó el modelo DEA-CCR y DEABCC para determinar, por separado, las fronteras eficientes de las empresas de tamaño micro, pequeño y mediano. Para ello, se ha utilizado el siguiente software: DEA Solver ([28]), DEAP ([29]) y Frontier Analyst. Para decidir entre ambos modelos (DEA-CCR y DEA-BCC) se sigue la propuesta de [30], de forma que si la mayoría de las empresas aparecen con la misma puntuación de eficiencia en ambos supuestos puede trabajarse con rendimientos constantes a escala, sin necesidad de preocuparnos por el hecho de que la ineficiencia escala confunda la medida de eficiencia técnica. Los resultados obtenidos indican que, de acuerdo con este método, puede

suponerse que la naturaleza de los rendimientos a escala de la tecnología de producción es de tipo variable, y esto en todos los subsectores textiles. Por esta razón, en la Tabla II se muestran las puntuaciones medias de eficiencia técnica pura (ETP, eficiencia productiva neta de efecto escala) obtenidas al segmentar cada subsector textil atendiendo al tamaño empresarial y las puntuaciones medias de eficiencia derivadas de la escala de operación (eficiencia escala). Las ineficiencias de escala se originan al producir en un nivel de escala que no es óptimo, considerando como tal el que se obtiene de reescalar la actividad de las empresas eficientes (ETG=1). La eficiencia escala es obtenida como el cociente entre la eficiencia técnica global (ETG) y la eficiencia técnica pura (ETP). En la Tabla III puede consultarse la distribución de empresas según la naturaleza de los rendimientos a escala (constantes, crecientes o decrecientes) en los que localmente opera cada una de las empresas analizadas.

Tabla II. Eficiencia productiva y escala media (en %) según tamaño y subsector textil.

Tabla III. Distribución de frecuencias de la puntuación de eficiencia escala.

203


Volumen 13, Nº 52, septiembre 2009. pp 199-210 En general, la industria textil española presenta una elevada ineficiencia productiva. Los análisis realizados indican que, en promedio, la eficiencia (ETP) de la industria textil se mueve entre el 89,06% de Fabricación de artículos en tejidos

de punto y el 73,13% de Acabados Textiles. En la Tabla IV se facilita, a modo de resumen, la distribución de frecuencias de la puntuación de eficiencia de acuerdo al grupo de actividad textil y el tamaño de las empresas.

Tabla IV. Distribución de frecuencias de la puntuación de eficiencia técnica pura según tamaño y subsector de actividad.

Por otra parte, tal y como puede observarse en la Tabla II, la ineficiencia escala tiende a disminuir conforme aumenta el tamaño de la empresa, con la excepción de las pequeñas y medianas empresas en Preparación e hilado de fibras textiles y las micro y pequeñas en Fabricación de artículos en tejidos de punto que presentan, en media, puntuaciones muy similares. Además, en todos los subsectores textiles la gran mayoría de empresas, y especialmente las micro, opera localmente en tramos de la frontera de mejor práctica (frontera eficiente) caracterizada por rendimientos crecientes a escala (ver Tabla III). El porcentaje de pequeñas empresas que presentan rendimientos decrecientes a escala se sitúa entre el 10,81% de Fabricación artículos en tejidos de punto y el 34,33% de Preparación e hilado de fibras textiles y el de medianas entre el 2,04% de Fabricación de tejidos textiles y el 33,33% de Fabricación de artículos confeccionados con textiles. En consecuencia, los resultados obtenidos indican que gran parte de las empresas textiles se encuentran o bien por

204

debajo o bien por encima de su tamaño óptimo o ideal. La (in)eficiencia productiva es atribuible a la (in)eficiencia en la gestión del proceso productivo de las empresas evaluadas, y dado que la metodología utilizada proporciona una medida radial de eficiencia, el índice asignado a cada una de las empresas evaluadas indicará la reducción equiproporcional para los componentes del vector de inputs (Activo total, Número de empleados y Coste de materiales) que debería promoverse para convertirla en eficiente; esto es, para situarla sobre la frontera de mejor práctica. Haciendo extensivo este razonamiento, las microempresas de Preparación e hilado de fibras textiles, por ejemplo, deberían reducir como mínimo los recursos empleados en un 25,7% dado su valor añadido generado, las pequeñas empresas de este subsector deberían hacerlo en un 28,08% y las medianas en un 22,84%. De manera análoga se interpretaría la Tabla II para los restantes subsectores textiles.


Coll, V., Blasco, O. Situación de la industria textil en España ante la liberalización del sector

En las Tablas V a VII pueden consultarse los porcentajes medios de mejora potencial a experimentar por las micro, pequeñas y medianas empresas de cada subsector textil para eliminar la ineficiencia productiva y de esta forma llegar a ser eficiente. El signo negativo en las variables inputs indica una reducción en el consumo de factor y el signo positivo en la variable output indica la mejora adicional a promover para llegar a ser eficiente. Observando de nuevo la Tabla II, las empresas de tamaño mediano son las más eficientes en todos los subsectores

textiles. Tras estas, las pequeñas aparecen como las más eficientes en Fabricación de tejidos textiles, Fabricación de artículos confeccionados con textiles y Otras industrias textiles y las microempresas en los restantes subsectores, a saber: Preparación e hilado de fibras textiles, Acabado textiles, Fabricación tejidos de punto y Fabricación de artículos en tejidos de punto. Las micro, pequeñas y medianas empresas de Fabricación de artículos en tejidos de punto son, en promedio, las más eficientes de la industria textil española.

205


Volumen 13, Nº 52, septiembre 2009. pp 199-210 A partir de la evaluación de eficiencia realizada, parece que las micro y pequeñas empresas no son capaces de trasladar (y aprovechar) al ámbito de la gestión productiva las ventajas que se les suelen atribuir en virtud de su tamaño, entre otras: la flexibilidad, que les permite adaptarse y mejorar con mayor facilidad que las empresas de mayor tamaño; y la menor dificultad de aceptar e implementar cambios ([31], [4]). Como uno de los objetivos del trabajo era estudiar, y comparar, la incidencia del tamaño de la empresa en la eficiencia, a continuación nos preguntamos: ¿existen

diferencias estadísticamente significativas en la eficiencia productiva según el tamaño organizativo?. Para responder a esta pregunta, en cada subsector textil se ha realizado un análisis de la varianza (ANOVA), que es una prueba estadística que permite comparar medias de k grupos (tres en este caso: micro, pequeñas y medianas empresas). El modelo de ANOVA exige el cumplimiento de una serie de supuestos, entre ellos, la homogeneidad o igualdad de varianzas en las poblaciones orígenes de los grupos. Así pues, lo primero es comprobar este supuesto mediante la prueba de Levene (ver Tabla VIII).

Interpretando los resultados de la prueba de Levene: •

En Preparación e hilado de fibras textiles, Fabricación de tejidos textiles, Acabado de textiles y Fabricación de tejidos de punto puede asumirse homocedasticidad. Los resultados del ANOVA para estos cuatro subsectores, que se muestran en la Tabla IX, indican que no existen diferencias significativas al 5% en la eficiencia productiva según se trate de micro, pequeñas o medianas empresas en los dos primeros (Preparación e hilado de fibras textiles y Fabricación de tejidos textiles) pero sí en los dos últimos (Acabado de textiles y Fabricación de tejidos de punto).

206

En Fabricación de artículos confeccionados con textiles, Otras industrias textiles y Fabricación artículos en tejidos de punto no puede asumirse homocedasticidad. En consecuencia, para estos subsectores textiles se obtuvieron los estadísticos de Brown-Forsythe y Welch para contrastar la igualdad de las medias (Tabla X).


Coll, V., Blasco, O. Situación de la industria textil en España ante la liberalización del sector

Como puede verse en la Tabla X, la prueba de Welch indica, en todos los casos, la existencia de diferencias significativas al 5% en eficiencia productiva. Por tanto, llegados a este punto interesa conocer, para aquellos subsectores textiles en los que se ha aceptado la existencia de diferencias en eficiencia productiva según tamaño (todos salvo Preparación e hilado de fibras textiles y Fabricación de tejidos textiles), entre qué tamaños se dan dichas diferencias, y la dirección de la misma. Para ello recurrimos, en esta ocasión, a realizar la prueba HSD de Tuckey (cuando pueda asumirse varianzas iguales) y de Games-Hawell (cuando no pueda asumirse varianzas iguales). Los resultados de estas pruebas permiten concluir que: •

En Acabado de textiles: Existen diferencias significativas en eficiencia productiva entre las micro y las pequeñas, y entre las medianas y las pequeñas empresas. No existen diferencias estadísticamente significativas entre las micro y medianas empresas. En este subsector puede decirse que, según el tamaño, las empresas más eficientes son las medianas, seguidas por las microempresas (aunque como se ha dicho no existen diferencias significativas). Las pequeñas empresas son las más ineficientes. En Fabricación de artículos confeccionados con textiles, Fabricación de tejidos de punto y Fabricación de artículos en tejidos de punto únicamente se observan diferencias entre las pequeñas y medianas empresas. En estos tres subsectores textiles las medianas empresas presentan la mayor eficiencia productiva. Si bien puede decirse que no existen diferencias estadísticamente significativas entre las micro y pequeñas empresas así como tampoco entre las micro y medianas empresas, las microempresas son, tras las medianas, las más eficientes en Fabricación de tejidos de punto y Fabricación de artículos en tejidos de punto, y las pequeñas en Fabricación de artículos confeccionados con textiles. En Otras industrias textiles: Las diferencias en eficiencia se observan tanto entre las micro y medianas empresas como entre las pequeñas y

medianas. No existen diferencias estadísticamente significativas entre las micro y pequeñas empresas. Los resultados indican que en Otras industrias textiles nuevamente las medianas empresas son las que presentan, por término medio, una mayor eficiencia productiva, seguidas por las micro y las pequeñas, que son las más ineficientes.

III. CONCLUSIONES. En esta aplicación se ha evaluado la eficiencia técnica, definida a partir de tres variables inputs (Activo total, Número de empleados y Coste de materiales) y una output (Valor añadido), de un total de 1296 empresas textiles especializadas. 1.

Se ha calificado la industria textil española como una industria que presenta una elevada ineficiencia productiva (atribuible a la gestión del proceso productivo).

2.

En cuanto a la eficiencia escala, se ha observado que la ineficiencia escala tiende a disminuir conforme aumenta el tamaño de la empresa y que el tamaño de la gran mayoría de empresas es inadecuado, ya sea porque este se encuentra por encima o por debajo del óptimo. El porcentaje de empresas que opera en la escala óptima (rendimientos constantes a escala) en muy reducido.

3.

En general, el subsector textil que por término medio presenta una mayor ETP, con una puntuación de 89,06%, es Fabricación de artículos en tejidos de punto.

4.

Segmentando en cada subsector textil las empresas de acuerdo a su tamaño, medido a través del número de empleados, en todos los casos las medianas empresas son calificadas como las más eficientes. Con todo, la mejora potencial a experimentar por este tipo de empresa se sitúa, como valores mínimos, entre el 3,55% y el 25,7%.

207


Volumen 13, Nº 52, septiembre 2009. pp 199-210 5.

Como es habitual en este tipo de análisis, se ha considerado que bajos niveles de eficiencia corresponde a situaciones de desequilibrio que sería bueno corregir en el sector.

6.

Las empresas poco eficientes deben esforzarse para alcanzar mejores cotas de eficiencia bajo riesgo de desaparición.

7.

Considerado el sector en su conjunto, un bajo nivel medio de eficiencia no debe ser percibido siempre de forma peyorativa, sino más bien parece que es lo que debe ocurrir en sectores dinámicos, con avances importantes, con empresas líderes que “tiran” del sector, que destacan y que, precisamente por ello, (puesto que la eficiencia de una empresa siempre se mide en términos relativos, y en comparación con las más eficientes) “colocan” a las otras en situación de desventaja.

8.

Un sector en el que la eficiencia media fuera del 100% significaría que todas las empresas han alcanzado el mismo nivel de eficiencia y que ninguna de ellas plantea una alternativa diferenciada capaz de motivar al resto. Sería un sector acomodado, sin innovación ni desarrollo ([5]).

este sentido, las futuras cuestiones a investigar pueden enfocarse desde distintos ámbitos. Así, por ejemplo, cabría estudiar con detalle cómo ha evolucionado en los últimos años la eficiencia productiva de la industria textil y comparar los resultados obtenidos antes y después de la liberalización del sector. Directamente relacionado con el anterior, sería entonces interesante en una segunda etapa del análisis tratar de explicar la (in)eficiencia de la industria a través de variables tales como: inversión en I+D, propensión exportadora de las empresas (internacionalización), pertenencia a grupo empresarial, tamaño, edad, etc. Además, la metodología utilizada permite identificar las empresas de mejor práctica (las que determinan la frontera eficiente) de manera que el estudio del perfil de éstas puede servir de base para el diseño de la estrategia de las menos eficientes.

V. REFERENCIAS. 1.

Sellers, R., Nicolau, J.L. y Mas, F.J. (2002), “Eficiencia en la distribución: Una aplicación en el sector de agencias de viaje”. Working paper, serie ED, nº 17. Instituto Valenciano de Investigaciones Económicas (IVIE).

Sólo en Preparación e hilado de fibras textiles y Fabricación de tejidos textiles no se han detectado diferencias significativas en eficiencia productiva según se tratase de micro, pequeñas o medianas empresas.

2.

Roca, O. y Sala, H. (2005), “Producción, empleo y eficiencia productiva de la empresa española: Una radiografía a partir de SABE”. Boletín Económico del ICE, Num. 2857, 21-38.

10. En el resto de subsectores textiles en todos los casos las medianas empresas aparecen como las más eficientes.

3.

Duch, N. (2006), “Posición competitiva y estrategias de las empresas catalanas. Análisis del Programa Créixer (20032005)”. Documents de treball. CIDEM, Generalitat de Catalunya.

4.

Esteban, J.; Coll, V. y Blasco, O.M. (2005), “¿Competitividad e innovación en la micro y pequeña empresa? Retos previos a superar”. Estudios de Economía Aplicada, 23(3), 559:583.

5.

Coll, V. y Blasco, O.Mª. (2007), “Evaluación de la eficiencia de la industria textil española a partir de información económico-financiera: Una aplicación del análisis envolvente de datos”. Revista de Investigación Operacional, 28(1).

6.

Pla, J., Puig, F. y Linares, E. (2007), “Crisis, actitudes directivas y estrategia en los sectores manufactureros tradicionales: el sector textil español”. Universia Business Review, 14, 68-83.

7.

Sheu H.J y Yang C.Y. (2005), “Insider Ownership and Firm Performance in the Electronics Industry: A Technical

9.

IV. PERSPECTIVAS Como se dijo en la introducción, la eficiencia no agota el conjunto de estrategias para ser competitivos. Sin embargo, en la industria textil parece conveniente, dados los resultados en eficiencia productiva y escala obtenidos en este trabajo, aunar esfuerzos orientados tanto a mejorar la eficiencia (reconversión del sector, redimensionamiento de la estructura, reorientación de la actividad empresarial, modernización de procesos productivos, innovación de proceso, introducción de nuevas técnicas de gestión, formación, reformas laborales y fiscales, etc.) como a generar y/o potenciar aspectos diferenciadores que protejan el sector y permitan sustentar mayores costes relativos al ofrecer “algo más” a los consumidores o usuarios (investigación y desarrollo, formación, diseño, innovación de producto, etc.). El planteamiento del trabajo que hemos presentado puede ser ampliado a partir de las posibles limitaciones del mismo. En

208


Coll, V., Blasco, O. Situación de la industria textil en España ante la liberalización del sector

Efficiency Perspective”. Managerial and Decision Economics, 62, 307-318. 8.

9.

Cheng, Y-S. y Lo, L. (2004), “Firm Size, Technical Efficiency and Productivity Growth in Chinese Industry”. Working papers Nº.144, Department of Economics, School of Oriental and African Studies, University of London. Berger, A.N.; Hancock, D. y Humphrey, D.B. (1993), “Bank Efficiency Derived From the Profit Function”. Journal of Banking and Finance, 17, 317-347.

Research, 71(3), 379-397. 19. Stolp, C. (1990), “Strengths and Weaknesses of Data Envelopment Analysis. An Urban and Regional Perspective Computers”. Environment and Urban Systems, 14(2), 103-116. 20. Charnes, A.; et al., (1994), Data Envelopment Analysis: Theory, Methodology and Applications. Kluwer Academic Publishers. Boston.

10. Kaparakis, E.I.; Miller, S.M. y Noulas, A.G. (1994), “Short Run Cost in Efficiency of Commercial Banks: A Flexible Stochastic Frontier Approach”, Journal of Money, Credit and Banking, 26, 875-893.

21. Banker, R.D.; Gadh, V.M. y Gorr, W.L. (1993), “A Monte Carlo Comparison of Two Production Frontier Estimation Methods: Corrected Ordinary Least Squares and Data Envelopment Analysis”. European Journal of Operational Research, 67( 3), 332 -343.

11. Hermaln, B.E. y Wallace, N.E. (1993), “The Determinants of Efficiency and Solvency in Savings and Loans”. Rand Journal of Economics, 15, 361-381.

22. Charnes, A., Cooper, W.W. y Rhodes, E. (1978), “Measuring the Efficiency of Decision Making Units”. European Journal of Operational Research, 2, 429-444.

12. Mester, L.J.(1993), “Efficiency in the Savings and Loan Industry”. Journal of Banking and Finance, 17, 267-286.

23. Banker, R.D.; Charnes, A. y Cooper, W.W. (1984), “Some Models for Estimating Technical and Scale Ineffiencies in Data Envelopment Analysis”, Management Science, 30(9), 1078-1092.

13. Mester, L.J. (1996), “A Study of Bank Efficiency Taking into Account Rois-Preferences”, Journal of Banking and Finance, 20, 1025-1045. 14. Pi, L. y Timme, S.G. (1993), “Corporate Control and Bank Efficiency”. Journal of Banking and Finance, 17, 515-530.

24. Coll, V. (2003). Eficiencia y Productividad de la Industria Textil Europea desde la Perspectiva del Análisis Envolvente de Datos. Tesis doctoral no publicada. Facultad de Economía. Universidad de Valencia. España.

15. Kimberly, J.R. (1976), "Organizational size and the structuralist perspective: A review, critique, and proposal". Administrative Science Quarterly, 21, 571597.

25. Prior, D. (2002), Generación de tesorería, eficiencia y competitividad en la empresa catalana: comparación internacional. Documento de Economía Industrial, 16. Centre d´Economia Industrial (CEI).

16. Camisón, C., et al., (2003), “Marco conceptual de la relación entre la innovación y el tamaño organizativo”. Estrategias, Conocimientos e Innovación, 19, octubrenoviembre 2003.

26. Chandra, P; et al., (1998), “Using DEA to Evaluate 29 Canadian Textile Companies –Considering Returns to Scale”. International Journal of Production Economics, 54, 129-141.

17. Coll, V. y Blasco, O.Mª. (2006), Evaluación de la eficiencia mediante el Análisis Envolvente de Datos. Una introducción a los modelos básico. Grupo de investigación Eumed. Universidad de Málaga (España). Disponible en: http://www.eumed.net/libros/2006c/197/

27. Pastor, J.T. (2000), “Global Efficiency Measures in DEA”. II Oviedo Workshop, Oviedo, Spain.

18. Restzlaff-Roberts, D. L. y Morey, R.C. (1993), “A goalprogramming method of stochastic allocative data envelopment analysis”. European Journal of Operational

28. Zhu, J. (2002). Quantitative Models for Performance Evaluation and Benchmarking: DEA with spreadsheets and Excel Solver. Kluwer Academic Publishers. Boston. 29. Avkiran, N.K. (1999), Productivity analysis in the services sector with data envelopment analysis. Brisbane, Australia.

209


Volumen 13, Nº 52, septiembre 2009. pp 199-210 30. Coelli, T. (1996), “A Guide to DEAP Version 2.1: A Data Envelopment Analysis (Computer) Program”. Centre for Efficiency and Productivity Analysis. University of New England.

210

31. Damanpour, F. (1996), “Organizational complexity and innovation: developing and testing multiple contingency models”. Management Science, 42 (5), 693-716.


LOS CONOCIMIENTOS PREVIOS Y SU IMPORTANCIA PARA LA COMPRENSIÓN DEL LENGUAJE MATEMÁTICO EN LA EDUCACIÓN SUPERIOR. Morales Urbina, Esther María

Resumen: Este estudio, enmarcado dentro de la metodología cualitativa, se situó en la perspectiva de la investigación-acción colaborativa, en la que se unieron profesores y estudiantes en un proceso de reconocimiento y comprensión de la dinámica que gira alrededor del proceso de enseñanza y aprendizaje de Matemática I, en la Universidad Nacional Experimental Politécnica “Antonio José de Sucre”, Vicerrectorado Puerto Ordaz. Los profesores colaboradores planificaron una serie de acciones en sus ámbitos de actuación y de acuerdo a sus necesidades, entre ellas, se diseñó un plan estratégico de acción para mejorar los conocimientos previos de los estudiantes que ingresan a la universidad. Se buscó interpretar las implicaciones de esos cambios en su desarrollo y valorar las transformaciones. En este desarrollo, se demostró que la consideración y/o evaluación de los conocimientos iniciales ayuda al docente a determinar el grado de profundidad con que se debe tratar un nuevo tema, reforzarlo o incorporarlo si se considera importante su dominio para comprender un nuevo conocimiento. Asimismo, el diseño de situaciones de aprendizaje, considerando las estructuras anteriores que el estudiante dispone y su actitud hacia el proceso de aprendizaje, le permite asimilar y acomodar nuevos significados del objeto de aprendizaje y nuevas operaciones asociadas a él. Palabras clave: Innovación educativa/ Evaluación del aprendizaje/ Aprendizaje de la matemática/ Investigación-acción colaborativa/ Enseñanza superior.

BACKGROUND KNOWLEDGE AND ITS IMPORTANCE IN MATHEMATICAL LANGUAGE COMPREHENSION IN HIGHER EDUCATION Abstract: This work, wich is within the qualitative methodology frame, was developed in the collaborative research-action perspective, in wich teachers and students were involved in a recognition and comprehension of the dynamic surrounding a teaching-learning of Mathematics I (the first course in engineering disciplines), at UNEXPO-VRPO. Collaborators teachers planned different actions in their respective acting field according to their necessities. A strategic plan for improving the new student background was designed. It was intended to interpret these changes implications and evaluate their results. In this context, it was shown that the background evaluation helps the teacher to determine the proper depth level for treating a new topic, by emphasizing it or including by incorporating new elements, if its domain is considered important for comprehension of the new topic. In a similar way, it was shown that the learning situations design, considering the previous structures known by the students and their attitude towards learning process, allows to assimilating and accommodating new learning object meaning, and new operations associated to them. keywords: Educational Innovation/ Learning Evaluation/ Mathematics Learning/ Investigation-action collaborative/ University Education.

I. INTRODUCCIÓN La matemática es una asignatura fundamental en la formación de los ingenieros. En el caso del Vicerrectorado Puerto Ordaz, está tipificada como una “asignatura crítica”. La incorporación de los docentes de Matemática I como agentes

principales de cambio en la vida universitaria, altamente comprometidos con la actividad pedagógica, a un proyecto de esta naturaleza, condujo a elevar los niveles de conciencia sobre la problemática que vive la universidad en esta área, donde los principales afectados son los estudiantes que ellos atienden.

Manuscrito finalizado en Ciudad Guayana, Venezuela, el 2009/02/10, recibido el 2009/03/25, en su forma final (aceptado) el 2009/06/22. La Dra. Esther María Morales Urbina es Profesor de Matemática a dedicación exclusiva, Categoría Asociado en la Universidad Nacional Experimental Politécnica (UNEXPO) Vicerrectorado Puerto Ordaz, teléfonos 0286-9226705, correo electrónico esthmora@gmail.com.

Volumen 13, Nº 52, septiembre 2009. pp 211-222

211


Volumen 13, Nº 52, septiembre 2009. pp 211-222 Por ende fue imperativo promover los cambios que este contexto exigía. Y es, precisamente, el docente, uno de los actores que, debía cambiar, pasando de ese papel transmisor a uno de mediador activo y promotor de toma de decisiones y autonomía en sus estudiantes, para facilitar en ellos el aprender a aprender. La propuesta de intervención se centró, en la construcción e implementación de planes estratégicos de acción que mejoraran los procesos de evaluación de los aprendizajes de Matemática I, desde la organización de un seminario de trabajo colaborativo, donde los profesores desarrollen experiencias novedosas para la producción de aprendizajes significativos. En razón de lo anterior, en este trabajo, se planteó, entre otras, la siguiente interrogante: ¿Qué cambios son necesarios en el sistema de evaluación de la asignatura Matemática I, para mejorar los conocimientos previos de los estudiantes universitarios?, por lo que en la presente exposición solo se hará referencia a los resultados obtenidos con relación a esta área de mejora.

II. DESARROLLO. 1. Antecedentes Durante los últimos 20 años, las investigaciones en la educación matemática han estado marcadas por el paradigma constructivista. Las ideas claves de este paradigma provienen o tienen sus raíces en las investigaciones de muchos autores, entre los cuales se destacan: Piaget, Wallon, Vygotsky, Bruner, Dewey, Gagné, Ausubel, Novak y Henesian, entre otros. Todos ellos han coincidido en que aprender cualquier contenido escolar supone, desde la concepción constructivista, atribuir un sentido y construir los significados implicados en dicho contenido, y que esta construcción no se lleva a cabo partiendo de cero. La concepción constructivista del aprendizaje se sustenta en la idea de que la finalidad de la educación que se imparte en la escuela es promover los procesos de crecimiento personal del alumno en el marco de la cultura del grupo al que pertenece. Bajo esta perspectiva, el aprendizaje ocurre sólo si se satisfacen una serie de condiciones: que el alumno sea capaz de relacionar de manera no arbitraria y sustancial la nueva información con los conocimientos, experiencias previas y familiares que posee en su estructura de conocimientos, que tiene la disposición de aprender significativamente y que los materiales o contenidos de aprendizaje tienen significado potencial o lógico. Al respecto, Miras (1999:47) señala: “el alumno construye personalmente un significado (o lo reconstruye desde el punto de vista social) sobre la base de los significados que ha podido

212

construir previamente. Justamente, gracias a esta base, es posible continuar aprendiendo, continuar construyendo nuevos significados”. Por lo tanto, en el ámbito educativo, debe tenerse en cuenta que, si los alumnos tienen procesos individuales y esquemas de pensamiento previos, los docentes deben promover ambientes de aprendizaje donde las actividades de exploración, reto y descubrimiento para el alumno sean más importantes que la enseñanza en sí. De esta manera, el estudiante se convierte en el protagonista del aprendizaje y no el docente. Desde esta postura, el docente requiere de una gran capacidad para observar y explorar las reacciones que van teniendo los alumnos en sus experiencias de aprendizaje para no adulterar el proceso de construcción individual (Labinowicz, 1986). En relación con estas ideas, lo más importante es saber que un alumno no es una hoja en blanco. Sus experiencias formativas van con él. Lo que puede aprender está restringido por sus concepciones iniciales: las situaciones que se le han propuesto y las estrategias que se le han dado para actuar sobre estas situaciones. Por lo tanto, resulta apropiado tener en cuenta los conocimientos iniciales de los estudiantes y establecer una relación coherente entre lo que los alumnos saben y los nuevos conocimientos. En caso contrario, se generarían dificultades innecesarias y falta de confianza de los alumnos para afrontar el nuevo conocimiento. Sin embargo, no se trata de indagar exactamente todo lo que un alumno sabe -cosa bastante inviable según Barberà (1999a)-, sino de determinar los conocimientos iniciales de los alumnos para un nuevo aprendizaje y evitar suposiciones. Por ejemplo, en el caso de los estudiantes que ingresan a las carreras de ingenierías, por ser bachilleres en ciencias o egresados de carreras técnicas, pensar, sin haber aplicado los instrumentos adecuados de evaluación inicial, que ya vienen fortalecidos en los conocimientos matemáticos básicos; o que, si se le presenta alguna dificultad al docente para evaluar o saber los conocimientos iniciales de sus alumnos, que son muy distintos y extraordinariamente variados de unos a otros, concluir lo más fácil: “no saben nada”. En el caso particular del aprendizaje de las Ciencias, juegan un papel fundamental las ideas previas de los alumnos; por lo que es necesario profundizar en sus estructuras cognitivas para enriquecerlas y reorganizarlas. El punto de partida es la toma de conciencia y la explicitación de las relaciones entre los modelos interpretativos que les proporciona la Ciencia y sus propias concepciones alternativas (Pozo y Gómez Crespo, 1998). Este aprendizaje involucra el desarrollo de diferentes capacidades que se relacionan con los tres tipos de contenidos: conceptuales, procedimentales y actitudinales. Por esta razón, no se pueden aislar a la hora de planificar la enseñanza y de


Morales, E. Los Conocimientos previos y su importancia para la comprensión del lenguaje matemático

averiguar acerca de los conocimientos y dificultades de los alumnos en relación con una temática determinada. Es a partir de cada contenido conceptual específico de una disciplina científica que se pueden y se deben trabajar los diferentes cambios procedimentales, actitudinales y conceptuales.

compartan con el resto de alumnos, el profesor y los textos, para que así el estudiante llegue a una construcción personal, pero también social, del conocimiento.

2. Metodología En este sentido, la concepción constructivista señala tres elementos básicos (que se interrelacionan) que determinan lo que se denomina el estado inicial de los alumnos (Miras, 1999: 48-50): “La disposición de los alumnos frente al aprendizaje…Las capacidades, instrumentos, estrategias y habilidades de las que disponen los alumnos para llevar a cabo el proceso…Los conocimientos previos”. Es por ello, que los docentes tendrían una visión incompleta de los procesos de aprendizaje, si no tuvieran en cuenta, además, de las dificultades cognitivas particulares de sus estudiantes, el contexto social y cultural en que se desarrollan estos procesos. En efecto, como se ha podido apreciar anteriormente, los alumnos también toman en cuenta el sistema de enseñanza en el que se encuentran, sus normas y costumbres, y las expectativas y conjeturas del profesor respecto a ellos, concretadas en relaciones, formas de evaluación, etc. En este caso, la labor del docente consistiría en diseñar y presentar situaciones de aprendizaje que, considerando las estructuras anteriores que el estudiante dispone, le permitan asimilar y acomodar nuevos significados del objeto de aprendizaje y nuevas operaciones asociadas a él. Por supuesto, esto sería imposible de lograr si el docente no considera la disposición para aprender que poseen los estudiantes, y así partir entonces de los conocimientos previos de los alumnos, cuestionarlos para mejorarlos, modificarlos o construir nuevos, para luego propiciar que estos significados se

Este trabajo de intervención se ha enmarcado principalmente dentro de la metodología cualitativa, bajo una perspectiva interpretativa, asumiendo como fundamento el desarrollo de un proceso de análisis participativo, en el que se han unido docentes y estudiantes en un proceso de reconocimiento y comprensión de la dinámica que gira alrededor del proceso de enseñanza y aprendizaje de Matemática I. También se asumió un enfoque cuantitativo, para el análisis de los resultados iniciales que arrojaron las aplicaciones de las pruebas diagnósticas de Matemática I (evaluación de los conocimientos previos de los estudiantes). Para ello se ha seleccionado la investigación-acción colaborativa, considerada por Escudero (1989:194) como: “una práctica de indagación en el aula que ha de inspirarse en ciertos criterios generales de orientación en vez de un conjunto de pasos y procedimientos a aplicar”. El equipo de trabajo, se ha preocupado por estudiar los por qué y los para qué de algunos elementos ligados a la práctica educativa, con la finalidad de comprenderla, transformarla y mejorarla, produciendo cambios significativos a diferentes niveles (personales, institucionales, curriculares, etc.). En la Figura 1, se presenta de forma esquematizada, las fases o momentos que se han considerado, para llevar a cabo esta investigación-acción colaborativa (tomada y adaptada de Colás y Buendía, 1992:297).

Figura 1. Fases de la investigación-acción colaborativa llevada a cabo

213


Volumen 13, Nº 52, septiembre 2009. pp 211-222 La investigación-acción colaborativa se ha desarrollado siguiendo un modelo en espiral en ciclos sucesivos que incluyen primeramente un diagnóstico o descripción de la situación inicial, a partir de la cual, se da la planificación, acción, observación y reflexión o evaluación, que organizan el método o vía de obtención del conocimiento, que desde la perspectiva metodológica cualitativa no es tan secuencial, sino que describe avances y retrocesos para la comprensión del objeto de estudio. Esto es, por ser una metodología flexible, refleja la posibilidad de volver cuantas veces sea necesario sobre los datos, reinterpretarlos y contrastarlos con nuevas fuentes. Es oportuno destacar que la reflexión y la planificación están directamente vinculadas al discurso teórico del profesorado, mientras que la observación y la acción son fases que se vinculan directamente con la práctica del docente en el aula. Además, ha de resaltarse nuevamente que estos cuatro momentos entran en juego en torno a una “preocupación temática”, una preocupación que debe ser compartida por todo el equipo colaborativo, alrededor de la cual se somete una idea o una propuesta a la prueba de la práctica en un contexto educativo particular del aula, con la intención de mejorar el proceso de enseñanza-aprendizaje. Para ello, los profesores explican y aclaran sus perspectivas sobre los acontecimientos del aula, destacando las áreas que hay que cambiar o mejorar y que efectivamente deberán ser diagnosticadas como tales, por el equipo docente. A partir de aquí, los profesores elaboran sus propias soluciones respecto a los problemas que se presentan, definiéndolos previamente sobre la base de la autocomprensión del trabajo docente, es

decir, se pasa a la elaboración de planes estratégicos de acción, que deben tener la suficiente flexibilidad para asumir los imprevistos y adaptarse a ellos. Luego, se llevan a la práctica recogiendo todos los datos posibles sobre sus efectos, se realizan los análisis y las conclusiones, sirviendo de base para iniciar un segundo ciclo en el que se reajusta el plan inicial o se incorporan aspectos nuevos y se vuelve a poner en práctica. En general, el propósito principal de esta investigación ha sido generar reflexiones sobre las prácticas educativas de la Matemática I, con el objeto de mejorar la calidad de los aprendizajes matemáticos. Para ello se plantearon una serie de objetivos específicos entre los cuales sólo se destacan, en esta presentación, los relacionados exclusivamente con el área de mejora “nivelación de conocimientos previos”: 1. Determinar y diseñar de forma colaborativa un plan estratégico de acción encaminado a la mejora de los conocimientos previos de los estudiantes. 2. Implementar el plan estratégico de acción. 3. Valorar y reajustar la implementación de los cambios definidos en el plan estratégico de acción desde la visión de los docentes colaboradores y estudiantes. Adicionalmente, se han planteado una serie de operaciones o actividades para dar respuesta a cada uno de los objetivos y las diferentes técnicas e instrumentos previstos y llevados a cabo para recoger la información (Tabla I).

Tabla I. Detalles de las operaciones o actividades realizadas durante el desarrollo de la investigación

214


Morales, E. Los Conocimientos previos y su importancia para la comprensión del lenguaje matemático

3. Los resultados y su discusión. Siguiendo la metodología antes mencionada y en función de las características de esta investigación, en este apartado se presentan en paralelo los resultados obtenidos y su discusión, ya que se trata de una investigación que según sus objetivos específicos, luego de diseñar un plan estratégico de acción

(ver Tabla II), se implementa y se va observando y evaluando simultáneamente, repitiendo nuevamente el ciclo para ir ajustando los cambios. A partir de este momento, se da inicio a este análisis con los resultados cuantitativos de la aplicación de la prueba diagnóstica de Matemática I, aplicada a todos los estudiantes inscritos en los cursos de matemática de los profesores colaboradores.

Tabla II. Plan estratégico de acción

215


Volumen 13, Nº 52, septiembre 2009. pp 211-222 En las Figuras 4 y 5, se exponen los resultados promedios (en %), del total de estudiantes que respondió “Sí” o “No” a la pregunta: ¿Te gusta la matemática? En ambos gráficos, se puede observar que en los semestres 2004-II y 2005-I, el 90 % y el 87,33 % (respectivamente) un alto porcentaje

de todos los estudiantes encuestados declaró tácitamente que sí le gustaba la matemática, lo que hizo suponer que la mayoría de los estudiantes encuestados manifestaron una alta aceptación y agrado por el estudio de la matemática.

Figura 2. Porcentaje de estudiantes que respondieron Sí o No a la pregunta ¿Te gusta la matamática? (semestre 2004-II)

Figura 3. Porcentaje de estudiantes que respondieron Sí o No a la pregunta ¿Te gusta la matamática? (semestre 2005-I)

216


Morales, E. Los Conocimientos previos y su importancia para la comprensión del lenguaje matemático

Por otra parte, se pudo constatar, en algunas apreciaciones posteriores, realizadas en forma escrita por algunos estudiantes (informantes claves), que mantenían una visión positiva con relación a su aceptación y agrado por el aprendizaje de la matemática: “En lo personal, la cátedra a mí me gusta mucho, el ser una ciencia exacta, para mí significa mucho y llama la atención, y en nuestro mundo todo se mueve gracias a las matemáticas” (Fragmentos tomados del instrumento carta a un amigo). Otro aspecto que vale la pena resaltar es que, en ambos registros, el porcentaje más bajo de aceptación (en ambos períodos) se corroboró en la sección M9 de Matemática I, que estaba constituida exclusivamente por alumnos repitientes. Esto hizo suponer que la experiencia negativa, de la no aprobación de la asignatura, pudo estar relacionada con la aceptación y agrado de los estudiantes por el aprendizaje de la matemática. Aspecto que se evidenció en los discursos posteriores de los estudiantes repitientes (informantes claves): “En general, creo que estoy en un curso, donde a pesar de que somos repitientes, nos están tomando más en cuenta, ya que ésta es la tercera vez

que la estoy viendo y por primera vez, veo que alguien nos toma en cuenta, hasta para opinar sobre la evaluación o para hacer un cambio de fecha de examen. Esto es muy positivo, por lo menos, a mí me ha motivado mucho ese cambio, inclusive puedo decir que antes no me gustaba para nada esta materia, ahora veo que todo gira alrededor de ella” (Fragmentos tomados del instrumento carta a un amigo). Por otra parte, en este diagnóstico inicial, también se realizó un análisis comparativo (en %) de los promedios generales de calificaciones obtenidas por los alumnos en los estudios de matemática de bachillerato con las calificaciones obtenidas en la prueba diagnóstica de Matemática I. Con el fin de tener una visión general de este hecho y por lo extenso de la información recolectada, se elaboró un gráfico resumen que recogió los resultados generales (ver Figura 6), donde se comparan los porcentajes de estudiantes que obtuvieron un promedio de calificaciones de matemática de bachillerato entre 15 y 18 puntos, con los porcentajes de estudiantes que obtuvieron en la prueba diagnóstica calificaciones inferiores o iguales a los nueve puntos (entre 00-09 puntos).

Figura 4. Porcentaje de estudiantes que respondieron Sí o No a la pregunta ¿Te gusta la matamática? (semestre 2005-I)

217


Volumen 13, Nº 52, septiembre 2009. pp 211-222 El análisis de estos resultados permitió establecer que el 72 % del total de los estudiantes que ingresaron a la UNEXPO en el semestre 2004-II tenían un promedio de calificaciones en matemática que oscilaba entre 15 y 18 puntos, mientras el 77 % del total de estos estudiantes salió aplazado en la prueba diagnóstica (entre 00 y 09 puntos), lo que se reflejó en forma análogo, como se verá más adelante en los siguientes semestres académicos, lo que representa una baja correlación con los promedios de calificaciones obtenidos en matemática de bachillerato. Algunas explicaciones posibles a las situaciones de este bajo rendimiento son las siguientes: 1. El nivel de exigencia de la prueba diagnóstica puede ser mayor al que están acostumbrados los estudiantes. 2. El tiempo de ejecución de la prueba diagnóstica es muy corto para el ritmo de trabajo que se acostumbra en bachillerato. 3. Una parte de la prueba exigió habilidades para leer información en variadas modalidades de presentación (lenguaje escrito en palabras, simbólico, gráfico, esquemático, algorítmico, etc.), para interpretar, relacionar y hacer inferencias; habilidades que se adquieren bajo esquemas de enseñanza basados en estrategias de procesamiento de información, al parecer ausentes en la educación media. 4. Los conocimientos previos de matemática que traen los estudiantes de su educación media no son satisfactorios para responder a las demandas académicas de la asignatura Matemática I. Ante estos resultados (numéricamente alarmantes), el equipo de investigación realizó de forma compartida un análisis más descriptivo de los errores generales más comunes reflejados por los estudiantes en las diferentes respuestas a las pruebas diagnósticas. El análisis de estos resultados permitió establecer que la mayoría de los estudiantes identificaron claramente, en la mayor parte de los problemas planteados, lo que se pretendía alcanzar para encontrar las soluciones. Este hecho se corroboró al observar los intentos de solución y el abordaje que hicieron los estudiantes a los problemas. Con excepción del problema de planteamiento lingüístico, cuyo principal obstáculo de solución fue su representación inicial (ausencia de representación y analogía), siendo ésta la pregunta menos tratada. En general, el conocimiento conceptual demostrado por los estudiantes en la prueba diagnóstica fue confuso (conocimientos básicos de números reales) y el conocimiento de procedimientos matemáticos, ausentes de procesos descriptivos y explicativos. Así mismo, se constató que no mostraron dominio de estrategias para resolver problemas y

218

su nivel de conformidad con las explicaciones se quedó en la repetición de las mismas afirmaciones que se solicitó justificar. Posteriormente a estos hechos se implementaron diferentes estrategias para favorecer dichos conocimientos básicos, las cuales fueron señaladas en el Plan estratégico de acción de la Tabla II, por lo que con el propósito de saber qué opinión tenían los estudiantes sobre estas valoraciones y apreciaciones iniciales, y de conocer cómo percibieron las mejoras introducidas en el proceso de enseñanza y aprendizaje de Matemática I, se aplicó a ciertos informantes claves las técnicas: carta a un amigo y las entrevista semi-estructurada grupal. A partir de los resultados analizados, se construyeron las expresiones gramaticales (constructos) representativas de los diferentes discursos de los estudiantes, lo que permitió establecer las siguientes conclusiones: Existe insuficiente articulación entre los contenidos previos a la universidad y los que se imparten en la actualidad o en la enseñanza precedente. No se logró un aprendizaje profundo que permita la continuidad en la complejidad de los contenidos. A las preguntas: ¿cómo les va en la universidad?, ¿cómo les va con las asignaturas y los compañeros de clase?, algunos estudiantes señalaron: “Al momento de llegar a la universidad me di cuenta que implicaba un sistema mucho más complejo y exigente de lo que pensaba. La base que traje no fue muy buena, y realmente me ha costado mucho adaptarme, aunque por fin me estoy adaptando” (Fragmento tomado del instrumento carta a un amigo). A través de los fragmentos, se pudo interpretar que la mayoría de los estudiantes consideraron que su preparación previa en los contenidos de la asignatura matemática no era satisfactoria para responder a las exigencias de la complejidad de los contenidos de Matemática I; no están preparados ante el nuevo aprendizaje: “El problema más grande que he enfrentado es la base, por ello creo que no me fue muy bien en las primeras evaluaciones” (Fragmento tomado del instrumento carta a un amigo). De esta manera se observó cómo aquellos estudiantes que autovaloraron su aprendizaje como deficiente reconocieron, al principio de la experiencia, la existencia de algunas barreras que les impedía un buen desempeño en la matemática y adjudicaron algunos fracasos (el no salir bien en las evaluaciones) a razones intrínsecas (conocimientos previos) o extrínsecas (la enseñanza precedente, la complejidad de los temas de matemática, el tiempo sin estudiar, etc.): “…hay cosas que no había visto en el liceo”, “He encontrado muchas dificultades en muchos temas, pero esto se debe a que en el liceo donde cursé bachillerato me daban la materia de una manera muy superficial comparada con la matemática que veo ahora… (Fragmentos tomados del instrumento carta a un amigo). Por otra parte, se encontraron opiniones de estudiantes que


Morales, E. Los Conocimientos previos y su importancia para la comprensión del lenguaje matemático

reconocieron que, a pesar que las exigencias del nuevo sistema son superiores a las del nivel de educación media, lograron superar dichas exigencias y se autovaloran con un buen aprendizaje: “Al principio, cuesta un poco adaptarse, sobre todo cuando no se viene bien preparado; pero, con el tiempo, se aprende sobre las nuevas formas de estudiar, porque no es igual como se estudiaba en el colegio” (Fragmento tomado del instrumento carta a un amigo). Al contrastar estas evidencias con los discursos colectivos, encontrados en las entrevistas grupales, se encontraron unos discursos compartidos que no se alejaban de esta realidad y que ratificaban los aspectos aquí tratados: “Yo quería decir que, al principio, yo sentí un choque muy grande, me refiero entre lo que vimos en bachillerato y lo nuevo de la universidad…” (Fragmento tomado de la entrevista semiestructurada grupal). De modo que, los estudiantes incorporaron una nueva variable dentro de sus apreciaciones que, según ellos, los había afectado en su desempeño, como: los paros estudiantiles o interrupciones de clase en la universidad, destacando nuevamente, a través de los discursos compartidos, que la no aprobación de la asignatura estaba ligada directamente al hecho de no superar el aprendizaje de los conocimientos matemáticos básicos de números reales. Por otra parte, se localizaron discursos de otros estudiantes que se autovaloraron con un buen aprendizaje en la asignatura Matemática I, y que reconocieron y valoraron positivamente las acciones que pusieron en práctica sus profesores para favorecer la nivelación de los conocimientos previos: uso de la heurística V de Gowin y del material didáctico de números reales, el uso del interrogatorio como estrategia de valoración de conocimientos previos, continuidad entre los objetivos y reforzamiento en cada clase de lo tratado en la anterior. Evidencia de ello son los siguientes fragmentos tomados de la entrevista semi-estructurada grupal: “Es cierto, profesora, el dominio de la base era importante y creo que eso más bien me ayudó a mí, ya que los trabajos que hicimos en clase con el material de números reales y esa bendita V de Gowin nos ayudó mucho”, “…comparto la idea de que la nivelación fue muy positiva, además que eso no se dio solo al principio sino en cada clase, me refiero a que la profesora retomaba en cada clase lo previo”, “Es cierto, eso permitió ver la continuidad de un objetivo con otro, la relación de un contenido con otro” (Fragmentos tomados de la entrevista semi-estructurada grupal). Así mismo, otros estudiantes señalaron que el tiempo que se dedicó para nivelar los conocimientos previos de números reales no había sido suficiente. Sin embargo, hay quienes apuntan que el haberle dedicado mucho más tiempo a la nivelación hubiese perjudicado el tiempo de tratamiento y desarrollo de los otros temas del programa de Matemática I.

Es oportuno destacar, que para el segundo ciclo de acción, se tomaron en consideración algunos de los resultados obtenidos de la aplicación de la primera prueba diagnóstica (semestre 2004-II), por lo que, se realizaron algunos cambios en la reestructuración y conformación de la segunda prueba diagnóstica a aplicar en este segundo ciclo. Se realizaron algunas variaciones, a nivel de redacción de algunas preguntas, no de estructura (preguntas de desarrollo) o habilidades cognoscitivas (aplicación, inferencia, análisis, argumentación, etc.), sino de contenidos, por ejemplo, se cambió el problema lingüístico (pregunta menos respondida) por otra que se consideró de más fácil representación (ya que fue el obstáculo más importante para su correcta solución). En las otras preguntas, aunque fueron cambiados los problemas se mantuvieron las mismas exigencias cognoscitivas, pero, se disminuyó el número de acciones, con la intención de minimizar algunas suposiciones que se habían planteado con relación al tiempo de ejecución y el grado de complejidad. El análisis de estos nuevos resultados, permitió establecer que el 75 % del total de los estudiantes que ingresaron a la UNEXPO en el semestre 2005-I poseía un promedio de calificaciones en matemática que oscila entre 15 y 18 puntos, mientras que el 63 % del total de estos estudiantes salió aplazado en la prueba diagnóstica (entre 00 y 09 puntos), lo que sigue representando una baja correlación con los promedios de calificaciones obtenidos en matemática de bachillerato. Aún así, vale destacar que el porcentaje de estudiantes aplazados en la prueba diagnóstica de semestre 2005-I (63,43 %) es inferior al porcentaje de estudiantes aplazados en la prueba diagnóstica del semestre 2004-II (77 %). En consecuencia, se pudo constatar nuevamente, que a pesar que se realizaron cambios a la prueba diagnóstica (con respecto a su estructuración y conformación), los resultados fueron análogos a los obtenidos en su primera aplicación (semestre 2004-II), por lo que, se mantuvieron algunas las explicaciones que se plantearon para dar respuesta a las situación de bajo rendimiento en dicha prueba. Por otra parte, se consideraron otras explicaciones posibles a la situación del cambio en el porcentaje del número de aplazados: de 77% a 63,43% en los semestres 2004-II y semestre 2005-I, respectivamente): 1. El grado de complejidad de las preguntas (cambio de prueba). 2. La información previa que recibieron los estudiantes a través de la implementación de curso de inducción: contenidos a evaluar, estructura de la prueba, etc. 3. El tiempo de duración de la prueba (se cambió el tiempo; de 45 min. a 60 min.).

219


Volumen 13, Nº 52, septiembre 2009. pp 211-222 Estos análisis que se realizaron a los diferentes resultados de la aplicación de las pruebas diagnósticas (semestres 2004-II y 2005-I) ratifican las ideas que se tiene acerca de la ausencia de aprendizaje comprensivo (aprendizaje significativo) en los estudios de bachillerato y del énfasis que en ese nivel se pone en una enseñanza basada casi exclusivamente en procesos de automatización y aprendizajes memorísticos. Nuevamente con el propósito de saber qué opinión tenían los estudiantes sobre cómo percibieron las mejoras introducidas, se aplicó a ciertos informantes claves otra entrevista semiestructurada grupal. El análisis de estos resultados, constataron los hallazgos obtenidos en la primera aplicación, destacando además, que al poseer información de los conocimientos previos antes de un nuevo aprendizaje les había servido a los alumnos para comprometerse más con su proceso de aprendizaje. Por otra parte, manifestaron nuevamente que la implementación de la estrategia heurística V de Gowin, como método principal para resolver problemas, fue una estrategia muy adecuada para facilitar el reforzamiento de los conocimientos previos y, en consecuencia, su nivelación: “… cuando la profesora revisaba la solución de los problemas, a través de la V, se podía dar cuenta directamente dónde estábamos fallando y nos podía reforzar más fácilmente. Por otra parte, si estábamos trabajando en grupo y estábamos discutiendo sobre la solución de un problema a través de la V, el resto de los compañeros que tenían mayor dominio colaboraba con nuestro aprendizaje, ya que se veía obligado a revisar y corregir nuestros errores, para poder entregar un buen resultado”. Los estudiantes, consideraron que el análisis individual y/o compartido de los errores cometidos en las evaluaciones favoreció el reforzamiento de los conocimientos previos y, en consecuencia, su nivelación. Reconocieron a su vez que, en la medida que se fueron involucrando en el proceso de evaluación compartida, en esa medida aprendieron más, fueron más concientes de lo que estaban haciendo y de cómo se estaban comunicando: “También nos pedía que valoráramos nuevamente el examen, luego de haberlo presentado, para analizar los errores cometidos; y, casi siempre, lo resolvía en el pizarrón para terminar de reforzar sobre las fallas cometidas”. También se encontraron discursos compartidos, generados exclusivamente por alumnos que estaban repitiendo la asignatura de Matemática I, quienes manifestaron: “Yo, en una parte, agradezco que me haya quedado, me sentí más capaz de asumir los retos, y creo que con esta experiencia uno como que tiene la certeza de que no vuelve a pasar por lo mismo”. Los estudiantes estaban convencidos de que la experiencia previa que se adquiere, cursando por primera vez la asignatura, los ayuda a enfrentar los nuevos retos académicos. Pensamos que esta posición es significativa, ya que estas opiniones son el producto de comportamientos que no

220

favorecieron la adquisición de conocimientos previos a la universidad, ni en su momento de haber cursado la materia por primera vez, y que corrobora lo importante de lograr una madurez cognoscitiva para poder enfrentar los nuevos retos académicos. De la misma manera, señalaron que la no aprobación de la asignatura está ligada al hecho de no superar el aprendizaje de los conocimientos previos. Una muestra de ello fueron las respuestas proporcionadas por los estudiantes a la pregunta: ¿Ustedes lograron nivelar los conocimientos previos?: “Claro, es la única forma de avanzar en la materia”, “Es verdad. Creo que, de mi parte, sí. Si no fuera así, no hubiese aprobado matemática, ya que es difícil avanzar en esta materia sin los conocimientos previos”. En líneas generales, se ha corroborado en los diferentes discursos que los estudiantes pueden percibir que los resultados que obtienen en el proceso de enseñanza y aprendizaje son atribuibles a características in¬ternas: responsabilidad, capacidad o esfuerzo, etc: o a causas externas: dificultad en la tarea, características del entorno, estrategias de enseñanza y aprendizaje, etc. Los comentarios anteriores son argumentos para justificar el papel central que juegan los esquemas de conocimientos previos de los alumnos en la adquisición de conocimientos y, en consecuencia en los procesos de enseñanza y aprendizaje, cuya organización debe estar estructurada en función de ello. Por lo tanto, el diseño de situaciones de aprendizaje, considerando las estructuras anteriores de que el estudiante dispone, representa para ellos la oportunidad de reconocer sus potencialidades y debilidades básicas ante el nuevo hecho educativo: asimilar y acomodar nuevos significados; de igual modo, la oportunidad de valorar positivamente las acciones implementadas por sus profesores para favorecer dicho aprendizaje. Este análisis abre camino a la necesidad de considerar en el currículum la formación de la imagen propia. En una cultura tan variada como la de hoy, hay que encontrar la manera de diferenciar la instrucción de acuerdo a las características y diferencias de los alumnos para hacer más manejable el problema de llegar a todos los estudiantes y a la vez hacer más realizables los objetivos.

III. CONCLUSIONES 1.

El análisis de los resultados de la aplicación de la prueba diagnóstica de Matemática I, permitió establecer que el 72 % y el 75% del total de los estudiantes que ingresaron a la UNEXPO en los semestres 2004-II y 2005-I (respectivamente) tenían un promedio de calificaciones en matemática que oscilaba entre 15 y 18 puntos, mientras el 77 % y 63% (respectivamente) del total de


Morales, E. Los Conocimientos previos y su importancia para la comprensión del lenguaje matemático

estos estudiantes salió aplazado en la prueba diagnóstica (entre 00 y 09 puntos), lo que representa una baja correlación con los promedios de calificaciones obtenidos en matemática de bachillerato. Vale destacar que el porcentaje de estudiantes aplazados en la prueba diagnóstica de semestre 2005-I (63,43 %) es inferior al porcentaje de estudiantes aplazados en la prueba diagnóstica del semestre 2004-II (77 %). 2.

Otro análisis más profundo a ambas pruebas, permitió establecer que el conocimiento conceptual demostrado por los estudiantes en dicha prueba fue confuso (conocimientos básicos de números reales) y el conocimiento de procedimientos matemáticos, ausentes de procesos descriptivos y explicativos.

3.

De igual modo, se constató que los estudiantes no mostraron dominio de estrategias para resolver problemas y su nivel de conformidad con las explicaciones se quedó en la repetición de las mismas afirmaciones que se solicitó justificar.

4.

En conclusión, los estudiantes mostraron una falta de dominio en los prerrequisitos básicos de números reales, ausencia de desarrollo de habilidades de procesamiento y de comunicación de información; conocimientos indispensables para la comprensión y el estudio de los temas del Álgebra y el Cálculo.

5.

Desde la perspectiva de análisis de los estudiantes y profesores, se reconoce que existe insuficiente articulación entre los contenidos previos a la universidad y los que se imparten en la actualidad en los cursos de Matemática I. Esto impide que se logre un aprendizaje profundo que permita la continuidad en la complejidad de los contenidos. Igualmente, se observan opiniones de estudiantes que autovaloraron su aprendizaje como deficiente y reconocieron la existencia de algunas barreras que les impidió un buen desempeño en la matemática y adjudicaron algunos fracasos (el no salir bien en las evaluaciones) a razones intrínsecas (conocimientos previos) o extrínsecas (la enseñanza precedente, la complejidad de los temas de matemática, el tiempo sin estudiar, etc.).

7.

En general, tanto estudiantes como profesores reconocieron que existe un cambio radical entre el sistema de estudios del bachillerato y el sistema universitario, lo que afecta significativamente la adaptación y el desempeño estudiantil en la asignatura Matemática I.

8.

Los estudiantes destacaron que fue muy positivo que sus profesores hubiesen considerado y evaluado los conocimientos iniciales antes del comienzo de un nuevo tema (ya sea a través de la prueba diagnóstica y/o con

preguntas verbales), aseverando que dicha información es de significativa importancia para que sus profesores determinen el grado de profundidad con que debe tratarse un nuevo tema, reforzarlo o incorporarlo si se considera importante para comprender un nuevo conocimiento. Por otra parte, destacaron que dicha información les sirvió para reconocer sus potencialidades y debilidades básicas ante el nuevo hecho educativo, así como también para comprometerse más con su proceso de aprendizaje. 10. Los estudiantes repitientes, por su parte, afirman que la no aprobación de la asignatura matemática está más ligada al hecho de no superar el aprendizaje de los conocimientos previos. 11. Asímismo, señalaron que la experiencia previa que se adquiere, cuando cursan por primera vez la asignatura, los ayuda a enfrentar los nuevos retos académicos. Se piensa que esta posición es significativa, ya que estas opiniones son el producto de comportamientos que no favorecieron la adquisición de conocimientos previos a la universidad, ni en su momento de haber cursado la materia por primera vez, y corrobora lo importante de lograr una madurez cognoscitiva para poder enfrentar los nuevos retos académicos. 12. En síntesis, los estudiantes valoraron positivamente las diferentes acciones que pusieron en práctica sus profesores para favorecer la nivelación de los conocimientos previos: uso de la heurística V de Gowin y del material didáctico de números reales, el uso del interrogatorio como estrategia de valoración de conocimientos previos, continuidad entre los objetivos y reforzamiento en cada clase de lo tratado en la anterior. En otras palabras, los estudiantes, consideraron que se favoreció el reforzamiento de la nivelación de los conocimientos previos y, en consecuencia, su nivelación. Reconocieron a su vez que, en la medida que se fueron involucrando en el proceso de evaluación compartida, en esa medida aprendieron más, fueron más concientes de lo que estaban haciendo y de cómo se estaban comunicando.

IV. REFERENCIAS. 1) Miras, M. Un punto de partida para el aprendizaje de nuevos contenidos: Los conocimientos previos. En C. Coll, E. Martín, T. Mauri, M. Miras, J. Onrubia, I. Solé, y A. Zabala: El constructivismo en el aula. Barcelona, Graó.1999, pp. 47-63. 2) Labinowicz, Ed. (1986). Introducción a Piaget. Pensamiento, aprendizaje, enseñanza. EEUU, Ed. Addison Wesey Iberoamericana.

221


Volumen 13, Nº 52, septiembre 2009. pp 211-222

222

3) Barberà, E. Evaluación de la enseñanza, evaluación del aprendizaje. Barcelona, editorial. EDEBÉ, 1999, p. 239.

5) Escudero, J. M. El centro como lugar de cambio educativo: la perspectiva de colaboración. Actas. I CIOE. Barcelona. Nº 1, 1989, 189-221.

4) Pozo, J. I. y Gómez Crespo, M. A. (1998). Aprender y enseñar ciencia. Madrid: Morata.

6) Colás, M. P. y Buendía, L. Investigación educativa. Sevilla, Alfar, 1992, p. 362.


DEMANDA BIOMECÁNICA EN EL ENSAMBLAJE DE UN VEHÍCULO COMPACTO Rodríguez, Eliana del Valle Vargas, Eduardo E. Aravena, Emilio Cachutt, Crisdalith.

Resumen: Con el objeto de valorar la demanda biomecánica del ensamblaje de un vehículo compacto, se realiza un estudio de corte transversal que utiliza las metodologías Suzanne Rodgers y REBA para identificar situaciones críticas y paralelamente, establecer cuál de estas herramientas resulta más apropiada para la realidad de la empresa. La evaluación multitarea de la carga física se emplea para estimar el nivel de riesgo ponderado del conjunto de actividades que ejecutan los trabajadores. Los resultados muestran que la mayoría de las operaciones tienen un moderado nivel de riesgo a lesiones del sistema osteomuscular. Hay evidencia estadística para afirmar con una significancia del 1%, que existe diferencia significativa entre Rodgers y REBA y se concluye que éste último debe utilizarse para la evaluación biomecánica por ser sensible a los factores de riesgo presentes en la ejecución de las tareas. Finalmente se plantean recomendaciones técnicas y administrativas a las disconformidades detectadas. Palabras Clave: Biomecánica/ Metodología Suzanne Rodgers/ Método REBA/ Riesgo músculo esquelético.

BIOMECHANICAL DEMAND ON COMPACT VEHICLE ASSEMBLY Abstract: To assess the biomechanical demand on compact vehicle assemblies, a transversal study was carried out using Suzanne Rodgers and REBA methodologies to identify critical situations while establishing which of these tools is more appropriate for the company’s needs. Multibody assessment of physical load is employed for estimating weighed risk levels on the set of tasks performed by workers. Results show that most tasks pose moderate risk levels in causing lesions on the osteomuscular system. Statistically significant existing evidence of 1% confirms there is a significantly difference between Rodgers and REBA, and thus it can be concluded that the latter should be implemented for assessing biomechanics since it is sensitive to risk factors in task execution. Finally, technical and administrative recommendations are proposed for the detected disagreements. Keywords: Biomechanics/ Suzanne Rodgers Methodology/ REBA Method/ Muscle-skeletal isk

I. INTRODUCCIÓN Investigaciones científicas han encontrado que la mayoría de los desórdenes del sistema osteomuscular tienen etiología multifactorial [1], así pues se han detectado relaciones con factores de riesgo físico [2, 3, 4, 5, 6, 7, 8], fisiológicos [9] y psicosociales [10, 11, 12, 13] con este tipo de patologías. Sin embargo, siguen siendo los problemas asociados a la carga postural, repetitividad y grandes esfuerzos musculares los de mayor aporte en la etiología de dichos desórdenes. Rodríguez y Cols. [14] en una investigación realizada en el sector automotriz, mostraron que la biomecánica se sitúa en un

renglón preponderante en la magnitud del nivel de riesgo cuando se usa un instrumento de carácter integral para evaluar un puesto de trabajo, seguido de los aspectos fisiológicos, esfuerzo percibido y factores psicosociales. En este sentido parece insoslayable que el primer paso para la erradicación paulatina de las lesiones músculo esqueléticas (LME) asociadas al trabajo, sea la estimación de la demanda biomecánica que las tareas suponen. Es importante destacar que ningún método específico podrá dar solución a todo, pero la escogencia de aquel con mayor sensibilidad a las situaciones particulares que se presentan en la actividad en

Manuscrito finalizado en Valencia, Venezuela, el 2008/08/21, recibido el 2008/09/23, en su forma final (aceptado) el 2008/12/01. La MSc. Eliana del Valle Rodríguez Márquez es Docente Ordinario a Dedicación Exclusiva en la Escuela de Ingeniería Industrial, Facultad de Ingeniería, Universidad de Carabobo, telefax oficina 0241-8672843, correo electrónico elianarodriguez99@gmail.com. El MSc. Crisdalith Cachutt Alvarado es Docente Ordinario a Tiempo Completo en la misma Escuela, mismo telefax, correo electrónico crisdalith@gmail.com. El Ing. Eduardo Enrique Vargas Cano es igualmente Docente Ordinario a Tiempo Completo, en el Dpto. de Estudios Básicos, Facultad de Ingeniería, Universidad de Carabobo, mismo telefax, correo electrónico eevargascano@yahoo.com. El Ing. Emilio Aravena Salas es Investigador Novel en la Unidad de Estudios Ergonómicos de la misma Universidad, mismo telefax, correo electrónico ejaravena@gmail.com

Volumen 13, Nº 52, septiembre 2009. pp 223-230

223


Volumen 13, Nº 52, septiembre 2009. pp 223-230

estudio, podrá sin lugar a dudas colaborar con la adecuación ergonómica del puesto de trabajo [15]. La evaluación de la demanda biomecánica de las actividades (así como de todos los factores de riesgo presentes en los puestos de trabajo), además de ser una obligación del empleador en el marco legal venezolano, provee para las empresas una oportunidad para fijar un orden de prioridades de atención, pues de esta manera se pueden ofrecer soluciones de manera más expedita a aquellos casos en situaciones críticas, aun cuando éstos no tengan ya manifestaciones claras de problemas osteomusculares e inclusive, se puede combinar esta información con la proporcionada por el servicio médico para programar las intervenciones. El propósito de este estudio es evaluar la demanda biomecánica de las tareas de ensamblaje de un vehículo compacto de una ensambladora ubicada en Valencia, Estado Carabobo, utilizando para ello el método Suzanne Rodgers [16] y la metodología REBA [17], para de esta forma poder identificar operaciones que requieren modificaciones urgentes para disminuir su impacto negativo en la salud de los trabajadores y además, establecer cuál de los métodos parece más apropiado para la realidad de la empresa. Asímismo, dado que los trabajadores ejecutan una variedad de subtareas durante el tiempo de ciclo de la operación y que cada una impone un nivel de riesgo a LME distinto, se utiliza la evaluación multitarea de la carga física [18] para estimar el nivel de riesgo ponderado de este conjunto. Finalmente se plantean soluciones técnicas y administrativas que necesariamente deben combinarse con estudios sistémicos para aquellos casos críticos y que deben ser ampliamente discutidas con los participantes del proceso de producción para garantizar su éxito.

Se mantuvo la imagen del trabajador dentro del campo visual durante toda la filmación y ésta se mantuvo estable para observar la integridad de los movimientos efectuados por el sujeto.

La duración de la filmación estuvo directamente relacionada con la duración de un ciclo de trabajo o más.

Posteriormente, la filmografía fue analizada de la siguiente forma: •

Se dividió el tiempo de ciclo en elementos racionales de corta duración en los cuales los operarios realizan actividades específicas. Posteriormente, el tiempo de duración de este elemento se subdividió en 10 o más partes iguales (dependiendo de su duración) y este valor determinó la cantidad de segundos entre una observación y otra.

Cada imagen observada fue analizada a través de los métodos Rodgers y REBA.

Posteriormente se realizó una evaluación multitarea de la carga física basada en la obtención de los valores medios ponderados de los tiempos de exposición a cada elemento de trabajo y el método ergonómico REBA. Los datos arrojados por los métodos REBA y Rodgers fueron analizados estadísticamente, para verificar si existen diferencias significativas entre los resultados arrojados por los dos instrumentos distintos.

II. DESARROLLO

Por último, para corregir los problemas detectados, se hacen recomendaciones técnicas y administrativas que se clasifican en cinco categorías:

1. Materiales y métodos

El estudio se corresponde con una investigación de tipo descriptivo, de corte transversal, de carácter exploratorio en la cual se evaluaron las estaciones de trabajo pertenecientes a una línea de ensamblaje de un vehículo compacto en una empresa ubicada en Valencia, Estado Carabobo, Venezuela.

Equipo: diseñar nuevos dispositivos o mejora de los existentes, que faciliten la ejecución actual de las actividades, disminuyendo los riesgos disergonómicos.

Método: cambiar de secuencia de actividades y/o eliminación actividades innecesarias, con el propósito de eliminar reprocesos y posturas disergonómicas.

Postura: educar al operario en las posturas más adecuadas para realizar las actividades inherentes al trabajo.

Condiciones antropométricas: adaptar las condiciones del puesto de trabajo a las características antropométricas del trabajador, con el fin de disminuir el compromiso postural

La población estuvo conformada por la totalidad de los trabajadores de la línea de producción (246 operarios) quienes voluntariamente aceptaron participar en el estudio de acuerdo a la Declaración de Helsinski de 1983. La demanda biomecánica de las actividades fue evaluada con los métodos Suzanne Rodgers y Rapid Entire Body Assessment (REBA) con apoyo en la técnica de la filmación en tiempo real. En este sentido se filmaron 1513 elementos de trabajo (operaciones) teniendo en consideración los siguientes aspectos [19]:

224

. •

Rediseño: rediseñar el puesto de trabajo, integrando mejoras de equipo, método, postura y condiciones antropométricas simultáneamente


Rodríguez, E. et al. Demanda biomecánica en el ensamblaje de un vehículo compacto

2. Métodos de evaluación de la demanda biomecánica Método Suzanne Rodgers: Este es un método de análisis ergonómico que estudia tres factores importantes: el nivel de esfuerzo, su duración antes de la relajación (o antes de pasar a un nivel de menor esfuerzo) y la frecuencia de la activación de los músculos para efectuar la actividad. Con estos parámetros se estima el nivel de fatiga muscular que se produce en las siguientes partes del cuerpo: cuello, hombros, espalda, brazos-codos, muñecas-manosdedos, piernas-rodillas, tobillos-pies-dedos. El nivel de esfuerzo está referido al requerido para realizar la tarea, y para ello se tienen tres clasificaciones: ligero, moderado o fuerte, éstas aplicarán según descripciones cualitativas para cada parte del cuerpo. Asímismo, por duración del esfuerzo se entiende el tiempo que un músculo de las partes del cuerpo antes mencionadas, permanece activo de manera contínua, y se clasifica como sigue: duración menor a 6 segundos, entre 6 y 20 segundos y más de 20 segundos. En cuanto a la frecuencia, esta variable se mide para un grupo de músculos y para un nivel de esfuerzo específico, y se clasifica también en tres categorías: menos de una repetición por minuto, de 1 a 5 repeticiones por minuto, y de 5 hasta 15 repeticiones por minuto. Con esta metodología se establece la prioridad de cambio de una actividad en función de la combinación de los valores obtenidos a través de los tres factores estudiados: el nivel de esfuerzo, la duración del mismo y la frecuencia.

Método Rapid Entire Body Assessment (REBA) El Método REBA es una herramienta para el análisis postural de puestos de trabajo diseñada en el año 1995 por Dr. Sue Hignett y Dr Lynn Mc Atamney. Se fundamenta en un sistema de análisis postural sensible a riesgos músculo-esqueléticos en una variedad de tareas, basado en la división del cuerpo humano en segmentos que pueden ser codificados individualmente, con referencia a planos de movimiento. El REBA provee de un sistema de escala para actividades musculares causadas por cambios rápidos, carga estática o dinámica y posturas inestables. Además, incluye un concepto novedoso al reflejar la importancia del acoplamiento o agarre en el manejo de herramientas o controles. Los resultados de aplicación de la metodología son niveles de riesgo a LME con un indicador de urgencia. El REBA divide el cuerpo en diferentes posturas, para lo cual establece dos grandes grupos: El Grupo A, que involucra el tronco, el cuello y las piernas, con el que se puede establecer un total de 60 combinaciones de posturas para estos miembros del cuerpo. Y el Grupo B, que involucra los brazos, antebrazos y muñecas, para los cuales

se establecen hasta 36 combinaciones de posturas. Estas combinaciones se establecen en tablas que generan un índice en cada uno de los grupos y al cual se debe añadir un factor por Fuerza o Carga y otro factor por las características de la actividad que se realiza, estableciéndose así el índice de REBA que indicará el nivel de acción asociado a un nivel de riesgo a LME.

Evaluación Multitarea de la Carga Física La evaluación multitarea de la carga física es una metodología basada en el hecho que la mayoría de las actividades laborales están compuestas por sub-tareas con duración y compromisos posturales distintos y que la presencia de una postura forzada en una de estas sub-tareas no es compensable con una postura no forzada. En este sentido, el método combina los tiempos de duración de elementos racionales de trabajo (también llamados subtareas) y sus respectivos compromisos posturales descritos a través del método ergonómico REBA. Al igual que el método original, la evaluación multitarea contempla la valoración de las siguientes estructuras corporales: hombro, codo, mano-muñeca, columna cervical, columna lumbar y posición de las piernas. Se incluyen además aspectos como la adición de puntos por el manejo de cargas y/o la aplicación de fuerza y calidad del acoplamiento. Una vez obtenidos los valores medios ponderados de cada una de las variables mencionadas se hace uso de las tablas determinantes descritas por Hignett y McAtamney, obteniendo el nivel de riesgo a LME según REBA. La razón para utilizarlo es la inclusión de una ponderación temporal que tiene en cuenta el tiempo de exposición a una postura concreta, y, por lo tanto, el resultado final guarda relación con la exposición. Por otra parte, se señalan como ventajas la sencillez de la evaluación que se realiza con el método y su posibilidad de uso en la mayoría de las tareas desarrolladas en la actividad laboral, entre otras. Los métodos descritos anteriormente fueron aplicados en la evaluación de los puestos de trabajo que se muestran en la Tabla I.

Tabla I: Puestos de trabajo a evaluar

225


Volumen 13, Nº 52, septiembre 2009. pp 223-230

3. Resultados

categoría de nivel de riesgo leve a LME.

3.1 Evaluación del Compromiso Biomecánico según el Método Suzanne Rodgers

Para las áreas de acabado metálico y pintura, los compromisos biomecánicos descritos por el método Rodgers, son muy similares. 85,71% de las operaciones de acabado metálico se clasifican como de leve nivel de riesgo a LME al igual que el 61,09% de las provenientes del área de pintura. Esto se debe a la poca exigencia en términos de aplicación de fuerza o levantamiento de cargas que conllevan las actividades realizadas en estas áreas. En la Tabla II puede observarse el compromiso biomecánico según el método Rodgers de algunas actividades típicas de cada área.

Se pudo verificar que para el área de soldadura por electropunto, el 52.59% de las operaciones se presentan con riesgo moderado a LME. Esto se debe básicamente a la ejecución de tareas sobre matrices de ensamble, con máquinas de gran tamaño y peso que deben ser manipuladas por los operarios bajo posturas que implican flexión de miembros superiores y lateralización de cuello. Para el caso de las actividades de repunteo, debe mencionarse que las tareas son muy similares a las ejecutadas en el área de electropunto. Sin embargo, el vehículo pasa a través de una línea de ensamble en lugar de las matrices, por lo que las operaciones se realizan con pistolas de soldadura más pequeñas que requieren menor aplicación de fuerza. Esto provoca que el 74,36% de las tareas se ubiquen en la

En cuanto al área de vestidura, la mayoría de las operaciones también se ubican en la categoría de nivel de riesgo leve a LME (73,79%), pues se trata de tareas que involucran pequeños esfuerzos musculares para la instalación de accesorios tales como gomas, esponjas antirruido, clips de sujeción, y pequeños tornillos.

Tabla II: Compromiso Biomecánico de una tarea típica según el método Suzanne Rodgers

A: Puntuación de cuello B: Puntuación de Hombros C: Puntuación de Espalda D: Puntuación de Brazos y codos E: Puntuación de Muñecas, manos, y dedos F: Puntuación de Piernas, rodillas, tobillos, pies y dedos.

226


Rodríguez, E. et al. Demanda biomecánica en el ensamblaje de un vehículo compacto

En las áreas de monorriel y línea final se trata de operaciones de ajuste de componentes críticos de la unidad, tales como suspensión trasera, cauchos, tubo de escape y cuadratura de puertas. Se observa que para monorriel, el 60,60% de las tareas describen un nivel leve de riesgo a LME, mientras que para línea final, el 52,38% de las tareas se ubican en la categoría de riesgo moderado. Se destacan las operaciones de colocación y ajustes finales a los amortiguadores, torque a tornillos de suspensión trasera y ajustes finales de la instalación del motor como actividades de alto riesgo a LME, básicamente por exigir esfuerzos musculares importantes en posturas no neutrales.

3.2 Evaluación del Compromiso Biomecánico según el Método REBA En cuanto al compromiso biomecánico descrito por el método REBA, para el área de soldadura por electropunto, se observa a un 51,79% de las tareas con nivel de riesgo moderado,

siendo las estructuras más comprometidas hombros, cuello y tronco. En la Tabla III, se puede apreciar el compromiso biomecánico de una tarea típica del área. En la zona de repunteo, el REBA califica al 58,98% de las tareas como de riesgo moderado, destacándose en la mayoría de los casos, actividades que involucran flexión de tronco entre 20 y 60°, acompañadas de lateralización de cuello. En referencia a la zona de acabado metálico, el 38,46% de las tareas también se presentan como de moderado riesgo a LME. La aplicación del REBA al área de pintura refiere compromisos biomecánicos para el 48,89% de las operaciones, en la categoría de bajo riesgo y el 48,45% en la de riesgo moderado. En su mayoría, las actividades involucran movimientos repetitivos de miembros superiores con flexión de hombros entre 45° y 90°. Esta situación se presenta principalmente en las operaciones de limpieza y preparación del vehículo para ser pintado, en la aplicación de fondos anticorrosivos y esmaltes, y en las áreas de limpieza final.

Tabla III: Compromiso Biomecánico según el método REBA

A1: puntuación tronco, A2: puntuación cuello, A3: Puntuación piernas, A4: Puntuación fuerza y/o carga, A: total puntuación Grupo A. B1: puntuación hombro, B2: puntuación codo, B3: puntuación muñeca, B4: acoplamiento, B: total puntuación Grupo B. C: Puntuación integrada A y B. Act: puntaje adicional dado por las características de la actividad. REBA: Nivel de riesgo a LME según REBA.

El área de vestidura presenta una carga postural que para el 45,15% de los casos se ubica en la categoría de riesgo moderado pues, por lo general, las actividades requieren de movimientos de dorsoflexión y lateralización de cuello acompañados de flexión de hombros. En las zonas de monorriel y línea final, la demanda biomecánica se sitúa en la categoría de moderado para el 39,39% y para el 52,38%

respectivamente. Resaltan nuevamente como actividades de alta criticidad las relativas a la colocación y ajustes finales a los amortiguadores, torque a tornillos de suspensión trasera y ajustes finales de la instalación del motor. Sin embargo, el método REBA también clasifica a las actividades de instalación de molduras, alfombras y aislantes en puertas, como de alto nivel de riesgo a LME.

227


Volumen 13, Nº 52, septiembre 2009. pp 223-230 3.3 Evaluación Multitarea de la Carga Física La evaluación multitarea de la carga física mostró que el 69,57% de los trabajadores del área de soldadura por electropunto operan bajo un esquema de actividades de nivel ponderado de riesgo a LME considerado como moderado, ver Tabla IV. En esta misma situación se ubican las áreas de pintura, vestidura, monorriel y línea final. Es relevante

mencionar que estos resultados están asociados a la combinación de tareas que en su mayoría exigen compromisos posturales importantes (no muy disímiles entre sí) y tiempos de ciclo de las tareas en los cuales no se ofrecen oportunidades para la recuperación de las estructuras involucradas. Sólo las áreas de repunteo y acabado metálico, muestran comportamientos de bajo riesgo ponderado a lesiones del sistema osteomuscular.

Tabla IV: Compromiso Biomecánico de las actividades estudiadas

3.4 Análisis Estadístico Haciendo uso del coeficiente de Correlación de Spearman, el cual es una medida del grado de asociación entre dos variables y que para la data estudiada arrojó un valor de rS = 0,447, puede afirmarse con un nivel de significación del 1%, que ambos métodos son uniformes en cuanto a la evaluación biomecánica que hacen sobre las tareas.

REBA tiene una valoración mayor (más severa) en cuanto al nivel de exigencias requerido para la ejecución de una actividad que el método Rodgers a un nivel de significación del 1%, por lo que resulta conveniente utilizar el método REBA para la evaluación biomecánica ya que es más sensible en la valoración de los riesgos presentes en la ejecución de las tareas.

4. Oportunidades de mejora detectadas Por otra parte, con la intención de identificar si existe diferencia significativa en la evaluación del compromiso biomecánico según los métodos REBA y Rodgers, se aplicó la prueba de rangos con signo de Wilcoxon, obteniendo un valor para el estadístico de contraste z = 8,114 para la diferencia “REBA – Rodgers”. Esto indica que existe suficiente evidencia estadística para afirmar que el método

228

Una vez realizada la evaluación biomecánica, se identificó una serie de oportunidades de mejora a cada actividad que se encontró en situación de riesgo. Es así como se plantearon 798 recomendaciones para el ensamblaje del vehículo compacto que pueden disgregarse tal y como se muestra en la Tabla V.


Rodríguez, E. et al. Demanda biomecánica en el ensamblaje de un vehículo compacto

Tabla V: Oportunidades de mejora detectadas

Para el área de electropunto las recomendaciones están dirigidas al rediseño del equipo en, este caso las pistolas de soldadura, no ofrecen posibilidades para una adaptación con el hombre y obligan a éste a la admisión de posturas no neutrales durante prolongados períodos de tiempo. En este sentido, la ubicación de los controles de mando es uno de los aspectos en los cuales se hace mayor énfasis. En las áreas de repunteo y acabado metálico, las propuestas están dirigidas al cambio de equipos que en su mayoría también están compuestos de pistolas de soldadura. No obstante, es pertinente mencionar que si bien es cierto que en la mayoría de los casos se observó exigencia de las actividades, también es cierto que en algunos casos la ausencia de higiene postural conduce al operador a asumir posturas de alto compromiso sin que éstas fuesen realmente exigidas por la tarea que realiza. Por tal motivo, se hacen recomendaciones dirigidas al fomento de una cultura postural que permita a las soluciones técnicas brindar el resultado esperado. Esta necesidad de educación postural se hace más clara para las áreas de pintura, vestidura y línea final, en la cuales la mayoría de las propuestas están asociadas a este rubro, así como también con el cambio de deficientes métodos de trabajo que pueden causar daños al sistema osteomuscular. Es así como se recomienda la sustitución de equipos y herramientas para disminuir los niveles de nocividad encontrados y paralelamente, realizar un nuevo balance de actividades de tal manera que sean parejas las demandas de los trabajadores. La sustitución o modificación de algunas facilidades mecánicas existentes en las líneas también son sugeridos. Para el área de monorriel, la necesidad de corregir situaciones de alto compromiso muscular en posturas no neutrales, originan que el 55,6% de las mejoras estén asociadas al cambio y/o rediseño de los equipos y herramientas, así como también de los métodos de trabajo. Se destaca aquí el sentido en el que se mueve la unidad a través de la línea, pues en buena parte de este sector los operarios permanecen debajo del vehículo suspendido, por lo que los ajustes se realizan con movimientos de hiperflexión de hombros y codos acompañado de torsión y/o lateralización de tronco con torquímetros de gran tamaño y potencia.

5. Discusión Luego de la evaluación biomecánica de las tareas se observa como las de mayor criticidad son las relativas a la colocación y ajustes finales a los amortiguadores, torque a tornillos de suspensión trasera, ajustes finales de la instalación del motor, instalación de molduras, alfombras y aislantes en puertas. El denominador común de todas estas actividades es el compromiso de la columna lumbar. En este sentido, es pertinente recordar que esta clase de postura se constituye como uno de los factores de riesgo más importantes en la aparición de lesiones en la parte baja de la espalda. Otro punto a considerar es la condición de bipedestación prolongada a la cual está sometida la totalidad de los sujetos evaluados, pues investigaciones científicas han podido encontrar que la postura de pie combinada con otro grupo de factores de riesgos físicos, incluyendo por supuesto el tiempo de exposición, incrementa el riesgo de prevalencia de las lumbalgias [20, 21, 22]. En cuanto a los modelos utilizados para la evaluación biomecánica, el Rodgers resultó ser sensible a aquellas tareas que implican esfuerzos musculares importantes. El REBA por su parte, parece ser más específico para los casos en los cuales el compromiso es, en buena parte postural, no obstante muestra versatilidad al poder realizar ajustes por aplicación de fuerza, calidad del agarre, carga estática y movimientos repetitivos. El análisis estadístico evidencia dos aspectos importantes. El primero, que los métodos Rodgers y REBA son uniformes en la evaluación biomecánica. Y Segundo, que con el nivel de significancia del 1%, el método REBA tiene una valoración más severa que el método Rodgers, por lo que resulta conveniente utilizar el método REBA para la evaluación biomecánica en la muestra estudiada. Luego del procesamiento estadístico, es importante considerar el momento tecnológico que atraviesa la empresa ensambladora. En este sentido se pudo verificar como se han ido corrigiendo paulatinamente los problemas asociados con la manipulación de cargas y aplicación de fuerza a través de la incorporación de facilidades. Sin embargo, persisten ampliamente los compromisos posturales. Por tal razón, parece más prudente utilizar REBA para la evaluación

229


Volumen 13, Nº 52, septiembre 2009. pp 223-230 biomecánica de las tareas, al ser éste mucho más sensible a los factores de riesgo presentes en las líneas de trabajo. La evaluación multitarea de la carga física permitió fijar un orden de prioridades de atención a los problemas detectados y además se constituye como una excelente herramienta para reorganizar las demandas de trabajo entre los operadores. La posibilidad de combinar estos resultados con la morbilidad músculo esquelética que puede proporcionar el servicio médico es imprescindible para planificar correctamente las intervenciones. En este punto es pertinente mencionar que las recomendaciones planteadas no brindaran el beneficio esperado sino son ampliamente discutidas con los protagonistas del proceso. III. CONCLUSIONES 1. La aplicación de los modelos de valoración de la demanda biomecánica en una línea de ensamblaje de un vehiculo compacto permitió, en primer término, identificar tareas en condiciones de nocividad que deben ser prontamente mejoradas en pro de la salud de los trabajadores. 2. El estudio minucioso de la aplicación de cada modelo también permitió destacar las bondades que cada una de estas herramientas ofrecen en términos de variables incluidas en el análisis. 3. El procesamiento estadístico de la información y el estudio de los factores de riesgo presentes en la línea de ensamblaje muestran que el método REBA tiene una valoración más severa que el método Rodgers, por lo que resulta conveniente utilizar el primero para el estudio de los compromisos del sistema osteomuscular en dichos puestos de trabajo. 4. Finalmente, es necesario destacar la importancia de la valoración multitarea de la carga física para establecer las prioridades de la intervención conjuntamente con la opinión de os trabajadores. IV. REFERENCIAS 1. Daniellou, F. (2007). La Prevención de los desórdenes músculo esqueléticos: ampliar los márgenes de maniobra de todos. Proceedings del 2º Congreso de la Unión Latinoamericana de Ergonomía. Bogotá. 2. Piedrahita, H. (2003). Perception of musculoskeletal symtomps in cold exponed and non – cold exposed workers. Master´s Thesis. Lulea University of Technology. 3. Bernard, BP. (1997). A Critical Review of Epidemiologic Evidence for Work-Related Musculoskeletal Disorders of the Neck, Upper Extremity, and Low Back. Centers for disease control and prevention (NIOSH). NIOSH Publication No. 97-141. 4. Hagberg, M., et al., (2006). The association between whole body vibration exposure and musculoskeletal disorders in the Swedish work force is confounded by lifting and posture. International conference on whole-body vibration injuries, Journal of sound and vibration, Vol. 298, No 3 (14 ref.), pp. 492-498 5. Wigley, RD, De Groot, JA, Walls, C (2007). Contribution of vibration to musculoskeletal disorders in New Zealand. Intern Med J 2007 Dec; 37(12), pp. 822-5.

230

6. Brinckmann, P, MH Pope (1990). Effects of repeated loads and vibration. En The Lumbar Spine, dirigido por J Weinstein y SW Weisel. Filadelfia: WB Saunders. 7. Roberts, S, Jill P.G. Urban (2001). Discos intervertebrales. Enciclopedia de salud y seguridad en el trabajo. Riihimâki, H., (2001). Región Lumbar. Enciclopedia de Salud y Seguridad en el Trabajo. Pág. 6.11-6.15 9. Manero, R., (2005). Un Modelo Simple para la evaluación integral del riesgo a Lesiones músculo – esqueléticas. Mapfre Medicina. Nº 16, pp. 86-94. 10. Krause, N., et al., (1997). Psychosocial job factors associated with back and neck pain in public transit operators. Scand J Work Environ Health, 23, pp. 179-86. 11. Aptel, M., (2001). TMS du membre supérieur liés au travail: des connaissances établies pour construire la prevention. Quels facteurs de risques ? Quels liens avec le stress?. Prévenir les TMS, mieux articuler santé et organisation du travail. Actes du colloque, 27 et 28 novembre 2001, Paris. 12. Davis, K., Heaney C (2000). The relationship between psychosocial work characteristics and low back pain: underlying methodological issues. Clinical Biomechanics, Vol. 15, Nº 6, pp. 389-406. 13. Devereux, JJ., Vlachonikolis, IG, Bucle, PW., (2002). Epidemiological study to investigate potential interaction between physical and psychosocial factors at work that may increase the risk of symptoms of musculoskeletal disorder of the neck and upper limb. Vol. 59. Número 4. 14. Rodríguez, E., (2007). Estudio ergonómico en el sector automotriz venezolano. Trabajo presentado en el IX Congreso Internacional de Ergonomía. SEMAC. México. 15. Rodríguez, E., (2007). Ergonomía. Serie 1 de Cuadernos de Ingeniería Industrial. Escuela de Ingeniería Industrial. Universidad de Carabobo. Venezuela. pp. 06-11 16. Rodgers, S., (1992). Functional job evaluation technique in Ergonomics. Occupational Medicine: State of the Art Reviews. Vol 7, pp. 679-711. 17. Hignett, S., McAtamney, L., (2000). Rapid Entire Body Assessment (REBA). Applied Ergonomics. No. 31. 18. Idoate García, VM, Pollán, Rufo, M., (2003). Evaluación Multitarea de la Carga Física MAPFRE Seguridad, Nº 90. Segundo trimestre 2003 19. Malchaire, JB., et al. (1999). Risk prevention and control strategy for upper limb musculoskeletal disorders. Newsletter of the European Trade Union Technical Bureau for Health and Safety, N° 11-12, pp. 27-31. 20. Punnet, L., et al. (2004) Ergonomic stressors and upper extremity musculoskeletal disorders in automobile manufacturing: a one year follow up study. Occup. Environ. Med, N° 61, pp. 668 – 674. 21. Xu, Y., et al. (1997) Work environment and low back pain: the influence of occupational activities. Occup. Environ. Med, Vol. 54, No. 10, pp. 741-745 22. Escalona, E., (2000) Factores de riesgos ocupacionales y consideraciones de género en los estudios epidemiológicos de las lumbalgias. Salud de los trabajadores, Vol. 8, Nº 1, pp.51-75


SIMULACIÓN MEDIANTE PSPICE DE UN MODELO SIMPLIFICADO Y DE ALTA EFICIENCIA DE UNA BATERÍA DE PLOMO - ÁCIDO Fernández, Herman

Martínez, Abelardo

Guzmán, Víctor

Giménez, Maria

Resumen: Se presenta un nuevo modelo de una batería de plomo-ácido con un número reducido de elementos, menor tiempo de procesamiento, de alta eficiencia, con capacidad para admitir la parametrización de las resistencias de carga y descarga y de fácil adaptabilidad a otras herramientas de simulación. Para comprobar el funcionamiento del modelo se aplica una fuente externa que permite evaluar los modos de funcionamiento en carga y descarga. El ensayo de simulación demuestra una respuesta satisfactoria del modelo en los modos de carga y descarga, con una eficiencia que supera el 99%. Además se establecen comparaciones con otros modelos desarrollados, destacando sus ventajas y desventajas. Palabras clave: Baterías de plomo – ácido / Modelaje de baterías / Simulación de batería / Fuentes controladas / Bloques funcionales.

PSPICE SIMULATION OF A SIMPLIFIED AND HIGHLY EFFICIENT LEAD-ACID BATTERY MODEL Abstract: A new lead-acid battery model is presented, with a reduced component count, lower processing time, high efficiency, able to parametrize the charge and discharge resistances and easily adaptable to other simulation platforms. To prove the model, an external supply is used to evaluate the charge and discharge operating modes. The simulated test shows the satisfactory model response in the charge and discharge modes, with over 90% efficiency. Furthermore comparisons are made with other models, underlaying its advantages and disadvantages. Keywords: Lead-acid batteries / Battery modeling / Battery simulation / Controlled sources / Function blocks.

I. INTRODUCCIÓN Se ha reportado una gran variedad de modelos para representar los modos de funcionamiento de las baterías de plomo-ácido. Si bien es cierto que se ha conseguido producir modelos simplificados de baterías, basados en circuitos sencillos formados por resistencias, diodos y un condensador como elemento de almacenamiento [1]-[2], que pueden ser simulados en gran parte con las herramientas de simulación disponibles, dichos modelos requieren, por su misma topología, de una asignación directa de los parámetros comerciales de una batería: el voltaje en sus terminales y la capacidad de carga. Ya se ha reportado un modelo de una batería basada en fuentes dependientes y bloques funcionales, que admite estos

parámetros como variables de entrada al mismo [3]. Aunque los ensayos con este modelo demostraron un funcionamiento correcto en los distintos modos de operación, su estructura está formulada utilizando interruptores controlados por tensión, fuentes dependientes de voltaje y corriente, fuentes de corriente tipo espejo y una cantidad importante de objetos de tratamiento analógico (sumadores, restadores y elementos de retardo). Por otra parte, los valores de las resistencias de carga y descarga que utiliza el modelo deben ser calculados previamente a la puesta en marcha del programa, por no emplear el comando de asignación por vía de parámetros externos, lo cual resulta engorroso cuando se requiere examinar los efectos de los cambios en las resistencias en forma dinámica (paramétrica). La eficiencia alcanzada por este modelo fue menor al 85%, con un tiempo de corrida considerable y de difícil portabilidad a otras herramientas de simulación.

Manuscrito finalizado en Puerto Ordaz, Venezuela el 2008/01/25, recibido el 2008/02/14, en su forma final (aceptado) el 2009/02/01. El Dr. Herman Fernández es Profesor Titular en el Dpto. de Electrónica de la Universidad Nacional Experimental Politécnica “Antonio José de Sucre”, UNEXPO Vicerrectorado Puerto Ordaz, Telefax 0286-9621205, correo electrónico hermanfernand@gmail.com. El Dr. Abelardo Martínez Iturbe es Profesor Titular en el Centro de Estudios Superiores de la Universidad de Zaragoza, España. Teléfono 34-976-761974, fax 34-976-762111, correo electrónico amiturbe@posta.unizar.es. Los Dres. Víctor Guzmán Arguis y María Isabel Giménez son Profesores Titulares en el Dpto. de Electrónica y Circuitos, Universidad Simón Bolívar, Sartenejal, Baruta, Caracas, teléfono 0212-9063677, fax 0212-9063631, correos electrónicos vguzman@usb.ve. mgimenez@usb.ve. respectivamente.

Volumen 13, Nº 52, septiembre 2009. pp 231-237

231


Volumen 13, Nº 52, septiembre 2009. pp 231-237 Para lograr obtener un modelo más eficiente, en este desarrollo se ha reducido el número de fuentes dependientes de voltaje gobernadas por tensión, y se han eliminado los interruptores controlados por voltaje y las fuentes tipo espejo de corriente. Con el fin de verificar la efectividad del modelo propuesto respecto a la primera versión, se realiza un ensayo de carga y descarga de la batería, en el que se demuestra su mayor eficiencia y un menor tiempo de procesamiento por parte de la herramienta de simulación. En el presente trabajo se expone un resumen de las ecuaciones usadas para la simulación de una batería de plomo – ácido, se discute el modelo propuesto, se obtiene su respuesta en los modos de carga y descarga, se realizan las mediciones de la

eficiencia de la batería y finalmente, se establecen las comparaciones con otros modelos y se exponen las conclusiones.

II. DESARROLLO 1. Ecuaciones del modelo de una batería de plomo-ácido Con el análisis detallado de las ecuaciones que definen el modelo de las baterías de plomo-ácido realizado por Castañer [4], en la Tabla I se han resumido las ecuaciones que definen el voltaje y la resistencia durante los modos de carga y descarga.

Tabla I. Ecuaciones del modelo de una batería de plomo-ácido [4].

232


Fernández, H. et al. Simulación mediante Pspice de un modelo simplificado y de alta eficicencia de una batería

2. Desarrollo del modelo Una contribución de este trabajo es la propuesta de un esquema simplificado para el modelo de la batería que pueda ser usado por la mayoría de las herramientas de simulación capaces de admitir fuentes controladas y bloques matemáticos

de operaciones fundamentales [5]. La Fig. 1 ilustra el modelo desarrollado, basado en los bloques de procesamiento analógicos disponibles en la librería del Pspice. El modelo propuesto puede ser usado directamente en la mayoría de los programas de simulación que utilizan fuentes controladas y bloques funcionales (PSpice, PSIM, PSCAD, etc.).

Fig. 1 Modelo en bloques de fuentes controladas y bloques funcionales.

233


Volumen 13, Nº 52, septiembre 2009. pp 231-237 La fuente de intensidad Iext se usa para comprobar el proceso de carga de la batería de acuerdo a los parámetros asignados como el voltaje de la batería, el número de celdas en serie, ns, la capacidad Ah y el estado de carga inicial, SOC1. Los elementos Dcarg, F2, Rcarga, Rcmeg, Ercarga y Ecarga representan el circuito de carga de la batería. El conjunto F2 – Rcarga – Ercarga modela la resistencia de carga R1. Debido a las restricciones del programa Pspice, que no permite asignar directamente variables calculadas en los nodos del circuito como parte de los parámetros del modelo de la resistencia disponible en la librería del Pspice, se ha representado la resistencia de carga con una topología formada por una fuente de corriente controlada por corriente, F2, actuando en configuración tipo “espejo de intensidad”, para producir un voltaje equivalente en la resistencia 1Ω, de magnitud igual al valor de corriente proveniente de la fuente externa conectada en la entrada del banco de baterías. La caída de voltaje en la resistencia se aplica como entrada a la fuente de voltaje controlada por voltaje, Ercarga, que genera un voltaje de salida de acuerdo a la ecuación que determina la resistencia de carga de la batería. Los terminales de salida del módulo Ercarga están conectados en serie con la fuente Ecarga. Este conjunto de partes (exceptuando la fuente Ecarga) permite representar la resistencia de carga en función del valor del estado de carga calculado por el propio modelo, el número de celdas conectadas en serie y el estado de carga inicial; estos dos últimos parámetros debe ser asignados externamente al modelo mediante la instrucción “PARAMETERS”. Es necesario incluir la resistencia Rcmeg para evitar el “error de flotación” que genera Pspice cuando detecta un nodo flotante

respecto al terminal común del circuito. Cuado se detecta esta situación, la corrida del programa es abortada automáticamente. El voltaje de carga interno de la batería se describe mediante la fuente dependiente Ecarga. El circuito de descarga de la batería se modela de manera similar, tomando en consideración la polaridad de la corriente de descarga que circula a través de Desc, cuando se aplica una fuente externa. Es importante destacar que este modelo se basa en la existencia en Spice de las fuentes dependientes de voltaje controladas por voltaje, denominadas fuentes tipo “E” en el programa. El valor de la tesión de salida de estos elementos se define sobre la base de fórmulas que contienen valores constantes, variables provenientes calculadas en los nodos del circuito y parámetros externos asignados mediante el comando “PARAMETERS” del programa. Esto permite definir el circuito para obtener el estado de carga de la batería, SOCN, a partir de la ecuación del estado de carga, tomando en cuenta el voltaje, Vbat, la corriente de la batería, Ibat y el estado inicial de carga, SOC1. El estado de carga del banco de baterías es calculado por los bloques aritméticos integradores (bloques de forma triangular) mostrados en la Fig.1; el término del estado de carga en el instante anterior (tτ), es calculado por el bloque de procesamiento d/dt. Para comprobar la respuesta del modelo se ha realizado un ensayo usando los datos reportados en la Tabla II y considerando que la celda es de 2,148V.

Tabla II. Parámetros de la simulación

Para validar el funcionamiento del modelo se ha considerado un proceso de carga – descarga empleando una fuente de corriente bipolar en la entrada del circuito descrito en la Fig.1.

3. Presentación y Discusión de Resultados Para evaluar el proceso de carga, se aplica una fuente de corriente de +10A. Se ha asignado un valor inicial de estado de carga, SOC1=0,5. Los resultados obtenidos se ilustran en la Fig. 2a. En dicha figura se aprecia como la batería alcanza un estado de carga de 0,951 al transcurrir aproximadamente 5 horas. Este valor se corresponde con el valor de tiempo

234

necesario para que la batería se cargue a 2,148V, tomando en cuenta el estado inicial del 50%. La energía transferida a la batería durante el proceso de carga es de 531,261Kwh. Cuando se somete la batería a un proceso de descarga, se toman nuevamente los valores al cumplirse 5 horas del proceso. Como se puede apreciar en la Fig.2b, la batería se descarga nuevamente alcanzando un SOC1=0,5. La energía extraída de la batería es de 530,500Kwh.


Fernández, H. et al. Simulación mediante Pspice de un modelo simplificado y de alta eficicencia de una batería

(a)

(b)

Fig. 2 Circuito de prueba del modelo con fuente de corriente senoidal y resistencia para ajustar el valor inicial de carga. Evolución de las variables Intensidad de descarga, Energía devuelta y Estado de carga durante los períodos de carga y descarga. (a) Período de carga. (b) Período de descarga.

235


Volumen 13, Nº 52, septiembre 2009. pp 231-237 La eficiencia calculada durante el proceso de carga-descarga simulado con el nuevo modelo ha sido del 99,85%, lo cual demuestra un comportamiento del modelo acorde con los valores asignados en el ensayo y con los resultados obtenidos en trabajos anteriores, donde la eficiencia conseguida varió entre el 90% [6] y cerca del 100% [7].

La Tabla III resume un estudio comparativo del modelo simplificado respecto a la primera versión. Ambos modelos funcionan adecuadamente, sin embargo, se aprecia que el modelo simplificado ofrece mejoras significativas respecto al modelo de bloques funcionales, en cuanto al tiempo de simulación, número de elementos y portabilidad a otros programas.

Tabla III. Comparación de los modelos basados en bloques funcionales

Comparándolo con el modelo desarrollado por Castañer (Tabla IV), el modelo simplificado es ahora aproximadamente igual en cuanto al número de partes. Sin embargo, el modelo propuesto en este trabajo se puede adaptar más fácilmente a otras herramientas computacionales que dispongan de bloques de procesamiento aritméticos. El modelo desarrollado permite asignar los parámetros de capacidad de carga de la batería en Ah y del estado inicial de carga de la misma, necesarios para determinar el tiempo de respaldo que puede suministrar un banco de baterías cuando se usa como parte de un vehículo eléctrico, una fuente de alimentación ininterrumpida o un sistema fotovoltaico [8]- [10].

Tabla IV. Comparación Castañer – Modelo mejorado

236


Fernández, H. et al. Simulación mediante Pspice de un modelo simplificado y de alta eficicencia de una batería

III. CONCLUSIONES

Energy Conversion, vol. 7, No. 1, March 1992, pp. 93-97.

1. Usando los elementos disponibles en la librería “ABM” del Pspice, se ha podido representar una resistencia variable usando fuentes dependientes de voltaje y corriente.

2. Casacca, M., and Salameh, Z. “Determination of LeadAcid Battery Capacity Via Mathematical Modeling Techniques”. IEEE Trans. On Energy Conversion, vol. 7, No. 3, September 1992, pp. 442-446.

2. Además de aceptar parámetros externos fijados por el usuario, cambia su magnitud de acuerdo al valor registrado en los nodos del circuito.

3. Fernández, H., et. al. “Modelaje y simulación de una batería de plomo-ácido mediante fuentes dependientes de voltaje-corriente y bloques funcionales”. Universidad, Ciencia y Tecnología, Marzo 2005, Nº33, Vol.9, pp.35-41.

3. El modelo de la batería de plomo – ácido, trabaja satisfactoriamente. 4. Para la evaluación del modelo sólo se requieren asignar parámetros como la tensión de la celda, el valor Ah y el estado inicial de carga. 5. Este modelo permite demostrar la evolución de los estados de carga y descarga del banco cuando se aplica una fuente que obliga a conmutar entre dichos estados dinámicamente. 6. El modelo desarrollado permite asignar los parámetros de la capacidad de la batería en Ah y del estado inicial de carga del conjunto, necesarios para determinar el tiempo de respaldo que proporciona la energía disponible en la batería. 7. Este es uno de los elementos más importantes cuando se trata de modelar la operación global de sistemas complejos tales como cargadores de baterías, fuentes de alimentación ininterrumpida, sistemas fotovoltaicos, etc.

4. Castaner. L. and Silvestre, S. “Modelling Photovoltaic Systems”, Wiley, London 2002, pp. 117-131. 5. Fernández, H. “Contribución al diseño de células de generación mixta eólica y fotovoltaica para ser usadas en emplazamientos aislados”. Tesis de doctorado en Ingeniería Electrónica. Universidad de Zaragoza. Septiembre 2007, pp.48-55. 6. Krim F. “A novel intelligent battery charge controller for stand-alone PV system”. EPE Conference, EPE, Gratz 2001, pp 1-9. 7. Gergaud O, et al. “Energy modeling of a lead-acid battery within hybrid wind/photovoltaic systems”. EPE Conference, EPE, Toulouse 2003, pp 1-10. 8. García J. F., et al. “El vehículo eléctrico, tecnología, desarrollo y perspectivas de futuro”. Mc. Graw Hill, Madrid, 1997, pp.136-155.

IV. REFERENCIAS

9. Gualda J. “Sistemas de alimentación ininterrumpida. “Electrónica y automática industriales”. Mundo electrónico. Barcelona, España, 1979, pp.139-153.

1. Salameh, Z., Cassacca, M., and Lynch W. “A Mathematical Model for Lead-Acid Batteries Determination of Lead-Acid Battery ”. IEEE Trans. On

10. Gualda J.A., Martínez S., y Martínez P. “Electrónica industrial. Técnicas de potencia”. Alfaomega, Madrid, 1992, pp. 444-456.

237


NOTA TÉCNICA PROPUESTA DE UN MECANISMO DE MEDICIÓN DE LAS VARIABLES QUE AFECTAN LA EFICIENCIA DE LAS INSTITUCIONES PÚBLICAS ENCARGADAS DE GENERAR BIENESTAR SOCIAL: CASO VENEZUELA Viloria Silva, Amelec Vásquez Stanescu, Carmen

Miguel Ángel, Núñez

Resumen: La investigación tiene por objeto desarrollar un mecanismo de medición que permita responder a una pregunta que toda sociedad organizada se hace constantemente ¿Están bien administrados los recursos económicos del estado para la generación de bienestar social? La metodología consiste en la selección de una serie de variables socioeconómicas que permitan medir la eficiencia y la productividad del Estado Venezolano en la administración de su producto interno bruto, gasto público y social, para la generación de empleo, alfabetización, incremento de la esperanza de vida, disminución del nivel de pobreza, etc. La herramienta utilizada para la determinación de la eficiencia es el Análisis Envolvente de Datos (DEA), mientras que para la productividad es el Índice de Malmquist. El porcentaje de ineficiencia obtenido fue establecido como una cuantificación del conjunto de vicios (corrupción, burocracia, etc.) que afectan a las instituciones públicas encargadas de generar bienestar social. El aporte al conocimiento de este trabajo radica en que el método utilizado permite una medida real de los vicios y no una simple percepción de los mismos, análisis de sensibilidad, bajo costo y alta adaptación a cualquier periodo y región que se desee evaluar. Palabras clave: Productividad/ Eficiencia/ Análisis Envolvente de Datos/ Índice de Malmquist/ Bienestar Social.

PROPOSAL OF A MECHANISM OF MEASURING VARIABLES THAT AFFECT THE EFFICIENCY OF PUBLIC INSTITUTIONS IN CHARGE OF GENERATING SOCIAL WELLBEING: VENEZUELA CASE Abstract: The research has for object to develop a mechanism of measurement that allows to answer to a question that all organized society does to herself constant. Are the economic resources of the state well administered for the generation of social well-being? The methodology consists of the selection of a series of socioeconomic variables that allow to measure the efficiency and the productivity of the Venezuelan state in the administration of his internal brute product, public and social expenditure, for the generation of employment, literacy, increase of the life expectancy, decrease of the level of poverty, etc. The tool used for the determination of the efficiency is the Data Envelopment Analysis (DEA), whereas for the productivity is Malmquist's Index. The percentage of inefficiency obtained was established as a quantification of the set of vices (corruption, bureaucracy, etc) that concern to the public institutions established for to generate social well-being. The contribution to the knowledge of this work takes root in that used method allows a real measure of the vices and not a simple perception of the same ones, a analysis of sensibility of the dates, a low cost and adjustment high to any period and region that we want to evaluate. Keywords: Productivity/ Efficiency/ Data Envelopment Analysis (DEA)/ Malmquist's Index/ Social Wellbeing.

Manuscrito finalizado en Barquisimeto, Venezuela, el 2008/03/15, recibido el 2009/02/13, en su forma final (aceptado) el 2009/03/23. La Ing. Amelec Jesús Viloria Silva es Profesor Contratado de la Universidad Nacional Experimental de las Fuerzas Armadas (UNEFA), Calle 51 con Carrera 19 y 20, BarquisimetoEdo. Lara, Venezuela, teléfonos: 0412-4263386, correo: amelecv@gmail.com. La Dra. Carmen Luisa Vásquez Stanescu es Profesora Asociada en el Departamento de Ingeniería Eléctrica de la Unexpo, Vicerrectorado Barquisimeto, Av. Corpahuaico con Av. Lagalle, Barquisimeto, Edo. Lara, Venezuela, teléfonos: 0251-4414654, correo electrónico cvasquez@bqto.unexpo.edu.ve. El Dr. Miguel Ángel Núñez Bottini es Profesor jubilado de la Unexpo, Vicerrectorado Puerto Ordaz, Final Calle China, Villa Asia, telefax: 0286-9611579, correo electrónico mnunezb@cantv.net. Este trabajo fue presentado en el Congreso ASEPELT, realizado el 18, 19 y 20 de junio de 2008 en la Facultad de Economía IQS, Universidad Ramón Llull. Barcelona, España. Ha sido autorizada su publicación en nuestra Revista Universidad, Ciencia y Tecnología por el Dr. Carlos Muslares, Representante de ASEPELT, institución que tiene Derechos de coautoría de este trabajo.

Volumen 13, Nº 52, septiembre 2009. pp 239-249

239


Volumen 13, Nº 52, septiembre 2009. pp 239-249 I. INTRODUCCIÓN En muchas ocasiones se está sentado frente al televisor y se escucha repetidas veces versiones sobre la evolución económica de la nación. “vamos por un camino equivocado”, “estamos mal pero vamos bien”, “los niveles de pobreza han disminuido drásticamente en estos últimos años”, entre otros. Las anteriores son partes de las diversas opiniones que proyectan amplios matices positivos y negativos acerca de la utilización de los recursos financieros del estado. Probablemente usted estará pensando ¿Existirá una técnica que desde el punto de vista científico permita corroborar o desmentir las anteriores aseveraciones? y ¿Por qué no utilizarla?

Figura 1. Modelo DEA Básico (Cero o CCR).

En un primer momento la lógica dice que se debería calcular la relación entre el dinero que produce la nación y el bienestar social que se refleja en sus habitantes. Sin embargo, el problema va más allá, debido a que no todo lo que se produce puede y debe ser sólo para uso social, también existen aspectos de tipo macroeconómico que hay que cubrir y que han sido parte de la historia de los países latinoamericanos, por ejemplo la deuda externa.

En la Figura 1, la mayor eficiencia está simbolizada por la distancia que va de la línea de salida a la línea meta (frontera eficiente), donde se encuentra el hermano ganador, y la distancia radial que va desde el perdedor al ganador representa la eficiencia que le faltó al primero para lograr el triunfo, es decir, el grado de ineficiencia. Lo anterior es el procedimiento que sigue el DEA.

Entonces, ¿Qué técnica utilizar? Una solución pudiese ser el Análisis Envolvente de Datos (DEA, por sus siglas en inglés), el cual constituye una excelente metodología basada en la programación lineal, cuyo objetivo es medir y comparar la eficiencia de varios procesos productivos similares en un determinado período de tiempo. Para comprender un poco la técnica DEA, imagínese lo siguiente: dos (2) hermanos con las mismas capacidades físicas que deciden competir en una prueba de atletismo regional, evidentemente el entorno será el mismo para ambos (la misma intensidad de calor, dirección del viento, etc.). Ahora bien, suponga que en el instante de tiempo en el cual uno de los hermanos cruza la línea de meta, el otro se encuentra a una distancia de 5. Es obvio que el más eficiente fue el hermano ganador, ya que supo utilizar los mismos recursos que poseía el otro para obtener el triunfo. ¿Eso quiere decir que el perdedor no fue eficiente?, la respuesta es no, ya que desde la salida hasta la meta el logró recorrer una cierta distancia, pero, le faltó 5 m para conseguir la misma eficiencia que su hermano, quien por haber ganado se dice que obtuvo el máximo rendimiento. Siguiendo con el ejemplo anterior, si ahora se desea representar a los hermanos en el instante en el cual se produjo la victoria, lo más seguro es que se dibujaran como puntos en un plano y, a la línea meta justo donde se encuentra el hermano ganador, si es un modelo a escala, el perdedor se representaría a 5 m de ella.

240

Por otra parte, si los hermanos compitieran nuevamente en otro período de tiempo y se quisiera comparar la eficiencia obtenida por cada uno de ellos con respecto a sus propias eficiencias en la carrera inicial, se tendría que utilizar el Índice de Productividad de Malmquist. Ahora bien, el presente trabajo pretende cuantificar a través del DEA y el Índice de Malmquist, la eficiencia y la productividad respectivamente del Estado Venezolano en la utilización de su producto interno bruto (PIB), gasto social y público para generar bienestar humano. El objetivo es utilizar las medidas de ineficiencia obtenidas a través del DEA para cuantificar las variables (corrupción, burocracia, etc.) que afectan la eficiencia de las instituciones públicas encargadas de generar el bienestar social de una nación, y por ende, responder a la interrogante que toda sociedad organizada se hace ¿Están bien administrados los recursos económicos del estado? En una primera parte, se define la productividad y los elementos que la componen, para luego pasar a conceptualizar formalmente la técnica DEA y el Índice de Malmquist. En la metodología se muestran los programas computacionales utilizados para la resolución de los sistemas de ecuaciones lineales. En la etapa de los resultados se señalan las variables socioeconómicas seleccionadas que sirven de entradas y salidas al proceso de cuantificación. Finalmente, se presenta una serie de tablas con los datos obtenidos tras la medición propuesta al caso del Estado Venezolano.


Viloria, A. et al. Propuesta de un mecanismo de medición para el conjunto de vicios que afectan a las instituciones

II. DESARROLLO

1. La productividad y sus elementos básicos La Figura 2 muestra la integración de los tres (3) principales factores que componen la productividad: lo económico, lo humano y la producción, cada uno de ellos relacionados entre si.

Figura 2. Esquema de los factores e interrelaciones que componen a la productividad.

El dinero por su parte, permite justipreciar el trabajo del hombre, quien a su vez genera productos y servicios a un contexto cada día más exigente. Mientras que el entorno crea demanda, la tecnología evoluciona repercutiendo en conocimiento para el hombre, quien administra el dinero producido para impactar en la sociedad [1]. ¿Qué criterios permiten saber si un proceso es productivo? Siguiendo el esquema de la Figura 2, se encuentra que para medir la productividad es necesario cuantificar los cuatro (4) indicadores siguientes: sobre el recuadro que representa la producción se puede medir la máxima relación producto/trabajo como la eficiencia del proceso, mientras que la relación producto/demanda se interpreta como su efectividad. Ahora bien, la eficacia definida como el logro de objetivos económicos que brindan crecimiento, tanto al hombre como al aspecto tecnológico, se visualiza entre los recuadros dinero, producción y entorno (en el sentido de las manecillas del reloj). En dirección contraria, se concibe la relevancia como el desempeño administrativo que causa impacto en la sociedad.

2. El análisis envolvente de datos y sus modelos En términos técnicos, el modelo tiene como objetivo construir una frontera de eficiencia cuando se desconocen relaciones funcionales entre las entradas y las salidas que intervienen en un problema. Pero, ¿Cómo construir esa frontera cuando se manejan distintas variables de entrada y salida? Para ello se debe empezar por establecer las limitaciones que posee esta metodología, entre las cuales se encuentran [2]: • La exigencia de que las unidades analizadas sean homogéneas para evitar que la ineficiencia de una unidad se deba a la no uniformidad en la escala de producción o al mal uso de las entradas y las salidas que caracterizan a la unidad. • Para homogenizar las dimensiones de las entradas y las salidas a la unidad, se debe introducir un sistema de pesos adecuados que las normalice. En algunas ocasiones esas ponderaciones resultan en valores nulos o muy pequeños que pueden minimizar o cancelar una variable relevante. • Cualquier alejamiento de la frontera de eficiencia de alguna asignación de recursos y productos se supone que es por la ineficiencia de la unidad productiva, y no por perturbaciones aleatorias. • La confiabilidad depende del número y relevancia de las variables de entrada, salida y unidades a utilizar. Por otra parte, se supone que una unidad necesita uno o varios recursos para obtener uno o varios productos, utilizando la definición clásica se puede definir la eficiencia con la ecuación (1) [3]: (1)

Para resolver el problema de la homogeneidad [3], se normaliza tanto el numerador como el denominador de la ecuación (1), resultando la (2):

(2)

En manera general este cociente se puede expresar en forma explicita con la ecuación (3):

(3)

241


Volumen 13, Nº 52, septiembre 2009. pp 239-249 Donde:

una pequeña cantidad positiva [5]. El modelo en su forma lineal se muestra a continuación:

= eficiencia observada. Maximizar: = peso asociada al r-ésimo producto o salida. = peso asociado al i-ésimo insumo o entrada.

(4)

= cantidad del r-ésimo producto o salida en la j-ésima unidad. Sujeto a: = cantidad del i-ésimo insumo o entrada en la j-ésima unidad. (5) Por lo tanto, el problema asociado a la ecuación (3) es encontrar un conjunto adecuado de pesos que la satisfagan. (6) Modelo Cero o (CCR) Siguiendo con el ejemplo inicial de los dos (2) atletas, es obvio que la relación salida/entrada para el hermano ganador es mayor que para el perdedor, lo que indica de manera general que aquellos objetos de estudio que se ubican en la frontera eficiente serán los que posean la máxima relación salida/entrada. ¿Qué técnica permite lograr las mediciones anteriores?, esa fue una pregunta que se hizo E. Rhodes (1978) en su tesis doctoral, dirigida por W. Cooper. Ellos plantearon la utilización de la técnica de programación matemática para tal fin y a su vez, indicaron que en el momento de realizar la maximización de la función, era necesario establecer una serie de restricciones, tales como [4]: • Las relaciones ponderadas salidas/entradas deberían ser menor que uno, ¿Por qué? Esto para que el radio de eficiencia no supere a la unidad. • Los pesos para cada variable de entrada o salida deben ser valores mayores o iguales a cero.

La eficiencia relativa orientada a la salida, se define como el cociente entre la distancia del eje de entradas (eficiencia 0) a una unidad cualquiera y la distancia del eje de la entradas a la frontera eficiente. Mientras que la eficiencia relativa, orientada a las entradas es conceptualizada como el cociente entre la distancia de una unidad dada al eje de las salidas (cero recursos) y la distancia de la frontera al eje de las salidas [2].

(7)

Es una constante que en la mayoría de programas se asume como 10-6, este modelo en la práctica no es comúnmente utilizado para calcular la eficiencia si no su dual asociado [3]. Minimizar: (8)

Sujeto a:

(9)

(10)

Donde: = eficiencia observada de la j-ésima unidad.

Es de hacer notar que el hecho de que las ponderaciones en algún momento dado puedan asumir un valor de cero (0), representa una posibilidad, que una variable de carácter importante sea anulada. Este problema lo resuelve A. Charnes (1978), cuando incorpora al modelo de E. Rhodes (1978) la restricción de que cada una de las ponderaciones era mayor a

242

= son las ponderaciones obtenidas para la j-ésima unidad, del programa lineal original. y = variables de holgura y artificiales, introducidas para transformar las desigualdades en igualdades.


Viloria, A. et al. Propuesta de un mecanismo de medición para el conjunto de vicios que afectan a las instituciones

Toda esta información puede parecer abstracta, pero brinda los valores de eficiencia buscados. La combinación de las ecuaciones anteriores permite determinar aquella unidad que bajo un nivel fijo de recursos tenga el mejor nivel de producción o, dado un nivel de producción, utilice la menor cantidad de recursos. En términos generales [2]. •

Si la j-ésima unidad es ineficiente, porque es posible hallar otra unidad que genere mejores niveles de productividad.

Es posible que el valor de de cero.

ubicados en la frontera, dicho valor será igual a la unidad. Por lo tanto, se concluye que el punto 1 y 3 poseen la misma eficiencia relativa. Es decir que para cualquier unidad ubicada por debajo de la frontera su eficiencia será menor que uno. Lo anterior, fue representado por R. Fare y A. Grosskopf (1985), agregando al modelo DEA original una nueva restricción [6].

, porque siempre se puede asignar y al resto de ponderaciones el valor

(11)

Este modelo proporciona la eficiencia global, que es la suma de la eficiencia de escala y la técnica pura [2]. A su vez, define la eficiencia como una razón constante entre los recursos utilizados por la unidad y los productos o salidas que obtiene, es decir, si se aumenta en un valor x las entradas del sistema, las salidas aumentarán en un mismo valor x.

Donde es la eficiencia relativa de la j-ésima unidad. Este modelo proporciona la eficiencia global, que se define como una razón variable creciente [2], es decir a medida que se aumenta en un valor x las entradas, aumenta en un valor mayor que x las salidas.

Modelo Uno o (FG)

Modelo Dos o (ST)

Supóngase que en la carrera de atletismo anterior, el hermano ganador quedó empatado con una tercera persona cuyas condiciones físicas estaban por encima de las suyas. Se puede decir que el primero sigue siendo el más eficiente porque con menos recursos obtuvo la misma salida. Sin embargo, ambos personajes llegaron a la meta, es decir se encuentran en la frontera eficiente. Lo anterior se ilustra en la Figura 3:

Continúese comparando los tres (3) atletas presentados en los modelos anteriores, pero, esta vez tómese como criterio de frontera eficiente aquellos personajes que utilizaron la mínima cantidad de recursos para lograr una salida dada. Entonces, ambos hermanos (el ganador y el perdedor) estarían ubicados en la frontera eficiente y la eficiencia del tercero sería comparada con la de ellos. Ver Figura 4.

Figura 3. Modelo Uno o FT.

Figura 4. Modelo Dos o ST.

Esto implica que el cociente salida/entrada es mayor para el hermano ganador que para el tercer participante, pero, si al igual que en el modelo anterior para calcular el porcentaje de eficiencia relativa, se divide la distancia vertical de una unidad cualquiera al eje de entradas (eficiencia 0), entre la distancia de esa misma unidad a la frontera eficiente, se encontrará que para todos los puntos

Si se calcula la eficiencia como se ha venido haciendo, pero esta vez con orientación a las entradas, se puede observar que la eficiencia relativa para el punto 1 y 2 es la misma (uno). Mientras que la eficiencia relativa para el punto tres (3) será mayor que uno (1). En términos generales lo anterior es cierto, cuando se calculan

243


Volumen 13, Nº 52, septiembre 2009. pp 239-249 eficiencias relativas de cualquier unidad de producción, tomando como referencia de frontera eficiente aquéllas que utilicen la menor cantidad de recursos para una salida dada. Esto fue representado por L. Seiford y R Thrall (1990), agregando la siguiente restricción al modelo original [7]: (12)

Este modelo proporciona la eficiencia global, y la define como escala variable decreciente [2], es decir, si se aumenta una entrada en un valor x, la salida aumentará en un valor menor que x.

Este modelo proporciona la eficiencia técnica pura, a escala de rendimiento no constante [2]. Es decir que para un aumento en un valor x de la entrada, se puede obtener un aumento de las salidas en un valor menor, mayor o igual que x.

3. El índice de productividad de Malmquist El índice de Malmquist se utiliza para medir la eficiencia de una misma unidad en dos (2) periodos de tiempo diferentes. Su cálculo se realiza utilizando la ecuación (15) [9]:

(14) Modelo Tres o (BCC) Para finalizar con la explicación acerca de los modelos primales de la técnica DEA, supóngase la hora que la frontera se teje alrededor de aquellas unidades que han alcanzado las mayores salidas para unos recursos dados, y las menores entradas para un determinado producto. Entonces, si se representa a los tres atletas originales, se tendrá que todos estarán ubicados en la frontera eficiente, tal y como se muestra en la Figura 5.

Figura 5. Modelo Tres o BCC.

Según la Figura 5, la eficiencia relativa expresada como una distancia a los ejes siempre será menor o igual a uno, con respecto a la frontera que corresponde a las unidades que utilizaron menores recursos y, mayor que uno, con respecto a las unidades que consiguieron las mayores salidas. Lo anterior, fue representado por R. Banker, A. Charnes y W. Cooper (1984), agregando la siguiente restricción al modelo original DEA [8]:

(13)

244

Los factores importantes a considerar en este índice son la eficiencia marcada con el superíndice Dt+1 y el subíndice Tt+1, que corresponde al factor k0 de un modelo CCR para una unidad en evaluación, teniendo en cuenta los datos del segundo período a evaluar. El segundo factor es aquel marcado con Dt y el subíndice Tt corresponde al factor de un modelo CCR para la unidad de evaluación, teniendo en cuenta los datos del primer período a valorar. Las restantes eficiencias (la marcada con el superíndice Dt+1 y Dt , así como el subíndice Tt y Tt+1 respectivamente) corresponden al factor k0 de un modelo CCR para la unidad en evaluación, empleando los datos del primer período en evaluación al lado izquierdo de las ecuaciones y del segundo periodo al lado derecho y viceversa, correspondientemente a las últimas dos (2) eficiencias mencionadas [9]. La primera parte del índice de Malmquist, denominada cambio en eficiencia técnica, representa el cambio en la eficiencia de uso de los insumos (entradas) para entregar productos (salidas). Un valor mayor que 1, implica que la unidad de producción ha mejorado el uso de entradas para producir salidas, mientras que un valor igual a 1, implica que no ha habido ninguna mejoría. Por el contrario una medida menor que 1 implica que la unidad de producción es menos eficiente en el uso de las entradas para producir salidas. La segunda parte del índice de Malmquist, denominada cambio de eficiencia de la industria, captura el cambio en la frontera de la industria. Su interpretación en términos de los resultados obtenidos es contraria al caso de la primera parte del indicador, pues una mejora en los niveles de la frontera, reportará un valor menor que uno y viceversa [9]. A su vez, el índice de Malmquist se descompone según Fare, Grosskopf, Lindaren y Ross (1989 y 1992), en: cambio de eficiencia relativa y cambio de eficiencia técnica. Por su parte, Fare, Grosskopf, Norris y Zhang (1994), consideran rendimientos variables a escala y descomponen el índice en:


Viloria, A. et al. Propuesta de un mecanismo de medición para el conjunto de vicios que afectan a las instituciones

cambio eficiencia relativa, cambio de eficiencia técnica pura y cambio de eficiencia de escala [2].

4. Metodología La metodología consiste en la selección de una serie de indicadores socioeconómicos que permiten definir a través de la aplicación de la técnica DEA la eficiencia o ineficiencia del Estado Venezolano en la generación de bienestar social. Se toman como muestras los datos de indicadores sociales entre la década 1996 – 2006. Éstos son obtenidos de La Comisión para el Desarrollo de América Latina y el Caribe (CEPAL)1, La Organización de las Naciones Unidas (ONU)2 y del Instituto Nacional de Estadística Venezolano (INE)3. Utilizando los siguientes programas computacionales se resuelven las ecuaciones: • Efficiency Measurement System (EMS), version 1.3, de la Holger Scheel. Para el cálculo del índice de Malmquist y la supereficiencia. • Ábaco PL, versión 1.0, de la UNEXPO. Para el cálculo de las eficiencias de todos los modelos [10]. • Ábaco DEA, versión 1.0, de la UNEXPO. Para la

verificación de los resultados obtenidos con EMS y Ábaco PL, modelos 0 y 3 [11]. Cabe destacar, que al utilizar la técnica DEA para el cálculo de eficiencias de diferentes periodos de tiempo es necesario deflacionar los datos aun mismo tiempo de referencia usando, por ejemplo, el Índice de Laspeyres [2]. Para el caso que nos atañe todas las variables en Bolívares son llevadas al año base 2000, para evitar errores debido al factor inflación. Por otra parte, el avance tecnológico promueve un cambio en la frontera eficiente, por lo que resulta inexacto muchas veces calcular eficiencia para periodos de tiempo largos utilizando DEA. Por ello, en este trabajo se demuestra con la aplicación de la descomposición del índice de Malmquist que no existe un cambio técnico significativo durante el periodo analizado.

4. Resultados obtenidos En las tablas I y II se indican las variables de entrada y salida seleccionadas para la determinación de los elementos que afectan la eficiencia de las instituciones públicas. Las entradas se establecen per cápita, para incluir el aumento en el número de habitantes por año.

Tabla I. Variables de entrada con base al año 2000 para los modelos DEA

Tabla II. Variables de salida de tipo social para los modelos DEA

1

Ver página Web: http://www.un.org/spanish/esa/progareas/stats.html Ver página Web: http://www.eclac.cl/ddpe/ 3 Ver página Web: http://www.ine.gov.ve/ 2

245


Volumen 13, Nº 52, septiembre 2009. pp 239-249 Los resultados se procesan para cada año del periodo 1996 – 2006. En la tabla 3, se reportan las eficiencias correspondientes a los cuatro (4) modelos DEA primales, así como el calculo de la eficiencia de escala, expresada como

una razón entre la eficiencia global de modelo 0 y la eficiencia técnica pura del modelo 3. El retorno, puede ser constante (A), creciente (B) o decreciente (C), tal como se indica en la tabla III.

Tabla III. Eficiencias en la utilización del gasto social, Venezuela, periodo 1996 – 2006

Por su parte, las ineficiencias por años se relejan en la tabla IV las cuales representan la diferencia existente entre el 100%

correspondiente a la frontera estocástica y el valor de eficiencia obtenida para cada modelo en la tabla III.

Tabla IV. Ineficiencias en la utilización del gasto social, Venezuela, periodo 1996 – 2006

El cálculo de los cambios en la productividad y de las distintas eficiencias en el periodo de estudio, es realizado utilizando el índice de Malmquist y las descomposiciones de Fare,

246

Grosskopf, Lindaren y Ross (1989 y 1992), y de Fare, Grosskopf, Norris y Zhang (1994). En la tabla V, se presentan los valores obtenidos.


Viloria, A. et al. Propuesta de un mecanismo de medición para el conjunto de vicios que afectan a las instituciones

Tabla V. Descomposición del índice de Malmquist para generación de bienestar social

5. Discusión de resultados La eficiencia global indica la relación que existe entre los recursos utilizados en un año hipotético (que se considera posee una economía de escala constante) y los recursos consumidos en los años que son objetos de estudio; ambos con los mismos productos generados. Como en el año hipotético de referencia no se están considerando las deseconomías, es evidente que este utiliza menos recursos que un año del periodo real 1996-2006, por lo tanto, las eficiencias reflejadas en los resultados son menores o iguales que la unidad, siempre y cuando la orientación sea hacia las entradas.

(corrupción, burocracias, partidismos, etc.) que afectan a las instituciones públicas del país y que no permiten impactar estructuralmente en la calidad de vida de sus habitantes, a pesar del inminente incremento en el gasto social por parte del estado. En la Figura 6 se muestra la evolución del conjunto de vicios que han afectado a las instituciones financieras venezolanas durante la década 1996-2006 utilizando las ineficiencias de escala presentadas en la tabla IV.

Según la tabla III, al año 1998 le corresponde la mayor eficiencia en la utilización de los recursos para producir bienestar social. Mientras, que los años 2003 al 2006, evidencian una drástica disminución de la eficiencia técnica, global y de escala. Si se analiza los datos se puede observar que entre los años anteriormente nombrados se ha estado incrementado el gasto social, pero sin embargo, los resultados no han sido proporcionales con lo esperado. El cálculo de las supereficiencia para la tabla III no es relevante, ya que solo existe una unidad ubicada en la frontera eficiente. Inversamente a los datos anteriores la tabla IV muestra los valores de ineficiencias para cada año de la década de estudio, en esta se puede observar como en los años que van del 2004 al 2006 las ineficiencias para generar bienestar social se han incrementado drásticamente con respecto a los valores obtenidos en otros años de la tabla IV. Los valores mínimos correspondieron a los años 1996 y 1998. Las ineficiencias calculadas en la tabla IV pueden ser interpretadas como una cuantificación del conjunto de vicios

Figura 6. Evolución del conjunto de vicios que afectan a las instituciones públicas venezolanas, década 1996-2006

La tabla V muestra la variación de la productividad en la utilización de recursos para producir impacto social. En ella, los periodos 1997-1998, 2001-2002, 2002-2003, evidencian un aumento de productividad en un 35,15%, 13,97% y 1,82% respectivamente. La caída más pronunciada del índice ocurrió del 2005 al 2006.

247


Volumen 13, Nº 52, septiembre 2009. pp 239-249 El progreso tecnológico se mantuvo estancado durante la década de estudio ya que se mantiene constante el valor de la eficiencia técnica relativa. Por su parte, la alta productividad del periodo 1997-1998 corresponde a un aumento en la eficiencia de escala y técnica, lo que implica un acercamiento a la frontera tecnológica, sin embargo, no ha sido lo suficientemente significativa como para manifestarse en un progreso técnico. Se puede decir entonces que en la década 1996-2006 no se produjo una variación significativa entre la distancia de la frontera tecnológica de rendimientos constantes de un año anterior a uno posterior. Es de hacer notar que el cambio de eficiencia de escala, representa el cociente entre: el valor de la función distancia que satisface rendimientos constantes y variables. Ahora bien, como dicho valor no sufre modificaciones para el periodo señalado, se puede decir que la relación se mantuvo constante. De lo anterior se determina que: •

248

Las variaciones de eficiencias en la utilización del gasto social muestran que una misma cantidad de dinero para un año determinado no se manifiesta en un retorno igual o superior para otro año. Según la descomposición del índice de Malmquist no está ocurriendo un progreso tecnológico significativo que pueda causar las anteriores variaciones, por lo tanto, estas fluctuaciones se adjudican a una mala administración del dinero e incluso se podrían tomar como una medida de los vicios de las instituciones responsables que no permite que el gasto social cumpla su cometido. Los cambios en los índices de Malmquist fueron proporcionales a los cambios de eficiente registrado por la técnica de Análisis Envolvente de Datos. La utilización de la técnica DEA para medir la eficiencia de periodos de tiempo se ve afectada por el movimiento de la frontera eficiente debido a un progreso tecnológico. En el presente caso se supuso que la frontera permanecía invariable con el tiempo, hecho que posteriormente se demostró con la descomposición del índice de Malmquist donde se puede observar que no ocurre ningún cambio significativo en el progreso técnico o tecnológico de la nación, que afectase directamente las variables utilizadas. La flexibilidad y capacidad de adaptación representan ventajas asociadas a la metodología DEA. Sin embargo, también se ve afectada por limitaciones. La estimación de la frontera DEA y los índices de eficiencia se ven influenciados por los siguientes aspectos: heterogeneidad de las unidades evaluadas; omisión (inclusión) de inputs y outputs relevantes (irrelevantes); errores de medida en las variables; existencia de outliers (unidades que se localizan en la frontera por razón del alto rendimiento en uno sólo o en número reducido de factores). La flexibilidad que se asocia al modelo DEA al construir una frontera empírica de eficiencia sin necesidad de establecer hipótesis sobre la

forma funcional, se ve contrarrestado por la influencia que tiene sobre los resultados el conjunto de observaciones y la especificación del modelo (selección de inputs y outputs). Una especificación incorrecta del modelo puede conducir a obtener una distribución sesgada del término ineficiencia. El problema yace en la inexistencia de procedimientos estandarizados para la construcción de modelos DEA.

6. Conclusiones La ineficiencia medida a través de la técnica DEA para las instituciones públicas se estableció como el conjunto de vicios (corrupción, burocracias, etc.) que afectan la generación de bienestar social por parte de dichos organismos. Finalmente, es oportuno señalar que una mayor información sobre los inputs y outputs que intervienen en la metodología aplicada; concentrar el análisis en un sector determinado para la generación de bienestar social (para reducir la heterogeneidad de las observaciones); y un análisis incorporando un horizonte temporal más dilatado, fortalecería los resultados obtenidos.

Referencias. 1. Núñez, M. (2006): Ingeniería de la Productividad, Universidad Nacional Experimental Politécnica Antonio José de Sucre, Venezuela. 2. Coll, V. y Blasco, O. (2006): Evaluación de la Eficiencia Mediante Análisis Envolvente de Datos: Introducción a los Modelos Básicos, Universidad de Valencia, España. 3. Beltrán, V. (2004): Conjunto de Productividad para Problemas de Análisis Envolvente de Datos, Universidad de Puerto Rico recinto universitario de Mayagüez, Puerto Rico. 4. Rhodes, E. (1978): Data Envelopment Analysis and Related Approaches for Measuring the Efficiency of Decision-Making Unit with Application to Program Follow Through U. S. Education, Ph. D. thesis, Carnegie-Mellon University School of Urban and Public Affair, USA. 5. Charnes, A. Cooper, W. y Rhodes, E. (1978): Measuring the efficiency of decision making unit, European Journal of Operation Research 2, pp. 429–444. 6. Färe, R. y Grosskopf, S. (1985): A non-parametric cost approach to scale efficiency, Scandinavian Journal of Economics 87, pp. 35-50. 7. Seiford, L. y Thrall, R. (1990): Recent development in DEA, the mathematical programming approaches to frontier analysis, Journal of Econometrics 46, pp. 7-38.


Viloria, A. et al. Propuesta de un mecanismo de medición para el conjunto de vicios que afectan a las instituciones

8. Banker, R. Charnes, A. y Cooper, W. (1984): Some models for estimating technical and scale inefficiencies in data envelopment analysis, Management Science 30, pp. 10781092. 9. Rojas, J. (2000): Aplicación de Análisis Envolvente de Datos a la Evaluación de Eficiencia en Gastos Administrativos para la Industria de Seguros

Generales de Colombia, Universidad de los Andes, Colombia. 10. Pico J. (2004): Ábaco DEA, Universidad Nacional Experimental Politécnica Antonio José de Sucre, Venezuela. 11. Núñez, M y Pico J. (2004): Ábaco PL, Universidad Nacional Experimental Politécnica Antonio José de Sucre, Venezuela.

249


NOTA TÉCNICA DISEÑOS DE CIRCUITOS ELECTRÓNICOS DIGITALES UTILIZANDO LA TECNOLOGÍA FPGA Rojas, Leireny

Franco M, Zulay E

Pateti M, Antonio S

Resumen: El objetivo fundamental de esta investigación fue implementar en la tarjeta XSV-800 una interfaz teclado PS/2-monitor VGA, utilizando la tecnología FPGA y el lenguaje VHDL. Para su realización el procedimiento básico seguido fue establecer las bases teóricas sobre estas tecnologías y la tarjeta XSV-800, tal que permitieran construir los diseños necesarios para lograr la aplicación deseada. La investigación llevada a cabo propone alternativas de cambio en las herramientas utilizadas para efectuar los diseños electrónicos. El desarrollo de esta investigación permitió comprobar que las tecnologías FPGA y el lenguaje VHDL constituyen unas herramientas versátiles y flexibles de diseño, permitiéndole al que las maneja realizar complejos diseños electrónicos en menor tiempo. Palabras clave: XSV-800/ Interfaz/ Teclado PS/2/ Monitor VGA/ Tecnología/ FPGA/ VHDL.

DESIGN OF DIGITAL ELECTRONIC CIRCUITS USING FPGA TECHNOLOGY AND VHDL LANGUAGE Abstract: The primary objective of this research was to implement on the card XSV-800 VGA PS/2-monitor keyboard interface, using FPGA technology and VHDL language. To realise the basic procedure followed was to establish the theoretical underpinnings of these technologies and XSV-800 card, allowing it to build the designs necessary to achieve the desired application. An investigation conducted proposed options for change in the tools used for making electronic designs. The development of this investigation revealed that the technologies and FPGA VHDL language tools are versatile and flexible design, allowing it to perform complex that handles electronic designs in less time. Keywords: XSV-800/ Interface/ PS / 2/ VGA Monitor/ FPGA/ VHDL.

I.- INTRODUCCIÓN En la actualidad, el requerimiento es integrar diseños complejos en espacios cada vez más pequeños y hacerlo en el menor tiempo posible. Por esta razón, es importante la enseñanza de nuevas tecnologías de diseño que permitan concentrar una gran lógica digital en un único circuito integrado y manejar tiempos de respuesta instantáneos. Dos de estas tecnologías son los dispositivos lógicos programables, FPGA (Field Programmable Gate Array) y el lenguaje de descripción de hardware, VHDL (Very High Speed Integrated Circuits Hardware Description Language).

El proceso de diseño con dispositivos lógicos programables o PLDs, utilizando como lenguaje de descripción de hardware el VHDL, se puede dividir en cinco etapas bien definidas, como se observan en la Figura 1.

Para estudiar estas tecnologías FPGA y VHDL se implementó una interfaz que permite manejar los puertos PS/2 y VGA de la tarjeta de desarrollo XSV-800, a través de un teclado y un monitor. II. DESARROLLO 1. Etapas del proceso de diseño con dispositivos lógicos programables

Figura 1. Etapas básicas en el proceso de diseño con PLDs

Manuscrito finalizado en Ciudad Guayana, Venezuela, el 2009/02/05, recibido el 2009/03/23, en su forma final (aceptado) el 2009/03/30. La Ing. Rojas Leireny, La MSc. Zulay Franco y el MSc. Antonio Pateti, desempeñan sus actividades en el Centro de Diseño Microelectrónica, Departamento de Electrónica en la Universidad Nacional Experimental Politécnica Antonio José de Sucre (UNEXPO) Vicerrectorado Puerto Ordaz. Correos electrónicos lrojas@poz.unexpo.edu.ve; zfranco@poz.unexpo.edu.ve; apateti@gmail.com. respectivamente.

250

Volumen 13, Nº 52, septiembre 2009. pp 250-258


Rojas, L., Franco, Z., Pateti, A. Diseños de circuitos electrónicos digitales utilizando la tecnología FPGA

1.1 Definición de los requerimientos del diseño

1.3 Simulación del código fuente

Antes de empezar a escribir líneas de código, lo primero es tener una idea clara de los objetivos y requerimientos o especificaciones del diseño, lo cual se logra respondiendo preguntas como las siguientes: ¿qué funcionalidad debe tener el diseño?, ¿para qué sirve?, ¿cuáles son los tiempos requeridos para la inicialización o la relación reloj-salida?, ¿cuál es la frecuencia máxima de operación?, ¿cuáles son los caminos críticos?... Responder de forma apropiada a éstas y otras preguntas permite elegir una metodología de diseño y una arquitectura de dispositivo adecuada.

La simulación del código fuente permite depurar errores funcionales antes de la implementación o síntesis final del diseño.

1.2 Descripción del diseño en VHDL La descripción del diseño se subdivide en dos fases: formulación y codificación del diseño.

• Formulación del diseño A partir de las especificaciones se debe decidir una metodología para describir el diseño más eficientemente. Existen tres tipos de metodología de diseño: top-down, bottom-up y flat. Las dos primeras implican el crear estructuras jerárquicas, mientras que la última ve el diseño como un todo. La explicación de ellas es la siguiente:

1.4 Síntesis, optimización y ajuste del diseño • Síntesis Se define como la traducción de la descripción de un diseño a una representación de circuito de bajo nivel, como un netlist, es decir, es el proceso por el cual se crean netlist o ecuaciones a partir de descripciones de diseño, en principio abstractas. El proceso de síntesis depende de la tecnología empleada, lo que significa que el paso de una descripción en VHDL hacia un conjunto de netlist es diferente de un dispositivo a otro. El proceso de síntesis convierte el diseño a unas estructuras de datos internas, traduciendo el “comportamiento” descrito en alto nivel a una descripción de nivel de transferencia de registros (register-transfer level: RTL). La descripción RTL especifica registros, señales de entrada y salida con la respectiva lógica combinacional entre ellas. Algunas herramientas de síntesis traducen estructuras de datos en funciones lógicas optimizadas según la arquitectura elegida, buscando qué partes de la lógica diseñada se puede sustituir por estas estructuras. • Optimización

Metodología top-down: divide el diseño en componentes funcionales. Cada componente tiene entradas y salidas específicas y desarrolla una determinada función. Cada componente se describe mediante cajas y existen diferentes niveles. Los niveles permiten clarificar la interconexión entre los diferentes componentes. Metodología bottom-up: supone exactamente lo contrario que la metodología top-down, definiendo y diseñando componentes individuales, se van uniendo para componer el diseño completo. Metodología flat: es aquella en la que los detalles de los componentes son definidos en el mismo nivel que las interconexiones entre ellos. Es la que se considera más apropiada para diseños pequeños, donde el disponer de los detalles de la estructura interna de un componente funcional no distrae del diseño global a nivel de chip.

• Codificación del diseño Seguidamente a la decisión de la metodología a ser aplicada, se describen diagramas de flujo o de bloque, con el lenguaje de descripción elegido, cuidando la sintaxis y la semántica utilizadas.

El proceso de optimización depende de tres variables o constraints: la forma de las expresiones booleanas, el tipo de recursos disponibles y las directivas de síntesis utilizadas, tanto automáticas como propias del usuario. Algunas formas funcionales se implementan mejor en unos recursos que en otros. La optimización de estructuras PLD implica la simplificación de las expresiones lógicas a una suma mínima de términos producto, además también se optimiza el número de literales. Para ello se utilizan técnicas de simplificación de la forma canónica en una suma de términos producto. La optimización para FPGAs típicamente requiere que la lógica se exprese en otra forma. Se busca entonces factores comunes que se puedan utilizar en diferentes partes del diseño. • Ajuste del diseño El ajuste es el proceso por el que se toma la lógica producida por la síntesis y la optimización y se coloca en un dispositivo lógico, transformando la lógica, de ser necesario, para obtener el mejor ajuste. Ajuste es un término utilizado habitualmente para describir el proceso de colocar los recursos en arquitecturas del tipo CPLD. Cuando la arquitectura es una FPGA el proceso se suele denominar “Placing and Routing”,

251


Volumen 13, Nº 52, septiembre 2009. pp 250-258 ya que se colocan bloques lógicos en diferentes células de la FPGA y posteriormente se interconectan entre sí o hacia bloques de entrada/salida (I/O). 1.5 Programación del dispositivo La programación del dispositivo es la etapa final del proceso de diseño con dispositivos lógicos programables. A través de esta fase se programa el PLD con el diseño realizado en lenguaje de descripción de hardware, colocando en funcionamiento la aplicación deseada.

2. Diseño de una interfaz que permite manejar los puertos PS/2 y VGA de la tarjeta de desarrollo XSV-800 La metodología seguida se basó en cumplir con las etapas que definen el proceso de diseño con dispositivos lógicos programables descrito en la sección anterior. 2.1 Definición de los requerimientos del diseño La vista frontal del teclado utilizado en este diseño se muestra en la Figura 2.

Figura 2. Imagen de la vista frontal del teclado utilizado en el proyecto De las teclas admitidas, la implementación no contempla aquellos caracteres que para obtenerlos requieren que la tecla Alt Gr sea presionada previamente. La aplicación acepta con su funcionamiento normal el uso de las teclas Bloq Mayus, Backspace, Enter e Intro. También acepta las teclas Shft derecho, Shft izquierdo y Bloq Num pero no con su modo de operación normal. En lo referente a las características de los caracteres al ser mostrados en el monitor VGA, son de un tamaño de 16x16 píxeles, de color negro y se muestran sobre un fondo blanco. Por otro lado, la resolución de la pantalla del monitor VGA utilizada es de 800x600 píxeles y la frecuencia máxima de operación para el diseño es de 50 MHz. Con las especificaciones del diseño se procedió a puntualizar la idea general de cómo desarrollar la implementación, que fue básicamente la siguiente: guardar en la memoria SRAM de la tarjeta los datos, en formato hexadecimal, que representan a los caracteres admitidos por la aplicación, y crear un módulo que se encargue de leer los que corresponden a la tecla presionada, previamente identificada por su scancode, para luego escribirlos en el espacio de memoria destinado para almacenar la información a mostrar en el monitor VGA. De modo general, este proceso se presenta en la Figura 3.

Figura 3. Representación del proceso que ejecuta la implementación

252


Rojas, L., Franco, Z., Pateti, A. Diseños de circuitos electrónicos digitales utilizando la tecnología FPGA

La metodología utilizada para realizar el diseño fue la metodología top-down, ya que para lograr la aplicación planteada lo más conveniente fue dividir el diseño en componentes, cada uno de los cuales con una función específica, de forma tal que la interconexión de éstos constituyera el módulo de mayor jerarquía de la implementación. De esta manera, el diseño se separó en los siguientes bloques: Un componente cuya función es obtener el código scancode de la tecla presionada. Un componente cuya función es obtener la dirección de la memoria SRAM de la tarjeta XSV-800 a partir de la cual se encuentran los datos que representan al carácter de la tecla presionada. Un componente cuya función es escribir la información del carácter de la tecla presionada en el área de la memoria SRAM que corresponde al monitor VGA. Un componente cuya función es generar las señales que

permitan visualizar en el monitor VGA los caracteres escritos con el teclado PS/2. Un componente cuya función es generar automáticamente la señal de reset de entrada a los demás componentes. 2.2 Codificación del diseño Una vez conocidas las especificaciones del diseño y la metodología a emplear, se procede a describir en lenguaje VHDL los componentes diseñados para construir la aplicación. Para esto se utilizó el software Webpack 4.1, iniciando por el módulo de mayor jerarquía y continuando con los de menor jerarquía. En la Figura 4 se muestra el módulo principal del proceso y, por tanto, representa el top. Tiene por función interconectar los bloques que componen el diseño de modo de construir la aplicación. Teclado.vhd trabaja a la frecuencia máxima de operación de 50 MHz. El símbolo esquemático de este módulo se muestra en la Figura 4 y la explicación de los puertos de entrada y salida que lo definen se da a continuación.

Figura 4. Símbolo esquemático del módulo Teclado.vhd Puertos de entrada: clk: es la entrada del reloj principal de la tarjeta XSV-800. ps2_clk: a través de este entra la señal de reloj del teclado de puerto PS/2 que tiene frecuencia de 10 kHz. ps2_datos: esta entrada acepta los datos enviados serialmente desde el teclado de puerto PS/2. Puertos de salida: cs: señal de activación de la memoria SRAM de la tarjeta XSV-800. oe: señal de activación de la memoria en modo de lectura. we: señal de activación de la memoria en modo de escritura.

253


Volumen 13, Nº 52, septiembre 2009. pp 250-258

blankn: pulso de blanqueo dirigido al monitor VGA. RDn: habilita la lectura de datos en la memoria interna de la RAMDAC y es activo en bajo. Siempre se mantiene en ‘1’ pues para programar la RAMDAC no es necesario leer datos. WRn: es activo en bajo y habilita la escritura de datos en la memoria interna de la RAMDAC para la programación de ésta. hsync: pulso de sincronización horizontal del monitor VGA. vsync: pulso de sincronización vertical del monitor VGA. triste: señal para desactivar el puerto ethernet PHY de la tarjeta XSV-800. pixelclk: señal de reloj de la RAMDAC. banme_izq: deshabilita el banco izquierdo de memoria de la tarjeta XSV-800. flash: deshabilita la memoria flash de la XSV-800. p_cargado: indica que el programa esta cargado en la FPGA. direccion(18:0): es la dirección, bien sea para la lectura o para la escritura, de la memoria SRAM de la tarjeta XSV-800. 0 es la posición menos significativa. Puertos de entrada-salida: datos(7:0): son los datos leídos desde la memoria o a escribir, correspondientes a la información de los píxeles de cada carácter a mostrar. 0 es la posición menos significativa. RAMDACD(7:0): los datos de 8 bits son transferidos dentro y fuera de la RAMDAC sobre este bus bidireccional para la programación de ésta. 0 es la posición menos significativa. RS(2:0): la combinación de los tres bits que lo conforman especifica a qué registro direcciona la interfaz MPU de la RAMDAC para la programación de ésta. En la Figura 5 se muestran los bloques que forman a Teclado.vhd .

Figura 5. Bloques.vhd que conforman a Teclado.vhd.

254


Rojas, L., Franco, Z., Pateti, A. Diseños de circuitos electrónicos digitales utilizando la tecnología FPGA

Adicionalmente al diseño anterior fue necesario desarrollar dos bloques que no forman parte del top del diseño Teclado.vhd. Grabar_sram_fondo.vhd que tiene por función grabar a partir de la dirección cero del banco derecho de la memoria SRAM de la tarjeta XSV-800 el fondo blanco sobre el que se ven los caracteres en la pantalla del monitor VGA y . Grabar_sram_letras.vhd que tiene como finalidad grabar a partir de la dirección 490.000 del mismo banco de memoria la lista que contiene los datos de los caracteres válidos para mostrar .Estos módulos operan a una frecuencia de 1 MHz la cual se obtiene a través de un divisor de la señal de reloj de 50 Mhz. Además de crear los módulos Grabar_sram_fondo.vhd y Grabar_sram_letras.vhd fue necesario desarrollar en Labview 7 interfaces que proporcionarán comunicación entre la PC y la FPGA, de modo que junto con estos bloques se lograra grabar y leer el fondo blanco de la pantalla del monitor VGA y los caracteres en la memoria de la tarjeta XSV-800.

La programación del dispositivo constituye la última etapa del proceso, la de implementación, que es la que se repite en cada puesta en marcha de la aplicación. Para esta fase es necesario tener los siguientes materiales: 1 tarjeta XSV-800. 1 teclado de puerto PS/2. 1 monitor VGA de 15 pulgadas. 1 fuente de computadora ATX, es la más recomendada, o una fuente que suministre 9 VDC y al menos 1.5 A, con conector de 2.1 mm de diámetro y centro positivo. 1 PC con los softwares utilizados. 1 cable de puerto paralelo. Archivo .bit del top del diseño.

2.3 Simulación del código fuente

Archivo .bit de Grabar_sram_fondo.vhd.

Luego de la codificación de los diseños realizados, el paso siguiente fue la simulación para corregir los errores funcionales antes de la implementación. Esta simulación se realizó a través del software Modelsim 5.7c con los vectores de prueba construidos utilizando la interfaz gráfica que para ello ofrece Webpack 4.1.

Archivo .bit de Grabar_sram_letras.vhd.

2.4 Síntesis, optimización y ajuste del diseño

Las interfaces Grabar_fondo.vi y Grabar a la sram.vi, y la función Grabar Sram.vi.

Seguidamente a la simulación, se realizó la fase de conversión del lenguaje de descripción de hardware de los correspondientes módulos a lógica de compuertas, haciendo uso de la herramienta FPGA Express del software Foundation 4.1i. El éxito de esta conversión depende del modo de descripción del bloque.vhd. El software FPGA Express permite verificar si hubo errores en la síntesis del diseño y la lógica utilizada. Como resultado de este paso, luego del chequeo y corrección de las fallas encontradas, se obtuvo el archivo .edf. Por otro lado, se creó el archivo .ucf que contiene la configuración de los pines asignados a los puertos de entrada y salida del módulo top del diseño. Los archivos .edf y .ucf se utilizaron para generar el archivo de programación .bit con la herramienta Design Manager de Foundation 4.1i.

Archivo .txt con los caracteres en formato hexadecimal a grabar en la memoria de la tarjeta XSV-800. Archivo .bmp con la imagen del fondo a mostrar en el monitor VGA.

Los pasos para la implementación del diseño son: Paso 1: Suministrarle energía a la tarjeta XSV-800. Paso 2: Configurar el oscilador programable de la tarjeta XSV-800, con GXSSETCLK, para que su frecuencia de trabajo sea de 50 MHz. Paso 3: Realizar un test a la tarjeta con GXSTEST para verificar su correcto funcionamiento. Paso 4: Luego de superado el paso anterior, descargar a la tarjeta XSV-800 el archivo dwnldpar.svf para programar la CPLD que contiene.

2.5 Programación del dispositivo

Paso 5: Descargar a la tarjeta XSV-800 el archivo .bit de Grabar_sram_fondo.vhd.

El archivo .bit obtenido en la fase anterior fue cargado a la FPGA de la tarjeta XSV-800, con el software XSTOOLs 4.0, para su programación a través del puerto paralelo.

Paso 6: Ejecutar la interfaz Grabar_fondo.vi para grabar en la memoria SRAM de la tarjeta el fondo a mostrar en la pantalla del monitor VGA.

255


Volumen 13, Nº 52, septiembre 2009. pp 250-258 Paso 7: Descargar a la tarjeta XSV-800 el archivo .bit de Grabar_sram_letras.vhd. Paso 8: Ejecutar la interfaz Grabar a la sram.vi para grabar en la memoria SRAM de la tarjeta los caracteres a mostrar en el monitor VGA. Paso 9: Descargar a la tarjeta XSV-800 el archivo .bit del top del diseño. Paso 10: Conectar el teclado de puerto PS/2 y el monitor VGA a la tarjeta sin desconectar el cable que la comunica con la PC pues se desprogramaría la FPGA. Paso 11: ¡Iniciar la escritura de caracteres con el teclado!

Los pasos 5 y 6 pueden intercambiarse con los pasos 7 y 8 sin problema, siempre que estos cuatro se realicen antes del paso 9, de no ser así se vería cualquier tipo de imagen en la pantalla del monitor VGA menos la esperada. La Figura 5 muestra los dispositivos conectados a la tarjeta XSV-800 en la etapa de implementación.

Figura 6. Equipos básicos necesarios para la aplicación

En el desarrollo de la aplicación también se obtuvo como resultado dos interfaces entre la FPGA de la XSV-800 y la PC: Grabar_fondo.vi que permite grabar en la memoria SRAM de esta tarjeta el fondo blanco sobre el que se muestran los caracteres en el monitor VGA, y Grabar a la sram.vi que permite grabar en la memoria los caracteres a mostrar. Los paneles frontales de estas interfaces se muestran en las Figuras 7 y 8. Funcionan automáticamente con sólo presionar el botón Grabar fondo o Grabar los caracteres, según sea el caso, y elegir en la ventana de diálogo que aparece el archivo que contiene la información a guardar.

Figura 5. Dispositivos conectados a la XSV-800 en la implementación

3. Resultados y discusión El desarrollo de esta investigación trajo como resultado la implementación de una interfaz que permite manejar el puerto PS/2 y el VGA de la tarjeta XSV-800, a través de un teclado y un monitor. Esta interfaz admite la posibilidad de escribir caracteres desde el teclado y mostrarlos en el monitor VGA en tiempo real, usando como medio de comunicación entre ambos la XSV-800. En la Figura 6 se observa la implementación en funcionamiento junto con los equipos básicos por los que físicamente esta constituida, el teclado PS/2, el monitor VGA, la fuente de poder de 9 VDC y la tarjeta XSV-800.

256

Figura 7. Panel frontal de la interfaz Grabar_fondo.vi


Rojas, L., Franco, Z., Pateti, A. Diseños de circuitos electrónicos digitales utilizando la tecnología FPGA

IV. BIBLIOGRAFÍA 1. Universidad de Zaragoza. (2000a). Circuitos lógicos programables. Disponible: http://eupt2.unizar.es/ asignaturas/ittse/sistemas_electronicos_digitales/ Cuatrimestre1/04tema/04teoria.pdf [Consulta: 2005, Septiembre 17]. [Documento en línea] 2. Aguirre Echánove, M. Á., Noel Tombs, J. y Muñoz Chavero, F. (s.f.). Lenguajes de alto nivel para diseño de circuitos integrados digitales [Documento en línea]. Disponible: http://www.gte.us.es/usr/aguirre/Apuntes.pdf [Consulta: 2005, Septiembre 17].

Figura 8. Panel frontal de la interfaz Grabar a la sram.vi

3. Boluda, J. A. (2004). Periféricos I: Controlador de pantalla VGA [Documento en línea]. Disponible: http://mural.uv.es/justcal/AEC0405/ p1/P1_AEC_04_05.pdf [Documento en línea] [Consulta: 2005, Mayo 20]

El desarrollo de esta investigación permitió comprobar que las tecnologías FPGA y el lenguaje VHDL constituyen unas herramientas de diseño versátiles y flexibles, permitiéndole al que las maneja realizar complejos diseños electrónicos en menor tiempo.

4. Brooktree Corporation. (1996). Bt481A Disponible: http://alaxy.uci.agh.edu.pl/~jamro/xsv/org/RamDAC.pdf [Consulta: 2005, Julio 12]

III.- CONCLUSIONES

5. Chapweske, A. (2003). The PS/2 mouse/keyboard protocol [Documento en línea]. Disponible: http://www.computer-engineering.org/ps2protocol [Consulta: 2005, Mayo 24] Escuela Politécnica Superior UAM. (2004).

1. Posterior al análisis del funcionamiento de los distintos dispositivos involucrados en este proyecto, como son el teclado PS/2, el monitor VGA y el puerto PS/2, los bancos de memoria SRAM, el puerto VGA y la RAMDAC de la tarjeta XSV-800, se consiguió diseñar los diversos módulos en VHDL que permitieron finalmente la implementación en el sistema de desarrollo XSV-800 de una interfaz que admite la posibilidad de escribir caracteres en un teclado de puerto PS/2 y mostrarlos en un monitor VGA en tiempo real, utilizando para el diseño las tecnologías FPGA y el lenguaje de descripción de hardware VHDL. De esta manera, se logró cumplir los objetivos trazados al inicio de esta investigación. 2. Adicionalmente, también se logró la implementación de dos interfaces entre la FPGA de la XSV-800 y la PC que permiten grabar datos en la memoria SRAM de esta tarjeta. La primera, Grabar_fondo.vi, permite grabar el fondo blanco sobre el que se muestran los caracteres en el monitor VGA, y la segunda, Grabar a la sram.vi, permite grabar los caracteres a mostrar. 3. A través de la aplicación realizada se pudo constatar que para una misma tecla existe diferencia entre el código scancode enviado por un teclado y el enviado por otro, lo cual depende de la marca del teclado, su lugar de fabricación y el número de teclas que éste contenga.

6. Partis, A. y Peddersen, J. (2001). VHDL XSV board interface projects: VGA out [Documento en línea]. Disponible: http://www.itee.uq.edu.au/~peters/xsvboard/ index.html [Consulta: 2005, Mayo] 7. Torres Valle, F. J. (s.f.). Dispositivos lógicos programables [Documento en línea]. Universidad autónoma de Guadalajara Disponible: http://www.uag.mx/214/ II_DISPOSITIVOS_LOGICOS_PROGRAMABLES.pdf [Consulta: 2005, Septiembre 17] 8. Universidad de Zaragoza. (1999). Lenguaje VHDL [Documento en línea]. Disponible: http://eupt2.unizar.es/ asignaturas/ittse/sistemas_electronicos_digitales/ Cuatrimestre1/05tema/05anexo.pdf [Consulta: 2005, Septiembre 17] 9. Universidad de Zaragoza. (2000b). Diseño con PLD [Documento en línea]. Disponible: http://eupt2.unizar.es/ asignaturas/ittse/ sistemas_electronicos_digitales/Cuatrimestre1/05tema/05 teoria.pdf [Consulta: 2005, Septiembre 17] 10. Vanden Bout, D. (2004). VGA generador for the XSA boards [Documento en línea]. Disponible:

257


Volumen 13, Nº 52, septiembre 2009. pp 250-258 http://www.xess.com/appnotes/an-101204-vgagen.pdf [Consulta: 2005, Mayo 19] 11. XESS Corporation. (2001). XSV board V1.1 manual [Documento en línea]. Disponible: http://www.xess.com/

258

manuals/xsv-manual-v1_1.pdf [Consulta: 2005, Julio 08] 12. XESS Corporation. (2005). XSV-800 Virtex prototyping board with 2.5V, 800,000-gate FPGA [Página Web en línea]. Disponible: http://www.xess.com/ prod014_4.php3


NOTA TÉCNICA ESTUDIO DE PUESTA A TIERRA DE INSTALACIONES HOSPITALARIAS Rodríguez, Leonardo

Acevedo, Rubén

Saxton, Gustavo

Resumen: La Empresa ENELBAR tiene entre sus objetivos principales prestar apoyo técnico a las Instituciones del estado con el fin de garantizar su desarrollo tecnológico. En el siguiente trabajo se presentan dos estudios del Sistema de Puesta a Tierra (SPT) realizados en el Hospital Central Antonio María Pineda por la empresa. Uno consiste en la evaluación del SPT actual del área de instalación de los equipos de Rayos X, Tomografía y Transformadores existentes, mediante el uso del Telurómetro y la aplicación del método del 62 %, que permite determinar con gran exactitud la resistencia del SPT, para verificar que dicho valor se encuentre dentro de los niveles normalizados. El otro estudio consiste en determinar la resistividad (ρ) del suelo del área donde se ubicará el equipo de Resonancia Magnética, mediante el uso del Telurómetro y la aplicación del método Wenner. Ambos estudios se realizan con la finalidad de formular recomendaciones para el diseño de un SPT, que garantice la seguridad del personal médico, el correcto funcionamiento de las protecciones y el acoplamiento magnético. Palabras clave: Sistema de Puesta a Tierra (SPT)/ Resistividad del Suelo (ρ)/ Telurómetro/ Método Wenner.

Abstract: ENELBAR, as one of its main objects, provides technical support to state´s institutions, in order to guarantee their technical development. This work presents two studies of Grounding System, developed by the company at the Antonio María Pineda Central Hospital. One consists of the Grounding System evaluation at the current installation area of X-ray and Tomography equipments, as well as transformers, using a noises tester and the 62% method, which allows to determine the resistance of the Grounding System with great precision, in order to verify its value and correspondence with normalized levels. The other study determines the soil resistivity (ρ) of the Magnetic Resonance equipment area, using a noises tester and Wenner method. Both studies were performed to formulate recommendations for the design of an adequate Grounding System ensuring correct performance of protections and magnetic compatibility. Index Term: Grounding System, Soil Resistivity, noises tester, Wenner Method.

I. INTRODUCCIÓN En atención al requerimiento del Hospital Central Antonio María Pineda, se realizó una inspección inicial a las instalaciones el día 03 de agosto del año 2007, en conjunto con el personal técnico de esta institución, quienes se comprometieron en buscar información sobre las características técnicas de todos los equipos con los que será dotado dicho Centro Asistencial. El día 15 de agosto del año 2007 se realizó una segunda inspección, debido a que actualmente se está ejecutando la instalación de tres equipos de radiología. En dicha inspección, el personal del Hospital Central Antonio María Pineda se comprometió a realizar las siguientes gestiones: • Verificar la existencia y estado de las tres acometidas necesarias para dar servicio a los equipos a ser instalados en las áreas de Traumatología, Emergencia y Radiología.

Dichas acometidas deben ser exclusivas para cada punto de servicio de las tres áreas mencionadas, con conductor de calibre adecuado para suministrar la carga necesaria en cada instalación y con niveles de caída de tensión permitidos por los equipos de radiología. Suministrar información sobre las especificaciones técnicas de los tres equipos que serán instalados (Tensión de Servicio, Potencia en KVA, Tipo de Sistema, entre otros). Gestionar la adquisición de transformadores secos de Tensión 208V en el lado primario, con tensión secundaria y capacidad de acuerdo a las características de cada equipo a ser instalado o el recomendado por el fabricante.

Este centro asistencial en la actualidad está alimentado en 24 kV por el circuito Cemento y en 4,16 kV por el circuito Falcón. Posee una capacidad total instalada de 3750 kVA en 120-208 V y 225 kVA en 240-416 V, repartida en siete (7) bancos de transformadores, tal como se muestra en la Tabla I.

Manuscrito finalizado en Barquisimeto, Edo. Lara, Venezuela el 2009/02/10, recibido el 2009/03/16, en su forma final (aceptado) el 2009/06/10. El Ing. Leonardo Rodríguez es Ingeniero de Construcciones en la C.A. Energía Eléctrica (ENELBAR) de Barquisimeto, telef. 58-251-2303051, fax 58-251-2303398, correo electrónico leonardo.rodriguez@enelbar.com.ve. El MSc. Rubén A. Acevedo R. es Jefe del Departamento de Control Administrativo de Obras en ENELBAR, Barquisimeto, telef. 58-251-2303336, fax 58-251-2303398, correo electrónico racevedor@ieee.org. El Ing. Gustavo Saxton es Jefe de Sección de Mantenimiento de Redes en ENELBAR, telef 58-251-2303926, fax 58-251-2303398, correo electrónico gustavo.saxton@enelbar.com.ve.

Volumen 13, Nº 52, septiembre 2009. pp 259-264

259


Volumen 13, Nº 52, septiembre 2009. pp 259-264

Tabla I. Capacidades de los Bancos de Transformadores

Con el estudio de puesta a tierra planteado en este estudio, se busca el correcto funcionamiento de las protecciones de los equipos, la seguridad del personal que manipula el equipo y garantizar la compatibilidad magnética, todas estos objetivos fundamentales de los Sistemas de Puesta a Tierra. II. DESARROLLO 1. Levantamiento de Información en campo Para la atención del requerimiento del Hospital Antonio María Pineda, se realizó una tercera inspección a las instalaciones por parte del personal del Departamento de Estudios de Distribución de ENELBAR, en compañía del personal técnico de la institución, el día 05 de Septiembre del 2007 en horas de la mañana. En ella se evaluaron las siguientes áreas: • Sala de Rayos X de la unidad de Traumatología. • Salas de Rayos X de la unidad de Radiología. • Sala de transformación ubicada en la cercanía de la Av. Libertador. • Área destinada a la construcción de la sala que albergará el equipo de Resonancia Magnética. A. Sala de Rayos X de la unidad de Traumatología Se observaron las siguientes condiciones: • No está instalada la acometida de la sala. • No está creado el punto de alimentación del equipo de Rayos X, que ya está ubicado en la sala. • Todas las paredes, marcos y puertas de la sala contienen placas de plomo para la protección radiológica del personal, según especificaciones.

Fig. 1. Punto de alimentación de la sala de rayos x de la unidad de radiología. C. Sala de Rayos X N° 2 de la unidad de Radiología Se observaron las siguientes condiciones: • La Sala dispone del punto de alimentación, de donde se alimentan los circuitos de tomacorrientes y al equipo de Rayos X de la sala, mediante conductores calibre # 10 AWG y calibre # 4 AWG, tal como puede verse en la Figura N° 2.a. • El cajetín de alimentación (fusiblera tipo cartucho) contiene sólo dos fusibles de los tres necesarios (uno por fase). • El cajetín de alimentación está conectado a tierra, tal como se puede ver en la Figura 2.b. • Al igual que la sala de Rayos X N° 1, tanto las paredes como la puerta contienen placas de plomo para la protección radiológica del personal médico, según especificaciones; además de disponer del cubículo destinado para la ubicación del punto de control del equipo de Rayos X.

(a)

B. Sala de Rayos X N° 1 de la unidad de Radiología Se observaron las siguientes condiciones: • La Sala dispone del punto de alimentación del equipo de Rayos X, (3 conductores calibre # 2/0 AWG, correspondiente a las fases del sistema y 1 conductor calibre # 8 AWG, correspondiente al neutro del sistema), el cual puede verse en la Fig. 1. •

260

Las paredes y la puerta contienen placas de plomo para la protección radiológica del personal médico, según especificaciones, además de disponer del cubículo destinado para la ubicación del punto de control del equipo y de mantener aún los rieles para la movilización del equipo de Rayos X.

(b) Fig. 2. (a) Punto de alimentación de la sala. (b) Conexión a tierra del cajetín de alimentación.


Rodríguez, L., Acevedo, R., Saxton, G. Estudio de puesta a tierra de instalaciones hospitalarias

D. Sala de Transformación En la sala se encuentra la celda de 24 kV y tres bancos de transformadores: dos de 1500 kVA, 120-208 V (3x500 kVA) y uno de 150 kVA, 240-416 V, (3x50 kVA). Se apreciaron las siguientes condiciones: • En la parte periférica exterior de la sala de transformación se encontró la conexión de conductores calibre # 2/0 AWG de cobre soldados con ramificaciones, perteneciente a la puesta tierra del tomógrafo, que no cumple con la profundidad recomendada para tal fin (entre 0,3 m y 0,5 m), es decir, en la superficie del terreno. (ver Figura N° 3).

La configuración de los bancos de transformadores es estrella-estrella (Y-Y) con neutro solidamente puestos a tierra.

El sistema de puesta a tierra de los bancos de transformadores consta de siete (7) barras de cobre 5/8”, no dispuestas equidistantemente, unidas entre sí por alambre de cobre # 4 AWG mediante conectores, que están sobre la superficie del suelo, lo que disminuye su efectividad.

Se observó que dos de las barras de cobre pertenecientes al sistema de puesta a tierra de los bancos de transformación están en contacto directo con el concreto y sobresalen del nivel del piso. No cumplen con la profundidad recomendada (entre 0,3m y 0,5 m).

No se pudo realizar la medición de la resistencia del sistema de puesta a tierra de la sala de transformación, ya que no se dispuso del espacio recomendado para realizar las mediciones (9,6 m entre electrodos del telurómetro).

E. Área destinada a la construcción de sala que albergará el equipo de resonancia magnética

Fig. 3. Electrodo de puesta a tierra del exterior de la sala de transformación.

En el interior de la sala de transformación, específicamente donde se hallan los bancos de transformadores de 3 x 500 kVA y 3 x 50 kVA, se encontró instalado un equipo de medición MEMOBOX 300, con el fin de medir la disponibilidad de carga del banco, que está destinado a la alimentación exclusiva del equipo de tomografía, (ver Figura N° 4).

En compañía del personal técnico de la institución se pudo ver el área destinada para la construcción de la sala donde estará contenido el equipo de resonancia magnética. Además, se informó que no está planteado iniciar su construcción en un corto plazo. Actualmente se encuentra material de construcción y de desecho perteneciente a otra construcción, por lo que se realizó una medición preliminar de la resistividad del suelo para estudio y posterior comparación, una vez que se haya preparado el área para la construcción de la sala.

2. Metodología Mediciones de parámetros de puesta a tierra En el diagnóstico de las condiciones se realizaron mediciones de capacidad de los bancos de transformadores, resistencia de puesta a tierra y resistividad del suelo.

A.- Capacidad del banco de transformadores de 3 x 50 kVA

Fig. 4. Equipo de medición Memobox 300.

De las mediciones realizadas al banco de transformadores de 3 x 50 kVA, 240- 416 V con el equipo de medición MEMOBOX 300 durante siete días (según lo especificado en NCSDE), se determinó que la carga máxima consumida es de 2,5 kVA, pero este valor no representa la carga máxima real demandada, ya que, según indicaciones aportadas por el personal técnico del Hospital, el valor pico de la carga consumida por el equipo de tomografías en el momento del

261


Volumen 13, Nº 52, septiembre 2009. pp 259-264 disparo llega a ser de aproximadamente 120 kVA. Se presenta en intervalos de tiempo extremadamente cortos (ms), mientras que el equipo de medición realiza las lecturas promediadas cada diez (10) minutos (según lo especificado en NCSDE), lo cual imposibilita tener una lectura real de la carga máxima consumida por el equipo de tomografías y por ende de la capacidad de carga disponible en el banco de transformadores de 3 x 50 kVA.

B.- Resistencia del sistema de puesta a tierra del equipo de tomografías Debido a la importancia del equipo de tomografías y a su alto costo, se hace prioritario que disponga de un adecuado y efectivo sistema de protección, donde el sistema de puesta a tierra del equipo juega un papel primordial. Tomando en cuenta lo antes expuesto, se realizaron mediciones de la resistencia (R) del actual sistema de puesta a tierra del equipo, mediante la aplicación del método del 62 % o de los tres puntos con el Telurómetro, obteniéndose los valores que se muestran en la Tabla II:

Tabla II. Resistencia del sistema de puesta a tierra del Tomógrafo

Tabla III. Resistividad del suelo

Como se pudo observar en la tabla anterior, los valores de resistividad del suelo son menores a los valores de resistividad eléctrica típica de suelos arcillosos de características similares al presente en el área (50 Ω.m), condición que favorece el buen funcionamiento del sistema de puesta a tierra. Estos valores de resistividad se calcularon aplicando la fórmula [1]

[1]

Donde: a: distancia entre electrodos (m). R: valor de resistencia aportado por el Telurómetro (Ω).

3. RECOMENDACIONES PRESENTADAS. Después del análisis de las condiciones observadas y las mediciones realizadas, se realizan las siguientes recomendaciones para la alimentación de equipos médicos y su diseño del sistema de puesta a tierra:

A.- Salas de Rayos X Los valores de resistencia del sistema de puesta a tierra expuestos en la tabla anterior, cumplen con lo recomendado en la bibliografía [1], para los equipos electrónicos sensibles, en los que se estipula que dicho valor no debe exceder los 5 Ω. Este resultado muestra claramente el buen estado del sistema de puesta a tierra del equipo de tomografías, lo cual aumenta la seguridad del equipo y del personal médico que lo manipula. C.- Resistividad (ρ) del suelo del área destinada a la construcción de la sala que albergará el equipo de resonancia magnética Como se expuso anteriormente, se programó una medición preliminar de la resistividad del suelo con el fin de estudiar sus condiciones y de comparar una vez acondicionado el terreno para la construcción de la sala. Estas mediciones se realizaron aplicando el método de Wenner o de los cuatro puntos con un Telurómetro, obteniendo los valores que se muestran en la Tabla III:

262

1. Establecer que los tomacorrientes tengan conexión a tierra para corrientes de falla mediante la instalación de canalizaciones metálica o a través de la envoltura del cable (según la norma 517.13 A del Código Eléctrico Nacional). [2] 2. Conectar a tierra los terminales de puesta a tierra de los tomacorrientes y todas las superficies conductivas que no transporten corriente de equipos fijos, que puedan ser energizados, que estén sujetos a contacto personal y que operen sobre los 100 V, con conductor de cobre aislado, instalado en canalizaciones metálicas con los conductores del circuito ramal que alimenta a los tomacorrientes (según la norma 517.13. B del Código Eléctrico Nacional). [2] 3. Conectar la barra de puesta a tierra del tablero de distribución de la sala a la barra de puesta a tierra del tablero principal del área con conductor de calibre no menor a 10 AWG (según la norma 517.14 del Código Eléctrico Nacional). [2] 4. Instalar “los tubos de rayos X para que se encuentren instalados dentro de envolventes puestas tierra. Para aislar la alta tensión del recubrimiento de puesta a tierra se


Rodríguez, L., Acevedo, R., Saxton, G. Estudio de puesta a tierra de instalaciones hospitalarias

pueden usar medios aislantes tales como: aire, aceite gas o cualquier otro medio. La conexión del equipo de alta tensión a los tubos de rayos X debe hacerse con cables de alta tensión apantallados”, (norma 517.78. A del Código Eléctrico Nacional). [2] 5. Conectar a tierra los controles, mesas, soportes de tubos, tanques de transformadores, cables armados, cabeza de tubos de rayos X, etc, (según la norma 517.78. C del Código Eléctrico Nacional). [2] 6. Tomando en cuenta los resultados de las mediciones realizadas a los bancos de transformadores de 3 x 500 kVA, donde se determinó que ambos bancos disponen de aproximadamente 900 kVA de reserva, alimentar los equipos de Rayos X a través de los bancos de Transformadores de 3 x 500 kVA mediante 3 transformadores trifásicos secos de 208- 416 V y 50 kVA o mas (cada uno), ubicados en la sala de transformación, para así disminuir las caídas de tensión que se pudiesen producir en los conductores del lado primario del transformador seco. 7. Dada la importancia de los equipos de Rayos X en el tratamiento oportuno de los pacientes, usar los dos bancos de transformadores de 3 x 500 kVA, para habilitar un alimentador de respaldo mediante un interruptor de transferencia, que permitirá mantener en funcionamiento los equipos en caso de que el banco de transformadores de la alimentación principal salga de servicio por falla, como se muestra en la Fig. 5.

C.- Sistema de puesta a tierra de los bancos de transformación 1. Cubrir las terminaciones de las barras de cobre, así como el conductor de cobre calibre # 4 AWG de conexión entre ellas con tierra compactada, ya que esto permitirá aumentar la efectividad del sistema de puesta a tierra en caso de fallas. Al sepultar las terminaciones de las barras y los conductores de conexión (electrodos horizontales) se disminuye la resistencia de puesta a tierra del sistema, reduciendo el tiempo de descarga de corrientes de falla, ya que la resistividad eléctrica de la tierra es menor que la resistividad eléctrica del aire. 2. Separar entre las barras de cobre de manera que sea de aproximadamente dos veces la longitud de la barra.

D.- Sistema de puesta a tierra del equipo de resonancia magnética Tomando en cuenta que se construirá una sala para la ubicación de un equipo de resonancia magnética, se hacen las siguientes recomendaciones: 1. Tomar en cuenta las mismas recomendaciones hechas para el sistema de puesta a tierra de las salas de Rayos X. 2. Dado que el equipo de Resonancia Magnética es un equipo electrónico sensible de alta frecuencia, construir bajo el piso de la sala donde se ubicará, una malla reticulada de conductores de cobre, dimensionada de acuerdo al área (m2) del piso y los cálculos realizados, con el fin de disminuir el ruido y las perturbaciones magnéticas en el equipo. La retícula deberá tener una separación entre 30 cm y 60 cm, y estar conectada a una tríada (triángulo equilátero construido por conductores de cobre desnudo calibre # 2/0 AWG y barras de cobre de 5/8” de diámetro y 2,4 m de alto), mediante un conductor de cobre aislado THW # 2 unidos por conectores de cobre certificados o soldadura exotérmica, como se muestra en la Fig. 6.

Fig. 5. Diagrama de Conexión de Alimentadores de los Equipos de Rayos X. B.- Sistema de puesta a tierra del equipo de tomografía 1. Aumentar la profundidad del sistema de puesta a tierra, de manera tal que se encuentre entre 0,3 y 0,5 m de profundidad, para mejorar las características del sistema, ya que en las condiciones actuales es menos efectivo y está expuesto a daños mecánicos que pueden ser provocados por cualquier causa externa, disminuyendo de esta manera la seguridad, tanto del equipo, como del personal médico sujeto a contacto él.

Fig. 6. Malla reticulada de puesta a tierra para equipos electrónicos de alta frecuencia.

263


Volumen 13, Nº 52, septiembre 2009. pp 259-264 3. Se recomienda que la separación ente las barras de cobre sea de una distancia no menor a 5 m (aproximadamente 2 veces a longitud de las barras), ya que mediante la aplicación de la fórmula que se presenta a continuación [1]. Se pudo constatar que el valor de resistencia del sistema de puesta a tierra de la configuración recomendada es de 3,4482 Ω, que cumple con el valor recomendado para equipos electrónicos sensibles (5 Ω).

[1]

Donde: R: resistencia del sistema de puesta a tierra (Ω). ρ: resistividad del suelo (Ωxm). l: longitud de las barras (m). a: diámetro de la barra de cobre (m). D: distancia entre las barras de cobre (m).

III. CONCLUSIONES 1. Sobre la base de las condiciones observadas, las mediciones realizadas durante la inspección al Hospital Antonio María Pineda, así como los conocimientos técnicos y el Código Eléctrico Nacional vigente (sección 517), se puede concluir que, con la aplicación de las recomendaciones hechas para el sistema de puesta a tierra de las salas de Rayos X, equipos de tomografía, sala de transformación y futura sala de Resonancia Magnética del Hospital Antonio Maria Pineda, se garantizará el cumplimiento de los objetivos fundamentales de un sistema de puesta a tierra: • Seguridad de las personas. • Protección de las instalaciones. • Compatibilidad magnética. 2. En cuanto a la fuente de alimentación de los equipos médicos, se concluye que la mejor alternativa es alimentar a través de los bancos de transformadores de 1500 kVA, mediante transformadores trifásicos secos 208-416 V de 50 kVA o más.

IV.

264

REFERENCIAS

4. Conectar la barra de puesta a tierra del tablero de distribución de la sala a la malla reticulada.

1. Favio Casas Ospina. “Tierra Soporte de la Seguridad Eléctrica”. SEGELECTRICA, 1998.

5. Conectar todas las partes metálicas conductoras del equipo (por las que no debe circular corriente) a la malla reticulada de puesta a tierra.

2. Código Eléctrico Nacional. FONDONORMA 200:2004. Organización gráfica Capriles. Caracas, Venezuela, 2005. 7ma revisión.


Árbitros

Dr. Genni Aguilar - Hosp. de Clínicas Caroní, Pto. Ordaz Dr. Jesús Andrade - LUZ Maracaibo Dra. Minerva Arzola - UNEXPO Pto. Ordaz Dr. Máximo Benavides - UNEXPO Pto. Ordaz Dra. María C., Blanco - UNEXPO Barquisimeto MSc. José Borjas - UNEXPO Pto. Ordaz MSc. Antonio Bravo-UNET Dr. Edwuin Carrasquero - UCV Dr. José Contreras - ULA Dr. Roberto Corral - Universidad de La Habana Dr. Julio Cruz - USB Dr. Ángel Custodio - UNEXPO Pto. Ordaz Dra. Mayra D’Armas- UNEXPO Pto. Ordaz Dr. Ramón Depool - UNEXPO Barquisimeto Dr. Héctor Fernández - UNEXPO Pto. Ordaz Dr. Herman Fernández - UNEXPO Pto. Ordaz Dr. José Folgueras - ICID, La Habana MSc. Zulay Franco - UNEXPO Pto. Ordaz Dr. Luis Galván- USB Dr. Francisco García Sanchez - USB Dr. Luis García - UNEXPO Pto. Ordaz Dr. Oswaldo García - Universidad de Matanzas “Camilo Cien Fuegos”, Cuba MSc. Charlo González - UNEXPO Pto. Ordaz Ing. Dosinda González- USB Dra. Gema González - IVIC MSc. Jesús González - UNEXPO Pto. Ordaz Dr. Leonardo González - UNEXPO Pto. Ordaz (jub) Dr. Rafael Guevara - UNEXPO Pto. Ordaz Dr. Víctor Guzmán - USB Dr. Diego Jugo - ULA Dr. Jesús López - UNEXPO Pto. Ordaz Dra. Gertrudis Márquez - VENALUM Dr. Jairo Márquez - ULA Dra. Olga Márquez - ULA

186

Dr. Dimas Mavares - UNEXPO Barquisimeto MSc. Franklin Mendoza - UNEXPO Pto. Ordaz Dra. Gaudys Mendoza - UNEXPO Barquisimeto Dr. Agustín Mejías - Universidad de Carabobo Dra. Ingrid Montezuna - UNEXPO Barquisimeto MSc. Scandra Mora - UNEXPO Pto. Ordaz Dr. Luis Moreno - Royal Institute of Technology, Suecia Dr. Jorge Mostany - USB MSc. Ángel Olivier - UNEXPO Pto. Ordaz Dr. Adelmo Ortiz Conde - USB Ing. Mauricio Paletta - UNEG Puerto Ordaz Dr. Gianfranco Passariello - USB Dr. Dester Perdomo - CUJAE, La Habana Dra. Olga Prado - SIDOR Dr. Eli Saúl Puchi - UCV MSc. Richard Resplandor - UNEXPO Pto. Ordaz Dra. Rosa Reyes - USB Dr. Ernesto Rodríguez Denis - ISPJAE, La Habana MSc. Gonzalo Rodríguez - EDELCA, Caracas Ing. Luis Rojas Malavé - UNEXPO Barquisimeto Dr. Rubén Rojas - ULA Dr. Luis Rosales - UNEXPO Pto. Ordaz Dr. Augusto Ruiz - USB Dr. José Ramón Rus - Fund. Inst. de Ingeniería, Caracas MSc. Luz Esther Salazar - UNEXPO Pto. Ordaz Ing. José Sánchez Medina - UNEXPO Pto. Ordaz Dra. Amarilis Sandry - UNEXPO Barquisimeto Dr. José Sarabia - UNEXPO Barquisimeto Dr. Benjamín Scharifker - USB Dra. Mariana Staia - UCV Dr. Nando Troyani - UDO Pto. La Cruz Dra. Cármen Luisa Vásquez - UNEXPO Barquisimeto Ing. Luis Velásquez - UNEG Puerto Ordaz Dra. Sara Wong - USB


CALENDARIO DE EVENTOS

Congreso Iberoamericano de Seguridad Informรกtica

Volumen 13, Nยบ 52, septiembre 2009

267


Sección Fija preparada por el Dr. Ángel Duarte El Dr. Ángel Duarte es Profesor Agregado en el Dpto. de Ingeniería Mecánica de la UNEXPO, Vicerrectorado Puerto Ordaz, correo electrónico angel_duarte2001@yahoo.es y angelduarte@cantv.net

268

Volumen 13, Nº 52, septiembre 2009.


CONTENIDO Vol. 13, Nº 52, septiembre 2009 ISSN 1316-4821

186 187

Árbitros Editorial

189

CONTROL DE PROCESOS Alfonso Alfonsi, Jesús Pérez, Sistema de control en tiempo real para una planta piloto usando software libre

199

EFICIENCIA EMPRESARIAL Vicente Coll Serrano, Olga Blasco Blasco, Situación de la industria textil en España ante la liberalización del Sector: una visión desde el punto de vista de la eficiencia y del tamaño de las empresas

211

ENSEÑANZA DE LA MATEMÁTICA Esther María Morales Urbina, Los conocimientos previos y su importancia para la comprensión del lenguaje matemático en la Educación Superior

223

ERGONOMÍA Eliana del Valle Rodríguez, Crisdalith Cachutt, Eduardo E. Vargas, Emilio Aravena, Demanda biomecánica en el ensamblaje de un vehículo compacto

231

238

SIMULACIÓN Herman Fernández, Abelardo Martínez, Víctor Guzmán, María Isabel Giménez, Simulación mediante PSPICE de un modelo simplificado y de alta eficiencia de una batería de plomo - ácido Normas de Arbitraje NOTAS TÉCNICAS

239

Amelec Jesús Viloria Silva, Carmen Luisa Vásquez Stanescu, Miguel Ángel Núñez Bottini, Propuesta de un mecanismo de medición para el conjunto de vicios que afectan a las Instituciones Públicas encargadas de generar bienestar social: Caso Venezuela

250

Leireny Rojas, Zulay Franco M., Antonio S. Pateti M., Diseños de circuitos electrónicos digitales utilizando la tecnología FPGA

259

Leonardo Rodríguez, Rubén Acevedo, Gustavo Saxton, Estudio de puesta a tierra de instalaciones hospitalarias

265

Noticias de FUNDACITE Guayana

267 269

Calendario de eventos

271

Normas de Publicación

Ferias, Salones y Exposiciones

185


EDITORIAL UN ADIOS A NUESTRO EDITOR FEDERICO GENOLET

l Dr. FEDERICO GENOLET se desempeñó como EDITOR de la Revista Universidad, Ciencia y Tecnología, desde hace 13 años, hasta el día de su fallecimiento el pasado 23 de septiembre.

E

De Federico, recordamos su fortaleza, su vitalidad, su honestidad, su trato siempre amable y cordial. Su empeño por mantener a la Revista Universidad, Ciencia y Tecnología, en la más alta clasificación dada por FONACIT a las revistas venezolanas. Para el año 2004, Universidad Ciencia y Tecnología llegó a estar ubicada entre las cuatro mejores revistas científicas de Venezuela. Recordamos su empeño por mantener la revista indizada en los mejores Índices Latinoamericanos y mundiales. Nos dejó la revista indizada en: Actualidad Iberoamericana, Aluminium Industry Abstracts, Corrosión Abstract, CSA Engineerig Research Database with METADEX, CSA Recent References Related to Technology, CSA Technology Research Database, Environment Abstracts, LATINTEX, Mechanical & Transportation Engineering Abstracts, METADEX, REVENCYT. Fundamental y reconocida su labor al frente de la revista porque no está enmarcada en un área específica, sino en diversas áreas. Siempre pendiente, siempre actualizado, siempre preocupado porque su eterna e inseparable Zorelys, asistiera a los talleres y cursos que tenían que ver con revistas científicas. Cada detalle contaba para mantener Universidad, Ciencia y Tecnología en un sitial de honor. Sus cursos y talleres de redacción de artículos científicos forman parte de su gran aporte a nuestra Universidad, a nuestros investigadores. Contribuyó enormemente al desarrollo científico de nuestros docentes. Su dureza a la hora de dar un veredicto sobre un artículo fue una enseñanza que no se supo aprovechar, Federico siempre tenía la razón: acertado en sus comentarios, crítico a la hora de opinar sobre un determinado artículo habla por sí solo del amplio conocimiento que tenía sobre distintas áreas del quehacer científico-tecnológico. Era el Editor por excelencia.

Volumen 13, Nº 52, septiembre 2009.

187


Su afán de mantener la revista en un nivel preponderante lo llevaron a ser muy riguroso con la calidad de los artículos. FEDERICO nos deja la Revista Universidad Ciencia y Tecnología, entre las mejores según la clasificación de FONACIT y lo más importante: Universidad Ciencia y Tecnología es tipo “A”, clasificación que la ubica como revista internacional. Enorme satisfacción!! cuando FONACIT clasificó a Universidad, Ciencia y Tecnología como Tipo “A”. Fue riguroso a la hora de respetar la fecha de publicación de la revista, conocía muy bien que uno de los parámetros importantes para mantener la indización es la puntualidad de la impresión en las fechas previstas. FEDERICO únicamente se le veía preocupado cuando no había suficientes artículos para completar una edición de la revista. Aun así, Universidad, Ciencia y Tecnología siempre salía puntualmente. Esta Edición de Universidad, Ciencia y Tecnología, la dejó completa. No contábamos que nos dejaría la dura tarea de dedicarle el editorial, como una manera de reconocer su labor, su influencia en la revista, en nuestros investigadores, en nuestra Universidad. De despedirlo como Editor, nuestro Editor, eternamente FEDERICO.

DRA. MINERVA ARZOLA Directora UCT Dirección de Investigación y Postgrado

188

Volumen 13, Nº 52, septiembre 2009.


FERIAS, SALONES Y EXPOSICIONES

Volumen 13, Nยบ 52, septiembreo 2009.

269


Sección Fija preparada por el Dr. Ángel Duarte El Dr. Ángel Duarte es Profesor Agregado en el Dpto. de Ingeniería Mecánica de la UNEXPO, Vicerrectorado Puerto Ordaz, correo electrónico angel_duarte2001@yahoo.es y angelduarte@cantv.net

270

Volumen 13, Nº 52, septiembre 2009.


NORMAS DE ARBITRAJE Transcribimos a continuación los parámetros bajo los cuales son evaluados por nuestro Árbitros los artículos que recibimos para publicar, con el propósito que los autores los tengan en cuenta antes del envío de sus contribuciones 1. Título: ¿Incluye información de lo que trata el artículo? SI ¿Su extensión es apropiada? SI 2. Resumen: ¿Es una representación concisa del artículo? ¿Tiene el formato adecuado? ¿Presenta los Objetivos, Métodos, Resultados y Conclusiones? ¿Su extensión es apropiada (máx. 200 palabras)?

NO NO

SI SI

NO NO

3. Palabras Clave: ¿Son adecuadas al artículo? SI ¿Añadiría alguna que fuese relevante? SI Si la respuesta fuese afirmativa, ¿Cuál o cuales?

NO NO

10. Tablas: ¿Son todas necesarias? ¿Duplican la información presentada en el texto o en las figuras? ¿Puede alguna de ellas ser tranformada en gráfico para resumir o facilitar la comprensión de lo datos? ¿Están demasiado recargadas de información? ¿Son las leyendas una buena descripción de ellas?

SI SI SI

NO NO NO

SI

NO

SI

NO

SI

NO

SI SI

NO NO

5. Metodología: ¿Están los métodos empleados claramente descritos? ¿Son el diseño experimental y los métodos utilizados los más apropiados para alcanzar los objetivos? ¿Es posible duplicar la investigación con los elementos expuestos en esta sección? ¿Son apropiados los métodos estadísticos utilizados?

6. Resultados: ¿Presentan información pertinente a los objetivos del trabajo? SI ¿Son presentados de manera adecuada y coherente? SI ¿Tienen suficiente detalle como para justificar las conclusiones? SI 7. Discusión: ¿Existen errores de interpretación de los datos presentados? ¿Es relevante toda la discusión? ¿Hay aspectos importantes de los resultados que no son discutidos? ¿Se repite información de la sección de resultados? ¿Se hacen afirmaciones no sustentadas por los datos u otros autores? ¿Se presentan conclusiones con los argumentos que lo soportan?

NO NO NO

SI SI

NO NO

SI SI

NO NO

SI

NO

SI

NO

SI

9. Referencias Bibliográficas: ¿Existe correspondencia entre las referencias citadas en el texto y esta sección? SI ¿Las referencias citadas son todas necesarias? SI ¿Falta alguna referencia de relevancia? SI Si la respuesta fuese afirmativa, ¿cuál o cuáles?

SI SI

4. Introducción: ¿Presenta el problema que motivó la investigación? ¿Indica qué se hizo en la investigación? ¿Hace referencia sucinta a la metodología empleada? ¿Presenta cómo esta organizado el desarrollo del artículo?

238

NO NO

8. Conclusiones: ¿Son un resumen de las conclusiones lógicas del trabajo basadas en la discusión?

NO

NO NO NO

SI

NO

SI

NO

SI SI SI

NO NO NO

11. Figuras: ¿Son todas necesarias? SI ¿Aportan información importante? ¿Son las leyendas una buena descripción de ellas? SI

NO

12. Extensión del artículo: ¿Puede ser acortado sin perder calidad o información relevante? 13. Pertinencia: ¿Es un trabajo original? ¿Representa el artículo un aporte al conocimiento científico? 14. Calidad: ¿En general, el estilo del manuscrito tiene calidad para ser publicado? ¿Pudiera mejorarse el manuscrito en alguna forma?

NO

SI

NO

SI

NO

SI

NO

SI SI

NO NO

15. Veredicto: El manuscrito es: Publicable sin modificaciones Publicable con modificaciones menores Publicable con modificaciones importantes No es adecuado para esta revista. 16. Modificaciones recomendadas: Por favor haga sus comentarios detallados en la página adicional Condensar / eliminar partes del texto Suprimir figuras y/o tablas Reorganizar Redactar de nuevo el texto Redactar de nuevo el resumen Revisar las referencias

Volumen 13, Nº 52, septiembre 2009.


NORMAS DE PUBLICACIÓN “Universidad, Ciencia y Tecnología” (UCT), es una publicación, indizada y arbitrada, que se edita en cuatro números anuales que constituyen un volumen, siendo marzo, junio, septiembre y diciembre los meses de publicación. La revista está destinada a dar a conocer, dentro y fuera del país, las realizaciones científicas y tecnológicas de la UNEXPO, así como las que se realicen en otras universidades y centros de investigación industrial en el país y en el exterior, en las especialidades de Ingeniería Eléctrica, Ingeniería Electrónica, Ingeniería Metalúrgica, Ingeniería Mecánica, Ingeniería Industrial, Bioingeniería, Ambiente, Ciencias de la Ingeniería, Mecatrónica, Telecomunicaciones, Rural, Ferroviaria, Energética e Hidráulica y áreas conexas. 1. Condiciones Generales Las contribuciones técnicas que se publiquen deberán estar enmarcadas en los requisitos fijados por la presente norma y aceptadas por el Comité Editorial. Los trabajos publicados en UCT son de su propiedad, con las excepciones que se estipulan en el Convenio de Publicación y no podrán ser reproducidos por ningún medio sin la autorización escrita del Editor. Los autores deberán indicar nombre y apellido, título académico, lugar de trabajo, cargo que desempeñan y dirección completa, incluyendo teléfono, fax y correo electrónico.

2.4. Revisiones Son artículos solicitados por invitación del Comité Editorial y comentan la literatura más reciente sobre un tema especializado. 2.5. Notas Técnicas Son aquellas contribuciones producto de investigaciones destinadas a informar novedades y/o adelantos en las especialidades que abarca UCT. Podrán presentarse en una extensión máxima de diez (10) cuartillas, incluyendo un máximo de 10 figuras y tablas, las que deberán cumplir las condiciones que para ellas se establece en el ítem 5. 2.6. Cartas al Editor Son aquellas que reportan una idea sin entrar en detalles El Comité Editorial se reserva el derecho de seleccionar los Artículos Técnicos y los Artículos de Ingeniería Aplicada consignados para publicación, después de consultar por lo menos a dos árbitros. Los artículos remitidos para su publicación tienen que ser inéditos. No serán aceptados aquellos que contengan material que haya sido reportado en otras publicaciones o que hubieran sido ofrecidos por el autor o los autores a otros órganos de difusión nacional o internacional para su publicación. 3. Presentación

2. Contribuciones El Comité Editorial acepta seis tipos de contribuciones para publicación: Artículos Técnicos, Artículos de Ingeniería Aplicada, Comunicaciones, Revisiones, Notas Técnicas y Cartas al Editor 2.1. Artículos Técnicos Son aquellas contribuciones que además de informar novedades y adelantos en las especialidades que abarca UCT, son el resultado de un trabajo de investigación, bien sea bibliográfico o experimental, en el que se han obtenido resultados, se discutieron y se llegaron a conclusiones que signifiquen un aporte innovativo en Ciencia y Tecnología. 2.2. Artículos de Ingeniería Aplicada Son el resultado de trabajos de grado (Especialización, Maestría y Doctorado) o de investigación en el ámbito universitario e industrial, bien sea experimental y/o no experimental, que signifiquen un aporte tecnológico para la resolución de problemas específicos en el sector industrial. 2.3. Comunicaciones Son reportes de resultados originales de investigaciones de cualquier campo de las ciencias básicas o aplicadas, dirigidas a una audiencia especializada. Podrán ser hasta de ocho (8) cuartillas

Todas las contribuciones deberán prepararse en procesador de palabras Microsoft Office Word® 2003 o anterior mecanografiadas a doble espacio en papel tamaño carta, tipo de letra Times New Roman, tamaño 10, con márgenes de por lo menos 2,5 cm, anexando su versión digital. Los Artículos Técnicos y los de Ingeniería Aplicada deberán tener una extensión máxima de 20 páginas, incluyendo un máximo de 10 ilustraciones (figuras + tablas) (Ver ítem 5) 4. Composición Los Artículos Técnicos y de Ingeniería Aplicada deberán ordenarse en las siguientes secciones: Título en español, Nombre completo de los autores, Resumen en castellano y palabras clave, Titulo en inglés, Resumen en inglés (Abstract) y “Key words”, Introducción, Desarrollo, Conclusiones, Referencias Bibliográficas. a) Título en español. Debe ser breve, preciso y codificable, sin abreviaturas, paréntesis, fórmulas ni caracteres desconocidos, que contenga la menor cantidad de palabras que expresen el tema que trata el artículo y pueda ser registrado en índices internacionales. El autor deberá indicar también un título más breve para ser utilizado como encabezamiento de cada página.

Volumen 13, Nº 52, septiembreo 2009.

271


b) Nombre completo de los autores. Además de indicar nombre y apellido de los autores, en página aparte se citará título académico, lugar de trabajo, cargo y dirección completa, incluyendo teléfono, fax y correo electrónico.

Artículos de revistas: Autor(es) del artículo (apellido e iniciales de los nombres), título del artículo, nombre de la revista, número del volumen, número del ejemplar, fecha de publicación, número(s) de página(s).

c) Resumen en castellano y palabras clave, señalando en forma concisa los Objetivos, Metodología, Resultados y Conclusiones más relevantes del estudio, con una extensión máxima de 200 palabras. No debe contener abreviaturas ni referencias bibliográficas y su contenido se debe poder entender sin tener que recurrir al texto, tablas y figuras. Al final del resumen incluir de 3 a 10 palabras clave que describan el tema del trabajo, con el fin de facilitar la inclusión en los índices internacionales

Trabajos presentados en eventos: Autor(es), (apellido e iniciales de los nombres), título del trabajo, nombre del evento, organizador del evento, lugar, fecha, número(s) de página(s).

d) Título, Resumen y Palabras clave en inglés (Abstract y key words). Es la versión en inglés de Título, Resumen y Palabras Clave en castellano. e) INTRODUCCIÓN. En ella se expone en forma concisa el problema, el objetivo del trabajo y se resume el fundamento del estudio y la metodología utilizada. Se debe hacer mención además al contenido del Desarrollo del artículo. f) DESARROLLO. Se presenta en diversos capítulos. • Métodos y Materiales: donde se describe el diseño de la investigación y se explica cómo se llevó a la práctica, las especificaciones técnicas de los materiales, cantidades y métodos de preparación. • Resultados: donde se presenta la información y/o producto pertinente a los objetivos del estudio y los hallazgos en secuencia lógica • Discusión de resultados: donde se examinan e interpretan los resultados y se sacan las conclusiones derivadas de esos resultados con los respectivos argumentos que las sustentan. g) CONCLUSIONES. En este capítulo se resume, sin los argumentos que las soportan, las conclusiones extraídas en la Discusión de los Resultados, expresadas en frases cortas, sucintas. h) REFERENCIAS BIBLIOGRÁFICAS (o simplemente REFERENCIAS). Debe evitarse toda referencia a comunicaciones y documentos privados de difusión limitada, no universalmente accesibles. Las referencias deben ser citadas y numeradas secuencialmente en el texto con números arábigos entre corchetes. (Sistema Orden de Citación) Al final del artículo se indicarán las fuentes, como se expresa a continuación, en el mismo orden en que fueron citadas en el texto, según se trate de: Libros: Autor (es) (apellido e iniciales de los nombres), título del libro, número de tomo o volumen (si hubiera más de uno), número de edición (2da en adelante), lugar de edición (ciudad), nombre de la editorial, año de publicación, número(s) de página(s).

272

Publicaciones en medios electrónicos: si se trata de Información consultada en Internet, se consignarán todos los datos como se indica para libros, artículos de revista y trabajos presentados en eventos, agregando página Web y fecha de consulta; si se trata de otros medios electrónicos, se indicarán los datos que faciliten la localización de la publicación. En cualquiera de los casos, si los autores fueran más de tres, citar solamente al primero y añadir a continuación “et al”. 5. Ilustraciones. Incluir en el texto un máximo de 10 (diez) ilustraciones (Figuras + Tablas) 5.1. Figuras Todos los gráficos, dibujos, fotografías, esquemas deberán ser llamados figuras, presentados en blanco y negro y numerados con números arábigos en orden correlativo, con la leyenda explicativa que no se limite a un título o a una referencia del texto en la parte inferior y ubicadas inmediatamente después del párrafo en que se citan en el texto. Las fotografías deben ser nítidas y bien contrastadas, sin zonas demasiado oscuras o extremadamente claras. 5.2. Tablas Las tablas deberán numerarse con números romanos y leyendas en la parte superior y ubicarse también inmediatamente después del párrafo en que se citan en el texto. Igual que para las figuras, las leyendas deberán ser explicativas y no limitarse a un título o a una referencia del texto. 6. Unidades Se recomienda usar las unidades del Sistema Métrico Decimal. Si hubiera necesidad de usar unidades del sistema anglosajón (pulgadas, libras, etc.), se deberán indicar las equivalencias con el Sistema Métrico Decimal. 7. Siglas y abreviaturas Si se emplean siglas y abreviaturas poco conocidas, se indicará su significado la primera vez que se mencionen en el texto y en las demás menciones bastará con la sigla o la abreviatura. 8. Fórmulas y Ecuaciones Los artículos que contengan ecuaciones y fórmulas en caracteres arábigos deberán ser generadas por editores de ecuaciones actualizados con numeración a la derecha. Volumen 13, Nº 52, septiembre 2009.


NOTICIAS DE FUNDACITE BOLÍVAR CIENCIA, TECNOLOGÍA E INDUSTRIAS INTERMEDIAS

Por el desarrollo de Ciudad Guayana Sinergia Universidad - Industrias Academia Venezolana de Ciencias Físicas, Matemáticas y Naturales; y de Palmes Academiques del Gobierno francés. El Coordinador de Promat, el Dr. Humberto Jiménez, mencionó que el Taller “Sinergia Universidad- Industrias” tiene como propósito facilitar la consecución de sinergias en las que el conocimiento y el “saber hacer” existente en la universidad, pueda ayudar a resolver problemas específicos, contribuyendo al desarrollo del sector industrial, conscientes que el complejo de las industrias requiere de la optimización de los procesos y productos, en particular en materia de innovación, investigación y desarrollo. Agradeció el apoyo brindado por el Laboratorio de Investigación y Corrosión de la Unexpo, en especial a la Dra. Linda Gil, y a la Ing.. Gertrudis Márquez de C.V.G. Venalum, instituciones que hicieron posible el éxito de este evento. Dr. Humberto Jiménez

E

n el marco del 20° aniversario de Fundacite Bolívar, el Programa de Materiales (Promat), de esta institución, organizó el Encuentro de Centros y Laboratorios del Área de Materiales, que en esta ocasión arribó a su 6ta Edición, trayendo a la palestra pública un tema de gran importancia para la región: el Taller sobre “Sinergia Universidad – Industrias”, una espacio de encuentro para la integración de ambos sectores, en aras de la articulación y trabajo conjunto para el desarrollo de investigaciones y proyectos de interés común. El evento se realizó en la sede de Investigación y Postgrado de la Unexpo y tuvo como facilitador al Dr. Jean Louis Salager, fundador del Laboratorio de Formulación, Interfases, Reología y Procesos de la Universidad de Los Andes, ganador del Premio Nacional de Ciencias (mención investigación tecnológica), el Premio Simón Bolívar (por la excelencia académica), el Premio Nacional de la

Además, el Dr. Jiménez señaló que este tipo de encuentros permite reforzar el sector investigación, basado en las estadísticas de un investigador por cada 10 mil habitantes, de los cuales tan sólo el 1,64% del total de investigadores acreditados por el Ministerio del Poder Popular para Ciencia, Tecnología e Industrias Intermedias, pertenece al estado Bolívar, situación que desde su óptica amerita atención y por supuesto, la cooperación eficaz de grupos multidisciplinarios para contribuir a que el tejido industrial sea robusto, económicamente sostenible y ambientalmente sustentable.

Dr. Jean Louis Salager

265


El Dr. Salager expresó que las sinergia entre las universidades e industrias es de gran relevancia debido a que las acciones de estos sectores se deben complementar. Sólo así lo que se hace desde la universidad puede resolver lo que se necesita desde las industrias, en especial cuando en las industrias se llega a comprender que lo más útil no es precisamente lo más valioso y en las universidades se desarrolla aquello que es más interesante y no lo más básico. El Dr. Salager destacó como efectos complementarios entre estas dos vertientes: los conocimientos acumulados en la universidad y la experiencia acumulada desde las industrias; disponibilidad de tiempo en la universidad y limitaciones de uso de tiempo en las industrias; carencia de recursos materiales en la universidad y la disponibilidad de recursos materiales en las industrias y; capacidad potencial de innovación en la universidad y necesidad insatisfecha de innovación en la industrias. Aunado a ello, el Dr. Salager enfatizó que todos los investigadores, desde la universidad, deben preguntarse: ¿A qué trabajo original y también importante debo dedicar mi

tiempo?. Y para hallar la respuesta deben consultar a las industrias, estás tienen que poseer áreas estratégicas para desarrollar investigación, de esta manera quien investiga no pierde el tiempo en proyectos que nunca llegarán a concretarse y las industrias invierten en opciones eficaces para mejorar su gestión, dándole además la oportunidad al investigador de integrarse al campo de trabajo. Es necesario informar que toda esta interacción entre la universidad y la industria es estimulada, apoyada y fortalecida a través de los planes del Gobierno Bolivariano, entre los cuales destacan: la creación del Mppctii y el Programa PIN Nacional, Programa Agendas del Fonacit, Programa Pdvsa Intevep – Universidades, Programa de Diagnóstico para Empresas, Subvenciones para cooperación Universidad – Industrias, el Centro Nacional de Tecnología Química y la Ley Orgánica de Ciencia, Tecnología e Innovación. Para concluir, el Dr. Salager recalcó que “la universidad y las industrias deberían empezar a trabajar juntas, a utilizarse la una a la otra porque es una cuestión de supervivencia y de competitividad para ambos sectores. Y porque es posible”. Prensa Fundacite Bolívar.

266

Volumen 13, Nº 52, septiembre 2009.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.