UNIVERSIDAD, CIENCIA y TECNOLOGÍA Vol. 16, Nº 64, septiembre 2012 Revista trimestral editada por la Universidad Nacional Experimental Politécnica “Antonio José de Sucre”, UNEXPO, Vicerrectorado Puerto Ordaz. INDIZADA EN: Actualidad Iberoamericana Aluminium Industry Abstracts Corrosion Abstracts CSA Engineering Research Database CSA Materials Research Database with METADEX CSA Recent References Related to Technology CSA Technology Research Database Environment Abstracts LATINDEX Mechanical & Transportation Engineering Abstracts METADEX REVENCYT Colección SciELO Venezuela (www.scielo.org.ve) REGISTRADA EN: Ulrich΄s Internacional Periodicals Directory
Nuestra Portada: Parque eólico marino de Jiansu Rudong de 48,3 MW de potencia. El parque de Jaingsu, provisto de 21 aerogeneradores Siemens SWT 2,3-101 (de 2,3 MW de potencia y rotor de 101 metros de diámetro), se ubica en el este del mar de China. Los cimientos de los aerogeneradores se encuentran a cinco metros bajo el nivel del mar durante la marea alta. En marea baja, están totalmente descubiertos. Fuente: Revista Energías Renovables.
DIRECTORIO DE LA REVISTA UNIVERSIDAD, CIENCIA Y TECNOLOGÍA Directora: Dra. Minerva Arzola Editor: Dr. Luis Rosales Comité Editorial (en orden alfabético): Dr. Angel Custodio Dra. Mayra D’Armas Dr. Herman Fernández Dra. Linda Gil Dr. Luis Rosales Dr. Ovidio León MSc. Sady Zurita Autoridades Nacionales de la UNEXPO Rectora: Lic. Rita Añez Vice-Rectora Académica: Dra. Fraisa Codecido Vice-Rectora Administrativa: Msc. Mazra Morales Secretaria: Ing. Magly de Peraza Autoridades Regionales, Vicerrectorado Puerto Ordaz Vice-Rector: Dr. Ovidio León Director Académico: Ing. Carlos Pietri Director Administrativo: Msc. Miguel Leyton Directora de Investig. y Postgrado: Dra. Minerva Arzola Administración y transcripciones TSU Zorelys Romero Diseño Portada Tec. Miguel Torres Composición: Dra. Mayra D’Armas Impresión: Dirección de Investigación y Postgrado, UNEXPO Puerto Ordaz
Publicación Financiada por: Dirección de Investigación y Postgrado, UNEXPO, Vicerrectorado Puerto Ordaz.
Los artículos, opiniones y colaboraciones que se publican en esta revista no representan necesariamente la filosofía informativa ni institucional de la UNEXPO y podrán ser reproducidos previa autorización del Editor. En caso de reproducción se agradece citar la fuente y enviar ejemplares del medio utilizado a la UNEXPO, a la siguiente dirección: Dirección de Investigación y Postgrado, UNEXPO, Vicerrectorado Puerto Ordaz, Alta Vista Sur, Urb. Villa Asia, Final Calle China, Apdo. Postal 8050. Puerto Ordaz, Estado Bolívar, Venezuela. Telf./fax (0286) 9625245-9611382. Email: uripo.revista.uct@gmail.com, zorelysromero874@hotmail.com
CONTENIDO
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Vol. 16, Nº 64, Septiembre 2012 ISSN 1316-4821
153 Árbitros ENERGÍAS ALTERNATIVAS L.G. González, E. Figueres, G. Garcerá, O. Carranza. Comparación de Técnicas de Control 154 Vectorial aplicadas a GSIP en Sistemas de Conversión de Energía Eólica. ELECTRICIDAD Roberto Álvarez, Luis Rosales. Simulación de Descargas Atmosféricas y su efecto en Redes 161 Eléctricas de Potencia. ELECTRÓNICA Georges Jabbour, Jose Luis Paredes. Análisis de la Eficiencia del Algoritmo de 173 Reconstrucción de Señales basado en la Mediana Ponderada a través de la Regresión de Cox. FÍSICA 181
Kurt Gerhardt Lange, Ronald Fries. ¿La Gravitación Terrestre, Un Misterio?
REDES NEURONALES Alejandro Zambrano, Víctor Collazo, Numan Troncone, Jesús Rodríguez. NIS: Una 190 Herramienta Computacional para la Identificación de Sistemas Dinámicos en Lazo Cerrado 5 empleando Redes Neuronales Artificiales. SIMULACIÓN Sergio Velásquez, Ronny Velásquez. Modelado con Variables Aleatorias en Simulink utilizando 203 Simulacion Montecarlo. NOTA TÉCNICA 212
218
Keila Candotti, Dimas Mavares. Entorno de Simulación para Sistemas de Comunicaciones Inalámbricos de Alta Capacidad usando Matlab. Normas de Publicación 152
Árbitros Dr. Genni Aguilar-Hospital de Clínicas Caroní, Puerto Ordaz
Dr. Dimas Mavares- UNEXPO Barquisimeto
Dr. Alberto Jesús Andrade-LUZ
Dr. Agustín Mejías- Universidad de Carabobo
Dra. Minerva Arzola-UNEXPO Puerto Ordaz
Dr. Fernando Mora- USB
Dr. Orlando Ayala-UDO, Puerto la Cruz
MSc. Scandra Mora- UNEXPO Puerto Ordaz
Dr. Máximo Benavides-UNEXPO Puerto Ordaz
Dr. Luis Moreno- Royal Institute of Technology, Suecia
Dra. Ingrid Berrueta-UNEXPO, Barquisimeto
Dr. Jorge Mostany- USB
Dr. Ali Bahsar-ULA
MSc. Ángel Olivier- UNEXPO Puerto Ordaz
Dra. María Carolina Blanco-UNEXPO Barquisimeto
Dr. Adelmo Ortiz Conde- USB
MSc. José Borjas-UNEXPO Puerto Ordaz
Dr. Gianfranco Passariello- USB
MSc. Antonio Bravo-UNET MSc. Edwuin Carrasquero- UCV
Dr. Rafael Pérez Jiménez-Univ.de las Palmas, Gran Canarias
Dr. José Contreras-ULA Dr. Roberto Corral-Universidad de La Habana
Dr. Dester Perdomo- CUJAE, La Habana Dra. Olga Prado- SIDOR
Dr. Julio Cruz- USB
Dr. Eli Saúl Puchi- UCV
Dr. Ángel Custodio-UNEXPO Puerto Ordaz
MSc. Richard Resplandor- UNEXPO Puerto Ordaz
Dra. Mayra D’Armas- UNEXPO Puerto Ordaz Dr. Ramón Depool- UNEXPO Barquisimeto
Dra. Rosa Reyes- USB Dr. Ernesto Rodríguez Denis- ISPJAE, La Habana
Dr. Héctor Fernández- UNEXPO Puerto Ordaz
MSc. Gonzalo Rodríguez- EDELCA, Caracas
Dr. Herman Fernández- UNEXPO Puerto Ordaz
Ing. Luis Rojas Malavé- UNEXPO Barquisimeto
Dr. José Folgueras- ICID, La Habana
Dr. Rubén Rojas- ULA
MSc. Zulay Franco- UNEXPO Puerto Ordaz
Dr. Francisco Javier Rosas-ULA
Dr. Luis Galván- USB
Dr. Luis Rosales- UNEXPO Puerto Ordaz
Dr. Francisco García Sánchez- USB
Dr. Augusto Ruiz- USB
Dr. Luis García- UNEXPO Puerto Ordaz MSc. Charlo González- UNEXPO Puerto Ordaz
Dr. José Ramón Rus- Fundación Instituto de Ingeniería, Caracas
Ing. Dosinda González- USB
MSc. Luz Esther Salazar- UNEXPO Puerto Ordaz
Dra. Gema González- IVIC
Dr. Eugenio César Sánchez-ISPJAE, La Habana
MSc. Jesús González- UNEXPO Puerto Ordaz Dr. Leonardo González- UNEXPO Puerto Ordaz
Dr. Miguel Sánchez Gómez-LUZ
Dr. Rafael Guevara- UNEXPO Puerto Ordaz
Dr. José Sarabia- UNEXPO Barquisimeto
Lic. Huáscar Guilarte-UNEXPO, Puerto Ordaz
Dr. Benjamín Scharifker- USB
Dr. Víctor Guzmán- USB Dr. Diego Jugo- ULA
Dr. José Manuel Sierra-Universidad de Oviedo, España
Dr. Jesús López- UNEXPO Puerto Ordaz Dra. Gertrudis Márquez- VENALUM Dr. Jairo Márquez- ULA
Dr. Nando Troyani- UDO Puerto La Cruz
Dra. Olga Márquez- ULA
Dra. Sara Wong- USB
Dr. Franklin Mendoza- UNEXPO Puerto Ordaz
Ing. José Sánchez Medina- UNEXPO Puerto Ordaz
Dra. Mariana Staia- UCV Dra. Carmen Luisa Vásquez- UNEXPO Barquisimeto Dr. Vijande-Universidad de Oviedo, España
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
153
NIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
COMPARACIÓN DE TÉCNICAS DE CONTROL VECTORIAL APLICADAS A GSIP EN SISTEMAS DE CONVERSIÓN DE ENERGÍA EÓLICA L.G. González1, E. Figueres2, G. Garcerá2, O. Carranza3 (Recibido febrero 2012, Aceptado junio 2012) 2
1 Departamento de Electrónica y Comunicaciones, Universidad de los Andes, núcleo la Hechicera, 5101, Mérida-Venezuela. Grupo de Sistemas Electrónicos Industriales, Universidad Politécnica de Valencia, Camino de vera s/n, 46022, Valencia-España. 3 Escuela Superior de Computo, Instituto Politécnico Nacional, Av. Juan de Dios Bátiz s/n, 07738, DF-México.
Resumen: Este artículo se presenta un estudio comparativo de las principales técnicas de control vectorial aplicadas a Generadores Síncronos de Imanes Permanentes (GSIP) utilizados en Sistemas de Conversión de Energía Eólica (SCEE), la comparación de las técnicas están basadas en el modelado del generador, cuantificando en rendimiento presente en cada una de estas técnicas de manera analítica, adicionalmente las técnicas que resultaron más eficientes son comparadas experimentalmente en un prototipo del SCEE con un Convertidor de potencia Back-to-Back, controlado por un DSP modelo TMS320F2812 de Texas Instruments. Palabras clave: Control Vectorial/ Generador Sincrónico de Imanes Permanentes/ Energías renovables/ Energía eólica/ Convertidor back-to-back.
COMPARISON OF VECTOR CONTROL TECHNIQUES APPLIED TO SYSTEMS GSIP WIND ENERGY CONVERSION Abstract: In this work is presented a study and are compared the mains vectorial control techniques which are applied in conversion systems of wind energy the techniques are compared using in the generator, additionally the techniques more efficient are experimentally compared in a prototype of a convertion system of wind energy with a power converter Back to Back, controlled by a DSP, Model Tm5320F2812 of Texas instruments. Keywords: Vectorial Control/ Permanent Magnet Synchronous Generator/ Renewables/ Wind Power/ Converter back-to-back.
I. INTRODUCCIÓN El uso de las energías renovables se ha incrementado en la última década no solo por el aumento de los combustibles fósiles sino también por la reducción de las emisiones de CO2 de los países industrializados. Particularmente los Sistemas de Conversión de Energía Eólica (SCEE) son considerados como los más efectivos y rentables de las fuentes de energía alternativa [1]. En algunos países como Alemania, USA y España la potencia generada a partir de SCEE es comparable con la generación de energía a partir de las fuentes convencionales. En los SCEE de velocidad variable, el sistema de control es uno de los elementos más importantes, debido a que define el punto de operación en todo momento para aprovechar al máximo la energía del viento. Además el uso de Generadores Sincrónicos de Imanes Permanentes (GSIP) en los SCEE es cada vez más frecuente, debido que estos pueden ser diseñados con un elevado número de polos, razón por la cual pueden utilizarse sin caja de
engranajes entre la turbina eólica-generador y aumentar la eficiencia del sistema. En el diseño de los SCEE de velocidad variable, es necesario tomar en cuentas dos aspectos fundamentales para el desempeño de los mismos, el primero de ellos es la impredecible disponibilidad del viento, y la segunda, es la dependencia que existe entre la aerodinámica de la turbina, velocidad del generador y la cantidad de potencia que puede ser extraída del viento. Existen varias estrategias de control, que toman en cuentas estos aspectos para tratar extraer en todo momento la máxima potencia disponible del viento [2]-[5]. En el caso de las maquinas sincrónicas, las técnicas de control vectorial permiten que estas sean utilizadas en una amplia variedad de aplicaciones, debido a que permiten un manejo de velocidad y par mecánico con elevada precisión. Las técnicas de control vectorial en máquinas sincrónicas de imanes permanentes han sido estudiadas por [6]-[7]-[8]
González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160
154
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 entre otros, y para el caso de esta investigación específicamente se tratan por ser las más importantes: 1.Corriente reactiva igual a cero (id=0), 2.- Factor de Potencia Unitario (UPF). 3.- Máximo par por unidad de corriente. 4.- Flujo constante. En el caso de cada una de estas técnicas se desarrolla utilizando el sistema de referencia síncrono (SRF) y el modelo en estado estacionario (dq) del GSIP, para poder determinar el rendimiento en cada una de las técnicas estudiadas.
El esquema general de control del SCEE, se muestra en la Figura 1, en el mismo se utiliza un GSIP acoplado directamente a la turbina eólica y a su vez eléctricamente a un convertidor trifásico back to-back. En relación a la estrategia de control, la etapa rectificadora e inversora utiliza un modulador PWM respectivamente, además se utiliza un estimador de la posición angular y velocidad mediante técnicas sensorless [9]-[10], que permite alcanzar la sincronía entre el GSIP y las variables de referencia del sistema de control.
Figura 1. Esquema general de control del SCEE
El artículo está compuesto por las siguientes secciones: El modelo del GSIP en el sistema de referencia síncrono, es presentado en la sección 2. En la sección 3, se desarrollan las técnicas de control vectorial aplicadas al GSIP. En la sección 4, se comparan de manera teórica las técnicas de control vectorial estudiadas. En la sección 5 de presentan y analizan los resultados experimentales, y finalmente se presentan las conclusiones en la sección 6.
(1) (2) (3)
isd
II. DESARROLLO 1. Modelo del Generador Sincrónico de Imanes Permanentes (GSIP) El circuito equivalente por fases del GSIP con una distribución sinusoidal es modelado en el sistema de referencia estacionario αβ [11], mostrada en la ecuación (1). Donde rs es la resistencia por fase, y Ls es la inductancia equivalente, esta inductancia incluye las inductancias mutuas entre las fases y la de fugas, es el voltaje en bornes, ( es la fuerza electromotriz (EMF) estimada por los imanes permanentes, y son las corrientes de línea. En las ecuaciones (2) y (3) Muestra el modelo del GSIP en el sistema de referencia síncrono (Park) dq, Figura 2.
+ vsd -
Ld
isq
rs + ωLqisq
Lq
rs
+ vsq
+ -ωLdisd+ωΨm
-
Figura 2. Circuito equivalente del GSIP en el sistema de referencia síncrono dq.
El flujo inducido en el estator en el sistema dq está descrito por las ecuaciones (4) y (5): (4)
González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160
155
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 La comparación de estas técnicas estará definida por su rendimiento, en función de la ecuación (11).
(5) En las ecuaciones anteriores, es la velocidad angular del voltaje y corrientes en el GSIP, también es el flujo producido por los imanes permanentes. y son los voltajes en bornes, y son las corrientes del generador en el sistema de referencia síncrono dq, y son la inductancia del estator en sistema de referencia síncrono dq. El par electromagnético aplicado al rotor del GSIP es mostrado en la ecuación (6). Si el GSIP es de rotor liso, se cumple ( ), el par electromagnético es simplificado como se muestra en la ecuación (7).
(11) Donde es la potencia mecánica efectiva de entrada (12), y es la potencia eléctrica de salida definida en la ecuación (13). (12)
(13)
(6)
(7) Donde P es el número de pares de polos. En las maquinas sincrónicas, la velocidad de rotor presenta una relación lineal con la velocidad angular de tensión y corriente de línea del GSIP, mediante la ecuación (8).
2.1. Corriente reactiva igual a cero (id=0) Esta técnica pretende mantener la corriente reactiva identificada como id en el sistema de referencia síncrono sea nula, bajo esta condición se cumple la ecuación (14), y la corriente por fase del generador en el sistema de ejes a,b,c está determinada por la ecuación (15). (14)
(8) (15) 2. Técnicas de control vectorial en GSIP Las técnicas de control vectorial, permiten manipular el factor de potencia de la máquina con precisión, mediante la descomposición y control independiente de las componente activa y reactiva de la corriente en el GSIP, de manera que se pueda manejar indirectamente el par ejercido por la máquina y controlar la velocidad de una manera más eficiente. Para el control de maquinas sincrónicas se han propuesto otras técnicas como el control directo de par (DTC), que presenta el inconveniente de generar mayor distorsión en las corrientes de línea que en el caso del control vectorial [6]. En consecuencia se ha preferido el control vectorial para esta aplicación. Para realizar el análisis teórico de las técnicas de control estudiadas en este articulo, es necesario definir el modelo en estado estacionario del GSIP, que parte de las ecuaciones (2) y (3), asumiendo las condiciones de rotor liso (Ld=Lq=L), y suprimiendo los términos dependiente del tiempo, obteniendo así las ecuaciones (9) y (10). (9)
El diagrama vectorial de las corrientes y tensiones de esta técnica puede observarse en la Figura 3.
Figura 3. Diagrama vectorial en estado estacionario para la técnica Id=0.
Esta técnica es utilizada comúnmente en generadores de rotor liso, ya que cuando la diferencia de reluctancias es significativa, el rendimiento de la máquina se reduce. La potencia de entrada a la máquina está dada por la ecuación (16).
(10) (16)
González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160
156
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 Y la potencia de salida está dada por la ecuación (17), y su rendimiento es mostrado en la ecuación (18).
Y la potencia de salida está dada por la ecuación (22) y el rendimiento está expresado mediante (23).
(17) -
-
-
(22)
(18) -
-
(23)
2.2. Factor de potencia unitario UPF Esta técnica se fundamenta en mantener el factor de potencia unitario en bornes de la máquina, es decir, la corriente y tensión se encuentren en fase en el punto de conexión. Dado que el generador no entrega potencia reactiva, la relación entre la tensión en directo y en cuadratura es igual a la relación entre la corriente en directo y en cuadratura, como se observa en la ecuación (19). (19)
2.3. Máximo par por unidad de corriente Esta técnica permite maximizar el par por unidad de corriente y minimizar las pérdidas por el efecto joule en los conductores [12]. Con esta técnica se consigue la máxima eficiencia del generador en función a la relación entre la corriente directa y en cuadratura. Para relacionar las corrientes de línea en el sistema de referencia estacionario id e iq, en función al ángulo de desfase de la corriente de línea en el sistema de referencia a,b,c y el flujo magnético producto de los imanes permanentes, es utilizado el conjunto de ecuaciones (24) y (25).
El diagrama vectorial de la técnica UPF es mostrado en la Figura 4.
(24)
(25)
Donde es el valor pico de la corriente de línea en el GSIP, y es el ángulo de desfase entre la corriente de línea y el flujo magnético . Sustituyendo la ecuación (25), en la ecuación de par mostrada en la ecuación (7), se obtiene la ecuación (26). (26) Figura 4. Diagrama vectorial en estado estacionario para la técnica UPF.
A partir de las ecuaciones (9), (10) y (19), es posible encontrar la corriente reactiva en función de la corriente activa como se muestra en la ecuación (20).
(20)
La potencia de entrada a la máquina está dada por la ecuación (21): (21)
De manera que el par electromagnético depende del ángulo de desfase . El par máximo ocurre cuando la derivada de la ecuación (26) en función de cumple con la condición mostrada en la ecuación (27). (27) En el caso del generador de rotor liso el par máximo ocurre cuando , de manera que (id=0), situación que se cumple con la técnica de corriente reactiva igual a cero. Desde otra perspectiva mediante la cual se maximice el rendimiento, puede ser vista mediante la sustitución de la ecuación (24) y (25) en (13), se obtienen las ecuaciones (28) y (29) que representan la potencia de entrada y salida
González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160
157
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 en función del ángulo de la corriente en el sistema abc y el eje d del sistema de referencia síncrono dq. 2
3 pout = 2
m is sin
α -rs
3 i cos α 2 s
(32)
2
+
3 i sin α 2 s
(28)
La ecuación (33), representa la corriente del eje d, en función de iq, para la técnica de control vectorial flujo constante.
(29) La ecuación (30), representa el rendimiento del generador en función de las ecuaciones (28) y (29).
(33)
El rendimiento de esta técnica está determinado por la ecuación (34).
(30) (34) Donde: 3. Comparación de las técnicas de control vectorial (31) Maximizando la ecuación (30), mediante su derivada mostrada en la ecuación (31), se obtiene cuando α=90°, de manera que la técnica de máximo par por unidad de corriente, también puede llamarse la de máximo rendimiento. 2.4. Técnica de flujo constante En esta técnica se pretende mantener el flujo constante en el generador, este flujo equivalente es producto de la suma vectorial del flujo magnético de los imanes permanentes y de las corrientes en el estator. Esta técnica limita el par asociado a la máquina, teniendo que aumentar la velocidad de operación para manejar la potencia nominal [6]. La ecuación que permite mantener el flujo constante está dada por la ecuación (32).
(a)
Una vez analizadas las técnicas de control vectorial más utilizadas en máquinas sincrónicas se puede llevar a cabo un estudio comparativo que parte del prototipo disponible en el laboratorio mostrado en la Figura 6. En concreto, las técnicas han sido evaluadas para una potencia de entrada de 2Kw y un rango de velocidades de rotación entre 100 y 650rpm. En la Figura 5a, se muestra el rendimiento obtenido para velocidades de rotación inferiores a 318rpm, en esta región la potencia de salida es limitada por la corriente de línea, la cual puede observarse en la Figura 5b. En relación al rendimiento, se observa que la técnica Id=0 presenta el mejor desempeño, seguido de la técnica de flujo constante y por último la de factor de potencia unitario, con una diferencia de 0.4% respecto a la técnica Id=0. En relación a la corriente de operación en la región limitada por la potencia, región que opera en velocidades mayores a 318rpm, la corriente de línea en el GSIP es mayor con la técnica UPF, y menor con la técnica Id=0.
(b)
Figura 5. Comparación de desempeño de técnicas de control vectorial. González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160
158
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 mostrados en la Tabla I, son evaluadas las técnicas Id=0 y UPF, con una potencia de entrada al convertidor Back-toBack de 1300w, y una velocidad de rotor de 330rpm.
4. Resultados Experimentales Con el fin de comprobar de manera experimental en el prototipo mostrado en la Figura 6, con los valores
Tabla I. Parámetros de prototipo experimental Numero de Polos
12
Velocidad máxima GSIP
650rpm
Resistencia estator (rs)
5Ω
DC link Voltaje Vdc_ref
800V
Inductancia de línea GSIP (L)
25mH
Coeficiente de inercia
0.5kg·m2
Tiempo de muestreo (Ts)
10µs
Coeficiente de flujo magnético (
)
0.97v∙s/rad
Frecuencia de conmutación
5 kHz
Figura 6. Prototipo Sistema de Conversión de Energía Eólica. En la Figura 7, se muestran las corrientes del rectificador controlado e inversor para la fase a, para ambas técnicas. Obsérvese que en ambas figuras la corriente del inversor tiene un valor rms de 1.87A, esta corriente representa que en ambos casos la potencia entregada a la red es igual si se asume que la tensión de línea permanece constante. En
relación a la corriente de línea en la etapa rectificadora, se observa que cuando es aplicada la técnica id=0, esta es menor. En relación al sistema de control de la etapa inversora, se ha realizado como en ¡Error! No se encuentra el origen de la referencia.], donde se aplica la técnica id=0, pero no es objetivo de este artículo.
Rectificador Inversor
(a)
Rectificador Inversor
(b)
Figura 7. Corriente de la fase a, rectificador e inversor; (a) Id=0, (b) UPF González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160
159
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 Si se determinan las perdidas en el GSIP, en estado estacionario, mediante la corriente de línea de la máquina en ambos casos, para la técnica Id=0 y UPF, se obtienen las pérdidas en el cobre, mostradas en (35). (35)
De las pérdidas calculadas anteriormente, es posible demostrar que las pérdidas en la máquina utilizando la técnica UPF aumentan un 4% en comparación a la técnica Id=0, siendo el rendimiento del GSIP η=87.39%, mientras que para la técnica UPF es η=86.95%. La diferencia entre las dos técnicas es de ∆η=0.44%, diferencia que puede aumentar a medida que el punto de operación se acerque al de potencia nominal. La diferencia de fase entre las corrientes de línea y la fuerza electromotriz estimada no puede apreciarse de manera experimental debido a la velocidad de respuesta del módulo de intercambio de datos en tiempo real del DSP. III. CONCLUSIONES 1. En conclusión a las técnicas de control vectorial estudiadas, es importante destacar que la técnica Id=0, presenta un mejor rendimiento, dado que se reducen las pérdidas en la GSIP, la cuales se reflejan en el aumento de la temperatura de operación y por lo tanto disminución de la vida útil del generador. 2. La eficiencia de las técnicas de control vectorial depende en gran medida de la estimación de la posición del rotor, dado que la diferencia entre las corrientes de referencia para cada una de las técnicas es similar. 3. La diferencia entre las técnicas de control vectorial es apreciable a medida que aumenta la potencia de la máquina, dado que aumenta las corrientes de línea de éstas, variable que influye directamente sobre las pérdidas eléctricas. IV. REFERENCIAS 1. Yang H, Wei Z, Chengzhi L, Optimal design and techno-economic analysis of a hybrid solar–wind power generation system, Applied Energy 2009;86(2):163-169. 2. H. Camblong, I. Martinez de Alegria, M. Rodriguez, G. Abad, Experimental evaluation of wind turbines maximum power point tracking controllers, Energy Conversion & Management 2006;47(18):2846-58.
3. Y.Y. Hong, S.D. Lu, C.S. Chiou, MPPT for PM wind generator using gradient approximation, Energy Conversion and Management 2009; 50(1):82–89. 4. E. Koutroulis, K. Kalaitzakis, Desing of a Maximum Power Tracking System for Wind-Energy-Conversion Applications, IEEE Transactions on Industrial Electronics 2006;53(2):486-94. 5. B.M. Nagai, K. Ameku, J.N. Roy, Performance of a 3kW wind turbine generator with variable pitch control system, Applied Energy 2009;86(9):17741782. 6. Kazmierkowski MP, Blaabjerg F, Krishnan R. Control in Power Electronics Selected Problems. San Diego, California: Elsevier; 2002. 7. Zhang B., Pong M.H., Maximum Torque Control and Vector Control of Permanent Magnet Synchronous Motor, In International Conference on Power electronics and Drive Systems, Singapure, May 1997. 8. Christos Mademlis, Nikos Margaris, Loss Minimization in Vector-Controlled Interior Permanent-Magnet Synchronous Motor Drives, IEEE Transactions on Industrial Electronics 2002;49(6):1344-1347. 9. Brahmi J, Krichen L, Ouali A, A comparative study between three sensorless control strategies for PMSG in wind energy conversion system, Applied Energy 2009;86(9):1565-73. 10. L.G. González, E. Figueres, G. Garcerá, O. Carranza, ”Synchronization techniques comparison for sensorless control applied to PMSG”, International Conference on Renewable Energies and Power Quality (ICREPQ´09), ISBN 978-980-84-612-80148,(15-17 April, 2009) 11. Yin M, Li G, Zhou M, Zhao C. Modeling of the wind turbine with a permanent magnet synchronous generator for integration. In: IEEE power engineering society general meeting, Tampa, Florida; June 24–28, 2007. 12. Chinchilla M, Arnaltes S, Burgos JC, Control of permanent-magnet generators applied to variablespeed wind-energy systems connected to the grid, IEEE Trans Energy Conversion 2006;21(1):130-135. 13. Figueres E, Garcerá G, Sandia J, González-Espín F, Calvo Rubio J, Sensitivity Study of the Dynamics of Three-Phase Photovoltaic Inverters With an LCL Grid Filter, IEEE Trans Ins. Electron 2009;56(3):706-717.
AGRADECIMIENTOS El primer autor agradece al Grupo de Sistemas Electrónicos Industriales (GSEI) de la Universidad Politécnica de Valencia (UPV) por el financiamiento recibido y uso de su infraestructura para realizar esta investigación.
González, L. G. et al. Comparación de técnicas de control vectorial. pp. 154-160
160
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
SIMULACIÓN DE DESCARGAS ATMOSFÉRICAS Y SU EFECTO EN REDES ELÉCTRICAS DE POTENCIA Alvarez, Roberto 1 Rosales, Luis 2 (Recibido mayo 2010, Aceptado febrero 2012) 1
Ingeniero Electricista, egresado de la UNEXPO Vicerrectorado Puerto Ordaz, Venezuela 2 Sección de Física, UNEXPO Vicerrectorado Puerto Ordaz, Venezuela
lrosales2@unexpo.edu.ve Resumen: En este trabajo se halla una solución numérica a la Ecuación de Heaviside para simular las
Descargas Parciales de origen Atmosférico, con parámetros ambientales presentes al norte del Estado Bolívar, Venezuela, que inciden en los Sistemas Eléctricos de Potencia. Palabras claves: Simulación/ Ecuación del telegrafista/ Descargas atmosféricas/ Redes eléctrica
SIMULATION OF LIGHTING STROKES AND THEIR EFECT ON A POWER ELECTRICAL GRID Abstract: This paper finds a numerical solution to the Heaviside equation to simulate partial discharges
of origin Atmospheric, with environmental parameters present in the north of Bolivar State, affecting the Electric Power Systems. Keywords: Simulation/ Telegraphis Equation/ Atmospheric Discharges/ Power Electrical Grid.
I. INTRODUCCIÓN Diariamente, a nivel mundial se producen alrededor de 5 millones de descargas eléctricas atmosféricas (DEAT). El impacto de estos eventos implican desde pérdidas de activos y bienes materiales, hasta pérdidas de vidas humanas por accidentes relacionados directa o indirectamente con dichas descargas. La naturaleza aleatoria de este fenómeno hace difícil su entendimiento, y después de muchos años de desarrollos científicos aún son desconocidos muchos de sus principales características. Para el estudio científico es necesaria la medición, representación y simulación de las variables, es por ello que para la comprensión de las descargas, es necesaria la caracterización del mismo, haciendo proyecciones que posteriormente sirvan para el análisis y desarrollo de mejoras al servicio eléctrico. Con las nuevas tecnologías y el continuo desarrollo de estas, en la actualidad se cuenta con técnicas confiables que miden las variables asociadas al fenómeno, que por su complejidad es necesario el soporte de computadores cada vez más rápidos y de métodos numéricos que permitan representarlo. Con los parámetros que describen la descarga atmosférica, obtener un modelo de sobretensión para este fenómeno y determinar de manera más exacta
las perturbaciones que está genera en todos los elementos pertenecientes a la red eléctrica nacional en Venezuela, es el principal objetivo de esta investigación. En el año 2004, Miramare realizó la revisión de la coordinación de aislamiento del patio de distribución de Caruachi a 400 kV ante el fenómeno de DEAT, utilizando como herramienta el programa ATPDraw. Fernández, realizó el Estudio para disminuir la tasa de salida anual por DEAT de la línea Palital-Furrial a 400 KV, el cual mostró la forma de disminuir la tasa de salida por DEAT de dicha línea de transmisión haciendo uso de un modelo hecho con el software T-flash. Para el año 2006, Fernández, realizó el estudio del comportamiento de la línea de transmisión Las Claritas-Santa Elena a 230 KV cuando es sometida a sobretensiones provocadas por DEAT. Luego en el 2007, Pedroza, realizó un estudio del comportamiento en estado transitorio de las perturbaciones producidas en los sistemas de control de la S/E Tocoma Construcción 230/34,5/13,8 KV causados por eventos asociados a DEAT. En el año 2008, Rodríguez, realizó el Estudio de la Variación Espacial-Temporal de los Parámetros de la Descargas Atmosféricas en Venezuela y tuvo como objetivo estudiar el comportamiento y parámetros de este fenómeno.
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172
161
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 Las condiciones de aislamiento en subestaciones de transmisión requieren la consideración de magnitud, frecuencia de ocurrencia y tipo de sobretensiones que puedan presentarse durante su operación. Una sobretensión transitoria importante es la producida por las DEAT que inciden en la subestación; bien sea que lleguen a través de la línea de transmisión o que se deban a descargas directas sobre los equipos de la subestación, producidas por fallas del apantallamiento. Este último tipo de descargas conlleva a unas condiciones difíciles para los aislamientos. Cuando una DEAT alcanza un sistema de potencia, una sobretensión elevada aparece a través de los equipos en la subestación. Si la sobretensión excede la rigidez del aislamiento, ésta se romperá y aparecerá un arco eléctrico que será mantenido por la tensión a la frecuencia industrial del sistema. Se hace necesaria entonces la operación de interruptores para eliminar el cortocircuito. Si la descarga se produce a través del aire, en una cadena de aisladores o de equipos con aislamiento autorregenerativo, generalmente no se producen daños. Si por otra parte la descarga se produce en aislamientos no regenerativos como motores o transformadores entonces el daño es permanente. En la práctica, la función del apantallamiento consiste en proteger a los equipos de la subestación contra descargas directas. El conocimiento de la formación de las DEAT es de gran utilidad para entender como los diversos elementos (cables de guarda, mástiles, etc.) ofrecen protección. En este trabajo se estudian las descargas parciales de origen atmosférico basado en la solución numérica de la ecuación Heaviside, la cual es una ecuación diferencial en derivadas parciales de segundo orden del tipo hiperbólica, y determinar su influencia en redes eléctricas de potencia tomando en cuenta los parámetros de información geográfica y ambiental de la zona donde ocurran estos eventos. II. DESARROLLO El análisis estadístico que se muestra a continuación se hizo con la información recibida por parte del Departamento de Gestión Información Geográfica y Ambiental, adscrito a la Gerencia de Gestión Ambiental de Corpoelec Región Sur, en la que se muestra la fecha, ubicación y magnitud de las DEAT registradas en la zona seleccionada durante los años 2000 al 2005. Fueron seleccionados estos años pues fue en ese período donde se registró la mayor actividad de tormentas y el mejor desempeño del SDDA. En cuando a la zona de estudio, fue seleccionada tomando en cuenta la importancia de la línea de transmisión Guri-Guayana B para el suministro eléctrico del parque industrial de la región. 1. Información estadística de la ocurrencia de DEAT por cada año Una vez procesada toda la información recibida por los
operadores del SDDA, se procedió a la obtención de variables estadísticas básicas cuyos resultados se reflejan en la Tabla I. Tabla I. Análisis estadístico a los datos recogidos del SDDA de Corpoelec agrupados por año. Año
2000
2001
2002
2003
2004
2005
Máximo (KA)
-48
-4
58
68
103
18
Mínimo (KA)
-185
-60
-138
-194
-184
-558
31
1759
3776
2424
810
17,58
24,04
23
25,75
33,91
17,58
18,62
17,90
21,207
59,95
Número de 26 DEAT Corriente 84,13 promedio (KA) Desviación 36,124 estándar (δ)
Varianza (δ2) 1248,2 157,21 346,45
320,512 449,589 3590,43
Para el año 2000, el periodo de tormentas se inició en el mes de junio y se extendió hasta el mes de noviembre, registrándose un total de 26 DEAT. Si bien en cierto esta año no fue muy activo en lo a DEAT se refiere, en él se registró el promedio más alto en cuanto a la intensidad de las DEAT. Durante el año 2001 solamente se registraron 31 DEAT, todas ellas de baja intensidad, en el mes de abril. En el año 2002, con excepción de los meses de febrero y diciembre, se registraron tormentas durante todo el año. Esto queda evidenciado con un número total de DEAT de 1759. La actividad fue bastante uniforme, no se encontraron valores de corriente sobresalientes en la muestra. Durante el año 2003 fueron registradas entre los meses de mayo y diciembre un total de 3776 DEAT, siendo este el año con mayor actividad atmosférica. En este año particularmente fue muy común registrar el fenómeno de descargas múltiples idénticas. En el año 2004 se registraron la cantidad de 2424 DEAT entre los meses de mayo y diciembre, teniendo un comportamiento parecido al año anterior. Durante este año se registra una intensa actividad tormentosa con DEAT que superan frecuentemente los 100 kA. Ya en el año 2005, con solo 810 DEAT entre los meses de abril y diciembre, se registraron con frecuencia DEAT con magnitudes superiores a los 300 kA, incluso para los meses de junio y junio se registraron valores superiores a los 500 kA, siendo estos valores completamente atípicos para esta región. La variación de estos valores deja en evidencia la “Hipótesis de la Variación Espacio-Tiempo de los Parámetros de una DEAT” y la cambiante actividad atmosférica presente en las zonas inter-tropicales cercana a la Zona de Convección Tropical. Esto quiere decir que los parámetros característicos de las DEAT cambian anualmente y responden a variaciones en sistemas
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172
162
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 mesoclimáticos, es decir, a cambios que no se limitan solamente a nuestra región geográfica en estudio. Es por ello que se recomienda hacer un estudio de estas variables antes de proceder a la especificación de sistemas de protección contra DEAT y demás elementos en un sistema eléctrico de potencia. 2. Localización espacial de las DEAT Con la ayuda de la información de ubicación (latitud y longitud) de las DEAT dada por SDDA en nuestra región de estudio, se procedió a su localización mediante un programa de gestión de imágenes satelitales, eso con el fin de conocer cual zona presenta la mayor incidencia de DEAT, así como conocer el lugar donde se han producido singularidades como corriente de retorno positivas y corrientes cuya intensidad puede ser calificada como excepcional. Durante los 6 años de los que se compone la muestra de nuestro estudio las zonas aledañas a las Centrales Francisco de Miranda (Caruachi) y la José Felix Rivas (Tocoma) son las que presentan la mayor concentración de DEAT. También puede apreciarse que durante el mes de Julio del año 2005, mes donde se registraron las DEAT de mayor intensidad (≥ 400 kA), gran número de éstas ocurrieron en las adyacencias del Distribuidor Puente Orinoquia, en las afueras de la Zona Industrial De Ciudad Guayana, pudiéndose plantear como posible hipótesis de este fenómeno polución debida a elementos metálicos presentes en la zona que pueden disminuir considerablemente la resistencia eléctrica del canal de descarga. 3. Ecuación de Heaviside (Telegrafista) Con este modelo se representa el canal de descarga de una DEAT como un circuito eléctrico de una línea disipativa, este sistema continuo es representado por las ecuaciones Ec.1 y Ec.2. (1)
variable dependiente en puntos seleccionados. Las ecuaciones son lineales si las ecuaciones diferenciales parciales son también lineales. Diferencias finitas Del teorema de Taylor para funciones de dos variables y truncamiento a segundo orden, se deduce que: Donde se evalúa en el punto (xi,tj) la derivada de primer orden y en (xi+∆x, tj) la de segundo orden, siendo el error 0.(Δx) igual en ambos casos, queda:
I x 2 x 2 I x 2 x x 2
I in1, j I in, j x I in1, j I in, j
La primera derivada y segunda derivada son evaluadas en los puntos (i,j) y (i+1,j). Sumando las Ec.3 y Ec.4 queda:
I in1, j I in1, j 2.I in, j x 2 .
n n n 2 I I i 1, j 2 I i , j I i 1, j x 2 x 2
(6)
Podemos entonces aproximar la segunda derivada como se ve en la Ec.6, donde el error de aproximación sería 0(∆x2). Para determinar la aproximación de primer orden partimos igualmente de las Ec.3 y Ec.4 pero con un truncamiento a primer orden, quedando:
I 0(x) (7) x I x 0(x) (8) x
I in1, j I in, j x I in1, j I in, j
4. Métodos numéricos y esquema de discretización El método de diferencias finitas es una clásica aproximación para encontrar la solución numérica de las ecuaciones que gobiernan el modelo matemático de un sistema continuo. Es valioso familiarizarse con ésta aproximación porque tal conocimiento reforzará la comprensión de los procedimientos de elementos finitos. Como resultado de la aproximación, la ecuación diferencial parcial que describe el problema es reemplazada por un número finito de ecuaciones algebraicas, escritas en términos de los valores de la
2I 0(x) (5) x 2
Despejando el término derivativo a segundo orden, finalmente queda:
(2) para t>0, x ϵ (0,λ), siendo λ la altura del canal de descarga.
2I 0(x) (3) x 2 (4) 2I 0(x) 2 x
Si restamos Ec.7 y Ec.8, nos queda:
I in1, j I in1, j 2.x.
I x
(9)
Despejando el término derivativo a primer orden, finalmente queda: n I I ( xi 1,t j ) I ( xi 1,t j ) x 2.x
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172
(10)
163
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 Discretización de un espacio-tiempo continúo El desarrollo anteriormente expuesto tiene como propósito resolver sistemas diferenciales continuos. En sistemas discretos se resuelven mediante aproximaciones finitas, esto se logra mediante la creación de un número finitos de nodos o puntos que dividen cada eje en pasos o diferenciales.
diámetro. En el problema se toma una altura típica de 1000 m la cual se divide en 250 elementos con un paso de tiempo Δt de 0.5 µs. Los valores usados en nuestra simulación como parámetros eléctricos para el canal de descarga se muestran en la Tabla 2. Tabla 2. Parámetros eléctricos del canal de descarga de una DEAT
Altura (X) Inductancia (L) Capacitancia (C) Conductancia (G) Resistencia (R)
Figura 1. Espacio mallado donde se aplica la discretización.
5. Discretización de la Ecuación de Heaviside La idea básica de las diferencias finitas es sustituir al espacio-tiempo continuo por un conjunto discreto de puntos. Las distancias entre los puntos de esta red no tiene porqué ser uniformes. En este paso se sustituyen las Ec.6 y Ec.10 en Ec.3 y Ec.4, dando como resultado una expresión algebraica representada en la ecuación. I
i 1, j
LC
I
2.I
i, j x 2
i, j 1
I
2.I
i 1, j
i, j t 2
I
( R.C G.L)
i, j 1
I
1000 m 2.18 mH 6.95 pF 5 µS 1000 a 5000 Ω
Una vez discretizada la ecuación de Heaviside (Ec.11) se procedió a implementarla numéricamente en MATLAB usando los parámetros mostrados en la Tabla 2, adicionalmente a ello se utilizó la variación de R y G para mostrar el comportamiento disipativo del canal de descarga. En este mismo orden de ideas, para demostrar la estabilidad del código de usaron diferentes valores de dx, esto con el fin de corroborar la condición CFL. En la Figura 2 puede apreciarse una comparación entre las ondas obtenidas numéricamente (tanto para G=0 y G≠0) y la onda generada a partir de una función analítica. Puede notarse la notoria diferente para la gráfica con G=0, esto se debe a que no es están tomando en cuenta las características disipativas del canal de descarga, provocando así una atenuación menor.
I i, j 1 i, j 1 2.t
(11) R.G.I
i, j
0
Posteriormente, para obtener un “término futuro” o garantizar el avance en el tiempo del modelo propuesto, se procede al despeje del término Ii,j+1, el cual se visualiza en Ec.12: t.( R.C G.L) I t.( R.C G.L) 2.L.C i, j 1 2.L.C (I 2.I ) i, j t.( R.C G.L) 2.L.C i, j 1 2 2.t (I 2.I I ) i 1, j i, j i 1, j x 2 (t ( R.C G.L) 2.L.C ) 2.t 2 .R.G I t ( R.C G.L) 2.L.C i, j I
i, j 1
(12)
6. Resultados Para validar e ilustrar este método se represente la nube y la tierra como un capacitor cilíndrico de placas paralelas de 1 Km de radio y el canal de descarga de unos 20 cm de
Figura 2. Comparación entre las soluciones numéricas (G=0 y G≠0) y la analítica (Heidler)
En la Figura 3 se aprecia el detalle de las crestas de las ondas representadas en la Figura 2, esto con el fin de visualizar mejor el momento en que ocurren los picos de corriente y también con el fin de apreciar el “frente de onda” de las mismas.
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172
164
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Figura 3. Detalle de los valores picos de las soluciones numéricas (G=0 y G≠0) y la analítica (Heidler)
Figura 5. Solución numérica con diferentes valores de R para G=0
Una vez comparada la solución númerica implementada con la solución analítica conocida procedimos a simular distintos modelos. La Figura 4 nuestra la corriente calculada a partir de la la Ec.11 para distintos valores de G. En todos los casos el tiempo de arranque y los diferenciales fueron los mismos, lo que las diferencia es la atenuación y la estabilidad del código.
Figura 6. Solución numérica con diferentes valores de R para G≠0
Figura 4. Solución numérica con diferentes valores de G.
Las Figursa 5 y 6 nuestran una serie de gráficas para diferentes valores de R tanto para G=0 y G≠0, esto con el fín de simular las diferentes resistividades presentes en la atmósfera al tener zonas con mayor humedad y polución que otras.
6.1. Pruebas y Validación Como prueba y validación de los modelos propuestos en las Figura 7 y Figura 8 se muestran una serie de gráficas para G=0 y G≠0 para diferentes números de nodos, esto con el fin de hacer variar el tamaño de los diferenciales espaciales y poner a prueba los criterios de estabilidad anteriormente expuestos. Nótese que para un número de nodos N≥1000 el código comienza a romper la condicion CFL y se aprecian oscilaciones, lo que represente un comportamiento atípico para un fenómeno de estas características. Para un N≤200 se viola la relación de los Δt y Δx, lo que quiere decir que el tamaño de los diferenciales es mayor a la unidad característica de tiempo del sistema con lo cual la discretización no representaría una aproximación adecuada a la solución del sistema, Nótese en la Figura 8 que la onda para un N=5 y N=105 no posee una atenuación adecuada.
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172
165
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 estudios de transitorios, puesto que la solución por parámetros distribuidos es más rápida y usualmente más precisa.
Figura 9. Modelo circuital de una línea de transmisión π Figura 7. Solución numérica para diferentes valores de dx para G=0
Figura 8. Solución numérica para diferentes valores de dx para G≠0
Simulación del impacto de una DEAT en un Sistema Eléctrico de Potencia Ya analizado numéricamente el comportamiento del pulso de corriente característico de una DEAT, se procedió a la implementación un modelo de fuente de corriente dependiente, con el cual se implementó un elemento activo perturbativo, a fin de representar el impacto de una DEAT en la simulación de un sistema eléctrico conocido. Descripción del modelo de una línea de transmisión A. Modelo de parámetros concentrados (modelo π) Los circuitos π son una aproximación discreta a los parámetros distribuidos constantes.Corresponde a los modelos que se utilizaron como primera solución al estudio de transitoriosen líneas, tanto mediante programas como el EMTP (Electro Magnetic Transient Program), como en los analizadores de transitorios. Los circuitos π no son generalmente el mejor modelo para
B. Modelo de parámetros distribuidos El modelo de parámetros distribuidos constantes calcula la propagación de diferentes componentes de modo, siendo estos modos desacoplados. En cada extremo de la línea se convierten los valores de modo a valores de fase mediante la matriz de transformación. Geometría de la línea de transmisión implementada Con el fin de obtener los resultados más cercanos a valores reales, el modelo eléctrico a implementar está basado en datos de líneas de transmisión en operación, en tal sentido se seleccionó una sistema de 230 kV apantallado con doble cable de guarda. En sistemas de transmisión de mayor potencial, debido a sus características y especificaciones técnicas, las perturbaciones causadas por el impacto de una DEAT no son notorias, esto se debe a la robustez de su coordinación de aislamientos, al igual que estadísticamente son los menos impactados. En la Figura 10 se muestra la geometría de la línea de transmisión Guri-Guayana A, estos datos fueron usados para alimentar en el simulador de transitorios electromagnéticos en sistema eléctricos de potencia PSCAD con el fin de determinar la impedancia característica de este sistema de transmisión. Representación de una línea de transmisión en PSCAD El primer paso para la creación de un modelo unifilar en la simulación de sistemas eléctricos de potencia es la implementación de las líneas de transmisión que comunican los nodos o barras del sistema. En el caso particular de PSCAD, se logra con la función “T-LINE”, con el cual se inserta genéricamente una línea de transmisión en el diagrama unifilar a modelar, mediante su interface gráfica al usuario (GUI). En la Figura 11 se muestra la presentación del elemento “T-LINE” bajo su configuración de terminales remotos, esta configuración gráfica es especialmente útil cuando se desean realizar mediciones individuales en cada fase del sistema de potencia a simular.
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172
166
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 Para completar el proceso de configuración de una línea de transmisión en PSCAD, se inserta la información correspondiente a la sección transversal de la misma, también conocida como la geometría de la línea de transmisión. En esta parte también se especifican las opciones de dependencia de la frecuencia del modelo a implementar, esto es particularmente útil para los estudio de transitorios electromagnéticos. Como puede observarse en la Figura 13, otro parámetro importante es el tipo de conductor del que se compone la línea de transmisión a simular, la resistividad del suelo y la forma en que se producen los incrementos de la frecuencia. Cabe destacar que en los simuladores de redes eléctricas de potencia la información referente a la geometría es traducida a los valores de R, L y C característicos de esta, el único parámetro relevante que se usa con unidades de longitud es longitud de la misma línea.
Figura 10. Geometría de una línea de transmisión de 230 kV
Figura 11. Representación gráfica del elemento “T-LINE” entre dos barras en PSCAD
Una vez realizada la interconexión de los nodos mediante la función “T-LINE”, se procedió a llenar los parámetros característicos de la misma. Bajo este orden de ideas, en la Figura 12 se muestra la pantalla de configuración longitudinal de la línea de transmisión a implementar.
Figura 12. Configuración del elemento “T-LINE” en PSCAD
Figura 13. Representación de la configuración del corte transversal (geometría) del elemento “T-LINE”
C. Implementación en PSCAD de una fuente de corriente con los parámetros de una DEAT Con la finalidad de crear un elemento perturbativo, se procedió a modelar una fuente de corriente dependiente, a fin de poder representar el impacto directo de una DEAT usando la forma de onda y valores obtenidos numéricamente. En PSCAD, esto se logra mediante la herramienta de diseño de componentes, ya que esté estudio en particular no está precargado en su librería. El parámetro de control de la fuente de corriente a implementar es el componente llamando “Pulse Shaper” o definidor de pulso. Este componente usa como parámetros de entrada los tiempos de frente y de cola de una DEAT, así como su magnitud. Dentro del módulo se encuentra una rutina de enlace con la solución numérica hecha en MATLAB, esto con el fin de adaptar la forma de
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172
167
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 onda calculada con los parámetros de entrada colocados. A la salida del módulo “Pulse Shaper” se encuentra un elemento de registro analógico de formas de onda y un cuadro multiplicador
en los sistemas de potencia eléctrica. Los resultados a tensión nominal pueden aproximarse por superposición ya que las sobretensiones obtenidas tienen sus componentes en DC. Caso 1: Impacto de una DEAT en uno de los cables de fase de una línea de transmisión. El modelo representado en la Figura.16 consta de dos barras, a las cuales se conecta la línea de transmisión a analizar, características ya descritas. Mediante el uso de una fuente de corriente controlada se hizo incidir una DEAT en uno de sus extremos y en el otro extremo se encuentran los elementos de medición analógica en cada fase. A los terminales de cada barra se conectaron resistencias, para hacer que el pulso de corriente circule por la línea de transmisión y no por el aterramiento. El pulso de corriente inicia en un t=0 y tiene una duración aproximada de 300 µs.
Figura 14. Fuente de corriente dependiente junto a su representación gráfica
Figura 16. Diagrama unifilar donde se simula el impacto de una DEAT en los cables de fase de una línea de transmisión de 230 kV.
Figura 15. Forma de onda del pulso de corriente inyectado en el sistema representado en la Figura 14.
D. Representación del modelo de un sistema eléctrico de potencia en PSCAD al ser impactado por una DEAT Se propuso un estudio por casos, esto con el fin de extender el análisis en, por lo menos, dos tipos de condiciones presentes en la industria eléctrica: el caso 1 corresponde al impacto directo en uno de los cables de fase de una línea de transmisión, para el caso 2 se estudió el impacto directo en los cables de guarda de una línea de transmisión. Debido a la corta duración del impacto de una DEAT, en ambos casos se consideran que los sistemas se encuentran sin carga y a tensión cero. La ventaja de usar estas condiciones es el hecho de aislar las variables de estudio de otros efectos dinámicos presentes
Caso 2: Impacto de una DEAT en los cables de guarda de una línea de transmisión. El modelo representado en la Figura 17 es un segmento del sistema de transmisión anteriormente descrito donde sólo de muestran vanos, cada uno de ellos representado como una línea de transmisión de longitudes distintas pero de igual sección transversal, el resto del sistema se representa mediante terminales equivalentes de línea. También las figuras de 4 torres de transmisión, realizadas igualmente con la ayuda del módulo de diseño de componentes. Dentro de ellas se colocan los parámetros eléctricos referentes a la impedancia de la cadena de aisladores y la resistencia de conductor de puesta a tierra de los cables de guarda. Esta representación gráfica de las torres antes mencionadas no guarda relación alguna con la geometría de la sección transversal de la línea de transmisión implementada (Ver Figura 13). Los elementos de medición se colocaron en tres posiciones diferentes, siendo el criterio de ubicación de
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172
168
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 éstos la distancia desde el punto de impacto. Bajo este orden de ideas se tienen las siguientes posiciones para la medición de las sobretensiones: medición en la torre de impacto, medición al final del primer vano y medición al final del segundo vano. Con esta metodología de buscó representar los cambios en los perfiles de tensión presentes para cada una de estas condiciones.
Figura 18. Formas de onda de los voltajes de fase en función del tiempo, ocasionados por el impacto de una DEAT con forma de onda descripta en la Figura 15. Figura 17. Representación unifilar del circuito donde se simula el impacto de una DEAT en los cables de guarda de una línea de transmisión de 230 kV.
E. Perturbaciones en sistemas eléctricos de potencia a causa del impacto de una DEAT Se presentan un conjunto de gráficas de tensión (voltaje) en función del tiempo correspondiente a los perfiles observados en el sistema, para diferentes puntos de medición, durante el impacto de una DEAT. Con relación al caso 1, solo se presenta un par de gráficas de tensión; respecto al caso 2, se presentan 3 conjuntos de gráficas, las cuales corresponden a las tres posibles ubicaciones de los sistemas de medición con relación al punto de impacto. i. Perfil de tensión del impacto de una DEAT en el cable de fase de una línea de transmisión En la Figura 18 se observan dos gráficas, en la primera de ellas se muestra el perfil de tensión de la fase impactada por la DEAT, en la segunda por su parte se muestra el perfil de tensión de una de las fases vecinas. Nótese que la duración de esta perturbación, bajo estas condiciones ideales, se acerca a los 10ms, es decir, poco más de medio ciclo. También es importante notar la magnitud de las tensiones, produciéndose picos de superiores a los 200 kV para el caso de la fase impactada y los 35 kV para la fase vecina. Debido a los efectos de la inducción electromagnética, las gráficas presentadas tienen polaridades opuestas. La envolvente de ambas gráficas se aproxima bastante bien a la forma de onda de la DEAT que incide en ellas.
ii. Perfil de tensión del impacto de una DEAT en los cables de guarda de una línea de transmisión Medición en el punto de impacto La Figura19 muestra la ampliación de un detalle de la Figura17, en ella se observa la ubicación de los sistemas de medición analógica con respecto al punto de impacto de la DEAT. Con esta configuración se busca registrar la forma de onda de la DEAT sin los efectos atenuadores de la medición de esta onda a través del segmento de línea de transmisión.
Figura.19: Detalle de la ubicación de los registradores analógicos en el punto de impacto de la DEAT
Se observa en la Figura 20 que los perfiles de tensión son registrados en el origen, es decir, de manera inmediata con el impacto de la DEAT, nótese que también se obtienen las mayores magnitudes debito a que no actúan los efectos de atenuación de la línea de transmisión al circular el frente de onda por ésta.
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172
169
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Figura 20. Perfiles de tensión obtenidos para la medición ubicada en el mismo punto de impacto de la DEAT.
Medición a través del primer vano La Figura 21 muestra la ubicación de los puntos de medición al final del primer vano, esto con el fin de registrar los efectos del tránsito del frente de onda a través de él. Con la presente configuración se están tomando en cuenta dos fuentes de atenuación de la señal, la primera de ellas debida a las características eléctricas del canal de conducción, y la segunda fuente de atenuación del frente de onda corresponde a los elemento de fuga (resistencias y reactancias) que se consideraron en la implementación de las torres de transmisión que unen a los vanos. Aparte de la atenuación presente en las gráficas de la Figura 22, puede notarse también el desplazamiento en el tiempo o retardo en registro o medición del frente de onda.
Figura 21. Detalle de la ubicación de los registradores analógicos al final del primer vano con relación al punto de impacto de la DEAT.
Figura 22. Perfiles de tensión obtenidos por los sistemas de medición ubicados al final del primer vano.
Medición al término del segundo vano Ya en la Figura 23, la ubicación de los puntos de medición es al final del segundo vano. En este caso, el frente de onda originado por el impacto de la DEAT deberá circular ahora por 4 fuentes de atenuación para luego ser registrada por los sistemas de medición.
Figura.23: Detalle de la ubicación de los registradores analógicos al final del segundo vano.
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172
170
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 La atenuación y el retardo observados en la Figura 24 son aún más pronunciados, quedando incluso la tensión en el cable de guarda por debajo de los 0,30 kV, valor que por sí mismo es muy bajo como para ser considerado una sobertensión, resultado que es completamente coherente a lo que se espera en un sistema de transmisión en operación. La magnitud de la perturbación registrada en los cables de fase, debido a los efectos inductivos, presenta una atenuación mucho menor, ya que estos conductores se encuentran aislados, quedando de parte de otros elementos activos del sistema de potencia o incluso de la dinámica del sistema en sí mismo la supresión de esta perturbación. Los valores registrados están lejos de ser considerados como factores de riesgo para el aislamiento o la dinámica del sistema de potencia.
Figura 24. Perfiles de tensión obtenidos por los sistemas de medición ubicados al final del segundo vano.
III. CONCLUSIONES Una vez presentados los resultados, se concluye en base a: Resultados del análisis estadístico: 1. La variación espacio-tiempo de los parámetros de las Descargas Atmosféricas expuesta por Horario Torres-Sánchez, cada año, en las zonas de convección intertropical, se presentan variaciones en la intensidad y ocurrencia de las descargas, estos cambios se repiten cíclicamente, esta variación se presenta también al norte del estado Bolívar. 2. Las zonas con mayor cantidad de impactos registrados son las correspondientes a las cercanías de las centrales hidroeléctricas Caruachi y Tocoma. 3. En estudios referentes a las Descargas Atmosféricas, como la tasa de salida anual de una línea de transmisión, donde comúnmente es usado
el valor ceráunio del sitio, las curvas de la densidad de la probabilidad de la corriente de retorno también deben ser tomadas en cuenta. 4. Debido a los altos niveles de polución de elementos metálicos, que pudiesen reducir la resistencia eléctrica del canal de descarga, en zonas cercanas a las empresas básicas de Guayana se produjeron singularidades como corrientes de retorno positivas y picos de corriente superiores a los 400 kA. 5. Tomando en cuenta el inicio de la temporadas de lluvias de cada año, los datos históricos de los niveles del embalse de Guri y la actividad de tormentas en la zona, queda en evidencia una relación directa entre la estación lluviosa en los embalses del Bajo Caroní y los parámetros de las descargas atmosféricas registradas al norte del estado Bolívar. Resultados de la solución numérica de la ecuación de Heaviside: 1. Se demostró que el código es estable y convergente para diferentes tipos de malla, siendo los mejores resultados los obtenidos con un número de nodos comprendido entre los 300 y 400. 2. La magnitud de la corriente de retorno de una DEAT se ve afectada de manera inversamente proporcional por el valor de la resistencia del canal de conducción. 3. Los tiempos de cola se ven afectados por la conductividad (G) presente en el canal de descarga. 4. El código es oscilante e inestable para valores de G superiores a los 0.001 mho 5. Con derivadas (rampas) de frente de onda superiores 71kA/µs y tiempo de atenuación menores a los 100 µs, estos valores presentados por las ecuaciones de doble Exponencial y Heidler, las cuales fueron diseñadas para zonas de estudio no tropicales, son notablemente diferentes a los datos arrojados por la solución numérica propuesta en este trabajo. 6. Los paquetes informáticos tradicionales (T-flash) no presentan una solución exacta de los fenómenos asociados a las Descargas Atmosféricas, se basan en soluciones probabilísticas. Resultados de la simulación de un sistema eléctrico de potencia en PSCAD: 1. En base al primer caso de simulación, donde no se consideran en su totalidad las características constructivas de un sistema de transmisión con el fin de tener condiciones ideal y mínimas de operación, las sobretensiones inducidas en los sistemas de transmisión de hasta 230 kV tienen tiempos de duración equivalentes a 10 tiempos de cola de la Descargas Atmosféricas que índicen en ellos.
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172
171
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 2. En base al segundo caso de simulación, donde se toman en cuenta condiciones reales en sistemas de transmisión en subestaciones, los sistemas de transmisión superiores a los 230 kV no se ven afectados por sobretensiones inducidas por Descargas Atmosféricas debido a sus características constructivas, éstas son: sistema de pararrayos, rigidez dieléctrica de la cadena de aislamiento, distancia de separación entre fases y sistema de coordinación de aislamientos. 3. Debido al aterramiento de los cables de guarda, la sobretensión inducida por éstos en los cables de fase tienden a ser más extensas, siendo únicamente suprimidas por la inercia eléctrica, por la operación del sistema eléctrico o interrupción del mismo. 4. Debido a la naturaleza de onda viajera del fenómeno, el tiempo de registro del frente de onda
va a presentar un desplazamiento horizontal respecto al tiempo de inicio de la perturbación, esto dependerá de la ubicación relativa del punto de medición. IV. REFERENCIAS 1.
El Rayo, Horacio Torres-Sanchez, 2004.
2.
EMTP PSCAD Reference Guide, Manitoba Research Center, 2007.
3.
MATLAB Reference Guide, MathWorks, 2011.
4.
Simulación de elementos axial simétricos en relatividad general mediante diferencias finitas, 2001, Luis Rosales.
Alvarez y Rosales. Simulación de descargas atmosféricas y su efecto. pp. 161-172
172
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
ANÁLISIS DE LA EFICIENCIA DEL ALGORITMO DE RECONSTRUCCIÓN DE SEÑALES BASADO EN LA MEDIANA PONDERADA A TRAVÉS DE LA REGRESIÓN DE COX Jabbour George 1 y Paredes Jose Luis 1 (Recibido febrero 2012, Aceptado mayo 2012) 1
Universidad de los Andes jabbour@ula.ve
Resumen: En el presente artículo se analiza, a través del modelo de regresión de Cox, la eficiencia del
algoritmo de reconstrucción de señales basado en la regresión de Mediana Ponderada, en el contexto del Sensado Comprimido. Se realizaron 1620 reconstrucciones de señales de diferente tamaño, con diferente tamaño de soporte (K), y variando además, el número de medidas (M) y el parámetro de regularización (α), que forma parte esencial del algoritmo bajo estudio. Entre los resultados más importantes obtenidos se encuentra que la eficiencia del algoritmo tiene un comportamiento parabólico invertido con respecto a α, alcanzando su máximo en α=0.8. Además, se encontró que este algoritmo tiende a ser sensible a variaciones de α y M, de manera que con ligeros cambios en estos parámetros el algoritmo puede cambiar radicalmente su velocidad de convergencia. Así, ajustando adecuadamente el valor de M se logra controlar el comportamiento inestable antes descrito, pues si la relación M/K pasa de 7 a 9, la probabilidad de que el algoritmo presente un buen desempeño aumenta del 40% al 70%. De igual manera, si el valor de α cambia de 0.5 a 0.9, la probabilidad de que el algoritmo presente un buen desempeño aumenta de 0.14 a 0.96. Palabras clave: Reconstrucción de señales/ Sensado comprimido/ Mediana ponderada/ Regresión de Cox/ Análisis de supervivencia.
ANALYSIS OF THE EFFICIENCY OF WEIGHTED MEDIANBASED SIGNAL RECONSTRUCTION ALGORITHM THROUGH COX REGRESSION Abstract: In this paper, the efficiency of the algorithm for compressive sensing (CS) signal reconstruction based on weighted median regression (WMR) is analyzed through a Cox-regression model. We perform 1620 reconstructions for signals with different dimension (N), sparsity (K), number of measurements (M) and regularization parameter (α) that induces sparsity in the solution. Among the most relevant results, we find that the algorithm efficiency, as a function of the regularization parameter, follows an inverted parabolic function reaching its maximum at α = 0.8. Furthermore, we show that the reconstruction algorithm is quite sensible to α and M. Thus, a slight change on those parameters leads to a notable variation on the algorithm’s convergence speed. Therefore, by suitably tunning the number of measurements, we can control the volatile described above. Thus, if the ratio N/M goes from 7 to 9, the probability of having a good performance increases from 0.4 to 0.7. Furthermore, if α changes from 0.5 to 0.9 this probability increases from 0.14 to 0.96. Keywords: Signal Reconstruction/ Compressive Sensing/ Weighted Median/ Cox Regression/ Survival Analysis.
I. INTRODUCCIÓN En el campo del muestreo/reconstrucción de señales, el teorema de Shannon-Nyquist establece que no habrá pérdida de información si la señal original es muestreada con una frecuencia de al menos el doble del ancho de banda de la misma [1]. Dependiendo de las características de la señal original, esta condición puede representar una seria limitación, especialmente, cuando la señal es de banda ultra-ancha, demandando el uso de sensores o
dispositivos de adquisición de datos extremadamente rápidos; o cuando la señal es de alta resolución (p.e. una fotografía de alta resolución o un video de alta calidad), requiriendo de espacio de almacenamiento, canal de comunicación y procesamiento (hardware y suministro de energía) de gran escala [2][3][7]. Adicionalmente, en el área de telecomunicaciones siempre ha existido un marcado interés por reducir el tamaño de las señales a transmitir, y con ello, disminuir los costos de transmisión [4].
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180
173
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 En definitiva, es indiscutible el gran beneficio que representa el disponer de una herramienta que sea capaz de generar representaciones de señales de baja dimensionalidad (por debajo de la tasa de Nyquist) con poca o ninguna pérdida de información; y es esto precisamente lo que ha servido de punto de partida para la génesis del método llamado Sensado Comprimido (SC) [5][6], cuya eficacia no depende del ancho de banda de la señal bajo análisis sino de la cantidad de información de la misma [9]. En este sentido, el SC ha surgido como una técnica vanguardista en el campo del muestreo/reconstrucción de señales, permitiendo representar señales mediante un número reducido de medidas, y a su vez, ofreciendo herramientas capaces de reconstruir las señales originales con muy poca pérdida de información. Así, el SC simplifica el proceso de adquisición a un costo de tener una mayor complejidad en el proceso de reconstrucción. Aún así, existe la necesidad de mejorar los resultados de este novedoso enfoque de adquisición de señales, apuntando a simplificar su aplicación, y a su vez, hacerlo cada vez más robusto, ya que entre sus principales desventajas se encuentra la complejidad y la gran cantidad de cómputos asociados a sus algoritmos en la fase de reconstrucción [2][3][4][7][8]. Por esta razón, el presente artículo pretende generar resultados que permitan a los investigadores y usuarios de este tipo de métodos conocer aspectos técnicos relacionados con la eficiencia de los algoritmos que forman parte del mismo, y así, facilitar su uso. Específicamente, se realiza un análisis estadístico de la influencia de las características relativas a la señal a recuperar/reconstruir y del parámetro de regularización sobre la eficiencia del algoritmo de reconstrucción de señales basado en la regresión de mediana ponderada. Se escoge este algoritmo de reconstrucción en particular dado que según fue mostrado en [8], es robusto a una gran variedad de tipos de ruido que pudiera contaminar las mediciones, además de la facilidad para seleccionar el parámetro de regularización que define el grado de densidad de la señal a reconstruir. La organización del artículo es como sigue. Primero, en las secciones 2 y 3, se presentan los fundamentos básicos que forman parte del método SC, el método de reconstrucción de señales basado en la mediana ponderada, así como el modelo de regresión de Cox; luego, en la sección 4 se describen los experimentos realizados, y en la sección 5 se presentan los resultados obtenidos. Finalmente, en la sección 6, se presentan las conclusiones. II. DESARROLLO 1. Sensado Comprimido 1.1 Muestreo/compresión de señales Dada una señal real en tiempo discreto, finita y comprimible, x[n] (n=1,2,…,N), el objetivo del método SC radica en encontrar una secuencia de medidas, y[m] (m=1,2,…,M), de manera que sea posible reconstruir la
señal original x[n] a partir de y[m] con ninguna o poca pérdida de información, siendo M un valor mucho menor que N (un M muy pequeño implica una alta tasa de compresión pero con relativa baja probabilidad de reconstrucción, y viceversa) [8][9]. La condición de que la señal de interés debe ser discreta en tiempo obedece al único propósito de simplificar la presentación del método, sin embargo, el concepto de SC puede ser aplicado a señales analógicas donde el proceso de proyección ocurre en el dominio analógico. Matemáticamente, la secuencia de medidas, y[m], se obtiene al proyectar el vector x=[x[1],…,x[N]]T en un nuevo espacio M-dimensional, representado por una base obtenida aleatoriamente. Esto es: y x ;
11 1N 1 N ; M 1 MN n 1n Mn T ; (n=1,…,N)
(1)
en donde Φ es conocida como la matriz de proyecciones aleatorias o matriz de medidas, cuyas componentes son realizaciones de una variable aleatoria tipo Gaussiana o Bernoulli. Para que la proyección resultante, y[m], contenga la información relevante que permita reconstruir a x[n] con una pérdida de información despreciable, ésta última debe ser una señal poco densa en un dominio Ψ denominado diccionario de representación y la matriz de proyección debe ser incoherente con este diccionario [9]. Estrictamente hablando, x[n] debe ser una señal con K componentes no nulos en el dominio del tiempo o en cualquier otro dominio creado por funciones parametrizadas que conformen un diccionario, tal como se define a continuación: Señal K-sparse. Sea Ψ=[Ψ1 … ΨN]; Ψn=[ψ1n,…,ψNn]T (n=1,…,N); una base ortonormal que define los elementos de un diccionario, y s=[s1,…,sN] un vector de coeficientes tales que: N
x s
s n
n
(2)
n 1
Así, x es una señal K-sparse si es posible aproximarla como una combinación lineal de sólo K vectores de Ψ, es decir, si K coeficientes sn poseen valores significativos [10]. Obviamente, sólo son de interés aquellos casos en donde K es mucho menor que N (K<<N), pues esto significa que x es poco densa, y por lo tanto, es comprimible en un vector de medidas, y, de menor dimensión, justificándose así el uso de esta técnica. 1.2 Selección del diccionario Es necesario encontrar una matriz Ψ (que es un espacio N-dimensional) tal que exista una secuencia {s} con sólo K elementos no nulos, y cuya proyección sobre Ψ genere
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180
174
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 a la señal x. Si x es K-sparse en el dominio del tiempo no es necesario proyectarla en un espacio alternativo, y en su lugar, simplemente se asume s=x, lo cual implica Ψ=I; es decir, si x es K-sparse en el dominio del tiempo, entonces, el diccionario se puede tomar como la matriz identidad de rango N. En este caso, se dice que la señal es poco densa en el dominio canónico. En caso de que x no sea poco densa en el dominio canónico, el vector s no presenta las características deseadas, de manera que se hace necesario seleccionar un diccionario diferente, como por ejemplo, un diccionario conformado por las bases de la transformada de Fourier, de la transformada del coseno, o de la transformada wavelet, o incluso de la combinación de estas bases ortogonales [9]. De esta forma, en alguno de estos diccionarios la señal x tendrá una representación con sólo K coeficientes significativos Otro aspecto a tomar en cuenta en la selección del diccionario trata sobre su relación con la matriz de proyecciones. En concreto, la matriz de proyecciones se debe seleccionar de manera que sea incoherente con el diccionario donde la señal tiene una representación poco densa, según se describe a continuación. 1.3 Incoherencia entre el diccionario Ψ y la matriz de proyecciones Φ La coherencia entre las matrices Φ y Ψ es una medida que refleja el grado de correlación que existe entre estas dos matrices, lo cual incide sobre la probabilidad de reconstruir la señal original con la menor pérdida de información posible: a menor coherencia entre Φ y Ψ, mayor probabilidad de éxito en la reconstrucción se tendría. Esta medida se define como sigue:
(, ) n * max m , n
(3)
1 m M ;1 n N
En la Ec. (3), φm es la m-ésima fila de Φ, ψn es la n-ésima columna de Ψ y ‹.,.› denota el producto escalar. Mientras más grande sea la correlación entre estos vectores (en valor absoluto), mayor será la coherencia entre las matrices Φ y Ψ [9]. Se ha probado que si los elementos ϕij siguen una distribución gaussiana o de Bernoulli, la matriz resultante es incoherente con una gran variedad de diccionarios, entre ellos los creados a partir de las bases de Fourier, DCT y wavelet. 1.4 Reconstrucción de la señal original: enfoque basado en estimaciones obtenidas mediante la regresión de mediana ponderada La reconstrucción de una señal consiste en realizar el proceso inverso al de su compresión, es decir: a partir del vector de medidas, y, y la matriz de proyecciones, Φ, el objetivo es obtener la secuencia x original, aquella cuya compresión condujo precisamente a y [8][9]. Dado que x N , y M y M<N, existen múltiples soluciones al problema inverso, por lo que se plantea la minimización
de la diferencia entre la señal original y la señal reconstruida en el espacio de las proyecciones, y esto implica que esta última señal posea el mismo grado de densidad presente en la señal original, lo cual añade una considerable dificultad al proceso de reconstrucción. Matemáticamente, la señal reconstruida se obtiene al resolver el siguiente problema de optimización [8]:
xˆ arg min y X X
l p1
X
l p2
(4)
donde . l denota la norma lp, de órdenes p1 y p2, cuyos p
valores inciden notablemente sobre el error presente en la señal reconstruida, así como el grado de densidad (tamaño del soporte) de la misma. El primer término de (4), asociado a la norma lp1, tiene el propósito de reducir el error entre la señal medida y la señal proyectada, por lo cual, generalmente se establece p1=2 inducido por la suposición de Gaussianidad asociada al ruido que contamina las proyecciones. Esto conduce a una optimización por mínimos cuadrados. También es común encontrar el uso de p1=1, norma que es óptima bajo el criterio de máxima verosimilitud cuando el ruido es Laplaciano. Esta norma conduce a una minimización de desviación absoluta. Sin embargo, este primer término por sí solo no resuelve por completo el problema bajo consideración, ya que además de la necesidad de un error mínimo (al utilizar p1=1 ó p1=2) existe el requerimiento de que la señal reconstruida sea poco densa al igual que la señal original. La probabilidad de que esta última condición sea satisfecha por una optimización basada sólo en el primer término (mínimos cuadrados o mínima desviación absoluta) es sumamente baja; razón por la cual se incorpora el término asociado a la norma lp2, cuyo rol en el proceso de optimización se centra en controlar que el tamaño del soporte de la señal reconstruida no sea mayor que K. Esto se logra estableciendo p2=0, es decir, haciendo que el segundo término de (4) se corresponda con el tamaño de soporte (seudo-norma l0) del vector X, buscando así, que la optimización genere una señal que no solo presente un error mínimo sino que también tenga un tamaño de soporte adecuado. Adicionalmente, se tiene el parámetro de regularización, τ, cuya función es establecer un compromiso entre la magnitud del error y el tamaño de soporte de la señal reconstruida, pues τ=0 equivale a ignorar el requerimiento relacionado con el tamaño del soporte, mientras que un τ muy grande generaría una señal con un tamaño de soporte pequeño, pero con una diferencia grande con respecto a la señal original, de manera que es importante ajustar este parámetro adecuadamente, para así obtener una solución que sea satisfactoria desde ambos puntos de vista. La solución del problema de optimización planteado en (4) se puede obtener a través de múltiples métodos, cada uno de los cuales se especializa en determinadas situaciones, dependiendo principalmente del grado de densidad y de las características de la contaminación de la señal original [8][9][10].
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180
175
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 En el caso particular de este trabajo, se hace uso de un método que consiste en un enfoque regresivo basado en estimaciones obtenidas mediante el operador de Mediana Ponderada [9]. Este método es de especial interés cuando la señal original está contaminada con ruido cuya distribución estadística presenta colas con una densidad mayor que la de una distribución normal, lo que lo hace robusto ante la presencia de ruido de naturaleza impulsiva. Este enfoque consiste en dividir el problema de optimización N-dimensional (definido en (4)) en N problemas unidimensionales, de la forma: M
xˆn arg min Xn
y[i]
in X n
0 X n
i 1
cuya solución,
l0
; n=1,…,N (5)
xˆ n , se obtiene como la mediana
ponderada de la señal residuo, seguido de un proceso de umbralización, esto es [8]: N y[i] j 1; j n ij xˆ j M Mediana in si xˆn i 1 in 0 en otro caso
rn l rn-xˆ n 1
l1
0
(6)
para n=1,…,N.
En donde rn y
N j 1; j n
j xˆ j , Φn es la n-ésima
columna de Φ y . l denota la norma lp. Esta expresión se p
utiliza iterativamente para estimar los N elementos de la secuencia original, aunque, dado que en cada optimización individual se toma en cuenta una sola variable a la vez, con N iteraciones (una iteración para cada variable) muy difícilmente se logre alcanzar el óptimo global N-dimensional. Esto conlleva a la necesidad de repetir múltiples ciclos de estimación para alcanzar la solución óptima global, en donde se define como ciclo al proceso de estimar a cada xi una vez, es decir, un ciclo corresponde a N iteraciones. Uno de los criterios más utilizados para detener al algoritmo se basa en la energía residual normalizada, en donde, el algoritmo se detiene cuando se cumple que
2
y xˆ 2 / y
2 2
; y
como segundo criterio está el número máximo de ciclos, del cual no se puede prescindir puesto que no existe una garantía de que el criterio anterior se vaya a satisfacer en algún momento, ya que Ɛ es fijado en función del grado de exactitud que se desea obtener en la señal reconstruida y en función del tiempo de ejecución del algoritmo. Para finalizar, vale la pena señalar que el umbral τ, que en el primer ciclo toma el valor τ0, va disminuyendo progresivamente de un ciclo a otro con el fin de permitir la incorporación de nuevos elementos no nulos a la secuencia X. El algoritmo inicia el proceso de cálculo asumiendo que x[i]=0 (i=1,…,N), y dependiendo de la importancia de cada elemento se van asignando valores no nulos a los mismos, y a medida que se disminuye el valor del umbral, más elementos se van incorporando al soporte de la secuencia a recuperar. Es por esto que, en el k-ésimo ciclo, el umbral se define como τk=τ0αk, en donde α es una
constante comprendida en el intervalo (0,1); haciendo que el umbral vaya reduciéndose gradualmente. El valor de τ0 fue seleccionado siguiendo los criterios establecidos en [6]. 2. Análisis de Supervivencia a través de la Regresión de Cox En el análisis de supervivencia, uno de los principales objetivos consiste en determinar la influencia que poseen ciertos factores sobre el tiempo que transcurre desde que se inicia algún proceso en particular hasta que ocurre cierto evento de interés [10]. Entre los conceptos asociados al análisis de supervivencia, son de especial interés el tiempo de supervivencia, la función de supervivencia, la función de riesgo y la esperanza de vida [12]. En detalle, el tiempo de supervivencia, T, es una variable aleatoria no negativa que representa el tiempo que transcurre desde que se comienza a observar el individuo hasta que ocurre cierto evento de interés llamado muerte. Mientras no ocurra el evento de interés, o muerte, se asume que el individuo se encuentra vivo, o en estado de supervivencia. En general, T es una variable aleatoria continua con función de densidad de probabilidad fT(t), y función de densidad acumulada FT(t)=P(T≤t). La función de supervivencia se define como S(t)=1-F(t), y representa la probabilidad de que cierto individuo esté vivo en el instante t. Por otro lado, la función de riesgo es una medida alternativa para caracterizar a la supervivencia, y se define como H(t)=f(t)/S(t), de manera que la función riesgo es inversamente proporcional a la función de supervivencia, y por lo tanto, a mayor supervivencia menor riesgo, y viceversa. Por último, se tiene el concepto de esperanza de vida, que no es más que la esperanza estadística de T. Si la presencia de cierto factor aumenta la esperanza de vida de un individuo, significa que contribuye a incrementar el tiempo esperado que transcurre hasta que ocurre el evento muerte, es decir, aumenta la función de supervivencia, o equivalentemente, disminuye la función de riesgo [12][13]. Dentro del conjunto de métodos que forman parte del análisis de supervivencia se encuentra la regresión de Cox, la cual se basa en un modelo que permite determinar la influencia que poseen ciertos factores sobre la función de riesgo, y por ende, sobre el tiempo esperado que transcurre hasta la ocurrencia del evento muerte en un contexto dado. Por lo tanto, el modelo de regresión de Cox es una función cuya variable dependiente es el riesgo en el que se encuentra un individuo en el instante t, y cuyas variables independientes son factores que se cree que pueden influir sobre tal riesgo [13]; específicamente:
H ( t ) H 0 ( t )e
1 X1 2 X 2 ... p X p
(7)
en donde, H0(t) es el riesgo en el que se encontraría el individuo en el instante t si X1=X2=…=Xp=0. Es un riesgo referencial, que equivale a ignorar el efecto de las variables independientes. La interpretación de H0(t) es
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180
176
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 irrelevante, ya que no está relacionado con ninguna de las variables independientes del modelo, que representan el objetivo del estudio. Por otro lado, el interés se centra en las variables independientes, cuyo efecto se mide directamente a través de sus coeficientes βi (i=1,…,p). Si βi>0, entonces la presencia del i-ésimo factor aumenta el riesgo, mientras que, si βi˂0, entonces el i-ésimo factor reduce el riesgo [13]. 3. Descripción de los Experimentos En el contexto de esta investigación se desea analizar la influencia de los factores S (señal madre), N (tamaño de la señal), K (soporte de la señal), M (número de mediciones) y α (parámetro de regularización) sobre el número de ciclos necesarios hasta que el algoritmo de la mediana ponderada regresiva alcance la condición de energía residual normalizada menor a 0.1, es decir: 2
y xˆ 2 / y
2 2
101 , haciendo uso de la regresión de
Cox. Para tal fin se realizaron pruebas de reconstrucción para 12 señales, obtenidas a partir de 3 señales madre, S1, S2 y S3, generadas aleatoriamente y con una longitud de 1024 cada una. A partir de cada una de estas 3 señales se generaron 4 señales: desde el componente 1 hasta el componente N=256*L, para L=1, 2, 3, 4; de manera que en total se tienen 3 señales de longitud 256, 3 de 512, 3 de 768 y 3 de 1024. Para N=256, se utilizaron valores de K (en el sentido K-sparse) de 10, 14 y 18; para N=512, se utilizaron valores de K de 20, 28 y 36; para N=768, se utilizaron valores de K de 30, 42 y 54; y N=1024, se utilizaron valores de K de 40, 56 y 72. Además, Para cada valor de N (de cada una de las señales madre) y K, se utilizaron 3 valores de M: 7*K, 8*K y 9*K. Por otro lado, para cada combinación de parámetros descritos anteriormente, se aplicó el algoritmo de las mediana ponderada para valores de α comprendidos entre 0.2 y 0.9, con incrementos de 0.05: α = {0.20, 0.25, …, 0.90}. En resumen, se realizaron 1620 (3S x 4N x 3K x 3M x 15α) pruebas de reconstrucción, para las cuales se ha registrado el número de ciclos (denotado por C) para el cual se alcanzó
la
condición
2
y xˆ 2 / y
2 2
101 .
Adicionalmente, se utilizó la misma matriz de proyecciones para todas pruebas para garantizar que estas se realizaran en las mismas condiciones, pues no es conveniente comparar los resultados de dos pruebas si estas se han basado en diferentes matrices de proyección. En cuanto a la aplicación del modelo de regresión de Cox, se utiliza a la variable C como el tiempo de supervivencia, y se dice que ocurre el evento muerte si C≤100, y por lo tanto, a partir de los valores de C se estima el riesgo para cada caso. Además como variables independientes de este modelo se toman las variables S, N, K, M y α; con lo cual, el modelo de regresión a evaluar tendría la siguiente forma: H (t ) H 0 (t )e 1S 2 N 3 K 4 M 5
(8)
Los resultados de este modelo aportarán evidencia
estadística sobre la forma en la que influye cada uno de los parámetros bajo estudio. 4. Resultados A continuación se presentan resultados estadísticos tanto descriptivos como analíticos de acuerdo a lo planteado anteriormente, haciendo énfasis en los parámetros α y M puesto que estos valores son establecidos por el investigador, mientras que los demás valores (S, N y K) son propios de la señal, y por lo tanto, no forman parte del proceso de toma de decisiones al momento de aplicar el algoritmo bajo estudio. 4.1 Análisis descriptivo De las 1620 reconstrucciones de señal llevadas a cabo, en 552 casos ocurrió el evento de interés (en una prueba ocurre el evento de interés si C≤100): 22 casos (3.4%) para α≤0.45 y 530 casos (54.53%) para α≥0.5. Dado que es necesario contar con resultados en donde exista diversidad de casos para poder analizar los factores que influyen sobre el desempeño del algoritmo bajo estudio, se descartan los registros asociados a α≤0.45, dado que los mismos no ofrecen tal diversidad, pues en el 96.6% de estas pruebas no ocurrió el evento de interés, y esto a su vez conlleva a un primer resultado que indica que no es recomendable utilizar valores de α inferiores a 0.5, ya que indiferentemente de los valores de los parámetros restantes, el algoritmo va a ser ineficiente con muy alta probabilidad, lo cual concuerda con lo expuesto por los autores de este método, quienes recomienda utiliza un 0.75≤α≤0.95 [7]. En consecuencia, el análisis que se realiza en lo sucesivo se basa sólo en las 972 reconstrucciones de señal asociadas a α≥0.5, en donde, en 530 casos ocurrió el evento de interés, distribuidos de la siguiente manera: Tabla I. Resultados según el valor de α α 0.50 0.55 0.60 0.65 0.70 0.75 0.80 0.85 0.90
C 7 9 9.08 8.92 8.56 9.88 9.86 10.53 11.91
No. de Casos 15 21 39 36 54 78 87 96 104
% Casos 13.89 19.44 36.11 33.33 50.00 72.22 80.56 88.89 96.30
Tabla II. Resultados según la relación M/K M/K 7 8 9
C 10.69 10.07 9.6
No. de Casos 128 177 225
% Casos 39.51 54.63 69.44
En las Tablas I y II, C denota el promedio de ciclos registrados en las pruebas asociadas al respectivo caso, pero sólo en donde ocurrió el evento de interés; “No. de
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180
177
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 Casos” se refiere al número de casos en donde ocurrió el evento de interés, mientras que “% Casos” indica el porcentaje de casos en los cuales ocurrió el evento de interés, que a su vez puede ser interpretado como una estimación de la probabilidad de que ocurra el evento de interés. En los 530 casos en los que ocurrió el evento de interés, los valores de C se mantuvieron dentro del rango [6,16], con un promedio de 10.02, es decir, que el error establecido (Ɛ=10-1) o era alcanzado en 6≤C≤16 (en 530 casos) o era alcanzando en C>100 (en los 442 casos restantes), es decir, ninguna de las 972 corridas duró entre 17 y 100 ciclos. Esta brecha puede ser interpretada como un indicador de la inestabilidad del algoritmo, o alternativamente, que la velocidad de convergencia del algoritmo es altamente no lineal con respecto a las características de la señal y con respecto al parámetro de regularización α, de manera que en algunos casos el algoritmo es muy rápido y en los demás casos es lento, sin posibilidad de términos medios. Lo antes afirmado puede significar simultáneamente una ventaja y una desventaja, ya que si el usuario posee el nivel de conocimiento adecuado sobre este algoritmo, encontrará en el mismo una herramienta sumamente eficiente, y viceversa. Así mismo, en la Tabla I se puede observar que a mayor valor de α, más tarda el algoritmo para alcanzar el error establecido (Ɛ=10-1), aunque logra esta meta con mayor probabilidad. Por ejemplo, con α=0.5 hicieron falta sólo 7 ciclos en promedio ( C =7), pero apenas en el 13.89% de los casos ocurrió el evento de interés, mientras con α=0.9 el evento de interés se alcanzó en el 96.30% de los casos. Lo antes afirmado refleja una fuerte sensibilidad del desempeño del algoritmo de reconstrucción con respecto a α. Así, si el parámetro de regularización decae muy rápidamente, el algoritmo de reconstrucción no puede seleccionar adecuadamente el soporte de la señal de interés, induciendo errores de reconstrucción; y por el contrario, si el parámetro de regularización decae lentamente, el algoritmo detecta correctamente el soporte de la señal y estima sus valores apropiadamente a un costo de requerir un mayor número de ciclos. Por otro lado, se tiene la relación M/K, que indica cuántas medidas se utilizan por cada elemento no nulo de la señal original. En la Tabla II se puede apreciar que mientras más grande sea el vector de medidas con respecto al grado de densidad de la señal original, más rápido será el algoritmo, y además, existe una mayor probabilidad de ocurrencia del evento de interés, siendo esto último la más significativo del resultado, ya que si en vez de utilizar 7 medidas se utilizan 9 por cada elemento no nulo de la señal original, se logra aumentar de 39.51% a 69.44% tal probabilidad. 4.2 Resultados del modelo de regresión de Cox En las Tablas III y IV se resumen los resultados correspondientes a los parámetros del modelo de regresión de Cox (correspondiente a la ec. 8), en donde se
asume que todas las variables son cuantitativas, excepto S (indicadora de la señal madre) que es una variable categórica: Tabla III. Resultados del modelo de Cox asumiendo a α como variable cuantitativa. Var N K M α S S(1) S(2)
β -.001 -.078 .011 4.571 .003 -.003
Wald 10.690 34.735 58.498 168.663 .003 .001 .001
Sig. .001 .000 .000 .000 .998 .978 .977
Var: nombre de la variable; β: valor de su coeficiente en el modelo de Cox (βi); Wald: valor del estadístico de Wald, que es un estadístico de prueba de la hipótesis nula que establece que la respectiva variable no es significativa (su coeficiente es nulo). Sig: nivel de significancia del estadístico de Wald. Si Sig<p, 0≤p≤1, entonces la respectiva variable es significativa al 100*(1-p)%.
Tabla IV. Prueba del Omnibus (bondad de ajuste). D = -2 Log (Verosimilitud)
Chi-cuadrado
GL
Sig.
6731.064
254.624
6
.000
D: es un estadístico de prueba de la bondad de ajuste del modelo, cuya hipótesis nula establece que todos los coeficientes del modelo son nulos, y por lo tanto, el modelo no se ajusta bien a los datos. Este estadístico se distribuye chi-cuadrado con GL grados de libertad. Sig: nivel de significancia del estadístico antes mencionado. Si Sig<p, 0≤p≤1, entonces se rechaza la hipótesis nula, y en tal caso, se concluye que el modelo se ajusta bien a los datos con un nivel de confianza del 100*(1p)%.
En primer lugar, la Tabla III indica que, según la prueba del Omnibus [13], no se rechaza la hipótesis de que el modelo se ajusta bien a los datos, lo cual indica que el modelo es válido. Por otro lado, según la Tabla IV, se puede concluir con un 99.9% de confianza lo siguiente: a mayor valor de N y K (mientras más grande sea la secuencia, y mientras mayor sea su soporte), menor riesgo, o equivalentemente, mayor supervivencia, y por lo tanto, mayor será el número de ciclos necesarios hasta que los residuos alcancen el error establecido. Por el contrario, a mayor valor de M y α en el intervalo [0.5 - 0.9] menor será el número de ciclos necesarios. En cuanto a las señales madre, estas no han influido en lo absoluto sobre los resultados, es decir, los resultados han sido independientes de las señales madre que se utilizaron. Entre los resultado antes presentados, causa especial inquietud el relacionado con el coeficiente α, para el cual se afirmó que a mayor valor del mismo, mayor será la velocidad de convergencia del algoritmo, sin embargo, vale la pena investigar si esta afirmación es absolutamente cierta, o si este comportamiento simplemente refleja una tendencia general, pero que analizada en detalle, se pudiese descubrir algún otro comportamiento un tanto más complejo, diferente a la influencia monótona obtenida en los resultados anteriores. Para investigar este aspecto, se decidió asumir al coeficiente α como una
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180
178
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 variable cualitativa, con el fin de analizar por separado el efecto de cada uno de sus posibles valores. Al realizar este cambio, y reestimar los parámetros del modelo de Cox, se obtuvieron los siguientes resultados: Tabla V. Resultados del modelo de Cox asumiendo a α como variable cualitativa. Var N K M α α(1) α(2) α(3) α(4) α(5) α(6) α(7) α(8) S S(1) S(2)
β -.001 -.085 .012 -2,033 -1,684 -.915 -.973 -.306 .117 .292 .227 .008 .000
Wald 10.947 40.800 69.034 178.999 53.716 49.000 23.381 24.956 3.269 .595 3.926 2.540 .009 .006 .000
Sig. .001 .000 .000 .000 .000 .000 .000 .000 .071 .440 .048 .111 .996 .937 .999
Los significados de las columnas de esta tabla son los mismos que los de la Tabla IV.
En este caso, se tomó α=0.90 como la categoría de referencia, y se codificaron los valores de 0.50, 0.55, … 0.85 como α(1), α(2), …, α(8). En la Tabla V se puede observar que a medida que se incrementa a α, el algoritmo se acelera hasta llegar a α=0.80, α(7), en donde el algoritmo alcanza su máxima eficiencia, para comenzar a desmejorar en los siguientes valores de α. El siguiente gráfico permite visualizar de una forma más adecuada el efecto de los valores de α sobre la eficiencia del algoritmo:
Figura 1. α vs. βi En este gráfico, el eje horizontal representa los diferentes valores de α evaluados (de 0.50 hasta 0.90), mientras que el eje vertical corresponde a los coeficientes del modelo de Cox asociados a cada valor de α.
En la Figura 1, la curva obtenida demuestra que la relación entre la eficiencia del algoritmo con respecto a α no es monótona creciente sino que sigue, aproximadamente, una parábola invertida que alcanza su máximo en α=0.80, de manera que entre 0 y 0.8 la eficiencia del algoritmo mejora a medida que α aumenta, y a partir de ahí, comienza a desmejorar. Es importante
señalar que estos resultados no contradicen lo presentado en la Tabla I, ya que en ese caso, C fue calculado tomando en cuenta sólo las pruebas en donde el algoritmo convergió (C≤100), a diferencia de los resultados del modelo de Cox, en donde se consideran todas las pruebas realizadas. III. CONCLUSIONES 1. Los resultados obtenidos en esta investigación permiten llegar a las siguientes conclusiones sobre el desempeño del algoritmo de reconstrucción de señales basado en la regresión de mediana ponderada. 2. A pesar de la gran variedad de condiciones, cuando el algoritmo alcanzó el error establecido (Ɛ=10-1), lo hizo recorriendo entre 10 y 16 ciclos, lo cual es considerado como un buen desempeño, mientras que en los demás casos se realizaron 100 ciclos sin que esto ocurriera, de manera que se evidencian dos tipos de comportamientos sumamente homogéneos y diferentes entre sí: uno lento y otro rápido; sin la posibilidad de resultados intermedios. 3. Sin embargo, ajustando adecuadamente los valores de α y M se puede reducir drásticamente la probabilidad de que el algoritmo se comporte en forma lenta: con α=0.5 hicieron falta sólo 7 ciclos en promedio ( C =7), pero apenas en el 13.89% de los casos el algoritmo requirió menos de 100 ciclos para converger, mientras con α=0.9 hicieron falta en promedio 11.91 ciclos, pero la convergencia se logró en el 96.30% de los casos. En ningún caso es recomendable utilizar α≤0.45, pues con estos valores se obtuvo que en el 96.6% de los casos el algoritmo fue ineficiente, indiferentemente de los valores de los parámetros restantes. 4. Por otro lado, existe la posibilidad de ajustar el valor de M con el fin de aumentar la probabilidad de que el algoritmo se comporte en forma rápida, por ejemplo, si en vez de utilizar M=7K se utiliza M=9K, se logra aumentar de 39.51% a 69.44% tal probabilidad. En este caso, es importante tener presente que es de interés que M sea lo más pequeño posible, o lo que es equivalente, que N/M sea lo más grande posible, pues uno de los objetivos del SC es comprimir las señales, por lo tanto, es necesario tener cuidado al aumentar el valor de M. 5. En cuanto al resto de las características de la señal, según el modelo de regresión de Cox, se obtuvo que a mayor valor de N y K, menor riesgo (mayor supervivencia), y por lo tanto, mayor será el número de ciclos necesarios hasta que los residuos alcancen el error establecido. Además, con este modelo se confirmaron los resultados asociados a α y M, expuestos anteriormente; aunque en el caso de α, se obtuvo una información adicional que indica que la relación entre la eficiencia del algoritmo con respecto a α no es monótona creciente sino que sigue,
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180
179
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 aproximadamente, una parábola invertida que alcanza su máximo en α=0.80, valor que representa un punto de equilibrio entre un número de ciclos bajo y la probabilidad de que el algoritmo no se desempeñe en forma lenta. V. REFERENCIAS 1. Mitra, S., Digital Signal Processing, A Computer Based Approach, 3era Edición, pp. 117-232, McGraw Hill, 2006. 2. Majumdar, A., y Ward, R., Compressed Sensing of Color Images. Signal Processing, Elsevier, Vol. 90, No. 12, pp. 3122-3127, 2010. 3. Han, B., Wu, F., y Wu, D., Image representation by compressive sensing for visual sensor networks. Journal of Visual Communication and Image Representation, Vol. 21, No. 4, pp. 325-333, 2010. 4. Bajwa, W., Sayeed, A., y Nowak, R., Compressed Sensing of Wireless Channels in Time, Frequency, and Space. Proc. 42nd Asilomar Conf. Signals, Systems, and Computers, Pacific Grove, CA, 2008. 5. Donoho, D., Compressed Sensing. IEEE Trans. on Information Theory, Vol. 52, No. 4, pp. 1289–1306, 2006. 6. Candes, E., Compressive Sampling, Proc. Int. Cong.
Mathematicians, Madrid, Spain, Vol. 3, pp. 1433– 1452, 2006. 7. Paredes, J., Arce, G., y Wang, Z., Ultra-Wideband Compressed Sensing: Channel Estimation. IEEE Journal of Selected Topics in Signal Processing, Vol. 1, No. 3, pp 383-395, 2007. 8. Paredes, J., y Arce, G., Compressive Sensing Signal Reconstruction by Weighted Median Regression Estimates. IEEE Transactions on Signal Processing, Vol. 59, No. 6, pp. 2585-2601, 2011. 9. Baraniuk, R., Compressive Sensing. IEEE Signal Processing Magazine, Vol. 24, pp. 118-124, 2007. 10. Tropp, J., y Gilbert, A., Signal Recovery From Random Measurements Via Orthogonal Matching Pursuit. IEEE Transactions on Information Theory, Vol. 53, No. 12, pp 4655-4666, 2007. 11. Chen, Q., Oppenheim, A., y Wang, D., Encyclopedia of Data Warehousing and Mining, pp. 1077-1082, Idea Group Inc., 2006. 12. Berry, M., y Linoff, G., Data Mining Techniques, 2da Edicion, pp. 383-420, Wiley, 2004. 13. Harrell, F., Regression Modeling Strategies: With Applications to Linear Models, Logistic Regression, and Survival Analysis, 1era Edición, pp. 465 – 507, Springer, 2001.
Jabbour y Paredes. Análisis de la eficiencia del Algoritmo de Reconstrucción de Señales. pp. 173-180
180
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
¿LA GRAVITACIÓN TERRESTRE, UN MISTERIO? Lange, Kurt Gerhardt Fries, Ronald (Recibido mayo 2012, Aceptado agosto 2012) linro.pzo@gmail.com, ronaldfries@gmail.com Resumen: Este trabajo nos da una visión alternativa para explicar la gravedad terrestre. Las leyes existentes están respectadas y la física no está básicamente cuestionada. Por lo contrario, las leyes existentes están mejoradas y analizadas en una explicación lógica con fórmulas sencillas, como lo preconcebía Einstein. Estas formulas representan la base de este trabajo resultando de más de 30 años de investigaciones. La aceleración de la gravedad es la resultante de fuerzas gravitacionales y levitacionales simultáneas. Es el producto de los tamaños de un cuerpo en doble rotación, alrededor de su eje de referencia y bajo la influencia de un trío de fuerzas: centrifuga, centrípeta y aceleración de Coriolis de las cuales los tamaños exactos se derivan de la velocidad real del cuerpo en rotación. El eje de referencia es siempre el de la órbita, cuya referencia al campo director es conocida. Palabras clave: Gravitación / Newton / Einstein / Teoría General de la Relatividad / Lorentz / Coriolis / Energía
TERRESTRIAL GRAVITATION, A MISTERY? Abstract: This study gives an alternate vision to explain gravity. Existing laws are respected and basic physics is not questioned. In contrast, existing laws are completed and analyzed in a logical explanation with simple formulas, as recommended by Einstein. These formulas are the basis of this work resulting from more than 30 years of research. The acceleration of gravity is the resultant of simultaneous gravitation and levitation forces. It is the product of the sizes of a body in two rotations around its reference-axis and under the influence of a trio of forces: centrifugal, centripetal and Coriolis acceleration of which the exact sizes of the real rate derived from the partial body rotation. The reference axis is always that of the orbit, the reference to the field director is known. Keywords: Gravitation / Newton / Einstein / Theory of General Relativity / Lorentz / Coriolis / Energy.
I. INTRODUCCIÓN Esta pregunta es muy válida en relación de las dos teorías reconocidas de la gravedad. Es generalmente conocido que el efecto gravitatorio, y su causa, representa uno de los mayores enigmas de la Física Teórica en general. En este sentido, la Física Teórica está buscando un camino que permite resolver este enigma de manera científica y matemática. La pregunta es: ¿por dónde empezar a buscar esta solución? Se podría empezar con la búsqueda de errores y contradicciones en las teorías existentes. En general se acepta que las teorías existentes de la gravitación, como tal, no pueden describirla ni explicarla. Describen sus efectos, pero la causa, la esencia, de la gravedad sigue siendo un misterio. Las teorías científicas nacen, en parte, por la necesidad de cubrir huecos que las teorías precedentes no lograban. Es un hecho que a medida que se hacen nuevos descubrimientos las teorías van fortaleciéndose, lo hacen hasta que llegando a un punto, esos mismos descubrimientos empiezan a resquebrajarlas. Entonces aparece una teoría superior que integra el conocimiento anterior y que explica los hechos sin contradicciones
aparentes. Las fallas que tenían las teorías precursoras desaparecen en la nueva. La nueva teoría es tan poderosa que servirá durante un tiempo para explicar los nuevos descubrimientos que todavía no se han producido. Este es el ánimo de nuestra nueva teoría: La teoría más moderna de la gravedad es la teoría de la relatividad general de Einstein. Según la opinión general, Einstein integra en su teoría la de Newton y se postula que la gravedad de Newton es “un caso especial” (?) de la teoría de Einstein. La física y con ella las matemáticas representan una ciencia absolutamente exacta. Debido a esto yo también soy un gran admirador de Karl Popper y sus argumentos a favor de la lógica de la epistemología científica. En este sentido surge una ilógica evidente a partir de lo anteriormente postulado sobre la física teórica. ¡En la naturaleza hay sólo una gravitación! ¡Diferenciar la gravedad en dos teorías, una de Newton y otra de Einstein es, por su naturaleza, físicamente y/o teóricamente imposible! Las leyes físicas de la naturaleza son las mismas en todo el Universo! El siguiente trabajo tiene como meta de aclarar si, hasta la fecha, estas leyes son todas reconocidas y comprendidas.
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189
181
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 Como las teorías no pueden darnos una explicación lógica, muchos científicos, buscando alternativas, meten en cuestión todo el conocimiento de la física teórica. Por lo tanto, creemos que tiene mucho más sentido buscar inconsistencias lógicas en las teorías existentes y la base de estas contradicciones para conseguir soluciones alternativas, siempre en el sentido de Popper. Ya que la Teoría General de la Relatividad de Einstein “debe” incluir la teoría Newton nos concentremos en esto. Sobre todo porque nos parece muy discutible que fue Einstein que la integrado en su propia teoría… Esto nos parece muy poco probable por las evidentes inconsistencias lógicas que resultan de esto. Particularmente cuestionable para nosotros es que todos los físicos y matemáticos en el mundo nunca se dieron cuenta de estas contradicciones. ¿Por qué? II. DESARROLLO 1. Formula de la energía de Einstein: En este sentido inicio con la ecuación básica de la energía del campo gravitacional. Usted la puede conseguir en cualquier libro de de física y se encuentra en esta forma:
R
R g kT 2
(1)
y kappa escrito como:
R
R 8G g T 2 c4
(2)
Ambas ecuaciones son comunes y bien conocidas. El tamaño de kappa (k), a la derecha del signo igual, presenta contradicciones lógicas, sin embargo difícilmente reconocibles. Pensando en la mundialmente famosa declaración de Einstein: "Nada es absoluto, todo es relativo" Es muy difícil aceptar que el propio Einstein, en su ecuación básica, pudo contradecirla de manera tan grotesca introduciendo valores constantes que van totalmente en contradicción de su teoría de relatividad. La única constante existente es la velocidad de la luz, c. ¿Qué pasa con el 8, Pi y G? El origen no es nuestra interpretación, sino precisamente la reportada en la literatura. 2. Primera contradicción: Primero el 8 resulta a partir de la analogía de la ley de la gravitación de Newton con la ley de la electrostática de Coulomb. La analogía es evidente cuando se comparan los dos: Ley de Newton
g G
M m r2
(3)
Ley de de Coulomb
E
1 Q Q 1 2 2 4 0 r
(4)
Simplificando tenemos:
F
1 4 0
(5) Es igual a:
G
1 4 y0
(6)
Ahora es comprensible que en la ecuación con Kappa aparecen el 8 y Pi. Debido a esta relación, la física teórica habla de un campo gravito magnético. Y así siguen dos contradicciones. La analogía matemática es evidente en ambas leyes, pero también ¿lo son en el sentido análogo físico? En la ley de la gravitación de Newton tenemos la constante gravitacional (G = 6,67384(80)x10-11) y en la ley de Coulomb la constante del campo eléctrico (є0= 8.854187 x10-12). Ambos valores son claramente desiguales. Es matemática y físicamente imposible integrar ambos valores sin violar de manera masiva las reglas. Y debido a que todos los físicos y matemáticos saben que es imposible, ¿se define G con y0? Se escribe que Einstein no utilizó el valor de y0 (y seguramente nunca lo habría hecho…). Por supuesto, tanto él como nadie más lo usa. También es imposible para nadie, porque no hay ninguna posibilidad para especificar un valor numérico o tamaño para y0. Él es puro producto de la imaginación, y si no existe la posibilidad de integrar en una ecuación valores numéricos, nunca llegaremos a un resultado solucionándola. 3. Segunda contradicción: Esta contradicción se deduce de la lingüística: gravito magnético. Suponiendo que es en realidad un campo gravito magnético, sigue la pregunta de ¿por qué no está aquí la constante del campo magnético (μ0 = 12,56637x10-7N/A2) sino la de la electricidad? La respuesta está en la analogía ya mencionada, debido a que la interacción resulta entre dos cargas opuestas, una positiva y la otra negativa. De manera similar Newton postula una interacción entre las masas m y M (planetas). ¿La realidad esta de tal forma? Entonces, de acuerdo con la ley de Coulomb, las masas que interactúan también deben tener cargas opuestas. Sólo hay dos cargas diferentes (positiva y negativa), pero un gran número de planetas y ¿tendrían que tener un 50% de carga positiva o negativa? Si esto fuera así, la vida no existiría en la forma real del Universo. Las cargas opuestas se aniquilarían entre sí y el Universo, con la suma de todas sus energías, ¡sería sólo radiación!
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189
182
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 ¡Exactamente este es uno de los hallazgos de la física en absoluto! No hay ninguna oportunidad de describir el campo gravitatorio como campo gravito magnético. El hecho es que la Tierra tiene un campo magnético. Este campo magnético proviene del viento solar y se puede deformar, más o menos, dependiendo de su tamaño. Por lo contrario, el campo gravitacional no puede ser deformado. Son claramente dos campos separados que se sobreponen entre sí y deben considerarse y representarse de manera separada. Esto es fácilmente comprensible y demostrable cuando se comparan las líneas de un campo magnético con las de un campo gravitatorio. Un campo magnético, como se sabe, se extiende del polo positivo al polo negativo. El polo norte de la Tierra es el polo positivo, ya que la Tierra gira de oeste a este, y la dirección de rotación se ve desde el Polo Norte a la izquierda, es decir positiva. Visto desde el polo sur, la dirección es negativa. De esta manera las líneas corren, ligeramente desplazadas, desde el Polo Norte al Polo Sur.
Figura 1. Campo dipolar
Las líneas de campo de un campo gravitatorio se definen por la aceleración real y efectiva de la gravedad, por lo tanto, en cada punto de la superficie de la Tierra en 89,9 °, sólo casi perpendicular a ella.
En la vista no se reflejan únicamente el orden simétrico de las líneas del campo norte y sur con su curvatura radial, sino también y con precisión el tamaño espacial de un campo gravitatorio, como Einstein lo señaló, en su Teoría General de la Relatividad, que es limitado. Nota: En la vista presentada no hay relación ninguna con el tamaño real del campo gravitatorio (dibujo de principio). Esto afecta ahora a la parte izquierda de su ecuación de la energía. Además de la curvatura radial, el campo gravitatorio tiene una torsión (axial) dependiente de la velocidad de rotación. Su valor numérico es definido por el tensor energía-impulso (Tμυ) a la derecha del signo igual. 4. Einstein y la descripción geométrica del campo gravitatorio: Einstein empieza la descripción geométrica del campo gravitacional con bases ciertas (axiomáticas). Para describir esto, la geometría euclidiana no es suficiente. A la izquierda del signo igual de su ecuación de la energía son el tensor de Ricci (Ruv) y el tensor métrico (guv función de distancia). Juntos forman el llamado tensor de Einstein. Es generalmente conocido que la representación matemática de estos tensores es sólo posible sobre la base de la geometría esférica (exceso esférico). Igualmente se sabe que pi no es aplicable y no se utiliza en la geometría esférica porque conduce a resultados incorrectos. David Hilbert - uno de los mejores matemáticos del mundo de su tiempo (!) - estaba al lado de Einstein y participo activamente en el desarrollo de las ecuaciones de la TGR. Ellos sabían muy bien, al igual que todos los físicos y matemáticos actualmente, que pi no es aplicable en el exceso esférico. ¿Sin embargo, Einstein introduce el número pi como una constante absoluta en su propia teoría? ¿Quién puede explicar correctamente como los dos podrían cometer un error tan flagrante? Personalmente, no puedo aceptar tal cosa. Esto lleva a la pregunta de: ¿cómo es posible que durante casi 100 años lo consideramos correcto, lo aprendemos y lo enseñamos? ¿Lo escribió Einstein esto realmente así? Las ecuaciones en el guión original, escritas manualmente por Einstein, eran altamente no linearizadas y se linearizaron y retardizaron ulteriormente. ¿Por qué? Incluso ecuaciones no linearizadas se resuelven! ¿Por qué razón las ecuaciones originales se modificaron? Respuesta: Porque en la ecuación original de la energía del campo gravitatorio de Einstein, el no escribió Kappa como supuesta “constante de Einstein”, sino más bien el tamaño de X (Ji). La ecuación original de Einstein era la siguiente: Rca - ½ Rgca = -XTca
Figura 2. Campo gravitatorio
(7)
La diferencia fundamental radica en la sustitución de la variable X (Ji) en el original con el tamaño K (kappa) en la
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189
183
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 forma actual de la ecuación. El problema, en la época y ahora, reside que en el Universo no hay y no puede haber constante, ¡a excepción de la velocidad de la luz c! ¡Por esta razón el no incluimos la también conocida constante gravitacional G (!) en su formula! El tamaño del X (Ji) en la ecuación de la energía original de Einstein es la constante de gravitación relativista! Ciertamente, no es fácil de entender los procesos de pensamiento de Einstein y una cantidad física que es a la vez “relativamente constante”. Probablemente, muchos críticos internacionales dudaron de su cordura. Sospecho que tanto Paul Drude como editor de los “Die Annalen der Physik”, y Max Planck como editor de la primera publicación del guión original de Einstein, tenían las mismas dudas que llevaron a la retirada y sustitución de Ji X con kappa. ¡Felizmente, Einstein demostró en este sentido, tanto a sus dos compañeros como a sus otros críticos, ser científicamente superior a todos ellos! La constante gravitacional relativista es para cada sistema inercial (planeta) una constante y al mismo tiempo tan relativa como los planetas, en sus parámetros físicos, son diferentes. Es decir, cada planeta tiene su propia constante de la gravitación y se conoce como el valor CODATA (véase más arriba) es una constante absoluta aquí en la Tierra, ¡pero solamente aquí! Exactamente lo que se muestra en la ecuación original de Einstein y Planck con Drude lo reconocieron al instante. El tamaño de Ji sigue de: -X = 8 P g / c4 (8) Aparece una sola constante que se encuentra en el Universo: c. El numerador de la fracción tiene 3 variables (relativas). Einstein quería demostrar el ejemplo con referencia a la Tierra y por lo tanto 8 no es tan sólo un pre factor algébrico derivado de la analogía anterior. Este 8 es un tamaño relativo y resulta con exactitud de las conocidas variables reales de movimiento de la Tierra que son: 149,6 millones de km = radio de la órbita de la Tierra alrededor del Sol. 6378,139 km = radio ecuatorial de la Tierra 0,000072925 rad/s = velocidad angular de la Tierra (rotación natural) 0,000000199 rad/s = velocidad angular de la rotación orbital alrededor del Sol Y sigue la ecuación muy sencilla:
149600000 / 6378,137 8,0003 0,000072925 / 0,000000199
(9)
Sustituyendo en esta ecuación, los datos de movimiento de cualquier otro planeta se obtiene por supuesto un valor muy diferente de pre-factor y por lo tanto el tamaño es tan relativo como todo lo demás. El símbolo P (rho) define la densidad de energía y el contenido de energía (cinética)
del campo gravitatorio y g es la aceleración de la gravedad (diferente para cada planeta). Debido a que todas estas variables son relativas y no hay ninguna constante, Einstein llamo esta teoría: la teoría de la relatividad y no ¡la teoría de las constantes! Por supuesto, primero se debe calcular el valor numérico específico antes de integrarlo en la formula. Por lo tanto, la ecuación básica se basa en 10 ecuaciones acopladas, con la que estos valores se calculan. Estas ecuaciones existen en forma linearizadas y retardizadas, esto es también conocido. Hasta la fecha, no existe un físico o un matemático en el mundo que haya tenido éxito para resolver numéricamente estas ecuaciones obteniendo resultados con cifras verificables. Eso no será posible en el futuro porque con X (Ji) surgen otras ecuaciones. 5. Constante gravitacional: Considerando ahora las consecuencias de la visión de Einstein - la relatividad de la constante gravitacional para toda la física, cada persona normalmente inteligente podría entender el terror de Drude y Planck cuando entendieron lo que representaba X. Si hay evidencia de que la constante de gravitación no es constante, colapsan todas las teorías existentes, es también válido para hoy como para la época de Einstein. La constante gravitacional G es una cantidad fundamental en todo el modelo de pensamiento de la física teórica. No hay en la cosmología, casi ningún proceso, o parte de proceso, que puede representarse sin esta constante y sin embargo el la gravedad, como tal, ¿sigue siendo, un misterio? ¿Eso quiere decir que tenemos que desmentir las teorías de Einstein y asumir que son en realidad una tontería, como muchos críticos pretenden a nivel internacional? ¡No, este no es el caso! Es cierto que las modificaciones, a su sentido original, surgen probablemente debido a un conflicto de intereses. Por ahora, si dejamos de un lado la constante kappa y utilizamos X como en el original de Einstein, obtenemos un sistema completamente diferente de ecuaciones que no tiene nada que ver con lo conocido, ni siquiera remotamente. Sin embargo, este sistema de ecuaciones proporciona cifras claras al 100% con resultados numéricos precisos. Esta es, otra vez, para confirmar que todas las declaraciones de Einstein están correctas. Lo mismo se aplica a la constante fundamental de la gravedad, cuya relatividad puede ser demostrada de manera matemática. Este valor es conocido hasta hoy como un valor de medición y nadie puede calcularlo en absoluto. Tomando las declaraciones de Einstein, esto nos da la posibilidad de desarrollar formulas muy sencillas que nos conducen, entre otras cosas, a soluciones para calcular la constante de gravitación: 19410 9,789515119 G 6,67415391 10 11 0,999815129 2
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189
(10)
184
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 Más abajo tenemos el factor de corrección para la ubicación de Zúrich (Suiza), donde hay el experimento de última generación y de alta precisión para la medición de G. Este factor de corrección se refiere a la latitud del lugar. Para cada conjunto de valores, hay una prueba matemática precisa. La unidad de la constante gravitacional se omitió deliberadamente, porque objetivamente no se conoce. Las justificaciones o derivaciones de la misma son muy diversas, y necesitan la comprensión de los fundamentos para entenderlas. La explicación de los detalles se podría publicar en un artículo separado hacer por razones de espacio. Lo importante es, sin duda, apoyar la declaración de Einstein que afirma que las leyes de la física son las mismas en todos los sistemas inerciales. ¡Iguales son también todas las ecuaciones inerciales! El 19’410 m/s de la velocidad orbital solar vale para todos los planetas. Si insertamos los tamaños específicos de cada planeta en las ecuaciones, obtendremos en cada uno la constante gravitacional ecuatorial. 6. Fórmula alternativa para calcular la gravitación terrestre: 467,5680525 2 / 6378137 3600 g res. 1 5 7 5 7 7,2925 / 1,99 3600 /( 7,2925 / 1,99 ) 9,789515119m / s 2
(11)
La segundo raíz de la relación de la fracción es el valor numérico de la constante de gravitación en el ecuador y en el nivel del mar (NN). El valor de 19’410 m/s es la velocidad orbital del Sol y de su sistema planetario medido por la astronomía por medio de la distancia definida hasta las estrellas fijas. 9,789’515’119 m/s2 es la gravedad exacta de la Tierra en el ecuador al nivel del mar (NN) que no es se puede calcular con tanta precisión con la teoría de Newton. Constante calculada según esta descripción: Tabla I. Constante de gravitación Planeta
Aceleración de la gravedad
Constante
Mercurio
3,7 m/s ²
8,510571820 10-15
Venus
8,87 m/s ²
6,839517717 10-14
Tierra
9,7895215119 m/s ²
6,672921527 10-11
Marte
3,71 m/s ²
8,504776526 10-12
Júpiter
23,12 m/s ²
5,382814658 10-12.
Saturno
8,96 m/s ²
6,822277513 10-13
Cada lector notara que sólo la Tierra tiene la mayor constante de gravitación, a pesar de que no es ni el más grande ni el más pequeño de los planetas del sistema solar. Hay otra vez una excelente explicación matemática. La Tierra es el único planeta del sistema solar cuya órbita en relación con los datos relativos a la magnitud de su campo gravitacional dan como resultado 1:
508,651 29,91097 23,45 3,141592 cos a cos a7,25 508,651 4 478,74003 1,000002053 (12) 478,73904
Para explicar los detalles debemos, otra vez por razones de espacio, referirnos a futuros artículos. Es importante demostrar que se confirma, una vez más, la evidencia de Einstein del tamaño espacialmente limitado de un campo gravitatorio. Como uno de los primeros y más citados ejemplos para la confirmación de la exactitud de su teoría de la relatividad general, es la ecuación de Einstein para probar los 43 segundos de arco incomprendidos de la rotación perihelica de Mercurio.
6 G M P a 1 e2 c 2
(13)
Lo que significan los símbolos individuales es conocido y no necesita ninguna explicación adicional. La ecuación da el ángulo de rotación, y sólo por la multiplicación de los radianes y los resultados de 3’600 se obtienen los 43 segundos de arco. Matemáticamente, esta ecuación debe ser considerada como correcta. La pregunta es si esto se aplica también a la interpretación correcta de la causa física de la rotación del perihelio. ¡Es evidente que Einstein inserta aquí, en el numerador de la fracción, Pi y G que son dos constantes presuntamente absolutas, que en realidad no son constantes! Sin embargo, no está describiendo las propiedades de un campo gravitatorio, sino la resultante de la interacción entre los campos gravitacionales. Aunque el pensamiento de Einstein es correcto, contiene un error lógico de análisis fácilmente explicable. Einstein señala de forma absolutamente correcta, que las leyes de la física son las mismas en todos los sistemas inerciales, ¡entonces esta ecuación debe ser aplicable a todos los otros planetas!. Exactamente esto es imposible y los resultados lo demuestran. Cualquiera que conozca la literatura sabe que el cálculo del perihelio de los planetas se diferencia en las teorías de Einstein de las de Newton. Ambos métodos de cálculo dan resultados diferentes y por lo tanto no son exactos. Tenemos una sola naturaleza, un Universo, una gravedad, y por lo tanto cada planeta tiene su propia rotación perihelica. ¡No hay ninguna rotación del perihelio que se adapta a las teorías de Newton o de Einstein! Ella resulta de la geometría real y del movimiento, si esto no es exactamente conocido o comprendido, se producirán errores en las representaciones matemáticas. El error en la explicación de la geometría de movimiento de los planetas se radica en el hecho de que el perihelio del planeta no es lo único: la rotación total de los planetas
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189
185
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 está compuesta por el perihelio y el periastro, los dos se superponen. Con Mercurio y el Sol, el centro de gravedad común - el periastro – se sitúa dentro del Sol y sólo a unos pocos kilómetros de su centro geométrico. Por lo tanto hay conexión directa con la excentricidad, que no tenemos con la rotación del perihelio. La ecuación antes citada de Einstein describe con exactitud la rotación del perihelio. Sólo porque el periastro es tan cerca del centro geométrico del Sol, visualmente las dos rotaciones parecen una misma cosa. Debido a que no lo tomamos en cuenta, no diferenciamos rotaciones del perihelio y del periastro, obtenemos resultados matemáticos imposibles.
Figura R o ta3.cRotación oi n d e del lp eperiastro r ai s tro
Figura 4. Rotación correcta del perihelio En consecuencia, la tarea es de desarrollar ecuaciones que toman en cuenta estas diferencias y que se basa en las declaraciones originales de Einstein. Esto es posible. Una constante gravitatoria o la masa de los valores numéricos no son necesarias para esto porque no están relacionados con la geometría del movimiento. Rotación anual del periastro de la Tierra
Periastro
(13)
47,87 1,243365 6 2439 57909000 0,2056 2439 0,42896" 180 4,14937793 2
Perihelio anual de la Tierra 363.796.353,6 0,992546151 5,3180365" 3600
Sumando estos dos resultados se obtiene 5.7469965 segundos de arco por año de la Tierra y los 574,7 segundos de arco por siglo, como se puede leer en la literatura. Ellos se obtienen exclusiva y precisamente de las variables de reales movimientos que se miden por la astronomía. Ninguno de los números usados es ficticio o calculado. Todos los números, pueden leerse en los buenos atlas de astronomía. Y estos son sólo los resultados de Mercurio. Uno puede fácilmente aplicar estas ecuaciones a todos los otros planetas del sistema solar. Lo hicimos y aquí pueden ver los resultados en la siguiente Tabla:
(14)
Tabla II. Aplicación de las ecuaciones a todos los otros planetas del sistema solar. 1
Mercurio Venus Tierra Mars Júpiter Saturno Uranus Neptuno
2
3
Radio orbital Mio. Km
Revolución anual
Periastro rotaciones
57,909 108,160 149,600 227,990 778,360 1433,400 2872,400 4495,000
4,14937793 1,6254976 1 0,53167836 0,084317 0,0339478 0,0119032 0,00606833
0,42896065 0,22238278 4,02313275 4,94036725 14,2449612 18,7849536 20,7553356 26,8305055
4
5
6
Perihelio rotaciones
Días rev. sideral
Precesión geodésica
5,318 7,248 8,516 10,516 19,428 26,374 37,319 46,639
88,025 224,701 365,252 686,980 4331,890 10759,240 30685,220 60189,943
3,499 3,489 3,489 3,490 3,491 3,514 3,493 3,487
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189
7 Suma Periastro + Perihelio 5,74696 7,47038 12,53913 15,45637 33,67296 45,15895 58,07434 73,46951
186
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 El resultado es exactamente lo contrario! Tanto la rotación del periastro como la del perihelio, al aumentar la distancia con el Sol se ponen siempre más grandes. Esto no puede ser de otra manera, en la parte externa los períodos orbitales se ponen siempre más largos con velocidad constante del Sol. Ahora tenemos que poner especialmente atención en la columna 6. La precesión geodésica de todos los planetas está dada por: ( / T) r
(15)
es el perihelio (columna 4), T es el período sideral (columna 5) y r es el radio orbital (columna 1). Todos estos valores están generalmente disponibles en los atlas de astronomía. Ahora comparamos los valores de la precesión geodésica (columna 6) con la tercera Ley de Kepler. La analogía con su declaración es flagrante y sería posible añadir una cuarta ley a las tres leyes de Kepler. La evidencia de que las ecuaciones son correctas se proporciona con ella. En consecuencia, los resultados sobre la base de la precesión geodésica del planeta son ahora claramente detectables como base para el cálculo de los cambios relativos de la cifra Pi. Cada planeta tiene, debido a sus propios movimientos espaciales, su propio valor de Pi. El resultado del mayor o menor grado de curvatura dependiendo de la aceleración gravitatoria del planeta, las líneas del campo gravitatorio (Einstein habla de la curvatura del espacio) tienen una forma (curva) diferente. De acuerdo con esta curvatura Pi también no puede ser constante. Esta cifra será siempre mayor que 3.141592 en presencia de campos gravitatorios con signo positivo, y menor con campos gravitacionales de signo negativo. La prueba de la veracidad del argumento puede ser proporcionada por simple verificación matemática: (16) 3,489⋅ √(3,158064⋅ cos7,25 )⋅ 3,141592= 19,40073 km/s Se está dando a partir de su precesión geodésica de nuevo con la velocidad espacial del Sol. La precesión geodésica de la Tierra es 3,489° en órbita alrededor del Sol, 3,158064 su cifra especial de PI y la famosa “constante” matemática pi representa el plano ecuatorial del Sol (no curvado). La desviación mínima del valor real medido es debido al redondeo del radio (media) orbital. El cálculo se basa en los datos de la astronomía, y aquí es indicado el radio orbital de 149,6 millones de kilómetros. Ahora podemos discutir si este radio tiene 100 kilómetros más o menos, pero esto no tiene una importancia fundamental. El radio orbital en un movimiento constante, nunca puede ser tan constante, de todos modos. De ello se desprende, sin embargo, la importante cuestión de cómo calcular correctamente la variación relativa de la cifra Pi. También por razones de espacio no se puede dar aquí una explicación detallada. Sólo queda la posibilidad de posteriores artículos… En un resumen como este es posible publicar la ecuación
correspondiente a la Tierra para Pi, con cifras claras: Cg rd
3,141592
(17)
Y con cifras claras: (18) 3, 291942415 = 3,158064254 3, 488⋅ 57 , 29579 La adición o sustracción del valor constante de la cifra Pi se debe a la seña del campo gravitatorio local que puede ser positivo o negativo. Cg es el valor numérico de la curvatura radial de las líneas de campo de un campo gravitatorio. Delta Phi (Δφ) es la precesión geodésica (ver arriba) y rd el radián de 180/3,141592. Sobre la base de estos “fragmentos” de explicaciones dadas en el presente texto, seguramente que muchas personas no van a entender la totalidad de las explicaciones. Los valores numéricos que nos dan resultados de la más alta precisión surgen de números de radiantes relativos calculados con las cifras relativas (específicas) de Pi. Por lo tanto, no es posible comprender adecuadamente sobre la base de fragmentos de todo un sistema o tirar conclusiones científicas (evaluar). Sólo puede ser entendido en su contexto y, lamentablemente, es al menos tan difícil como entender la teoría de Einstein… Cabe señalar un aspecto importante en relación con la aplicación del exceso esférico. Las representaciones de la física teórica se basan en el hecho de que una imagen de un triángulo proyectada en la superficie esférica, siempre tiene una suma de los ángulos mayores que 180°. De nuevo, esto sólo se aplica a campos gravitatorios con signo positivo. ¡Para signo negativo, la suma de los ángulos debe ser inferior a 180°! Esta representación se explica a menudo por el llamado puntero fijo, que se extiende desde el polo al ecuador, y luego una línea sobre el ecuador y, finalmente, se mueve de nuevo hacia al polo. La trayectoria del puntero definiendo dicho triángulo. Sobre la base de una esfera con las dimensiones de la Tierra se puede calcular con exactitud, por medio de la curvatura radial, y con la cifra relativa Pi , la suma de los ángulos:
(
)
π = 3, 141592+
Figura 5.
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189
187
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
∑ Angulo
180 cosα
=
, 99694496 (563, 291942415 )
180 = 188 , 543332 ° 0, 9546877
(19)
Los significados: 56,99694496 es el radiante de la circunferencia a partir del número especial (pi) de la Tierra 180/3,158064 = 56,99694496 3,291942415 es el grado de curvatura radial de Cg que se calcula a partir de los momentos de movimientos reales.
En principio, esta representación no es falsa, pero tiene un
defecto fundamental: la suma calculada de los ángulos es correcta ¡sólo si la bola no se mueve! Por lo tanto, no se logra cualquier representación de campos gravitacionales sobre la base de la geometría esférica. Los campos gravitacionales reales, en la naturaleza, están relacionados con cuerpos que se mueven de forma permanente. La geometría de una pelota inmóvil, no puede permitir eso. Importante no es únicamente el camino recorrido por el puntero, sino también su dirección y velocidad. ¡Este resultado (esfera en rotación) devuelve otros resultados, otras formas de áreas y otros ángulos para la suma del triángulo!
Figura 6.
Determinante no sólo la rapidez del puntero, sino también si se mueve a lo largo del ecuador en sentido opuesto o con la rotación del planeta. Esto resulta, en ambos casos, con triángulos completamente diferentes. Así, por la ecuación anterior un factor de corrección es indispensable para este hecho:
Angulo
180 v 1 rd r cos Cg
(20)
Este factor de corrección, según la dirección del movimiento, nunca puede ser igual o mayor que 1. Esta es una de las principales razones porque las ecuaciones de la TGR, en la forma actual, no pueden ser resueltas. Einstein fue también muy consciente de este hecho. Porque si el puntero se mueve en una esfera en movimiento, resultan dos caminos simultáneos. La velocidad, para cada uno de los dos, resultada de la distancia/tiempo es decir 2x (ds/dt) al mismo tiempo! Pero el tiempo es lo mismo para los dos movimientos. Entonces la pregunta es: ¿Cuál es la resultante de las dos velocidades? ¡En este punto, Einstein era consciente del conflicto, que era obligatoriamente tanto en su definición del espaciotiempo como en la relatividad de la simultaneidad! Él no hizo caso omiso, pero lo señaló muy claramente y escribió:
"Las complejas ecuaciones del campo gravitatorio sólo pueden ser resueltas cuando se encontrara una condición matemática simple para estas ecuaciones, dando una solución integral o parcial al problema". Hasta hoy, ningún matemático o científico en el mundo logro responder a esta condición. Esta es una de las principales razones porque la gravitación, como tal, sigue siendo un misterio. III. CONCLUSIONES Así que permítanme formular esta condición: 1. Las propiedades de un campo gravitatorio resultan de la geometría especial del movimiento del cuerpo giratorio y de su velocidad. 2. Las velocidades simultáneas angulares del cuerpo sobre su propio eje de rotación (Tierra) y el eje principal del centro de gravedad de todo el sistema (Sol) determinan todos los tamaños y propiedades de los campos de fuerza. 3. Puesto que la velocidad angular de la rotación circulante se refiere al centro del sistema global, se da y define de una vez la interacción con el campo guía superpuesto. 4. Basado en esta condición y en conjunción con Ji (véase más arriba) se traduce en un sistema completamente diferente de ecuaciones. Debido a esto, el sistema alternativo de ecuaciones
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189
188
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 desarrolladas basa únicamente en los parámetros de movimiento reales geométricos y sus velocidades angulares simultáneas. 5. Además, no hay en absoluto constantes, excepto c, y los valores numéricos de la masa m (planetaria) o la constante gravitatoria G no son la base de los cálculos. 6. Por lo tanto, la solución numérica de la ecuación de la energía de Einstein del campo gravitatorio es posible y demostrable.
IV. REFERENCIAS 1. Kurt Gerhardt “Klimakatastrophe?Gibt es eine Lösung?” Verlag Pro Business. Berlin 2008 ISBN 978-3-86805-277-0 2. Albert Einstein “Annalen der Physik” N°4. Vierte Folge – Band 55 – 1918 .“Prinzipielles zur allgemeinen Relativitätstheorie”
Lange y Fries. ¿La gravitación terrestre, un misterio? pp. 181-189
189
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
NIS: UNA HERRAMIENTA COMPUTACIONAL PARA LA IDENTIFICACIÓN DE SISTEMAS DINÁMICOS EN LAZO CERRADO EMPLEANDO REDES NEURONALES ARTIFICIALES Zambrano Alejandro1, Collazo Víctor2, Troncone Numan2, Rodríguez Jesús 2 (Recibido febrero 2011, Aceptado junio 2012) 1
Sidor CORPOELEC arzambrano@sidor.com, ntroncone@corpoelec.gob.ve 2
Resumen: El presente trabajo muestra el diseño e implementación de una herramienta computacional para identificación de sistemas dinámicos mediante aplicación de la tecnología de las Redes Neuronales Artificiales. El Neuro-Identificador de Sistemas (NIS), presenta dos componentes principales: un hardware de estímulo y adquisición de señales, y una interfaz humano-máquina, que ha sido desarrollada bajo arquitectura PC empleando la herramienta MATLAB®. El NIS permite obtener un modelo aproximado que se ajusta a la dinámica de la planta real, que posteriormente puede ser evaluado en lazo abierto. El NIS genera automáticamente funciones de transferencia de Primer Orden Más Tiempo Muerto (P.O.M.T.M.), y funciones de transferencia de segundo orden si la respuesta del sistema es sub-amortiguada. El sistema ha sido aplicado en la identificación de modelos bajo entorno de simulación y de circuitos eléctricos de primer y segundo orden. Los modelos obtenidos satisfacen las hipótesis, obteniéndose un factor de correlación cuadrática multivariable de 0.9670 en la estimación de un sistema de primer orden. Palabras clave: Identificación de Sistemas Dinámicos/ Redes Neuronales Artificiales/ Interfaz Hombre-Máquina.
NIS: A COMPUTER TOOL FOR CLOSED-LOOP DYNAMICAL SYSTEM IDENTIFICATION THROUGH ARTIFICIAL NEURAL NETWORKS Abstract: This paper shows the design and implementation of a computational tool for dynamical system identification by applying the technology of Artificial Neural Networks. The Systems Neuro-Identifier (NIS), has two main components: a stimulation and data acquisition hardware, and a human-machine interface. The NIS automatically generates first order transfer functions plus dead time (F.O.P.D.T.) and second order transfer functions if the system response is sub-damped. The tool has been applied in the identification of models under simulation environment and electrical circuits of first and second order. The models obtained matched the hypotheses regarding the dynamics of the plants identified, obtaining a cuadratic multivariable correlation factor of 0.9670 in the first order identified systems. Keywords: Dynamical System Identification/ Artificial Neural Networks/ Human-Machine Interface.
I. INTRODUCCIÓN Y ANTECEDENTES Las redes neuronales artificiales constituyen una excelente herramienta para el aprendizaje de relaciones complejas a partir de un conjunto de ejemplos. Gracias a esto se ha generado un gran interés en la utilización de redes neuronales en la identificación de sistemas dinámicos con no linealidades desconocidas. Además, debido a sus capacidades de aproximación, así como a sus inherentes características de adaptabilidad, las redes neuronales artificiales presentan una importante alternativa en el modelado de sistemas dinámicos no lineales [1]. El objetivo principal del presente trabajo es mostrar el diseño e implementación de una herramienta
computacional denominada Neuro-Identificador de Sistemas (NIS), que permita estimar la función de transferencia ó identificación, mediante aplicación de la tecnología de redes neuronales artificiales, de sistemas lineales invariantes en el tiempo (LTI) y sistemas con no linealidades desconocidas, de una sola entrada y una sola salida (SISO) que se encuentren en un lazo de control realimentado. La motivación del proyecto es la implementación de un software y su conexión a una interfaz de hardware para la adquisición de señales del sistema dinámico a ser identificado, que permita la obtención de modelos matemáticos de sistemas electro-mecánicos que ayuden
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202
190
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 en la detección de desajustes y permitan la compensación de controladores de posición de paletas directrices en el esquema de gobernación de velocidad en máquinas hidrogeneradoras de centrales hidroeléctricas. En este caso, mantener la producción de energía eléctrica es fundamental, por lo que no se pueden desconectar éste tipo de controladores y aplicar técnicas tradicionales de modelado, como la identificación empírica realizando pruebas en el sistema en lazo abierto y ajustando los parámetros de la respuesta temporal a una función de transferencia [2]. El desgaste mecánico en éste tipo de máquinas ocasiona cambios importantes en la función de transferencia que, en algunos casos, pueden ser no linealidades que afectan el desempeño de los compensadores PI y PID presentes en el esquema de regulación. Desde el punto de vista de la teoría de control, según [3], un sistema dinámico o proceso está formado por un conjunto de elementos relacionados entre sí que ofrecen señales de salida en función de señales o datos de entrada. Es importante resaltar el hecho de que no es necesario conocer el funcionamiento interno, o cómo actúan entre sí los diversos elementos, para caracterizar el sistema. Para ello, sólo se precisa conocer la relación que existe entre la entrada y la salida del proceso que realiza el mismo (principio de caja negra). El aspecto más importante de un sistema es el conocimiento de su dinámica, es decir, cómo se comporta la señal de salida frente a una variación de la señal de entrada. Un conocimiento preciso de la relación entrada-salida permite predecir la respuesta del sistema y seleccionar la acción de control adecuada para mejorarla. En sentido práctico, el conocimiento de dicha relación permite además, detectar posibles malfuncionamientos producto de desgastes o averías, en el caso de sistemas mecánicos o electrónicos, a través del análisis y comparación de las respuestas del sistema en diferentes instantes en el tiempo de vida útil de dichos sistemas. Diversos avances se han suscitado en materia de caracterización y obtención de modelos que representan la dinámica y la relación entrada-salida de sistemas. El modelado empírico de procesos contempla análisis en el dominio temporal y en el dominio de la frecuencia, que se realizan utilizando datos de entrada y salida obtenidos experimentalmente a partir de la excitación del proceso que se desea identificar bajo una condición nominal de operación. En este sentido, [4] constituye el antecedente más representativo de la investigación que se documenta en estas páginas, ya que trata la identificación de un sistema en la empresa venezolana CORPOELEC (anteriormente EDELCA): el sistema de gobernación de una unidad hidrogeneradora, que según el autor “… el sistema completo es bastante complejo, con varios lazos de retroalimentación…”. Pese a ésta y otras dificultades, la reducción de los elementos que conforman dicho sistema a una representación en diagrama de bloques resumida, que contempla al proceso como una relación entrada-salida, permitió simplificar la identificación.
Mediante ensayos escalón realizados bajo velocidad nominal, y con aplicación de perturbaciones inferiores al 3%, el autor logra obtener un modelo aproximado del sistema, mediante la implementación directa de un algoritmo denominado por el autor “método desarrollado por la USB”. La obtención del modelo matemático permitió, entonces, re-entonar el controlador de gobernación de velocidad de la unidad hidrogeneradora, que en su oportunidad, para el año 2007, presentaba fuertes oscilaciones que comprometían la estabilidad del sistema. Pese al éxito de la solución vista en [4], aplicada a una unidad hidrogeneradora, el método utilizado para la obtención del modelo matemático debió adaptarse a las particularidades de sistema en el momento, y no se contaba con una herramienta computacional de propósito específico para tal fin. Una de las principales razones por la cual se realiza modelado empírico de procesos y sistemas dinámicos es el hecho de que la obtención de un modelo fundamental, basado en principios físicos o químicos (según sea la naturaleza del proceso) resulta impráctico en la realidad, por lo que se acude a la obtención de parámetros que representen el comportamiento del sistema y se ajusten a una ecuación matemática. En otros casos, el modelado debe aplicarse cuando se desconoce total o parcialmente la ecuación del proceso y se requiere su obtención para bien conocer la relación entre la(s) variable(s) del proceso, o para entonar o adaptar controladores. En el contexto que motiva la presente investigación, debido a que sólo se pueden realizar mediciones de la entrada y la salida del sistema a identificar, y con la restricción en lazo cerrado, se propone la aplicación de redes neuronales para caracterizar la respuesta de sistemas dinámicos LTI, a través de una herramienta diseñada específicamente para tal fin. La aplicación de redes neuronales además, permitirá en el futuro la realización de pruebas para la identificación de sistemas no lineales [5] e identificación en línea. Las redes neuronales artificiales son un paradigma de procesamiento inspirado en la forma en que funciona el sistema nervioso de los humanos, y está caracterizado por su capacidad de generalización, robustez y tolerancia a fallos [6]. La tecnología de las redes neuronales ha sido utilizada en problemas de generalización o aproximación de funciones de complejidad arbitraria, por lo que el diseño propuesto se vale de esta característica para representar la respuesta de un sistema cualquiera de una entrada y una salida, mediante el entrenamiento de una red neuronal tipo multicapa alimentada hacia adelante, a través del algoritmo Backpropagation [7]. Es notable destacar a [8]-[12], ya que presentan de manera formal la aplicación de redes neuronales alimentadas hacia delante (feedforward), con memoria en la entrada (tapped delay) entrenadas fuera de línea mediante un algoritmo de retropropagación, como identificadores de sistemas dinámicos. Cabe resaltar que estos enfoques no
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202
191
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 permiten la identificación de sistemas con parámetros variables en el tiempo debido a que la red es incapaz de ajustar sus pesos en línea. En esos casos, [13] y [14] proponen la utilización de redes neuronales de base radial (RBF) dinámicas, es decir, de tamaño variable que puede ser entrenada en línea e implementarse en tiempo real. En [15], se exponen algunas consideraciones no formales, basadas en simulaciones de sistemas no lineales, sobre la selección de las funciones de transferencia de las neuronas que conforman la RNA empleada en la identificación de los casos mostrados en dicho trabajo, que permiten una estimación de modelos con menor error. En estos trabajos no se muestran las realizaciones prácticas de los experimentos, ni su aplicación en la identificación de sistemas en lazo cerrado, sino que presentan enfoques más teóricos.
x( k 1) x( k ) , u( k )
y( k ) x( k )
(1)
Donde x, u e y son secuencias de tiempo discreto. Cuando las funciones Γ y Ψ son desconocidas, estamos ante un problema de identificación. Si el sistema descrito en (1) es lineal e invariante en el tiempo, las ecuaciones que describen al sistema se pueden expresar como:
x( k 1) A.x( k ) B.u( k ) y( k ) C.x( k )
(2)
La herramienta desarrollada y presentada en este trabajo se vale del carácter adaptativo de las redes neuronales artificiales para almacenar conocimiento relativo a la dinámica del sistema a ser identificado. El NIS presenta dos componentes principales: un hardware de estímulo y adquisición de señales, y un software que ha sido desarrollado bajo arquitectura PC empleando las herramientas MATLAB/Simulink®, Neural Networks Toolbox™ y Data Acquisition Toolbox™. La herramienta permite obtener un modelo aproximado de primer orden más tiempo muerto o uno de segundo orden, que posteriormente puede ser evaluado en lazo abierto empleando cualquier herramienta computacional utilizada en el análisis de sistemas de control. Mediante el ajuste de pocos parámetros, el NIS permite identificar diversos sistemas LTI cuya función de transferencia es desconocida. En este artículo se muestran los resultados obtenidos en la fase de diseño y puesta en operación de la herramienta, aplicada a la identificación en entorno de simulación y de circuitos eléctricos utilizados para validar su funcionamiento.
En este caso A, B y C son matrices y el sistema puede ser parametrizado por el conjunto (A, B y C). Para este tipo de sistemas, si el orden es conocido, se puede escoger la estructura del modelo y resulta un problema de estimación de parámetros.
El trabajo está estructurado de la siguiente manera: en la sección 2 se presenta todo el desarrollo de la investigación: los fundamentos teóricos de la identificación de sistemas y de las redes neuronales artificiales con entrenamiento supervisado, el método de identificación seleccionado y el diseño e implementación del NIS. En la sección 3 se presentan los resultados y discusión del funcionamiento del NIS en la identificación de sistemas dinámicos. En la sección 4 se presentan las conclusiones y en la sección 5 las referencias bibliográficas.
Específicamente, en la investigación se ha considerado obtener un modelo que represente la dinámica del sistema real, mediante redes neuronales artificiales, para luego analizar su curva de reacción y luego aplicar uno de los dos métodos de modelado empírico de procesos en el dominio temporal: a) modelado basado en la curva de reacción del proceso aproximando a una función de transferencia de P.O.M.T.M., o b) modelado basado en la curva de reacción del proceso aproximando a una función de transferencia de segundo orden cuando el sistema a modelar es sub-amortiguada. Tales métodos han sido seleccionados en función de la gran cantidad de sistemas reales cuya respuesta puede ser generalizada a modelos P.O.M.T.M. o de Segundo Orden. La entrada de prueba utilizada en ambos casos es el escalón, de allí que los ensayos que se hacen se les conocen como Pruebas de Cambio de Escalón [2].
II. DESARROLLO 1. Identiicación de Sistemas
La mayoría de los sistemas dinámicos pueden ser representados en forma discreta por un conjunto de ecuaciones [16]:
En general un sistema no lineal descrito por (1) puede ser representado en términos de entrada-salida de la siguiente manera:
y( k 1) f [ y( k ) , y( k 1) ,..., y( k n1) ;
u( k ) , u( k 1) ,..., u( k m1) ]
(3)
El problema de la identificación consiste en seleccionar un modelo apropiado y ajustar sus parámetros de acuerdo a alguna ley adaptativa de forma que la respuesta del modelo ante una señal de entrada, o un conjunto de señales de entrada, se aproxime a la respuesta del sistema real ante esa misma entrada.
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202
192
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 2. Modelado Empírico de Procesos aproximándolos a una Función de Transferencia de Primer Orden Más Tiempo Muerto (P.O.M.T.M.) La función de transferencia general utilizada en la estimación del modelo de primer orden más tiempo muerto, para este caso, está representada por [2]:
G( S )
Ke t0 S S 1
(4)
Donde: K la ganancia de estado estable del proceso. t el tiempo muerto efectivo del proceso. 0
3 2
t 2 t1
(13)
Si bien es cierto que esta aproximación es válida para sistemas en tiempo contínuo, al muestrear las señales de entrada y salida del sistema a identificar bajo un criterio de sobremuestreo, y luego de un postprocesamiento o filtrado anti-aliasing, la respuesta del sistema en tiempo discreto puede aproximarse a la respuesta de un sistema de tiempo contínuo, y así aplicarse la formulación antes descrita. La Figura 1 permite explicar el método de modelado empírico expuesto:
τ la constante de tiempo efectiva del proceso. Las ecuaciones de interés, que han sido codificadas e incorporadas a la herramienta desarrollada en el proyecto de investigación, son las siguientes: El valor de estado estable será:
y ss KA
(5)
De (5) obtenemos:
Yss (6) A El método propone que t y τ sean seleccionados de tal K 0
manera que la respuesta real y del modelo ante iguales condiciones de excitación coincidan en dos puntos en la región de máxima pendiente de su curva de reacción. Los dos puntos son:
t1 t 0
3
t2 t0
(7) (8)
Para localizar dichos puntos se utiliza la ecuación, resultado de la aplicación del método de fracciones parciales y la inversa de la transformada de Laplace a la función de transferencia de un sistema de primer orden: t t 0 ct KA1 e u t t 0 t t 0
(9)
Cuando t = t0 + τ/3 se tiene que: 1 y t1 t 0 KA1 e 3 0.283 y ss 28.3 % y ss 3
(10)
Y cuando t = t0 + τ se tiene que:
yt 2 t 0 KA 1 e 1 0.632 y ss 63.2 % y ss (11) De (7) y (8), finalmente t y τ se expresan como: 0
t0 t2
(12)
Figura 1. Gráfico del método de modelo empírico de sistemas P.O.M.T.M.
3. Redes Neuronales Artificiales con Entrenamiento Supervisado El cerebro humano contiene aproximadamente 10 11 elementos intensamente conectados llamados neuronas [17]. Para efectos de la obtención de su modelo artificial, estas neuronas tienen tres componentes principales: las dendritas, el cuerpo o soma de la neurona y el axón. Las dendritas son redes receptivas similares a un árbol de fibras nerviosas que transportan señales eléctricas a la parte interior del cuerpo de la neurona. El cuerpo de la célula suma y umbraliza estas nuevas señales. El axón es una única fibra larga que transporta la señal desde el cuerpo de la célula hacia otras neuronas. El punto de contacto entre un axón de una célula y una dendrita de otra célula es llamado sinapsis. El arreglo de las neuronas y las fuerzas de las sinapsis individuales están determinados por un complejo proceso químico, que establece la función de la red neuronal.
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202
193
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 Las redes neuronales artificiales son redes interconectadas, que operan en paralelo mediante procesadores simples (usualmente adaptativos) y con organización jerárquica, las cuales intentan interactuar con los objetos del mundo real, del mismo modo que lo hace el sistema nervioso central. Las redes neuronales responden a un modelo biológico de interconexión entre elementos de procesamiento denominados neuronas artificiales. El aprendizaje en los seres vivos, en particular los animales, se realiza por ensayo y error, mediante ejemplos o demostraciones. Las redes neuronales biológicas ajustan dinámicamente parámetros internos (pesos y tendencias) que rigen la representación de la información o conocimiento, adoptando la capacidad de generalizar respuestas ante eventos nunca antes suscitados. De manera análoga, se representan estos procesos, mediante algoritmos o circuitos electrónicos. Mediante la herramienta NNT de MATLAB [18], se han implementado las funciones que permiten la parametrización de las redes neuronales aplicadas en la identificación del sistema, y por lo tanto no es objetivo del trabajo, codificar las ecuaciones relativas a la arquitectura de RNA.
artificiales, específicamente a través de los modelos con entrenamiento supervisado. Mediante información de la entrada y la salida de un sistema con función de transferencia desconocida, una estructura de identificación basada en redes neuronales artificiales puede realizar el mapeo de un conjunto de vectores de entrada asociados a unas clases de salidas, y representar a través de sus parámetros internos (pesos y tendencias) la dinámica de dicho sistema. El Dr. K. Narendra [8]-[9] presenta un estudio formal sobre identificación y control de sistemas dinámicos empleando redes neuronales con memoria en la entrada. Dado que el sistema real es desconocido, se debe asumir que corresponde a un tipo determinado, y que un modelo parametrizado basado en (3) puede en teoría representar el comportamiento de entrada – salida de cualquier sistema de ese tipo. La estructura de modelo de identificación implementada se muestra en la Figura 3.
4. Método de Identificación empleando Redes Neuronales Artificiales El proceso de identificación de sistemas mediante aplicación de redes neuronales considerado en el desarrollo de la aplicación, según [16], responde al diagrama mostrado en la Figura 2.
Figura 3. Estructura de identificación implementada.
Figura 2. Fases del modelado neuronal.
Se hará especial hincapié en la selección de la estructura de modelo de identificación, en la estimación y en la validación. El modelado empírico de procesos se fundamenta, esencialmente, en el ajuste de funciones de transferencia generales, de primer o segundo orden, mediante un conjunto de operaciones realizadas sobre datos experimentales extraídos del sistema real que se quiere identificar, por lo que el problema de la identificación de sistemas no lineales puede ser abordado mediante la aplicación de la tecnología de las redes neuronales
Sea X(k) el vector de entradas hacia la red neuronal, la cual almacenará mediante sus parámetros internos, la dinámica del sistema a identificar. En este modelo, las entradas de la red neuronal son la entrada del sistema real u(k), las entradas Xn+m-1(k) que representan estados anteriores de la misma señal de entrada u(k); y la salida del sistema, representada como entrada a la red neuronal por X1(k) y sus respectivos valores en estados anteriores, Xn(k). El número de entradas retardadas a considerar depende directamente del orden estimado del sistema a identificar. La capacidad de la red neuronal de almacenar un comportamiento dinámico realmente es otorgada a través de la presentación de estados anteriores, tanto de la entrada del sistema a identificar, como de su salida. Esto se conoce como memoria a la entrada (tapped delay).
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202
194
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 Como se verá en el apartado de diseño, el modelo seleccionado es el de una red neuronal tipo perceptrón multicapa con algoritmo de entrenamiento LevenbergMarquardt Backpropagation [7] y [18]. Los elementos arquitectónicos de la red son variables. Las ecuaciones relativas a los algoritmos de entrenamiento, se encuentran codificadas en la NNT de MATLAB. 5. Diseño del Neuro-Identificador de Sistemas A continuación se presentan las fases de diseño e implementación de la herramienta desarrollada. 5.1. Diseño General El diseño del Neuro-Identificador de Sistemas, ha sido realizado considerando que el producto final debe ser una herramienta de uso sencillo, con una interfaz gráfica de usuario que permita el acceso a todas las funcionalidades en consonancia con la estrategia de identificación, y con elementos software y hardware de buen rendimiento computacional. El diseño ha sido subdividido en dos grandes etapas que pueden apreciarse en la Figura 4.
Figura 4. Diseño del Neuro-Identificador de Sistemas.
La etapa de software comprende la configuración del origen de datos del modelo, esto es, la configuración de las tarjetas de adquisición de datos con las que el usuario captura los datos experimentales, o bien la selección y configuración de un modelo MATLAB/Simulink ® para ensayos basados en simulación. Dicha etapa contempla, en el mismo orden del esquema de identificación mediante redes neuronales visto en la Figura 2, opciones para llevar a cabo cada una de las fases de dicho esquema, así como también las operaciones típicas sobre archivos asociados al NIS, y la ayuda. La interfaz gráfica ha sido desarrollada bajo el módulo GUIDE™, de MATLAB®. Para la etapa de hardware, se ha utilizado un computador portátil como elemento de procesamiento y almacenamiento, y una tarjeta de adquisición de datos junto a un equipo terminal de interconexión entre las señales eléctricas provenientes del sistema a identificar y la tarjeta mencionada. El software permite seleccionar y configurar los parámetros principales de la tarjeta de adquisición: frecuencia de muestreo, canales de entrada y salida, y tiempo de adquisición. El NIS está provisto de una interfaz con funciones de la Data Acquisition Toolbox™ de MATLAB®, lo que permite dar prioridad
en el software, a las interrupciones causadas por la tarjeta de adquisición de datos al sistema operativo embebido en el computador portátil. 5.2. Diagrama de Flujo del Software El diagrama de flujo del software y sus distintos módulos se muestran en la Figura 5. En el diagrama de flujo presentado en la Figura 5 se aprecian los seis módulos principales que integran el software de la herramienta implementada. Los módulos se encuentran delimitados por un recuadro que representa la interfaz gráfica de usuario principal, o GUI principal. El bloque función Selección Origen de Datos del Modelo, permitirá seleccionar la fuente de los datos del sistema que se requiera identificar; existen dos posibilidades: origen de los datos desde un modelo Simulink, y origen de los datos desde una Tarjeta de Adquisición de Datos (DAQ). Para el primer caso, se desplegará una ventana que permite seleccionar y cargar un modelo Simulink cualquiera creado por el usuario. Si por el contrario se escoge la opción de origen desde DAQ, se desplegará una ventana que permite seleccionar el modelo de tarjeta, y una ventana que permite desplegar la información del dispositivo, en tiempo de ejecución del software. El bloque Captura de Datos (1) puede ejecutar dos vías distintas, dependiendo del origen de datos seleccionado en el bloque anterior. En el caso de origen de datos desde modelo Simulink, la captura de datos realiza la acción de ejecutar la simulación del modelo seleccionado por el usuario. Para el segundo caso, cuando el origen de datos es una DAQ, la captura de datos despliega una nueva ventana de Adquisición de Datos, que luego debe ser parametrizada para su ejecución. El bloque Acondicionamiento de Señales (2) permite, mediante una interfaz gráfica, aplicarle un acondicionamiento con Spline Cúbica tras ingresar un factor de atenuación, a las variables adquiridas en la etapa anterior. A través de éste método, es posible eliminar señales espurias no deseadas, adquiridas por lo general mediante una DAQ. Esta técnica permite eliminar el efecto de cuantización o discretización de las señales muestreadas, a efectos de aplicar asunciones propias de sistemas dinámicos en tiempo continuo. El bloque Configuración de Red Neuronal Artificial (3) permite seleccionar la estructura de identificación que el usuario requiere utilizar para identificar un determinado sistema dinámico; luego, una ventana permitirá seleccionar y parametrizar la arquitectura de la red neuronal artificial. El conjunto de entrenamiento de la red neuronal es conformado por un vector de muestras de la entrada del sistema a identificar, y un vector de muestras de la salida del sistema a identificar. Este conjunto de entrenamiento se constituye automáticamente vía software. El bloque Identificación de Sistemas (4) permite ejecutar el entrenamiento de la red neuronal, mostrando en tiempo
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202
195
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 real la curva de error de la clasificación del conjunto de entrenamiento realizada por la red. El bloque Validación (5) genera un bloque Simulink que representa a la red neuronal previamente entrenada. Luego se carga un modelo Simulink para validar y comparar el desempeño de la red neuronal con datos reales de validación del sistema identificado. El modelo permite también realizar una prueba escalón a la red neuronal.
Por último, el bloque Aproximación de Función de Transferencia (6) realiza un procesamiento gráfico de la curva de reacción del sistema identificado según las ecuaciones presentadas en la sección 2.1 de este artículo, grafica dicha curva y estima los parámetros necesarios para construir una función de transferencia de P.O.M.T.M. o una función de transferencia de segundo orden.
Figura 5. Diagrama de flujo del software del NIS.
5.3. Hardware de Adquisición y Procesamiento de Datos La Figura 6 muestra el hardware para adquisición de datos utilizados, así como también el hardware requerido para el almacenamiento, procesamiento y ejecución del NIS.
Figura 6. Hardware del NIS.
El hardware de adquisición (Fig. 6 - A) está conformado por la tarjeta de adquisición DAQ Card 6062E, cuya máxima frecuencia de muestreo es 500 kS/s. El hardware de estímulo de señales de excitación para las plantas a ser identificadas, es un generador de señales programable del fabricante Yokogawa, modelo FG300, cuya máxima frecuencia de salida para señales programadas por diskette de 31/2 es 15 kHz. El hardware de procesamiento (Fig.6 B), almacenamiento y ejecución del software es un computador portátil del fabricante Síragon, modelo Canaima 3050P, con procesador Intel Pentium M 2.1 GHz., 1 Gb de RAM y sistema operativo Microsoft Windows XP. Los requerimientos de software para la ejecución del NIS son: MATLAB 7.0 o superior, Drivers NI-DAQ. 5.4. Acabado Final El aspecto definitivo de la ventana principal del software de la herramienta desarrollada se muestra en la Figura 7.
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202
196
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Figura 7. Ventana principal del software. Este software sirve como Interfaz Gráfica de Usuario para la parametrización de la herramienta NIS; esto es, su hardware y el conjunto de ecuaciones a fin de realizar la identificación de sistemas dinámicos según las fases de modelado neuronal. Un conjunto de menús adicionales permiten realizar operaciones sobre archivo, acceder a la ayuda de la herramienta, y parametrizar el hardware de adquisición de datos. III. RESULTADOS Y DISCUSIÓN Para validar el correcto funcionamiento de la herramienta diseñada y evaluar su desempeño general, se identificaron sistemas bajo el entorno Simulink, y se identificaron
circuitos electrónicos de laboratorio. 1. Identificación de Sistemas en Entorno MATLAB/Simulink® La Figura 8 muestra el diagrama de bloques, con un sistema cuya función de transferencia ha sido seleccionada arbitrariamente; dicho sistema ha sido identificado mediante obtención de datos de su entrada y salida, mediante el osciloscopio de Simulink. El sistema se encuentra en un lazo cerrado, y fue excitado con una señal aleatoria. Esta prueba ha permitido validar el funcionamiento de los módulos software que conforman a la herramienta NIS.
Figura 8. Sistema desconocido – modelo Simulink. Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202
197
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 Las señales de entrada y salida de la planta, que fueron muestreadas utilizando el osciloscopio de Simulink, se muestran en las Figuras 9 y 10. 10
épocas, o bien ajustar parámetros del algoritmo de entrenamiento como la tasa de aprendizaje. 0.8
Neural Network Output Plant Output
Plant Input 8
0.6
6
0.4
4 0.2
2 0
0 -0.2
-2 -0.4
-4 -0.6
-6
-0.8
-8 -10
-1
0
10
20
30
40
50
60
70
80
90
100
Figura 9. Entrada muestreada de la planta – modelo Simulink.
0
10
20
30
40
50
60
70
80
90
100
Figura 11. Respuesta de la red neuronal y del sistema ante la misma entrada aleatoria.
6
4 4
Neural Network Output Plant Output
3.5 3
2
2.5 0
2 -2
1.5 1
-4
0.5 -6
0
10
20
30
40
50
60
70
80
90
100
0
Figura 10. Salida muestreada de la planta – modelo Simulink.
La cota de error alcanzada por el algoritmo de entrenamiento Levenberg – Marquardt Backpropagation, aplicado a la arquitectura de red neuronal establecida para la identificación del circuito de primer orden, en este caso ha sido 3.85194 x 10-10 en 1551 épocas de entrenamiento. La Figura 11 muestra el gráfico de validación del modelo de red neuronal, donde se somete a la misma señal aleatoria, tanto a la planta como a la red neuronal artificial previamente entrenada, en condición de lazo abierto. La Figura 12 muestra la respuesta de la planta y de la red neuronal en lazo abierto, ante una entrada escalón de amplitud 1. El error en la aproximación se puede asumir, considerando que la obtención de un modelo empírico con un error inferior al 20% es tolerable en la mayoría de los casos. Para reducir el error se hace necesario ejecutar el entrenamiento de la red neuronal en un mayor número de
0
10
20
30
40
50
60
70
80
90
100
Figura 12. Respuesta de la red neuronal y del sistema ante entrada escalón.
Las Figuras 13 y 14 muestran respectivamente, la función de transferencia aproximada por el Neuro-Identificador y la salida del modelo Simulink.
Figura 13. Función de transferencia aproximada por el NIS.
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202
198
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 2. Identificación de una Planta de Primer Orden La Figura 15 muestra el circuito de primer orden que ha sido identificado mediante obtención de datos experimentales en laboratorio. Esta prueba ha permitido probar el NIS completo: su software y su hardware. Las señales de entrada y salida de la planta, que fueron muestreadas utilizando el hardware de adquisición de datos, se muestran en la Figuras 16 y 17. La frecuencia de muestreo de las señales fue seleccionada excitando la entrada del circuito y observando hasta que punto la frecuencia atenuaba la salida de la planta. En este caso, la frecuencia de muestreo ha sido de 80 Hz.
0.8 0.6 0.4 0.2 0 -0.2 -0.4 -0.6 -0.8 -1
Plant Output Aprox. Plant Output 0
10
20
30
40
50
60
70
80
90
100
Figura 14. Salida del sistema Simulink y salida aproximada por el NIS.
Figura 15. Circuito de primer orden. 0.25
0.25 Plant Input
Plant Output
0.2
0.2 0.15
0.15
0.1 0.05
0.1
0
0.05 -0.05
0
-0.1 -0.15 -0.2
-0.05
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
Figura 16. Entrada muestreada del circuito de primer orden.
5
-0.1
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Figura 17. Salida muestreada del circuito de primer orden.
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202
199
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 La cota de error alcanzada por el algoritmo de entrenamiento Descenso de Gradiente, aplicado a la arquitectura de RNA establecida para la identificación del circuito de primer orden, ha sido 2.98 x 10 -6 en 10000 épocas de entrenamiento. Para reducir el error se hace necesario ejecutar el NIS en una arquitectura de cómputo de mayor velocidad, a fin de que el algoritmo converja más rápidamente. La Figura 18 muestra una entrada de excitación aleatoria, mientras que la Figura 19 muestra el gráfico de validación del modelo de red neuronal, donde se somete a la misma señal aleatoria, tanto a la planta como a la red neuronal artificial previamente entrenada, en condición de lazo abierto.
1.2
1
0.8
0.6
0.4
0.2 Real Plant Output Aprox. Plant Output
0
-0.2
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Figura 20. Respuesta de la red neuronal y de la planta, en lazo abierto, ante entrada escalón.
5 Validation Input 4 3
Las Figuras 21 y 22 muestran respectivamente, la función de transferencia aproximada por el Neuro-Identificador y la salida real del circuito de primer orden.
2 1 0 -1 -2 -3 -4 -5
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Figura 18. Entrada de validación para el modelo obtenido.
Figura 21. Función de transferencia aproximada por el NIS – caso circuito de primer orden.
4 0.6
Aprox. Plant Output Real Plant Output
3
Real Plant Output Aprox. Plant Output Input
0.4
2 0.2
1 0
0 -0.2
-1 -2
-0.4
-3
-0.6
-4
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
-0.8
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
Figura 19. Respuesta de la red neuronal y del circuito ante la misma entrada aleatoria.
Figura 22. Salida del circuito de primer orden y salida de la planta aproximada por el NIS.
La Figura 20 muestra la respuesta de la planta y de la red neuronal en lazo abierto, ante una entrada escalón.
Cuantitativamente, el grado de confiabilidad del modelo se ha evaluado mediante un factor de correlación cuadrática multivariable. En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202
200
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 lineal entre dos variables aleatorias. Se considera que dos variables cuantitativas están correladas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen también los de B y viceversa. Se ha utilizado la ecuación: n
Ry 1 1 2
Yˆ i 1 n
Y i 1
2
i
1
(14)
2
i
Que expresa la fuerza de la relación lineal entre el conjunto de datos de salida del modelo aproximado, Yˆi , y el conjunto de datos de salida del sistema o planta real, Yi , ante una misma entrada cualquiera. El cuadrado del factor de correlación únicamente indica que es una expresión cuadrática. La ecuación ha sido ajustada de forma tal que, indistintamente del sentido que arroje la correlación, el factor siempre sea positivo e inferior o igual a la unidad, donde la unidad representa una correlación total. Valores superiores a 0.96 en el factor de correlación, indican claramente que el modelo aproximado está correlado con el modelo real. Así, para el modelo de primer orden aproximado se tiene:
Ry 0.9670 2
(15)
Que, junto a la correspondencia visual mostrada en las gráficas anteriores, confirma la validez del modelo identificado con el NIS. IV. CONCLUSIONES 1. El Neuro-Identificador de Sistemas hace uso efectivo de la metodología empleada para la identificación mediante Redes Neuronales Artificiales. 2. La herramienta implementada permite, mediante el ajuste de pocos parámetros, identificar sistemas dinámicos LTI - SISO. A través del experimento realizado, se demuestra que es válido utilizar el modelado neuronal en la identificación de sistemas LTI que se encuentren en un lazo de control realimentado. 3. En relación al desempeño, se observa que el error cuadrático medio obtenido en la fase de entrenamiento de la red neuronal debe ser inferior a 10-10 para obtener un modelo que permite obtener correlaciones cuadráticas multivariables superiores a 0.96. 4. Por último, se demuestra que es posible después de obtener el modelo de red neuronal que representa la dinámica del sistema LTI, realizar pruebas escalón y, aplicando técnicas de modelado empírico de procesos sobre la red neuronal previamente entrenada, aproximar una función de transferencia.
V. REFERENCIAS 1. Gil R. Páez D., “Identificación de Sistemas Dinámicos utilizando Redes Neuronales RBF”, Revista Iberoamericana de Automática e Informática Industrial, vol. 4, núm. 2, Comité Español de Automática, Madrid, España, pp. 32-42. 2. Sarmiento S., “Identificación Empírica de Modelos”, UNEXPO Vicerrectorado Puerto Ordaz, Puerto Ordaz, Venezuela, Marzo, 2003. pp 173-188. 3. Ogata K., “Modern Control Engineering”, Third Edition. Prentice Hall, 1998. 997 p. 4. Contreras R., “Tuning of Governance System of a 805 MVA Generator Unit at Guri Plant After 25 Years of Service”, 1st Venezuelan Congress on Networks and Electrical Energy, Anzoátegui, Venezuela. November, 2007. pp. 1-9. 5. Hangos K. M., Bokor J., Szederkényi G., “Analysis and Control of Nonlinear Process Systems”, SpringerVerlag London Limited, 2004. 6. Zambrano A., Pinto L., “Aplicación de las Redes Neuronales Artificiales en Procesadores Digitales de Señales: Caracterización de Sensores Infrarrojos”, Revista Universidad, Ciencia y Tecnología, vol. 13, UNEXPO Vicerrectorado Puerto Ordaz, Puerto Ordaz, Venezuela, pp. 20-27. 7. Demuth H., Beale M., Hagan M., “Neural Network Design”, PWS Publishing Company, Boston, EUA, 1996. 8. Narendra, K. S., Parthasarathy, K., “Backpropagation in Dynamical Systems containing Neural Networks”, Technical Report 8905, Centre for Systems Science, Department of Electrical Engineering, Yale University, 1989. 9. Narendra, K. S., Parthasarathy, K., “Identification and Control of Dynamical Systems Using Neural Networks,” IEEE Transactions on Neural Networks, Vol. 1, No. 1, pp. 4-27, 1990. 10. Kuschewsky G. J., Hui S., Zak S.H., “Application of feedforward neural networks to dynamical system identification and control”, IEEE Transactions on Control Systems Technology, Vol. 1, No. 1, 1993, pp. 37-49. 11. Chi S.R., Shoureshi R., Tenorio M., “Neural Networks for System Identification”, IEEE Control Systems Magazine, No. 10, 1990, p.p. 31-34. 12. Chen S., Billings S.A., Grant P.M., “Nonlinear System Identification using Neural Networks”, International Journal of Control, Vol. 51, No. 6, 1990, p.p. 11911214. 13. Poggio T., Girosi F., “A Theory of Networks for Approximation and Learning”, Artificial Intelligence Memo No. 1140, Massachusetts Institute of Technology, 1989. 14. Sanner R.M., Slotine J.E., “Stable Adaptive Control and Recursive Identification using Radial Gaussian
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202
201
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 Networks”, Proceedings of 30th on Decision and Control, Brighton, England, 1991. 15. Nechyba M., Xu Y., “Neural Network Approach to Control System Identification with Variable Activation Functions”, The Robotics Institute, Carnegie Mellon University, Pittsburg, EUA, 2000. 16. Cañete J., “Modeling and Control using Neural Networks”, Malaga University, PhD Program on
Mechatronics Engineering, Málaga, Spain. April, 2008. 17. Troncone N., “Introducción a las Redes Neurales”. Trabajo de Ascenso, UNEXPO Vicerrectorado Puerto Ordaz. Puerto Ordaz, Venezuela. Diciembre, 2002. pp 10-50. 18. The Mathworks Inc., “MATLAB 7.0 Neural Networks Toolbox Help Notes”, May, 2006.
Zambrano et al. NIS: Una Herramienta Computacional. pp. 190-202
202
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
MODELADO CON VARIABLES ALEATORIAS EN SIMULINK UTILIZANDO SIMULACION MONTECARLO Velásquez, Sergio1 Velásquez, Ronny1 (Recibido enero 2012, Aceptado junio 2012) 1
Dpto. de Ingeniería Electrónica, UNEXPO Vicerrectorado Puerto Ordaz sergiovelasquez@gmail.com;
Resumen: Este artículo presenta el Modelado Con Variables Aleatorias En Simulink Utilizando Simulación Montecarlo, muchos modelos de sistemas reales contienen elementos que precisan o admiten un modelado estadístico, Sistemas de comunicaciones, Sistemas de conmutación, Sistemas sensores, Modelado toma forma definiendo, Variables aleatorias que rigen ciertos comportamientos del sistema Procesos estocásticos para modelar variación de entradas en el tiempo, como lo son las fluctuaciones en la bolsa de valores e ciertos productos. Se deben definir métodos para generar muestras de variables aleatorias y muestras de procesos estocásticos. Entre ellos está el método de Montecarlo, el modelo implementado mostro la capacidad proponer precios optativos al precio de mercado ante cambios en el precio de un producto. Las simulaciones permitieron conocer con mayor exactitud la versatilidad del Método ante otros Métodos usados, prediciendo con gran exactitud las fluctuaciones de precios ocurridas en el producto de prueba. Palabras clave: Simulink/ MonteCarlo/ Vainilla/ Gaussiano/ Modelo.
MODELING WITH RANDOM VARIABLES IN SIMULINK USING MONTECARLO SIMULATIONS Abstract: This article presents the model with random variables in Monte CarloSimulation Using Simulink, many models of real systems contain elements that require or permit a statistical modeling, communication systems,switching systems, sensor systems, modeling takes definite shape, random variables governing certain stochastic processes system behavior modelinginputs change over time, as are the fluctiaciones in the stock market andsome products. You must define methods to generate samples of random variables and stochastic samples. Among them is the Monte Carlo method, the implemented model showed the ability to propose optional pricing to the market price to changes in the price of a product. The simulations allowed to know more precisely the versatility of the method to other methods used, predicting with great accuracy the price fluctuations that occurred in the trial product. Keywords: Simulink/ MonteCarlo/ Vanilla/ Gaussian/ Model.
I. INTRODUCCION Simulación de sistemas dinámicos, donde se supone que conocemos el valor exacto de todos los parámetros del modelo no representa adecuadamente el mundo real. La mayoría de las veces el diseñador de un sistema quiere saber lo que ocurre cuando uno o más componentes están sujetos a la incertidumbre.
modelar variables aleatorias con las dos distribuciones estándar de probabilidad: uniforme y de Gauss o normal. Procesos estocásticos, en contraste con variables aleatorias, son funciones del tiempo o alguna otra variable independiente (o variables). La matemática de estos procesos es un poco más complicada debido a la interrelación entre el azar y la variable independiente.
El modelado de la incertidumbre cubre dos temas relacionados: variables aleatorias y los procesos estocásticos. Las variables aleatorias pueden modelar la incertidumbre en los experimentos en un solo evento se produce, lo que resulta en un valor numérico para algunos observables. Un ejemplo de esto ser el valor de un parámetro (o varios parámetros) especificado en el diseño.
En este artículo se analiza el uso de Simulink para modelar los dos tipos de incertidumbre. Se presenta los dos tipos de variables aleatorias disponibles en Simulink y se muestra cómo crear otras distribuciones de probabilidad para su uso en los fenómenos de modelado que son más complejas. Se hace llegar las ideas de variables aleatorias para el más simple de procesos estocásticos, donde en cada uno de los tiempos de la muestra en un sistema discreto se selecciona una nueva variable aleatoria. Finalmente, se muestran los procesos
En el proceso de construcción del sistema, estos pueden cambiar al azar debido a la fabricación u otros errores. Simulink ofrece los bloques que se pueden utilizar para
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211
203
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 de tiempo discreto, que concurren a los procesos de tiempo continuo en el límite donde los intervalos de tiempo son cada vez más pequeños. [1].
II. DESARROLLO La forma más sencilla de incertidumbre que se podría necesitar para el modelo son los valores de los parámetros de una simulación. Estas incertidumbres de los parámetros pueden ser los errores debidos a las tolerancias de fabricación, las incertidumbres en los valores físicos, debido a errores de medición y los errores en los parámetros del modelo por el desgaste del sistema. Simulaciones de Monte Carlo utilizan los parámetros entre las distribuciones de probabilidad conocida. Los parámetros son entonces variables aleatorias, por lo que cada simulación más simple incertidumbres uno que tenga que modelo son los valores de los parámetros de una simulación. Estas incertidumbres de los parámetros pueden ser los errores debidos alas tolerancias de fabricación, las incertidumbres en los valores físicos, debido a errores de medición y los errores en los parámetros del modelo por el desgaste del sistema. Simulaciones de Monte Carlo utilizan los parámetros entre las distribuciones de probabilidad conocida. Los parámetros son entonces variables aleatorias, (por lo que cada uno tiene una estructura de simulación.) 1. El azar Es una causalidad presente en diversos fenómenos que se caracterizan por causas complejas y no lineales. Dependiendo del ámbito al que se aplique, se pueden distinguir cuatro tipos de azar: 1.1. Azar en Matemáticas. En matemáticas, pueden existir series numéricas con la propiedad de no poder ser obtenidas mediante un algoritmo más corto que la serie misma. Es lo que se conoce como aleatoriedad. La rama de las matemáticas que estudia este tipo de objetos es la teoría de la probabilidad. Cuando esta teoría se aplica a fenómenos reales se prefiere hablar de estadística. 1.2. Azar en la Física. Los sistemas de la física pueden incluir procesos deterministas y también indeterministas, es decir azarosos. En los sistemas indeterministas no se puede determinar de antemano cuál será el suceso siguiente, como sucede en la desintegración de un núcleo atómico. Esta dinámica, azarosa, es intrínseca a los procesos que estudia la mecánica cuántica, es decir aquellos subatómicos. Dentro de los procesos deterministas, también se da el azar en la dinámica de sistemas complejos impredecibles, también conocidos como sistemas caóticos.
1.3. Azar en Biología. Las mutaciones genéticas son generadas por el azar. Las mutaciones se conservan en el acervo genético, aumentando así las oportunidades de supervivencia y reproducción que los genes mutados confieren a los individuos que los poseen. Normalmente las características de un organismo se deben a la genética y al entorno, pero también las recombinaciones genéticas son obra del azar. 1.4. Azar como encuentro accidental Esta situación se considera azar porque los procesos que coinciden son independientes, no hay relación causal entre ellos, aunque cada uno tenga una causa que actúe de modo necesario. Así, un macetero cae por una causa necesaria: la gravedad; pero es azaroso que en su trayectoria coincida con un peatón. 2. La probabilidad La teoría de la probabilidad es la parte de las matemáticas que estudia los fenómenos aleatorios. Estos deben contraponerse a los fenómenos determinísticos, los cuales son resultados únicos y/o previsibles de experimentos realizados bajo las mismas condiciones determinadas, por ejemplo, si se calienta agua a 100 grados Celsius a nivel del mar se obtendrá vapor. Los fenómenos aleatorios, por el contrario, son aquellos que se obtienen como resultado de experimentos realizados, otra vez, bajo las mismas condiciones determinadas pero como resultado posible poseen un conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de un dardo. 3. Variable aleatoria Una variable es aleatoria si su valor está determinado por el azar. En gran número de experimentos aleatorios es necesario, para su tratamiento matemático, cuantificar los resultados de modo que se asigne un número real a cada uno de los resultados posibles del experimento. De este modo se establece una relación funcional entre elementos del espacio muestral asociado al experimento y números reales. Una variable aleatoria (variable aleatoria) X es una función real definida en el espacio muestral asociado a un experimento aleatorio, Ω Ω
(1)
Se llama rango de una variable aleatoria X y lo denotaremos RX, al conjunto de los valores reales que ésta puede tomar, según la aplicación X. Dicho de otro modo, el rango de una variable aleatoria es el recorrido de la función por la que ésta queda definida: Ω
(2)
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211
204
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 3.1. Distribución de probabilidad La distribución de probabilidad de una variable aleatoria X, también llamada función de distribución de X es la función FX(x), que asigna a cada evento definido sobre X una probabilidad dada por la siguiente expresión: (3) y de manera que se cumplan las siguientes tres condiciones: 1. 2. Es continua por la derecha. 3. Es monótona no decreciente. La distribución de probabilidad de una variable aleatoria describe teóricamente la forma en que varían los resultados de un experimento aleatorio. Intuitivamente se trataría de una lista de los resultados posibles de un experimento con las probabilidades que se esperarían ver asociadas con cada resultado. 4. Proceso estocástico En estadística, y específicamente en la teoría de la probabilidad, un proceso estocástico es un concepto matemático que sirve para caracterizar una sucesión de variables aleatorias (estocásticas) que evolucionan en función de otra variable, generalmente el tiempo. Cada una de las variables aleatorias del proceso tiene su propia función de distribución de probabilidad y, entre ellas, pueden estar correlacionadas o no. Cada variable o conjunto de variables sometidas a influencias o impactos aleatorios constituye un proceso estocástico. Un proceso estocástico se puede definir equivalentemente de dos formas diferentes: Como un conjunto de realizaciones temporales y un índice aleatorio que selecciona una de ellas. Como un conjunto de variables aleatorias Xt indexadas por un índice t, dado que t pertenece a T, con . T puede ser continuo si es un intervalo (el número de sus valores es ilimitado) o discreto si es numerable (solamente puede asumir determinados valores). Las variables aleatorias Xt toman valores en un conjunto que se denomina espacio probabilístico. Sea Ω un espacio probabilístico. En una muestra aleatoria de tamaño n se observa un suceso compuesto E formado por sucesos elementales : Ω
(4)
de manera que . El suceso compuesto es un subconjunto contenido en el espacio muestral y es un álgebra de Boole B. A cada suceso le corresponde un valor de una variable aleatoria V, de manera que V es función de :
Ω
(5)
El dominio de esta función o sea el campo de variabilidad del suceso elemental, es el espacio muestral, y su recorrido, o sea el de la variable aleatoria, es el campo de los números reales. Se llama proceso aleatorio al valor en (A,A) de un elemento Ω , donde para todo es una variable aleatoria del valor en (A,A). Si se observa el suceso en un momento t de tiempo: Ω
(6)
V define así un proceso estocástico. Si es una filtración, se llama proceso aleatorio adaptado, al valor en (A,A), de un elemento , donde es una variable aleatoria -medible del valor en (A,A). La función (7) se llama la trayectoria asociada al suceso . 5. El método de Montecarlo El método de Montecarlo es un método no determinístico o estadístico numérico, usado para aproximar expresiones matemáticas complejas y costosas de evaluar con exactitud. El método se llamó así en referencia al Casino de Montecarlo (Principado de Mónaco) por ser “la capital del juego de azar”, al ser la ruleta un generador simple de números aleatorios. El nombre y el desarrollo sistemático de los métodos de Montecarlo datan aproximadamente de 1944 y se mejoraron enormemente con el desarrollo de la computadora. El uso de los métodos de Montecarlo como herramienta de investigación, proviene del trabajo realizado en el desarrollo de la bomba atómica durante la Segunda Guerra Mundial en el Laboratorio en EE.UU. Este trabajo conllevaba la simulación de problemas probabilísticos de hidrodinámica concernientes a la difusión de neutrones en el material de fisión. Esta difusión posee un comportamiento eminentemente aleatorio. En la actualidad es parte fundamental de los algoritmos de Raytracing para la generación de imágenes 3D. En la primera etapa de estas investigaciones, John von Neumann y Stanislaw Ulam refinaron esta ruleta rusa y los métodos "de división" de tareas. Sin embargo, el desarrollo sistemático de estas ideas tuvo que esperar al trabajo de Harris y Herman Kahn en1948. [2]. Aproximadamente en el mismo año, Enrico Fermi, Nicholas Metropolis y Ulam obtuvieron estimadores para los valores característicos de la ecuación de Schrödinger para la captura de neutrones a nivel nuclear usando este método. El método de Montecarlo proporciona soluciones aproximadas a una gran variedad de problemas matemáticos posibilitando la realización de experimentos
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211
205
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 con muestreos de números pseudoaleatorios en una computadora. El método es aplicable a cualquier tipo de problema, ya sea estocástico o determinista. A diferencia de los métodos numéricos que se basan en evaluaciones en N puntos en un espacio M-dimensional para producir una solución aproximada, el método de Montecarlo tiene un error absoluto de la estimación que decrece como en virtud del teorema del límite central. 6. Teorema del Límite Central El Teorema del Límite Central o Teorema Central del Límite indica que, en condiciones muy generales, si Sn es la suma de n variables aleatorias independientes, entonces la función de distribución de Sn «se aproxima bien» a una distribución normal (también llamada distribución gaussiana, curva de Gauss o campana de Gauss). Así pues, el teorema asegura que esto ocurre cuando la suma de estas variables aleatorias e independientes es lo suficientemente grande Sea la función de densidad de la distribución normal definida como (8) con una media µ y una varianza σ2. El caso en el que su función de densidad es , a la distribución se le conoce como normal estándar. Se define Sn como la suma de n variables aleatorias, independientes, idénticamente distribuidas, y con una media µ y varianza σ2 finitas (σ2≠0):
(9) de manera que, la media de Sn es n·µ y la varianza n·σ2, dado que son variables aleatorias independientes. Con tal de hacer más fácil la comprensión del teorema y su posterior uso, se hace una estandarización de Sn como (10) para que la media de la nueva variable sea igual a 0 y la desviación estándar sea igual a 1. Así, las variables Zn convergerán en distribución a la distribución normal estándar N (0,1), cuando n tienda a infinito. Como consecuencia, si Φ (z) es la función de distribución de N(0,1), para cada número real z: (11) Donde Pr( ) indica probabilidad y lim se refiere a límite matemático. III. RESULTADOS Y DISCUSIÓN Se ha realizado un experimento numérico en el que se han hecho corridas múltiples de generadores de números aleatorios (Figura 1), creando la función de densidad de probabilidad para los resultados y se ve que el resultado es gaussiano como predice la teoría. Esto es exactamente lo que el análisis de Monte Carlo se supone que debe hacer. En las situaciones donde se utiliza, las matemáticas necesarias para desarrollar la distribución de probabilidad son tan complejas que este método es la única manera de lograr el entendimiento necesario.
Figura 1. Corridas múltiples de generadores de números aleatorios En la simulación anterior, generar 100 millones de variables aleatorias para crear el histograma (50 millones de variables en MATLAB antes de empezar el modelo, y
50 millones de variables en todos los intervalos de tiempo en el modelo).
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211
206
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Figura 2. Modelo en Simulink para comprobación de Teorema de Límite Central usando simulación de MonteCarlo. El resultado de la ejecución de este modelo con n = 10.000 se muestra en la Figura 3. Tenga en cuenta que la distribución es casi exactamente gaussiana, con media cero y varianza como las demandas teorema de límite central. Por lo tanto, hemos hecho un experimento
numérico en el que se ha hecho corridas múltiples de generadores de números aleatorios, y se crea la función de densidad de probabilidad para los resultados y se observa que el resultado es gaussiana como predice la teoría.
Figura 3. Histograma Resultado, Ilustrando Simulación de Monte Carlo y el Teorema del Límite Central (distribución de probabilidad) En las situaciones donde se utiliza, las matemáticas necesarias para desarrollarla distribución de probabilidad son tan complejos que este método es la única manera de lograr el entendimiento necesario. Es importante ver cómo los parámetros se establecieron en el cuadro de diálogo para la distribución binomial. Se utilizó la "banda limitada White Noise", que genera una variable aleatoria gaussiana en cada paso de tiempo, y luego se extrajeron de esta una variable aleatoria que es uno cuando el signo es positivo y -1 si es negativo.
Se utiliza el sgn (signo) box de la Biblioteca de Matemáticas de Simulink. Se Añade los elementos en el vector resultante para crear una variable aleatoria que se encuentra entre y , por lo que se trata de una distribución binomial. El cuadro de diálogo para la banda limitada de bloquear el ruido blanco tiene el valor de la semilla aleatoria establecido en La semilla debe ser un vector de valores diferentes para que cada uno de los n / 2 variables aleatorias generadas es
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211
207
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 independiente. A partir de esta discusión, usted debería ser capaz de ver la forma de crear una simulación que contiene variables aleatorias, ya sea usando los generadores de números aleatorios en Simulink o
comandos usando MATLAB para generar números aleatorios. Sin embargo, se podría pensar en el ejemplo de que las únicas opciones para las variables aleatorias son distribuciones uniformes o de Gauss.
Figura 4. Precios Activos en el Mercado de la Vainilla Al realizar el experimento del método en una Cartera de simulación (Monte Carlo) utilizando la función herramientas financieras se llamo a la simulación de la cartera para simular escenarios de 10000. [3]. Por supuesto, la correlación se conservan se asumió un horizonte de 6 días hábiles * 22, es decir, seis meses de vencimiento en el precio de la vainilla y se hizo una predicción según la información obtenida. [4].
Aplicando el método de Montecarlo se genero el siguiente histograma, donde observamos el precio día de la vainilla. De igual manera se genera la apreciación para el precio anual del mismo vista en la Figura 6. Todo esto para generar un panorama de pronóstico de precio en el mercado para la vainilla en un horizonte de un año hábil.
Figura 5. Precio de la vainilla a diario con pasos de 3 meses Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211
208
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Figura 6. Precio de la vainilla por año con pasos de 3 meses
Figura 7. Opción de precio de la vainilla por año con pasos de 3 meses
De igual manera el método de Montecarlo muestra su efectividad al ser comparado con otros métodos más elaborados [5] y poco prácticos al momento de un entendimiento simple de las simulaciones [6] como lo muestra la Figura 8.
Además se puede apreciar como el intervalo de confidencia absoluta disminuye en el método de Montecarlo simple [7] y el método de Montecarlo con control de variable como lo muestra Figura 9.
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211
209
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
Figura 8. Comparación de los métodos en el problema del precio de la vainilla
Figura 9. Intervalo de confianza absoluta para los diferentes métodos
IV. CONCLUSIONES Las funciones de densidad de probabilidad usadas para la obtención de resultados generan resultados gaussianos como predice la teoría. Demostrando que Matlab reproduce exactamente el análisis de Monte Carlo se supone que debe hacer. En las situaciones donde se utiliza, las matemáticas necesarias para desarrollar la distribución de probabilidad son tan complejas que este
método es la única manera de lograr el entendimiento simple necesario para analizar los modelos desarrollados. Para el experimento del mercado del precio vainilla se demostró la efectividad del método en la apreciación y pronostico de precios, además, de su versatilidad y su eficacia contra otros métodos como lo muestran las Figura 8 y 9.
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211
210
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012 V. REFERENCIAS 1. Dagum, Camilo y Estela M. Bee de Dagum. Introducción a la Econometría. México: Siglo XXI editores, 2008. 2. Grinstead, Charles M. y J. Laurie Snell. «Central Limit Theorem.» Grinstead, Charles M. y J. Laurie Snell. Introduction to Probability. AMS, 1997. 325360. 3. http://www.bolsa.es/. http://www.bolsa.es/. 12 de 11 de 2010. 03 de 02 de 2011 <http://www.bolsa.es/>.
4. Landro, Alberto. Elementos de Econometría de los Fenómenos Dinámicos. Buenos Aires: Ediciones Cooperativas, 2009. 5. Peña Sánchez de Rivera, Daniel. Fundamentos de Estadística . Alianza Editorial, 2008. 6. Ricardo Vicente Solé, Susanna C. Manrubia. Orden y caos en sistemas complejos: fundamentos. Edicions UPC, 2001. 7. Ropero Moriones, Eva. Manual de estadística empresarial . Delta Publicaciones, 2009.
Velásquez y Velásquez. Modelado con variables aleatorias en Simulink. pp. 203-211
211
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
NOTA TÉCNICA
ENTORNO DE SIMULACIÓN PARA SISTEMAS DE COMUNICACIONES INALÁMBRICOS DE ALTA CAPACIDAD USANDO MATLAB Candotti, Keila M1 Mavares, Dimas T2. (Recibido diciembre 2011, Aceptado mayo 2012) 1
Dpto. de Ingeniería de Ingeniería Electrónica. UNEXPO Vicerrectorado Barquisimeto 2 Egresada de la Maestría en Ingeniería Electrónica, UNEXPO keilacandotti@gmail.com, dimasmt@yahoo.es
Resumen: En este artículo, se presenta un entorno de simulación desarrollado para un sistema MIMO multiportadora y de portadora única. El entorno permite simular el proceso de banda base de sistemas que involucren técnicas de acceso a la capa física tales como CDMA, OFDMA y técnicas de diversidad en transmisión como OSTBC y V-BLAST. Es posible incluir distintas técnicas de modulación, codificación de canal, multicanalización y técnicas de acceso múltiple. Mediante la interfaz de usuario del programa, se puede observar gráficamente el rendimiento del sistema a través de la curva de la tasa de bits errados (BER) en relación a la energía de bit por densidad de ruido (Eb/No). Como medio de validación de la herramienta, se compararon las simulaciones con resultados publicados en la literatura para SC-CDMA, sistemas de multiplexación espacial y sistemas OFDM, encontrando buena correspondencia. Palabras clave: Sistemas de Comunicaciones/ MIMO/ OFDM/ CDMA/ Simulación de Sistemas de Comunicaciones.
SIMULATION ENVIRONMENT FOR HIGH CAPACITY WIRELESS COMUNICATION SYSTEMS USING MATLAB Abstract: In this paper, a simulation environment for multicarrier and single carrier MIMO systems is presented. The environment allows simulating the baseband stage of systems involving physical layer access techniques, such as CDMA and OFDMA, and transmitting diversity techniques, such as OSTBC and V-BLAST. It is possible to include different modulation techniques, as well as channel coding, multiplexing and multiple access techniques. Through the GUI, graphical results are shown in terms of bit error rate (BER) against bit energy per noise (Eb/No). As validation of the tool, simulations were compared with results available in the literature for SC-CDMA, spatial multiplexing, and OFDM systems, finding a good correspondence. Keywords: Communication Systems/ MIMO/ OFDM/ CDMA/ Simulation of Communication Systems.
I. INTRODUCCIÓN Los sistemas de comunicaciones inalámbricos tienen características particulares dependiendo de la técnica de acceso que usen, el ancho de banda, la frecuencia de operación y el uso o no de diversidad, entre otros aspectos. En el caso particular de las comunicaciones inalámbricas, tanto los sistemas de 3G (tercera generación) como los de 4G (cuarta generación), son exigentes en cuanto a satisfacer los requerimientos de alto volumen de información. Para lograr este objetivo, es imprescindible aprovechar los recursos de tiempo y ancho de banda. Las técnicas de acceso al medio, de multiplexación espacial y de múltiples entradas y salidas (MIMO) a través del uso de múltiples antenas en transmisión y en recepción, juegan un papel fundamental
en alcanzar las capacidades requeridas por los sistemas 4G. La simulación de sistemas es una importante herramienta utilizada para la caracterización y análisis de los procesos en diferentes disciplinas de la ingeniería. Esta estrategia permite hacer investigación con relativamente pocos equipos y materiales, además le brinda la oportunidad al investigador de alcanzar un alto nivel de comprensión acerca del sistema simulado. Con respecto a los sistemas de comunicaciones, permanentemente se desarrollan nuevos entornos de simulación [1][2][3]. En el contexto de los sistemas de comunicaciones inalámbricas, la complejidad de las técnicas de acceso como CDMA (acceso múltiple por división de código) requiere disponer de herramientas que simulen su comportamiento, como en [4], en donde se presenta un simulador que implementa
Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217
212
diversos tipos de modulación para diferentes sistemas CDMA, utilizando códigos de esparcimiento como ortogonales. Por otra parte, el uso de múltiples antenas transmisoras y receptoras ofrece la posibilidad de obtener altas tasas de transmisión con respecto a un sistema de antena única. En este contexto, en [5] se simula el rendimiento de la técnica de multiplexación espacial VBLAST (espacio tiempo de capas verticales de la Bell Labs) a través del algoritmo descrito en [6], para ocho antenas transmisoras y doce antenas receptoras logrando mejorar la eficiencia espectral del sistema. Para lograr el uso eficiente del espectro en las redes inalámbricas 4G, los sistemas OFDM (multiplexación por división ortogonal de frecuencia) se plantean como la principal alternativa para dar soporte a este tipo de sistemas. Esta tecnología permite la transmisión de datos en subportadoras a diferentes frecuencias, así como la cancelación de la ISI (interferencia entre símbolos) con la adición del CP (prefijo cíclico). En [7] se presenta la simulación de un sistema OFDM bajo el estándar IEEE 802.16, implementando Matlab®. Se utiliza inserción de pilotos, inserción de guardas y la adición de prefijo cíclico, se modela la fuente de datos, el modulador/transmisor OFDM, el canal multitrayecto, el demodulador/receptor OFDM y se realiza la medición de la BER. En el contexto de los sistemas de comunicaciones, algunos componentes se pueden simular utilizando el toolbox de comunicaciones de Matlab®. Sin embargo, para considerar sistemas más complejos, se requiere la programación de otras funciones adicionales. En este trabajo se presenta un entorno de simulación bajo Matlab® para sistemas OFDM, sistemas CDMA, sistemas con multiplexación espacial V-BLAST y sistemas MIMO usando OSTBC (código ortogonales espacio-tiempo por bloques). La herramienta permite la simulación del proceso de banda base utilizando distintas técnicas de modulación, codificación de canal, multicanalización y acceso múltiple. Desde la interfaz de usuario o desde el command window de Matlab® se puede observar gráficamente como es el rendimiento de determinado sistema a través de la curva de la BER en relación a Eb/No. El presente artículo se organiza como sigue. En la siguiente sección se presenta el desarrollo del trabajo, el cual se divide en apartados. En el apartado 1 se describen las tecnologías implementadas en la simulación. En el apartado 2, se establece la metodología a seguir para realizar las simulaciones, dentro de la misma se definen los sistemas a estudiar. En el apartado 3 se presenta el resultado de las simulaciones a través de las curvas de la BER respecto a Eb/No para los diferentes sistemas. Finalmente, en la sección III se presentan las conclusiones.
II. DESARROLLO 1. Aspectos Teóricos 1.1. Acceso Múltiple por División de Código: La técnica CDMA es una tecnología digital de transmisión que permite a un número de usuarios acceder a un canal de radiofrecuencia, asignando un código diferente a cada usuario. La capacidad del sistema dependerá de muchos factores. Cada dispositivo que utiliza CDMA está programado con un pseudocódigo, el cual se usa para extender una señal de baja potencia sobre un espectro de frecuencias amplio. La estación base utiliza el mismo código para desensanchar y reconstruir la señal original. Los códigos asociados a otros usuarios permanecen extendidos, indistinguibles del ruido de fondo. Dentro de la tecnología CDMA, existen dos familias de códigos ampliamente empleadas, los códigos PN (pseudoaleatorios) y los códigos ortogonales. Los códigos PN son secuencias pseudoaleatorias generadas por un registro de desplazamiento realimentado. Los más utilizados se generan a través de un registro de desplazamiento de línea. Las secuencias Walsh son los códigos ortogonales más comúnmente utilizados para el ensanchamiento del espectro y para la separación de canales o de usuarios en sistemas W-CDMA [8]. 1.2. Multiplexión Ortogonal por División de Frecuencias OFDM es una técnica que consiste en enviar la información modulada sobre un conjunto de portadoras de diferentes frecuencias. Normalmente se realiza el procesamiento correspondiente a OFDM tras pasar la señal por un codificador de canal con el objetivo de corregir los errores producidos en la transmisión. Debido al problema técnico que supone la generación y la detección en tiempo continuo de los cientos de portadoras equiespaciadas que forman una palabra OFDM, los procesos de modulación y demodulación se realizan en tiempo discreto mediante la IDFT (Transformada Inversa de Fourier Discreta) y la DFT (Transformada de Fourier Discreta) respectivamente. En OFDM, la data se distribuye sobre un generalmente largo número de portadoras que son espaciadas en determinados rangos de frecuencias. Este espaciado provee la ortogonalidad en esta técnica, al permitir la recepción de cada subportadora sin interferencia por parte de las restantes subportadoras. En la Figura 1 se muestra un diagrama de bloques de un sistema OFDM. En el transmisor, la señal es definida en el dominio de la frecuencia. Cada portadora OFDM corresponde a un elemento del espectro de la transformada de Fourier.
Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217
213
TRANSMISOR
CANAL
RECEPTOR
ñ(t) X0,1 X1,1 .
.
I .
M
.
D .
U
.
F .
X
. . .
y0,1
D
T
CP
D/A S[k]
g(;t)
S(t)
A/D
+ r(t)
r[k]
CP
E . M . U
X Figura 1. Diagrama esquemático de un sistema OFDM.
Con el objetivo de evitar la interferencia íntersimbólica causada por la dispersión de retardo del canal XN-1,1 multitrayecto, se introduce un intervalo de guarda. En el receptor se utiliza un ecualizador para corregir las variaciones de amplitud y fase introducida por el canal. El intervalo de guarda puede consistir de información nula, es decir, de ausencia de señal. En ese caso, sin embargo, es posible que se genere el problema de una interferencia entre portadoras (ICI). La ICI es un tipo de interferencia generada por una subportadora sobre alguna otra subportadora. En presencia de ICI, la señal OFDM puede perder la ortogonalidad entre subportadoras. Para evitar tanto la ICI como la ISI, el intervalo de guarda se obtiene extendiendo cíclicamente la palabra OFDM en el periodo de guarda [9]. 1.3. Multiplexación espacial Foschini et. al. [6] propusieron el uso del multiplexación espacial mediante la arquitectura espacio-tiempo por capas de la Bell Labs (BLAST) para explotar los sistemas de múltiples antenas. El objetivo de la técnica de multiplexación espacial, a diferencia de la codificación espacio-temporal, es maximizar la tasa de transmisión, es decir, la eficiencia espectral. En esta técnica se transmiten flujos de información independientes por cada antena, ocupando todos ellos el mismo ancho de banda y el mismo “slot” temporal. Gracias a la decorrelación entre canales producida por el multicamino y al conocimiento del canal en el receptor, es posible separar los distintos flujos de información. Así en un sistema M×N, M símbolos independientes se transmiten simultáneamente en un periodo de símbolo, luego la tasa del código para una longitud de trama unitaria es M. 2. Materiales y Métodos: Como primer paso del procedimiento establecido, se realizó una revisión del toolbox de comunicaciones de Matlab®. Como resultado, se obtuvo un listado de funciones ya disponibles utilizables en el proyecto, como por ejemplo:
.
D
.
F
.
T
.
y1,1 . . . .
- randint: generación de números aleatorios. - normrnd: genera vectores o matrices con una yN-1,1 distribución normal. - convenc: código convolucional. - poly2trellis: genera la estructura trellis a partir del polinomio generador que utiliza la función convenc para codificar. A continuación, se definieron los sistemas a simular con sus respectivos diagramas de bloques y de flujo: SISO (única entrada – única salida) de portadora única, SISOOFDM, MIMO-OFDM con códigos ortogonales espaciotiempo (OSTBC) y espacio-frecuencia (OSFBC), SISOCDMA y V-BLAST. Se construyó el código de los programas necesarios para cada bloque de los sistemas mencionados. Para la simulación del canal radio, se construyó una función en lenguaje C como un archivo ejecutable de Matlab® para obtener la convolución de la señal transmitida con la respuesta impulsiva del canal multitrayecto variante en el tiempo. Posteriormente, se diseñó una interfaz de usuario que permite ejecutar el programa de una forma amigable. 3. Resultados y discusión El entorno de simulación aquí presentado permite estudiar sistemas SISO de portadora única, SISO-OFDM, SISOCDMA, V-BLAST y MIMO-OFDM con OSTBC y OSFBC, donde se implementó específicamente el código de Alamouti y el código ortogonal esporádico de tasa ¾ para cuatro antenas transmisoras [10]. En cada uno de estos sistemas, se puede utilizar cualquiera de los siguientes sistemas de modulación: BPSK, QPSK, 8PSK, 16PSK, 16QAM y 64QAM. Como sistema de codificación de canal se puede incluir codificación convolucional. Como canal radio se consideran canales multitrayecto definidos en la literatura, o con perfil potencia – retardo (PDP) definido por el usuario, con la sola limitación de que la estadística de cada multitrayecto obedezca a la distribución de Rayleigh. El ruido aditivo se tomó como blanco. En general, los resultados son presentados a través de curvas de la BER en función de
Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217
214
Eb/No, pero es posible utilizar las funciones del entorno para considerar otras figuras de mérito. Adicionalmente, se incluye una rutina asistente al diseño de un sistema OFDM. A continuación, se presentan los resultados de algunas simulaciones realizadas con el entorno de simulación. El objetivo de esta exposición es la de mostrar algunas de las capacidades y la versatilidad del entorno construido. En la Figura 2 se muestran los resultados de la simulación para un sistema SISO-OFDM sin entrelazado y un sistema SISO-OFDM con entrelazado. Se observa un mejor
rendimiento del sistema cuando se utiliza el entrelazado, notando una disminución de la BER. La simulación se ha realizado con un canal correlado (utilizando un filtro Doppler) con una profundidad del desvanecimiento medida en número de muestras del canal (100 muestras para un intercalado de 100 bits). La profundidad del entrelazado se calcula como el producto de la profundidad del desvanecimiento y el número de bits por símbolo. En este caso, el número de bits por símbolo es igual a uno para modulación BPSK.
Figura 2. Rendimiento de un Sistema SISO-OFDM sin entrelazado y un SISO-OFDM con entrelazado.
La implementación de códigos de bloque ortogonales en Matlab se realizó tanto con OSTBC como con OSFBC. En caso de utilizarse dos antenas transmisoras con el código espacio-tiempo de Alamouti, se transmiten dos señales simultáneas desde dos antenas en un periodo de símbolo, en el siguiente periodo de símbolo se transmite las mismas dos señales pero codificadas. La codificación también se puede hacer en espacio-frecuencia pero en lugar de dos periodos de símbolos adyacentes se usarían dos subportadoras adyacentes [11]. En la codificación espacio-tiempo, el canal se mantiene constante durante dos intervalos de tiempo, mientras que en la codificación espacio frecuencia, el canal es constante en dos subportadoras sucesivas. En la figura 3 se muestran los resultados de la simulación para ambos sistemas usando el código de Alamouti. Se observa la misma curva de la BER respecto a Eb/No para ambos tipo de codificación ortogonal en presencia de un canal plano.
En la Figura 4 se muestra el rendimiento de un sistema SISO-OFDM para diferentes longitudes del prefijo cíclico, un sistema CDMA utilizando un receptor RAKE con códigos PN u ortogonales, y un sistema V-BLAST con detección a través de cancelación sucesiva de interferencias con forzado a cero. El canal utilizado para la simulación presentada en esta figura fue un SUI tipo IV de [12] con un τrms (dispersión de retardo) de 1257 ns, típico de ambientes externos. En el caso de los sistemas OFDM, se puede observar que la BER aumenta al reducir la longitud del CP, debido a la introducción de ISI. Se muestran también resultados relativos a un sistema SISOCDMA utilizando códigos de esparcimiento ortogonales o pseudoleatorios, así como un receptor RAKE, en presencia de ocho usuarios. Se puede observar la variación del rendimiento al utilizar diferentes tipos de códigos de esparcimiento. Adicionalmente, se pueden observar resultados relativos a un sistema V-BLAST con dos antenas transmisoras y cuatro antenas receptoras.
Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217
215
Figura 3. Rendimiento de sistemas MISO y MIMO con OSTBC y OSFBC Alamouti
Figura 4. Rendimiento de diferentes tipos de sistemas.
III. CONCLUSIONES 1. Se construyó un entorno de simulación para sistemas de comunicaciones inalámbricos, multiportadora o de portadora única, con una o más antenas transmisoras o receptoras, el cual permite simular técnicas de modulación, de acceso y de diversidad ampliamente utilizadas en la actualidad.
2. Utilizando esta herramienta, es posible simular sistemas SISO de portadora única, SISO-CDMA, SISO-OFDM, MIMO-OFDM y V-BLAST, tomando como figura de mérito la tasa de bits errados. 3. El entorno de simulación se desarrolló bajo Matlab® y puede ser utilizado en forma de comandos desde la línea de comandos de Matlab® o desde una interfaz
Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217
216
de usuario. IV. REFERENCIAS 1. Tsirakakis, G. and Clarkson, T. Simulation tools for multilayer fault restoration. IEEE Communications Magazine, vol 47, issue 3, pp. 128134. March 2009. 2. Gao Y., Zhang X., Dacheng Y. and Jiang Y. Unified simulation evaluation for mobile broadband technologies. IEEE Communications Magazine, vol 47, issue 3, pp. 142-149. March 2009. 3. Kasch, W., Ward, J. and Andrusenko, J. Wireless network modeling and simulation tools for designers and developers. IEEE Communications Magazine, vol 47, issue 3, pp. 120127. March 2009. 4. Barbancho, P. A. y Entrambasaguas, M. J. Simulador CDMA para comunicaciones móviles. Trabajo de Grado de Ingeniería. Universidad de Málaga. Ingeniería de Telecomunicación. España. 2000. 5. Yapici, Y. V-BLAST/MAP: A new symbol detection algorithm for MIMO channels. Master Thesis. Institute of Engineering and Science of Bilkent University. Turkey. 2005.
6. Wolniansky, P. y Foschini, G.V-BLAST: An architecture for realizing very high data rates over the rich-scattering wireless channel. Bell Lab. Tech. J.,vol. 1,N. 2, pp. 41-59, 1996. 7. Hasan, M. Performance evaluation of WIMAX/IEEE 802.16 OFDM physical layer. Master Thesis. Helsinki University of Technology. Espoo. Finland. 2007. 8. Molisch, F. A. Wireless Communications. Editorial John Wiley & Sons. Inglaterra 2006. 9. Van, N. R. y Prasad, R. OFDM for Wireless Multimedia Communications. Artech House Editorial. Boston. 2000. 10. Tarokh V., Jafarkhani H., and Calderbank A. Spacetime block coding for wireless communications: performance results. IEEE Journal on Selected Areas in Communications, vol. 17, pp. 451–460, Mar. 1999. 11. Mavares, D., and Torres, R. Space-time code selection for transmit antenna diversity systems. IEEE Transactions on Vehicular Technology, vol. 57, no1, Jan 2008. pp. 620-629. 12. Hari. K. Interim channel models for G2 MMDS fixed wireless applications. IEEE 802.16 working group meeting, Tampa Fl, Nov 2000.
Candotti yMavares. Entorno de simulación para sistemas de comunicaciones inalámbricos. pp. 212-217
217
NORMAS DE PUBLICACIÓN “Universidad, Ciencia y Tecnología” (UCT), es una publicación, indizada y arbitrada, que se edita en cuatro números anuales que constituyen un volumen, siendo marzo, junio, septiembre y diciembre los meses de publicación. La revista está destinada a dar a conocer, dentro y fuera del país, las realizaciones científicas y tecnológicas de la UNEXPO, así como las que se realicen en otras universidades y centros de investigación industrial en el país y en el exterior, en las especialidades de Ingeniería Eléctrica, Ingeniería Electrónica, Ingeniería Metalúrgica, Ingeniería Mecánica, Ingeniería Industrial, Bioingeniería, Ambiente, Ciencias de la Ingeniería, Mecatrónica, Telecomunicaciones, Rural, Ferroviaria, Energética e Hidráulica y áreas conexas.
de ocho (8) páginas.
1. Condiciones Generales Las contribuciones técnicas que se publiquen deberán estar enmarcadas en los requisitos fijados por la presente norma y aceptadas por el Comité Editorial. Los trabajos publicados en UCT son de su propiedad, con las excepciones que se estipulan en el Convenio de Publicación y no podrán ser reproducidos por ningún medio sin la autorización escrita del Editor. Los autores deberán indicar nombre y apellido, título académico, lugar de trabajo, cargo que desempeñan y dirección completa, incluyendo teléfono, fax y correo electrónico.
2.6. Cartas al Editor Son aquellas que reportan una idea sin entrar en detalles. El Comité Editorial se reserva el derecho de seleccionar los Artículos Técnicos y los Artículos de Ingeniería Aplicada consignados para publicación, después de consultar por lo menos a dos árbitros. Los artículos remitidos para su publicación tienen que ser inéditos. No serán aceptados aquellos que contengan material que haya sido reportado en otras publicaciones o que hubieran sido ofrecidos por el autor o los autores a otros órganos de difusión nacional o internacional para su publicación.
2. Contribuciones El Comité Editorial acepta seis tipos de contribuciones para publicación: Artículos Técnicos, Artículos de Ingeniería Aplicada, Comunicaciones, Revisiones, Notas Técnicas y Cartas al Editor
3. Presentación Todas las contribuciones deberán prepararse en procesador de palabras Microsoft Office Word® tipeadas a una sola columna, a espacio sencillo, en papel tamaño carta, tipo de letra Times New Roman, tamaño 10, justificado, con un espaciado (6 puntos) entre párrafos, sin sangría y con márgenes de por lo menos 2,5 cm. Anexando su versión digital. Los Artículos Técnicos y los de Ingeniería Aplicada deberán tener una extensión máxima de 15 páginas, incluyendo un máximo de 10 ilustraciones (figuras + tablas) (Ver ítem 5)
2.1. Artículos Técnicos Son aquellas contribuciones que además de informar novedades y adelantos en las especialidades que abarca UCT, son el resultado de un trabajo de investigación, bien sea bibliográfico o experimental, en el que se han obtenido resultados, se discutieron y se llegaron a conclusiones que signifiquen un aporte innovativo en Ciencia y Tecnología. 2.2. Artículos de Ingeniería Aplicada Son el resultado de trabajos de grado (Especialización, Maestría y Doctorado) o de investigación en el ámbito universitario e industrial, bien sea experimental y/o no experimental, que signifiquen un aporte tecnológico para la resolución de problemas específicos en el sector industrial. 2.3. Comunicaciones Son reportes de resultados originales de investigaciones de cualquier campo de las ciencias básicas o aplicadas, dirigidas a una audiencia especializada. Podrán ser hasta
2.4. Revisiones Son artículos solicitados por invitación del Comité Editorial y comentan la literatura más reciente sobre un tema especializado 2.5. Notas Técnicas Son aquellas contribuciones producto de investigaciones destinadas a informar novedades y/o adelantos en las especialidades que abarca UCT. Podrán presentarse en una extensión máxima de diez (10) páginas, incluyendo un máximo de 10 figuras y tablas, las que deberán cumplir las condiciones que para ellas se establece en el ítem 5.
4. Composición Los Artículos Técnicos y de Ingeniería Aplicada deberán ordenarse en las siguientes secciones: Título en español, Nombre completo de los autores, Resumen en castellano y palabras clave, Titulo en inglés, Resumen en inglés (Abstract) y “Key words”, Introducción, Desarrollo, Conclusiones, Referencias Bibliográficas. a) Título en español. Debe ser breve, preciso y codificable, sin abreviaturas, paréntesis, fórmulas ni caracteres desconocidos, que contenga la menor cantidad de palabras que expresen el tema que trata el artículo y pueda ser registrado en índices internacionales. El autor deberá indicar también un título más breve para ser
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
218
utilizado como encabezamiento de cada página. b) Nombre completo de los autores. Además de indicar nombre y apellido de los autores, en página aparte se citará título académico, lugar de trabajo, cargo y dirección completa, incluyendo teléfono, fax y correo electrónico. c) Resumen en castellano y palabras clave, señalando en forma concisa los Objetivos, Metodología, Resultados y Conclusiones más relevantes del estudio, con una extensión máxima de 200 palabras. No debe contener abreviaturas ni referencias bibliográficas y su contenido se debe poder entender sin tener que recurrir al texto, tablas y figuras. Al final del resumen incluir de 3 a 10 palabras clave que describan el tema del trabajo, con el fin de facilitar la inclusión en los índices internacionales. d) Título, Resumen y Palabras clave en inglés (Abstract y key words). Es la versión en inglés de Título, Resumen y Palabras Clave en castellano. e) INTRODUCCIÓN. En ella se expone en forma concisa el problema, el objetivo del trabajo y se resume el fundamento del estudio y la metodología utilizada. Se debe hacer mención además al contenido del Desarrollo del artículo. f) DESARROLLO. Se presenta en diversos capítulos. Métodos y Materiales: donde se describe el diseño de la investigación y se explica cómo se llevó a la práctica, las especificaciones técnicas de los materiales, cantidades y métodos de preparación. Resultados: donde se presenta la información y/o producto pertinente a los objetivos del estudio y los hallazgos en secuencia lógica Discusión de resultados: donde se examinan e interpretan los resultados y se sacan las conclusiones derivadas de esos resultados con los respectivos argumentos que las sustentan. g) CONCLUSIONES. En este capítulo se resume, sin los argumentos que las soportan, las conclusiones extraídas en la Discusión de los Resultados, expresadas en frases cortas, sucintas. h) REFERENCIAS BIBLIOGRÁFICAS (o simplemente REFERENCIAS). Debe evitarse toda referencia a comunicaciones y documentos privados de difusión limitada, no universalmente accesibles. Las referencias deben ser citadas y numeradas secuencialmente en el texto con números arábigos entre corchetes. (Sistema Orden de Citación) Al final del artículo se indicarán las fuentes, como se expresa a continuación, en el mismo orden en que fueron citadas en el texto, según se trate de: Libros: Autor (es) (apellido e iniciales de los nombres), título del libro, número de tomo o volumen (si hubiera más de uno), número de edición (2da en adelante), lugar de edición (ciudad), nombre de la editorial, año de publicación, número(s) de página(s). Artículos de revistas: Autor(es) del artículo (apellido e iniciales de los nombres), título del artículo, nombre de la
revista, número del volumen, número del ejemplar, fecha de publicación, número(s) de página(s). Trabajos presentados en eventos: Autor(es), (apellido e iniciales de los nombres), título del trabajo, nombre del evento, organizador del evento, lugar, fecha, número(s) de página(s). Publicaciones en medios electrónicos: si se trata de Información consultada en Internet, se consignarán todos los datos como se indica para libros, artículos de revista y trabajos presentados en eventos, agregando página Web y fecha de consulta; si se trata de otros medios electrónicos, se indicarán los datos que faciliten la localización de la publicación. En cualquiera de los casos, si los autores fueran más de tres, citar solamente al primero y añadir a continuación “et al”. 5. Ilustraciones. Incluir en el texto un máximo de 10 (diez) ilustraciones (Figuras + Tablas) 5.1. Figuras Todos los gráficos, dibujos, fotografías, esquemas deberán ser llamados figuras, numerados con números arábigos en orden correlativo, con la leyenda explicativa que no se limite a un título o a una referencia del texto en la parte inferior y ubicadas inmediatamente después del párrafo en que se citan en el texto. Las figuras deben ser en original, elaboradas por los autores. No se aceptan figuras escaneadas. Las fotografías deben ser nítidas y bien contrastadas, sin zonas demasiado oscuras o extremadamente claras. 5.2. Tablas Las tablas deberán numerarse con números romanos y leyendas en la parte superior y ubicarse también inmediatamente después del párrafo en que se citan en el texto. Igual que para las figuras, las leyendas deberán ser explicativas y no limitarse a un título o a una referencia del texto. 6. Unidades Se recomienda usar las unidades del Sistema Métrico Decimal. Si hubiera necesidad de usar unidades del sistema anglosajón (pulgadas, libras, etc.), se deberán indicar las equivalencias con el Sistema Métrico Decimal. 7. Siglas y abreviaturas Si se emplean siglas y abreviaturas poco conocidas, se indicará su significado la primera vez que se mencionen en el texto y en las demás menciones bastará con la sigla o la abreviatura. 8. Fórmulas y Ecuaciones Los artículos que contengan ecuaciones y fórmulas en caracteres arábigos deberán ser generadas por editores de ecuaciones actualizados con numeración a la derecha.
UNIVERSIDAD, CIENCIA y TECNOLOGÍA Volumen 16, N° 64, septiembre 2012
219