Silicio
Ingeniería Biomédica y
Ingeniería Biomédica y Electromedicina Ingeniería Biomédica y Tecnologías de la Información y Telecomunicaciones Ingeniería de Instrumentación y Control Ingeniería Eléctrica Nuevos Materiales Circuito Abierto
1 · El Mundo de la ingenieria electronica
Silicio
Silicio
EDITORIAL
INGENIERÍA BIOMÉDICA Y ELECTROMEDICINA
PANORÁMICA DEL SECTOR ETI.
OPORTUNIDADES Y AMENAZAS Desde la Junta Directiva de la Asociación de Ingenieros Electrónicos de la U. de A. queremos plantear una panorámica general del sector de la Electrónica, las Telecomunicaciones y la Informática -ETI-, para tener una visión de conjunto sobre los temas de interés para ingenieros, empresarios e instituciones universitarias del sector. Esbozamos aquí, simplemente, un inventario de temas sobre los cuales valdrá la pena realizar sendos análisis de su estado actual y de sus perspectivas, con el propósito de identificar las amenazas, pero también las oportunidades que entrañan. Son ellos: La globalización económica como tendencia mundial creciente. •El acuerdo general sobre el comercio de servicios y su incidencia sobre las telecomunicaciones. •Las TIC como motor de la globalización y paradigma emergente de la revolución informacional. •La nueva economía: De la economía informacional a la economía del conocimiento. •¿Nos encontramos ya en las denominadas Sociedad de la Información y Sociedad del Conocimiento? • Estrechar la brecha digital y consolidar al nuevo ciudadano digital. • Impactos del TLC firmado por Colombia con EE.UU. sobre las empresas y los profesionales del sector ETI. •La proliferación de TLC con otras naciones (Chile, Unión Europea, Turquía, Corea, etc.): ¿Buenos para quién? ¿Malos para quién? •El programa ETI de Colciencias. Los proyectos que se deben aprovechar para el desarrollo del país. 2 · El Mundo de la ingenieria electronica
•Ley de Regalías (Ley 1530 de 2012). ¿Cómo aprovecharla para desarrollar proyectos y consolidar negocios en el sector ETI? •Análisis de los Documentos CONPES que favorecen el desarrollo del sector ETI. • Ley de TIC (Ley 1341 de 2009) y sus implicaciones en materia de tecnologías de la información y las comunicaciones. •Organizaciones que favorecen proyectos de I + D + i en el sector ETI: Colciencias, Ruta N, CTA y Programa Vive Digital, entre otros. •Las Universidades y los TLC. ¿Se prepararon?, ¿Se están preparando?, ¿Cómo enfrentarán la oferta educativa de las corporaciones educativas extranjeras? • Las empresas y los TLC. ¿Se prepararon?, ¿Se están preparando?, o ¿Estamos como en los viejos tiempos del inicio de la apertura económica? •Medellín, la ciudad de la innovación: ¿Realidad o maquillaje? ETI para la innovación. •¿Estamos desarrollando capacidades tecnológicas y de innovación o estamos matando la
innovación? • Medellín, la ciudad más educada: ¿Lo es?, ¿Cómo estamos en indicadores de educación? • El cambio de vocación de la ciudad: de la industrialización a los servicios. ¿Sí está ocurriendo?, ¿Cómo se está apalancando? •La industria electrónica colombiana: ¿Existe? • Las industrias informática y del software en Colombia: Tras los pasos de India. • El cambio como única constante. ¿Propiciamos el cambio o sufrimos de parálisis paralítica paradigmática? •El papel de los gremios y de las asociaciones de profesionales en el desarrollo del sector ETI. Son muchos temas y hay muchos otros, además de éstos. Cada uno justifica un editorial y, por supuesto, un artículo completo que analice su naturaleza y características, y que plantee reflexiones y pautas para la acción. Lo importante es tener conciencia de su existencia y, frente a ellos, que cada ingeniero, empresa o institución educativa del sector se autoevalúe con el propósito no sólo de determinar qué fortalezas y oportunidades puede aprovechar sino también qué estrategias debe emprender para superar las amenazas y las debilidades. He aquí un enorme reto que vale la pena enfrenta.
Junta Directiva
UN ESTUDIO EXPLORATORIO BÁSICO DE INTENSIDAD DE RADIACIÓN DE CAMPOS ELECTROMAGNÉTICOS (CEM) PROVENIENTES DE EQUIPOS ELÉCTRICOS Y ELECTRÓNICOS EN EL HOGAR El presente artículo corresponde a un estudio exploratorio básico, ilustrado fotográficamente , para indagar por los CEM existentes en un hogar típico, provenientes de fuentes fijas y móviles, tanto en baja como en alta frecuencia (Radiofrecuencia), correspondientes al espectro radioeléctrico de radiaciones no ionizantes con el propósito de determinar de manera cuantitativa el riesgo tecnológico por CEM presente en la mayoría de los hogares. Palabras claves
Campos electromagnéticos (CEM), polución electromagnética, riesgo tecnológico. Abstract Autor Ingeniero Nelson Rúa
Ceballos
Ingeniero Electrónico U. de A. DEA en Economía de la Innovación, Universidad del País Vasco-UPV-EHU, España. Candidato a Doctor en Estudios de Ciencia y Tecnología y Gestión de la Innovación Tecnológica UPV-EHU Miembro actual del Grupo Global Universidad. Consultor/asesor/capacitador en gestión tecnológica, gestión del conocimiento, gestión de la innovación, gestión del capital intelectual y de la propiedad intelectual, y de prospectiva tecnológica y organizacional.
This article corresponds to a basic exploratory study to investigate by existing in a typical home, from EMF sources fixed and mobile, both in low and high frequency (Radiofrecuency), corresponding to the spectrum of non-ionizing radiation for the purpose of determine quantitatively the technological risk by CEM present in the majority of households. Key words Electromagnetic fields (EMF), electromagnetic pollution, and technological risk.
INTRODUCCIÓN
En la naturaleza como en el mundo artificial existen los campos electromagnéticos y otros fenómenos asociados como la electrostática, la magnetostática, la ionización positiva del aire, los radicales libres, etc. Sin los campos naturales no sería posible la vida sobre la Tierra y sin los artificiales no sería posible concebir la actual civilización. No obstante, cuando dichos campos y fenómenos eléctricos o magnéticos asociados superan ciertos valores máxi-
mos permisibles se convierten en una fuente de contaminación o polución electromagnética que pueden representar algún riesgo para la salud humana, por lo cual es importante saber los niveles de riesgo tecnológico por CEM a los que estamos expuestos en nuestra casas, bajo condiciones normales y en presencia de diversos tipos de aparatos eléctricos o electrónicos (electrodomésticos), todo ello para implementar medidas plausibles de prevención y control del riesgo por CEM. 3 · El Mundo de la ingenieria electronica
Silicio
Silicio ESTUDIO EXPLORATORIO EN UN HOGAR CONVENCIONAL
Para determinar la existencia e intensidad de los CEM presentes en un hogar y provenientes de diferentes fuentes se realizó una breve inspección con instrumentación de medida para asegurar una detección objetiva y cuantitativa de los CEM existentes en un hogar convencional como producto de diferentes tipos de electrodomésticos.
Fig. 3: Obsérvese la alta radiación generada por el TV una vez se enciende.
Las mediciones mostradas fueron realizadas con un gaussímetro marca Dr. Gauss, en escala 0-10 mG, fabricado por la empresa HealthMagnetix (USA). Televisores con pantalla de Tubo de Rayos Catódicos
La medición llega al tope de los 10 mG e intenta salirse de la escala.
Fig. 1: Un televisor a color, marca Phillips, con pantalla de Tubo de Rayos Catódicos-TRC-
Estas pantallas son del mismo material de las que utilizaban anteriormente los computadores (desktops) y de las cuales aún subsiste un alto número.
Fig. 4: Aquí se aprecia más de cerca la medición con el Televisor de TRC encendido.
Obsérvese que la escala de medición está dividida en tres partes: verde (0-2 mG) como zona segura, amarillo (2 a 7 mG) como zona de alerta (ya no es segura) y roja (7 a 10 mG) como zona de alto riesgo (zona roja).
Fig. 1
Fig. 2: El televisor apagado no genera radiación apreciable en el gaussímetro.
Fig. 5: Sin importar el tipo de imagen en la pantalla, la medición supera la escala de los 10 mG.
Fig. 2
4 · El Mundo de la ingenieria electronica
5 · El Mundo de la ingenieria electronica
Silicio
Silicio Fig. 6: De nuevo, puede apreciarse más de cerca la medición del CEM de nivel fuerte. Obsérvese que intenta salirse de rango en tanto esté más cerca de la fuente. Si alejamos el equipo de la fuente, la radiación disminuiría tal como lo determina la ley de Coulomb que establece que la intensidad de campo disminuye con el cuadrado de la distancia entre las cargas.
Fig. 7: Cuando se apaga el TV queda algo de radiación residual que aún se puede detectar
Fig. 9: Aquí puede apreciarse de cerca el nivel de radiación de la pantalla a pesar de que el TV se apagó.
Lo anterior obedece a que el televisor queda cargado internamente y a menos que tenga un sistema de aterrizamiento o sea aterrizado intencionalmente, conservará la carga.
Televisores con pantalla plana de LCD o Plasma
Fig. 10: Un televisor de pantalla plana de LCD. Este tipo de pantallas es utilizado también en los computadores portátiles convencionales (laptops) y muchos otros dispositivos electrónicos y de comunicaciones personales y móviles.
El mecanismo o solución más simple de prevención y control del riesgo frente a los CEM está dado en función de la distancia por lo cual alejarse de la fuente es tal vez la medida más simple a implementar aunque en ocasiones las condiciones espaciales o de locación no lo permitan.
Fig. 8: La radiación es aceptable, en tanto esté por debajo de los 2 mG como puede observarse.
Fig. 11: Mientras está apagado, el TV de pantalla plana no genera radiación por CEM
Siempre que la radiación exhiba una medida de menosde 2 mG se considerará un valor seguro en tanto la distancia no supere los 30 cm. entre la fuente y el receptor.
6 · El Mundo de la ingenieria electronica
7 · El Mundo de la ingenieria electronica
Silicio
Silicio
Fig. 12: Aquí puede apreciarse el gaussímetro en 0mG mientras el TV permanece apagado.
La distancia del medidor a la pantalla es la misma que en el caso del TV de TRC
Fig. 15: Sin importar la imagen, mientras el TV de pantalla plana (izq.) permanezca encendido, genera una radiación que, en todo caso, a la misma distancia siempre será menor que la del TV de TRC (der.) como puede observarse en las dos imágenes siguientes.
Bombillos incandescentes (de 60 W) Fig. 13: Al encender el TV de pantalla plana, el gaussímetro detecta un campo de radiación en un rango entre 3 y 4 mG a la misma distancia que en el caso del TV de TRC (cuya radiación era de 10 o más mG).
Fig. 16: Los bombillos incandescentes no generan radiación apreciable por sí mismos (es decir, por la radiación luminosa) pero puede existir algo de radiación en razón de la corriente eléctrica que lo alimenta cuando aquellos están encendidos en algunas instalaciones eléctricas.
Bombillos fluorescentes (ahorradores de energía) Fig. 14: La intensidad del CEM permanece invariable para cualquier imagen en pantalla y a lo largo de toda ella. Fig. 17: Los bombillos ahorradores generan, a la misma distancia que el incandescente, una radiación alta.
8 · El Mundo de la ingenieria electronica
9 · El Mundo de la ingenieria electronica
Silicio
Esta radiación, a la misma distancia del incandescente, supera el rango de alerta y es de mayor riesgo, pero ya sabemos que la distancia es nuestro gran aliado. Mientras la radiación a la altura de la cabeza, respecto del bombillo ahorrador, no supere los 2 mG, no representa un riesgo.
Silicio
Fig. 21: En este momento se ha tecleado un número al cual se hará una llamada. El gaussímetro aún no detecta radiación.
FIg. 18: Obsérvese que, respecto de la misma fuente, el simple alejamiento hace disminuir el nivel de la intensidad del CEM de una manera apreciable.
Fig. 22: En el momento en que comienza a hacerse la llamada, el gaussímetro empieza a detectar radiación por los CEM emitidos por el teléfono celular.
Teléfonos celulares Fig. 19: Mientras el celularesté prendido, pero sin hacer o recibir llamadas, el gaussímetro no detecta radiación apreciable.
Fig. 23: La radiación va aumentando conforme el celular va generando la señal de llamada
Fig. 20: Aun cuando se encienda la pantalla, el gaussímetro no detecta radiación apreciable.
10 · El Mundo de la ingenieria electronica
11 · El Mundo de la ingenieria electronica
Silicio
Silicio Fig. 24: En determinado momento de la generación de señal, el gaussímetro detecta un mayor nivel de radiación durante el tiempo que dura la llamada.
Horno microondas
Fig. 27: Mientras el horno microondas (marca Samsung) esté apagado, el gaussímetro no detecta radiación apreciable.
Fig. 25: Aquí puede apreciarse más de cerca la medición de la señal emitida por el celular. Obsérvese que están en el rango entre 4 y 5 mG.
El tema de los celulares y el riesgo potencial que pudiera representar será un tema que se abordará posteriormente con detalle en un estudio sobre riesgo por CEM de RF provenientes de equipos móviles personales.
Fig, 28: En el momento en que se enciende el horno microondas el gaussímetro detecta alta radiación (supera el rango de la escala).
Nevera (a la altura del congelador)
Fig. 26: La radiación emitida por la zona frontal del congelador de una nevera) es alta como puede apreciarse.
En este caso, esta radiación no obedece a una fuga de microondas sino a los altos voltajes requeridos internamente para generar ese tipo de radiación.
Fig. 29: Aun cuando el horno ya haya apagado la luz del interior, mientras esté activo seguirá emitiendo alta intensidad como se muestra en la pantalla del gaussímetro.
12 · El Mundo de la ingenieria electronica
13 · El Mundo de la ingenieria electronica
Silicio
Silicio
Fig. 30: Aquí puede apreciarse la cercanía del gaussímetro al horno microondas en donde es claro que la radiación incidente frontal es alta.
Qué sigue? Para investigar más exhaustivamente el tema en el espacio y con los equipos con los que se realizó el estudio, se requiere: -Detectar la existencia de radiaciones en las demás direcciones, es decir, no sólo las radiaciones incidentes frontales sino también las que puedan generarse en los costados, por encima, por debajo y por detrás del equipo generador. -Determinar los niveles de intensidad de radiación a la misma distancia en cada uno de los casos y hacer comparativos de emisión de radiaciones entre equipos (marcas y modelos) y entre niveles de cada sector medido en el equipo. -Verificar la variación de tipo exponencial (realmente cuadrática) de las intensidades de campo con la distancia (aplicación de la ley de Coulomb: la intensidad disminuye con el cuadrado de la distancia). -Determinar la distancia segura de cada equipo, especialmente en cuanto a la radiación incidente más crítica sobre las personas, teniendo en cuenta el estándar internacional: 2 mG a 30 cm de distancia. 14 · El Mundo de la ingenieria electronica
-Una vez determinada las distancias seguras alrededor de cada equipo, se pueden levantar, sobre los croquis o planos de los sitios de ubicación, los mapas de radiación (mapeo electromagnético) para visualizar los eventuales niveles de riesgo por CEM que pudieran existir en cada espacio en razón de cada fuente existente identificada (o no identificada y de la que se presume su existencia). Conclusiones: 1. En general, todo equipo eléctrico o electrónico al encenderse emite radiación apreciable de CEM que no es posible detectar con nuestros sentidos pero sí con instrumentación de medida objetiva: un gaussímetro o un teslámetro, por ejemplo. 2. Aunque pudieran haber excepciones, por cuestiones de energización, mientras un equipo permanezca apagado o no esté activado, en general no genera radiación apreciable; esto es, no mayor de 1 mG. 3. Aún si el equipo está apagado y genera radiación, lo importante es que ésta no supere los 2 mG a 30 cm de
distancia. 4. Es necesario, por razones de salud ocupacional, en el puesto de trabajo, o por razones de equilibrio energético, en el hogar, determinar las distancias seguras de cada equipo teniendo como referente el no superar el estándar de 2 mG a 30 cm. 5. Frente a cada riesgo existente, identificado a partir de la inspección visual y las mediciones objetivas con instrumentación electrónica, es necesario adoptar medidas para prevenirlo, minimizarlo o eliminarlo, bien sea mediante el uso de dispositivos tecnológicos o a través de hábitos y actitudes que contribuyan a dicho propósito. Recomendaciones generales Las siguientes son algunas de las recomendaciones básicas, en relación con aspectos constructivos, cuestiones de terreno, ubicación física, incidencia de los campos electromagnéticos y de otros agentes contaminantes, tanto para casas en zonas urbanas como en zonas rurales y que el autor ha recopilado a lo largo de varios años de estudio e investigación sobre el tema y que
ahora comparte con los lectores como elementos que aporten a formar criterios en torno al riesgo por CEM: - Las casas deben estar ubicadas con un retiro de unos 30 m. del lecho de las quebradas. - Es mejor si la casa está ubicada a más de 100 m de las vías principales o vías arterias por razones de ruido y contaminación por gases y en especial de líneas de alta tensión, transformadores de distribución y subestaciones de energía. - Si hay antenas de radiodifusión (AM, o FM) es mejor no vivir en sus cercanías - Si hay antenas de recepción de TV parabólicas es mejor no vivir en los pisos superiores del edificio en donde están ubicadas - Si hay antenas de estaciones bases de telefonía celular es mejor no habitar los apartamentos superiores. - Si está en el cono de sombra de la línea de vista entre las antenas de microondas es mejor no habitar los apartamentos que se encuentren en esta situación - Es mejor el terreno rocoso al arenoso o fangoso en materia de construcción - Preferir la base de la montaña a la cima por cuestiones de acumulación de electrostática e iones positivos y en el caso del Valle Aburrá es preferible vivir hacia al norte que hacia el sur. - Las casas con techo horizontal son mejores a las que terminan en techo de punta tradicional - La construcción circular es preferible a la rectangular. La forma hexagonal es excelente, en la medida en que sea posible construirla así. - Es mejor un sistema de calefacción por efecto invernadero (energía solar pasiva) y no uno operado eléctricamente. - Es preferible la ventilación natural o, en su defecto, la proveniente de ventiladores eléctricos, en lugar de dispensadores de aire acondicionado. - Mientras se pueda generar electricidad por fotoceldas solares es mejor preferirla a otras fuentes. Pero la electricidad es mejor que el combustible si hubiere que apelar a generadores de energía alternativos. - El televisor, si es de pantalla de TRC, debe estar ubicado a una distancia de 6 veces la medida de la diagonal - Los televisores y los computadores (laptops y desktops) de pantalla plana, de plasma o de LCD o leds son preferibles a los de TRC desde el punto de vista de CEM. - Definitivamente es mejor no tener electrodomésticos dentro del cuarto de dormitorio, hasta donde sea posible. - Preferir casas con solar o al menos con antejardín a las que son de puro cemento y si vive en apartamento hay que buscar la manera de caminar sobre la grama mojada (cuando llueve o en la madrugada humedecida por el rocío) o la tierra física bien a menudo. - Siempre que pueda camine por la arena de mar o por los lechos de ríos y quebradas y respire el aire de las altas montañas o en donde haya abundante vegetación (bosques o selvas) para aprovechar los iones negativos (muy saludables). En un artículo posterior, o cuando se aborde el riesgo por CEM en la serie sobre riesgo tecnológico, hablaremos con más detalle de las soluciones tecnológicas para prevenir o controlar los CEM así como sobre las recomendaciones prácticas para el manejo de los teléfonos celulares y otros dispositivos móviles personales. 15 · El Mundo de la ingenieria electronica
Silicio
Silicio
TECNOLOGÍAS DE LA INFORMACIÓN
P A R A M E T R O S Y T E L E M E D I C I O N E S
PARA OPTIMIZACION DE REDES M O V I L E S G S M Y U M T S
Resumen: En este artículo se explican diferentes términos y conceptos utilizados en mediciones de campo de las tecnologías móviles GSM y UMTS. Se abordan los temas sobre las herramientas utilizadas para la optimización de dichas redes y los parámetros más relevantes en el diagnostico de estas. Abstract: This article explains various terms and concepts used in the field measurements of mobile technologies GSM and UMTS. It covers the tools used for the optimization of such networks and the most relevant parameters used for diagnostic. Keywords: GSM, UMTS, OPTIMIZACION, KPIS, DRIVETEST, BECHMARKING 1 1. INTRODUCCIÓN Las Telecomunicaciones de telefonía celular, Autor es uno de los sectores JORGE tecnológicos más importantes ELIECER y de mayor crecimiento a nivel CARVAJAL mundial, convirtiéndose hoy ALCARAZ por hoy en una necesidad básica necesaria para la mayoría de las Ingeniero de Telemediciones personas. de Operadores de Telefonía Es por esto que tras el continuo crecimiento y demanda por el Celular ,Medellín, Colombia servicio, se requiere por parte de los prestadores u operadores de telecomunicaciones móviles (OPM) que mantengan y mejoren la calidad experimentada por los usuarios. Esto sucede al tiempo en que los operadores tienen que afrontar los retos propios de su sector como: · La constante actualización ante el acelerado cambio en la tecnología · El ambiente competitivo entre operadores y las regulaciones locales · El crecimiento continuo de las redes y la expansión de los servicios 16 · El Mundo de la ingenieria electronica
El comportamiento totalmente dinámico del sector exige entonces una constante planificación, optimización, ajustes,monitoreo y diagnósticos que permitan a los OPM garantizar cubrimiento y calidad del servicio. Por ello, es necesaria la utilización de diferentes herramientas que permitan la medición en el campo y el diagnóstico de necesidades de la red. Por ejemplo, el crecimiento geográfico en donde se identifiquen fallas de cobertura y de calidad. En otro aspecto, el mundo competitivo y corporativo de los OPM, exige una constante comparación operacional y técnica en términos de la red, que permitan identificar falencias con respecto a sus competidores, para lo cual se hacen también mediciones de campo. Serán descritas dichas mediciones de campo, además de los parámetros más relevantes en las tecnologías celulares que
contribuyen en los diagnósticos y optimización de red; se mencionaran y se describirán como son las herramientas de campo y el específico mercado de estas. TECNOLOGIAS GSM Y UMTS Desde sus inicios en los años 70, las tecnologías de telefonía móvil se caracterizaron por su rápido desarrollo y masificación, hasta considerarse hoy en día como un elemento primordial para las personas y en los negocios. Inicialmente, la telefonía celular fue concebida para comunicaciones de voz únicamente, debido a las limitaciones tecnológicas de la época; hoy podemos hablar de la capacidad de brindar otros servicios tales como datos, audio y video, con algunas limitaciones, pero con anchos de banda y velocidades de transmisión que aumentan constantemente, acorde con las aplicaciones modernas que son las que más recursos de red consumen. Las tecnologías de telefonía celular, tienen un crecimiento clasificado por generaciones que van desde una pionera o de carácter investigativo, llamada Primera Generación (1G), a una promisoria 4G (Cuarta Generación). 1.1. TECNOLOGIAS 2G GSM son las siglas de Global System for Mobile communications (Sistema Global para las comunicaciones Móviles), es el sistema de teléfono móvil digital más utilizado y el estándar de hecho para teléfonos móviles. Fue definido originalmente como un estándar abierto para que una red digital de teléfono móvil soporte voz, datos, mensajes de texto y 2 roaming en varios países. El GSM es ahora uno de los estándares digitales inalámbricos 2G más importantes del mundo. Está presente en más de 160
países y según la asociación GSM, tiene el 70 por ciento del total del mercado móvil digital. La mayoría de las redes GSM en los EE.UU utilizan las bandas 900MHz y 1800MHz; pero las bandas 850MHz y 1900Mhz ocupan un lugar destacado y son las usadas en Colombia. La mayoría de los teléfonos GSM se utilizan principalmente para voz, pero pueden ser utilizados para acceso móvil a Internet a través de la red básica de GPRS o tecnología EDGE. EDGE o EGPRS, Enhanced Data rates for GSM of Evolution (Tasas de Datos Mejoradas para la evolución de GSM), permite un máximo de conexión de 236 Kbps. Es un reciente desarrollo basado en el sistema GPRS y ha sido clasificado como un estándar (3G) debido a que puede funcionar en un máximo de 473,6 kbits por segundo. Si un teléfono inteligente es compatible con EDGE puede ser utilizado para la transmisión de datos móviles pesados, tales como la recepción de grandes archivos adjuntos de correo electrónico y navegar por páginas web complejas a gran velocidad. GPRS, General Packet Radio Service o servicio general de paquetes vía radio es una extensión de (GSM) para la transmisión de datos no conmutada. Permite velocidades de transferencia de 56 a 144 kbps. Permite como mucho 80 Kbps, de velocidades comparables a la de un viejo modem RDSI; es un sistema probado y por lo tanto es muy confiable para el uso estándar de datos móviles y se ajusta a las necesidades las personas que no requieren manejar altos volúmenes de datos. 1.2. TECNOLOGIAS 3G UMTS, Universal Mobile Telecommunications System, la tercera generación de sistemas para móviles (3G).Los servicios
asociados con esta generación proporcionan la posibilidad de transferir voz y datos a la vez. El UMTS permite velocidades de conexión de hasta 2 Mbps; pero esto sólo en condiciones óptimas. HSDPA , (High Speed Downlink Packet Access) es la optimización de la tecnología UMTS, incorpora una nuevo canal descendente (downlink) que mejora significativamente la capacidad máxima de información, pudiendo alcanzar velocidades de bajada de hasta 14 Mbps, en teoría, en condiciones óptimas, pero en realidad, se alcanzan velocidades de transferencia de 1 Mbps en promedio con la mejor señal posible, también es denominada 3.5G, 3G+ o la turbo 3G, HSUPA , (High-Speed Uplink Packet Access o Acceso ascendente de paquetes a alta velocidad) es un protocolo de acceso de datos para redes de telefonía móvil con alta tasa de transferencia de subida (de hasta 7.2 Mbit/s). Calificado como la generación 3.75 (3.75G) o 3.5G Plus, es una evolución de HSDPA. La solución HSUPA potenciaráinicialmente la conexión de subida UMTS/ WCDMA (3G). HSUPA está definido como una tecnología que ofrece una mejora 3 sustancial en la velocidad para el tramo de subida, desde el terminal hacia la red. HSDPA y HSUPA, ofrecen altas prestaciones de voz y datos y permitirán la creación de un gran mercado de servicios IP multimedia móvil. HSUPA mejorará las aplicaciones de datos avanzados, con mayores y más simétricas tasas de transferencias de datos. 1.3. TECNOLOGIAS 4G LTE, Tecnología de de cuarta generación. Con la tecnología LTE, el caudal de velocidad llega hasta los 100Mbps 17 · El Mundo de la ingenieria electronica
Silicio
Silicio (descarga) y 50Mbps (subida), e incluso puede trabajar a 1Gbps para usuarios que precisen de poca movilidad. Por su parte, la evolución de WiMax (también considerada una red 4G) puede alcanzar los 128Mbps (descarga) y los 56Mbps (subida).
PARAMETROS Y PERFOMANCE DE RED MÁS IMPORTANTES. Para poder indicar la fiabilidad, integridad, sostenibilidad, y cubrimiento de una red de telefonía celular, se emplean indicadores de funcionamiento o KPI (Key Performance Indicators); estos indicadores manejan puntos de alerta que, cuando son superadas ciertas cotas, dan aviso de un comportamiento erróneo que hacen los nodos (ya sean estaciones base BTS o nodos de red), de las que son objeto de estudio. Cada celda o BTS tiene sus propios KPI, pero con la incidencia que los KPI de una celda afecta los KPI de sus vecinas. Entre los aspectos más relevantes para el diseño de los KPI se pueden mencionar accesibilidad, estabilidad e integridad. • Accesibilidad es la capacidad de 18 · El Mundo de la ingenieria electronica
un servicio de ser obtenido dentro de ciertos límites de tolerancia y bajo ciertas condiciones. En estos se maneja estadísticamente que tan fácil le es a un usuario establecer una llamada, o si se presenta negación del servicio, para lo cual se establecen las llamadas fallidas o faild. • Estabilidad es la capacidad del servicio de mantenerse activo una vez que ha sido accedido bajo ciertas condiciones y por un periodo de tiempo establecido. También implica que el usuario no tenga que realizar ninguna operación manual para que el servicio no se caiga. • Integridad de un servicio indica el grado de buen funcionamiento de este una vez que ha sido accedido. Hace referencia a la calidad de las llamadas de voz y las velocidades de transferencia en la parte de datos. 1.4. Descripción de los KPI. En este apartado nos centramos en los indicadores propios de telefonía. · Tasa de establecimiento de llamada o call setup success rate Denota la probabilidad de que el usuario pueda acceder al servicio de telefonía cuando lo requiere y tiene cobertura. 4 La fracción de tiempo en que tiene lugar este KPI comienza con uno de los mensajes solicitud de canal o el parámetro “RRC Connection Request” o “Channel Request” y termina con el mensaje “Connect” que se percibe con el primer timbre en el celular del abonado. En un intento de llamada fallido nunca se alcanza este punto. Cuando tenemos un intento fallido de establecimiento de llamada, hablamos de bloqueo de llamada, es decir, la comunicación no ha llegado a establecerse. La causa fundamental de que se dé un bloqueo es la congestión de la red. El móvil solicita un canal
pero la red no tiene ninguno libre. • Tasa de llamadas completadas con éxito Este KPI muestra la relación entre el número de llamadas que acaban satisfactoriamente, es decir, cuando lo decide uno de los interlocutores, y el número total de llamadas establecidas. • Tiempo de establecimiento de la comunicación Denota el tiempo en segundos entre el envío de la información de dirección y la recepción de la notificación de llamada establecida es decir el tiempo que se demora en establecer el primer timbre de llamada. Si este tiempo es muy largo, mayor a 10 segundos, da cuenta de un bajo nivel de RF o cobertura de red. • Calidad de conversación [dBQ] Denota la calidad de la conversación de extremo a extremo del servicio de telefonía, calculado muestra a muestra. Para definir el KPI es necesario hacer una breve descripción de los índices de calidad de conversación SQI y MOS. SQI (Speech Quality Index) es un parámetro que estima la calidad de conversación en la red celular como si de un oído humano se tratase. Se obtiene por medio de una serie de algoritmos de propiedad de Sony Ericsson y se aplican a sus propios terminales. Tradicionalmente la calidad de conversación se medía con un parámetro llamado RxQual que se obtiene de transformar la BER en una escala de 0 a 7. Es decir, simplemente refleja la BER en un cierto periodo de tiempo. SQI, sin embargo, es un estimador de calidad mucho más complejo; pero en la mayoría de los equipos de telemediciones es el RxQual el parámetro que tradicionalmente se ha usado por la simplicidad teórica. Otro parámetro que mide la
calidad de conversación es el MOS. Consiste en enviar a la red un archivo de voz wav, que sirve de patrón. La señal es devuelta tras pasar por el canal radio y por la red fija. El MOS es una correlación de las señales enviada y recibida, es decir, se compara la señal original con la señal recibida, después de pasar por el canal radio y por la red fija. La diferencia con el SQI es que este último no tiene en cuenta la red fija, sólo parámetros del canal radio. Bajos niveles de MOS en los parámetros de la calidad de la llamada se denota por bajos niveles de RF o por señales interferentes en el que se infieren pisos de ruidos altos. • Traspasos o Handovers Se refieren al paso de una celda a otra; estos pueden ser handover entre tecnologías, lo que implica un cambio de tecnología entre GSM y UMTD y viceversa, lo que se denomina un handover fuerte o se puede dar un handover entre celdas de la misma tecnología lo que se considera soft handover. El Intra-mode handover depende de la medición de algunos parámetros proporcionados por la capa física. Como son el valor de la potencia recibida en un código (RSCP,‘Received Signal Code Power’) y el valor de potencia total medida en un canal RF (RSSI, ‘Received Signal Strength Indicator’). A partir de éstos, el móvil puede calcular el parámetro Ec/No del canal piloto CPICH (‘Common PIlot CHannel’) de las estaciones base de interés; dicho parámetro se define como el cociente entre el valor RSCP del canal piloto y el valor total de potencia recibida RSSI. La tasa de Handover con éxito, es el KPI relacionado con los traspasos de celda. Los datos a tener en cuenta son el número de
handovers con éxito y el número total de handover iniciados. Lo mismo con los handovers de 3G a 2G y viceversa. Además de comprobar si el mecanismo funciona correctamente, estos KPI nos dan una idea de si la cobertura de una zona/localidad es mejor en una tecnología que en otra, etc. Otro dato relacionado con los handovers, importante para los operadores, es el porcentaje de uso de la tecnología. Con esto se observa si el diseño de la red en una zona ofrece el resultado esperado. Para que pueda realizarse un Handover de una celda a otra, tiene que estar definida (en la RNC o en la BSC según corresponda) dicha vinculación, denominada vecindad o adyacencias. En algunas ocasiones, la no definición de adyacencias es la causa de que se produzcan llamadas caídas, problema que se resuelve definiendo la vecina correspondiente. • Parámetros de cobertura Se ha nombrado los parámetros RSCP, RSSI y Ec/No; para el caso de las tecnologías GSM dichos parámetros serian RXlevel que es un subparámetro ligado con la potencia de la señal, así como la relación Carri portadora con señal interferente, esto es, C/I; con tales parámetros se pude definir la deficiencia en cobertura o bajos niveles de RF por causa de obstrucciones físicas fuertes. Existen unas cotas aproximadas para dichos parámetros, entre las que se suelen mover. Según estén por encima o por debajo de estos niveles veremos si la cobertura en la zona de medición es aceptable o no. Tabla 2. Intervalos de parámetros de cobertura para UMTS
TELEMEDICIONES Y PRUEBAS DE CAMPO. Existen diferentes tipos de pruebas para la revisión de los KPI de las tecnologías móviles; las dos más ejemplarizantes son las pruebas de drivetest y las bechmarking 1.5. DRIVETEST (DT) Drive Test, consiste en realizar una prueba de conducción. Siguiendo una huella de GPS, o un mapa, por las calles o sitios geográficos donde se desea evaluar los KPI de un único operador. Las pruebas se realizan básicamente con: Un PC portátil - o terminal de prueba ohandheld con un software instalado- por lo menos un teléfono móvil, un GPS y unScanner (opcional).
los
19 · El Mundo de la ingenieria electronica
Silicio
Silicio
datos de benchmarking de redes, es la única manera como los operadores de redes móviles pueden recoger datos sobre el verdadero nivel de su cuenta y sus competidores, en cuanto a rendimiento técnico y niveles de calidad.
Las terminales de prueba son celulares comunes adaptados con software y chip internos que permiten adquirir la mayoría de los parámetros más importantes de una red detelefonía celular.
Existen varias marcas de compañías especializadas en software y en dispositivos para DT, entre las que se destacan Swissqual, Actix, Nemo, Anite y empresas asiáticas, como Dinglin. Los costos de los equipos más simples como una terminal de prueba handtest van desde cinco mil dólares a veinte mil dólares y los software para mediciones y postprocesamiento comienza desde licencias de veinte mil dólares. 1.6. BENCH MARKING
La información recopilada es procesada posteriormente en softwares que manejan grandes volúmenes de datos de las diferentes medidas realizadas durante los recorridos; la forma común de presentación y análisis de la información es mediante manejos estadísticos o software georefereneciados donde es comúnel uso de aplicativos como Google Earth y Mapinfo.
20 · El Mundo de la ingenieria electronica
El bench marking se realiza en una manera similar al de DT, solo que este tipo de prueba se utiliza para medir varias tecnologías de red y tipos de servicio al mismo tiempo entre diferentes operadores, para proporcionar información directamente comparable con respecto a las fortalezas y debilidades competitivas. Los resultados son manejos estadísticos de parámetros como: rentabilidad, accesibilidad y calidad; además de parámetros técnicos como: intensidadde la señal, Ecno, C/I, calidad etc. Los resultados se utilizan con frecuencia en las campañas de marketing y proyecciones corporativas. Conducir pruebas para obtener
2. Telemediciones en Colombia Colombia tiene una enorme penetración de la tecnología celular, al punto de tener más líneas activas que habitantes. Se cuenta con más de 50 mil líneas. Esta cantidad de abonados están repartidas en operadores a su haber Claro, Movistar, Tigo y Une (redes de datos 4G). Tal incremento y dinamismo de la red exige un constante trabajo de los Ingenieros de RF, diseño celular y de telemediciones en un trabajo interdisciplinario para optimización de redes. Es así como constantemente desde las ciudades más partadas como Quibdó a ciudades densamente pobladas como Bogotá se realizan a diario mediciones de todo tipo, como datos puntuales para optimización de celdas especificas, hasta recorridos de DT y BM para verificación e identificación de problemas de la red. Ahora que apenas se comienza esbozarse la venta de las frecuencias para la naciente tecnología 4G, se ve como el campo de las telemediciones se convierte en el mejor aliado para el mejoramiento, diagnostico y estimación de la redes móviles. Escuela politécnica nacional, carrera de ingeniería en electrónica y redes de información, Análisis y optimización del Performance de la red GSM
REFERENCIAS Herrera Pérez, E (2002), Introducción a las telecomunicaciones modernas. Noriega editors Riofrío Córdova, Andrés Aníbal (2007), Métodos de optimización de cobertura para redes celulares con tecnología GSM Dr. Jonathan P. Castro (2001) The UMTS Network and Radio Access Technology. John Wiley & Sons, Ltd Hewlett-Packard Company, (2005) GSM-GPRS-UMTS Feature Implementation Guide López Pávez, Priscila (2007), Comparativa de tecnologías emergentes de acceso a redes móviles y fijas. Universidad del Chile Informe de la telefonía Móvil, Superitendencia de Industria y comercio [ http: / / w w w.s i c .gov.c o / informe-telefonia-movilprimer-trimestre-de-2012], consultado en 2013-19-04. De Jesús Gordillo, Javier (2009) Captura de Datos y Análisis para la Optimización de Redes GSM y UMTS http://www.swissqual.com/ http://www.telecomhall.com h t t p : / / w w w. a n i t e . c o m / Herrera García, Edwin Fernando, comunicaciones inalámbricas administración y gestión de redes telefonía sistemas de comunicación radiante (2007), Quito epn
21 · El Mundo de la ingenieria electronica
Silicio
Silicio
TECNOLOGÍAS DE LA INFORMACIÓN
Seguridad en Información:
de los Defacements a la Ciberguerra En este artículo se muestra la evolución de la seguridad de la información, desde la aparición de los servicios web y la masificación del internet hasta las nuevas realidades de la seguridad y el futuro de la misma, basándose en los diferentes hechos que han ocurrido en el entorno y enfocándose en los nuevos servicios y en sus riesgos, así como en los nuevos retos que se plantean por la aparición de actores interesados en atacar con mucha más organización y recursos para producir ciberarmas que les faciliten sus acciones, que generan impactos no sólo en el mundo virtual sino en el físico, esto enmarcado en la responsabilidad social del ingeniero frente a estos retos.
Evolución de las amenazas a la seguridad informática Autor Diego Andrés Zuluaga Urrea
Exc. MBA, CISM, CGEIT, CRISC Auditor Líder ISO27001, COBIT Foundation Certificate; Ganador American ISLA Awards 2011 (ISC2); TOYP Antioquia y Colombia 2012 (JCI)
Hoy en día debemos ser conscientes de que se es, tanto ciudadano del mundo real como del mundo virtual, un mundo donde las barreras de espacio y tiempo cada vez son menores, facilitan la interacción global y permiten grandes avances en la sociedad moderna. Esta interconexión nos ha permitido romper con barreras tradicionales como las de los países y las jurisdicciones, lo que ha generado una nueva forma de trabajar y de comunicarnos pero, a su vez, ha traído nuevos riesgos transnacionales que hoy, más que nunca, han llegado a puntos donde deben ser administrados por todos en esfuerzos que van desde los hogares hasta los estados y la comunidad internacional, para lograr un entorno más seguro en el cual la nueva sociedad se pueda desarrollar y obtener los beneficios sin sucumbir ante los riesgos. Evolución de los ataques
Hemos visto una evolución de la inseguridad de la información que ha pasado por varios momentos desde los 90s, en la que el tema más relevante era de unos atacantes que buscaban cambiar páginas web de instituciones (defacements), con el fin único de ser reconocidos, y pasando por la década del 2000 cuando se consolidaron las bandas criminales que emplean las TIC como medio para obtener beneficios económicos a través de robos o estafas, hasta la presente década donde se dan las 22 · El Mundo de la ingenieria electronica
primeras ciberarmas que se orientan a espionaje y a ciberguerra, desarrolladas en algunos casos por grupos bien financiados o por estados, y yano sólo por atacantes independientes o grupos criminales, como el caso del virus STUXNET, el cual afectó al programa nuclear de Irán, hasta casos más recientes de virus como Duqu y Flame, y los ataques registrados en sectores de infraestructura crítica especialmente recibidos por los EE. UU. y provenientes presumiblemente del ejército chino. En los últimos años los ataques de relevancia también comienzan a ser de tipo persistente, para enfocarse en mantener control por largos periodos de tiempo o para extraer la mayor cantidad de información posible y venderla al mejor postor, o usarla como datos de inteligencia. También se ha encontrado un creciente interés en obtener información de empresas de sectores de infraestructura crítica, como el energético, y a atacar sistemas de control industrial. Ya en enero de 2008, Tom Donahue, analista de la Agencia Central de Inteligencia (CIA), en un importante evento de seguridad en sistemas SCADA desarrollado por SANS Institute, dijo que esta agencia de seguridad tenía evidencia del éxito de ataques informáticos en contra de infraestructuras nacionales por fuera de los Estados Unidos: “Los ataques han sido usados para interrumpir los equipos de poder en varias regiones fuera de E.U.”, y dijo que, por lo menos en un caso, se ocasionó la suspensión del fluido eléctrico en varias ciudades. En febrero de 2011 se develó el ataque conocido como Night Dragon, que fue evidenciado por la firma McAfee, y el cual tuvo como objetivo a múltiples empresas del sector energético a nivel global y principalmente en los Estados Unidos, con técnicas de ataque persistente en las cuales los atacantes extraían información de la empresa por un largo periodo de tiempo sin que esto fuese notado por quien había sido vulnerado. En los últimos meses se han visto varios reportes de fuentes muy serias que involucran al ejército chino en ataques contra infraestructuras críticas, especialmente en EE. UU., en los cuales han estado recolectando información que permitiera en un futuro el desarrollo de ataques sofisticados. Evolución de los atacantes
En un principio, los hackers, crackers y script kiddies eran personas con un interés particularen conocer sobre seguridad informática, vulnerabilidades y riesgos de los sistemas principalmente, con el fin de aprender y de obtener algún tipo de beneficio- generalmente conocimiento y, en algunos casos, reconocimiento del grupo social o por la comunidad en la que se desenvolvían-; luego se fue desarrollando un tipo de atacante interesado en obtener beneficio económico a través de acciones fraudulentas como el engaño o estafa (SCAM), o mediante el robo con utilización de medios electrónicos; en general, estas
actividades se realizaban por su cuenta o en pequeños grupos que simplemente compartían información encanales de IRC en internet. Luego se desarrolló una clase de cibercriminales organizados y financiados, en muchos casos, por mafias y organizaciones criminales tradicionales, que empezaron a desarrollar acciones para aprovechar las nuevas tecnologías y el auge de los negocios a través de internet para obtener beneficios económicos. Se empieza a dar un negocio de hacking, donde se alquilan redes para ataques y, a su vez, sepueden contratar hackers para realizar algún trabajo de espionaje corporativo o para desarrollar software malicioso (malware). Más adelante aparecen grupos de ciberactivistas dedicados a realizar protestas en el mundo virtual, haciendo uso de técnicas de bajo costo y alta efectividad como ataques de denegación de servicio distribuídos. Los estados comienzan a ver los riesgos y las potencialidades de las nuevas tecnologías para el desarrollo de ciberarmas que permitan realizar acciones de inteligencia o de ciberdefensa que disuadan o debiliten al posible agresor, razón por la cual alrededor del mundo comienzan a generar divisiones de ejércitos o grupos especializados pagados por sus gobiernos para este tipo de labores. También se encuentra evidencia de que grupos de terroristas, como Al Qaeda, 23 · El Mundo de la ingenieria electronica
Silicio
Silicio desde el 2001 ya estaban analizando sistemas SCADA en busca de vulnerabilidades que pudiesen ser aprovechadas, y aunque nada indica un plan actual para usarlo, por la experiencia se espera que grupos terroristas bien financiados pueden estar detrás de grupos de hackers que actualmente estén buscando atentar por medios electrónicos. Evolución de los Virus En cuanto a los virus, ya pasaron las épocas en las que se usaban simplemente para hacer a una bola rebotar en la pantalla, o para sacar una ambulancia que la recorriera. Pasamos luego por virus que se replicaban en los medios removibles, donde podían tener acceso, y más adelante se replicaron a través de las redes de ordenadores aprovechando vulnerabilidades o servicios muy usados, lo que sucedió con virus como Blaster y Sasser. Hemos seguido por generaciones de virus capaces de detectar el ambiente en el que han logrado penetrar, buscar escalar privilegios, desactivar los antivirus, intervenir los navegadores de internet para que cuando se busque sobre virus se cierren como si hubiese un problema del navegador, esconderse en los procesos normales del sistema, auto actualizarse de sitios que cambian frecuentemente en internet, abrir puertas traseras para los atacantes facilitándoles el control remoto, y reportarse ante servidores para ser parte de redes “zombies” donde 24 · El Mundo de la ingenieria electronica
el equipo que tenemos en casa y que creemos controlado por nosotros también es ofrecido en alquiler para que los hackers lo usen en sus ataques a terceros sin que nos demos cuenta. Se dio un boom que llenó los bolsillos de algunos atacantes, que usaron falsos antivirus para hacer creer a los usuarios que están infectados al visitar alguna página, que los estafadores previamente hackearon, para poner su código y realmente, al aceptar el mensaje, infectar a la víctima, dándole como única solución comprar el antivirus que ellos ofrecen para recuperar su información (Ransomware). Desde principios de esta década hemos visto, además, cómo han evolucionado, convirtiéndose en verdaderas armas cibernéticas que, en manos de gobiernos y/o ciberterroristas, pueden ser tanto o más poderosas que las armas convencionales. El Virus Stuxnet, descubierto en 2010, considerado como la primera arma cibernética que se ha usado efectivamente en la historia, atacó al sistema que supervisaba el proceso de enriquecimiento de uranio en la central iraní, con lo que se estima haber retrasado el programa nuclear de este país por lo menos unos tres años, al lograr dañar las centrifugadoras que hacían este trabajo haciéndolas funcionar más allá de los niveles de operación aceptables. Este virus en muchas ocasiones ha sido atribuido a estados que, separados o en conjunto, lo desarrollaron, debido a su objetivo, a que estaba bastante dirigido y a que, aunque infectó en múltiples lugares, estaba diseñado para atacar sólo bajo circunstancias muy específicas, lo que disminuyó el daño colateral, además de su complejidad, que lo mostraba como un virus que estaba más allá de los vistos hasta este momento y utilizando técnicas de ataque basadas en múltiples vulnerabilidades de día cero (vulnerabilidades aún no conocidas por los fabricantes), además de utilizar firma digital para que no fuese advertida su instalación en los sistemas operativos. Luego de Stuxnet se han visto varios virus relacionados que principalmente han atacado empresas de infraestructura crítica en países del Oriente Medio; virus como el Duqu, descubierto en septiembre de 2011 y también altamente relacionado con Stuxnet, pero más dirigido a obtener información para atacar sistemas de control industrial; otro caso fue el de Flame, descubierto por el Centro de Respuesta a Incidentes de Irán en mayo de 2012 y que, según estudios posteriores, se pudo determinar que estaba operando desde el año 2010, siendo un virus atípico ya que ocupa más de 20 MB y tiene funciones avanzadas de espionaje como abrir el micrófono para grabar sonidos del ambiente de la computadora infectada, acceder a comunicaciones bluetooth de dispositivos cercanos, hacer capturas de pantalla y registrar conversaciones en internet. Evolución del malware en los dispositivos móviles
El malware en los dispositivos móviles ha tenido también un
crecimiento vertiginoso, especialmente en el último año. En el reporte de amenazas de McAfee del último cuarto del año 2012 se puede evidenciar que durante ese año se desarrolló más del 95% del total de malware para estos tipos de dispositivos de la historia, llegando a 36699 amenazas en su base de datos, de las cuales el 97% son para dispositivos basados en Android como sistema operativo. Los nuevos retos en legislación y la seguridad en información Con todo este panorama se hace necesario revisar las estrategias de seguridad que están siguiendo los estados, las empresas y los ciudadanos para protegerse frente a las amenazas que se presentan. En cuanto a la legislación, aunque ya muchos países cuentan con reglamentaciones al respecto, apenas se están estableciendo marcos comunes de actuación en cuanto a legislación, como el Convenio de Budapest, para la protección de los países y el manejo de esta problemática transnacional. Nuevos retos, como el manejo de la información en la nube, ponen unas posibilidades técnicas interesantes pero un mayor riesgo en la gestión de la información, la seguridad de la misma y la complejidad jurídica en caso de un ataque, por lo que debe revisarse a la luz de las necesidades de cada compañía, ya que en ocasiones temas como un análisis forense en caso de presentarse un incidente en la nube estarán restringidos no sólo por temas técnicos sino de jurisdicción, y de privacidad de otros clientes o terceros. ¿Qué hacer frente a la problemática en las organizaciones?
La ventaja en cuanto a este panorama de riesgos es que también se ha presentado evolución en las acciones que se pueden realizar para disminuirlos a un nivel aceptable y para administrarlos de una manera adecuada. Para esto, entran múltiples prácticas que se han desarrollado también durante los años de evolución de la problemática, que pueden incorporarse en las organizaciones dependiendo de su tamaño y complejidad. En este aparte se mencionarán algunos de los recursos más valiosos para el establecimiento de un programa de seguridad en información adecuado que minimice los riesgos. El conjunto de normas ISO 27000: Este conjunto de normas, que hoy en día se encuentra ampliamente desarrollado y aceptado, empezó por un conjunto de controles que venían del estándar británico BS7799, el cual fue adoptado por ISO
como ISO 17799; se mejoró en 2005y más adelante, cuando se desarrolla la norma que describe el sistema de gestión conocida como ISO 27001, se renumera el set de controles a 27002; luego aparecen otras importantes normas, como la ISO 27005 para la gestión de los riesgos en la materia y la 27004 para la definición del sistema de indicadores de seguridad. En este conjunto de normas se puede encontrar suficiente información para establecer un Sistema de Gestión de Seguridad en Información, adecuado para la mayoría de organizaciones que contemplen dimensiones técnicas humanas y procedimentales y que permita desarrollar controles para la disponibilidad, confidencialidad e integridad de la información. Para empresas que manejan
infraestructura crítica con sistemas de control industrial, se pueden seguir estándares como el ANSI/ISA 99 o, en el caso específico del sector eléctrico, Normas como las NERC CIP. o la Guía de Ciberseguridad del Sector Eléctrico Colombiano. Para las pymes existen también muy buenas guías que pueden ser seguidas, como la NIST 7621, que establece las 10 acciones mínimas y las 10 recomendadas para este segmento, y algunos otros que aportan, como COBIT Quickstart, el cual establece los 59 controles básicos para la gestión de tecnologías informáticas. Siempre se debe recordar que la seguridad de la información va más allá de la seguridad informática y que, aun siguiendo estas guías, hay otras acciones por desarrollar de acuerdo con el entorno y la 25 · El Mundo de la ingenieria electronica
Silicio
Silicio cultura organizacional. Un factor fundamental que debe ser considerado, es el desarrollo de una cultura de seguridad en información a todos los niveles organizacionales, que permita el desarrollo de un ambiente seguro de operaciones. Para ello hay que desarrollar más allá de la cultura, se debe buscar el desarrollo de los hábitos de seguridad en información, y tratar de que estos se integren a la vida en la misma manera que los hábitos para nuestra seguridad en el mundo físico, como el de mirar a ambos lados de la calle antes de cruzar o no aceptar comida de desconocidos, que se han incorporado en ella. Los hábitos de seguridad se logran al desarrollar la conjunción entre el conocimiento (qué debo saber), la habilidad (cómo lo hago) y el deseo (que nazca intrínsecamente) en las personas, lo que requiere un enfoque basado en la norma de seguridad, no como el principio sino como la consecuencia de la cultura, y basándose más en el trabajo con los formadores de cultura, que principalmente son las prácticas de los líderes, las medidas de desempeño y las prácticas de las demás personas de la organización; así como a través del manejo de la curva emocional de las personas y de un trabajo comunicacional diferente que esté más basado en técnicas entretenidas de recordación y generación de cultura, para luego pasar por el acompañamiento y dejar para el final y sólo como último recurso el control coercitivo. Esto requiere un trabajo continuo, sabiendo que puede tomar años su consolidación, y requiere mantenimiento constante y trabajo diario que debe ser organizado por cada tipo de público, de acuerdo con las necesidades y los intereses particulares. ¿Qué está haciendo el país para enfrentar estos retos?
Colombia es un país que trabaja ampliamente en el desarrollo de ciberseguridad, desde junio de 2011, con la aprobación del documento CONPES 3701 “Lineamientos de Política para Ciberseguridad y Ciberdefensa”, en el cual se establecen mecanismos con los cuales se da organización al país a través de la creación del Centro de Respuesta a Incidentes de Seguridad Cibernética de Colombia, ColCERT, adscrito al Ministerio de Defensa en la Dirección de Seguridad Pública e Infraestructura, y, más adelante, con la creación del Comando Conjunto Cibernético en cabeza del Comando Conjunto de las Fuerzas Militares, encargado de proteger el estado en el ciberespacio, así como la integración del Centro Cibernético Policial, desarrollado por la Policía Nacional, que ha desarrollado operaciones importantes para la seguridad de los ciudadanos en el ciberespacio desde hace varios años; además de las iniciativas que se tienen desde el ministerio de las TICs, desde el sector privado y en organismos como el CNO (Consejo Nacional de Operación) del sector eléctrico, donde se están desarrollando las guías de ciberseguridad para proteger el sistema eléctrico 26 · El Mundo de la ingenieria electronica
interconectado como parte de la infraestructura crítica del país. Esto, en conjunto con que en Colombia se cuenta con la ley 1273 de delitos informáticos, vigente desde 2009 y cuyo principal logro, desde mi punto de vista, es que tipifica como bien jurídico tutelable la información, y establece un conjunto de delitos que van desde el acceso abusivo a un sistema informático hasta la violación de datos personales o la suplantación de sitios web, elevando así a la categoría de delito que puede dar penas superiores a los 36 meses de prisión lo que antes se castigaba únicamente con multas. De todas maneras faltan, según los expertos, algunos delitos que aún no se han contemplado en la legislación colombiana, así como la necesidad de homologar la normatividad con el Convenio de Budapest sobre ciberdelincuencia, para contar con herramientas jurídicas eficaces internacionalmente en una materia que por su naturaleza es transnacional. En el desarrollo de todos estos avances ha tenido también un papel protagónico la Organización de los Estados Americanos, a través del Comité Interamericano Contra el Terrorismo, del cual Colombia asumió la presidencia este año, y a través del cual se ha fomentado el crecimiento de los países en la materia, y se espera que se siga desarrollando la seguridad cibernética del continente. La responsabilidad social del ingeniero en la gestión de
los riesgos Como ingenieros que podemos estar actualizados y conocer los nuevos problemas de seguridad a los que se está enfrentando la sociedad actual, estamos llamados a comunicarlos, a generar conciencia, y a establecer las medidas de protección que sean requeridas en todos los escenarios donde tengamos influencia. Se hace necesario, entonces, que ayudemos a desarrollar programas claros en nuestras organizaciones, que reduzcan los riesgos de ciberataques o brechas frente a la seguridad de la información, así como a desarrollar programas de conciencia en seguridad en información que ayuden a fortalecer la posición de las personas frente a la Seguridad de la Información, haciendo entender que es un riesgo real que debe ser administrado como otros tantos riesgos de la vida y de las organizaciones. Conclusiones
Los riesgos frente a la seguridad de la información han crecido ampliamente en los últimos años, debido al aumento en la sofisticación de las herramientas con las que cuentan los atacantes y al desarrollo de nuevos actores que las emplean, cada vez con interés en generar mayor impacto, pasando de ser un problema de las personas y algunas compañías a ser un problema de la sociedad en general, que llega hoy en día a poner en riesgo las estabilidad económica y política de los países. Colombia se ha estado preparando frente a los riesgos de seguridad que se están presentando, pero aún se requiere mucho esfuerzo del gobierno, de la empresa privada y de la sociedad en general para establecer un ambiente seguro en el ciberespacio, lo cual requiere del desarrollo de una cultura que debe empezar desde los hogares y llegar hasta las empresas e instituciones responsables de la infraestructura critica del país. Existen en el mercado metodologías ampliamente aceptadas y probadas, que facilitan el desarrollo de la ciberseguridad en los diferentes escenarios, y que pueden ser usadas por nuestras instituciones para agilizar la implementación de programas efectivos de seguridad en información. Los ingenieros, como conocedores del tema, tenemos la responsabilidad social de culturizar a la sociedad en cuanto a los riesgos que se tienen en el ciberespacio y acerca de las medidas que se pueden establecer para controlarlos eficientemente.
27 · El Mundo de la ingenieria electronica
Silicio
Silicio
INGENIERÍA ELÉCTRICA
I n m ó t i c a :
Automatización de edificios para fines
industriales, comerciales o institucionales. ¿Qué es la Inmótica? La evolución de la electrónica, la informática y las telecomunicaciones ha permeado todos los ambientes en que nos desempeñamos, llegando a estar presentes en la vida diaria en múltiples aplicaciones: desde la revisión del tráfico a través de nuestro teléfono inteligente, pasando por los comandos de voz que les damos a los carros, y hasta la realización del check-in de un vuelo que tenemos programado a través de Internet, entre muchos ejemplos que podemos dar; en todos los casos está involucrado un gran trabajo en desarrollo de Hardware y Software.
Autor Juan Felipe Téllez Alzate
Ingeniero Electrónico y MSc en Ingeniería. Director de Proyectos en Infraestructura Digital S.A.S.
28 · El Mundo de la ingenieria electronica
Estos avances, entre los que están la microelectrónica, las telecomunicaciones y la automatización, también han llegado al sector de la construcción. Es común, para la mayoría de las personas, asociar la tecnología aplicada a la construcción con las casas inteligentes o Domótica; sin embargo, el término correcto para la aplicación de la tecnología actual en el segmento de la industria, el comercio, la educación y la salud, entre otros, es llamado Inmótica. La inmótica aplica todos los recursos tecnológicos disponibles para lograr cinco objetivos fundamentales: seguridad, confort, eficiencia energética, conectividad y valorización. En la práctica, se busca monitorear y controlar los sistemas eléctricos, electrónicos y electromecánicos que tiene una edificación para lograr los mencionados objetivos. Los sistemas que comúnmente encontramos en un edificio, candidato para ser automatizado, son: • Sistemas de aire acondicionado. • Sistemas de refrigeración. • Sistemas de calefacción. • Sistemas de almacenamiento de energía solar. • Analizadores de red eléctrica o contadores de energía. • Sistemas de alarmas de intrusión. • Circuitos cerrados de televisión. • Sistemas de control de acceso. • Sistemas de detección y/o extinción de incendios. • Ascensores y escaleras eléctricas. • Sistemas de bombeo y almacenamiento de agua. • Sistemas de calidad del aire. Estos sistemas, normalmente, se han instalado en muchas construcciones del sector comercial o industrial desde hace varias décadas; sin embargo, la integración de todos estos sistemas bajo un sistema de control centralizado sólo comenzó a ser tenida en cuenta por las constructoras ya entrado este siglo. En gran medida, el interés se ha venido despertando por la
aparición de otros elementos como las construcciones sostenibles, el ahorro de energía y los llamados edificios verdes; este último término proviene del inglés, a través del Green Building Council[1], que es una institución encargada de certificar si una edificación cumple con los estándares mínimos para ser considera como verde y así obtener una credencial que la catalogue como una construcción LEED[2]. En Colombia el CCCS[3], Consejo Colombiano de Construcción Sostenible, es la entidad que acredita si un proyecto de construcción puede ser considerado como LEED. Tecnologías de automatización de edificios Los primeros sistemas de control durante los años 60s y 70s eran neumáticos[4] e hidráulicos y, generalmente, se limitaban a controlar diversos aspectos del sistema de aire acondicionado. Los dispositivos neumáticos comunes incluyen controladores, sensores, actuadores, válvulas y reguladores, entre otros. Los dispositivos de control electrónico analógicos comenzaron a llegar después de 1980[4]; estos proporcionaban una respuesta más rápida y una mayor precisión que los sistemas neumáticos. Sin embargo, no fue hasta que el control digital entró en escena en la década de 1990[4] que el sistema de automatización de verdad fue posible. Sin embargo, la inexistencia de normas o estándares establecidos para la comunicación digital provocó que varios fabricantes crearan sus propios métodos de comunicación exclusivos, haciendo prácticamente impensable una integración entre sistemas de diferentes marcas. Hasta ese momento, los sistemas de automatización son completamente funcionales, pero no son interoperables o capaces de mezclar productos de diferentes fabricantes. Por lo tanto, un edificio o un determinado proyecto podría ser “cerrado” por un fabricante específico. A finales de la década de los 90, y especialmente en la década siguiente, los movimientos ya estaban en marcha para estandarizar sistemas de comunicación abiertos. La Sociedad Americana de Ingenieros de Calefacción, Refrigeración y Aire Acondicionado (ASHRAE)[5], desarrolló el protocolo de comunicación BACnet[6] que, con el tiempo, se convirtió en uno de los estándares más aceptados en la industria, y al cual se han acogido la mayoría de los fabricantes de equipos de automatización de edificios. Otros estándares de comunicación incluyen protocolos por medio físico cableado como Modbus, LonTalk, EIB/KNX, y DALI; este último es un protocolo de red dedicado al control de iluminación; así mismo se tienen protocolos por medio físico inalámbrico como ZigBee, En Ocean y NFC, entre otros. En un sistema de automatización de edificios o BAS, del inglés Building Automation System, la topología es jerárquica y se tiene un nivel superior, con un bus de comunicaciones principal, que comunica diferentes sistemas de control de alto nivel dedicados para un sistema en particular (páneles de alarma, grabadoras digitales de CCTV, páneles de control de iluminación, entre otros), sistemas más genéricos (servidores de bases de datos, servidores Web y PLCs, entre otros) y una serie de interfaces humano-máquina para permitir la interacción con los operarios. En este primer nivel de integración se usan protocolos verticales abiertos, como son los mencionados anteriormente: BACnet, LonTalk, Modbus, EIB/KNX, etc. Luego, aparece un nivel inferior con un bus de comunicaciones secundario o bus de campo; en ellos se interconectan dispositivos
de un nivel inferior dentro de cada sistema con sus respectivos controladores principales; estos dispositivos pueden ser: controladores de menor complejidad (controladores de zona, expansores de zona, controladores de acceso, etc.), dispositivos de entrada y salida (sensores, actuadores, cámaras, lectoras de tarjetas, etc.), interfaces de control locales (botoneras, pantallas táctiles, teclados, etc.). Estos dispositivos también son llamados elementos de campo. En resumen El objetivo final de un edificio automatizado es la sostenibilidad, la cual puede ser motivada por muchos factores, tales como la gestión del medio ambiente, el deseo de certificación de edificios verdes, o las promesas financieras de un menor costo de operación. No importa lo que impulse la sostenibilidad, la creación de sistemas de automatización y control puede contribuir en gran medida a su logro. Adicionalmente a los beneficios inherentes de un edificio inteligente, las mayores ventajas que se obtienen de la inmótica son: • Mayor eficiencia energética. • Menores costos de operación y mantenimiento. • Mejor calidad del aire al interior del edificio. • Mayor confort de los ocupantes y, a su vez, mayor productividad. Referencias [1] www.usgbc.org [2] www.usgbc.org leed certification [3] www.cccs.org.co [4] www.kmccontrols. com,Understanding_Building_ Automation_and_Control_ Systems.aspx [5] www.ashrae.org [6] www.bacnet.org 29 · El Mundo de la ingenieria electronica
Silicio
Silicio INGENIERÍA DE INSTRUMENTACIÓN Y CONTROL
¿QUÉ SON LOS BIOSENSORES? Los sensores que utilizan un elemento biológico como elemento primario de detección son conocidos como biosensores. Los biosensores se han consolidado en los últimos años en campos como la medicina, el análisis ambiental, la agricultura y la defensa, siendo todavía tema de actualidad en investigación. El desarrollo de biosensores involucra grupos de trabajo multidisciplinarios, en los cuales es importante la labor del ingeniero electrónico. Este artículo presenta una visión general del mundo de los biosensores, e ilustra algunas de las técnicas de medidas comúnmente usadas en ellos. Palabras Clave: Biosensor, Transductor, Analito, Amperometría, Fluorescencia.
Autor Juan Bernardo Cano Q.
Profesor Departamento de Ingeniería Eléctrica, Universidad de Antioquia. PhD en Sistemas Sensoriales y de Aprendizaje, Universita’ degli studi di Roma “Tor Vergata”. Ingeniero Electrónico, Universidad de Antioquia.
30 · El Mundo de la ingenieria electronica
Los biosensores son dispositivos que utilizan un elemento biológico sensible para obtener información del ambiente que los rodea. Este elemento (conocido como biomediador) puede estar conformado por ADN, organelos celulares, células completas, tejidos, anticuerpos, enzimas, etc., que tengan la capacidad de cambiar su comportamiento como reacción a un agente externo (analito). La definición de biosensor, según la IUPAC (International Union of Pure and Applied Chemistry), es: “a self-contained, integrated device that is capable of providing specific quantitative or semi-quantitative analytical information using a biological recognition element which is in direct spatial contact with a transduction element”. [1] Dicho cambio de comportamiento corresponde al cambio de una variable fisicoquímica, como pueden ser: el pH, la temperatura, la masa, las propiedades eléctricas (corriente, resistencia / impedancia), las propiedades ópticas (índice de refracción, luminiscencia, fluorescencia, etc.). Los cambios de esta variable pueden ser analizados con la utilización de un adecuado sistema de transducción, acondicionamiento de señal, digitalización y análisis de datos. El desarrollo de biosensores implica la interacción de especialistas en diferentes áreas del conocimiento. Desde las ciencias básicas como química y biología -necesarias para la selección, crecimiento y estabilización del material biológico, así como el análisis de sus interacciones con el analito- hasta los distintos campos de la ingeniería, como la electrónica (sistemas de transducción, acondicionamiento y digitalización de las señales), la mecánica (diseño de las celdas de reacción micro-fluídica) y la informática (análisis de datos). Esta interdisciplinariedad es uno de los mayores retos en el diseño de biosensores. Actualmente los biosensores son utilizados en variedad de
aplicaciones en los campos médicos [2], ambientales [3] [4], control de alimentos [5] [6] y bioseguridad. La primera, y tal vez la más difundida, aplicación es el Sensor de Glucosa, usado para el control “en casa” de pacientesdiabéticos; dicho sensor está basado en la medida de la corriente eléctrica (amperometría) generada durante una reacción enzimática. Fue propuesto en 1962 por Leland C. Clarke (considerado el padre de los biosensores) convirtiéndose en una realidad comercial en 1973 [1]. Los biosensores (y los sensores en general) se caracterizan en términos de: · Selectividad: Capacidad de reaccionar sólo a ciertos tipos de analitos, mientras que son insensibles a otros tipos. Normalmente se desean biosensores altamente selectivos (ejemplo: sensores basados en anticuerpos). · Sensibilidad: Relación de transferencia entre la variable sensada (concentración del analito) y su variable de salida (variable físico-química / señal eléctrica). Si la sensibilidad es constante sobre el rango de medida, se trata de un sensor lineal. · Limite de detección: Mínima concentración de analito que puede ser detectada por el sensor. Dependerá de la sensibilidad del sensor, así como de su nivel de ruido. · Repetibilidad: Capacidad del sensor para proporcionar siempre la misma respuesta ante el mismo estímulo. · Tiempo de respuesta: Tiempo necesario para obtener una medida estable una vez aplicada la muestra. · Pre-procesamiento de muestra: Procesos físico-químicos que se deben realizar sobre la muestra para poder realizar la medida. Los biosensores presentan varias ventajas respecto a las técnicas convencionales de análisis. Suelen ser más económicos y requerir procesos menos complicados para su elaboración, también pueden ser adaptados para el uso por usuarios finales con poco o ningún entrenamiento y, dependiendo del tipo de biomediador usado, pueden llegar a ser muy selectivos (siendo muy sensibles a ciertos tipos de analitos e insensibles a otros tipos, permitiendo la diferenciación). Sin embargo, también presentan varios inconvenientes: Tratándose de elementos biológicos, es de esperarse una menor repetibilidad y exactitud en la medida respecto a sensores convencionales; además, requieren cuidados especiales para mantener en óptimas condiciones el biomediador (temperatura, luz, nutrientes) y aun así son caracterizados por un corto tiempo de vida. Por estas características, los biosensores son utilizados en aplicaciones en las cuales es necesario realizar mediciones sobre una gran cantidad de muestras, sin exigencia de una gran exactitud en la medida; el principal interés, en estos casos, consiste en generar una pre-alarma cuando el valor de medida es anómalo, de modo que se requiere intervenir sólo en estos casos con análisis más detallados y, por ende, más costosos (pre-screening [3]). Como ya se mencionó, los biosensores pueden ser construidos con diferentes elementos biológicos y para diferentes métodos de transducción. A continuación se detallan algunos métodos de transducción, su teoría de funcionamiento y algunas aplicaciones. 2. TIPOS DE BIOSENSORES
31 · El Mundo de la ingenieria electronica
Silicio 2.1 BIOSENSORES AMPEROMÉTRICOS Estos biosensores son basados en la medida de la corriente eléctrica generada por procesos electroquímicos de oxidación / reducción en el biomediador. Las corrientes generadas normalmente se encuentran en el rango de centenas de microamperios hasta pocos nanoamperios, siendo necesario un adecuado sistema electrónico para su medida. El proceso para obtener un biosensor amperométrico se ilustra en la figura 1. La extracción consiste en una serie de procesos físicos o químicos realizados para obtener el biomediador a partir de un sistema biológico más complejo. Este proceso puede tratarse, por ejemplo, de la extracción de un organelo celular a partir de la célula entera, del aislamiento de enzimas o anticuerpos, etc. El proceso de inmovilización tiene como objetivo obtener un excelente contacto eléctrico entre el biomediador y el sistema de electrodos utilizado para la medición de la corriente, además de permitir una buena adherencia mecánica entre ellos. Existen varias técnicas de inmovilización, las cuales tienen una gran influencia en la vida útil y en la sensibilidad del sensor [7] [8] [9]. Los sistemas de electrodos más utilizados en biosensores son del tipo S.P.E. (Screen Printed Electrodes, fig. 1 centro). Este tipo de electrodos se obtiene mediante la impresión con una tinta conductiva sobre una base cerámica (plástica o baquelita). El proceso de fabricación facilita la miniaturización de los sensores, al permitir una gran flexibilidad en su forma y en sus dimensiones. Además, los bajos costos de producción de esta técnica facilitan la comercialización de este tipo de sensores [10]. El sistema más frecuentemente utilizado en biosensores amperométricos consta de tres electrodos, denominados Counter, Working y Reference (CE, WE, RE). La corriente circula entre los electrodos CE y WE, mientras que el electrodo de referencia (el cual tiene una alta impedancia de entrada para evitar el flujo de corriente a través de él) es mantenido a un potencial constante, necesario para la reacción de oxidoreducción (crono-amperometría). Fig.
ANÁLISIS DE LAS CORRIENTES MEDIDAS
2.1.1. BIOSENSOR ENZIMÁTICO El análisis de las corrientes medidas, con el fin de determinar la presencia o concentración del analito que se desea detectar, varía según el tipo de biomediador. Un biosensor enzimático [2] [6] [11] consiste en un S.P.E. con una enzima inmovilizada, un substrato y la muestra a analizar en solución líquida. Cuando la enzima entra en contacto con su ubstrato comienza a reaccionar y, si existe un adecuado potencial de oxido-reducción, a generar corriente; ésta se incrementa hasta alcanzar un valor de estado estable. Al agregar la muestra al sensor, si contiene un analito capaz de inhibir la actividad de la enzima, se evidenciará una reducción en la corriente. La reducción en la corriente puede ser usada para estimar la concentración del analito en la muestra. Normalmente, dicha reducción se expresa como un porcentaje de inhibición respecto a la corriente sin muestra (Ecuación 1, donde I0 representa la corriente en estado estable sin muestra e Ia la corriente en presencia de muestra).(1) [3]Un proceso de calibración permite obtener la relación entre porcentajes de inhibición y concentraciones del analito en la muestra. Esta relación, en la mayoría de los casos, es del tipo sigmoidal. 32 · El Mundo de la ingenieria electronica
Silicio 2.1.2. BIOSENSOR FOTOSINTÉTICO Otro tipo de biosensores amperométricos utiliza elementos fotosintéticos como biomediador. Estos elementos se caracterizan por generar una corriente como respuesta a un estímulo luminoso. La respuesta en corriente de este tipo de sensores se ilustra en la figura 3. Cuando el material fotosintético no está bajo el efecto de la luz, la corriente es mínima (base-line current). Al ser estimulado con luz, la corriente se incrementa como consecuencia del proceso de fotosíntesis (peak current, ecuación 2).
Si el material fotosintético se encuentra bajo la acción de un agente externo (analito, como puede ser un contaminante/herbicida [12]) que inhibe su actividad (un herbicida, por ejemplo), la corriente generada en respuesta a un estímulo luminoso será menor (proceso conocido como “quenching”). Matemáticamente se calcula como el porcentaje de inhibición de la corriente pico (ecuación 3).
Ya que el porcentaje de inhibición de la corriente pico puede ser usado para estimar la concentración del analito presente en la muestra, es posible modelar estos datos utilizando una regresión a una ecuación sigmoidal para realizar la calibración del sensor [7]. Es de anotar que en este tipo de sensores es necesario un tiempo de relajación (en total oscuridad) entre sucesivos pulsos de luz. Dicho tiempo debe permitir la total “descarga” del elemento biológico, es decir, su retorno a las condiciones iniciales. 2.2 BIOSENSORES ÓPTICOS Este tipo de biosensores se basa en la medida de las propiedades de la luz, como pueden ser su intensidad, su longitud de onda, su índice de refracción, etc. Existen diferentes tipos de biosensores ópticos: 2.2.1. BIOSENSORES BASADOS EN FLUORESCENCIA La fluorescencia consiste en la emisión de luz, por parte de un sustancia fluorescente, cuando es excitada por una fuente de luz de una longitud de onda específica. La luz emitida tiene una longitud de onda mayor (menor energía) que la longitud de onda de la luz de excitación. Para cada substancia fluorescente se define un espectro de excitación (absorción) como el conjunto de longitudes de onda que pueden iniciar el proceso de fluorescencia. Se define también un espectro de emisión como el conjunto de longitudes de onda que dicha sustancia puede emitir. La figura 4 ilustra el esquema básico para un biosensor basado en fluorescencia [13]. En él se observan una fuente luminosa, un contenedor para el biomediador, y un detector de luz integrado con un filtro de interferencia. La fuente luminosa, en la actualidad, se implementa con diodos emisores de luz (LEDs). Estos dispositivos son económicos, se caracterizan por una respuesta espectral bastante precisa,
33 · El Mundo de la ingenieria electronica
Silicio presentan un bajo consumo de energía, y facilitan su control por medio de sistemas electrónicos sencillos. El contenedor para el biomediador debe aislar el material biológico de cualquier tipo de luz de interferencia externa. Además, debe permitir el contacto del biomediador (normalmente en fase líquida, en algunos casos sólida) con la muestra a analizar, a través de entradas y salidas para fluidos. El filtro óptico es el encargado de separar la luz de excitación (longitudes de onda cortas), de la luz emitida por el biomediador (longitudes de onda largas), de modo que sólo esta última llegue al detector. Para esto se utilizan filtros de interferencia [14] que son fabricados con la superposición de elementos ópticos de diferentes coeficientes de refracción, de modo que se obtenga una atenuación alta o baja, dependiendo de la longitud de onda de la luz incidente. En fluorescencia se utilizan filtros del tipo ‘bandpass’ que permiten el paso sólo de una banda de longitudes de onda específicas, o ‘high pass’ que permiten el paso de longitudes mayores que un cierto valor. El detector es el dispositivo encargado de convertir la luz emitida en una señal eléctrica que pueda ser fácilmente procesada. Elementos comúnmente usados como detectores incluyen foto-diodos, foto-diodos de avalancha y foto-multiplicadores [15]. La fluorescencia ha sido utilizada en diversas aplicaciones a nivel biológico. Tal vez la aplicación más conocida consiste en el uso de “marcadores de fluorescencia” para la detección del ADN: un compuesto químico (Bromuro de etidio), conocido como marcador, aumenta su fluorescencia cuando entra en contacto con él [16]. Es común el uso de la fluorescencia en los inmuno-sensores. Este tipo de biosensores emplea anticuerpos como elemento de detección: los anticuerpos tienen la capacidad de adherirse (ligarse) selectivamente a ciertos analitos, y si el anticuerpo ha sido marcado previamente con Fig.4: Esquema de biosensor basado en fluorescencia una sustancia fluorescente (fluoróforo) será posible determinar la concentración de analito presente en una muestra a través de la intensidad de fluorescencia de ella [17]. También se reporta el uso de marcadores fluorescentes en reacciones enzimáticas que, en algunos casos, pueden considerarse una alternativa a la detección por amperometría [11]. FLUORESCENCIA DE ORGANISMOS FOTOSINTÉTICOS Los organismos fotosintéticos también se caracterizan por presentar emisión de fluorescencia. Parte de la energía luminosa capturada es transformada para ser utilizada por el organismo (energía química), el resto son pérdidas de energía en forma de calor o de fluorescencia. El espectro de absorción (excitación) para este tipo de biomediadores incluye casi todo el espectro visible, y su espectro de emisión presenta dos picos a 680 nm. y a 730 nm. [18]. En estos casos, la luz emitida presenta una respuesta transitoria. Si el biomediador se encuentra en oscuridad total y luego es estimulado luminosamente, generará una curva de Fluorescencia vs Tiempo, conocida como Curva de Kautksky [19] [20]. Dicha curva consiste en un rápido incremento (orden de picosegundos) a un valor conocido como fluorescencia basal o F0, y una serie de incrementos más lentos hasta llegar a un valor de fluorescencia máximo o Fm (normalmente después de varios cientos de milisegundos). La figura 5 ilustra las curvas de fluorescencia de un biomediador fotosintético (alga unicelular Chlamydomonas reinhardtii) en presencia de diferentes concentraciones del herbicida Linuron en agua. Es evidente cómo, para valores de tiempo cercanos a 10 ms, los niveles de fluorescencia se incrementan con mayores concentraciones del contaminante.
34 · El Mundo de la ingenieria electronica
Silicio Estos cambios en la forma de la curva pueden ser cuantificados extrapolando una serie de parámetros. Un parámetro comúnmente usado para la detección de herbicidas consiste en la normalización del punto a 10 ms para las fluorescencias máxima e inicial (ecuación 4): (4) [13]Otros parámetros pueden ser extraídos de la curva de fluorescencia. Algunos de ellos pueden ser utilizados para verificar el grado de estrés o de vitalidad del organismo, necesario para controlar los procesos de su crecimiento. 2.2.2. BIOSENSORES BASADOS EN BIOLUMINISCENCIA La bioluminiscencia consiste en la emisión de luz por parte de un material biológico. A diferencia de la fluorescencia, no es necesaria la presencia de una luz de excitación [21]. En la literatura se reportan diferentes aplicaciones que utilizan la bioluminiscencia de bacterias para aplicaciones biosensorísticas [22]. 2.2.3. BIOSENSORES BASADOS EN FIBRA ÓPTICA Las fibras ópticas son ampliamente utilizadas en el ámbito de las telecomunicaciones, siendo menos conocidas sus aplicaciones en el campo de los biosensores. La fibras ópticas están conformadas por núcleo y revestimiento, elaborados con materiales de diverso índice de refracción; la relación de dichos índices es tal que debe permitir la reflexión interna total. Es decir, una luz incidente sobre el núcleo -que respete un cierto ángulo máximo- se propagará a través del núcleo realizando reflexiones sucesivas en la interfaznúcleo-revestimiento. Su uso en el campo bio-sensorístico se basa en el concepto de campo evanescente [23]: Una pequeña porción de la onda atraviesa la interfaz núcleo-revestimiento y crea un campo electromagnético en este último. El campo evanescente puede interactuar con las moléculas presentes en el revestimiento: · Si existen elementos fluorescentes, el campo evanescente puede estimular su emisión, la cual será medida a través del núcleo de la fibra. · Otros elementos pueden modificar las características ópticas de la fibra, cambiando las características de reflexión, absorción, atenuación o polarización de la luz incidente. En una aplicación típica de biosensor basado en fibra óptica, el biomediador es inmovilizado sobre el revestimiento de la fibra. El núcleo es usado para inyectar la luz y medir el cambio en sus características (Figura 6).
Los biosensores basados en fibra óptica presentan la ventaja de que las señales ópticas sufren menos atenuación e inducción de ruido que sus contrapartes eléctricas, permitiendo mayores distancias entre las celdas de medida y los circuitos de detección, además de mayor integridad de la señal en entornos electromagnéticamente hostiles. Las fibras ópticas son de bajo costo y permiten la miniaturización de los sistemas, dado que una misma fibra puede ser usada con diferentes biomediadores a diferentes longitudes de onda. La principal desventaja de los sensores a fibra óptica y de los sensores ópticos en general radica en la necesidad de un excelente aislamiento de la luz ambiente, la cual puede enmascarar completamente las señales a medir y/o estimular inapropiadamente el elemento biológico. Es de anotar que existen algunas técnicas de fluorescencia (PAM, Modulación de Amplitud Pulsada) las cuales permiten la medida aun en presencia de luz ambiente [19]. 2.3 OTROS TIPOS DE BIOSENSORES En la literatura del tema existe una gran variedad de tipos de biosensores, por lo cual una explicación general de todos ellos superaría el alcance de este artículo. Un tipo de biosensor que merece ser mencionado es el Sensor Gravimétrico. Este tipo de sensor se basa en la medición de los cambios de masa en el biomediador. Es frecuentemente utilizado en inmunosensores, en los cuales el enlace entre un anticuerpo y suanalito produce un pequeño 35 · El Mundo de la ingenieria electronica
Silicio cambio de masa (del orden de nanogramos). Estos pequeños cambios de masa se detectan mediante microbalanzas de cuarzo, de modo que la frecuencia de oscilación del cuarzo dependerá de la masa depositada sobre él. Este tipo de transducción es usado en las “narices electrónicas” [24]. Otros tipos de biosensores incluyen la potenciometría (medida del voltaje), la medición de la conductividad, la medición de la temperatura, etc. 3. CONCLUSIONES La investigación y el desarrollo en biosensores han generado un gran interés en los últimos años, extendiendo cada vez más sus campos de aplicación y las técnicas de medida utilizadas. Como sucede para cualquier tipo de sensor, es de vital importancia el rol del ingeniero electrónico en la selección, la implementación y el acondicionamiento de un adecuado sistema de transducción y adquisición de datos. Diferentes variables físicas se ven involucradas en la medida con biosensores: la electricidad, la luz, la temperatura, la masa, etc. El desarrollo de sistemas electrónicos para esta aplicación debe tener en cuenta esta heterogeneidad, además de los problemas que pueden surgir al elaborar señales que en la mayoría de los casos son de pequeña magnitud. Los biosensores exigen un tratamiento multidisciplinario. Es necesaria la interacción de profesionales con diversas habilidades en los campos de ingeniería y ciencias con el fin de abordar los diferentes retos ligados al diseño e implementación de este tipo de sistemas. El éxito del trabajo de estos grupos de profesionales radicará en una buena comunicación que permita superar los diferentes lenguajes y formas de pensar imperantes en cada una de sus disciplinas. Una reflexión final: Y en nuestro país ¿qué desarrollos y/o aplicaciones se están dando en este campo? Considerando nuestro potencial en biodiversidad ¿existirán nuevos tipos de biosensores que puedan ser desarrollados?
Silicio 2011. [14] Edmund Optics, Optical Filters Optical Filter Fabrication Techniques.http://www.edmundoptics.com/ technical-support/optics/optical-filters/? &pagenum=2#techniques [15] Hamamatsu Photonics, Photodiode Technical Information. Available at:http://sales.hamamatsu.com/assets/applications/SSD/photodiode_technical_information.pdf [16] “Fluorescence and Fluorescence Applications” Integrated DNA Technologies. Available at: https://www.idtdna.com/pages/docs/technical-reports/fluorescence-and-fluorescence-applications.pdf [17] Moina Carlos, Ybarra G. “Fundamentals and Applications of Immunosensors” Availableat: dn.intechopen.com/pdfs/33741/InTech-Fundamentals_and_applications_of_immunosensors.pdf [18] Eullaffroy P, Vernet G. “The F684/F735 chlorophyll fluorescence ratio: a potential tool for rapid detection and determination of herbicide phytotoxicity in algae” on Water Research 37 (2003) 1983–1990 [19]R.J. Strasser, A. Srivastava and M. Tsimilli-Michael . “The fluorescence transient as a tool to characterize and screen photosynthetic samples.” Available at:http://www.hansatechinstruments.com/docs/ [20] Strasser, R.J., Merope T.- M., Srivastava, A., Analysis of the Fluorescence Transient. Available at: http://www.hansatech-instruments.com/docs/ [21] Saenz C, Nevárez G. “La bioluminiscencia de microorganismos marinos y su potencial biotecnológico.” Acta Química Méxicana, Número 3, 2010. [22] S.F. D’Souza. “Microbial Biosensores”. Biosensors and Bioelectronics 16 (2001) 337-353. Elsevier. [23] Marazuela M, Cruz M, “Fiber Optics Biosensors, an overview” Anal Bioanal Chem (2002) 372 : 664–682 Springer. [24]C Di Natale, A Macagnano, F Davide, A D’Amico, R Paolesse, T Boschi, M Faccio, G Ferri. “An electronic nose for food analysis”. Sensors and Actuators B: Chemical, Volume 44, Issues 1–3, October 1997, Pages 521–526. Elsevier.
4. REFERENCIAS [1] Turner A. “Biosensors: Past, present and future”. Cranfield University. 1996. Available at: http://www.cranfield.ac.uk/health/researchareas /biosensorsdiagnostics/index.html [2] Belluzo M.S., Ribone M. E. and Lagier C. M. 2009 Assembling Amperometric Biosensors for Clinical Diagnostics-Review Sensors 8, 1366-1399 [3] Buonasera K, Pezzotti G, Scognamiglio V, Tibuzzi A, Giardi MT. “New Platform of Biosensors for Prescreening of Pesticide Residues To Support Laboratory Analyses” Journal of Agricultural and Food Chemistry 2010, 58, 5982–5990. [4] Mozas S.R, Marco M-P, Lopez de Alda M.J., Barcelo D. Biosensor for environmental application: future development trends-Review 2004 Pure Appl. Chem. 76(4)723-752 [5] Scognamiglio V, Pezzotti G, Pezzotti I, Cano J, Buonasera K, Giannini D, Giardi M T. Biosensors for effective environmental and agrifood protection and commercialization: From research to market. Microchimica Acta, 170: 215-225, 2010. [6] Prodromidis M.I. and Karayannis M.I. 2002 Enzyme Based Amperometric Biosensors for Food Analysis-Review, Electroanalysis 14 (4) 241-261 [7] Touloupakis E and Pezzotti I. 2011 Comparison Of Two Photosynthetic Biomediators For Herbicide Detection, Revista Politécnica 13, 101-106. [8] Nunes, G. S. & Marty, J. L. 2006. Immobilization of Enzymes on Electrodes [9] Immobilization of Enzymes and Cells (Methods in Biotechnology). J. M. Guisan. Totowa, NJ, Humana Press Inc. :239. [10] Nascimento V, Angnes Lucio, “Eletrodos fabricados por “silk-screen”” Quim. Nova vol.21 no.5 Sao Paulo 1998 [11] Scognamiglio V, Pezzotti I, Pezzoti G, Cano J, Manfredonia I, Buonasera K, Arduini F, Moscone D, Palleschi G, Giardi M. “Towards an integrated biosensor array for simultaneous and rapid multi-analysis of endocrine disrupting chemicals”. Analytica Chimica Acta 751 (2012) 161-170. Elsevier. [12] Touloupakis E, Giannoudi L, Piletsky SA, Guzzella L, Pozzoni F, Giardi MT “A multibiosensor based on immobilized Photosystem II on screen-printed electrodes for the detection of herbicides in river water”. Biosensors and Bioelectronics 20(10):1 2005. [13] Cano J, Buonasera K, Pezzotti G.“New Platform Of Biosensors Based On Fluorescence Detection For Enviromental Applications” Revista Politécnica, Año 7, Número 13 124 -132, 36 · El Mundo de la ingenieria electronica
37 · El Mundo de la ingenieria electronica
Silicio
Silicio NUEVOS MATERIALES
ALGUNOS CONCEPTOS BÁSICOS
El grafeno
el material del siglo XXI una revis ión bibliográfica
Este artículo presenta una revisión del estado del arte reciente sobre el grafeno en revistas científicas. Muestra la tendencia de la investigación actual sobre este importante material y sus posibles aplicaciones. Se aprecia que la electrónica es uno de los campos donde el grafeno promete ser el material del futuro. En este momento, las principales potencias mundiales, las compañías electrónicas, las universidades y centros de investigación más importantes del planeta, están empeñados en una carrera para obtener lo mejor de este material.
La ciencia de los materiales establece que el estado sólido presenta la mayoría de veces, una organización estable y repetitiva que se denomina estructura cristalina, no siendo limitante que en algunas ocasiones se puede presentar también un estado desorganizado o amorfo. Varios átomos y compuestos en el estado sólido pueden formar diferentes estructuras cristalinas (figuras diversas). Cuando esto sucede a cada estructura cristalina se le denomina “un alótropo”. Las propiedades de un material dependen del tipo de estructura formada. El átomo de carbono es un caso especial en la naturaleza, puede formar un sinnúmero de estructuras cristalinas o alótropos y también estructuras amorfos. Entre los alótropos se destacan el diamante, los fullerenos Figura 1 el grafito Figura 2, los nanotubos Figura 3 y 4, los nanobuts figura 5 (fullerenos combinados con nanotubos), el grafeno Figura 6, la fibra de carbono y las nanoespumas. En la química inorgánica forma materiales amorfos combustibles tan importantes como los carbones vegetales y minerales, los carbones vítreos especiales y las nanofibras (todoellos sin estructura cristalina). Si fuera poco lo anterior, forma otra gran cantidad de compuestos inorgánicos y orgánicos como los polímeros.
Abstract This article presents a review of recent state of the art in scientific journals about graphene. It shows the trend of current research on Autor Efrén Giraldo Toro
Msc. Gestión Energética Industrial Docente de cátedra, Instituto Tecnológico Metropolitano ITM Investigador Grupo Tesla, Universidad de Antioquia, Medellín, Colombia hegiraldo@gmail.com
Autor Esdras Nahun Quintero
MSc Gestión Energética Industrial, Instituto Tecnológico Metropolitano ITM Docente Tiempo Completo Institución Universitaria Salazar y Herrera
38 · El Mundo de la ingenieria electronica
this important material and its possible applications. Electronics is one of the fields where the graphene promises to be the material of the future. Now, the major world powers, the electronic multinationals, the main universities and major research centers in the world, are engaged in a race to get the best of this material. Palabras clave: grafeno, material bidimensional,
Introducción A decir de los creadores del grafeno Konstantin Novosiólov y Andrei Guein quienes ganaron el premio Nobel en 2010 por su descubrimiento, es el material más fino y fuerte conocido hasta el momento. Los portadores de carga exhiben una alta movilidad intrínseca y pueden viajar varios micrómetros sin dispersión. Presenta densidad de corriente seis veces mayor que la del cobre, es impermeable a los gases y puede ser a la vez altamente dúctil y frágil, cualidades combinadas casi imposibles en un material. Presenta alta solidez, flexibilidad y muy estable en el medio ambiente. Sus propiedades mecánicas sobrepasan en mucho las de los otros materiales como el acero. Tiene excepcionales propiedades fotónicas y óptico-electrónicas. En resumen promete ser el material maravilla del siglo XXI. Y lo más importante: abrió el campo de investigación a sus congéneres los materiales bidimensionales y los heteromateriales.
Figuras 1 a 6. Diferentes estructuras cristalinas del carbono o alótropos. Cada alótropo presenta propiedades y características diversas. Fuente:http://www.jccanalda.es/jccanalda_doc/jccanalda_ciencia/quimica/articulos-quimica/carbono-1. htm
39 · El Mundo de la ingenieria electronica
Silicio Un corto repaso de física y química ayuda refrescar conceptos importantes. El carbono tiene cuatro electrones en su último nivel, lo que en términos sencillos equivale a cuatro maneras a través de las cuales puede enlazarse consigo mismo o con átomos diferentes para formar además de los materiales mencionados, otra inmensa cantidad de alótropos o compuestos como por ejemplo los polímeros. Logra así obtener los ocho electrones que le dan estabilidad energética. Los electrones giran alrededor del núcleo en regiones denominadas orbitales. En cada orbital puede haber máximo dos electrones. Los orbitales presentan diferentes formas: la s esférica, la p como especies de bombas ovoides alargadas de piñatas, unidas por un vértice común Figuras 7 y 8, la d y la f más complejas.
Figura 7. Se observan los ángulos de 120° entre los orbitales sp2 híbridos los cuales están situados en el plano de la lámina del grafeno. Figura 8. La “piñata electrónica”. Los tres orbitales híbridos sp2 (color gris) donde se pueden alojar dos electrones en cada orbital. Se aprecia el orbital p sin hibridizar (color verde) donde igualmente se pueden alojar dos electrones. Fuente de las dos figuras: http://www.textoscientificos.com/quimica/organica/hibridacion-carbono Algunas veces por requerimientos energéticos especiales, cuando el átomo de carbono se enlaza consigo mismo o aun con átomos diferentes, los electrones giran en nuevas regiones creadas para tal fin, conocidas como híbridos por presentar una forma diferente de la inicial s y p. De los cuatro electrones de un átomo de carbono del último nivel, tres se unen en estos orbitales híbridos por enlace covalente doble a tres electrones de otro átomo de carbono. Por tanto este enlace es muy fuerte. Estas regiones diferentes se denominan sp2, s por el orbital inicial s, p por los orbitales iniciales p y 2 por los dos orbitales p anteriores involucrados Figuras 8 y 9. El sp2 presenta por tanto tres orbitales híbridos creados cuando un átomo de carbono se une a otro, y se denominan enlaces σ . El cuarto electrón se une al cuarto electrón de otro átomo de carbono en orbitales no híbridos p llamados π . Este enlace covalente es más débil y permite que el grafeno sea conductor.
Figura 9. Figura resultante de la unión de átomos de carbono. Tres enlaces dobles de un átomo de carbono al unirse con otros tres átomos del mismo elemento (orbitales superpuestos o translapados sp2). Orbital p no híbrido traslapado. Fuente: http://aulas.iesjorgemanrique.com/calculus/hidrogeno/hibridos/orbitales_hibridos.html 40 · El Mundo de la ingenieria electronica
Silicio
En la Figura 9 toda la zona negra central externa (forma similar a dos sofás) es un solo orbital p no híbrido formado por la translapación de dos orbitales p. En la zona azul se formarían figuras similares al unirse estos átomos de carbono a otros. FORMA BIDIMENSIONAL DEL GRAFENO En el grafeno de la Figura 10 seis átomos de carbono forman una estructura cristalina hexagonal de una sola capa, la cual no se repite en forma tridimensional como la mayoría de materiales conocidos sino en dos dimensiones. Más específicamente su forma es bidimensional ondulada, muy similar a una red de pesca. Esta estructura bidimensional es la que le otorga al grafeno sus propiedades excepcionales. La importancia del grafeno radica en que fue el primer material bidimensional que se obtuvo a nivel físico. Y fue lo que le valió a Novosiólov y a Guein el premio Nobel de física en 2010. Este material abrió en campo para el estudio de la familia de los materiales bidimensionales con iguales o superiores propiedades.
Figura 10. Esquema de red bidimensional cristalina de una sola capa de átomos de carbono, formada a partir de la figura básica o celda hexagonal, muy afín a estos átomos. Fuente: http://lacienciainsolita. blogspot.com/2012/01/grafeno-el-nuevo-material-conductor.html Con este material sucedió algo parecido a al descubrimiento de la tabla periódica por Mendeleyev. Antes de lograr producirlo a nivel físico ya se conocían sus posibles propiedades. El grafito, fue estudiado desde hace tiempo atrás por los investigadores del estado sólido. Al investigar el grafito que está compuesto por muchas capas similares al grafeno, se investigó teóricamente la posibilidad de una sola capa de átomos de carbono. Algunos físicos teóricos como Piers (1934) y Landau (1937) llegaron a sostener que tal material no podría existir, pues sería completamente bidimensional (sin espesor) y al vibrar sus átomos, la lámina se plegaría y arrugaría sobre sí misma, y siendo inestable terminaría por destruirse. Sin embargo según Carlsson, (2007) el grafeno es estable porque sus vibraciones se amortiguan en ondulaciones parecidas a las de la Figura 1 con amplitudes de 1 nanómetro a lo largo de la red. También Fasolino y Katsnelson, (2007) corroboraron lo anterior.
LAS PROPIEDADES DEL GRAFENO Otra característica sorprendente de este material es que sus propiedades se ven afectadas en gran medida por el material que le sirve de sustrato. O en otras palabras, sus propiedades cambian 6 según el material en el que esté apoyado. Es como si existiera una hoja de papel, la cual cambia sus propiedades cada vez que se coloca sobre una superficie diferente. La interface entre dos materiales (la superficie de contacto) influye grandemente sobre la interacción entre ellos y las propiedades resultantes. En el caso del grafeno la interface es el mismo grafeno que interacciona directamente con el sustrato. Esto debido a que el grafeno está compuesto por la unión de átomos individuales en un solo plano horizontal, y por tanto los átomos y sus electrones del último nivel pueden interactuar fácilmente con los del sustrato, sin capas de átomos extras que apantallen e intervengan. El campo eléctrico de los átomos del sustrato afecta fuertemente al de los carbones del grafeno y propiedades tales como la conductividad eléctrica y la reactividad química se ven afectadas en gran medida. Así por ejemplo, cuando el sustrato es dióxido de silicio, el grafeno se comporta frente a ciertos agentes químicos de cierta modo, y de manera diferente cuando está en contacto con nitruro de boro. Esto da la posibilidad de usar el grafeno como interruptor para interactuar según se requiera. Lo cual a su vez permitiría micro-sensores para detectar rastros biológicos o 41 · El Mundo de la ingenieria electronica
Silicio químicos. Esto según el equipo investigador del Instituto Tecnológico de Massachusetts (MIT) Zhang, Tao, Bo, Li, Hu, Wang, (2013). EL GRAFENO Y LAS BANDAS ELECTRONICAS Las bandas electrónicas permiten definir al grafeno como un material con muy buenas propiedades conductoras. Las bandas de conducción corresponden a los denominados conos de Dirac Figura 11. El cono inferior es la banda de conducción y la superior es la banda de valencia. Figura 10. Esquema de red bidimensional cristalina de una sola capa de átomos de carbono, formada a partir de la figura básica o celda hexagonal, muy afín a estos átomos. Fuente: http://lacienciainsolita.blogspot.com/2012/01/grafeno-el-nuevomaterial-conductor.html Con este material sucedió algo parecido a al descubrimiento de la tabla periódica por Mendeleyev. Antes de lograr producirlo a nivel físico ya se conocían sus posibles propiedades. El grafito, fue estudiado desde hace tiempo atrás por los investigadores del estado sólido. Al investigar el grafito que está compuesto por muchas capas similares al grafeno, se investigó teóricamente la posibilidad de una sola capa de átomos de carbono. Algunos físicos teóricos como Piers (1934) y Landau (1937) llegaron a sostener que tal material no podría existir, pues sería completamente bidimensional (sin espesor) y al vibrar sus átomos, la lámina se plegaría y arrugaría sobre sí misma, y siendo inestable terminaría por destruirse. Sin embargo según Carlsson, (2007) el grafeno es estable porque sus vibraciones se amortiguan en ondulaciones parecidas a las de la Figura 1 con amplitudes de 1 nanómetro a lo largo de la red. También Fasolino y Katsnelson, (2007) corroboraron lo anterior. LAS PROPIEDADES DEL GRAFENO Otra característica sorprendente de este material es que sus propiedades se ven afectadas en gran medida por el material que le sirve de sustrato. O en otras palabras, sus propiedades cambian según el material en el que esté apoyado. Es como si existiera una hoja de papel, la cual cambia sus propiedades cada vez que se coloca sobre una superficie diferente. La interface entre dos materiales (la superficie de contacto) influye grandemente sobre la interacción entre ellos y las propiedades resultantes. En el caso del grafeno la interface es el mismo grafeno que interacciona directamente con el sustrato. Esto debido a que el grafeno está compuesto por la unión de átomos individuales en un solo plano horizontal, y por tanto los átomos y sus electrones del último nivel pueden interactuar fácilmente con los del sustrato, sin capas de átomos extras que apantallen e intervengan. El campo eléctrico de los átomos del sustrato afecta fuertemente al de los carbones del grafeno y propiedades tales como la conductividad eléctrica y la reactividad química se ven afectadas en gran medida.
42 · El Mundo de la ingenieria electronica
Silicio Así por ejemplo, cuando el sustrato es dióxido de silicio, el grafeno se comporta frente a ciertos agentes químicos de cierta modo, y de manera diferente cuando está en contacto con nitruro de boro. Esto da la posibilidad de usar el grafeno como interruptor para interactuar según se requiera. Lo cual a su vez permitiría micro-sensores para detectar rastros biológicos o químicos. Esto según el equipo investigador del Instituto Tecnológico de Massachusetts (MIT) Zhang, Tao, Bo, Li, Hu, Wang, (2013). EL GRAFENO Y LAS BANDAS ELECTRONICAS Las bandas electrónicas permiten definir al grafeno como un material con muy buenas propiedades conductoras. Las bandas de conducción corresponden a los denominados conos de Dirac Figura 11. El cono inferior es la banda de conducción y la superior es la banda de valencia.
Figura 11. Las bandas de conducción del grafeno o conos de Dirac se tocan en los puntos K´ y K. Muestran la relación de dispersión para un electrón en el grafeno. En el punto de intersección de los dos conos se da el plano horizontal de la energía de Fermi. Esta disposición de los conos de Dirac hace del grafeno un material mal semiconductor, pues no hay una zona prohibida o gap para que los electrones puedan dar el salto cuántico de la zona de valencia a la de conducción. Esto se ha solucionado mediante dopaje (Naumin, 2007), radiación electromagnética u otros sistemas especiales (Zhang, Tang, Girit, Hao, Martin, Zettl, Crommie, Shen, Wang, 2009). Bajo estas condiciones este material tiene portadores de carga conformados por huecos y electrones y presenta la posibilidad de cambiar el tipo de carga eléctrica de forma continua, controlada y alta velocidad. Es de anotar que los electrones en el grafeno son fermiones de Dirac sin masa con alta movilidad a temperatura ambiente y transporte balístico a escala de 1 nanómetro a temperatura ambiente. Que no tengan masa implica que no cumplen la ecuación de la mecánica cuántica de Schodringer y si la de Dirac. La dinámica de los electrones corresponde a las de “cuasipartículas” de masa efectiva nula. Presentan el efecto Hall cuántico fraccionario a temperatura ambiente. Son precisamente estas características y la alta calidad de la red cristalina las que hacen este material especialmente prometedor para aplicaciones en la electrónica (Geim, 2009). EFECTOS EN LA RED CRISTALINA Y MULTICAPAS Es estudio de los materiales ha demostrado que los defectos de la red cristalina (falta de átomos en algún sitio o vacancias, exceso de átomos en un lugar, átomos que no siguen el patrón de red, malformaciones de red llamadas dislocaciones, impurezas, etc.) y su concentración, tienen alta incidencia sobre las propiedades de un material dado. En caso del grafeno contario a lo que se pensaba, presenta alta calidad cristalina (menos de un defecto por milímetro cuadrado) (Geim y
43 · El Mundo de la ingenieria electronica
Silicio
Silicio Novoselov, 2007) Además de formar capas únicas de átomos de carbono, se logró unir eléctricamente capas de grafeno entre sí, y cambiar el tipo de cargas a voluntad. También presenta la existencia del efecto Hall cuántico semientero (Geim y Novoselov, 2007). No obstante, el camino no está completamente despejado. Debido al espesor nanométrico, el grafeno es transparente y solo absorbe el 3% de la luz sin generar corriente eléctrica. Un equipo científico dirigido por Geim y Novosiólov en la universidad de Manchester insertó en el material cintas nanométricas de titanio y oro, lo cual aumentó la opacidad en 20 veces. Como resultado en las placas aparecieron las oscilaciones de los electrones que permitieron absorber y emitir energía en forma de ondas de luz. Igualmente la conductividad del grafeno aumentó 3,5 veces más que la del silicio y la habilidad del grafeno para la detección a alta velocidad. Todo ello permite el desarrollo de sensores químicos, transistores, artefactos y materiales compuestos nano-electro-mecánicos, paneles solares y dispositivos ópticos de alta eficiencia para la transmisión de datos. CIRCUITOS INTEGRADOS DE GRAFENO Para continuar con la fabricación de computadoras más poderosas en el futuro, se requiere que la electrónica realice tareas lógicas simples y complejas a velocidades cada vez más rápidas. Los chips convencionales tienen limitaciones de velocidad, lo cual se conoce como la movilidad del portador. El grafeno podría entrar solo o en combinación con silicio u otros materiales y resolver este problema. Un adelanto importante fue el logrado por investigadores de la IBM que crearon en el 2011 un segundo circuito integrado con transistores de grafeno, que funciona a una frecuencia de 150 GHs y soporta temperaturas hasta 125 °C (ya habían creado el primero a 100 GHs en el 2010). Es un solo transistor de grafeno con un par de inductores integrado en una pastilla de carburo de silicio. Esto permitiría crear sistemas de comunicación más rápidos, mejorar la señal de los celulares, optimizar las imágenes médicas, purificar las aguas, aplicación en paneles fotovoltaicos, etc. (Lin, Valdez, Hang, Farmer, Meric. Sun, Wu, Dimitraukopolus, Grill, Avouris, Keith, 2011). Otro avance importante en los transistores de grafeno se logró por científicos del Ressenlaer Politechnic en USA, cuando expusieron películas de grafeno a la humedad bajo condiciones controladas. El agua adsorbida creó una banda prohibida en un lado de la monocapa de grafeno. Se ajustó con precisión la banda en el intervalo de valores entre 0 y 0,2 electrón voltios. Se logró que el proceso fuera reversible. El grafeno tiene la posibilidad de resolver a corto plazo los problemas de conectividad, almacenaje y transferencia de calor. Por tanto es posible hacer los computadores más pequeños, más rápidos, de tal manera que una simple Tablet podría tener la capacidad de procesamiento y memoria de toda una red de computadoras. (Yavari, Kritzinger, Gaire, Song, Gulapalli, Borca, Ajayan, Koratkar, 2010). MEMORIA DEL GRAFENO Investigadores suizos de la Escuela Politécnica de Lausanne, crearon una memoria combinada de grafeno y molibdenita (sulfuro de molibdeno Mo S2 ). Al igual que el grafeno la molibdenita también se logró producir bidimensionalmente. De ahí sus propiedades especiales iguales o superiores a las del grafeno. El hecho es que los dos materiales 44 · El Mundo de la ingenieria electronica
solos o combinados prometen desarrollos extraordinarios en la electrónica. Cuando están juntos forman una sinergia especial, las monocapas de molibdenita presentan propiedades semiconductoras únicas, y el grafeno alta conductividad, lo cual permitió construir un dispositivo bidimensional almacenador de información. Se creó una energía de banda ideal en la estructura electrónica del grafeno (Bertolazi, Krasnozhon, Kis. 2013).
permitiría pasar de un estado ligado a otro desligado, lo que equivale a 0 y 1 digitales, no se podría utilizar como inversor. Hasta ahora se hacía dopando al silicio. Investigadores de la universidad de Pardue crearon un inversor de grafeno que funciona a temperatura ambiente. Lo lograron empleando una técnica denominada dopaje electrostático que emplea un campo eléctrico generado por dos electrodos situados a 40 nanómetros del grafeno.
Figura 12. Esquema de la memoria lograda. Fuente: Bertolazi, Krasnozhon y Kis (2013). LA PRODUCCION DEL GRAFENO Uno de los problemas que han tenido los investigadores del grafeno es su alto costo de producción. Parece ser que ahora este problema se resolvió. Un grupo de científicos de la Universidad del Norte de Illinois descubrieron un método para producir grafeno a partir de dióxido de carbono. Quemaron magnesio metálico puro en presencia de hielo seco. De este modo lograron producir capas de grafeno. Todo indica que el método es ecológico, muy económico y seguro (Chakrabarti, Lu, Skrabutenas, Xu, Xia, Maguirre, Hosmane, 2011).
EFECTO AUTOREFRIGERANTE Uno de los inconvenientes de los actuales chips de silicio es el calor generado en el proceso. Todos sabemos que nuestros computadores de escritorio y los portátiles incorporan ventiladores para disipar el calor liberado. Si ellos estos equipos no se pueden usar. La velocidad y el tamaño de los chips dependen de cuánto calor pueden disipar. Los computadores fabricados con transistores de grafeno, serían más rápidos, su imagen más nítida y prácticamente no se calentarían. Ello debido al efecto termoeléctrico del grafeno. Investigadores de la universidad de Illinois William King y Eric Pop descubrieron que en los puntos de contacto del grafeno con el metal la temperatura en vez de aumentar, desciende, lo cual hace que disminuya la temperatura en todo el transistor. Esto resolvería el problema de transferencia de calor en los circuitos y ahorría mucho dinero y dolores de cabeza. http://news.illinois.edu/ news/11/0404graphene_ WilliamKing_EricPop.html SENSOR OPTICO DE GRAFENO En la universidad de Nanyang en Singapur un grupo de investigadores han desarrollado un sensor de grafeno que capta mil veces más la luz y emplea
INVERSOR DE GRAFENO Un inversor es un dispositivo esencial para que los transistores puedan ampliar su señal o controlar la conmutación entre 0 y 1. Como el grafeno no tiene banda prohibida o gap lo cual le
menos de 10 veces energía. Es el primer sensor en detectar luz de amplio espectro que va desde lo visible al medio infrarrojo con alta sensibilidad. Lograron atrapar un tiempo mayor electrones generados por la luz, lo cual resultó en una señal eléctrica más fuerte. El desarrollo tiene aplicaciones en todo tipo de cámaras, en la comunicación de imágenes comunes y satelitales, en medicina y militares. Se estima que su masificación disminuirá los costos cinco veces (Zhang, Tao, Bo, Li, Hu, Wang, 2013).
Figura 13. El professor Wang Qijie y el estudiante de doctorado Liu Tao observando el nuevo grafeno naoestuctruado en la Universidad Tecnológica de Nanyang. Fuente: Zhang, Tao, Bo, Li, Hu, Wang, (2013). Tanta expectativa ha creado el grafeno que la Unión Europea destinó 1000 millones de euros para investigación de este material. Con razón se le llama el material de las posibilidades infinitas. Si las tendencias de las investigaciones actuales continúan, las características de este material permitirán posiblemente diseñar artefactos más eficientes y ligeros que los actuales: Computadoras a gran frecuencia y de tamaño reducido Pantallas táctiles ultra-delgadas y sensibles Cables ópticos de alta velocidad Cables de ultra-alta resistencia Súper baterías Audífonos de ultra-alta fidelidad Súper cámaras fotográficas Polímeros conductores Pintura para casas que absorbe energía Paneles solares ecológicos y eficientes Ropa inteligente y súper protectora Descontaminación de fuentes alteradas por radiación y otras. Aplicaciones en el área de la salud y medicamentos. Bibliografía Bertolazi, S. Krasnozhon, Kis, A. (2013). Nonvolatile Memory Cells Based on MoS2/Graphene Heterostructures. (2013). ACS Nano, 2013, 7(4) pp 46-52. DOI: 10.1021/nn3059136 Carlsson, J.M. (2007). “Graphene: Buckle or break”. Nature Materials 6, 801. Chakrabarti, A., Lu, J., Skrabutenas, JC., Xu, T., Xia, Z., Maguirre,JA., Hosmane, Ns. (2011). Conversión of carbon dioxide to few layer graphene. Journal of Materials Chemistry. No 21. pp 491-493 Dimitraukopolus, Cr., Grill, A., Avouris, Ph., Keith, A. (2011).Wafer scale grapheme integrated circuit. Jenkins Science. Vol. 332, No 6035, pp. 1294-1297. Doi:10.1126/science.1204428 Echtermeyer, T.J., Britnell, L., Jasnos, P.K., Lombardo, A., Gorbachev, R.V., Fasolino, A. J.H. Los y M.I. Katsnelson. (2007). Intrinsic ripples in 45 · El Mundo de la ingenieria electronica
Silicio graphene. Nature Materials 6, 858 Geim, A., K. (2009). Graphene: status and prospect. Science (New York, NY) 2009 Vol.: 324 (5934) :1530-1534 DOI: 10.1126/science.1158877 Geim, A., and Novoselov, K.(2007). The rise of graphene. Nature Materials. Vol. 6. pp 183-191 (2007). Doi:10.1038/nmat1849 Gonzales, J. Herandez, M., Guinea, F. (2010). Electrónica del grafeno. Investigación y ciencia. No 408. Septiembre de 2010. Grigorenko, A.N., Geim, A. K., Ferrari, A.C, & Novoselov, K.S. (2011). Strong plasmonic enhancement of photovoltage in grapheme. Nature Communications. VL. 2. No 458. Ag. 2011. Landau, L. D. (1937). Phys. Z. Sowjet Union Vol. 11, pp. 26. Lin, Y.,Valdez, A., Hang, S., Farmer, D., Meric. I., Sun, Y., Wu, Y., López, F y Naumis. (2010). Graphene under perpendicular incidence of electromagnetic waves: Gaps and band structure. Philosophical Magazine. Vol. 90, No21 pp. 2977-2988 (2010). DOI: 10.1080/14786431003757794 Naumis, G. (2007). Internal mobility edge in doped graphene: frustration in a renormalized lattice, Physic Review Vol. 76 (2007). Novoselov, K. S., A. K. Geim, S. V. Morozov D. Jiang, Y. Zhang, S. V. Dubonos, I. V. Grigorieva, A. A. Firsov. (2004), Electric Field Effect in Atomically Thin Carbon Films, Science 306, 666 (2004). Novoselov,K., S., D. Jiang, F. Schedin, T. J. Booth, V. V. Khotkevich, S. V. Morozov y A. K. Geim, Twodimensional atomic crystals, Proc. Nat. Acad. Sc. 102, 10451 (2005) Peirls, R.E, Bemerkungen uber Umwandlungstemperature, Helv. Phys. Acta 7, 81-83 (1934). Du, X., Skachko,I., Duerr, F. Luican,A., Andrei, E. (2009). Fractional quantum Hall effect and insulating phase of Dirac electrons in graphene, Nature 462: 192-195, 12 Nov. 2009, y Kirill I. Bolotin, Fereshte Ghahari, Michael D. Shulman, Horst L. Stormer, Philip Kim, Observation of the fractional quantum Hall effect in graphene, Nature 462: 196-199, 12 Nov. 2009. Tielrooij, K. Song, J.,Jensen, S., Centeno, A., Pesquera, A., Zurutuza, A., Bonn, M., Levitov, L., Koppens, F. (2013). Photoexcitation cascade and multiple hot carrier generation in graphene. Nature Physics. Vol. 9. pp. 248-252, 2013. Doi:10.1038/nphys2564 Yavari, F., Kritzinger, C., Gaire, C., Song, L., Gulapalli, H., Borca-Tasciuc, T., Ajayan, P. M. and Koratkar, N. (2010), Tunable Bandgap in Graphene by the Controlled Adsorption of Water Molecules. Small, Vol. 6. pp. 2535–2538. Doi: 10.1002/smll.201001384 Zhang, Z., Tang, T., Girit, G., Hao, S., Martin, M., Zettl, A., Crommie, M., Shen, Y., Wang, F. (2009). Direct observation of a widely tunable bandgap in bilayer grapheme. Nature. Vol. 459. pp. 820-823. Doi:10.1038/nature08105 Zhang, Y., Tao, L., Bo, M., Li, X., Hu, X., Wang, Q. J. (2013). Broadband high photoresponse from pure monolayer graphene photodetector. Nature Communications Vol. 4. Article number 1811 de 2013. Doi:10.1038/ncomms2830. ( El grafeno y sus propiedades especiales. Francisco Guinea. Instituto de Ciencia de Materiales de Madrid, Consejo Superior de Investigaciones Científicas, Sor Juana Inés de la Cruz 3. 28049 Madrid. http://www.gecarbon.org/Boletines/articulos/boletinGEC_019_art.2.pdf “El uso del grafeno en el mundo de la electrónica no sólo se limita a la fabricación de los procesadores de próxima generación, sino que también podría ser utilizado en un futuro cercano en la fabricación de pantallas táctiles con una vida útil casi ilimitada, a un bajo costo y bastante flexibles.” “Se trabaja con la posibilidad de que el grafeno sea la solución para la construcción de este tipo de ordenadores mediante el desarrollo de microprocesadores que puedan soportar todas las pruebas a que se verán sometidos los mismos por el número de operaciones que tendrán que realizarse en su producción y funcionamiento. Su dureza, resistencia a las variaciones de temperatura, densidad, elasticidad... etc., van a convertir a este material en un elemento esencial.” El grafeno es un material flexible de moléculas de grafeno que se lograra implementar en el futuro como un material de calidad y resistencia en cuanto a la transmisión de la información. llega a procesar datos diez veces mas rápido, el tiene una dimensión como de un pelo y dur Video http://grafenoktabrc.blogspot.com/ El grafeno en polvo se utiliza en aplicaciones que requieren un material más barato, como composite para construcción (se suele mezclar con otros materiales). “El proceso de producción de grafeno en formato polvo básicamente parte del grafito como materia prima y consiste en realizar una oxidación violenta y 46 · El Mundo de la ingenieria electronica
Silicio un proceso de ultrasonificación para separar las pequeñas láminas de grafeno que componen el grafito”, explica Jesús de la Fuente. Una membrana a base del novedoso material nanotecnológico grafeno, descubierto por físicos de origen ruso, mostró capacidades inesperadas: puede ser utilizada para destilar alcohol. Texto completo en: http://actualidad.rt.com/ciencias/view/38501-El-material-nanotecnol %C3%B3gicografeno,-ahora-empleado-para-hacer-un-vodka-mas-fuerte http://actualidad.rt.com/ciencias/view/38501El-material-nanotecnol %C3%B3gico-grafeno,-ahora-empleado-para-hacer-un-vodka-mas-fuerte Konstantín Novosiólov y Andréi Gueim, Cuando se mezcla con los plásticos, puede convertirlos en conductores de electricidad y hacerlos más resistentes al calor y a la fricción mecánica. Esta resistencia podrá ser utilizada en nuevos materiales. En el futuro, indica el comité Nobel, “los satélites, los aviones y los automóviles podrán ser fabricados de materiales nuevos basados en grafeno”. Texto completo en: http://actualidad.rt.com/ciencias/view/17880-Dos-investigadores-rusos-Nobel-de-F %C3%ADsica-2010-por-estudio-sobre-grafeno Un grupo internacional de científicos encabezado por dos investigadores de origen ruso, Andre Geim y Konstantín Novosiólov, Premios Nobel de Física 2010, desarrollaron un nuevo material, el fluorografeno, que tiene características similares a las del teflón y es capaz de aguantar temperaturas de hasta 400 grados Celsius, informó esta semana la revista Small. Texto completo en: http://actualidad.rt.com/ciencias/view/19496-Fluorografeno %2C-nuevo-materialinventado-por-f%C3%ADsicos-rusos http://actualidad.rt.com/ciencias/view/19496-Fluorografeno%2Cnuevo-material-inventado-por-f %C3%ADsicos-rusos ntonces se obtuvo el fluorografeno, un derivado del grafeno con un átomo de flúor incorporado a cada átomo del carbón. El fluorografeno ‘heredó’ la solidez mecánica del grafeno pero, a diferencia de su ‘progenitor’, no es conductor de la electricidad. Además, es muy resistente a las altas temperaturas y puede soportar el calentamiento hasta los 400 grados centígrados, incluso en el aire. La nueva sustancia puede ser utilizada en la electrónica para la fabricación de aislantes superfinos. Al igual que el grafeno, es transparente por lo que podrá tener uso en la producción de pantallas LED y dispositivos ópticos. Texto completo en: http://actualidad.rt.com/ciencias/view/19496-Fluorografeno %2C-nuevo-materialinventado-por-f%C3%ADsicos-rusos Texto completo en: http://actualidad.rt.com/ciencias/view/19496Fluorografeno%2C-nuevo-material-inventado-por-f%C3%ADsicos-rusos
47 · El Mundo de la ingenieria electronica
Silicio
Silicio
CIRCUITO ABIERTO. GERENCIA Y EMPRESA
INTELIGENCIA DE NEGOCIOS La información llevada a su punto más alto ABSTRACT Pass through files saving, data storage, information processing, analyze historical records to information management are important advances from the beginning the personal computer in the 80’s, however, for now days small and big enterprises need information smart tools for strategic judgments of high directors. Evaluate new challenges, bring in other products and services, optimize the service portfolio and set up strategic alliances are the only ways to remain in a competitive market and preserve a self-sustainable business. For these analytical resolution rise up “Business Intelligence” as a part and evolution of database management to help CEOs, administrators and process directors to analyze information (not to make up), knowledge manage and take strategic decisions.
Autor Vladimir Montaño Orrego
Ingeniero Informático; Ingeniero Electrónico Especialista en Gerencia Integral Evaluador de proyectos de COLCIENCIAS Certificación Internacional en Gestión de Tecnología 2012
LAS PREGUNTAS INICIALES Los gerentes quieren saber: · ¿Quién nos compra? ·¿Dónde, cómo y cuándo compraron? · ¿Cuáles son las características que tienen nuestros clientes? · ¿Qué está requiriendo el cliente hoy. · ¿Cuál región o sucursal nos 48 · El Mundo de la ingenieria electronica
RESUMEN Pasar desde tareas como guardar archivos, almacenar datos, procesar información y analizar registros históricos, hasta la gestión integral de la información, son avances importantes desde el surgimiento del computador personal en los años 80; sin embargo, para nuestros días las empresas grandes y pequeñas necesitan herramientas inteligentes de información para hacer posible la toma de decisiones estratégicas por parte de la Alta Gerencia. Evaluar nuevos retos, introducir otros productos y servicios, optimizar el portafolio y establecer alianzas estratégicas son las únicas vías para permanecer en un mercado competitivo y para preservar un negocio auto sostenible. Para estas resoluciones analíticas aparece la “Inteligencia de Negocios”, BI, como parte y evolución de la administración de bases de datos, para ayudar a los presidentes, gerentes y directores de procesos a analizar información (no a maquillarla), a gestionar conocimiento y a tomar decisiones estratégicas. KEYWORDS Business Intelligence, Datawarehouse, Datamart, KPI, ETL, OLAP, Dashboard, CEO,Benchmarking, DSS, EIS, BI. provee mayores ventas? · ¿Cuál segmento de clientes respondió mejor a la última promoción? · ¿Cuáles productos llegaron con retraso y por qué? · ¿En cuál periodo se vendió más? · ¿Cómo vendimos? · ¿Cuáles han sido los valores
históricos de mis activos, de mi patrimonio y de mis ventas? · ¿Cuántos y cuáles de mis clientes tienen el perfil necesario para mi campaña de ventas?
49 · El Mundo de la ingenieria electronica
Silicio
Silicio Por otra parte, ejecutivos y directores encuentran limitaciones debido a que: · Hay un desfase entre la disponibilidad de información y la oportunidad comercial. · Los usuarios no tienen acceso autónomo a la información. · Hay muchos datos pero poca información. · Los reportes no coinciden. · Se tiene poco tiempo para el análisis de la información. · No hay una solución informática con visión global de la empresa. · No se dispone de análisis histórico de información. · Para las preguntas complejas acerca del negocio, no hay respuestas adecuadas. EL ESCENARIO COMPETITIVO DE HOY Como características comunes, las economías desarrolladas están evolucionando de modelos industriales a nuevos modelos de servicios. Adicionalmente, los consumidores están cada vez mejor informados y tienen mayor poder de decisión ante una situación de mayor oferta que demanda. Cada vez será más importante conocer y construir relaciones sostenibles con los distintos públicos. Ante esta realidad económica y social, las empresas quedan obligadas a replantear las estrategias, los modelos, las habilidades, las competencias y los planes de desarrollo profesionales y de ámbito local, así como los indicadores de referencia. Es importante aplicar una metodología un poco diferente para salirnos de la rutina: “si haces lo mismo cada día, ¿cómo esperas tener resultados diferentes?”. Es por ello que se toma como punto de partida la toma de conciencia: realmente, ¿estamos bien, o hay que replantear estrategias?; o ¿debemos pasar a una valoración del impacto esperado para entender un poco más el concepto de “benchmarking”, y finalmente entrar a una fase de desaprender para luego volver a aprender?
LA ACTITUD O LA RESISTENCIA “La información en las organizaciones está aumentando rápidamente, así como las decisiones críticas del negocio; el problema es la actitud de las empresas para utilizar estos datos.” GartnerGroup. Lo que se plantea aquí es que el punto de partida debe ser la “Alta Gerencia”. La junta directiva, el presidente y los directores de proceso, deben estar convencidos de que cada día se requiere mayor disponibilidad de la información, con acceso a una bodega de datos “datawarehouse” con la información completa por área, para visualizar rápidamente los informes (reportes) que brinden la información que se requiere en ese momento, bien para generar indicadores o para la gestión de nuevos informes. LA INFORMACIÓN EN SU PUNTO MÁS ALTO “Business Intelligence”, BI, es una estrategia empresarial que persigue 50 · El Mundo de la ingenieria electronica
incrementar el rendimiento de la empresa o la competitividad del negocio, a través de la organización inteligente de sus datos históricos (transacciones u operaciones diarias), usualmente residiendo en bodegas de datos “DataWarehouse” corporativos o en bodegas parciales “DataMarts” departamentales. “Business Intelligence” no es sólo desarrollo de software, es la integración de fuentes de datos que normalmente las encontramos en Excel, en archivos planos y en bases de datos de sistemas de información que serán extraídas, transformadas y cargadas a nuevos sistemas de información que son capaces de generar múltiples informes útiles para diferentes procesos (áreas) de la empresa.
El concepto de BI no es nuevo: desde que la idea fue introducida a mediados de los años 60, no ha dejado de evolucionar a soluciones más efectivas y adaptadas al nuevo entorno tecnológico imperante. Con el precio del hardware en franco descenso, con procesadores más potentes, con la hegemonía de Internet-Web y con software de gestión más eficientes, el concepto de Inteligencia de Negocio (BI) se coloca al alcance de muchas organizaciones modernas que están interesadas en maximizar sus inversiones en el área informática. Los DSS (Decision Support Systems) fueron el origen de
todo, luego aparecieron conceptos similares tales como los EIS (Executive Information Systems), hasta llegar al estado del arte actual, las BIs y la BI-Web. Los pioneros del campo fueron el Dr. Ralph Timbal, considerado el Dr. del DSS, y Bill Inmon, considerado el padre del Data Warehouse.
Visibilidad de lo que está pasando en el negocio. · Generación de informes / reportes centralizados. · Análisis de tendencias y “predicción” de los negocios. · Toma de decisiones sobre los productos que funcionan y los que no funcionan. · Centralización de datos dispersos. · “Validación” de sistemas transaccionales. Los principales productos de BI usualmente son los siguientes: Cuadros de Mando integrales, “Dashboards” corporativos, KPI (Key Performance Indicators), CPI (Corporate Performance Indicators), reportes y gráficos de todo tipo, entre muchos otros.
FUENTES INGENIARE. Revista Chilena de Ingeniería. www.s c i e l o . c l/ s c i e l o.php?p i d = S 07 1 8- 3 305 2 010 0 003 0 001 2 & s c ri pt=s c i a r ttext “Nuevas herramientas para nuevos escenarios competitivos”. www.altorendimientoempresarial.com/gestor/docs/BARCELONAINNOVATIONCAMPUS201 1.pd f “Qué es la Inteligencia de Negocios”. Escuela de Negocios ITMADRID. www.itmadrid.com/blog/que-es-inteligencia-de-negocios-business-intelligence/“Business Intelligence”. Documento El Poder de la Información. Edison Medina. Global Solutions. “GartnerGroup analiza las TI en España”. ComputerWorld. www.computerworld.es/archive/gartner-group-analiza-las-ti-en-nuestro-pais
51 · El Mundo de la ingenieria electronica
Silicio
Silicio
CIRCUITO ABIERTO. GERENCIA Y EMPRESA
E s c e n a r i o s
de crisis
Hablando en meses pasados con un gerente del sector financiero norteamericano, decía que no hay crisis y que para muestra los centros comerciales llenos de vehículos, pero aceptaba que muchas personas perdieron su empleo y que hubo un desplome en el precio de las viviendas con hondas consecuencias económicas. En esos mismos días, otro gerente de una empresa del sector eléctrico colombiano tampoco apreciaba una crisis, a pesar de reconocer que su oficina dejó de facturar 9 millones de dólares respecto a lo presupuestado. Desde una óptica opuesta ―irónica y cruelmente― muchas personas sin empleo dicen que hay una crisis severa. Perspectivas distintas muy interesantes para considerar. Un individuo está en su derecho de pensar que no se vive una crisis Autor H e r n á n Pizarro Díaz
si sus finanzas personales no se afectan; por el contrario, si otra persona las ve afectadas, no es razón suficiente para definir una situación como de crisis. Este es un fenómeno de percepción que ilustra lo que han
Ingeniero Electrónico Especialista en Automatización Industrial Director Revista Silicio
dicho muchos pensadores en el sentido de que el sujeto vicia la interpretación de la realidad de acuerdo con su vivencia y sus intereses. Pero la relación sujeto-percepción-realidad-verdad nos lleva a otra discusión que no viene al caso en esta nota. La crisis es un tema recurrente en los noticieros. Un arriesgado analista dijo que esta “era solamente social porque apenas afectaba el empleo o, mejor, el desempleo”. Esto es como decir que una persona no tiene cáncer porque lo tiene solo en la vejiga. Tratándose de crisis, bien vale entonces la comparación con un ejemplo de la fisiología humana que ilustra una coherencia de los hechos: La temperatura del cuerpo es normal en 37,5º C, pero si llega a 39º C ―más que un acuerdo convencional― es
52 · El Mundo de la ingenieria electronica
53 · El Mundo de la ingenieria electronica
Silicio
Silicio un síntoma de que algo anormal está ocurriendo en el organismo
CIRCUITO ABIERTO. GERENCIA Y EMPRESA
y que lo afecta globalmente, así la infección esté localizada en un solo órgano. Al medio social ―hoy― lo caracterizan la desaceleración de la economía mundial, la volatilidad de los mercados, el exceso de producción, las capacidades altas, el desempleo, el margen deprimido, los menores retornos y los países en quiebra, como
SERIE SOBRE RIESGO
TEC N O LÓG ICO
los PIGS (Portugal, Italy, Greece, Spain). Son síntomas de que algo grave sucede. Muchos intelectuales consideran que hay crisis y que es de tal magnitud que afecta a toda la civilización; por eso llaman, en
El riesgo está siempre presente en la vida del hombre, en todas las sociedades y épocas, y de múltiples maneras. Las amenazas y peligros que entrañan ciertos riesgos pueden materializarse de maneras inesperadas, sus impactos pueden ser devastadores y sus efectos, impredecibles e incalculables.
completos que superen la ceguera de los análisis unilaterales.
En la medida en que crece el uso de la tecnología en todos los países del mundo, desde las de baja complejidad hasta las de alta complejidad, crecen también los riesgos, y con ellos las amenazas, los peligros y las vulnerabilidades frente a su uso, abuso u omisión de precauciones, máxime que la tecnología cada vez se extiende más como producto del creciente fenómeno de la globalización.
Las personas al mando están atrapadas por realidades que las
Por ello, los profesionales de hoy deben tener un manejo conceptual mínimo alrededor del tema para
todas las opciones del actuar humano, a hacer enfoques más
limitan y a las que no pueden escapar. Se ven obligadas a seguir instructivos y acciones de acuerdo con los paradigmas del momento; aun así deben tener audacia y creatividad.
Autor Nelson Rúa Ceballos
Han surgido nuevos saberes que afectan la ciencia y el sentir cotidiano. Es toda una tarea poder apropiarse de ellos y hacerlos parte del discurso: La ruptura epistemológica, la teoría de la complejidad, el holismo y la bioética sumados al trabajo en equipo (saber escuchar) y a la prudencia que da la mentalidad abierta, enriquecen la visión de las situaciones a la vez que incrementan las probabilidades de éxito.
54 · El Mundo de la ingenieria electronica
Ingeniero Electrónico U. de A. DEA en Economía de la Innovación, Universidad del País Vasco-UPV-EHU, España. Candidato a Doctor en Estudios de Ciencia y Tecnología y Gestión de la Innovación Tecnológica UPV-EHU Miembro actual del Grupo Global Universidad. Consultor/asesor/capacitador en gestión tecnológica, gestión del conocimiento, gestión de la innovación, gestión del capital intelectual y de la propiedad intelectual, y de prospectiva tecnológica y organizacional.
evidenciar su naturaleza y para tomar decisiones inteligentes y oportunas frente a los diferentes tipos de riesgo presentes en la vida cotidiana, en su hogar, en la empresa o en cualquier sitio, para prevenir o controlar sus impactos si se llegaren a materializar. Con la serie sobre riesgo tecnológico esperamos dar respuestas a muchas inquietudes que, seguramente, tendrán la mayoría de nuestros lectores sobre este importante tema; se desarrollará en seis (6) entregas, así: • Generalidades sobre el concepto de riesgo. • Una taxonomía general sobre el concepto de riesgo. • ¿Qué es esa cosa llamada riesgo tecnológico? • El riesgo tecnológico por basura electrónica: ¿Riesgo tóxico o amenaza cultural? • El riesgo tecnológico por los campos electromagnéticos: Un enemigo silencioso e invisible. • El riesgo tecnológico por el uso y el abuso del teléfono celular: Mitos y realidades. • Las tecnopatías: De la tecnofobia a la tecnoadicción. Los invitamos pues, amables lectores, a que sigan con atención esta serie que, no dudamos, será de gran utilidad para todos ustedes, sin importar el ámbito de desempeño.
55 · El Mundo de la ingenieria electronica
Silicio
Silicio
PRIMERA PARTE GENERALIDADES SOBRE EL CONCEPTO DE RIESGO Resumen El presente artículo constituye la parte introductoria de la serie sobre riesgo tecnológico, y está enfocado a definir algunos aspectos generales sobre el concepto de riesgo y los términos asociados a él, tales como peligro, amenaza, vulnerabilidad y susceptibilidad, como elementos previos a una taxonomía sobre dicho concepto en general y sobre el riesgo tecnológico en particular, para abordar posteriormente los álgidos temas sobre algunos tipos de riesgos tecnológicos en la actualidad: basura electrónica, contaminación por campos electromagnéticos, mitos y realidades del riesgo en el uso del teléfono celular, y las diversas tecnopatías. Palabras claves Riesgo, riesgo tecnológico, peligro, amenaza, vulnerabilidad, susceptibilidad. Abstract This paper is the first introductory part of the series about technological risk and focuses on defining some general aspects about the concept of risk and terms associated with it, such as danger, threat, vulnerability and susceptibility, as prior elements to a taxonomy on this concept in general and the technological risk, particularly to address subsequently the algids issues on some types of technological risks today: e-waste, pollution by electromagnetic fields, myths and realities of risk in the use of cell phones, and several technopathies. Key words Risk, technological risk, danger, threat, vulnerability, susceptibility. INTRODUCCIÓN En nuestra vida cotidiana todos estamos familiarizados, de algún modo y en mayor o menor medida, con la noción de riesgo y con sus conceptos asociados. Es común escuchar expresiones como: “La comunidad XXX está en grave riesgo de…”, “Tal hecho representa un gran peligro para las personas…”, “Aquella es una población vulnerable frente a…”, “una terrible amenaza se cierne sobre los habitantes de…”, “se ha hecho una declaratoria de alerta…” y así, nos encontramos día a día con términos que muchas veces se asimilan como iguales pero que tienen significados diferentes, aunque estén íntimamente relacionados. Al finalizar la presente entrega pretendemos dejar claros los conceptos asociados a cada término, así como las diferencias e interrelaciones existentes en ellos. Para profesionales de distintas disciplinas, se hace necesario adquirir este conocimiento, así no sea a nivel de experto, porque son muchas las situaciones en que en el ejercicio de sus profesiones se verán abocados a enfrentar riesgos, peligros y amenazas que deben ser prevenidos, hasta donde sea técnica y humanamente posible, o controlar y mitigar sus efectos o impactos, de la mejor manera, cuando su ocurrencia sea irremediable, para lo cual es indispensable también conocer el grado de vulnerabilidad y de susceptibilidad en que se encuentra un individuo o una comunidad cuando se pretenda hacer una gestión adecuada del riesgo. Pero, para hacer una GESTIÓN DEL RIESGO o simplemente para conocer su naturaleza, es indispensable entender con mediana claridad el concepto de riesgo y las diferencias con los demás términos, para evitar las confusiones resultantes de no poder establecer con claridad los límites de cada una de las definiciones. En principio, podemos decir que toda actividad humana incorpora unos riesgos, y son esas situaciones potenciales que se pueden presentar, las que pueden impedir el cumplimiento del propósito que usted tiene en mente cuando desarrolla tal actividad; pero, hay que decir que en muchas situaciones el tema desborda 56 · El Mundo de la ingenieria electronica
el ámbito de lo individual y trasciende al conjunto de la sociedad, por lo cual se habla, entonces, de que estamos en la “sociedad del riesgo” que, al decir de Ulrich Beck (Beck, 2001), ha pasado a ser la “sociedad del riesgo global”. En el artículo “La sociedad del riesgo: terror y miedos de la vida moderna” (Gómez y Riveros, 2004), nos encontramos con este interesante escrito que refleja muy bien lo que hemos querido significar con el concepto de riesgo y que, a pesar de que data de unos años atrás, el sentido de lo expresado sigue vigente respecto de los tiempos turbulentos que vivimos por estos días, y eso es lo que nos interesa: ”Los seres humanos enfrentan a diario situaciones de terror en todos los rincones del planeta. Un ciudadano en Londres evita comer carne por miedo a la enfermedad de las vacas locas, en Vietnam temen que la gripa del pollo aparezca de nuevo, en el Caribe millones de personas desconocen el futuro de sus vidas y sus propiedades ante la amenaza de temporada de huracanes, los pequeños ahorristas argentinos aún no se recuperan de la crisis económica y siguen en alerta ante el estado de emergencia en el que permanece su sistema financiero, los extranjeros empleados en Irak no concilian el sueño ante el temor de convertirse en rehenes de grupos armados, en Rusia muchos niños ya no quieren ir al colegio, los salvadoreños no están tranquilos desde que Al Qaeda los amenazó por el único país hispano aún con tropas en Irak, en el sur de Colombia los habitantes no duermen ante el aumento de la actividad sísmica del volcán Galeras que amenaza con hacer erupción en cualquier momento, en África una plaga de langostas ha acabado con millones de hectáreas de cultivos y ha obligado a sus pobladores a comerse el insecto para no morir de hambre, y en el resto del mundo la televisión lleva y trae todas estas noticias que, aunque no sean propias, sí contagian ese sentimiento de vulnerabilidad típico de la sociedad del riesgo que caracteriza el mundo de hoy.” CONCEPTOS BÁSICOS RIESGO, AMENAZA, PELIGRO, SUSCEPTIBILIDAD Y VULNERABILIDAD Fuente: www.cardiointervencion.com/estudios-del-corazon/prueba-de-esfuerzo 1.
La noción de riesgo
La noción de Riesgo hace referencia a eventos posibles, aunque inciertos, que pueden producir daños. La incertidumbre, como entidad matemática y como concepto filosófico, está presente en el estudio de tal fenómeno y es, quizás, una de sus características más relevantes. Así las cosas, el concepto de riesgo está íntimamente relacionado con el de incertidumbre, o falta de certeza, de algo que puede acontecer y generar una pérdida. En este orden de ideas, podemos concebir el riesgo como la posibilidad de ocurrencia de una situación que puede torpedear el normal desarrollo de las funciones o actividades de una organización o de una comunidad, y que le impide el logro de sus objetivos. También puede entenderse como la posibilidad de materialización de una amenaza evaluada, y de las consecuencias que ocasionaría para los recursos y factores fundamentales de una organización o una comunidad. Constituye, por consiguiente, una situación adversa, en la cual existe la posibilidad de una desviación con respecto a los propósitos institucionales o comunitarios. Existen muchas definiciones posibles del concepto “riesgo” cuyo significado depende del enfoque con el que se aborda, o según el interés del área en donde se aplique. En el campo de los seguros, por ejemplo, se define el Riesgo como “el suceso futuro e incierto que no depende exclusivamente de la voluntad del tomador, del asegurado o del beneficiario, y cuya materialización da origen a la obligación de la empresa de seguros”. Desde una perspectiva meramente técnica, puede concebirse el riesgo como “la posibilidad de que en razón del azar ocurra un evento, futuro e incierto, de consecuencias dañosas susceptibles de crear una necesidad patrimonial”. El Diccionario de Derecho Usual de Guillermo Cabanellas define el Riesgo como “Contingencia, probabilidad, proximidad de un daño. Peligro”. Algunos autores asumen 57 · El Mundo de la ingenieria electronica
Silicio
Silicio como iguales los términos “riesgo” y “peligro” (hazard), y otros asimilan el riesgo a amenaza, aunque son diferentes, como veremos luego. Veamos otras definiciones para Riesgo: • Conjunto de circunstancias que representan una posibilidad de pérdida. • La incertidumbre de que ocurra una pérdida económica por un daño o destrucción. • La posibilidad de que por azar ocurra un hecho que produzca una necesidad patrimonial. • La eventualidad del suceso cuya realización ha de obligar al asegurador a efectuar la prestación que corresponda.
No ahondaremos en lo anterior porque ello desborda el alcance y la pretensión de este artículo, pero al final del presente módulo suministraremos bibliografía adicional para quien desee profundizar en el tema. 3.
Términos asociados al Riesgo
Para lograr unos acuerdos mínimos sobre el significado del concepto de riesgo y los demás términos relacionados, proponemos las siguientes definiciones diferenciadoras asociadas a la percepción del mismo:
Un análisis de estas definiciones permite constatar que todas coinciden cuando expresan que el riesgo es la incertidumbre asociada con la posibilidad de que se produzca una pérdida económica que afectaría los bienes (tangibles o intangibles) del afectado.
• Amenaza: Es la probabilidad de que un fenómeno de origen natural o artificial pueda presentarse ante una comunidad o un sistema vulnerable a dicho fenómeno. Aquí se define la amenaza en función de la vulnerabilidad de una comunidad o de cualquier sujeto a la intervención de un fenómeno natural o artificial.
A continuación presentamos una definición más formal y que entraña una visión más holística del concepto: El “riesgo” es una categoría compleja, y su concreción resulta del interjuego de múltiples elementos, en sí altamente dinámicos y cambiantes (amenazas, amenazas complejas, vulnerabilidades, etc.). La prognosis o monitoreo de nuevos riesgos debe también asumir un papel importante en sociedades urbanas en proceso de transición y cambio constante, debido al nuevo orden económico mundial y a los impactos que causa en el entorno urbano de los países en vía de desarrollo”.
• Vulnerabilidad: Es la predisposición o susceptibilidad que tiene un elemento (red o sistema) a ser afectado o a sufrir una pérdida. Aquí, la vulnerabilidad está asociada directamente al daño o perjuicio que puede ocasionar la presencia de una amenaza. La UNDRO la define como el grado de pérdida de un elemento o grupo de elementos bajo riesgo, resultado de la probable ocurrencia de un evento desastroso, expresada en una escala desde 0 (sin daño) a 1 (pérdida total). En general, la vulnerabilidad refleja el nivel de exposición a la amenaza.
Cuando diferenciemos bien los términos “amenaza” y “vulnerabilidad” podremos asumir una definición mucho más adecuada para “riesgo”.
Los dos conceptos anteriores nos permiten una aproximación conceptual más precisa y adecuada a la noción de riesgo en diferentes contextos (técnico, social, empresarial, etc.), en donde la amenaza y la vulnerabilidad se constituyen en factores de riesgo, de tal modo que con el riesgo mismo se pueden relacionar mediante una sencilla fórmula: R=A x V.
2.
Características y clases de Riesgo
Como características de la esencia del Riesgo podemos plantear las siguientes: • La existencia de un objeto expuesto a sufrir daño o pérdida, determinado por: la propiedad y su uso, la salud o la capacidad de generar ingresos de una persona, y la responsabilidad ante terceros. • La presencia de la causa o causas posibles que ocasionan el daño o la pérdida al objeto, que pueden ser de origen natural, como los terremotos; de origen humano como los robos; y de origen económico, como los cambios sociales. • El perjuicio o pérdida resultante que sufre el objeto en que ocurre la causa, el cual generalmente se mide en términos económicos, como el costo de la pérdida de un bien (inmueble) debido a un incendio, o el detrimento generado por una hospitalización. De las anteriores, las dos primeras son reales y la tercera es potencial, pudiendo llegar a convertirse en real lo que no es necesario para que exista el riesgo como tal.
•
Riesgo: Nivel de daño o perjuicio causado a un sistema vulnerable ante la presencia de una amenaza.
• Peligro: Un peligro es una cosa o hecho que tiene la posibilidad de causar un daño físico o moral a una cosa inerte, o a un organismo vivo. Un peligro real es cuando la capacidad de daño está en condiciones de provocar efectos de inmediato; y un peligro potencial es cuando está latente, esperando que se den las condiciones para efectivizarse. La diferencia entre riesgo y peligro es que el peligro indica la cosa o hecho que produce el riesgo. El riesgo mide la posibilidad de que el peligro se concrete o no, y sus consecuencias en caso de ocurrir. • Susceptibilidad: Nivel de vulnerabilidad inherente a un elemento en virtud de su naturaleza, o en razón de las condiciones que lo rodean.
En cuanto a las clases de riesgos, éstos se pueden clasificar en riesgos morales y riesgos materiales: • Riesgos morales: es la conducta del potencial afectado que tiende a provocar un siniestro. El riesgo moral, a su vez, puede ser de dos clases: riesgo moral activo y riesgo moral pasivo: o El riesgo moral activo es cuando el siniestro resulta de la mala fe o del intento fraudulento o de una irresponsabilidad del potencial afectado. o El riesgo moral pasivo es cuando el potencial afectado no provoca el siniestro deliberadamente, sino que lo hace en razón de su incompetencia o ineptitud. •
Riesgos materiales: Los hay de distintos tipos.
o o o o
Por su número pueden ser: globales o especiales. Por su origen pueden ser: constantes o variables (progresivos o regresivos). Por su naturaleza pueden ser: normales o anormales (tarados o catastróficos). Por su conocimiento pueden ser: ciertos y putativos.
58 · El Mundo de la ingenieria electronica
En la próxima entrega (en el segundo número digital de la revista) espere la segunda parte de la serie: Una taxonomía general sobre el concepto de riesgo.
59 · El Mundo de la ingenieria electronica
Silicio
Silicio CIRCUITO ABIERTO. NOTA
Tendencias en dispositivos y aplicaciones en redes inalámbricas La avalancha actual de avances tecnológicos en dispositivos móviles, tanto en su electrónica (hardware) y sistemas operativos, como en las aplicaciones (software aplicado), unidos a los de las redes para comunicaciones inalámbricas, han permitido un desarrollo sin precedentes en su funcionalidad y en su potencia: los denominados “teléfonos inteligentes” (Smartphones, como iPhone y Galaxy S4), y Tablets (como iPad y Galaxy), cuya novedad consiste principalmente en sus pantallas táctiles, con un manejo intuitivo de las aplicaciones, multiprocesadores, multitarea, y tiendas de aplicaciones (AppStore), además de un gran número de dispositivos y aplicaciones incorporadas que, unidas a herramientas de comunicación complejas como Facebook y Linkedin, o sencillas como correos electrónicos, Twitter y Whatsapp, y sin olvidar los servicios clásicos de
Autor H É B E R IGNACIO MÉNDEZ ÁLVAREZ
Ingeniero Electrónico de la UPB y MBA de EAFIT, con más de 20 años de experiencia en redes celulares.
60 · El Mundo de la ingenieria electronica
un celular, tienen grandes implicaciones en nuestra manera cotidiana de comunicarnos, en los ámbitos laboral, familiar y social, ya que es posible hacerlo con texto, voz, imágenes, video, y archivos de datos, tanto en directo como en diferido; como resultado, tenemos una cantidad abrumadora de información siempre con nosotros, disponible en nuestros bolsillos. Las limitaciones de visualización se superan con el uso de tabletas (iPad), media Tablet y teléfonos inteligentes de pantalla grande como el Galaxy Note; además, se les pueden conectar pantallas grandes o proyectores vía HDMI, así como teclados y ratones inalámbricos. Ahora bien, los dispositivos móviles pueden clasificarse según su capacidad de comunicaciones (ancho de banda 3G/4G), su capacidad de procesamiento, su capacidad de almacenamiento y sus capacidades de entrada/salida; a mayores capacidades, mayor es el costo, pero de esta forma es posible mantener toda nuestra información de manera local e independiente. Además, las diversas alternativas de soluciones y servicios en la nube (cloudcomputing/services) permiten que con dispositivos de muy bajo costo se pueda tener una gran cantidad de funciones y servicios, con capacidades casi ilimitadas de almacenamiento, aunque restringidos a ser accesados solamente donde haya comunicaciones con un mínimo de velocidad; sin embargo, el acelerado despliegue de redes de tercera y cuarta generación, hace que ésta sea una limitación cada vez menos apreciable. Si a esto agregamos que los dispositivos móviles traen incorporados muchos otros elementos, para captura o reproducción de información, de calidad muy buena o aceptable, 61 · El Mundo de la ingenieria electronica
Silicio
Silicio su utilidad se incrementa notablemente, llegando a producir dependencia o adicción; estos elementos adicionales son cámaras, GPS, micrófonos, parlantes, WiFi, Bluetooth, acelerómetros, inclinómetros, brújulas, etc., además de elementos para aplicaciones específicas como video cámaras, reproductores de video y grabadores de voz; o módulos para soportar otro tipo de aplicaciones que utilizan la geolocalización, el reconocimiento de imágenes, de rostros y de voz, por ejemplo. Los sistemas operativos móviles abiertos a los programadores, como Android de Google, han facilitado que se disponga de cientos de miles de aplicaciones gratis o de muy bajo costo entiendas internet (Play Store). Como mencionamos antes, estos dispositivos producen adicción, sobre todo si quienes los usan son muy aficionados al entretenimiento digital como juegos, chat y otro tipo de información por placer; este campo del entretenimiento tiene gran desarrollo, ya que ahora posibilita jugar contra otro o en grupos, en línea, jugar prototipos, demos y adquirir los juegos para uso permanente o temporal, sin necesidad de copias físicas. Otra gran tendencia es la construcción de bases de datos originadas en la información que proporcionan, consciente o inconscientemente, cuando permiten a estas aplicaciones recolectar y enviar información de uso, y de otros dispositivos inmersos en los dispositivos móviles, especialmente los de localización. Estas bases de datos nos permiten conocer las condiciones locales de tráfico vehicular, de microclima y de tendencias, todo en tiempo cuasi-real. Hablando de localización, también se habla ahora de localización en interiores, pues normalmente el GPS está limitado para exteriores, por sus niveles de señal; pero, con la ayuda de la propia señal celular y de puntos de WiFi, es posible determinar la localización en el orden de decenas de metros dentro de las edificaciones, lo cual resulta muy útil, por ejemplo, en grandes centros comerciales. Pero ya no son sólo los humanos quienes utilizan los dispositivos móviles inalámbricos: los vehículos comerciales han sido pioneros en su uso, y los fabricantes de automóviles ya los instalan en muchos modelos de gamas alta y media, con el fin de manejar información de rendimiento, mantenimiento y fallas, directamente por los fabricantes y para reportarlos a sus clientes; también están presentes en maquinaria móvil y en electrodomésticos, como televisores, neveras y otros. Esto nos permite, por ejemplo, localizar rápidamente a nuestros compañeros de compra en grandes centros comerciales y/o de entretenimiento, o encontrar nuestro automóvil en los grandes parqueaderos, o seguir a nuestros hijos con aplicaciones como LATITUDE, conociendo a toda hora su ubicación física real. Dentro de las aplicaciones para localización, hay algunas que nos dan la mejor ruta a cualquier lugar, con sólo escribir la dirección o las coordenadas (GoogleMaps) y, además, permiten recibir instrucciones de voz para cada giro, sin tener que mirar la pantalla. 62 · El Mundo de la ingenieria electronica
En conclusión, estos dispositivos se van convirtiendo en la principal herramienta para las comunicaciones interpersonales y para la gestión de información como captura, almacenamiento, procesamiento y transmisión, ya sea personal, de trabajo o familiar; por tanto, hay que darles un manejo muy seguro, (por ejemplo usar el reconocimiento facial para el desbloqueo, los programas anti-espías y antivirus, etc). Además, también se convierten en el principal factor de importancia para recolectar información socioeconómica y comercial de agentes internos o externos, sea para buen uso o mal uso; depende de todos garantizar que sólo se usen para cosas positivas y convenientes.
CIRCUITO ABIERTO. PROYECTOS DE GRADO
PROYECTO DE GRADO
RESEÑA CONTADOR AUTOMÁTICO DE BILLAR
Este proyecto consistió en diseñar un sistema capaz de puntuar automáticamente una partida de billar, por lo cual, debía tener la capacidad para reconocer automáticamente las bolas embocadas, cuando se había tacado y organizar esta información de modo agradable al usuario. Para el reconocimiento de las bolas se implementó un algoritmo de reconocimiento digital de imágenes (subsistema embebido), conocido como umbralización, aprovechando las características en color de las bolas de billar. Para reconocer si algún jugador había tacado, utilizó un acelerómetro, ubicado en el taco, y un patrón dado a partir del cual se hace la correlación en un microcontrolador. El patrón fue tomado del modelado de señales de tiros reales. Además, para este propósito se implementó un algoritmo para reconocer el ángulo en el cual estaba ubicado el taco, basado en las señales de los demás ejes del acelerómetro. Con la información anterior se diseñó una interfaz gráfica que suministra información en tiempo real de los resultados de la partida. En el prototipo implementado, la detección de la bola embocada presentó muy bueno resultados con las bolas “de un solo color”, pero resultados deficientes con las bolas “rayadas”. Los demás módulos presentaron en general buenos resultados. Para trabajos futuros, se pretende mejorar las falencias identificadas en este proyecto.
63 · El Mundo de la ingenieria electronica
Silicio
Silicio CIRCUITO ABIERTO. SOFTWARE
CIRCUITO ABIERTO. PROYECTOS DE GRADO
Diseño de Levitador Magnético MIMO Mediante Simulaciones en Elementos Finitos (Flexpde) y Propuesta de Control de este Sistema Dinámico José Alejandro Montes Romero Nery Gómez Giraldo
El proyecto consistió en el modelamiento de un sistema de levitación magnética MIMO de geometría cilíndrica, mediante simulaciones, usando el programa Flexpde, bajo la metodología numérica de Elementos Finitos FEM.
Se obtuvo el comportamiento de las fuerzas en función de la distancia que detallan la interacción bobina- magneto y magneto-magneto, las cuales permiten modelar el sistema de levitación MIMO para varias configuraciones, en las cuales se variaron las dimensiones de los magnetos. Estos resultados fueron además comparados con los resultados del modelo homólogo existente, obtenido a partir del método Amperiano. La propuesta de modelamiento parte inicialmente de las ecuaciones que dan cuenta del comportamiento del sistema físico, considerando las condiciones de frontera, características de los materiales, entre otras. Este modelo matemático es lo que se resuelve por medio del método de Elementos Finitos FEM, a través de FlexPDE. Se han agregado entonces generalidades sobre el método de Elementos Finitos, el cual como se expresó, es el método numérico en el cual subyace la obtención de cada modelo; se menciona la metodología de cómo se modela la fuerza interactuante para magneto y bobina, que en cada caso resulta ser diferente y las limitaciones asociadas en el momento de implementar la simulación. Se describe de manera general la importancia de los cojinetes magnéticos y su relación con la presente investigación. Se sugiere para investigaciones futuras basadas en FEM, utilizar el Método de Trabajo Virtual como método más recomendado, debido a la precisión y exactitud que permite en los resultados de modelamiento. Se propone una ruta de control basada en el principio de Control por Modos Deslizantes, pero robustecida por medio de Control Adaptativo a través de un mecanismo denominado Aprendizaje por Realimentación del Error (FEL). 64 · El Mundo de la ingenieria electronica
KICAD: Herramienta de Diseño Electrónico de Libre Uso El Kicad es un programa de código abierto (GPL) para la creación de esquemas electrónicos y circuitos impresos. Después de muchos años de trabajar con diseño electrónico te acabas dando cuenta de que existen herramientas de libre uso que te permiten trabajar de una forma profesional sin recurrir a gastos onerosos o a la tan acostumbrada piratería. Cada cual utiliza la herramienta de diseño que quiere o puede, algunas son de pago y con licencia, otras son gratuitas pero no abiertas; las hay que son totalmente abiertas y gratuitas, etc. Así que, delante de un catálogo tan extenso, la elección de la herramienta viene condicionada por la inversión económica y por las necesidades de cada diseño. El propósito de este artículo es el de llamar la atención de los profesionales y de los estudiantes de ingeniería acerca de que hay programas de diseño de libre uso, y no sólo para Linux, que son de excelente calidad, y que no se necesita recurrir a la piratería para tener las herramientas que se necesitan para lograr un excelente trabajo.
Autor Sergio A r b e y Monsalve Betancur Amplia experiencia en asesoría y consultoría en sistemas y en trabajo en equipos de alto rendimiento, experto en diagnóstico de competitividad para PYMES y diseño electrónico en herramientas gráficas. Soporte en sistemas operativos UNIX, LINUX y redes WINDOWS. Programación en JAVA, JSP, postgreSQL, MySQL, Microsoft SQLServer, FOXPLUS, FOXPRO y VISUALFOXPRO. Diseño de páginas WEB y operación de herramientas de usuario final como Word, Excel, PowerPoint y StarOffice
INTRODUCCIÓN Este artículo describe uno de esos programas de diseño abierto y gratuito, el Kicad, que está lo suficientemente desarrollado para considerarlo una alternativa al software propietario. Adicionalmente al hecho de que sea abierto y gratuito, tiene un desarrollo constante y una mejora continua, gracias al trabajo que la comunidad de desarrolladores adelanta. A continuación, algunas razones por las cuales el Kicad puede llegar a ser una alternativa seria y profesional, apta para trabajos de ingeniería y fabricación: Las empresas grandes que facturan un volumen anual importante suelen trabajar conherramientas de diseño muy sofisticadas, las cuales en muchos casos son versiones pirateadas ya que, como regla general, no pagan ni el programa ni las licencias. De estos programas tan completos, las empresas suelen utilizar un porcentaje muy bajo del total de la herramienta. El número de licencias que se compra con el programa suele ser menor que el número de personas que trabajan en un departamento de diseño. Las pequeñas empresas y los diseñadores independientes no pueden pagar los precios de las licencias de programas sofisticados, porque les supone un desembolso al que no pueden hacer frente. La compra del programa y de sus respectivas licencias puede suponer el mismo importe que el salario anual de un empleado, o más. Los fabricantes de herramientas de diseño piden unos precios desorbitados, tanto por los programas como por las licencias, ya 65 · El Mundo de la ingenieria electronica
Silicio que el número de estas últimas suele ser limitado. Cada año suelen sacar una versión nueva, con sutiles mejoras, haciendo obsoleta la versión anterior, y casi forzando un nuevo desembolso si se quiere estar actualizado. En el mundo de la ingeniería se inventa la rueda una y otra vez, sin cesar. Se repiten los mismos diseños mil veces. Es una manera muy contraproducente de trabajar. Hay diseños que ya están más que probados y chequeados, y aun así se vuelven a repetir. Se pierde mucho tiempo y no se avanza nada. También hay mucha ingeniería inversa, copiando diseños que no se sabe bien cómo funcionan. KICAD y Diseño Electrónico El Kicad es un programa de código abierto (GPL) para la creación de esquemas electrónicos y circuitos impresos. Concebido y creado por Jean-Pierre Charras, cuyo objetivo era empezar a aprender C++, más tarde se convirtió en una herramienta CAD completa y profesional para electrónica. Se describirán aquí sus partes y sus bondades más importantes. Para las personas que quieran profundizar, existen manuales completos en internet, en comunidades de desarrollo y en foros especializados en el tema. La suite Kicad es un conjunto de cuatro programas y un gestor de proyectos: EeSchema: Editor de esquemas. Pcbnew: Editor de circuitos impresos. GerbView: Visor de archivos en formato GERBER. Cvpcb: Utilidad de selección que permite la asociación fácil entre los componentes electrónicos utilizados en el esquema y los módulos físicos (encapsulado) correspondientes del circuito impreso. Kicad: Gestor de proyectos. El gestor de proyectos, Kicad, permite seleccionar un proyecto y abrir la aplicación deseada, facilitando la utilización de los diferentes programas necesarios para la realización de los esquemas y los circuitos impresos, y para el control de los ficheros de fabricación. Estos programas son multi-plataforma, es decir, funcionan tanto en Windows como en Linux, siendo actualizados regularmente.
Silicio
EeSchema: Editor de esquemas. EeSchema es una aplicación que integra todas las funciones de diseño, de control, de trazado, de gestión de bibliotecas, y de editor de componentes, con acceso directo a la documentación de los componentes y al programa de circuitos impresos para crear esquemas simples o en jerarquía (multi-hoja), para generar listas de conexiones para Pcbnew o Spice. EeSchema integra también todas las funciones adicionales de una aplicación de esquemas electrónicos moderna: o Control de reglas eléctricas (ERC) para la detección automática de conexiones incorrectas, entradas de componentes al aire, etc. o Generación de ficheros de trazado en formato POSTSCRIPT o HPGL. o Generación de ficheros de trazado en la impresora local. o Generación de la lista de material. o Generación del fichero Netlist para la aplicación de circuitos impresos o para un simulador. Características técnicas principales: o Esta aplicación funciona en modo 32 bits, su capacidad de tratamiento de circuitos sólo está limitada por la capacidad de memoria disponible. o No hay, por tanto, limitación real en el número de componentes, de pines por componente, de conexiones, ni de hojas. o EeSchema trabaja con esquemas de una o varias hojas. o En el caso de esquemas multi-hoja, la representación se denomina jerárquica y el acceso a cada hoja es, entonces, inmediato. o El tamaño máximo de los diseños es ajustable en todo momento de los formatos A4 al A0 y de los formatos A al E. LibEdit: Editor de componentes y gestor de bibliotecas.
LibEdit es el editor que permite crear y editar los componentes, su visualización y la manipulación de las bibliotecas de componentes (importar, exportar, añadir y borrar componentes en las bibliotecas). LibEdit se accede desde EeSchema. Un componente consta de varios elementos: o Su gráfico (formas geométricas y textos). o Los Pines. o Los campos, o textos asociados, utilizados por los post-procesadores: netlist, lista de componentes, etc. Los dos campos que deben inicializarse obligatoriamente son la Referencia y el Valor,que contienen el nombre del esquema asociado a un componente y el nombre del módulo asociado, 66 · El Mundo de la ingenieria electronica
67 · El Mundo de la ingenieria electronica
Silicio
Silicio respectivamente. Los demás campos son campos libres, que pueden, generalmente, permanecer vacíos y pueden completarse en el esquemático. Sin embargo, gestionar la documentación asociada al componente facilita mucho la búsqueda, el uso y el mantenimiento de las bibliotecas. EeSchema genera de forma eficiente las bibliotecas de componentes, permitiendo crear, modificar y eliminar fácilmente el intercambio de elementos de bibliotecas. Los archivos de documentación pueden ser asociados a los componentes, así como palabras clave, lo que permite encontrar rápidamente un componente por su función. Existen bibliotecas, desarrolladas a lo largo de varios años, para los esquemas; son útiles para cualquier persona que desee crear circuitos impresos, simples o complejos.
Cvpcb: Asocia los componentes electrónicos del esquema y los encapsulados físicos del circuito impreso. Cvpcb permite completar un fichero Netlist, generado por una aplicación de edición de esquemas electrónicos, escribiendo para cada componente de la Netlist el nombre del módulo que lo representa en una placa de circuito impreso. En efecto, en general una Netlist no incluye indicaciones sobre ese módulo (es decir, la huella física del componente) que la aplicación de circuito impreso (PCBNEW) deberá colocar en el diseño general de la placa que se realice. Esta asociación entre el componente y su módulo correspondiente se hace de manera interactiva, y/o en modo automático, si se dispone de ficheros de equivalencia, que uno puede crear por sí mismo, y que son de hecho tablas de correspondencia entre el componente y su módulo. La lista de los módulos disponibles para la aplicación de circuito impreso está contenida en una o varias bibliotecas de MÓDULOS. Este enfoque interactivo es mucho más simple que colocar directamente en el esquema esta indicación de asociación, puesto que Cvpcb, además de sus posibilidades de asociación 68 · El Mundo de la ingenieria electronica
automática, permite ver la lista de los módulos disponibles, y mostrarlos en la pantalla. Como salida son generados dos ficheros: o El fichero Netlist completo (con referencia a los módulos) o Un fichero auxiliar de asociación de componentes (.CMP).
PcbNew: Editor de circuitos impresos. El programa de edición de circuitos impresos, PcbNew, funciona con 1 a 16 capas de cobre, más 12 capas técnicas (máscaras de soldadura) y genera automáticamente todos los documentos necesarios para producir circuitos (ficheros GERBER), perforaciones y posición de los componentes, así como las capas en archivos PostScript para la producción de prototipos. Caracteristicas técnicas principales: o PcbNew tiene una resolución interna de 1/10000 pulgadas. o PcbNew trabaja con 16 capas de cobre más 12 capas técnicas (serigrafía, planos de máscaras de soldadura, planos de pasta de soldar para las isletas SMD, planos de diseño y acotación) y gestiona en tiempo real las líneas aéreas de las pistas que quedan por enrutar. La visualización de los elementos (pistas, isletas, textos, dibujos...) se puede hacer: o En trazos continuos o de contorno. Con los márgenes de aislamiento eléctrico. o Ocultando ciertos elementos (capas, zonas de cobre, componentes SMD en la cara de soldadura o de componentes) lo que es útil para circuitos multicara con alta densidad. o Los módulos se pueden girar en cualquier ángulo, en pasos de 0,1 grados. o Las isletas pueden ser de forma redonda, rectangular, oval o trapezoidal.
Pcbnew permite visualizar los circuitos y componentes en tres dimensiones (utilizando OpenGL). 69 · El Mundo de la ingenieria electronica
Silicio
Silicio
Gerbview: Visualizador de archivos GERBER Normalmente los ficheros de fototrazado se generan en formato GERBER, sin embargo, se pueden generar los ficheros de fototrazado en formato HPGL o POSTSCIPT.
Bibliotecas: PcbNew genera de forma eficiente las bibliotecas de módulos, permitiendo crear, modificar, eliminar fácilmente e intercambiar elementos de bibliotecas. Los archivos de documentación pueden ser asociados a los encapsulados, así como palabras clave, lo que permite encontrar rápidamente un componente por su función. Existen bibliotecas, desarrolladas a lo largo de varios años, para los módulos de circuitos impresos (componentes clásicos y SMD). La mayor parte de los módulos de los circuitos impresos tienen una representación en 3D. Es útil para cualquier persona que desee crear circuitos impresos, simples o complejos. Generador Gerber Y Drill
70 · El Mundo de la ingenieria electronica
CONCLUSIONES
Después de varios años de utilizar el Kicad para proyectos profesionales y partiendo desde cero, tanto en la captura de los esquemas como en la creación de algunos componentes que no existían en las librerías, he de decir que los resultados me han sorprendido gratamente. Esta suite de diseño electrónico está compuesta, básicamente, por un editor de esquemas electrónicos, un editor de PCBs, un editor de asociaciones componentes-huella (para el diseño del PCB) y un visor de archivos GERBER; todo está centralizado bajo un mismo interfaz, desde el cual, abriendo el archivo de proyecto, se puede acceder a todas las partes del proyecto (captura, PCB, etc.) El proceso de captura con esta herramienta es cómodo y bastante fácil. No hay mucho qué contar aquí. Los menús son intuitivos y bastante cómodos. Para la selección de huellas en el proceso de fabricación del PCB, se lanza otra aplicación que permite ir buscando, componente a componente, la huella más apropiada a nuestras necesidades. Así mismo, también puede hacer una prebúsqueda de candidatos para dichas huellas que, unas veces con mayor acierto, otras con menos, siempre facilita el trabajo. A la hora de la creación del PCB, la herramienta cuenta con un algoritmo de posicionado automático de componentes que, aunque no es la mejor, sirve bastante. Al igual que antes, también tengo que decir que es intuitiva y fácil de usar. Basta con cargar la netlist generada por las dos herramientas anteriores y él solo busca todos los componentes y los coloca en el PCB. Nuestro único trabajo es ubicar los componentes estratégicamente según necesitemos y tratando siempre de facilitar el trabajo del rutado. En cuanto al rutado, me ha dejado gratamente impresionado. Hay que decir que puede tomar bastante tiempo, incluso horas, aunque eso dependerá de la rejilla que hayamos elegido. A menor espaciado, más tiempo, porque tenemos más posibilidades de rutado. El algoritmo genera un rutado bastante bueno, pudiendo especificarle el espacio mínimo entre pistas (clearance). Siempre será necesario repasar el PCB a mano y modificar algunas pistas, algo inevitable pero, en general, el proceso es bastante rápido. Como conclusión final, Kicad me ha parecido una excelente herramienta paracaptura de esquemas y diseño de PCBs. 71 · El Mundo de la ingenieria electronica
Silicio
Silicio Es bueno que se trabaje en la difusión de este tipo de herramientas CAD, ya que a los que trabajamos y estudiamos electrónica nos ayuda bastante como un software EDA para nuestro desarrollo y, lo mejor de todo, es que es abierto, por lo que no hay necesidad de recurrir a programas piratas o a pagar licencias costosas cada vez que se actualice. Espero que todos comencemos a trabajar para que a las personas que se confunden al no saber cuál herramienta usar les digas “aquí tienes un software que es muy bueno y tienes la oportunidad de usarlo en forma libre”. Espero que podamos compartir libremente la información para que la ideología del Software Libre sea parte de nuestra formación.
CIRCUITO ABIERTO. HUMOR
CIRCUITO ABIERTO. VIVENCIAS
Nos escribe un ingeniero jubilado… Por el GRECO Los amigos que todavía trabajan me preguntan a menudo que qué hago diariamente, ahora que estoy retirado. Pues bien, para mi continua la misma rutina:. Se levanta uno a la misma hora (8 o 9 am.) como si tuviera obligación de ir a la oficina. Hay que correrle a la esposa como si fuera el nuevo jefe, porque realmente uno no distingue quien exige y jode más, pues permanentemente le recuerdan a uno lo mismo: o cumple con lo que le toca o cumple y si no le gusta así, RENUNCIE (la única diferencia es que ella no necesita público para mostrar quien es el que manda, aunque de igual manera, ante nuestros amigos, ambos siempre tratan de hacernos quedar como un cu…ero). Claro que mi esposa dice que vive feliz conmigo, porque, según ella, hacemos el amor casi todos los días: casi el lunes, casi el martes, casi el miércoles, casi el jueves… Ella se preocupa mucho por mí, ya que me demoro toda la noche tratando de hacer lo que antes hacia toda la noche. Eso sí, de día si me pego uno que otro empujoncito, en la mecedora (dormir… mal pensados). La gran ventaja es que a veces le toca a uno inventar algo para no aburrirse. Hoy reflexiono mucho sobre lo importante que es para mí EL TRABAJO, pues soy capaz de quedarme horas… y horas… y horas, sentado en el balcón mirando cómo trabajan LOS DEMAS. En cuanto a la salud, creo que estoy muy bien, me siento como un toro, como un macho cabrío, 72 · El Mundo de la ingenieria electronica
73 · El Mundo de la ingenieria electronica
Silicio pues hace poco tiempo visité al médico y solo me encontró algo que me sonó como a alemán, no recuerdo que era, pero me dijo que me tranquilizara porque eso se me iba a olvidar al salir del consultorio; pero yo creo que fue porque le conté que en mi casa cada día para mí era una nueva experiencia. Me recomendó que cuando me temblara el cuerpo o me diera un ataque de tos, le sacara provecho con mi esposa. También me dijo que evitara el sexo oral… creo que es porque a uno se le va el tiempo hablando y a esta edad sí que hay anécdotas para contar. Me insistió para que fuera más activo, eso sí que evitara tener más nietos… entendí que no los invitara para que no estén en la casa haciendo bulla; que ambientara mi alcoba con luz más sensual… lo hice con un bombillo rojo, pero ahorrador; que hiciera con mi esposa juego de prendas… y cada rato me gana las gafas, el bastón, las pantuflas y la peluca; que a veces en la noche nos dijéramos palabras obscenas, porque eso aviva la pasión, pero siempre se nos olvida ponernos los audífonos. En lo que más me insistió fue que siempre le preguntara a la pareja que cómo se siente… pienso que es por seguridad y por ello mantengo a mano la pipeta de oxigeno. El otro día me fui caminando hasta el centro de la ciudad, por el solo hecho de hacer ejercicio y entré a un negocio a saludar a un amigo, sin tardar en la gestión ni cinco minutos, creo yo. Cuando salí, frente a la puerta del negocio un Policía de Tránsito estaba llenando un parte por infracción de estacionamiento prohibido. Rápidamente me acerqué a él y le dije: ¡Oiga hombre, no he tardado ni cinco minutos...! Dios lo recompensaría si hiciera un pequeño gesto para con los jubilados...Recuerde que hoy usted puede ver en mi, su futuro próximo. Me ignoró olímpicamente y continuó llenando la infracción. La verdad es que me pasé un poco y le dije: ¡Coma m…, respéteme y como mínimo présteme atención! Me miró fríamente y empezó a llenar otra infracción alegando que, además, el vehículo no traía yo no sé qué calcomanía. Entonces levanté la voz para decirle que me había percatado de que estaba tratando con un pendejo... que cómo le habían dejado entrar en el Tránsito..., etc.… etc. Él acabó con la segunda infracción, la colocó debajo del limpia parabrisas, y empezó con una tercera. No me achicopalé y estuve así durante unos 20 minutos diciéndole de todo, hasta de qué se iba a morir… recordando lo que ahora dicen los pelaos, le dije desde pendejo, hasta TabletaHP, feizbuk, eskay, aipón, chatiao, osea, malnacido…, gnofobia..., caco..., pirolobo, qkrrea, cafre, coimero, gonoyonosabia, panguana, nenea, jefecito querido, que pintara un bosque e hiciera en él lo que le diera la gana, etc. Él, a cada insulto, respondía con una nueva infracción. Con cada infracción que llenaba, se le dibujaba una sonrisa que reflejaba la satisfacción de la venganza... Después de la enésima infracción... le dije: Bueno hombre, lo tengo que dejar… porque, ¡Ahí viene mi METROPLUS!...y solo tengo para pagar con mi tarjeta CIVICA. Como ustedes entenderán, desde mi jubilación es necesario hacer algo a mi edad, para no aburrirme. Disfruten mucho su trabajo y mientras puedan disfruten a su jefecito querido. Yo seguiré tratando de recordarlos a ustedes. Con cariño, su compañero y amigo de siempre.
74 · El Mundo de la ingenieria electronica
Silicio CIRCUITO ABIERTO. DESDE LA UNIVERSIDAD
DEPARTAMENTO DE INGENIERÍA ELECTRÓNICA J. Francisco Vargas B. PhD. Jefe Departamento de Ingeniería Electrónica. Universidad de Antioquia. Desde 1967, nuestra Alma Máter asumió el compromiso para la formación de un ingeniero electrónico comprometido con el desempeño profesional y científico, que visualice las necesidades y proyecciones del país con una actitud crítica, investigativa, creadora y de liderazgo, tanto en el sector privado como en el público. Para cumplir con esta meta, el programa de Ingeniería Electrónica se encuentra en continua evaluación y mejoramiento, de modo que se ofrezcan al estudiante de forma adecuada todos los conocimientos para desempeñarse en el medio laboral. Un ejemplo de esto es el actual proceso de autoevaluación con miras a la tercera acreditación de alta calidad que el programa realiza ante el Consejo Nacional de Acreditación, y que permitirá establecer las fortalezas y las debilidades del programa para dar lugar al correspondiente plan de mejoramiento, en el cual quedan consignadas las acciones propuestas para corregir las carencias y potenciar los aspectos destacables del mismo. En la actualidad, se presentan 1100 aspirantes para los 80 cupos que ofrece el programa en cada semestre. El puntaje obtenido por los admitidos al programa sigue siendo alto, cuando se compara con los admitidos para otros programas de la Universidad. Actualmente el 33% de los estudiantes del programa participan en semilleros o grupos de investigación, que sumados a las actividades coordinadas por la Oficina de Bienestar de la Facultad evidencian un aporte importante en la formación integral de los estudiantes. El programa cuenta con 22 profesores de tiempo completo, el 86% de los cuales poseen título de posgrado relacionado con el objeto de conocimiento de la profesión. Actualmente, 10 docentes tienen título de doctor. La calidad del cuerpo profesoral se ve reconocida en la designación de sus miembros en diferentes cargos de importancia dentro de la estructura administrativa de la Universidad: actualmente, por ejemplo, en la Jefatura de Programación Académica (Vicerrectoría de Docencia), en la Jefatura del Centro de Investigaciones (CIA, Facultad de Ingeniería), y en la Dirección Ejecutiva del Centro de Excelencia ARTICA (Alianza Regional en Tecnologías de la Información y las Comunicaciones Aplicadas). Inmerso en una Facultad de Ingeniería decidida a trabajar en
su internacionalización, el programa de Ingeniería Electrónica evoluciona hacia un plan de estudios más flexible, integral e interdisciplinario. Acorde con el Documento Rector de la Facultad de Ingeniería, el Programa de Ingeniería Electrónica asume un cambio en el proceso de aprendizaje convencional, para privilegiar un modelo pedagógico desarrollista con marcado énfasis constructivista. Esto es, que a 75 · El Mundo de la ingenieria electronica
Silicio
Silicio partir del problema planteado el estudiante propone diferentes alternativas de solución, analiza cada una de las alternativas planteadas, organiza los conocimientos que va adquiriendo en las asignaturas y trabaja en grupo de manera cooperativa, con lo cual desarrolla habilidades de observación, análisis y reflexión. Respecto a la flexibilidad del pensum, en la versión más reciente, el estudiante cursa 40 créditos electivos que distribuye entre la línea de profesionalización elegida (Control y Automatización, Electrónica Digital o Telecomunicaciones), un banco de electivas transversales, y otro banco de electivas complementarias. Sigue vigente la figura de curso optativo (curso que no pertenece a su plan de estudios), que permite al estudiante matricular hasta 8 créditos. No se puede hablar de internacionalización sin el manejo de una segunda lengua. En ese sentido, la Facultad ha asumido el proceso de capacitación en inglés para sus estudiantes, con el objetivo de facilitar los procesos de pasantías y dobles titulaciones en diferentes universidades alrededor del mundo con las cuales se han firmado convenios, y que corresponden a un número en constante crecimiento. En los últimos 5 años, 33 estudiantes del programa realizaron intercambios en otros países, con el respectivo reconocimiento de créditos. Las actividades de investigación del cuerpo docente del programa han dado lugar a la conformación y la consolidación de tres grupos de investigación: SISTEMIC (Sistemas Embebidos e Inteligencia Computacional, antes MicroE), GEPAR (Grupo de Electrónica de Potencia, Automatización y Robótica) y GITA (Grupo de Investigación en Telecomunicaciones Aplicadas). Estos grupos participan en diferentes proyectos de investigación, tanto básica como aplicada, con alto impacto académico y social; el creciente número de proyectos de investigación que cuentan con el apoyo de empresas de la región, representa un avance en la reducción de la brecha histórica entre la Universidad y la Empresa. El programa designó a un profesor de tiempo completo, quien dentro de sus actividades tiene la misión de realizar la conexión entre las empresas y la Universidad, de tal manera que se refuerce la transferencia tecnológica, y se identifiquen las necesidades que, a nivel de innovación, tienen las empresas relacionadas directamente con el programa; todo esto con el apoyo de la Oficina de Gestión Tecnológica de la Universidad. Los investigadores de los tres grupos hacen parte de las diferentes iniciativas planteadas en el marco del Centro de Excelencia ARTICA. Este centro surge en la convocatoria publicada por 76 · El Mundo de la ingenieria electronica
Colciencias, y fue escogida para recibir apoyo económico por parte del Estado durante su etapa de conformación y consolidación. La alianza reúne a la Universidad de Antioquia con la Universidad Nacional de Colombia, EAFIT, y las empresas UNE Telecomunicaciones e “IPS UNIVERSITARIA”. Tras 45 años de existencia, somos conscientes de la importancia que para una institución educativa deben tener sus egresados. El programa de Ingeniería Electrónica de la Universidad de Antioquia celebra la reactivación de la publicación de la Revista Silicio, y manifiesta su compromiso para que este medio se consolide como un espacio de difusión e intercambio de ideas entre todos aquellos cuyo quehacer está relacionado con el área de la electrónica. Felicito a la actual Junta Directiva de INELDUA por esta iniciativa y les deseo lo mejor para su gestión al frente de la asociación.
77 · El Mundo de la ingenieria electronica