Cociente7

Page 1

Un panorama de software y hardware para las ciencias y las ingenierías

2008 Año de la computación en México Manifiesto por el 50 Aniversario de la instalación de la primera computadora electrónica en México

> Aproximación a los sistemas de pesaje en movimiento. > Extracción de imágenes para aplicación al reconocimiento visual del habla. > Electrónica molecular / tendencias y perspectivas. > Preparando lo necesario para el diseño de sistemas electrónicos.

7

ma r zo - a br il / 0 8 w w w.c o c ie nt e .com . mx


>L6 7 - } > Ý«ÀiÃÃ

iVÌi°Ê ÃÌ °

*>Ã ÊÓ° ,i} ÃÌÀiÊÃÕÃÊ`>Ì Ã

*>à ʣ° iVÌiÊi ÊV>L iÊ1-

,i} ÃÌÀ Ê`iÊ`>Ì ÃÊ« ÀÊ1- ]Ê> À>Ê ?ÃÊv?V Ê ÌÀ `ÕV i ` Êi Êà vÌÜ>ÀiÊ`iÊ >Ì > Ê ÃÌÀÕ i Ìà >L6 7Ê- } > Ý«ÀiÃÃ]ÊÕ >Ê ÕiÛ>Ê iÀÀ> i Ì>ʵÕiÊ ÀiµÕ iÀiÊ«À }À> >V Ê«>À>ÊÀ?« `> i ÌiÊ>`µÕ À À]Ê> > â>À ÞÊ«ÀiÃi Ì>ÀÊ`>Ì Ã°Ê L i ÃÊV Ê >Ê> « >ÊÛ>À i`>`Ê`i `Õ ÃÊ`iÊ>`µÕ à V Ê`iÊ`>Ì ÃÊ1- Ê«>À>Êi V ÌÀ>ÀÊ Õ >ÊÛiÀ`>`iÀ>Êà ÕV ÊÀi} ÃÌÀ Ê`iÊ`>Ì ÃÊ« Õ} > ` « >Þ°

>L6 7 - } > Ý«ÀiÃÃ - vÌÜ>ÀiÊ ÌiÀ>VÌ Û ÊÃ Ê«À }À> >V

iVÌ Û `>`ÊV Ê ?ÃÊ`iÊÓÇäÊ` ë Ã Ì Û ÃÊ`iÊ +

6i>Ê ÃÊi i « ÃÊÞÊ`iÃV>À}ÕiÊi ÊÃ vÌÜ>ÀiÊ , /1 /" i °V É`>Ì> }} }

>Ì > Ê ÃÌÀÕ i ÌÃÊ jÝ V /i \ ä£ÊnääÊä£äÊäÇ ÎÊUÊ >Ý\Ê­ÈxÈ®ÊÈnÈÊäÎxnÊ v ° iÝ V J °V ÊUÊ °V É iÝ V

ä£ÊnääÊä£äÊäÇ Î

i LÀ ÃÊ Ìi}À>` ÀiÃÊ*Ài iÀ iiÃÊ >LÊi Ê+ÕiÀjÌ>À Ê­{{Ó®Ê{ ÇÊ££nx

^ÊÓääÇÊ >Ì > Ê ÃÌÀÕ i ÌÃÊ À« À>Ì °Ê/ ` ÃÊ ÃÊ`iÀiV ÃÊÀiÃiÀÛ>` Ã°Ê >L6 7]Ê >Ì > Ê ÃÌÀÕ i ÌÃ]Ê ]Ê °V ]ÊÞÊ +ÊÃ Ê >ÀV>ÃÊÀi} ÃÌÀ>`>ÃÊ`iÊ «>VÌ

>Ì > Ê ÃÌÀÕ i ÌÃ°Ê ÃÊ LÀiÃÊ`iÊ ÃÊ ÌÀ ÃÊ«À `ÕVÌ ÃÊÞÊ >ÃÊÀ>â iÃÊà V > iÃÊ i V >` ÃÊÃ Ê >ÀV>ÃÊÀi} ÃÌÀ>`>ÃÊ Ê LÀiÃÊV iÀV > iÃÊ`iÊÃÕÃÊÀiëi VÌ Û>ÃÊV «> >ðÊÊÓääÇ nxÇ£ nÓ£ £n

«>VÌ + - ÃÌi >Ê`iÊ>`µÕ à V Ê`iÊ`>Ì ÃÊ« ÀÊ1- ?ÃÊ`iÊÎäÊ `Õ ÃÊ`iÊ i` V

Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


Contenido Ac ademia

10

26

18>

2008 Año de la computación en México

26>

Aproximación a los sistemas de pesaje en movimiento.

10>

Extracción de imágenes para aplicación al reconocimiento visual del habla.

ma r zo -  a b r il  / 0 8 w w w.co c i e n t e.co m . m x

18

MANIFIESTO por el 50 Aniversario de la instalación de la primera computadora electrónica en México Por Christian Lemaître

Estudio inicial del pesaje de automóviles en movimiento mediante la fabricación de un banco de pruebas que simula el eje de un vehículo y permite la obtención de las curvas dinámicas características de un sistema de pesaje de este tipo. Por Francisco J. Corredor, Wilmar Cabrera, Asfur Barandica. Universidad del Valle, Cali, Colombia

Metodología para la extracción de la forma de los labios de una persona, para lo cual se utilizan secuencias de imágenes de 24 bits a color.Por Luis E. Morán L. y Raúl Pinto Elías. CENIDET México

Industria

14>

Electrónica molecular / tendencias y perspectivas.

23>

Preparando lo necesario para el diseño de sistemas electrónicos.

29>

Entrev ista

En portada la IBM 650 cortesía de IBM. Stacy L. Fortner/ Reference Desk/IBM Corporate Archives Central Services Building/Route 100 Somers, NY 10589 Archive1@us.ibm.com

23 “Los artículos publicados en esta revista reflejan opiniones de la exclusiva responsabilidad del autor”

14

“BPA member since August 2007”

Para continuar el proceso de miniaturización que ha permitido a la ley de Moore mantener su vigencia durante las últimas décadas, será necesario desarrollar dispositivos electrónicos de dimensiones moleculares. El descubrimiento de que algunas moléculas orgánicas y polímeros tienen propiedades semiconductoras ha abierto el camino a rectificadores y transistores basados en este tipo de materiales.Por José Ramón Alvarez Bada

La creciente complejidad en sistemas y tecnologías como procesadores multi-núcleo y FPGAs han vuelto obsoletas las viejas metodologías de diseño. Se necesitan nuevas propuestas: abstracciones a nivel sistema que puedan manejar complejidad y herramientas que automaticen los pasos. Por Ken Karnofsky

Programa de Tecnologías para la Educación Entrevista a los Doctores Felipe Lara y Fernando Gamboa. Por Andrea Domínguez Medina.

Directorio» Editor en jefe: Andrea Domínguez Medina | Editor adjunto: Modesto Vázquez Coronel | Arte y Diseño: Cinthya Dominguez, Ricardo Velasco Mora | Colaboradores: Claudia Domínguez, Alex Eisenring, Aldo Cruz Monroy, Dr. Guillermo Alfonso Parra Rodríguez

Es una publicación Bimestral de Cómputo Científico y Técnico S.A. de C.V. Insurgentes Sur 1188-104, Col. Tlacoquemécatl del Valle, C.P. 03200 México D.F. Tel. 55.59.48.26 Fax. 55.59.80.83, Tiraje 7,500 ejemplares. Año 2, No. 7. Edición marzo-abril/08. Circulación entre suscriptores de los principales centros de investigación y manufactura en México. Prohibida la reproducción total o parcial del contenido de esta revista por cualquier medio electrónico o magnético con fines comerciales sin el permiso previo de los editores. Reserva de la Dirección General de Derechos de Autor: 04-2006-11113130000-102. Certificado de licitud de título No. 13568. Certificado de licitud de contenido No. 11141. Marca registrada ante el IMPI 657903. Distribución: Autorización de Registro Postal PP09-1498. Impresión: art-impresos s.a. de c.v. Calle 32 No. Col. Porvenir, 02960 México D.F. w w w.cociente.com.m x


Editorial El 50 Aniversario de la instalación de la primera computadora electrónica en México y la celebración del año de la computación, marcan el inicio del desarrollo acelerado de la tecnología en nuestro país, a propósito de este evento queremos compartir con ustedes un manifiesto. En cuanto al tema de tecnologías para la educación, los invito a leer la entrevista que Cociente realizó con dos magníficos investigadores cuya labor ya está dejando huella dentro del programa del Macroproyecto de Tecnologías para la Universidad de la Información y la Computación en la UNAM. Y con gusto comentamos sobre el entusiasmo de todos los asistentes a EXPO COMM y EXPO MANUFACTURA 2008. Así como de la estupenda iniciativa que nace en Pachuca: El eFactory Content & Software, un nuevo centro de desarrollo tecnológico. Los editores

Últimas versiones

Cómputo Técnico ¡La última version R2008a de los productos de The Mathworks ya está disponible! A partir del R2008a, las familias de productos de MATLAB y Simulink requieren activación. La R2008a también incluye el License Center, una herramienta online que gestiona las necesidades de administración de licencias comunes.

HPC Toolbox para cómputo distribuido Maplesoft lanzó una nueva caja

Noticias

> Investigadores del INAOE recibieron el Premio Estatal de Ciencia y Tecnología en Puebla por su labor en la divulgación del conocimiento científico < Tonantzintla, Puebla, a 22 de febrero.- El pasado 21 de febrero, en una bella ceremonia realizada en el Salón Barroco del Edificio Carolino de la Benemérita Universidad Autónoma de Puebla, los investigadores del INAOE Esperanza Carrasco Licea y Alberto Carramiñana Alonso recibieron de manos del rector de la citada casa de estudios el Premio Estatal de Ciencia y Tecnología, por sus contribuciones en la divulgación del conocimiento científico. A la ceremonia asistieron además el Lic. Lauro Sánchez López, jefe de asesores del Ejecutivo Estatal; el Dr. Jaime Díaz Hernández, director del Consejo de Ciencia y Tecnología del Estado de Puebla; el Dr. José Guichard Romero, director general de INAOE, así como otras personalidades de la vida académica y científica de Puebla y del país. Esperanza Carrasco y Alberto Carramiñana cuentan con una amplia trayectoria no sólo en materia de investigación, sino en divulgación de la ciencia. Son autores de la columna “Un rincón cerca del cielo”, publicada durante en el diario poblano Síntesis, así como del libro Del Sol a los confines del Sistema Solar, editado por el Fondo de Cultura Económica en la colección “La ciencia para todos”. La Dra. Carrasco es, además, autora del bello libro infantil Miradas al Universo, editado por el gobierno del estado de Nuevo León. Esperanza Carrasco es egresada de la Facultad de Ciencias de la Universidad Nacional Autónoma de México donde cursó la licenciatura y la maestría en física. Obtuvo el doctorado en instrumentación astronómica de la Universidad de Durham en Inglaterra y desde 1994 trabaja como investigadora en el Instituto Nacional de Astrofísica, Óptica y Electrónica en las áreas de turbulencia atmósferica e instrumentación astronómica. Es miembro de Sistema Nacional de Investigadores, de la Unión Astronómica internacional y del grupo científico del Gran Telescopio Milimétrico. Además de participar en las labores de investigación y enseñanza contribuye activamente a la divulgación de ciencia. Su último libro, Miradas al Universo, se ha distribuido en todas las primarias y secundarias públicas de Nuevo León. Alberto Carramiñana es egresado de la Facultad de Ciencias de la UNAM donde cursó la carrera y la maestría en Física. Obtuvo el doctorado en astronomía de altas energías de la Universidad de Durham, Inglaterra y desde 1993 trabaja como investigador en el Instituto Nacional de Astrofísica, Óptica y Electrónica. Es autor de más de 30 artículos en revistas especializadas, miembro del Sistema Nacional de Investigadores, representante de México ante la Unión Astronómica Internacional, integrante del grupo científico del Gran Telescopio Milimétrico y responsable de la construcción del observatorio de rayos gamma HAWC en México. Además de los citados investigadores del INAOE Fuente: Guadalupe Rivera Loy 01 (222) 266 31 00, ext. 7011 grivera@inaoep.mx

de herramientas, dentro de su serie de herramientas para cómputo distribuido. Esta “toolbox” para grid computing permite, utilizando Maple, resolver problemas matemáticos complejos y crear ricos documentos técnicos.

HPC Libreria de Componentes para HPC Numerical Algorithms Group y AMD han desarrollado una nueva versión de la libreria AMD matemática para Core (por sus siglas en inglés ACML).

Intel® C++ Suite de Herramientas para desarrollo de Software en Linux* OS Soporta Dispositivos de Internet Móviles. Ya esta lista la platafoma para la próxima generación de dispositivos de internet móviles para internet de Intel con el nombre en código “Menlow” (con el procesador “Silverthorne” ) que funciona en Linux * (moblin.org, bandera roja *, Ubuntu *).

Esperanza Carrasco Licea

Alberto Carramiñana Alonso

Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


> Nace en Pachuca, eFactory Content & Software, Centro de desarrollo tecnológico <

de los corporativos del sur de los Estados Unidos, Centro y Sudamérica, así como el mercado europeo. “eFactory Content & Software es una muestra del liderazgo de e-Innovation en la creación de contenidos educativos y software ; en cada uno de nuestros procesos contamos con las mejores prácticas en este rubro, por lo que el personal que labore en ella obtendrá capacidades y competencias a nivel internacional, lo que sin duda influirá en todo el Estado de Hidalgo”, mencionó Carlos Sánchez Sodi, director general de e-Innovation, empresa líder en tecnologías de la Información enfocada al e-Learning y Gestión por procesos de negocio. Más información: Patricia Bernal 3095 4305 pbernal@einnovation.com.mx

> 20 millones de horas de supercómputo para la ciencia< 20 millones de horas de supercómputo han sido

Cuenta con una inversión inicial de 2 millones de dólares y creará 170 nuevos empleos de alto valor agregado, utilizando el talento humano de la región.

HIDALGO, Pachuca --- 21 de febrero de 2008 --- eFactory Content & Software, inaguró sus primeras instalaciones en Pachuca, Hidalgo; se trata de un centro de desarrollo tecnológico con foco en la producción de contenidos eLearning y software, que tan sólo en su primera etapa dará empleo aproximadamente a 170 profesionistas de áreas relacionadas con la educación y la tecnología, tales como pedagogía, psicología, especialistas o docentes de materias de educación media superior, ingenieros en telecomunicaciones y programadores, por mencionar sólo algunos. Esta fábrica de contenido y software es producto de un esfuerzo conjunto de e-Innovation y Prosoft. Los beneficios que la eFactory Content & Software trae a la región no se reflejan únicamente en la creación de empleos, sino en el hecho de que se genera una derrama económica importante que además contribuye a mejorar el entorno, tanto por la calidad de las instalaciones, como por el rescate de áreas verdes y proyectos en pro de la ecología local. Con una inversión aproximada de más de 2 millones de dólares, la eFactory Content & Software tiene el objetivo de convertirse en un oferente reconocido internacionalmente para los mercados globales, a través de una vinculación Academia Empresa que permita contar con el recurso humano de talento certificado, que pueda resolver las necesidades imperiosas de servicios

w w w.cociente.com.m x

designadas para la Red Española de Supercomputación o RES. Alrededor de 87 proyectos de investigación serán ejectuados en los siguientes cuatro meses usando las horas de supercómputo. El año pasado la Red Nacional Española se estableció con la meta de compartir experiencia en supercómputo y recursos para los científicos españoles. Cada cuatro meses, el Comité de Acce-

MareNostrum

so, formado por cuarenta y cuatro científicos externos, evalúa de manera individual cada uno de los proyectos recibidos para ser ejecutados en los siguientes siete nodos (incluídos en la red RES): Centro de Supercómputo de Barcelona, con MareNostrum; la Universidad Politécnica de Madrid, con Magerit; el Instituto de Astrofísica de Canarias, con LaPalma; la Universidad de Cantabria, con Altamira; la Universidad de Málaga, con Picasso; la Universidad de Valencia, con Tirant; y la Universidad de Zaragoza, con CaesarAugusta. Estos 87 proyectos científicos están divididos en cuatro áreas: astronomía, ciencias de la tierra y del espacio, biomedicina y ciencias de la salud, física e ingeniería y química y ciencia de la materia y la tecnología. Más información: http://www.bsc.es/ y http://www.cesvima.upm.es/


En breve mejores y más robustos en menos tiempo. ACD/AutoChrom combina control total de instrumentos a través de Agilent ChemStation con la capacidad de dirigir desarrollo de métodos racionales asistidos por computadora. AutoChrom puede llevar a cabo exámenes de escrutinio con combinaciones flexibles de columna, disolvente y amortiguador, así como optimización automática de métodos. El seguimiento automatizado entre inyecciones basado en similitud espectral tanto en MS como en UV, hace mucho más fácil evaluar los resultados de los experimentos. Una vez finalizados los experimentos, los datos son automáticamente transferidos a ChemStation, de ahí regresan a AutoChrom para procesamiento, interpretación y toma de decisión, ahorrando tiempo y ayudando al usuario en futuras decisiones.

Hélio Samora Director América Latina PTC Alejandro Hernández HP

C

PTC y HP se unen para ofrecer una solución de máximo desempeño para profesionistas del diseño y desarrollo de productos. México, D.F., a 19 de febrero de 2008.- En el marco del lanzamiento de Pro/Engineer Wildfire 4.0 de PTC, la solución CAD, CAE y CAM 3D líder para los profesionistas del diseño y desarrollo industrial; PTC y HP, a través de sus estaciones de trabajo, Workstations HP, se unieron para brindar una oferta de valor agregado con el fin de que las organizaciones, grandes y pequeñas, optimicen sus procesos de desarrollo de productos a través de la agilización de tiempos y mayor eficiencia y confiabilidad en sus procesos, lo que asegura una reducción de costos. C

Urge cambiar políticas gubernamentales en ciencia básica En un recorrido especial para prensa Cecilia Montañez, investigadora del CINVESTAV en el área de genética, expresó la necesidad de cambiar las políticas gubernamentales, que se vienen aplicando, en inversión para investigación de ciencia básica.
La investigación de ciencia básica se refiere a la producción de información que ayuda al mejor conocimiento de fenómenos, pero que no tiene una aplicación práctica inmediata. La inversión en este sector ha ido disminuyendo debido a que los alcances de sus resultados son visibles hasta mucho tiempo después, y se han favorecido las investigaciones relacionadas con ciencia aplicada, esto es, aquella cuyos resultados resuelven problemas definidos. Promover la ciencia aplicada es importante, pero la existencia de ésta, se cimenta en los conocimientos generados por la ciencia básica. Si no se inyecta capital a la ciencia básica, México continuará siendo un país sin producción de tecnología propia y jamás dejará de ser dependiente de países más desarrollados. C

ACD/AutoChrom para sofware ChemStation

Avid Technology. La división de consumo de Avid Technology Inc., dio a conocer que analistas de la industria están señalando como una nueva tendencia de entretenimiento ver la televisión vía Internet. De acuerdo con directivos de Pinnacle Systems, la movilidad está alcanzando ahora al sector de entretenimiento: “Desde que se incrementó el uso de laptops en el mundo, la cuestión de movilidad cambió radicalmente, pues permitió que muchos usuarios trabajaran de forma remota sin necesidad de estar en un lugar físico para realizar sus labores. Ahora, la movilidad está transformando la industria de la televisión, pues adaptando dispositivos a la laptop ya es posible transformarla en un receptor de televisión de alta definición. Puedes disfrutar tus programas favoritos de televisión prácticamente en cualquier lugar. Es un hecho, los televidentes están dejando sus controles remotos y levantando sus laptops”, dijo Sergio Correa, country manager de Pinnacle Systems México. C

CTO de Intel se incorpora como directivo de Interactive Supercomputing Interactive Supercomputing (ISC) incorporó a Hill Camp, CTO del área de cómputo de alto rendimiento de Intel, a su grupo de directivos. La inclusión de Camp ayudará a la transición de un ISC en estado inicial, a una fase de mayor madurez como líder de mercado en sof tware de cómputo de alto rendimiento. ISC desarrolla Star-P, una plataforma de software que integra poder de cómputo paralelo interactivo al escritorio. Star-P a software platform that delivers interactive parallel computing power to the desktop. Star-P permite mayor rapidez en el desarrollo de prototipos y la solución de problemas de problemas por medio de un rango de aplicaciones de seguridad, inteligencia, manufactura, energía, biomedicina, finanzas e investigación científica. C

Agilent Technologies y Advanced Chemistry Development firmaron un acuerdo para comercializar en conjunto ACD/AutoChrom para sofware ChemStation que automatiza métodos para el desarrollo de Agilent HPLC, Rapid Resolution LC y sistemas LC/MS. Este nuevo software está diseñado para ayudar a los cromatógrafos en el desarrollo de métodos

Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


Supercómputo, esencial para el futuro de cyberbecas. El matrimonio entre la computación de alto rendimiento y las bibliotecas digitales, incrementará la escala de investigaciones y descubrimientos científicos, según William Arms, profesor de Cornell. “La computación de alto rendimiento reúne grandes cantidades de material – datasets, masnustrcitos, reportes, etc. – que jamás podrían convivir en una librería tradicional” escribió Arms para el tomo de Invierno 2008 del Journal of Electronic Publishing. C

Simulaciones 3D aumentan un reto de 1,000 km México como un hub de servicios de clase mundial. México, D.F., a 12 de marzo de 2008. La Secretaría de Economía, a través de la Dirección General de Comercio Interior y Economía Digital, en la tarea de posicionar a México como un hub de servicios de clase mundial, presentaron el Programa para el Desarrollo del Sector de Tecnologías de la Información (PROSOFT 2.0) y el Programa para el Desarrollo de la Industria de Medios Interactivos (PROMEDIA). Evento presidido por el Dr. Eduardo Sojo Garza Aldape, Secretario de Economía.

Dassault Systèmes lanzó su Reto de Realidad Aumentada Virtual, el cual hará una comparación de un modelo del pie humano contra el maratonista Philippe Fuchs mientras corre de París a Biejing. Para complementar, también se publicó un sitio web que permitirá a los usuarios obtener la posición de Fuchs en tiempo real por medio de una interfase de geolocalización, comentarios en video de sus estado cardiaco, así como actualizaciones multimedia por el mismo Fuchs. Todo esto gracias a un avatar en 3D y TVnima, una aplicación de difusión de Dassault Systèmes. C

C

on un crecimiento en expositores de un 40% respecto al año pasado, y con el lema “soluciones integrales para la manufactura inteligente” del 4 al 6 de marzo se presentó EXPO MANUFACTURA 2008, en Cintermex Monterrey N.L. Más de 200 empresas representando a más de 250 marcas nacionales e internacionales tuvieron contacto con más de 8,500 profesionales en busca de soluciones para la industria: Manufacturera, Preformado, Corte, Maquinado, Laser, CNC, Automatización, Soldadura, Cad Cam, Control de Calidad, Metalmecánica, Maquiladora, Automotriz, Electrónica, Siderúrgica y Fabricación. Isidro Mata Cano, gerente general de Emcon Technologies México, designado como el Manufacturero del Año, presentó la conferencia: Liderazgo y comunicación efectiva, donde se exploraron temas como: confianza, comunicación y capacitación, así como manufactura esbelta en el camino para la construcción de grupos autodirigidos de menos niveles pero con mayor responsabilidad. México esta siendo designado por los grandes jugadores de la industria automotriz como plataforma global de manufactura de varios modelos de automóviles por la demanda mundial, y este plan llevará la producción nacional de 1,500,000 unidades en 2004 a 4,000,000 unidades en el 2010. Este crecimiento sin precedentes demandará de los proveedores de la industria automotriz, de auto partes y otras relacionadas, una constante actualización para cumplir satisfactoriamente con la demanda internacional. Este hecho brinda grandes expectativas para que la industria manufacturera apunte a un crecimiento mucho mayor para el mercado nacional como para el internacional.

Isidro Mata Cano. Manufacturero del año

Crecimiento exitoso de EXPO MANUFACTURA 2008

C

w w w.cociente.com.m x


Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


La otra columna Dr. Guillermo Alfonso Parra Rodríguez

Desacoplamiento, Estructura, Actitud y Propiedad Industrial En general, en toda escuela de prestigio académico e intelectual, profesores eminentes visitan sus aulas, con el propósito de exponer visiones complementarias a las usualmente manejadas por sus propios académicos. Hace algunos días el Dr. Guillermo Aguirre Esponda, nos honró con su presencia en la cátedra denominada “Seminario de Innovación e Investigación” de la Escuela de Graduados en Ingeniería - EGIA, del Tecnológico de Monterrey Campus Ciudad de México. Asistí a su plática como cualquiera de los estudiantes y aprecié de la conferencia los elementos novedosos que se presentaban. En las líneas que siguen me referiré de manera básica a los conceptos expuestos en aquella mañana, por considerarlos fundamentales para que un inventor o un innovador mexicano, lector de Cociente, corone su proyecto con éxito. Para empezar definiré de una manera sencilla los conceptos de actitud y de estructura. Para ello usaremos el ejemplo clásico de un automóvil: la carrocería nos da la imagen, nos da su atractividad, ilustrando así el concepto de actitud. Si vemos al coche, por debajo, vemos la transmisión, en algunos casos el motor y el escape, todo esto correspondiendo al concepto básico de estructura. En el mercado hay multiplicidad de automóviles, los cuales en general tienen una estructura similar, pero una actitud muy diferente. La mayoría de las veces el precio entre modelos varía, precisamente por la actitud, aunque la estructura se conserve. Es más, no solamente el precio de venta por si mismo cambia, sino más bien cambia la cantidad de dinero que un individuo está dispuesto a pagar por el automóvil dependiendo de lo atractivo que lo haya hecho la actitud. Ahora bien, la actitud de un producto en particular, no está hecha exclusivamente de materias primas costosas. En efecto, podemos imaginar un triángulo equilátero dividido en tres partes, en donde la franja horizontal inferior de su base se refiere a materias primas gratuitas, la franja encima de la anterior se refiera a materias primas baratas, y el tercio superior a materias primas costosas. Múltiples posibilidades surgen en el manejo de la altura de las franjas de este triángulo, buscando obviamente la maximización de altura de la franja inferior (materias primas baratas) y la minimización de altura de la superior (materias primas caras), siempre y cuando se acreciente la actitud del producto. En el mencionado caso de los automóviles, un ejemplo de actitud con un costo bajo serían los vidrios entintados: si bien cuestan un poco más, el atractivo del auto cambia de manera importante. Vale la pena señalar que en ningún momento se está afirmando que la actitud es suficiente, sino más bien que esta se puede probablemente mejorar a un costo no muy elevado, manteniendo una estructura competitiva y fiable. Ahora bien, ¿consideraría usted que los equipos de personas encargadas del diseño de la estructura y de la actitud debieran trabajar juntos? Pues la respuesta es que debieran trabajar desacoplados. Esto significa que existe una comunicación entre ambos equipos, sin dependencias y ninguno se deja influir por las restricciones técnicas o presupuestales del otro. w w w.cociente.com.m x

Se plantea la relevancia de la etapa de retroalimentación como el factor más influyente en cada uno de los equipos de diseño, y como paradoja conceptual. Si recordamos la formulación básica de un sistema de control en lazo cerrado, tenemos por supuesto el bloque que define la planta (G), con su entrada y su salida; y el bloque que define la retroalimentación (H). La forma de la ecuación final es [1/ 1+GH]. Al suponer que GH>> 1, podemos asumir que la ecuación se aproxima por [1/ GH]. Vamos a considerar que en general la planta no cambia, lo cual deja esta formulación dependiendo exclusivamente del valor de la retroalimentación. Esto significa que el proceso de diseño no debe estar fundamentado necesariamente en lo que usted busca obtener, sino más bien en la retroalimentación; es decir, en la señal de error y en la atención de la misma dada su importancia manifiesta. Finalmente y como la cereza del pastel, está la importancia en la protección de los derechos de propiedad industrial de los autores. Gran parte de las contribuciones realizadas en estructura y/o en actitud caen en la categoría de invenciones o de activos intangibles protegibles bajo la ley de propiedad intelectual. Por ejemplo la marca asociada al producto, una vez que el mismo ha alcanzado un nivel de ventas y de confianza por parte del mercado, se constituye para los propietarios en un activo intangible, muchas veces difícil de valuar. Algunos de los elementos usualmente considerados para esta tarea son la unicidad de la marca, la transmisión clara y completa de los valores de la empresa, la simplicidad y fácil reconocimiento en varios medios, el uso de la marca en todos los productos de la organización, la protección de la marca contra el uso ilegítimo dado por terceros, la percepción del público usuario en cuanto a su calidad y fiabilidad. En el caso de una invención, los elementos que serán tomados en cuenta para su “valuación financiera” están relacionados con la naturaleza misma de la invención, la ventaja competitiva que provee sobre otros productos similares (si estos existieran), la etapa de desarrollo en que se encuentre, el nivel de protección industrial alcanzado (en trámite o el registro ya obtenido), el modelo de negocio, el respeto al medio ambiente y por supuesto la estimación del tamaño del mercado y el retorno sobre la inversión. De los párrafos anteriores desprendo algunas conclusiones, que espero útiles para el público lector: 1. La retroalimentación. El manejo del error es fundamental en

la búsqueda de la respuesta esperada por el sistema, incluso de una manera más rápida de lo previsto. 2. Desacople a sus equipos. Promueva que trabajen de manera

paralela, más no dependiente el uno del otro. 3. Maximice la actitud, minimizando los costos. Pero no olvide

que actitud sin estructura no tiene sentido. 4. Valore y proteja su marca e invenciones. Son suyas, y tienen

un valor muchas veces superior al estimado. 5. Al Dr. Guillermo Aguirre nuestro reconocimiento, pues parte

de estos sus planteamientos los hago como su discípulo, esperando sean de utilidad para la comunidad lectora.

C

Sobre el Autor: Guillermo Alfonso Parra Rodríguez, Director Escuela de Graduados en Ingeniería y Arquitectura – EGIA, ITESM, Campus Ciudad de México | gparra@itesm.mx | http://www.ccm.itesm.mx/egia


Extracción de la forma de los labios en secuencias de video, para su aplicación al reconocimiento visual del habla Luis E. Morán L. y Raúl Pinto Elías

]

[

Este artículo presenta una metodología para la extracción de la forma de los labios de una persona, para lo cual se utilizan secuencias de imágenes de 24 bits a color. En primer lugar se segmenta la imagen en regiones que contengan píxeles con color que se asemeje al color de piel humana, en seguida se eliminan las regiones, que por su tamaño y forma, no pertenezcan a un rostro humano, una vez obtenida el rostro dentro de la escena, se procede a localizar el área de la boca, finalmente aplicamos el Modelo de la Forma Activa para reconocer la forma de los labios.

Figura 1. Extracción de áreas con tono de piel

Figura 2. Proyecciones Integrales de un rostro

10

El contar con la información visual durante una conversación, modifica la percepción que se tiene sobre la información acústica de la persona que está hablando, es decir la información que obtenemos durante una conversación puede ser diferente, dependiendo si contamos con ambas componentes, tanto visual como acústica o si sólo contamos con alguna de ellas. Por lo tanto se deduce que la componente visual del habla durante una conversación es muy importante, ya que podría ayudarnos a recuperar información, que se perdiera debido a un entorno con demasiado ruido ambiental, incluso cuando hubiera ausencia total de la información auditiva. Además de poder extraer información acerca de lo que se habla durante la conversación, la componente visual del habla nos podría ayudar a extraer la identidad del hablante, esta propuesta de reconocimiento, junto al reconocimiento de rostros son de las más exitosas para la identificación de personas. Existen muchas propuestas encaminadas a la extracción de las características visuales del habla, algunas se enfocan al uso de la información de los bordes [2], [9], [10], otras se basan en segmentar las regiones en base al color [11], [12], aunque las propuestas que han tenido un mejor desempeño, han sido las basadas en los métodos de formas o

contornos activos, como los snakes [13], splines o parábolas [14], los modelos estadísticos basados en la forma y apariencia [6], [7], [8]. En lo referente al trabajo que aquí se presenta, se utiliza segmentación basada en el color, Integrales Proyectivas y el Modelo de la Forma Activa (ASM por sus siglas en ingles). Segmentación basada en tono de piel

Basándonos en que la cara es la región de mayor tamaño dentro de la secuencia de video, se usara la propuesta de [1], la cual está basada en la explicitación de los límites de la región de grupos de píxeles que tienen apariencia de piel. (R, G, B) es clasificado como piel si:

Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


El video es adquirido a través de una cámara digital, la configuración que se maneja es de imágenes de 320x240, con una profundidad de 24 bits. Una vez obtenida la imagen, se procede a realizar la segmentación, utilizando las reglas descritas anteriormente, lo cual nos arroja los resultados que se muestran en la figura 1, teniendo solo áreas que pertenecen exclusivamente a píxeles con tono de piel. Sea R(i) una región dentro de una imagen i(x, y) en escala de grises, las proyecciones horizontal y vertical de la región, se expresan de la siguiente manera

A este tipo de modelos también se le conoce como Modelo de Distribución de Puntos (PDM) [6], el cual consiste en un conjunto de datos de entrenamiento etiquetados manualmente, describiendo así un espacio reducido de posibles formas del objeto. Se parte de un conjunto de entrenamiento, del cual se derivara una descripción estadística de la forma del objeto y sus variaciones, cada elemento de dicho conjunto tendrá cierta cantidad de puntos marcados manualmente, los cuales posteriormente se alinearan, esto con el fin de seleccionar para cada ejemplo una conveniente rotación, traslación y escalamiento, estas variaciones se realizan con el fin de reducir la diferencia de la forma alineada, con la forma promedio, derivada del conjunto entero [6]

Figura 3. Rostro Promedio de un conjunto de rostros alineados, al cual se le calculas las integrales proyectivas que servirán como modelo para la verificación de rostros.

Creación del modelo

Entonces la proyección integral arroja una distribución marginal de valores de gris de la imagen a lo largo de una dirección, ya sea vertical u horizontal. De acuerdo con [4], el mejor modelo de la cara se genera utilizando una proyección vertical y dos proyecciones horizontales, lo que implica que las áreas de las proyecciones horizontales deben estar lo más alineadas posibles al momento de generar el modelo deseado. Entonces para obtener el modelo de la cara, se utilizan una proyección vertical, la cual cubre toda la región de la cara, y dos proyecciones horizontales, la primera proyección horizontal abarca el área de los ojos y cejas y la segunda incluye a la nariz y boca. El modelo de la cara se genera a partir de un conjunto de imágenes, que contienen solamente la cara de1 un individuo, previo al cálculo de las proyecciones la imagen se ecualiza. El modelo se genera obteniendo la media M(j) y la varianza V(j) del conjunto de entrenamiento, para todas y cada una de las proyecciones. Entonces el modelo final de la cara consiste en las siguientes señales unidimensionales.

Suponiendo que se tiene un conjunto S de puntos xi, los cuales están alineados en un espacio común de coordenadas. Estos vectores forman una distribución en el espacio dimensional 2n en el cual se encuentran. Si se puede modelar esta distribución entonces se pueden generar nuevos ejemplos similares a los del conjunto de entrenamiento, y por lo tanto es posible examinar nuevas formas u objetos y decidir si son ejemplos admisibles. Con el fin de poder manipular de mejor manera estos datos, se procede a reducir la dimensión de los mismos de 2n a otra dimensión menor. La propuesta más efectiva es aplicar PCA [6] (Análisis de Componentes Principales en español) a los datos, los cuales forman una nube de puntos en el espacio 2n-D, sin embargo alineando los puntos estos están dentro de (2n-4)-D múltiple en este espacio. Si se aplica PCA a los datos, entonces es posible aproximar a cualquier x del conjunto del entrenamiento, usando

Figura 4. Verificación del rostro.

donde contiene a los t eigenvectores de la matriz de covarianza y b es un vector de dimensión t el cual esta dado por

Una vez obtenidas las áreas con tono de piel, se les calculan las integrales proyectivas a cada una de ellas, posteriormente se tratan alienan con el modelo, si dicha alienación es buena, entonces dicha área se declara como un rostro. Con la información obtenida de las integrales proyectivas se extrae el área de la boca, sobre la cual procederemos a extraer y reconocer la forma actual de los labios. w w w.cociente.com.m x

El vector b define un conjunto de parámetros de algún modelo deformable, si se varían los elementos de b, entonces se puede variar la forma de x, usando (4). La varianza del ith parámetro, bi a través del conjunto de entrenamiento es λi aplicando límites de ±3 λi al parámetro bw se asegura que la forma generada es similar a los del conjunto de entrenamiento original. Usualmente se le deno11


Extracción de la forma de los labios en secuencias de video, para su aplicación al reconocimiento  ]

Figura 5. Alineación de los puntos del conjunto de entrenamiento

Figura 6. Extracción y reconocimiento de la forma de los labios usando el Modelo de la Forma Activa (ASM), dentro del área de la boca,

mina el modelo de variación correspondiendo al ith parámetro, bi, como el ith modo del modelo. Los eigenvectores P definen un espacio común de coordenadas que ha sido proyectado, alineado con la nube de vectores originales de la forma. El vector b define puntos en este mismo marco proyectado. La metodología aquí presentada ha arrojado buenos resultados en la extracción y reconocimiento de la forma de los labios, el uso de los Modelos Activos de la Forma como método de reconocimiento es una de las técnicas más usadas dentro de la visión artificial ya que usa información estadística de la forma del objeto a reconocer, modelando principalmente el tamaño y la rotación del mismo, lo que nos permite manejar distintas escalas y posiciones del objeto dentro de una imagen digital. El problema al que nos hemos enfrentado y que es muy común en tareas de reconocimiento visual es la iluminación que presentan las escenas, por lo que el proyecto se ha restringido a un ambiente controlado en cuanto a iluminación y pose. El siguiente paso es construir el sistema computacional para la lectura de los labios, para lo cual se están utilizando los Modelos Ocultos de Markov. C

previamente segmentada.

Sobre los Autores Centro de Investigación y Desarrollo Tecnológico. Interior internado Palmira s/n, Cuernavaca, Morelos, 62490 México. Email: leml72@cenidet.edu.mx rpinto@cenidet.edu.mx

Appearance for Computer Vision”. University of Manchester, Draft Technical Report. www.isbe.man.ac.uk/~bim/ Models/app_models.pdf [7] J. Nahed, MP. Jolly and GZ. Yang, “Robust Active Shape Models,” Medical Image Understanding and Analysis, Bristol, UK, 2005. [8] M. B. Stegmann, The AAM-API, Informatics and Mathematical Modelling, Technical University of Denmark, DTU, 2003. [9] Pseudoautomatic lip contour detection based on edge direction patterns Gordan, M.; Kotropoulos, C.; Pitas,I.;Image and Signal Processing and Analysis, 2001. ISPA 2001. Proceedings of the 2nd International Symposium on 19-21 June 2001 Page(s):138 - 143 Digital Object Identifier 10.1109/ISPA.2001.938617 [10] A real-time lipreading LSI for word recognition Nakamura, K.; Murakami, N.; Takagi, K.; Takagi, N.; ASIC, 2002. Proceedings. 2002 IEEE Asia-Pacific C Conference on 6-8 Aug. 2002 Page(s):303 - 306 [11] A NEW FUZZY C-MEANS BASED SEGMENTATION STRATEGY. APPLICATIONS TO LIP REGION IDENTIFICATION, Mihaela Gordan*, Constantine Kotropoulos**, Apostolos Georgakis**, Ioannis Pitas** 2002 IEEE-TTTC International Conference on Automation, Quality and Testing, Robotics May 23-25, 2002, Cluj-Napoca, Romania [12] Performance driven facial animation by appearance based tracking. José Miguel Buenaposada, Enrique Muñoz, Luis Baumela. Proc. of Iberian Conference on Pattern Recognition and Image Analysis, IbPRIA 2005. Accepted. Estoril (Portugal), June, 2005 [13] Genetic Snakes: Aplication on Lipreading Renaud Séguier, Nicolas Cladel International Conference on Artificial Neural Networks and Genetic Algorithms (ICANNGA), 2003 [14] A parametric model for realistic lip segmentation Eveno, N.; Caplier, A.; Coulon, P.-Y.; Control, Automation, Robotics and Vision, 2002. ICARCV 2002. 7th International Conference on Volume 3, 2-5 Dec. 2002 Page(s):1426 - 1431 vol.3

Referencias [1] P. Peer, F. Solina, An Automatic Human Face Detection Method, Computer Vision Winter Workshop, Ed. N. Brändle, pp. 122-130, Rastenfeld, Austria, February 1999. [2] Vladimir Vezhnevets, Stanislav Soldatov, Anna Degtiareva, In Kyu Park, Automatic Extraction Of Frontal Facial Features, Proc. Sixth Asian Conference on Computer Vision (ACCV04), vol. 2, pp. 1020-1025. [3] Matthews, I.; Cootes, T.F.; Bangham, J.A.; Cox, S.; Harvey, R, Extraction of visual features for lipreading, IEEE Transactions on Pattern Analysis and Machine Intelligence, Volume 24, Issue 2, Feb. 2002 Page(s):198 – 213. [4] Ginés García Mateos, Alberto Ruiz García, Pedro Enrique Lopez-de-Teruel: Face Detection Using Integral Projection Models, in the Lecture Notes in Computer Science 2396, pp. 644—653. [6] T.F. Cootes and C.J. Taylor. “Statistical Models of

12

Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


w w w.cociente.com.m x

13


Electrónica molecular: consideraciones generales y perspectivas de mercado Por José Ramón Alvarez Bada

14

Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


Para continuar el proceso de miniaturización que ha permitido a la ley de Moore mantener su vigencia durante las últimas décadas, será necesario desarrollar dispositivos electrónicos de dimensiones moleculares. El descubrimiento de que algunas moléculas orgánicas y polímeros tienen propiedades semiconductoras ha abierto el camino a rectificadores y transistores basados en este tipo de materiales. En este artículo se presenta una descripción general de la electrónica molecular y de la atención creciente que está generando en el sector comercial.

L

a famosa ley de Moore, propuesta por uno de los fundadores de la empresa Intel en el año 1965, ha logrado mantenerse vigente por cuarenta años sin desviarse mucho de su predicción original: a saber, que el número de componentes (transistores, diodos, resistores, etc.) que se podrían incorporar en un circuito integrado se duplicaría cada dos años, aproximadamente. Desde el año 1971, en el que el primer microprocesador 4004 de Intel salió al mercado (con 2300 componentes), hasta el año 2004, en el que los microprocesadores Itanium contaban con alrededor de 200 millones de transistores gracias a una tecnología de 130 nanómetros, la ley de Moore se cumplió con una precisión admirable. Es claro, sin embargo, que cada vez va a ser más difícil para las empresas de semiconductores lograr que se siga cumpliendo esta regla de mejora continua. Si se pudiera continuar en las próximas décadas con el ritmo de miniaturización que caracterizó a los dispositivos semiconductores durante el último tercio del siglo XX, para el año 2015 deberían haber tecnologías fabricación con dimensiones típicas de 20 nm; para el año 2025, las dimensiones típicas de un dispositivo integrado rondarían los 4 nm (con 500,000 millones de dispositivos en cada chip). Las tecnologías actuales tendrán grandes dificultades para trabajar en este rango de dimensiones, aunque sólo sea por la complicación que representan los procesos litográficos a longitudes de onda que se adentran en el ultravioleta profundo y la gama de rayos X. Curiosamente, es precisamente la experiencia adquirida en la parte litográfica del tratamiento de semiconductores la que podría ayudar a extender por algunas décadas más la vigencia de la ley de Moore. Las resinas fotorresistentes que se emplean para enmascarar las obleas de silicio en los procesos de fabricación suelen estar hechas de compuestos orgáw w w.cociente.com.m x

nicos con propiedades bien conocidas y caracterizadas. Ciertas variantes de estas resinas, así como diversos tipos de polímeros y compuestos metalorgánicos, han despertado atención creciente en los últimos años por tener propiedades físicas y eléctricas de potencial utilidad en electrónica, incluyendo la capacidad para generar y transportar cargas eléctricas de manera selectiva. No es posible que los nuevos materiales vayan a remplazar al silicio y a los otros semiconductores inorgánicos en la producción de memorias y microprocesadores en un corto plazo: la moderna industria de semiconductores cuenta con billones de dólares de ventaja y tiene, además, las ventajas que dan la experiencia, la estandarización y una base leal de usuarios. En ese sentido, la nueva electrónica nos recuerda a la industria automotriz basada en el hidrógeno De cualquier manera, muchas aplicaciones de la electrónica molecular podrán ocupar nichos específicos de mercado durante los próximos años y algunas corresponden a productos comercialmente exitosos. La idea de utilizar moléculas individuales para efectuar funciones asociadas a dispositivos electrónicos fue planteada en 1974 por A. Aviram y M. A. Ratner, 1 quienes propusieron la construcción de un rectificador basado en una molécula orgánica individual en la que un puente de metileno hacía las veces de la región de deserción de un dispositivo semiconductor. A ambos lados del puente se ubicaban cargas aceptoras y receptoras que harían las veces, respectivamente, del cátodo y ánodo del semiconductor. En los siguientes veinte años, los avances en el campo fueron eminentemente teóricos, con modelos que sugerían la forma en que una molécula individual o un pequeño grupo de moléculas podían comportarse como un transistor o una celda solar. Hay que esperar al año 1997 para los primeros experimentos que determinan propiedades eléctricas de 15


E lectrónica molecular: co n s i d e r a c i o n e s g e n e r a l e s y p e rs p e c t i v a s d e m e r c a d o  ]

dispositivos moleculares individuales. En el año 1998, científicos de los laboratorios Bell (entonces de Lucent Technologies) desarrollaron el primer rectificador molecular: una molécula orgánica que deja pasar corriente en una dirección, pero no en la otra. Tres años después, también en los laboratorios Bell, se desarrolló una molécula capaz de operar como transistor.2 En la electrónica tradicional, los dispositivos se fabrican con procesos que alteran la composición o niveles de pureza de cristales semiconductores, generalmente inorgánicos (Si, Ge, GaAs, etc.). La electrónica molecular se distingue por utilizar moléculas, frecuentemente orgánicas, que efectúan operaciones de conmutación, almacenamiento de datos y otros tipos. En estas moléculas, la distribución de carga eléctrica no es uniforme, sino que hay regiones o radicales con mayor o menor densidad de carga que pueden desempeñar funciones análogas a las de un semiconductor tipo p o tipo n. Un caso de gran importancia en los últimos años es el de los nanotubos de carbono, en los cuales la aplicación de un electrodo puede generar el mismo desplazamiento de cargas que se emplea para operar los transistores de efecto de campo de la tecnología CMOS. Como es de esperar, los materiales que más interesan en el desarrollo de la electrónica molecular son aquéllos cuyas propiedades les permiten emular mejor el comportamiento de semiconductores intrínsecos y extrínsecos. Muchos polímeros y una variedad de compuestos metalorgánicos (los llamados materiales moleculares) cuentan con este tipo de propiedades. La presencia de regiones aceptoras y receptoras en las moléculas del polímero o material molecular son importantes para lograr la generación de excitones, que son distribuciones de carga positiva y negativa análogas a los pares electrón-hueco de la electrónica tradicional. Aquéllas partes de la molécula que no tienen propiedades aceptores ni receptoras suelen ser análogas a las regiones eléctricamente neutras del material (por ejemplo, la región de deserción en un rectificador), o bien pueden comportarse como semiconductores intrínsecos, dependiendo del tipo de radical.3 Cuando se les compara con los semiconductores tradicionales, los semicon16

ductores moleculares tienen ventajas y desventajas particulares. Aunque los procesos de fabricación de estructuras poliméricas o moleculares son relativamente baratos, no son tan versátiles como las modernas técnicas fotolitográficas para producir circuitos integrados. La baja constante dieléctrica de los nuevos materiales implica que las fuerzas de Coulomb tienen mucha mayor importancia que en los cristales semiconductores, lo que tiende a limitar la movilidad de las cargas a valores relativamente pequeños.4 Adicionalmente, las moléculas orgánicas son más susceptibles a la degradación y la vida útil de los dispositivos generados con ellas suele ser más corta. Un problema que ha recibido gran atención de los investigadores en los últimos años es la forma de ligar moléculas individuales a los electrodos que conectan al dispositivo con el mundo exterior. Algunas veces, la molécula forma enlaces covalentes con el metal, facilitando la transferencia de cargas, pero no en todos los casos pueden obtenerse buenas conexiones. Entre las ventajas de los dispositivos moleculares, vale la pena notar la constancia en propiedades. En un semiconductor ordinario, los niveles de energía electrónica dependen de la cantidad de átomos en el cristal que, por lo general, varía durante los procesos de fabricación. Esta variación de los niveles cuánticos produce incertidumbre en el tamaño del gap (sobre todo en dispositivos pequeños) y, en aplicaciones optoelectrónicas, la gama de longitudes de onda que se pueden producir es limitada. En cambio, dos moléculas iguales tienen estados energéticos esencialmente idénticos, por lo que las propiedades electrónicas y ópticas son más fáciles de reproducir con fidelidad. Adicionalmente, las características de operación de la molécula dependen de su estructura, por lo que pueden diseñarse moléculas específicas con propiedades que satisfagan las especificaciones propuestas. El desarrollo comercial de diodos emisores de luz basados en moléculas orgánicas (OLED) ha demostrado el potencial de la electrónica molecular y permitido el desarrollo de monitores para aplicaciones móviles y pantallas de televisión. Sony y Samsung se cuentan entre los principales fabricantes de monitores basados en tecnología OLED. Otras compañías que han hecho

aportaciones importantes en electrónica molecular son IBM y Motorola, que han centrado sus esfuerzos en el uso de nanotubos de carbono, y Hewlett-Packard, con varias iniciativas en el desarrollo de arreglos de memoria.5 Finalmente, vale la pena destacar el creciente número de pequeñas empresas que han surgido en los últimos años para cubrir nichos de mercado específicos. A este respecto destacan Nanochip (patrocinado por Intel) y California Molecular Electronics. C

Sobre el Autor: José Ramón Alvarez Bada es Director de la Maestría en Administración de las Telecomunicaciones en el Tecnológico de Monterrey, Campus Ciudad de México

Referencias: [1] A. Aviram y M.A. Ratner. “Molecular Rectifiers”. Chemical Physics Letters, 29, 2 (1974) 277-283. [2] D. Legard. “Scientists Invent SingleMolecule Transistor”. PC World, 9 de noviembre de 2001. [3] M. Mayor, H. B. Weber. “Molecular Electronics”, en Nanoelectronics and Information Technology: Advanced Electronic Materials and Novel Devices, p. 501. [4] G. Malliaras y R. Friend. “An Organic Electronics Primer”. Physics Today, 58, 5 (mayo de 2005), p. 53. [5] J. M. Tour. Molecular Electronics: Comercial Insights, Chemistry, Devices, Architecture and Programming, p. 15. World Scientific, 2003.

Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


w w w.cociente.com.m x

17


MANIFIESTO

En 2008 se cumplen 50 años de la instalación de la primera computadora electrónica en México y en América Latina. Con ello, nuestro país se incorporó a la era de la computación no sólo como usuario de esta estratégica tecnología en constante evolución, sino también como generador de conocimiento a través de un trabajo progresivo de formación de grupos de investigación que nos ha permitido crecer y alcanzar, hoy en día, un número de algo más de quinientos profesores e investigadores con doctorado en el área. Red Mexicana de Investigación y Desarrollo en Computación (REMIDEC) Firmas:

La IBM 650 fue la primera computadora electrónica instalada primero en la Facultad de Ciencias, y al año siguiente en el edificio que hoy alberga el IIMAS y la DGSCA en la UNAM.

18

Rocío Abascal Mena, UAM Ignacio Ania, ITAM Mario Castelán, CINVESTAV Francisco Cervantes Pérez, UNAM Edgar Chávez, U. Michoacana Carlos Coello, CINVESTAV Jesús Favela, CICESE Fernando Gamboa Rodríguez, UNAM Fabián García Nocetti, UNAM Alexander Gelbukh, IPN Jorge Gil Mendieta, UNAM José Alberto Incera Dieguez, ITAM Héctor Jiménez Salazar, UAM Ángel Kuri Morales, SMIA, ITAM Ana Lilia Laureano Cruces, UAM Christian Lemaitre, UAM Alejandra A. López Caloca, CentroGeo Erick López Ornelas, UAM Efrén Mezura Montes, LANIA Eduardo Morales, INAOE Pablo Noriega, IIIA-CSIC, (España) Hanna Oktaba, UNAM José Bernardo Parra Victorino, ITP Rafael Pérez y Pérez, UAM Luis Alberto Pineda Cortés, UNAM Sergio Rajsbaum, UNAM Isaac Rudomin Goldberg, ITESM José Ruiz Ascencio, CENIDET Víctor Germán Sánchez Arias, UNAM Alfredo Sánchez Huitrón, UDLAP Leonid Sheremetov, IMP Gerardo Sierra Martínez, UNAM David Sol, ITESM L. Enrique Sucar, INAOE Genoveva Vargas, SMCC, UDLAP José Luis Zechinelli Martini, UDLAP

H

oy, México tiene un número importante de especialistas en ciencias de la computación con alta calificación. Juzgamos que si se da un esfuerzo concertado y una adecuada inversión por parte de las autoridades y de las instituciones involucradas, estos especialistas pueden producir mucha más investigación de primera calidad con un mayor impacto para el desarrollo de México. Para ello planteamos a continuación los siguientes puntos:

I. ¿En qué consiste y por qué es importante hacer investigación en ciencias de la computación? Primero Las ciencias de la computación se

ocupan del estudio de las bases teóricas de la información y su aplicación e implementación en sistemas computacionales. Hoy en día, en torno a la computación se ha conformado un amplísimo campo del conocimiento que abarca, bajo varias denominaciones como ciencias de la computación, tecnologías de la información o informática, especialidades que se ocupan desde los aspectos más teóricos cercanos a los estudios matemáticos, hasta los aspectos prácticos asociados a la innovación y creación de nuevos artefactos y aplicaciones. Entre estos dos extremos se sitúan un sinnúmero de áreas relacionadas con todos los aspectos de las computadoras, de las redes que las conectan entre sí, de los sistemas que permiten la administración de la complejidad a la que han llegado estos ingenios, así como del diseño de nuevos sistemas de información de todo tipo, de gestión, de control industrial, de aplicaciones científicas, de juegos, etcétera1. Las fronteras de la investigación y desarrollo en computación están en constante expansión a una altísima velocidad. El extraordinario dinamismo comercial e industrial en torno a las tecnologías de la información no se Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


puede comprender si no se toma en cuenta todo el trabajo de investigación y desarrollo tecnológico que se lleva a cabo en las universidades y centros de investigación públicos y privados de todo el mundo. Usamos el término de tecnologías de la información (TI) para referirnos a las prácticas y productos tecnológicos que incorporan de forma substancial a las ciencias de la computación o que son el resultado directo de la aplicación de las ciencias de la computación enumeradas.

Segundo La magnitud del campo de conoci-

miento de la computación es tal que comprende una gran diversidad de prácticas de investigación. Si bien no es inusual que programas de investigación en ciencias de la computación abarquen la trama de intereses completa, desde la creación de teoría hasta la adopción final de los resultados, no siempre es así. Por ello conviene distinguir las distintas formas de trabajo más habituales en ciencias de la computación, contemplando sus formas de organización, el tipo de resultados que generan, así como los criterios de evaluación que se aplican en cada una de ellas. > En ciertos ámbitos, este quehacer es semejante al de las llamadas ciencias exactas, ya que se basa en estudios analíticos, que ocasionalmente requieren una infraestructura tecnológica especializada (por ejemplo, supercomputadoras y redes de muy alta velocidad) y se expresa en resultados formales (teoremas, teorías, modelos, etc.) comunicados a través de conferencias, cursos y publicaciones especializadas. > En otros ámbitos, el quehacer de investigación en ciencias de la computación se asemeja más a la ingeniería pues se encarga del diseño de artefactos con un valor funcional. Como en las otras ramas de la ingeniería, la investigación se refleja en la producción de prototipos que en las ciencias de la computación suelen ser de hardware o de software; asimismo, se refleja en nuevos procedimientos de trabajo y en la incorporación de esas innovaciones en otras tecnologías o productos. > Es pertinente también señalar que la investigación en ciencias de la computación incluye temas afines a las ciencias sociales, administrativas y del comportamiento, y comparte con ellas aspectos metodológicos —que suponen, por ejemplo, infraestructura y recursos para la experimentación y estudios de caso— así como criterios de calidad distintos a los de las ciencias más duras y cuyos mecanismos de transferencia y asimilación son muy diferentes a los dos anteriores. w w w.cociente.com.m x

>

Finalmente, cabe destacar que, a diferencia de otras áreas del conocimiento, la investigación en computación suele darse en condiciones de fuerte interdisciplina, ya sea porque aparece como un componente científico propiamente de temas pluridisciplinarios —como puede ser la nanotecnología, la genómica o la climatología— o porque se imbrica en formas tecnológicas o en prácticas de disciplinas diversas —como es el caso de la informática médica o la informática de gestión— o porque se nutre de problemas, modelos y teorías de otras disciplinas.

1 Véase taxonomía de las ciencias computacionales al final del documento.

Tercero El avance de las ciencias computacio-

nales y las tecnologías derivadas es fundamental para el desarrollo y bienestar de la sociedad, particularmente por su impacto en la competitividad de los países. Las ciencias de la computación y las TI son consideradas por los países desarrollados como fundamentales para la competitividad y el desarrollo futuro. Por ejemplo, en el actual programa de investigación de la Unión Europea 2, cerca del 30 por ciento de los recursos se destina a proyectos relacionados con la computación, lo que la convierte en el área a la que más recursos se dedican. En un reporte reciente (2007) del Consejo de Asesores en Ciencia y Tecnología dirigido al Presidente de los Estados Unidos de América3, se sitúa a la investigación y al desarrollo en ciencias de la computación y TI como prioritarios para mantener el liderazgo económico y tecnológico de EUA. La investigación en ciencias de la computación y TI no sólo es prioritaria para México, sino urgente. Basta con recordar los pobres resultados reportados en un reciente estudio sobre la competitividad en TI4, en donde México se sitúa en el sitio 44 de 64 naciones, con una calificación de 30.4/100. Entre los diversos aspectos considerados en este análisis el más crítico para México es el de investigación y desarrollo, donde obtuvo un punto de 100. La necesidad de hacer investigación en ciencias de la computación en México

II. La necesidad de hacer investigación en ciencias de la computación en México

Es bien conocido que la investigación es un factor clave para la creación de empresas y productos de alto valor agregado, la obtención de autonomía tecnológica, la formación de profesionales competentes, la atracción y retención de científicos de alto nivel y la innovación en el conocimiento y en la técnica. Aunque algunos de los argumentos anteriores se pueden aplicar también a otras disciplinas, en ciencias de la computación el factor multiplicador 19


S egmentación por color p a r a c a r a c t e r i z a r e l a n d a r h u m a n o  ]

y la velocidad de cambio son substancialmente mayores y, por ende, también los costos de oportunidad. Más explícitamente, es importante hacer investigación en ciencias de la computación: > Porque, actualmente, las TI son ubicuas ya que intervienen de manera significativa en prácticamente todas las actividades de la sociedad (producción industrial, comercio, banca, entretenimiento, salud, comunicación, etcétera). > Porque, dentro del ámbito científico propiamente, las ciencias de la computación y las TI tienen un impacto transversal en las demás disciplinas. Las TI son indispensables como una herramienta de cálculo o de modelación pero las ciencias de la computación también suelen formar parte de la teoría misma —de manera análoga a la presencia de las matemáticas en la física— ya sea por constituir un nuevo lenguaje para expresar nuevas teorías (psicología cognitiva, sociología, economía, etc.) o por ser parte de la formulación de la teoría y su validación. > Porque las TI son parte constitutiva de múltiples productos, procesos y prácticas y el uso sagaz de ellas genera ventajas competitivas en productividad, diferenciación e innovación. > Porque, asociado a las características anteriores, las TI tienen un ciclo de asimilación muy rápido y, por tanto, se da una presión para innovar mayor que en otras áreas. Esto tiene, a su vez, dos efectos significativos: primero, que el efecto multiplicador de las contribuciones científicas dentro de la cadena de innovación sea mayor que en otras disciplinas; segundo, que sea ventajoso intervenir o, al menos, estar cerca de las innovaciones fundamentales si se desea utilizarlas en la fase de despegue. > Porque, a diferencia de otras disciplinas, el costo de la inversión necesaria en equipos y laboratorios para hacer investigación de punta en ciencias de la computación es muy bajo. > Porque, en vista de lo anterior, la incorporación tardía y la falta de innovación tienen un alto costo de oportunidad.

Sin embargo, incluso con estos resultados alentadores recientes, las ciencias de la computación no han logrado un reconocimiento que corresponda a su importancia y características específicas, ni entre las autoridades del ramo, ni en el resto de la comunidad científica. Aun con el crecimiento importante de profesores investigadores en computación en los últimos 15 años, su número es insuficiente ante las necesidades del país. No hay suficientes grupos con la masa crítica requerida, ni se dan suficientes apoyos para desarrollar proyectos con la magnitud y plazos adecuados para lograr el posicionamiento e impactos convenientes para el país.

IV. Líneas de acción claves para promover la investigación en ciencias de la computación en México Por todo lo anterior, sostenemos que las siguientes seis líneas de acción son claves para promover la investigación en ciencias de la computación en México y aprovecharla como un catalizador de la competitividad y el desarrollo del país.

1. Establecer a la investigación y desarrollo en ciencias de la

computación y las tecnologías de información como un área prioritaria para el país. Esto se debe incluir en el Plan Nacional de Desarrollo, estableciendo la necesidad de asignar recursos específicos para promover la investigación a mediano y largo plazo. Asimismo, es necesario reconocer a las ciencias de la computación como una especialidad en sí misma en todas las instancias académicas y gubernamentales, en particular, en el Sistema Nacional de Investigadores (SNI).

2. Contar con una masa crítica de investigadores y grupos de

investigación de primera calidad. Para ello, es necesario hacer un esfuerzo en la formación de nuevos científicos, así como en la actualización de maestros, profesionales e investigadores consolidados. Se deben crear, además, las condiciones para atraer y retener investigadores de primera calidad y, sobre todo, instituir las condiciones que les permitan trabajar de forma productiva. En particular, se requieren, tanto la apertura de plazas para los nuevos investigadores que se están formando, como la existencia de esquemas atractivos para promover la contratación de investigadores consolidados interesados en instalarse en México.

III. Barreras para el florecimiento de la investigación y desarrollo de la computa3. Consolidar los grupos de investigación. No basta con la ción en México No obstante el desarrollo y crecimiento de la investigación en ciencias de la computación en el país, aún persisten diversos aspectos que frenan su consolidación e impacto. Según el último Informe General del Estado de la Ciencia y la Tecnología, CONACYT5, durante el periodo entre 2001 y 2005 la computación fue la disciplina con mayor tasa de crecimiento en el país. Fue también la que recibió el mayor número de citas por autor, con un crecimiento del 62 por ciento, y el impacto relativo (citas por investigador) más significativo entre las diversas disciplinas a nivel nacional (1.54). Esto muestra que, a pesar de ser una comunidad relativamente joven y pequeña, es muy productiva y posee un alto potencial de desarrollo. 20

existencia de numerosos investigadores en el país, es necesario contar con grupos suficientemente grandes, compuestos por investigadores y estudiantes de posgrado, que colaboren durante un tiempo razonable y con adecuada especialización para alcanzar niveles de continuidad, producción y calidad comparables a los de los mejores grupos del mundo. Estos grupos se deben formar, por lo general, dentro de las distintas instituciones pero deberá fomentarse también la formación y consolidación de grupos multinstitucionales y la incorporación a éstos de investigadores que se encuentren aislados temática o institucionalmente. Sin grupos estables y productivos, las capacidades de formación y transferencia de tecnología son disfuncionales.

Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


4. Reordenar los mecanismos de financiamiento y estímulo

a la investigación. Para lograr los objetivos anteriores es necesario contar con recursos previsibles suficientes, cuya obtención y gestión no supongan una carga excesiva ni para los grupos de investigación ni para los propios investigadores. Es deseable instituir mecanismos de financiamiento que propicien la conformación de grupos sólidos orientados a la investigación y desarrollo en las áreas prioritarias y con una visión a largo plazo. Asimismo, deben diseñarse mecanismos de asignación, evaluación y seguimiento, así como incentivos que, en conjunto, impongan exigencias sensatas y objetivas a investigadores e instituciones, den pie a una evaluación pertinente y oportuna y constituyan, en suma, instrumentos para hacer eficiente la inversión. Es indispensable contar con mecanismos de evaluación y estímulos adecuados al dinamismo y características particulares del área.

5. Establecer una estrategia de articulación nacional. Esta

Taxonomia de las Ciencias de la Computacion

La división de la ciencia es artificial, básicamente es una forma de dividir el conocimiento para facilitar su estudio yaplicación. Por ello, esta división es dinámica, va modificándose en función de los avances de la misma ciencia y tecnología. Las ciencias de la computación son reconocidas como área del conocimiento per se en la mayor parte del mundo, como lo evidencian las facultades o departamentos en las universidades, las sociedades científicas nacionales e internacionales que aglutinan a miles de investigadores, los congresos científicos abocados a las diferentes especialidades en las que se subdivide el área, las publicaciones especializadas, así como los organismos de financiamiento de la investigación en los países desarrollados. La siguiente, es una taxonomía actual de las ciencias de la computación basada en la clasificación de la Association for Computing Machinery (ACM), (En: http://www.acm.org/class/1998/ccs98.html):

articulación debe realizarse en distintos ámbitos. Hay que prestar atención a la integración de la investigación en ciencias de la computación con la docencia por un lado y con la transferencia de tecnología por el otro, además de la integración de los investigadores en ciencias de la computación como una comunidad y su coordinación con las otras comunidades científicas. Es necesario fortalecer la intervención de los investigadores en ciencias de la computación en los distintos órganos de evaluación de la actividad científica del país (como el CONACYT y el SNI), así como en los órganos de política científica (Academia Mexicana de Ciencias y el Foro Consultivo). Se deben consolidar los mecanismos de transferencia de tecnología y capital de riesgo que permitan transferir y potenciar el producto de la investigación y desarrollo en ciencias de la computación y TI.

>

6. Establecer una estrategia de vinculación internacional. Es

>

necesario fomentar la participación en redes internacionales de las distintas especialidades con la colaboración de científicos mexicanos en los comités editoriales, los organismos de evaluación, los órganos de gobierno de las asociaciones, la organización de eventos. Se debe fomentar que los grupos de investigación mexicanos y las instituciones que los abriguen establezcan relaciones y alianzas que permitan colaboración en distintos tipos de actividad con contrapartes de otros países. Estas colaboraciones deberán considerar también aspectos de formación que incluyan becas, visitas, estancias, dirección compartida de tesis doctorales, cursos y proyectos bi y multinacionales. Será necesario diseñar estrategias específicas para impulsar las relaciones con los países con los que hay una historia exitosa de colaboración o con los que es importante tenerla, para fortalecer los vínculos con los investigadores mexicanos establecidos en el extranjero, así como con asociaciones profesionales y organismos de promoción y coordinación internacionales.Somos conscientes que las acciones que se tomen en estas líneas les competen a distintos actores sociales. Los abajo firmantes, investigadores en ciencias de la computación, asumimos el compromiso de aportar constructiva y responsablemente todo el conocimiento, experiencia y esfuerzo que nos corresponde.

> > > > >

>

> > > > > > > >

> >

Fundamentos matemáticos y teoría de la computación (teoría de autómatas, computabilidad, teoría de grafos, formalismos lógicos ...) Algoritmos y estructuras de datos (análisis de algoritmos, estructuras de datos ...) Lenguajes de programación y compiladores (compiladores, intérpretes, lenguajes, programación lógica ...) Arquitectura de sistemas (arquitectura de computadoras, organización computacional, hardware ...) Sistemas operativos (sistemas operativos, sistemas tiempo real, concurrencia ...) Computación paralela y distribuida (sistemas distribuidos, paralelos, sistemas ubicuos, autómatas celulares, sistemas cooperativos, computación grid ...) Redes de computadoras y comunicaciones (redes, comunicaciones, criptografía ...) Bases de datos (bases de datos, modelos de datos, bodegas de datos, bibliotecas digitales ...) Ingeniería de software (metodologías, arquitecturas de software, validación y pruebas, síntesis de programas ...) Computación numérica y aplicaciones científicas (métodos numéricos, simulación, física-química computacional ...) Interacción humano-computadora (interfaces, multimedia ...) Gráficas computacionales (gráficas, visualización ...) Inteligencia artificial (razonamiento automático, razonamiento con incertidumbre, aprendizaje, búsqueda, lenguaje natural, robótica, agentes inteligentes, visión, tutores inteligentes ...) Procesamiento de señales (procesamiento de voz, procesamiento de imágenes, reconocimiento debpatrones ...) Sistemas de información (arquitectura de empresas, modelos de procesos de negocio (BPM), orquestación y coreografía de servicios web, sistemas de planificación de recursos empresariales (ERP) ...) Enseñanza de la computación (currículos, estándares, didáctica ...) Áreas interdisciplinarias (bioinformática, ciencias cognitivas ...)

C

w w w.cociente.com.m x

21


Sobre el Autor: Christian Lemaître nació en la ciudad de México, cursó la licenciatura en Física en la Universidad Nacional Autónoma de México, UNAM y el doctorado en Informática de la Universidad de Paris 6. Ha realizado labores de docencia, investigación, desarrollo de innovaciones tecnológicas y consultoría. En el campo de la docencia ha impartido cursos a nivel licenciatura y posgrado en las áreas de inteligencia artificial y ciencia de la computación en diversas instituciones nacionales y extranjeras entre ellas, en el Posgrado de Ciencia e Ingeniería de la Computación de la UNAM, la carrera de Matemáticas de la Facultad de Ciencias de la UNAM, la Maestría en Inteligencia Artificial de la Universidad Veracruzana y del Laboratorio Nacional de Informática Avanzada, A.C., LANIA, la Maestría en Ciencias de la Computación del LANIA, así como la licenciatura de Ingeniería de Computación de la UAMCuajimalpa. Ha sido profesor invitado de la Universidad Politécnica de Cataluña de 1987 a 1988 y ha pasado distintos periodos como investigador invitado en instituciones de Canadá, España, Francia y Alemania. En el terreno de la investigación el Dr. Lemaître ha trabajado en distintas áreas de la Inteligencia Artificial como las de aprendizaje, planificación, procesamiento de lenguaje natural y desde 1991 a la fecha en sistemas y organizaciones multiagentes. Ha publicado 36 artículos en revistas y congresos especializados. Fue Presidente de la Sociedad Mexicana de Inteligencia Artificial, SMIA de 1993 a 1995. Desde octubre 2005 se desempeña como Jefe del Departamento de Tecnologías de la Información de la División de Ciencias de la Comunicación y Diseño de la UAM-Cuajimalpa christian.lemaitre@gmail.com

Referencias: 2 European Commission: The 7th Programme Framework. En: http://cordis. europea.eu/fp7/home_en.html 3 Leadership Under Challenge: Information Technology R&D in a Competitive World. President’s Council of Advisors in Science and Technology. En: http://www.nitrd.gov/pcast/reports/PCAST-NITFINAL.pdf 4 The means to compete. Benchmarking IT industry competitiveness. The Economist Intelligence Unit, 2007 5 CONACYT: Informe General del Estado de la Ciencia y la Tecnología, pp.81-85. En: http://www.siicyt.gob.mx/siicyt/docs/contenido/IGECyT_2006.pdf

22

Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


Preparando lo necesario para el diseño de sistemas electrónicos Por Ken Karnofsky de The MathWorks

[

Usted lo ha escuchado antes. La creciente complejidad en sistemas y tecnologías como procesadores multi-núcleo y FPGAs han vuelto obsoletas las viejas metodologías de diseño. Se necesitan nuevas propuestas: abstracciones a nivel sistema que puedan manejar complejidad y herramientas que automaticen los pasos, frecuentemente caros, o consumidores de tiempo, que existen entre concepto e implementación.

D

]

entro de la realidad del diseño y verificación centrada en procesadores SoC (system on a chip), los métodos a nivel sistema electrónico (ESL) pretenden direccionar algunos de estos problemas. Varias propuestas se han introducido (y algunas otras reempaquetado) desde que el analista de la EDA (Electronic Design Automation) Gary Smith acuño el término ESL hace algunos años. Las herramientas que habilitaron a los diseñadores de hardware para modelar arquitecturas SoC complejas, permitiendo a los desarrolladores de software comenzar a escribir código antes de que el hardware esté disponible, y en algunos casos, auxiliando en la implementación de los componentes del hardware. Sin embargo, la estrecha capacidad de la mayoría de las propuestas ESL y sus herramientas ha limitado su adopción. Se necesita una metodología más completa, que vaya más allá del SoC, para reducir dramáticamente tiempo, costo y errores en el desarrollo de sistemas complejos. La nueva metodología debería: 1. 2. 3. 4. 5.

Asegurar que los diseños del hardware y del software son funcionalmente correctos y cumplan con los requerimientos del mundo real. Ayude al arquitecto del sistema a obtener el diseño “correcto” tan pronto como sea posible, rechazando las propuestas que no sean viables. Anticipar problemas de integración entre sistemas digitales, analógicos, electromecánicos y otros subsistemas. Eliminar las brechas entre el concepto y la implementación de hardware y software y por último. Reducir el creciente costo de verificación.

Manejar estos problemas se ha vuelto crítico para las compañías de semiconductores quienes compiten en mercados de movimientos rápidos y para OEMs (Original Equipment Manufacturer) quienes deben asegurar que sus proveedores entregan dispositivos que cumplen con sus requerimientos de aplicación. Gary Smith a notado la importancia del “restirador del arquitecto” en sus estudios de ESL, pero eso es sólo parte de la respuesta. El llamado Model Based Design (Diseño basado en modelo) se construye en ese concepto para proporcionar una solución más completa a los retos en el desarrollo de sistemas, y las compañías que están adoptando esta propuesta se ven recompensadas con una reducción del 50% en el tiempo del ciclo y por ganancias diez veces mayores de sus inversiones. Model Based Design consiste en cuatro elementos: modelado del comportamiento deseado o de los diseños de referencia, exploración del diseño y refinamiento a través de simulación, implementación con generación de código, y prueba y verificación continúa a lo largo del proceso de desarrollo. Estos elemenw w w.cociente.com.m x

23


tos direccionan los problemas de diseño y verificación inherentes a los sistemas electrónicos de hoy permitiendo a los ingenieros progresar de manera sistemática de la especificación hacia la implementación y hacia la verificación, produciendo modelos ejecutables de sistemas que sin ambigüedad especifica los requerimientos funcionales y físicos. Model Based Design permite a los equipos de ingenieros que trabajan en sistemas analógicos, digitales y subsistemas de software colaborar usando modelos de con esos componentes y el ambiente en que operan. Estos modelos no son meramente bloques de IP (Intelectual Property); estos pueden representar elementos del sistema en varios niveles de abstracción. Entonces, cada equipo puede asegurar que estos componentes se integrarán en un sistema general que cumpla los requerimientos, mientras se realiza la exploración del sistema y las iteraciones requeridas para optimizar comunicaciones sofisticadas y tecnologías multimedia. Los ingenieros incluso pueden identificar y arreglar problemas de manera temprana, y trabajar en sus subsistemas incluso cuando otras partes del diseño aun no estén disponibles. En los flujos de diseño tradicionales, no existen pruebas sistemáticas del sistema completo sino hasta que ha sido implementado completamente. Como resultado, bugs permanecen escondidos hasta muy tarde en el desarrollo del sistema, y arreglarlos es significativamente más costoso y disruptivo. En contraste, Model Based Design permite pruebas del sistema y depuración desde las etapas más tempranas del desarrollo, cuando los mayores errores se cometen. Los modelos pueden ser validados tempranamente a través de simulación y verificados continuamente al tiempo que los modelos de los componentes son refinados con detalles adicionales de implementación. Implementaciones en C, HDL y SPICE así como de modelos ESL, pueden ser incorporados para soportar flujos de trabajo existentes, re-uso de diseños, y pruebas de integración final. Los componentes de los diferentes equipos de diseño se pueden integrar tan pronto como estén disponibles, asegurando que ningún cambio degrada el desempeño del sistema y que los errores pueden ser rápidamente aislados del componente equivocado.

ware embebido. Estos pasos desperdician tiempo y esfuerzo, introducen errores, hacen difícil la interacción con el diseño, y requiere pasos extra de verificación para asegurar que la implementación concuerda con el algoritmo de referencia. Model Based Design supera estos problemas en tres formas. Primero, el código C o HDL puede ser generado de manera automática a partir de los modelos componentes o ser rehusados de implementaciones existentes. Este avance elimina errores de codificación manual, provee flexibilidad para escoger implementaciones de hardware o software, y trabaja con flujos de implementación existentes. Segundo, Los modelos de los componentes pueden servir como la “referencia de oro” para la verificación manual del código C o HDL. Tercero, el sistema y los modelos del ambiente, junto a los datos de simulación se convierten en un banco de pruebas para la implementación, sin importar que la implementación sea codificada manualmente o generada automáticamente. Model Based Design puede unificar y acelerar muchos aspectos del desarrollo de sistemas. Adoptar Model Base Design de forma incremental y mesurada maximiza estos beneficios ayudando a manejar el cambio. Organizaciones incipientes en Model Based Design usualmente comienzan por identificar las causas de raíz en los problemas de calidad y pérdida de productividad en los procesos existentes mientras se remarcan las oportunidades del rehúso de la propiedad intelectual y el knowhow, así como los aspectos de lso procesos existentes que deberían mantenerse. Haciendo esto, el primer proyecto produce resultados inmediatos con una mínima disrupción, y la ROI (Return on Investment) se multiplica en función del aprendizaje para aplicar la metodología pasando por proyectos, equipos y tareas. Para mayor información o artículos relacionados al tema, visite http://www.themathworks.com C

Sobre el autor Ken Karnofsky es Director of Marketing , Signal Processing and Communications en The MathWorks , Inc. ken.karnofsky@mathworks.com

Otra fuente de errores y retrasos en los flujos de trabajo existentes es la conversión manual del concepto a la implementación del diseño. Típicamente, un desarrollador de algoritmos elabora un algoritmo en punto flotante en MATLAB. El arquitecto del sistema seguido recodifica el algoritmo en C, tal vez convirtiéndolo en código de punto fijo al mismo tiempo. El algoritmo es nuevamente recodificado para implementarse en software o hard24

Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


Preparando lo necesario para el di seテアo de si stemas el ectrテウni c o s 窶云

25

w w w.cociente.com.m x


Una primera aproximación al estudio de los sistemas de pesaje en movimiento Francisco J. Corredor, Wilmar Cabrera, Asfur Barandica

¿

Qué propósito tiene el pesaje en movimiento de vehículos? ¿Cuáles son sus ventajas y desventajas? En todo el mundo millones de toneladas de carga son llevadas por camiones desde un puerto o centro de acopio hacia su destino final. El tránsito masivo de estos camiones y su pesada carga genera un desgaste considerable sobre las carreteras. Estudios de ingeniería han demostrado que el daño originado en las vías por el sobrepeso en los ejes del vehículo es una función exponencial de 4to orden [1]. Por esta razón existen normas que regulan el peso de los camiones y su carga. Mediante el pesaje de vehículos se mantiene un control y se previene el daño en las vías ocasionado por el sobrepeso. Debido a la creciente demanda del transporte de carga por carretera, el pesaje estático o convencional de vehículos se convirtió en un tormento con largas filas de camiones esperando su turno en la báscula. Esto llevó a una solución inmediata y fue el desarrollo de básculas para el pesaje de vehículos en movimiento o sistemas WIM (Weighin-Motion) [2][3]. Con estos sistemas se supera el problema de latencia del pesaje estático y lo que es más importante, se puede tener una medida de peso por ejes del vehículo, la cual es otra virtud del pesaje dinámico. Un estudio interesante de la University of Saskatchewan e IRD inc, mostró que un alto porcentaje de camiones cumplían con el peso total permitido, pero no

Figura 1. Banco de pruebas para la medición de peso de carga en movimiento.

26

cumplían con el peso por ejes debido a la mala distribución de la carga [4]. Si bien es cierto que el pesaje dinámico tiene sus ventajas, no es considerado aun mejor que el pesaje estático, debido a sus altas incertidumbres en la medida que lo relegan en muchos casos a determinar rangos de peso. Por eso, este tipo de pesaje se considera actualmente en desarrollo y es investigado a nivel mundial no solo para el pesaje de vehículos, sino también para el pesaje de carga en movimiento en la industria. Los sistemas para determinar el peso de un cuerpo en movimiento son afectados por múltiples variables que generalmente no son relevantes en los sistemas estáticos, entre los que se encuentran la velocidad del cuerpo, la dinámica del sistema de medición, la vibración, la posición de la carga sobre el o los transductores y el área de contacto. Para el estudio de estos sistemas se diseñó y construyó un banco de pruebas que permite obtener en forma rápida y ordenada sus curvas características, facilitando el análisis y la investigación del problema, y finalmente permitiendo proponer modelos que busquen disminuir la incertidumbre en el pesaje dinámico. La tarea básica de un sistema de pesaje de vehículos en movimiento es la captura del peso de cada eje del vehículo. En el banco de pruebas construido, una masa intercambiable apoyada sobre una rueda simula la carga soportada por un eje del automóvil. La rueda pasa periódicamente

Figura 2. Transductor de fuerza.

sobre un transductor de fuerza a una velocidad seleccionada. A continuación se realiza la descripción de los componentes básicos del banco de pruebas mostrado en la Figura 1. Disco giratorio. Es la superficie en donde se encuentra empotrado el transductor de fuerza. Este es impulsado por un motor DC y rota a la velocidad configurada por el usuario. De esta forma se simula el desplazamiento de la carga y se obtienen curvas sin variables físicas indeseables. Sistema de rodamiento. Sujeta firmemente la carga intercambiable y transfiere su peso hacia el disco giratorio. Análogo al eje de un vehículo, este sistema contiene un émbolo que le permite a la carga y su rueda de apoyo libertad de movimiento vertical. Transductor de fuerza. Es una placa de fibra de vidrio cuya geometría se diseñó mediante el análisis lineal estático por el Método de Elementos Finitos (MEF) [5], con el propósito de obtener las mayores deformaciones unitarias en la región central de la placa. La Figura 2 muestra el transductor de fuerza construido. En la parte central de la placa se encuentran adheridas cuatro galgas extensiométricas conectadas en configuración puente resistivo completo, que son los elementos sensores de la deformación de la placa. El transductor de fuerza tiene una linealidad del 99.8%. Estructura de soporte. Sirve de base y unión a todas las piezas del banco de pruebas tales como el motor, el disco giratorio, el sistema de rodamiento y las cajas que contienen los componentes electrónicos. Electrónica. Se realizó un sistema de acondicionamiento de señal y adquisición de datos con comunicación USB basado en el microcontrolador C8051F320 de Silicon Labs. Posee además un sistema de alimentación independiente que provee los voltajes requeridos por las tarjetas electrónicas, la excitación de las galgas extensiométricas y la potencia del motor. Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


Software. Se desarrollaron programas de control, adquisición de datos, protocolo de comunicaciones entre el banco y el PC por el puerto USB, administración de los datos adquiridos (almacenamiento de datos en archivos) y la aplicación encargada de interactuar con el usuario. Relación dinámica en el paso de la carga sobre el transductor de fuerza. La Figura 3(a) muestra una curva típica del pesaje dinámico mediante el banco de pruebas. Esta curva posee una estrecha relación con el desplazamiento de la carga sobre el transductor de fuerza y coincide con curvas reportadas en otros artículos científicos sobre experimentos similares [6], [7], [8]. El trazado de la curva dinámica puede descomponerse en tres etapas. La primera etapa corresponde al trayecto recorrido por la carga sobre el transductor desde el inicio de la placa hasta su parte media (Figura 3(b)). El ascenso parabólico de la curva es debido al aumento progresivo de las deformaciones en el sensor a medida que la carga se aproxima a la parte central de la placa. La segunda etapa muestra el punto máximo (pico) de la curva que se relaciona con la zona central de la placa en donde se obtienen las mayores deformaciones (Figura 3(c)). La tercera etapa está comprendida entre la zona media y el final de la placa (Figura 3(d)) en donde se presenta el descenso progresivo de las deformaciones hasta su valor nulo. Principalmente es aquí en donde ocurren varios fenómenos asociados a la dinámica del sistema de pesaje en movimiento. La deformación sufrida por la placa cuando es cruzada por la carga en movimiento crea una zona de rampa que afecta el recorrido libre de la rueda sobre el transductor acelerando la carga verticalmente. La situación anterior produce dos regiones de baja repetibilidad en el trazado de la curva dinámica, la zona irregular y la zona de colina. El efecto de rampa depende directamente de la deformación del transductor y de la velocidad de la carga, lo cual evidencia la necesidad de limitar la velocidad para obtener una mejor medida de su peso. Obtención de los parámetros de las w w w.cociente.com.m x

Figura 3. Etapas del trazado de la curva dinámica. (a) Curva dinámica, (b) Primera etapa, (c) Segunda etapa, (d) Tercera etapa

curvas dinámicas. A continuación se definen los parámetros de las curvas dinámicas y el experimento realizado para el cálculo de sus valores. Los parámetros son cuantificaciones numéricas que caracterizan el comportamiento de alguna parte del trazado de las curvas dinámicas. Los parámetros considerados en las curvas dinámicas fueron el pico, el índice del pico, la pendiente, la integral de la curva y el promedio de la curva. En la Figura 4 se visualizan dichos parámetros. Para hallar el valor representativo de cada parámetro, se consideró su media aritmética en 10 curvas con peso y velocidad constantes. Se encontraron los parámetros de las curvas dinámicas para un conjunto conformado por 8 pesos de carga y 10 velocidades diferentes. Se consideraron los valores de velocidad igualmente espaciados en el rango 0.160 m/s a 1.393 m/s. De manera similar, se tiene un rango de pesos entre 800 g y 3000 g. Para el análisis de los parámetros se trataron los valores del peso con una normalización unitaria donde el cero corresponde a 0 g y el uno a 3000 g. La frecuencia de muestreo utilizada en la conversión A/D de 10 bits es de 15000 muestras/s. Análisis de los parámetros de las

Figura 4. Parámetros de curvas dinámicas.

curvas dinámicas. A cada parámetro se le realiza el gráfico de dependencia con respecto a la velocidad y el peso de la carga. Para la velocidad de 1.393 m/s, el valor del pico supera al valor del peso estático para todas las cargas. Una regresión lineal de los datos de Pesos versus Pico para cada velocidad logra un coeficiente de correlación R del orden de 0.99, y las pendientes de las curvas correspondientes a estas regresiones decrecen linealmente con la velocidad. De los datos recopilados para el parámetro pendiente se afirma que no se puede obtener una medida de peso directa, ya que sus valores se traslapan a diferentes pesos y/o velocidades. El Índice de pico versus Peso presenta poca información útil debido a su relación no uniforme con los datos de peso. El Índice de pico varía de forma inversamente proporcional con la velocidad, razón por la cual es posible calcular el valor de la velocidad de la carga mediante una frecuencia de muestreo constante. El parámetro Integral varía de manera inversamente proporcional con respecto a la velocidad. El valor de la Integral tiene una variación directamente proporcional con relación al peso. Las curvas de Promedio versus Velocidad y Promedio versus Peso resultaron altamente lineales (R del orden de 0.99). Del estudio anterior se puede afirmar que es posible obtener una medición del peso de la carga mediante la creación de una función compuesta por uno o varios de los parámetros y la velocidad. Diferentes técnicas tales como la segmentación de superficies en planos, aproximación mediante polinomios y ecuaciones compuestas, pueden emplearse para encontrar la relación de 27


U na primera aproximació n a l e s t u d i o d e l o s s i s t e m a s d e p e s a j e e n m o v i m i e n t o  ]

los parámetros de la curva dinámica con el valor del peso de la carga. Ahora se propone un modelo inicial que incorpora una función compuesta entre la velocidad y el promedio para calcular el valor del peso de la carga en movimiento. Ya que el parámetro Promedio se comporta de manera lineal con respecto al peso de la carga en cada velocidad, se puede establecer una función lineal (1) que aproxime el peso mediante este parámetro. Donde W, es el peso de la carga en gra(1) mos, M es el valor del parámetro Promedio de la curva, y los términos A y B dependen del valor de la velocidad de la carga. El término A debe calcular el valor de la pendiente de la regresión lineal Peso versus Promedio para una velocidad específica, mientras que B debe hallar su intercepto. A es directamente proporcional a la velocidad de la carga (2) y B tiene una relación lineal con velocidades menores a 1.119 m/s pero un comportamiento polinómico para velocidades superiores. En todo el rango de velocidades del experimento se decidió tratar a B utilizando un polinomio de tercer grado para su aproximación (3). Las expresiones obtenidas para A y B son:

Figura 5. Pico versus peso y velocidad.

28

Donde V es la velocidad de la carga dada en m/s. (2) (3) El modelo se validó con las curvas dinámicas almacenadas mediante el experimento descrito en la sección 4.2, obteniéndose un error máximo de 5.08% en el cálculo del peso de la carga. Los valores de mayor error se concentran en los datos obtenidos con velocidades superiores a 1.119 m/s. El mayor valor de error obtenido se encuentra en el rango descrito en la literatura para sistemas WIM que utilizan galgas extensiométricas [3]. Conclusiones En este artículo se ha descrito un banco de pruebas concebido para la obtención de las curvas de un sistema de pesaje en movimiento con el cual se constató una gran correspondencia entre el movimiento cinemático del centro de masa de la carga y el trazado de la curva dinámica. Las curvas dinámicas suministradas por el banco de pruebas coinciden con las de otros sistemas de pesaje en movimiento, y como se esperaba, los parámetros de las curvas dinámicas varían en función del peso y la velocidad de la carga. La incertidumbre en la medición aumenta con la velocidad y fue evidente que para el banco de pruebas descrito, a velocidades superiores a 1.119 m/s se presentaban alinealidades fuertes. A manera de aproximación inicial al problema de pesaje dinámico, se presentó un modelo sencillo basado en un sólo parámetro de las curvas dinámicas; los

Figura 6. Pendiente versus peso y velocidad.

Figura 8. Integral versus peso y velocidad.

Figura 7. Índice del pico versus peso y velocidad.

Figura 9. Promedio versus peso y velocidad.

resultados arrojados presentaron errores máximos del 5.08% al aplicarlo sobre el conjunto de las 800 curvas resultantes del experimento realizado. El error hallado es susceptible de ser disminuido con modelos más complejos. La investigación futura se enfocará en la creación de nuevos modelos para el sistema de pesaje dinámico y el empleo de técnicas para el mejoramiento de su precisión. Sobre los autores Francisco J. Corredor, Wilmar Cabrera, Asfur Barandica, Grupo de investigación en Percepción y Sistemas Inteligentes, Universidad del Valle, Cali, Colombia. E-mail: franciscocorredor@yahoo.es

Referencias. [1] Daniel E. Shamo, P.E., “Virtual Weigh Stations”, (May 10, 2002), URS Corporation (317) 636-7469, Indiana Department of Transportation (317) 232-5523 [2] Massload Technologies, “Weighing In Motion and traffic Control Systems,” www. massload.com/weigh_in_motion_pg.html [3] B. McCall, W. C. Vodrazca. (1997, Diciembre). States’s successful practices WeighIn-Motion handbook. Center of transportation research & education (CTRE). Ames, Iowa. http://www.ctre.iastate.edu/research/wim_pdf [4] Rob Bushman, P.Eng. and Dr. Curtis Berthelot, Ph.D., P.Eng., University of Saskatchewan, Brian Taylor, P. Eng, International Road Dynamics Inc, “Commercial Vehicle Loading In An Urban Environment”, (febrery 4, 2004), http://www.ird.com [5] J. A. Erazo, J. C. Escudero, “Diseño y construcción de una celda de carga tipo S junto con su instrumento indicador de peso,” Tesis de pregrado, Escuela de Ingeniería Eléctrica y Electrónica, Universidad del Valle, Santiago de Cali, Valle del Cauca, 2004. [6] T. H. T. Chan, S. S. Law, T. H. Yung and X. R. Yuan, “An interpretive method for moving force identification”, Journal of Sound and Vibration, 1999, pp. 503-524. [7] K. Molnár, I. Bogár, A. Görgényi, and L. Sujbert, “Dynamic Weighing System Of Railway Carriages”, XVII IMEKO World Congress, Metrology in the 3rd Millennium, Dubrovnik, Croatia, June 2003, pp. 1-4. [8] A. Liljencrantz, R. Karoumi and P. Olofsson, “Implementing bridge weigh-in-motion for railway traffic”, Computers and Structures, 2007, pp. 80-88.

Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


Programa de Tecnologías de la Información para la Educación l impacto que las Tecnologías de la Información y la Comunicación están teniendo en la educación es de tal magnitud, que hay quien no duda en calificarlas de revolucionarias. Su avance ha sido vertiginoso, cambiando radicalmente el panorama de la educación y sus posibilidades en tan solo unos lustros. Esto se debe en buena medida al surgimiento de herramientas que propician un cambio substancial en las condiciones en que se produce y distribuye el conocimiento, creando ambientes y espacios que mejoran la colaboración presencial y remota, síncrona y asíncrona, entre grupos de científicos, profesores, artistas, intelectuales y estudiantes. En este nuevo contexto, en el que la información y la comunicación se hacen omnipresentes, se ha señalado, cada vez con mayor insistencia, la necesidad de cambio en las universidades mismas: mayor alcance, flexibilidad, eficiencia y dinamismo. Esto implica un reto que no es menor ni cosmético: es necesario investigar y proponer los modelos, medios y herramientas que posibiliten el desarrollo, uso, integración y apropiación de nuevas estrategias y métodos de enseñanza apoyados en tecnología, a la práctica universitaria. Esto conlleva al diseño de nuevos ambientes de aprendizaje, distintas formas de interacción, así como planes y programas de estudio más flexibles y adecuados a estas circunstancias, al tiempo que se mantienen los estándares de calidad y excelencia. La UNAM no escapa a la necesidad de integrar las nuevas tecnologías a sus diferentes modalidades de enseñanza (presencial, abierta y a distancia). Sin embargo, es sabido que problemas tan complejos, como el de la educación, no pueden ser resueltos únicamente desde una perspectiva tecnológica. Se trata, en efecto, de un problema que involucra elementos sociales, culturales, administrativos y políticos; y que por lo tanto, requiere de un grupo interdisciplinario capaz de estudiar y proponer soluciones articuladas con una visión global e integradora. En este contexto surge la necesidad de que nuestra universidad, consecuente con su identidad sustantiva tradicional, vinculada con la función social y política de preservar, generar y difundir conocimientos socialmente útiles y legítimos, reúna un grupo interdisciplinario de especialistas capaz de investigar, diseñar, crear e impulsar nuevos paradigmas de enseñanza con uso intensivo de tecnologías, sin perder el enfoque humanista universitario ni el rigor académico. En ese orden de ideas, en este documento se presenta un Programa de investigación interdisciplinaria y desarrollo tecnológico, en Tecnologías de la Información para la Educación a Distancia, fuertemente sustentado y complementado con expertos provenientes de otras áreas de conocimiento, concomitantes a su desarrollo. Es por ello que, como parte nodal de sus trabajos, el Programa plantea la creación del Red Académica Virtual de Tecnologías en la Educación: un grupo de académicos universitarios, actualmente dispersos en diversas dependencias universitarias, en el que se reúnan expertos en cómputo e informática, didáctica, comunicación, psicopedagogía, ergonomía, visualización, bibliotecas digitales, inteligencia artificial y telecomunicaciones, dando origen a un grupo interdisciplinario que sea capaz de diagnosticar la situación de la universidad con respecto al uso que está haciendo de las TIC’s en la enseñanza superior, identificar áreas de oportunidad para desarrollar tecnología de frontera con fundamento psicopedagógico, y evaluar su impacto en su quehacer cotidiano.(1) w w w.cociente.com.m x

Dr. Fernando Gamboa Rodríguez Dr. Felipe Lara Rosano

Nos da mucho gusto presentarles la entrevista con los Drs. Felipe Lara Rosano y Fernando Gamboa Rodríguez, coordinadores del Programa de Tecnología informática para la Educación en el marco del “Macro proyecto de Tecnologías para la Universidad de la Información y la Computación” de la UNAM (ver cociente No.2 )

Cociente... ¿En que consiste el programa de tecnologías para la educación?

Dr.F-Lara… Bueno este programa surgió hace ya casi tres años, como una propuesta aceptada por rectoría y dentro del marco del Macroproyecto de Tecnologías para la Universidad de la Información y la Computación. Dicho programa se desarrolló en conjunto con la Coordinación de la Universidad Abierta y Educación a Distancia de la UNAM (CUAED ) cuyo coordinador es el Dr. Francisco Cervantes Pérez. Esto con el fin de que los esfuerzos de investigación teórica experimental no se queden en eso si no que estén íntimamente vinculados con su aplicación a través de la CUAED, lo que garantizará la aplicación de resultados que valgan la pena a mejorar en forma directa la educación a distancia dentro de la UNAM.

Cociente... ¿Qué proyectos abarca?... Este programa abarca cinco proyectos, el primero el de un modelo sistémico de la educación a distancia. Aquí se trata de analizar el fenómeno de la educación a distancia identificando los actores que participan en la misma, así como el entorno en que se ha desenvuelto y en el cual debe desenvolverse a futuro esta importante rama de la educación. La idea es llegar-si es posible- a un modelo de simulación dentro de un entorno complejo, todo esto considerando que la educación a distancia es muy importante en el futuro para la universidad, debido a 29


P rograma de Tecnologías d e l a I n f o r m a c i ó n p a r a l a E d u c a c i ó n a D i s t a n c i a  ]

que sus instalaciones físicas se encuentran saturadas desde hace un buen número de años. Esta opción permitirá construir el “segundo piso” de la universidad, ofreciendo educación de calidad a nivel licenciatura y postgrados con el enfoque de educación a distancia. El segundo proyecto tiene que ver con el diagnóstico de lo que se a hecho en universidad abierta y enseñanza a distancia en los últimos 20 años en las distintas escuelas y facultades. A cargo de este proyecto se encuentra la Dra. Rocío Amador Bautista, investigadora del Instituto de investigaciones sobre la Universidad y la Educación de la UNAM, quien en conjunto con un grupo de investigadores se han dado a la tarea de ir, facultad por facultad, detectando problemáticas y logros.

Dr.F-Gamboa… El tercer proyecto es la Biblioteca Digital de Material Didáctico (BIDIMADI), el cual surge como un esfuerzo por recuperar y analizar el vasto acervo de material didáctico que se han generado en la UNAM. En ese sentido, el proyecto busca, primero, establecer una estructura -tanto psicopedagógica como bibliotecológica- que permita definir los diferentes tipos de material didáctico, al tiempo que define criterios que permiten calificar su calidad e integra toda la información bibliotecológica necesaria para poder catalogarlos. En segundo lugar el proyecto busca, utilizando los modelos y los criterios establecidos, identificar y documentar y normar criterios de ubicación para los distintos tipos de materiales didácticos, pues la educación a distancia y la universidad abierta se basan de manera fundamental en el material didáctico. En el origen del proyecto está el hecho de que en la UNAM se ha generado mucho material didáctico, pero qie no se sabe dónde está, quién lo produjo, ni en qué condiciones se encuentra. Por esta razón el proyecto de biblioteca digital de material didáctico es tan importante. Esperamos que este proyecto genere un gran banco de datos tanto de materiales didácticos impresos, audiovisuales o digitales, que puedan ser utilizados por todos los miembros de la comunidad universitaria. Otro proyecto es el que se denomina el Aula del Futuro. Aquí estamos hablando de dos planteamientos base muy sencillos, que son: por una parte, ¿cómo creemos que van a ser 30

las aulas en cinco o diez años, en términos de las estrategias didácticas y las diferentes modalidades de enseñanza que estaremos utilizando? Y en ese sentido, ¿qué tecnologías, algunas de ellas que todavía no están aquí-pero que ya se entrevén- van a tener un impacto en ese nuevo salón de clase? Todo ello con el objetivo de desarrollar prototipos de estas nuevas tecnologías y evaluarlas en la dinámica de un salón de clases Por otra parte, ¿cómo deberíamos de integrar la tecnología informática al aula?,¿cuál es la manera correcta de hacerlo? En ese sentido, el Aula del Futuro es un Aula Laboratorio en la que se pueden observar las diferentes actividades de los profesores y los alumnos, las maneras en que las realizan y las dificultades que encuentran cuando se introducen nuevos artefactos tecnológicos. Todo esto permite al equipo de trabajo analizar y revisar sus diseños y sus propuestas, de modo que paulatinamente se obtengan dispositivos y programas de un uso sencillo y evidente para sus usuarios, apoyándolos en sus tareas más que interfiriendo en ellas. El último proyecto es el académico-administrativo que denominamos la Red Académica de Tecnologías para la Educación. Los alrededor de 50-60 académicos que estamos en los proyectos que hemos mencionado precisamos de un espacio donde compartir, discutir y llevar el control de todo lo que está sucediendo en el Programa, con el objetivo de poder afianzar relaciones horizontales entre los diferentes proyectos, y por esa vía madurar esta red. En ese sentido, el proyecto de la Red Académica busca coordinar diversas actividades como seminarios, un sitio web, etcétera, que permitan a los involucrados estar en contacto. Todo esto me lleva a un punto que es anterior a los proyectos. Cuando planteamos el Programa de Tecnologías para la Educación, había un número importante de reflexiones, de las cuales se desprendieron varias preguntas interesantes. Una de ellas es que el problema de tecnologías para la educación es inherentemente interdisciplinario, lo cual significa que su abordaje requiere de académicos con perfiles muy diversos. La UNAM, como máxima casa de estudios del país, cuenta con las y los académicos que se requieren para la tarea, pero dispersos entre sus muchas Facultades, Escuelas e Institutos. Hasta antes del Macroproyecto estos académicos no contaban con el marco que les permitiera trabajar de manera coordinada, pues los programas o proyectos que existían no

eran lo suficientemente flexibles como para fomentar e impulsar estas nuevas redes. En ese sentido, una de las primeras ventajas que nos ofreció el macro proyecto fue un marco institucional en el cual muchos académicos de perfiles diferentes convergen en proyectos y en programas interdisciplinarios. Sin embargo, la forma de trabajar en redes es muy nueva, por lo que existen inercias que deben ser modificadas, de modo a poder cohesión entre los académicos participantes y lograr que esta red se consolide en estos proyectos y los que vengan en el futuro. Una segunda reflexión giraba alrededor de la necesidad de conocer el estado de la UNAM en cuanto al uso de tecnologías en la educación, así como lo referente a sus programas de universidad abierta y a distancia. Un tercer punto giraba alrededor de las herramientas formales que permitieran estudiar el fenómeno. Finalmente, existía el interés por estudiar y analizar opciones en que las TIC pudieran apoyar de manera eficiente las actividades de la UNAM, tanto hoy como las que están en el mediano plazo. Como puede apreciarse, estas reflexiones iniciales derivaron en proyectos concretos que hoy día ya están dando sus primeros frutos.

Cociente… Tienen aplicaciones ya generadas en estas cinco líneas de acción del programa de tecnología educativa?

Dr.F-Gamboa… Sí. Por ejemplo, la BIDIMADI ya tiene un prototipo en línea en el que se han ingresado más de 1200 materiales didácticos, el proyecto del diagnóstico ya levantó la información de todo el sistema de universidad abierta y educación continua, el Aula de Futuro ya cuenta con primeros prototipos de escritorios interactivos colaborativos. En estos espacios de colaboración se desarrolla tanto hardware como software. En educación hay que plantear estrategias educativas claras donde uno determine en que momento se inserta la tecnología. No es solamente llegar y poner tecnología sino diseñar y estudiar la estrategia de enseñanza para usarla. Por un lado estamos desarrollando tecnología y por el otro diseñamos la secuencia pedagógica para poder utilizarla. Esto nos permitirá evaluar el impacto que esta teniendo o nó en el aprendizaje de los estudiantes. Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


¿Cuál es la labor del maestro frente a la tecnología educativa? Se puede sustituir?

Dr.F-Lara En el modelo sistémico hemos identificado que hay varios tipos de maestros. En primer lugar están los académicos que saben de la materia y pueden ser inclusive investigadores que están en la frontera del conocimiento. Después están los expertos en conocimiento pedagógico del contenido, (no todo lo que sabe ese investigador vale la pena transmitirlo. Hay que hacer una selección de acuerdo con criterios tanto pedagógicos como científicos e inclusive de aplicación). Los expertos en conocimiento pedagógico del contenido no sólo saben que conviene sino como conviene transmitir este conocimiento. Con este conocimiento se generan los programas de estudio y los paquetes que se implementan en la educación a distancia generando la tercera especie de personas que son los instructores. Estos son los que están en línea a disposición de todos los estudiantes para resolver preguntas y abrir espacios o foros comunes de discusión de problemas, respuestas, dudas; de tal manera que el estudiante sienta que hay alguien detrás de la computadora y el programa, y que está atento a lo que él está haciendo y al cual pueda recurrir para satisfacer cualquier duda que surja. Estos tres tipos de académicos se tienen que integrar. El profesor -con o sin tecnología- es importante en un 90%. El profesor es central en el proyecto del aula del futuro. Es esencial, nodal; sin él no se hace nada.

Cociente… Cuál es el perfil del profesionista que trabaja en estos programas?

Dr.F-Gamboa… Una de las principales características que se tiene en común es la sensibilidad para hablar, trabajar y colaborar con gente que no es de la misma área, y esto es algo que todos los profesionistas que participan han tenido que desarrollar gradualmente, e ir avanzando en ese sentido para formar un lenguaje común que se encuentra en integración. Los psicopedagogos no hablan el mismo lenguaje que los tecnólogos, que los sociólogos , administradores etc. Cada persona que se integra necesita un primer umbral de paciencia y disposición para hablar y w w w.cociente.com.m x

entenderse con otra persona que tiene otras prioridades y otros objetivos, y empezar a llegar a acuerdos. La segunda característica que va muy de la mano es la afinidad a trabajar en red, ya que al día de hoy, el paradigma privilegiado es el trabajar de manera aislada. Cada quien hace su proyecto, cada quien hace su tarea etc. Sin embargo esta nueva manera de trabajar en red tiene nuevos retos, una nueva forma de vencer obstáculos, que implican que la gente tenga disposición para confrontar ideas y lograr acuerdos.

¿Tomaron modelos ya estudiados en otras partes del mundo para proponer los propios?

Dr.F-Gamboa…

Por otro lado dentro de esta perspectiva el Dr. Gamboa está participando en la creación del postgrado en Sistemas y Ambientes Educativos.

En realidad las tecnologías están llegando al mundo muy rápido; es decir, como sociedad estamos apenas entendiendo como se están integrando estas tecnologías en nuestra vida diaria y la educación no es la excepción. En todo el mundo se están haciendo las mismas preguntas que nosotros sobre la mejor manera de hacer esta integración. Por supuesto que hay casos de éxito pero todavía son tan aislados y tan poco estudiados que no podemos decir y explicar con precisión porqué son casos de éxito. Con orgullo podemos decir que en México se está haciendo investigación de frontera.

Dr.F-Gamboa

Cociente

Dr.F-Lara

Este posgrado surge a partir de la necesidad que existe actualmente por impulsar, tanto la formación de recursos humanos a nivel posgrado, con una formación interdisciplinaria y una visión compleja del problema, como la investigación básica y aplicada que se desarrolla en el área, Es importante enfatizar que la educación a distancia, si bien es el futuro, no es la panacea; es necesario estudiar con rigor sus implicciones, además de trabajar en la definición y estudio de nuevas propuestas, como los ambientes mixtos donde algunas actividades son llevadas a distancia y otras de manera presencial en el aula, etc. El posgrado se concentra en el problema educativo mediado por tecnologías, de modo que se habla de “Sistemas” para enfatizar, primero, el enfoque sistémico de la propuesta, pero también para señalar que cuando se introducen tecnologías al problema educativo es necesario considerar sistemas sociales, sistemas políticos, sistemas educativos, sistemas informáticos, etcétera. Por otra parte hablamos de “Ambientes” para suscribir una posición que cada vez gana más aceptación, y que indica que la educación no sólo ocurre en la escuela, sino que también en el trabajo, en la casa, jugando etcétera. Creemos entonces que el concepto de Sistemas y Ambientes educativos abarca de manera más precisa el fenómeno en toda su complejidad; es decir, hay muchos actores que intervienen, hay muchas relaciones que hay que estudiar y entender, y a su vez todo esto puede darse en muchos contextos diferentes.

Cociente…

Programa de Tecnologías de l a I nformaci ón para l a Educaci ó n a D i s t a n c i a  ]

Cociente

En el desarrollo de este proyecto utilizan clusters?

Dr.F-Gamboa… No. En realidad el programa no lo requiere. Sin embargo otros proyectos dentro del macroproyecto sí los utilizan y esto es lo interesante del macroproyecto, pues si eventualmente en alguna de nuestras investigaciones se requiere de algún cluster, o si ellos necesitan de nuestros materiales y nosotros de su poder de cómputo…. la idea es que lleguemos a puntos de contacto donde se conjunten esfuerzos de los distintos proyectos. Junto con todas las redes estamos formando una meta red, buscando establecer muchas líneas horizontales que atraviesen el macroproyecto. Datos para contacto: Dr. Felipe Lara Rosano. Investigador titular C del CCADET-UNAM y actualmente Jefe del departamento de Tecnologías de la información. Coordina el grupo de cibernética y sistemas complejos. Dr. Fernando Gamboa Rodríguez. Técnico académico titular C / CCADETUNAM. Coordina el grupo de sistemas y espacios Interactivos para la educación, Tel. +(52)(55) 562-28602 ext. 1172 Centro de Ciencias Aplicadas y Desarrollo Tecnológico CCADET-UNAM Referencias (1) www.dynamics.unam.edu/ptid/redinformatica/ files/pc/Programas/Dr_Lara.ppt

31


Notas de Prensa ¡Sorprendente EXPO COMM 2008!

Presencia de National Instruments en EXPO COMM 2008

México, D.F. a 11 de Marzo de 2008.- Con aproximadamente 13,896 asistentes, más de 100 conferencistas, siete pabellones internacionales y 300 empresas participantes, EXPO COMM MÉXICO 2008 ofreció durante cuatro días una amplia gama de soluciones de primer nivel de la industria de Telecomunicaciones y Tecnologías de la Información y Comunicaciones (TIC), así como los anuncios más importantes del sector para este año. E X P O C O M M M É X I C O se consolidó un año más como el foro de negocios del sector de las Comunicaciones y Tecnologías de la Información más importante del país, logrando reunir a los principales expertos y líderes de la industria, tales como, Luis Téllez Kuenzler, titular de la Secretaría de Comunicaciones y Transportes (SCT), Héctor Osuna Jaime, presidente de la Comisión Federal de Telecomunicaciones. Durante el evento, se dieron a conocer los principales planes y propuestas para este 2008, como la licitación de cuatro bandas de frecuencia APRA, servicios de telefonía celular y para conexión a Internet de alta velocidad (Wi-Max), la subasta para frecuencias del servicio móvil, entre otros. También se anunció que en julio próximo, México será el primer país en implantar en toda Latinoamérica, la portabilidad numérica. T E C N O L O G Í A S S U S T E N T A B L E S Por primera vez en México, un Consejo Consultivo conformado por autoridades ambientales e iniciativa privada otorgó el reconocimiento GREENCOMM AWARD Mèxico, en el marco de Expo Comm México 2008. La Ing. Sandra Herrera Flores, Subsecretaria de Fomento y Normatividad Ambiental, de la Secretaría de Medio Ambiente y Recursos Naturales (Semarnat) expresó que la entrega de este premio hace evidente que un mejor desempeño ambiental de las empresas conlleva necesariamente mayores niveles de eficiencia y competitividad de las empresas. Esta iniciativa de E.J.Krause de Mèxico, logrò conjuntar las propuestas de las empresas AMD, APC, LEVICOM, NOKIA, SUN MICROSYSTEMS, HP, IBM, HITACHI, TANDBERG, POLYCOM y WESTERN DIGITAL. El Consejo Consultivo calificó a las empresas HITACHI y HP como las mejores empresas para obtener dicho reconocimiento, destacando sin embargo, la importante labor de todas las compañías participantes quienes presentaron importantes esfuerzos en pro del medio ambiente.

Lesley Gavin, futuróloga de British Telecom

Presencia de Agilent Technologies

32

O F E R T A E D U C A T I V A Lesley Gavin, futuróloga de British Telecom, comentó en su conferencia magistral que “cada vez somos más dinámicos y nos orillan a tomar decisiones de manera más rápida. Además que interactuamos con muchas más culturas, en todo lugar, tiempo y con empresas globales que no pueden sujetarse a horarios rígidos, sino adaptables a las oportunidades que brindan las Tecnologías de la Información, las máquinas”. Las relaciones humanas han cambiado, afirmó Gavin, “el jefe tiene que tener confianza en el empleado, en cómo trabaja de manera móvil, y el empleado debe asumir sus propias responsabilidades y horarios de trabajo; en muchos casos terminó el cara a cara. Las computadoras son las que harán muchas de las cosas que antes solo hacia el empleado. Las máquinas trabajan con las máquinas y el hombre detrás de ellas, esa es la Inteligencia Artificial ”. Por otra parte, en torno a que e l motor de la competitividad y la productividad a nivel global es la Arquitectura híbrida de negocio-tecnología, inició el análisis y trabajo de taller que los analistas de Select desarrollaron durante Tendencias 2008. Fuente infosol Paola Ascue M. InfoSol Tel. (55) 55601000 C expocomm2008@infosol.com.mx

Quanser evoluciona a una nueva fase de generación de control y desarrollo de ambientes integrados con Simulink®, ya que mudará de plataforma. A partir de este año en curso, Quanser mudará su sistema de operaciones del Software WinCon a la nueva plataforma QuaRC©. Esto permitirá a los usuarios generar automáticamente código en tiempo real desde los controladores diseñados por Simulink® podrán ser utilizados para las plataformas Windows XP o Windows Vista, al igual que QNX en caso de que sea una versión industrial para aplicaciones en tiempo real. Las características en cuanto a mejoras incluye: Múltiples controladores corriendo concurrentemente, Control Distribuido; Modelo Referenciado; Accesar información sofisticada; Y accesar a diferentes protocolos de comunicación: Para mayores informes visite http://www.quanser.com, www. multion.com.mx o escriba a info@multion.com.mx

Oracle anuncia la última versión de Oracle® Secure Backup Oracle anunció que ya está disponible Oracle® Secure Backup 10.2, la solución de alto desempeño para realizar copias de seguridad en cinta para las bases de datos Oracle y dispositivos de almacenamiento NAS. Oracle Secure Backup es una solución completa para empresas para gestionar en forma centralizada las copias de seguridad en cinta con características avanzadas, como por ejemplo, encriptación, vaulting y poder compartir de manera dinámica los lectores. Los clientes pueden lograr una mayor protección de datos a bajo costo utilizando políticas de seguridad de Oracle Secure Backup para proteger los datos almacenados en cinta y controlar el acceso a los sistemas y datos de backup. Esta última versión de Oracle Secure Backup ofrece encriptación basada en políticas en el nivel de dominio, host, copia de seguridad o cinta utilizando algoritmos de encriptación AES128, AES192 o AES256. Para más información sobre Oracle Secure Backup 10.2, visite: http://www.oracle.com/goto/secure-backup

Intel y el IJALTI firman convenio de colaboración para desarrollar software con tecnología de punta en Jalisco. Con el objetivo de elevar el nivel del desarrollo de software en México, Intel y el Instituto Jalisciense de Tecnologías de la Información (IJALTI) anunciaron el día de hoy que han firmado un convenio de colaboración, bajo el cual se creará un Laboratorio de Aplicaciones en las instalaciones del Centro del Software de Guadalajara, para facilitar a las empresas locales el desarrollo de aplicaciones que aprovechen al máximo el poder de las nuevas tecnologías de las plataformas multinúcleo que están cambiando el paradigma de desarrollo de software. El laboratorio además contará con el apoyo de Lanix, quien realizó una importante donación a estas instalaciones. Como parte del acuerdo, Intel donará licencias de sus herramientas de desarrollo y optimización de código para plataforma multinúcleo Intel, en equipos con procesador Intel Core 2 Duo proporcionados por Lanix, empresa 100% mexicana, con más de 18 años en el país y en América Latina, interesada en apoyar a la sociedad mexicana por medio de computadoras para echar andar los laboratorios en apoyo a la educación. Asimismo, el IJALTI Cómputo C ientí f ico y Técnico

[ mar zo -abr il- 0 8 ]


Notas de Prensa

contribuirá con un técnico especializado, quien será entrenado por Intel en “Multi-Core Programming”, para convertirse en un punto de contacto con las empresas del Centro del Software que utilizarán el laboratorio. Más información: www. ijalti.org.mx, www.centrodelsoftware.com.mx y www. lanix.com.mx

¡La última version R2008a de los productos The Mathworks ya está disponible! A partir del R2008a, las familias de productos de MATLAB y Simulink requieren activación. La R2008a también incluye el License Center, una herramienta online que gestiona las necesidades de administración de licencias comunes. Las nuevas funciones de la familia de productos de MATLAB® incluyen: - Programación orientada a objetos en MATLAB, que incluye soporte completo para clases y objetos, herencia, métodos, propiedades, eventos y paquetes. - Soporte de cálculo paralelo y solver de punto interior para problemas de optimización de gran escala en Optimization Toolbox - Programa de complementariedad lineal (LCP) para optimización de rendimiento medio y varianza de carteras en Financial Toolbox - Soporte completo para programadores PBS Pro® y TORQUE con Parallel Computing Toolbox - Validación cruzada, selección de funciones, números cuasialeatorios, y mínimos cuadrados parciales en Statistics Toolbox Las nuevas funciones de la familia de productos Simulink® incluyen: - Library Browser rediseñado y multiplataforma en Simulink - Generación de código conforme al estándar AUTOSAR en Real-Time Workshop Embedded Coder Comprobación del código de las funciones del subconjunto de lenguaje Embedded MATLAB™en el analizador de código M-Lint y en Simulink® Design Verifier - Comprobaciones de las directivas de estilo de IEC 61508 para sistemas en los que la seguridad es vital en Simulink Verification and Validation Fixed-Point Advisor para la conversión automática de modelos de coma flotante en Simulink Fixed Point - Soporte de coma fija para las funciones modulador, demodulador, codificador y decodificador en Communications Blockset - Embedded IDE Link MU, un nuevo producto que implementa código generado por Simulink en el entorno de desarrollo de Green Hills MULTI. Más información en: http://www.mathworks.es/products/new_products/latest_features.html#List

w w w.cociente.com.m x

Próximos eventos abril/mayo/junio 2008

Congreso World E-business 2008. México, D.F. Tec Campus Santa Fe, del 7-11 de abril. http://www.unece.org/cefact/cf_ forums/Mexico_2008/index.htm 2008: Año de la Computación en México: 10 años en el INAOE, 50 años en México 10° Aniversario de los Posgrados en Computación Luis Enrique Erro 1, Santa María Tonantzintla, Puebla, del 9-11 de abril de 2008 8o Congreso Nacional de Ingeniería Eléctrica y Electrónica del Mayab CONIEEM 2008 Mérida, Yucatán. Instituto Tecnológico de Mérida, del 21-25 de abril. http://www.diee.net SIMPOSIUM hacia una cultura del software libre Universidad Iberoamericana campus Santa Fe Ciudad de México del 21 al 24 de abril. Entrada libre. Tercer Congreso Internacional de Infraestructura TI y 3ª Expo Data Center ICREA 2008 Auditorio del World Trade Center de la Ciudad de México del 14 al 16 de mayo Sun Tech Days | Ciudad de México Centro Banamex, Ciudad de México. Mayo 21-23, 2008. http://www.suntechdays.com.mx/registro.html SG08 Conferencia y Expo. Hotel Sheraton Centro Histórico, Ciudad de México del 24-25 de Junio 2008 Mundo Contact 08 World Trade Center de la Ciudad de México del 24-25 de Junio 2008

Indice de anunciantes National Instruments ggggg 02 MultiON Consulting ggggg 08 The MathWorks ggggg 13 Software Guru ggggg 17 SAM ggggg 22 Quanser ggggg 25 Maple ggggg 31 Statistica ggggg 32

33


Llene esta forma con tinta negra y su su comprobante de depósito y envíela vía FAX al (01 55) 55.59.80.83, Fecha:_______________________________________ Nombre Completo:______________________________________ E-mail:_______________________________________

c

SÍ deseo recibir la revista

c

NO deseo recibir la revista

Empresa a la que pertenece:_______________________ Departamento:________________________________________ Dirección a donde desea recibir Cociente Calle y Número: ________________________________ Colonia:_____________________________________________ Ciudad: ______________________________________ País:___________________ Código Postal: ________________ Teléfono con clave lada:__________________________ Fax con clave lada:__________________________

Suscripción Anual: 6 Números de cociente por $100 todo el 2008 A ¿Qué información de software y

Reciba 6 números de cociente

hardware le interesa conocer?

6

c

Química y Petróleo.

1

c

Adquisición de Datos.

7

c

Biotecnología, Farmacéutica y Médica.

2

c

Ingeniería de Diseño.

8

c

Servicios Financieros.

Deposite en Banco Santander S.A.,

3

c

Ingeniería de Procesos.

9

c

Otro Sector Industrial.

4

Ingeniería Financiera y Econometría.

Sucursal: 0009, Insurgentes Parroquia,

c

5

c

Ingeniería Industrial.

6

c

Ingeniería de Pruebas y Verificación.

D Por favor indique su puesto

7

c

Telecomunicaciones.

de trabajo: (marque solo uno)

8

c

Academia e Investigación.

1

c

Científico / Investigador.

9

c

Transportación y Logística.

2

c

Lider de Proyecto.

o por transferencia electrónica con la Clave

10 c Estadística y Optimización.

3

c

Director Técnico Sistemas.

interbancaria: 014180920006129049.

11 c Ing. Mecánica, Eléctrica y Electrónica.

4

c

Director Técnico / Gerente.

12 c Química, Física, Geología, etc.

5

c

Ingeniero de Aplicación.

6

c

Ingeniero de Proyecto.

B Area de aplicación.

7

c

Ingeniero de Pruebas.

1

c

Calidad.

8

c

Ingeniero de Diseño.

2

c

Cálculo Técnico.

9

c

Otro Puesto de Trabajo.

3

c

Comunicación.

10 c Estudiante.

4

c

Diseño de Control.

5

c

Diseño de Prototipos.

6

c

Diseño de Circuit. Electrónicos y PCBs

E Tipo de org. en la que está

7

c

Procesamiento de Señales.

empleado.

8

c

Procesamiento de Imágenes.

1

c

Farmacéutico / Biotecnología.

9

c

Pruebas y Mediciones.

2

c

Producto Químico / Petróleo.

10 c Bioinformática.

3

c

Eléctrico / Electrónico / Semiconduct.

11 c Modelado y Análisis Financiero.

4

c

Alimentos / Bebidas.

12 c Modelado y Simulación de Procesos.

5

c

Otra Fabricación.

13 c Modelado y Simulación de Productos.

6

c

Laboratorio Independiente.

¿Cuál? _________________

¿Cuál? _________________

7

c

Centro de Investigación / Privado.

C Tipo de Industria.

8

c

Centro de Investigación /Gob.

1

c

Electrónica.

9

c

Universidad.

2

c

Informática y Equipos de Oficina

10 c Ambiental

3

c

Academia e investigación.

11 c Consultoría Técnica

4

c

Comunicaciones.

9

534 c Automitriz.

c

Otra Organización. ¿Cuál? _________________

por $100 pesos.

Beneficiario: Cómputo Científico y Técnico S.A. de C.V., Cuenta moneda nacional: 92000612904,

Envíe por fax esta forma y su comprobante de depósito con nombre y fecha.

Si realizo su suscripción a través de nuestro portal de internet, envíe una imagen escaneada de su comprobante de depósito a: suscripcion@cociente.com.mx ó por fax al 55 59 80 83 indicando su nombre completo y la fecha en que realizo su suscripción.

Para obtener más información sobre nuestra publicación, envíe un e-mail a: Cómputo C ientí f ico y Técnico [ mar zo -abr il- 0 8 ] cociente@cociente,com.mx


w w w.cociente.com.m x

35



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.