Un panorama de software y hardware para las ciencias y las ingenierías
Visualización por Computadora Segmentación por color para caracterizar el andar humano > Aprovechamiento de energía solar. > Diseños sostenibles. > Analfabetismo científico > Diseño de lenguajes para un futuro incierto.
6
e ne r o - fe br e r o / 0 8 w w w.c o c ie nt e .com . mx
>L6 7 - } > Ý«ÀiÃÃ
iVÌi°Ê ÃÌ °
*>Ã ÊÓ° ,i} ÃÌÀiÊÃÕÃÊ`>Ì Ã
*>à ʣ° iVÌiÊi ÊV>L iÊ1-
,i} ÃÌÀ Ê`iÊ`>Ì ÃÊ« ÀÊ1- ]Ê> À>Ê ?ÃÊv?V Ê ÌÀ `ÕV i ` Êi Êà vÌÜ>ÀiÊ`iÊ >Ì > Ê ÃÌÀÕ i Ìà >L6 7Ê- } > Ý«ÀiÃÃ]ÊÕ >Ê ÕiÛ>Ê iÀÀ> i Ì>ʵÕiÊ ÀiµÕ iÀiÊ«À }À> >V Ê«>À>ÊÀ?« `> i ÌiÊ>`µÕ À À]Ê> > â>À ÞÊ«ÀiÃi Ì>ÀÊ`>Ì Ã°Ê L i ÃÊV Ê >Ê> « >ÊÛ>À i`>`Ê`i `Õ ÃÊ`iÊ>`µÕ à V Ê`iÊ`>Ì ÃÊ1- Ê«>À>Êi V ÌÀ>ÀÊ Õ >ÊÛiÀ`>`iÀ>Êà ÕV ÊÀi} ÃÌÀ Ê`iÊ`>Ì ÃÊ« Õ} > ` « >Þ°
>L6 7 - } > Ý«ÀiÃÃ - vÌÜ>ÀiÊ ÌiÀ>VÌ Û ÊÃ Ê«À }À> >V
iVÌ Û `>`ÊV Ê ?ÃÊ`iÊÓÇäÊ` ë Ã Ì Û ÃÊ`iÊ +
6i>Ê ÃÊi i « ÃÊÞÊ`iÃV>À}ÕiÊi ÊÃ vÌÜ>ÀiÊ , /1 /" i °V É`>Ì> }} }
>Ì > Ê ÃÌÀÕ i ÌÃÊ jÝ V /i \ ä£ÊnääÊä£äÊäÇ ÎÊUÊ >Ý\ÊÈxÈ®ÊÈnÈÊäÎxnÊ v ° iÝ V J °V ÊUÊ °V É iÝ V
ä£ÊnääÊä£äÊäÇ Î
i LÀ ÃÊ Ìi}À>` ÀiÃÊ*Ài iÀ iiÃÊ >LÊi Ê+ÕiÀjÌ>À Ê{{Ó®Ê{ ÇÊ££nx
^ÊÓääÇÊ >Ì > Ê ÃÌÀÕ i ÌÃÊ À« À>Ì °Ê/ ` ÃÊ ÃÊ`iÀiV ÃÊÀiÃiÀÛ>` Ã°Ê >L6 7]Ê >Ì > Ê ÃÌÀÕ i ÌÃ]Ê ]Ê °V ]ÊÞÊ +ÊÃ Ê >ÀV>ÃÊÀi} ÃÌÀ>`>ÃÊ`iÊ «>VÌ
>Ì > Ê ÃÌÀÕ i ÌÃ°Ê ÃÊ LÀiÃÊ`iÊ ÃÊ ÌÀ ÃÊ«À `ÕVÌ ÃÊÞÊ >ÃÊÀ>â iÃÊà V > iÃÊ i V >` ÃÊÃ Ê >ÀV>ÃÊÀi} ÃÌÀ>`>ÃÊ Ê LÀiÃÊV iÀV > iÃÊ`iÊÃÕÃÊÀiëi VÌ Û>ÃÊV «> >ðÊÊÓääÇ nxÇ£ nÓ£ £n
«>VÌ + - ÃÌi >Ê`iÊ>`µÕ à V Ê`iÊ`>Ì ÃÊ« ÀÊ1- ?ÃÊ`iÊÎäÊ `Õ ÃÊ`iÊ i` V
Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
Contenido Ac ademia
10
18>
Segmentación por color para caracterizar el andar humano
10>
Aprovechamiento de la energía solar: una urgencia impostergable.
17>
Analfabetismo científico y tecnológico.
22
e ne r o -fe b r e r o/0 8 w w w.co c i e n t e.co m . m x
18
Se muestra una técnica de adquisición de datos no-invasiva, mediante el uso de un traje con marcas y usando una técnica de segmentación por color. Por Jorge A. Saldaña García, Azucena Montes Rendón.
El aprovechamiento de la energía solar en nuestro país debe adquirir un papel de importancia capital. La generación de electricidad en nuestro país contribuye enormemente al aumento del nivel de contaminación ambiental. Por Pedro Bañuelos Sánchez.
En uno de sus puntos la Declaración de Budapest establece que “Hoy más que nunca es necesario fomentar y difundir la alfabetización científica en todas las culturas y en todos los sectores de la sociedad […] ” Por Dr. Pedro Ponce Cruz.
Industria
22>
Desde hace ya bastante tiempo, el hombre se ha interesado por el análisis de la locomoción humana, así como por las variaciones que se presentan al caminar y correr, lo cual se puede ver reflejado por ejemplo en el arte griego antiguo. Por Jorge A. Saldaña García, Azucena Montes.
La Unión Europea calcula que más del 80% de todos los impactos ambientales relacionados con un producto se determina durante la fase del diseño. Las empresas que planifican pensando en el futuro, son más rentables que las empresas reactivas. Por: Ing. Ángel Ribó, Gerente de Ventas, SolidWorks México, Centroamérica y Caribe.
14> 25 “Los artículos publicados en esta revista reflejan opiniones de la exclusiva responsabilidad del autor”
14
“BPA member since August 2007”
Diseños sostenibles compromiso con la continuidad de las empresas y del planeta.
Diseño de lenguajes para un futuro incierto respecto al hardware. Con la llegada de la computación de alto rendimiento, el hardware proveerá la plataforma necesaria para esta tarea. Por Roy Lurie The MathWorks. Traducción Claudia Domínguez (Cociente).
Entrev ista
25>
Norma mexicana para la calidad del software. Entrevista a la Dra. Hanna Oktaba. ho@fciencias.unam.mx Por Andrea Domínguez Medina.
Directorio» Editor Ejecutivo: Andrea Domínguez Medina | Editor Adjunto: Modesto Vázquez Coronel | Dirección Artistica y Diseño: Fernando Tapia Rodríguez, Cinthya Dominguez | Colaboradores: Claudia Domínguez, Alex Eisenring, Aldo Cruz Monroy, Dr. Guillermo Alfonso Parra Rodríguez
Cómputo Científico y Técnico S.A. de C.V. Es una publicación Bimestral. Insurgentes Sur 1188-104, Col. Tlacoquemécatl del Valle, C.P. 03200 México D.F. Tel. 55.59.48.26 Fax. 55.59.80.83, Tiraje 7,500 ejemplares. Año 2, No. 6. Edición enero-febrero/08. Circulación gratuita entre suscriptores de los principales centros de investigación y manufactura en México. Prohibida la reproducción total o parcial del contenido de esta revista por cualquier medio electrónico o magnético con fines comerciales sin el permiso previo de los editores. Reserva de la Dirección General de Derechos de Autor: 04-2006-11113130000-102. Certificado de licitud de título No. 13568. Certificado de licitud de contenido No. 11141. Marca registrada ante el IMPI 657903. Distribución: Autorización de Registro Postal PP09-1498. Impresión: Graphi-press. Av. Joyas #108-4 Col. Estrella, C.P. 07810 México D.F. Tel: 18.50.31.53.
w w w.cociente.com.m x
Editorial
Noticias
Cociente inicia este 2008 dando las gracias a todas las personas que han creido en este medio y han apoyado su subsistencia estos dos primeros años de vida. Ustedes son las personas más importantes para nosotros, los invitamos a mandarnos comentarios y sugerencias para poder mejorar nuestra labor y servicio. Gracias por su apoyo Los editores
de universum, con la inauguración del planetario didáctico “José de la Herrán”
»Celebran quince años de vida
Últimas versiones
Absoft Nuevo Pro Fortran v9.5 Para MacOS/PPC para Leopard y Tiger!
Pro Fortran v10.0 Grátis Update de MRWE Para MacOS/Intel!
Pro Fortran v10.1 para Windows continua como líder en desempeño!
Pro Fortran v10.1 para Linux incluye nuevos optimizadores auto paralelos!
LINDO Systems LINGO 11 A partir del 21 de enero de venta en el mercado.
Syngene GeneSnap Version 7.02 Para análisis de datos.
Adept Scientific DASYLab 10.0 Para análisis de datos.
IQ Technologies SAP B1 Para administración de datos.
Adept Scientific Grátis demo de EndNote X1 para Windows http://www.adeptscience.co.uk/download/
FieldView Versión 12
ciencia que presentan sus conferencistas, y también, conocer la tecnología de las telecomunicaciones audiovisuales interactivas de los próximos años. Este nuevo foro estará ubicado en el tercer piso del edificio “C” del museo y será el lugar para el desarrollo del proyecto “Divulgación de la Ciencia a Distancia”. Museo de las Ciencias Universum Zona Cultural de Ciudad Universitaria Informes y atención al público: 56 22 72 87 y 56 22 72 88 Web: www.universum.unam.mx Email: visitante@universum.unam.mx
Dra. Julia Tagüeña, Dr. Narro y el Ing de la Herrán. Foto cortesía: DGDC-UNAM
Con casi 9 millones de visitantes, el Museo de las Ciencias Universum, perteneciente a la Dirección General de Divulgación de la Ciencia (DGDC) de la UNAM, cumple hoy sus primeros quince años de vida e inaugura el Planetario Didáctico “José de la Herrán”, en honor a quien es uno de los grandes divulgadores de la ciencia y la técnica en México. El Planetario Didáctico “José de la Herrán” fue desarrollado por el propio Ingeniero y tiene como principal objetivo ser un instrumento que sirva para que el público que visita Universum pueda aprender y comprender sobre temas astronómicos diversos, disfrutando de una presentación con proyectores especiales que nos muestran cómo es que se ve el cielo, en la oscuridad de la noche y sin contaminación, ver de cerca las constelaciones, observar los planetas girando alrededor de Sol, etcétera. El Proyector Planetario fue inventado por la casa Carl Zeiss de Jena, Alemania, en 1925. También, como parte de la celebración de los primeros quince años de Universum, se inauguró la Teleaula de la DGDC(Dirección General de Ciencia), un sistema de telecomunicaciones que nos permite realizar actividades de colaboración interactiva a distancia con otras instituciones interesadas en la divulgación de la ciencia. La Teleaula contará con un sistema de videoconferencia, transmisiones a la red por medio del Canal Universitario en Internet y recepción de señales satelitales de la red educativa Edusat y de NASA TV. Además contará con sistemas adecuados de audio y video para convertir el espacio en un lugar multiusos con capacidad para 40 personas. La Teleaula de la DGDC permitirá al público que visita Universum acercarse a la
Proyectores del Planetario José de la Herrán. Foto cortesía: DGDC-UNAM
»Cluster de Tecnologías de la
Información y Comunicaciones del Estado de Michoacán (CLUSTERTIM) Con el apoyo del Gobierno federal y del Gobierno estatal se inicia la construcción del Parque Tecnológico Ciudad Tres Marías. El Parque iniciará operaciones en 2008 con la infraestructura Física del Cluster de Tecnologías de la Información del Estado de Michoacán (ClusterTIM) y del Centro de Innovación y Desarrollo Tecnológico (CIDT) del Tecnológico de Monterrey Campus Morelia; con el objetivo de crear un polo de desarrollo económico de alta calidad científica y tecnológica para atraer y desarrollar en Michoacán empresas e instituciones que investiguen, desarrollen y promuevan actividades y proyectos de Tecnologías de la Información, favoreciendo la interrelación entre ellas y transformando el sector empresarial del Estado hacia la generación de alto valor tecnológico, económico y social El ClusterTIM esta conformado por pequeñas y medianas empresas del estado, dos centros de investigación, siete universidades, una asociación empresarial, además de organismos gubernamentales estatales y federales que conforman toda la cadena de valor del sector de T.I. en el Estado. Estarán ubicados organismos como el CETIC, (Centro Estatal de Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
Tecnologías de la Información y Comunicaciones), COECYT (Consejo Estatal de Ciencia y Tecnología), CETRATEC (Centro para la Transferencia de Tecnologías Abiertas y Mejores Prácticas), 2 Incubadoras de empresas de T.I. a cargo de la Universidad Michoacana de San Nicolás de Hidalgo y del Instituto Tecnológico de Morelia respectivamente y una Aceleradora de empresas a cargo de la Secretaría de Economía que apoyará a incrementar la productividad de las PYMES socias. CLUSTERTIM está desarrollando líneas de trabajo como lo es el Nearshore (desarrollo de software para los EEUU y Canadá), software educativo, agropecuario, sector logístico y portuario, así como software de calidad para empresas MiPYMES y recientemente incursionando en el desarrollo de Animación Digital. Se cuenta con relaciones importantes con los clusters de T.I. de Querétaro y Jalisco y se trabaja en proyectos conjuntos. Dentro del CIDT se podrán encontrar: • Laboratorios de Animación Digital. • Laboratorios de Realidad Virtual. • Granja de Rendering. • El Centro de Investigación de Nuevas Tecnologías Digitales. • Incubadora de empresas de Alta Tecnología. • Aceleradora de Empresas. • Área para landing de Empresas. Oficinas de Vinculación con otras Universidades y Empresas Internacionales. Si desea mayor información: Grupo Tres Marías Dirección de Nuevos Negocios +52 (443) 113 29 00 Clustertim A.C. – Presidencia +52 (443) 315 88 84
»
¿Acaso los primeros indios del sureste fermentaron maíz para preparar cerveza? ALBUQUERQUE, N.M. -- La creencia entre algunos arqueólogos de que, el alcohol fue introducido por los europeos a los indios del sureste americano puede ser un error. Los restos antiguos y nuevos de vasijas recolectadas por la arqueóloga estatal, de Nuevo México, Glenna Dean, conjuntamente con el análisis del investigador Ted Borek de los laboratorios Sandia National, abren la posibilidad de que alimentos o bebidas, hechos de la fermentación del maíz, fueron consumidos por los habitantes nativos, siglos antes de la llegada de los españoles. La arqueóloga, dice, “ha sido una construcción artificial entre los arqueólogos que trabajan en Nuevo México el creer que nadie tenía alcohol aquí w w w.cociente.com.m x
El investigador Ted Borek utilizó cromatografía de gases y espectrometría de masas para analizar vapores producidos al calentar suavemente muestras de restos de una vasija. Foto de Randy Montoya cortesía: Sandia
hasta la llegada de las uvas y el vino traídos por los españoles. La evidencia histórica sobre la existencia de bebidas fermentadas existe no sólo alrededor de grupos nativos, la gente en todo el mundo ha encontrado maneras de alterar sus sentidos, ella dice: la “levadura salvaje sopla por todas partes.” En la Europa de la edad media, “se bebió cerveza porque la fermentación purificó el agua.” Ponga el pan en el agua, y usted consigue cerveza.” Hoy en día, los indios Tarahumara, en el norte de México, beben una cerveza débil llamada tiswin, hecha fermentando núcleos del maíz. -¿Habrían podido los campesinos de los pueblos ancestrales de Nuevo México, Arizona, Utah, y Colorado- hacer igual? Para comprobar su hipótesis, la arqueóloga dio a Borek tres tipos de muestras de vasijas en las cuales ella misma elaboró cerveza tiswin, como la vasijas usadas por los indios Tarahumara, y los restos de la vasija de 800 años de antigüedad de Nuevo México. La pregunta: ¿El análisis apoyaría la idea de que los campesinos antiguos complementaron su nutrición -- y quizás el disfrute de alimentos -- manipulando mezclas salvajes de levadura y de maíz, siglos antes de Colon? Borek, bajo el programa de apoyo de Sandia utilizó, cromatografía de gases y espectrometría para analizar los vapores producidos por la calefacción suave de las muestras de los restos de la vasija. De los vasijas de la arqueóloga, Borek desarrolló un perfil de los gases emitidos del tiswin. Entonces examinó las vasijas, de los Tarahumara, para ver si correspondieron los
perfiles gaseosos. Finalmente Borek examinó los restos de la vasija, que había sido enterrada por siglos, para ver si los vapores obviamente debilitados emparejarían, en clase si, no en volumen, sus dos muestras anteriores. Comparó picos y demostró la presencia de una especie orgánica similar, aunque Borek dice, que más trabajo debe de ser realizado antes de que las conclusiones positivas puedan ser perfiladas. Es también posible que el maíz fermentó en la vasija sin el intento del dueño, “él dice,” y que no significa que fuera a ser bebido.” El análisis ahora, en curso, destaca los patrones de las especies orgánicas que pudieron proporcionar un resultado más definido, más intencional. “Estamos examinando actualmente todos los datos para buscar señales que indiquen que la fermentación intencional ocurrió en los objetos arqueológicos.” El trabajo abre nuevas posibilidades inesperadas, él dice, para entender al ser humano más allá por medio de la cromatografía de gas y de la espectrometría. El investigador Mowry, de Sandia, está examinando datos y está comparando todos los sistemas a través de las referencias proporcionadas, de los vasijas de los Tarahumara, y de las muestras antiguas. Los resultados fueron presentados por Borek en una charla en la reunión de otoño de la sociedad de la investigación de los materiales en Boston la semana pasada. El equipo usado en este estudio es hardware comercialmente disponible, modificado por Sandia para investigar los restos de materiales orgánicos en el ambiente. C
En breve Intel de México anuncia nuevo director de mercadotecnia.
17 de diciembre 2007 -Marcelo Bertolami llega a fortalecer al equipo en MéxicoIntel anuncia que a partir del primero de enero Marcelo Bertolami se integrará al equipo en México como director de mercadotecnia, asumiendo funciones por completo a partir de febrero. Bertolami aportará experiencia de más de catorce años en la industria de telecomunicaciones, y amplios conocimientos en el área de mercadotecnia. C
El sector educativo se encuentra invirtiendo cada vez más en tecnologías de información al igual que en el uso de software científico y técnico. 16 enero 2008 Las escuelas públicas y privadas están invirtiendo cada vez más en herramientas que capaciten y preparen mejor a sus alumnos para el competido ámbito industrial y globalizado que nuestro país enfrenta hoy en día. Desde hace varios años The MathWorks, desarrolló y continua mejorando, MATLAB&Simulink, plataformas de lenguaje técnico para aplicaciones CAE y cómputo numérico, entre otras, que preparan mejor a los alumnos con herramientas más competitivas a nivel mundial. En México y gran parte de América Latina, Multion Consulting ha contribuido a la distribución y enseñanza de estas plataformas, a través de seminarios, cursos, talles y webinars, los cuales, son impartidos directamente por Ingenieros de Aplicación de México y otros paises, todos ellos expertos en su campo. C
Accelrys y Agilent Technologies firman acuerdo para distribuir productos de ambos. Diciembre 2007. Con la finalidad de facilitar
la integración de los mismos, Accelrys podrá revender OpenLAB enterprise content manager, Kalabie ELN y GeneSpring gene expression, todos software de Agilent. Y Agilent a su vez podrá vender Accord cheminformatics software, y Pipeline Pilot Scientific Operating Plataform de Accelrys. C
Aligerando la carga en el supercómputo
7 diciembre 2007 Una nueva técnica de cómputo que utiliza luz en lugar de electricidad, para transferir datos, podría proveer a laptops el poder de las supercomputadoras más actuales. Mientras que hoy en día las supercomputadoras pueden usar el equivalente energético de luz de cientos de hogares, las futuras mini supercomputadoras de un chip utilizarán la energía equivalente a un a bombilla de luz. En un texto publicado en el journal Optics Express, investigadores de IBM hablan de su modulador electo-óptico Mach-Zehnder, el cual, convierte señales eléctricas en pulsos de luz. C
ideo: entretenimiento y comunicación
Hay una revolución en cuanto a la forma en que las personas utilizan el video para entretenerse y comunicarse. Un conocedor de la industria y miembro del equipo de Cisco, Ken Wirt, comenta las consecuencias de estos cambios. – Es evidente que el video está actuando sobre los consumidores como una tormenta y que se ha convertido en el eje para el hogar conectado en red. Es a este desarrollo al que Cisco denomina como “conectividad visual”. Este concepto también refleja la creciente importancia de la movilidad y las redes sociales para los consumidores. Tener una red en el hogar funcionando como un hogar conectado es sólo un elemento de lo que las personas quieren obtener de sus servicios de comunicaciones y entretenimiento.
Proyección avanzada de imágenes proporciona simulaciones de corazón más detalladas.
14 enero 2008 Un corazón enfermo es uno de nuestros asesinos más grandes, pero hasta ahora ha sido imposible entender exactamente que sale mal durante una actividad cardiovascular irregular. Ahora, un trabajo presentado en un taller realizado por la Fundación Europea de Ciencia ha demostrado que simulaciones poderosas calibradas y validadas con técnicas de proyección avanzadas pueden crear un modelo preciso del corazón reproducido por computadora, lo cual proveerá de mejor investigación virtual para futuros experimentos. http://www.esf.org/ C
Simulaciones en HPC (cómputo de alto desempeño, por sus siglas en inglés) predicen la existencia de cientos de hoyos negros erráticos.
10 enero 2008 Las últimas simulaciones en supercomputadoras han revelado que la vía láctea puede estar habitada por muchos más hoyos negros “traviesos” de lo que anteriormente se pensaba. Estos hoyos negros pueden estar viajando a través de la galaxia a velocidades enormes, absorbiendo cualquier cosa que se cruce en su camino. Mientras que los científicos han observado agujeros negros super masivos en el centro de la galaxia y otros pequeños formados al final de la vida de una estrella, hasta ahora se tiene poca evidencia, observando agujeros negros de tamaño medio, de que encajen en ambos extremos. Anteriormente se asumía que los hoyos negros de “masa intermedia” se escondían en grandes cúmulos de estrellas. Sin embargo, nuevos modelos computacionales realizados por astrónomos en las universidades de Vanderbilt, Pennsylvania y Michigan en EE.UU., han demostrado que si los hoyos negros colisionan y se fusionan con otros objetos reciben una “patada” que los aleja del cúmulo a la galaxia, en velocidades de hasta 4,000km/s. http://www.vanderbilt.edu/ C
Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
¿Cómo ha cambiando el video la conectividad en el hogar? Ken Wirt: El video está dominando la conectividad en el hogar y las tecnologías de Internet. El deseo por todos los tipos de video de alta definición tanto en películas como en programas de TV de alta definición, llegando a los amplios contenidos de Internet está en pleno auge. El año pasado, y durante un solo mes en los Estados Unidos, 9.000 millones de secuencias de video fueron vistas a través de Internet por 133 millones de personas. Los cálculos indican que durante los próximos cuatro años, el número de dispositivos capaces de hacer correr video en red aumentarán 17 veces. Pero la otra cara de todo este interés en el video es el inevitable hecho de que se trata de un medio muy exigente. El más exigente. Consideramos que el video es 10 veces más complejo de ejecutar a través de una red, que el audio. ¿Cuáles son, para Cisco, las cuestiones clave en el desarrollo de tecnologías de video en red para el hogar? Ken Wirt: Todo empieza con el consumidor.Lo que buscan en primer lugar, la facilidad de uso. El segundo factor importante para los usuarios es la calidad. Cualquier cosa que se haga, lo que más se requiere es asegurarse de que el video que se transmite a través de una red llegue lo más cristalino y claro posible. La tercera cuestión para los consumidores es la movilidad. A veces la conveniencia triunfa sobre la calidad. Así que la gente quiere ver video en dispositivos portátiles. A esto es a lo que denominamos concepto de conectividad visual “de 3 pantallas”. Además de ser sencillo de utilizar, el video tiene que verse bien en distintos soportes: no sólo en la televisión sino también en una computadora personal y en un dispositivo portátil, como un teléfono celular. Estos tres dispositivos de video no deben ser islas encerradas en sí mismas, sino que deben funcionar de un modo integrado, de manera tal que las personas puedan pasar de uno a otro sin perder el acceso a sus archivos o servicios de video favoritos. ¿Puede ejemplificar cómo está colaborando Cisco en el desarrollo de video para crear redes de consumidores? Ken Wirt: Estamos trabajando en todos los frentes, a fin de facilitar la creación de la conectividad visual. Nuestros esfuerzos comienzan con los proveedores de servicios de televisión para ayudarles a construir redes sofisticadas que puedan entregar contenido de video de alta calidad. También estamos ayudando a desarrollar características interactivas, como el video a la carta (on demand) y la grabación de video digital, que permiten a los receptores controlar cuándo y cómo ven sus programas favoritos. Y estamos trabajando con los proveedores de servicios para ayudarles a impulsar las conexiones a Internet en la casa. Con esto tenemos al video en el hogar. Estamos implantando gateways de banda ancha y set-top boxes híbridos. Los gateways o puertas de enlace ayudan a conectar Internet con la televisión y con otros dispositivos en todo el hogar. El set-top box híbrido entrega contenido de video tradicional y también permite acceder al streaming de video de diferentes tipos de sitios Web, que podrían ser vistos tanto en la computadora como en el televisor. Y con nuestros productos de red en el hogar de Linksys, estamos logrando que las conexiones entre
w w w.cociente.com.m x
los dispositivos sean más sencillas. Por ejemplo, hemos creado herramientas como el Linksys Easy Link Advisor, que ayuda a las personas a crear y mantener sus redes en el hogar. También estamos ayudando a construir conexiones de 3 pantallas (3-screen) con routers inalámbricos y sistemas de almacenamiento que se integran con set-top boxes. En otras áreas, nos estamos asociando con fabricantes de dispositivos, como Nokia, Vodafone, Sprint y Skype, para ajustar mejor los dispositivos portátiles a la conectividad visual. Y nos estamos asociando con proveedores de contenido y empresas de medios de comunicación para ayudarles a preparar y gestionar su videos de manera tal que puedan viajar a través de las tres pantallas posibles en la red visual, con la mejor calidad. El sistema es un gran desafío. Todas las piezas conectadas a una red de video deben trabajar juntas para mantener la calidad y la sencillez en el uso de cualquier aplicación o servicio de video. ¿Cuál es el papel de las redes sociales en el uso del video? Ken Wirt: La expresión conectividad visual describe los cambios en los modos en que las personas están utilizando las tecnologías de redes para acceder al entretenimiento y a la comunicación. Ahora hay tanto contenido disponible, que la simple búsqueda de un tema ya no es adecuada. La forma en que las personas encuentran videos es a través de sus amigos, que les dicen qué hay para ver. Ahora, si alguien no le dijo a usted que ese video existía, usted nunca haría una búsqueda de un video titulado “Ardillitas Dramáticas”. Pero sus amigos le dicen, también lee lo que otras personas han dicho en Myspace, Facebook, y sus otras páginas de redes sociales. Imagine ser capaz de recomendar contenido basándose en el comportamiento de los millones de personas que no conoce y que vive en todo el mundo. Ese es el poder que tienen las redes sociales. Es posible hallar videos y otros contenidos a través de comunidades de amigos o en realidad, por medio de comunidades de personas con intereses compartidos. Así que con la creación de redes sociales, se trata más del descubrimiento que la búsqueda. Esto tiene consecuencias importantes para cualquier empresa que quiera ofrecer servicios de video. Una simple base de datos de títulos podría estar bien, pero tal vez una manera de vender más video sería ofrecer algún tipo de herramienta de descubrimiento de redes sociales. En respuesta a esta necesidad, Cisco ha establecido el Grupo de Soluciones de Medios (Media Solutions Group) que se especializa en la creación de software que integre contenidos de video con herramientas de redes sociales. Al igual que la mayoría de las redes visuales, nosotros estamos en los comienzos de este desarrollo. Será interesante ver cómo se desarrolla todo. Para mí, realmente se siente como si volviera a comenzar el inicio de la World Wide Web. Creo que los cambios serán monumentales. C
Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
La otra columna Dr. Guillermo Alfonso Parra Rodríguez
¿Emprendedores tecnológicos o emigrados tecnológicos? Emprendedores o emigrados tecnológicos, pareciera ese ser el reto al que se enfrentan los jóvenes ingenieros mexicanos: abrir una empresa propia en asociación con algunos colegas o aplicar hasta el cansancio en alguna multinacional, que lo llevara a sus centros de desarrollo en Norteamérica o Europa. Considero que para analizar ambas opciones, es necesario dejar de lado apasionamientos y evaluar las oportunidades que cada opción presenta, sabiendo de antemano que ninguna es necesariamente más fácil o menos arriesgada que la otra. Comencemos por analizar el caso del emprendedor tecnológico. Los que enseñan la disciplina de la creación de empresas nos dicen que ellos son en general veteranos “quebradores de empresas”. Y no nos lo dicen para atemorizarnos, sino para enfatizar una realidad: ¿a quién le confiaría usted su dinero? a alguien que ya sabe cómo no volver a quebrar, o a alguien que aún no tiene esa experiencia? Usted como yo, seguramente elegiríamos al veterano, sobre el novato. Estos veteranos se desempeñan como tutores de los jóvenes emprendedores, transmitiéndoles la experiencia adquirida, en esquemas preconcebidos de soporte como lo son las incubadoras o aceleradoras de negocios. La palabra incubadora refleja exactamente lo que pasa al interior de una organización de ese estilo. Estas reciben en multiplicidad de casos a un equipo muy motivado de emprendedores tecnológicos, con un embrión de idea, a veces un prototipo funcional, que debe ser organizado, alimentado y diseñado hasta que alcance la autonomía suficiente para crecer y desarrollarse de manera autónoma. Dicha idea es organizada, planificada y evaluada por medio de la elaboración de un minucioso, pero indispensable plan de negocios. El plan de negocios mostrará si la idea es viable o no. Si la respuesta es no, es imperativo no “cuadrar” el plan, pues el veredicto de los inversionistas y del mercado será implacable. Es preferible buscar otra idea y aplicar la misma metodología. Los inversionistas, aquellos que desde el gobierno o la iniciativa privada colocarán sus recursos, se fijarán más en que el equipo de emprendedores sea clase “A” que en la idea, la cual puede ser de clase “B”. Vendrá la fase de constitución formal de “la empresa” y por supuesto la determinación de la participación de los proveedores del capital. Se presentará entonces otro dilema: aceptar los recursos de los inversionistas pero pasar a controlar del 10 al 30% de la empresa, o no aceptar nada y controlarla descapitalizada al 100%. Considero que desde las Universidades y desde el gobierno - Secretaría de Economía y Conacyt – los programas de respaldo a la necesaria amalgama de profesores-investigadores-estudiantes emprendedores pasa por su mejor momento. Es tal vez un poco prematuro afirmar que se transformará al país, pero es necesario comenzar y hay cosas que ya están sucediendo. En días pasados, en un recorrido por varios estados de la república, pude apreciar las implantaciones de Polos de Desarrollo Tecnológico, en cercanía a centros universitarios. Surgieron de reservas territoriales de gobiernos locales, en w w w.cociente.com.m x
donde la iniciativa privada, en esta caso empresas jóvenes, inician una carrera de largo aliento. Revisemos ahora el caso del emigrado tecnológico. En general se trata de otro tipo de “sueño americano”. Se trata del joven profesional al cual le enseñaron que una vez graduado, habría decenas de empresas que querrían contratarlo, con sueldos por supuesto astronómicos. No hay tal. Basta observar los salarios promedio que gana un recién egresado en el portal del Observatorio Laboral (www. observatoriolaboral.org.mx) para darse cuenta de cómo están las cosas. En general salarios promedio superiores a los 11000 pesos MN mensuales son excepcionales. De allí que ante la necesidad de nuestro vecino del norte, de contar con personal altamente calificado, nuestros jóvenes egresados no emprendedores, opten por la opción de convertirse en emigrados tecnológicos, legales en la gran mayoría de los casos. En efecto sus salarios se multiplicarían al menos por cuatro. Quien gana y quien pierde? Y qué gana y qué pierde? Definitivamente gana el vecino del norte y mucho. Le llega talento joven, muy bien formado en nuestras universidades, lo cual le representa a su economía un costo cero. De esta manera puede continuar expandiendo su industria tecnológica muy rápido pues se ahorraron 25 años de formación del inmigrado. Pierde México o cualquiera que sea el país exportador de esta mano de obra altamente calificada. Pierden masa crítica, pierden a su mejor gente, tan necesaria para lograr un despegue de su nueva economía. Ganarán como país, algunas remesas de más. No podemos ni debemos señalar a los emigrados tecnológicos por irse, ni a los emprendedores tecnológicos por quedarse. Tengo la certeza de que ambos comparten un fin común, y ambos harán grandes sacrificios. Los unos, dedicarán gran parte de su tiempo y energía al mantenimiento y crecimiento de su empresa y los otros, si bien son asalariados, pagarán el precio estar en un país extraño, lejos de su tierra y de sus seres queridos. Si se implantan los mecanismos necesarios, los expatriados podrían regresar a su tierra en algunos años y transmitir la cultura y experiencias adquiridas. De lo contrario los habremos perdido definitivamente. A los emprendedores, tenemos que mostrarles el camino, ayudarles a seguir la senda de la competitividad e insertarlos en el mercado externo, no en el interno exclusivamente. La construcción de un país no es cuestión de una sola generación sino de varias generaciones. Pensar que en el inmediato futuro es posible llegar a disfrutar de las comodidades y calidad de vida de una sociedad desarrollada es una falsa ilusión. Que los hijos de nuestros hijos lo puedan lograr depende de lo que podamos hacer nosotros hoy. C
Sobre el Autor: Guillermo Alfonso Parra Rodríguez, Director Escuela de Graduados en Ingeniería y Arquitectura – EGIA, ITESM, Campus Ciudad de México | gparra@itesm.mx | http://www.ccm.itesm.mx/egia
Aprovechamiento de la Energía Solar: Una Urgencia Impostergable El aprovechamiento de la energía solar en nuestro país debe adquirir un papel de importancia capital. La generación de electricidad en nuestro país contribuye enormemente al aumento del nivel de contaminación ambiental, dado que prácticamente el 75 % de energía eléctrica se genera por la quema de combustibles fósiles. Es imperante entonces incentivar el uso de fuentes alternativas para generar electricidad. La energía solar se torna preponderante ya que es una energía limpia, gratuita y no contaminante. En este artículo se presenta una breve visión de los problemas actuales que se provocan al generar energía eléctrica a través de la quema de combustibles fósiles, y se incita al estudio y desarrollo de convertidores electrónicos de potencia para utilizar la energía solar.
E
Por Pedro Bañuelos Sánchez l calentamiento global del planeta Tierra es un tema que a todos nos atañe. Prácticamente, todos los días escuchamos, leemos, y vemos noticias referentes a este tema de fatal importancia. El efecto invernadero nos ha alcanzado, rebasándonos. El crecimiento exponencial de la población ha provocado la modificación de nuestro medio ambiente. Lo peor de todo, es que se ha perdido el equilibrio entre el crecimiento poblacional, y todo lo que ello implica, y el medio ambiente. Como seres humanos, nos hemos preocupado por satisfacer todas nuestras necesidades básicas y más allá, sin importar lo que se haga para ello. Es fácil ver por las calles la enorme cantidad de basura que nuestra alimentación genera. Nuestros ríos se han vuelto cuencas muertas, transportando aguas negras arrojadas por nuestras propias industrias. Nuestras ciudades están prácticamente inmersas en una densa nata de contaminación atmosférica, provocada en gran medida por el uso de nuestros autos y de nuestra industria. ¿Y si a todo esto le sumamos la generación de energía eléctrica en nuestro país? En México, prácticamente el 75 % de la energía eléctrica es generada a partir de la quema de combustible fósil [1]. Esto también genera contaminación ambiental. Esto también contribuye a fortalecer el efecto invernadero. Pero además 10
del problema de contaminación ambiental que se genera por el uso de combustibles fósiles, existe el problema que dichos combustibles son finitos. Los yacimientos de petróleo y gas natural se encuentran en cuencas sedimentarias y su distribución está bien localizada. La reserva mundial se estima en 1.046 billones de barriles, de los cuales el 65.5% se encuentra en los países del golfo Pérsico, siendo Arabia Saudita el país con mayor reserva del mundo. Otras dos zonas de grandes reservas están en las costas del golfo de México y en las del golfo de Guinea. Realmente, las reservas son muy difíciles de evaluar, porque aun quedan muchas zonas poco exploradas pero de gran potencial productivo [2]. Recientemente, PEMEX informó en el mercado de valores de Estados Unidos que las reservas probadas de petróleo crudo de nuestro país van a la baja. Según el informe, al 31 de diciembre de 2006, las reservas probadas desarrolladas ascienden a 8 mil 978 millones de barriles, con lo que México apenas dispone de este energético para comercializar tanto en el mercado interno como en el externo para los próximos siete años. A las reservas probadas se debe agregar otros 3 mil 920 millones de barriles de las llamadas reservas probadas “no desarrolladas”, que es petróleo que se espera producir en un futuro. Al ritmo actual de Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
consumo y considerando las reservas desarrolladas y las no desarrolladas, se estima que el energético en nuestro país se agotará en diez años [3]. Antes de que esto suceda, si no han aparecido fuentes de energía alternativa surgirán grandes problemas en todos los ámbitos de la vida económica y social de nuestro país. La contaminación ambiental la tenemos presente y lacerante a cada día. El agotamiento de los combustibles fósiles viene en un futuro muy cercano. Es imprescindible entonces utilizar energías limpias y renovables para cubrir nuestras necesidades. La energía solar se torna preponderante en este aspecto. El Sol es una fuente gigantesca de energía que irradia diariamente a la Tierra. La energía solar llega a las capas exteriores de la atmósfera de forma aproximadamente constante, ya que a esa altura no existen nubes ni obstáculos que puedan atenuarla. Con ligeras variaciones según la época del año, debido a que la distancia entre la Tierra y el Sol no es siempre la misma, el valor de lo que se conoce con el nombre de Constante Solar es de unos 1.35 kW de potencia por cada metro cuadrado de superficie perpendicular a los rayos. Esto quiere decir que en un segundo llegan a la estratosfera unos 1350 julios/m2 de energía. Al suelo, la potencia radiante que llega no suele superar los 1000 W/m2, siempre medida sobre una superficie perpendicular a la trayectoria de los rayos [4]. Como podemos darnos cuenta, una gran cantidad de energía proveniente del Sol toca el suelo terrestre. El verdadero problema que enfrentamos los humanos no es la cantidad total de energía solar disponible. Más bien, el problema es la dificultad para aprovecharla. La energía solar puede ser aprovechada a través de dos maneras esenciales: el calor y la electricidad. La incidencia de la energía solar sobre un cuerpo cambia sus propiedades termodinámicas, calentando dicho cuerpo. Para convertir energía solar en calor se utilizan colectores solares. En ellos existe un fluido que recoge el calor que los rayos solares producen. La conversión de la energía solar a calor constituye una aplicación simple que no requiere tecnología sofisticada ni materiales costosos. Por otro lado, la conversión de energía solar a electricidad requiere de mayor tecnología. Esta última conversión puede lograrse fundamentalmente a través del efecto fotovoltaico, cuyos fundamentos teóricos están en la física cuántica. Se trata de un fenómeno por el que los fotones, incidiendo sobre determinados materiales y en condiciones apropiadas, pueden generar una diferencia de potencial o voltaje susceptible de mantew w w.cociente.com.m x
ner una corriente eléctrica, permitiendo alimentar alguna aplicación eléctrica. Algunos estados de la República Mexicana, por su privilegiada situación y climatología, en cada metro cuadrado de su suelo inciden al año unos 1500 kW/h de energía aproximadamente [5]. Esta energía puede aprovecharse directamente, a través de colectores solares, o bien ser convertida en electricidad. La energía solar no contamina, es gratuita para todo ser humano, y es inagotable.
Las ventajas evidentes de esta forma de generar energía eléctrica son que no contamina, no hace ruido, y es gratuita. De esta manera, donde haya luz solar, pude generarse electricidad. Su aprovechamiento extensivo puede liberarnos definitivamente de la dependencia de los combustibles fósiles que hasta ahora utilizamos para satisfacer nuestras necesidades. Es imperativo entonces intentar aprovechar la energía solar por cualquier medio a nuestro alcance. La conversión de energía solar a eléctrica se lleva a cabo por medio de paneles fotovoltaicos. Estos dispositivos están formados por un conjunto de células fotovoltaicas fabricadas a partir de materiales semiconductores, silicio principalmente, que aprovechan el efecto fotovoltaico. Un panel es comúnmente un rectángulo plano sin parte móvil que consta únicamente de estas células convenientemente interconectadas, y que es capaz de suministrar de forma ininterrumpida y permanente un voltaje. El único requisito para que un panel funcione es que debe ser expuesto a las radiaciones de la luz solar. Las ventajas evidentes de esta forma de generar energía eléctrica son que no contamina, no hace ruido, y es gratuita. De esta manera, donde haya luz solar, pude generarse electricidad. En función del número de células fotovoltaicas, un módulo puede producir niveles de bajo voltaje que varían de 6 V, 12 V o 24 V. Aunque se puede obtener otros niveles de voltaje siempre y cuando se realice la interconexión correcta entre paneles. Desafortunadamente, un panel genera un voltaje de corriente directa (CD). Si vemos a nuestro 11
A provechamiento de la E n e r g í a S o l a r ]
alrededor, prácticamente todos nuestros aparatos eléctricos y electrónicos se alimentan con un voltaje de corriente alterna (CA). Esto quiere decir que para utilizar la energía de un panel solar es necesaria una conversión de energía de CD a CA. Es necesario entonces el uso de un inversor de potencia, haciendo intervenir extensivamente la teoría fundamental de la Electrónica de Potencia. Un inversor es un circuito que produce un voltaje de CA a partir de una fuente de CD. El voltaje así generado puede ser monofásico o trifásico a una frecuencia de 60 Hz. Para realizar la conversión de CD a CA, los inversores utilizan componentes convencionales de conmutación tales como SCRs, GTOs, IGBTs, o MOSFETs. El estudio y mejoramiento de dichos inversores ofrece un inmenso campo de oportunidades a todos los ingenieros interesados en el aprovechamiento de la energía solar. Sin embargo, es preciso mencionar que la generación de electricidad por medio de paneles fotovoltaicos se ve afectada por dos factores fundamentales: el costo, y la necesidad de contar con un medio de almacenamiento de energía. Aun ahora, el costo de un panel fotovoltaico de baja potencia (55 W) es de varios miles de pesos. Por ejemplo, nada más para alimentar una casa-habitación común y corriente que cuente con 8 lámparas de 20 W y un televisor de 50 W, se requeriría de una potencia total de 210 W. Esto quiere decir que para alimentar esta casa son necesarios 4 paneles de 55W, es decir, varios miles de pesos mas. Por otro lado, un panel fotovoltaico genera electricidad siempre y cuando está expuesto a la radiación solar. Por la noche, entonces, no se produce electricidad. Para paliar este problema, se requiere la utilización de elementos de alma-
12
cenaje de energía: acumuladores. Durante las horas de radiación solar, el mismo arreglo de paneles solares puede alimentar simultáneamente a la carga y a los acumuladores, almacenando energía. Durante la noche, son los acumuladores los que proporcionarían la potencia requerida. A pesar de estos inconvenientes, la conversión de energía solar por medio fotovoltaico debe incentivarse. La contaminación ambiental la vivimos diariamente, soportando sus efectos nocivos. Los combustibles fósiles se agotan día a día, arrastrándonos a un problema grave en un futuro cercano. ¡Las energías alternativas para la generación de energía eléctrica merecen un impulso primordial e impostergable en nuestro país! C
Sobre el autor Dr. Pedro Bañuelos Sánchez, es profesor del Departamento de Computación, Electrónica y Mecatrónica de la Universidad de las Américas Puebla. Su área de especialidad se encuentra en el estudio de convertidores de potencia. pedro.banuelos@udlap.mx
Bibliografía: [1] http://www.cfe.gob.mx. Sitio web de la Comisión Federal de Electricidad, CFE. México, 2007. [2] José María de Juana et al. Energías Renovables para el desarrollo. Editorial Thomson Paraninfo. Madrid, España. 2003. [3] http://www.el-universal.com.mx/finanzas/59098.html. Noticia proporcionada por Noé Cruz Serrano. El Universal. 26 de Julio de 2007. [4] CENSOLAR, Centro de Estudios de la Energía Solar. La Energía Solar Aplicaciones Prácticas. PROGENSA. España, 2001. [5] Eduardo A. Rincón Mejía. Las fuentes renovables de energía como base del desarrollo sostenible en México. ANAES.
Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
w w w.cociente.com.m x
13
Diseño de lenguajes para un futuro incierto respecto al hardware Por Roy Lurie
C
ada industria hace frente al creciente interés y necesidad por la computación de alto rendimiento. Desde la simulación de automotores hasta el modelado de riesgo financiero, la biología de sistemas y el diseño de sistemas de comunicación, la necesidad de potencia bruta de cálculo se ha incrementado dramáticamente y continuará haciéndolo. Con la llegada de la computación de alto rendimiento, el hardware proveerá la plataforma necesaria para esta tarea. Algunos temen que el boom en diversidad de arquitecturas de hardware signifique que el hardware disponible ahora será reemplazado por uno mejor y más rápido a la vuelta de la esquina. Esto siempre ha pasado, pero el modelo del procesador único “C” permaneció mientras que su arquitec14
tura se desarrollaba. En un mundo de FPGAs, GPGPUs, aceleradores, multicores, clusters, grids, procesadores celulares y hardware reconfigurable, este modelo no funciona. ¿Cómo elegir una estrategia que le aísle de estos cambios? Muchas organizaciones han protegido sus algoritmos bajo propiedad intelectual en forma de un lenguaje o ambiente en particular lo que ha hecho prácticamente imposible migrar a una nueva tecnología. A menudo los expertos que entienden las sutilezas de estos códigos y las optimizaciones particulares hechas para alcanzar el “mejor desempeño” ya no están ahí. Con un futuro incierto, el seleccionar prematuramente su arquitectura, lenguaje y algoritmo, requerirá que, en el mejor de los casos, invierta una gran cantidad de fondos en migrar el código, o en el peor de los casos, viva con Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
de los matices de su arquitectura. Para optimizar sistemas heredados más allá de su vida útil. su inversión a largo plazo en algoritmos, necesita Entonces, qué deberían demandar los desarrolladores de software y expertos de diversos campos ser capaz de expresar el algoritmo en el nivel más alto de abstracción posible, sin añadir prematurade los proveedores de lenguajes para reducir el mente construcciones específicas del sistema o de riesgo de obsolescencia en los algoritmos? la arquitectura. Una de las mejores prácticas en ingeniería En este modelo de doble paso, los expertos, de software es, en la medida en que es posible, así como los científicos e ingenieros que serán escribir un programa de la forma más sencilla los principales consumidores de los sistemas de y que sea fácil de entender y de mantener. No computación de alto rendimiento, deben estar distrate de predecir dónde estarán los cuellos de puestos a expresar sus ideas de una forma natural, botella a la primera de cambio. Una vez que el algoritmo esté funcionando correctamente, ¿Sabe dónde se van a ejecutar sus algoritmos en dos años ejecútelo para encontrar a partir de este momento? ¿En cinco? ¿En diez? ¿Actualmente los cuellos de botella y solucionarlos. El intentar está invirtiendo en código que tendrá que desechar? optimizar el desempeño ¿Qué lenguaje debería elegir para sus algoritmos ahora para antes de tener el algoritmo correcto, da pie a proteger su inversión en el futuro? mejoras especulativas permitiéndoles explorar su espacio de soluciones de rendimiento que hace al código menos legible rápidamente. Para maximizar su productividad, y difícil de dar mantenimiento, y que no resuelve estos expertos deberán enfocarse en la esencia de los problemas de rendimiento subyacentes porque sus competencias. Por ejemplo, los expertos en intuyó incorrectamente. Este artículo aplica esta procesamiento de imágenes deben tener a mano un lógica al diseño de lenguajes para el futuro de idioma cuya semántica, sintaxis y funciones coinsistemas de alto desempeño. cidan con la expresión normal de las ideas en dicho Los lenguajes deben permitir a los expertos campo. Al permitir que los expertos en procesadesarrollar los algoritmos correctos tan pronto miento de imágenes se mantengan enfocados en como sea posible, sin preocuparse inicialmente w w w.cociente.com.m x
15
los conceptos esenciales del algoritmo en lugar de los tópicos mundanos de asignación de memoria, subprocesos o manejo de datos, les da la posibilidad de crear rápidamente algoritmos apropiados. El segundo paso de este modelo de doble paso, es la habilidad de los usuarios para anotar en el algoritmo información adicional que actuará como guía y aportación al motor de ejecución, de tal forma que alcance un óptimo desempeño para una arquitectura particular. Esto podría incluir anotaciones para describir el paralelismo en los algoritmos. Evidentemente, hay situaciones donde la arquitectura guía al algoritmo y un modelo de doble paso no es posible. Un mejor enfoque para el lenguaje sería el de no
Los lenguajes deben permitir a los expertos desarrollar los algoritmos correctos tan pronto como sea posible, sin preocuparse inicialmente de los matices de su arquitectura. requerir anotaciones para el uso óptimo de una arquitectura particular. Este sistema “completamente implícito” requiere un sólo paso realizando operaciones tales como la paralelización automática. Esta es un área de investigación activa, la cual no tiene solución general en el presente, por lo que en un futuro próximo, algunas anotaciones serán necesarias para proporcionar pistas al motor de ejecución particular para funcionar óptimamente. Tal sistema puede ser descrito como “mínimamente explícito”, donde la mínima cantidad de información explícita es necesaria para ayudar al motor de ejecución para producir un desempeño óptimo. Un ejemplo de este tipo de anotación es la construcción PARFOR disponible en MATLAB®. Anotando la instrucción FOR como PARFOR, el usuario estará anotando el bucle FOR con información que estipula que los contenidos del bucle FOR pueden ser ejecutados en cualquier orden. Si existen recursos computacionales adicionales, el motor de ejecución subyacente puede evaluar el código en paralelo para obtener resultados más rápidos. Cuando se ejecuta en un sistema de un solo procesador, PARFOR se comporta como un bucle FOR tradicional. Cuando se ejecuta en una máquina multicore o en un cluster, PARFOR puede usar los recursos computacionales adicionales para evaluar el código en paralelo para obtener resultados más rápidos. Con un enfoque anotado, el mismo algoritmo puede ser desplegado para correr en un solo CPU, un sistema multicore de memoria compartida, un cluster, o un acelerador especializado para un desempeño óptimo. Otro ejemplo de tal anotación son las instruc16
ciones SPAWN y SYNC proporcionadas por Cilk (http:/supertech.csail.mit.edu/cilk/.) Cilk es un lenguaje algorítmico multi hilo. La filosofía detrás de Cilk es que el programador debería concentrarse en anotaciones al programa para exponer el paralelismo y explotar la localidad (de los datos). El código serial C tradicional puede ser anotado, y cuando se integra con el sistema Cilk en tiempo de ejecución, puede ser eficientemente escalado para la operación de gran escala. La ventaja de este enfoque es que el usuario hace una simple substitución del lenguaje para proporcionar información adicional al motor de ejecución subyacente. Hay un mínimo de gasto mental en el usuario para tomar total ventaja del hardware disponible. ¿Cómo se relaciona esto con el modelo de dos pasos? Un buen ejemplo es un analista cuantitativo financiero intentando un análisis de riesgo de una cartera mediante simulaciones de Monte Carlo. Ejecutándose en una PC estándar, el analista podría construir un modelo en MATLAB, usando algoritmos financieros específicos de modelaje y componentes y bucles tradicionales FOR para iterar sobre un amplio conjunto de escenarios. Pueden surgir problemas de rendimiento debido a la complejidad computacional del problema. Habiendo adquirido recientemente una máquina multicore, el analista podría ser capaz de usar el mismo programa, modificando el FOR a un PARFOR. Con la ventaja del nuevo hardware vendría un aumento proporcional de velocidad. Por la necesidad de reducir el tiempo de ejecución aun más, el analista podría ejecutar el mismo código PARFOR en un cluster departamental, y alcanzar la velocidad de cálculo deseada. Con un mínimo esfuerzo y sin tener conocimiento del sistema subyacente, este experto fue capaz de lograr un alto rendimiento con un mínimo de anotaciones en su modelo inicial de MATLAB. Esta es la clase de resultados de cálculo de alto rendimiento que los usuarios deberían demandar de todos los lenguajes en el futuro. C
Sobre el autor El Dr. Roy Lurie es vicepresidente de ingeniería en la empresa The MathWorks, Inc., Es responsable de la familia de productos de MATLAB, que incluye equipos dedicados en las áreas de ejecución del lenguaje, cálculo paralelo y distribuido, procesamiento de imágenes, diseño de control, análisis y modelos financieros, pruebas y mediciones, y biología computacional. Recibió su doctorado en Ingeniería Eléctrica de la Universidad de Witwatersrand en Sudáfrica en 1994. Antes de unirse a The MathWorks en 1994, fundó y operó OptiNum Solutions, vendiendo las herramientas de MathWorks en el mercado Sud Africano. Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
Analfabetismo Científico y Tecnológico Por Lizette De La Garza Gil y Pedro Ponce Cruz
E
n uno de sus puntos la Declaración de Budapest establece que “Hoy más que nunca es necesario fomentar y difundir la alfabetización científica en todas las culturas y en todos los sectores de la sociedad […] a fin de mejorar la participación de los ciudadanos en la adopción de decisiones relativas a la aplicación de los nuevos conocimientos” 1 tal aserto nos lleva a pensar sobre el analfabetismo científico en el que vivimos y sobre todo emerge la pregunta, ¿cómo se puede abolir? Si entendemos como analfabetismo científico el pobre -o nulo- conocimiento que se tiene sobre las ciencias y lo ampliamos a lo concerniente a la tecnología, podemos entender aspectos interesantes de la sociedad. Pensemos en la forma en la que integramos los conocimientos que nacen tanto de la ciencia como de la tecnología y en la manera en la que interactuamos con ellos, de esa forma encontramos algunas de las respuestas para la pregunta que nació antes. Reflexionemos en momentos cotidianos que nos involucran con algún tipo de desarrollo de los del tipo que hemos tratado aquí y veamos a detalle dichos instantes, pero ante todo, pensemos adónde encajan la preguntas, ¿Dónde está el progreso? ¿Cómo se vive el progreso? Por ejemplo, el uso del teléfono celular, de la televisión, o el del DVD en el coche, si viéramos el fin para el que están hechos podríamos ver que, a veces, desvirtuamos sus usos y así alteramos el desarrollo para el que fueron creados. Cuando hablamos indiscriminadamente sin poner atención al individuo con el que estamos, cuando vemos por horas enteras la televisión, o cuando en un viaje en carretera optamos como familia “a ver la tele” en lugar de convivir; en esos momentos corrompemos el funcionamiento de esos productos y así nos pervertimos a nosotros mismos, a eso es a lo que llamamos aquí analfabetismo. La segunda parte de la afirmación tomada de la Declaración de Budapest refiere que aboliendo el analfabetismo científico se mejoraría la participación ciudadana en aspectos referentes a la adopción de las maneras en las que se aplican los nuevos conocimientos. De tal fragmento, se intuyen los conflictos que produce el desconocimiento de la operación de la ciencia y de la tecnología. Así que la perversión en el uso de los productos de consumo habla de nuestro analfabetismo científico y tecnológico. Y con él, damos paso al entorpecimiento de nuestra sociedad. Es decir, no se trata sólo de alejarnos del sentido con el que fueron creados, sino que, con ese tipo de actitudes dañamos nuestro entorno. Cuando desviamos el uso que le damos a X producto, y estamos más en la línea del abuso, damos cuenta de la distancia que nos aleja del conocimiento científico y tecnológico. Ya que con frecuencia el que sabe de esos temas, los usa para favorecer y enriquecer su vida, el desarrollo científico-tecnológico es una herramienta más de la que se nutre para progresar. Dicho progreso se nota en la medida en la que incrementa sus niveles de bienestar, en el interés que demuestra w w w.cociente.com.m x
al comprometerse con el buen uso de los productos que consume, etc. El analfabetismo científico y tecnológico puede ser mermado a partir de la comprensión de los preceptos desde los que se basan, y existen dos responsabilidades, la del profesional que hace y plantea sus conocimientos y la del consumidor. Los primeros son quienes desde su posición, nos deben “enseñar” a utilizarlos. En éste sentido, la responsabilidad del profesionista hoy en día, está acotada sólo a un planteamiento inicial del uso primario del producto desarrollado. Se tata de enseñar a utilizar el producto, proporcionando la libertad de poder modificar el empleo del mismo al consumidor. Dado que no necesariamente ni en todos los casos, una alteración del uso del diseño primario trae consigo que el producto se desvirtúe; y algunas veces, es tal la alteración del empleo del producto generada por el consumidor la que puede suplir alguna necesidad diferente. El problema grave se da cuando se realizan alteraciones sin reflexionar sobre las cualidades que tendrá un producto con tales modificaciones y sí ésta transformación genera un progreso real. Es justo decir que en algún momento determinado, el consumidor se convierta en el profesionista diseñador y el profesionista diseñador se vuelve el en un consumidor. De ésta forma, es curioso pensar que alguno de los dos es el responsable directo de jugar un sólo papel, si no que las ideas de responsabilidad para abolir el analfabetismo deben de estar enfocadas de acuerdo al papel que juguemos en ese momento, es un hecho que la libertad de modificar el mundo en el que vivimos es un reflejo de la posibilidad de modificar todos los productos que consumimos y que es la puerta para generar un progreso real y disminuir el analfabetismo científico y tecnológico. C
Sobre los Autores: Lizette De La Garza Gil es profesor de preparatoria del Tecnológico de Monterrey Campus Ciudad de México. El Profesor Pedro Ponce Cruz es Director de MCI, tecnológico de Monterrey campus ciudad de México.
Referencias: 1. La declaración de Budapest se estableció como documento final en junio de 1999 dentro y es el nombre común de la Declaración sobre la ciencia y el uso del saber científico que el texto está en http://www. unesco.org/science/wcs/esp/declaracion_s.htm y para este escrito fue recuperado el 2 de octubre de 2007.
17
Segmentación por color para caracterizar el andar humano Por Jorge A. Saldaña García, Azucena Montes Rendón Se muestra una técnica de adquisición de datos no-invasiva, mediante el uso de un traje con marcas y usando una técnica de segmentación por color, para la caracterización automática de movimientos corporales al caminar y correr, en un ambiente controlado.
D
esde hace ya bastante tiempo, el hombre se ha interesado por el análisis de la locomoción humana así como por las variaciones que se presentan al caminar y correr, lo cual se puede ver reflejado por ejemplo en el arte griego antiguo. Aristóteles describió tipos diferentes de modos de andar de animales así como también modos de andar humano [1]. Entre sus observaciones se encuentra que el modo de andar humano al caminar, es simétrico y a su vez el cuerpo se mueve de una manera ondulante. Ese tipo de descripciones han ido formando, a lo largo del tiempo, modelos del movimiento que gracias a los avances de la tecnología y de la ciencia se han podido retroalimentar, llegando incluso a explorar las reacciones musculares y los movimientos esqueléticos [2] que se producen al caminar y correr. Sin embargo, en el análisis del modo de andar se han utilizado técnicas de adquisición de datos invasivas (en el contexto de Visión Artificial: técnicas donde se coloca instrumental de medi18
ción en el cuerpo del sujeto.), como por ejemplo enganchando un goniómetro y un acelerómetro [3]. Proceso caro, difícil e inconveniente ya que entorpecen y modifican la manera de caminar y correr. Es por eso el interés de contar con un sistema que realice la caracterización del movimiento del cuerpo al caminar y correr mediante una técnica no-invasiva como el uso de la segmentación y seguimiento del color; proponiendo como base el uso de un traje especial (figura 1), con el cual no se entorpece el movimiento. Extraer las características del andar humano tiene numerosas aplicaciones, quizá la principal sea en la medicina para el diagnóstico de patologías o traumatismos [3,4,6], pero otro punto de vista para el análisis de la marcha humana el cual es un tanto mas reciente que el aspecto médico es el punto de vista tecnológico, dentro del cual se puede mencionar desde la búsqueda del reconocimiento de personas mediante su forma de caminar o retroalimentar modelos para el movimiento en los robots, hasta fines de entreCómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
tos mencionados, sin embargo, la marcha humana normal se ha descrito como una serie de movimientos alternantes, rítmicos, de las extremidades y del tronco que determinan un desplazamiento hacia delante del centro de gravedad. Además se ha visto que cuando se aumenta la velocidad del paso se tiende también a inclinar el tronco hacia adelante para mantener el equilibrio [7]. Esquema general del sistema En la figura 3 se muestran las etapas generales del sistema, de las cuales las marcadas con color verde y naranja son las etapas que están en desarrollo. El propósito del sistema es caracterizar dos acciones del cuerpo humano: caminar y correr, y a la vez obtener los patrones de posición de las partes del cuerpo (modelo) al realizarlas. Una vez obtenidos los datos de la caracterización estos serán validados mediante su reconocimiento y graficados para verificar su representación. Actualmente en el prototipo se han desarrollado las etapas para extracción de imágenes a partir de un video en formato AVI, segmentación utilizando la combinación de las tres bandas del formato RGB y el seguimiento (del color) basado en las coordenadas de los centroides de las regiones segmentadas, así como las primeras pruebas de caracterización.
tenimiento como modelos del movimiento para un mayor realismo en video juegos o películas animadas. Elementos del modelo En base a la información analizada referente a los movimientos corporales al caminar y al correr se decidió caracterizar los segmentos corporales que se describen a continuación (figura 2): > Pies y manos: Es necesario considerar los pies y las manos como segmentos indispensables a analizar ya que, normalmente al caminar, las manos se mueven rítmicamente en posición opuesta al movimiento de los pies y que el andar es el resultado de una sucesión de pasos [5,7]. > Rodillas y codos: Estos elementos se consideraron ya que la cinemática del correr se diferencia del caminar en que el movimiento de las articulaciones aumenta considerablemente [1]. > Tronco: Pocos trabajos consideran este elemento en el análisis de los movimienw w w.cociente.com.m x
Adquisición La adquisición se hace con una sola cámara de video (doméstica), Sony Handycam CCD-FX520, con vista lateral al cuerpo del sujeto, usando marcas en el cuerpo del sujeto mediante el uso de un traje especial. Aunque la parte fundamental para la adquisición es el uso del traje, ya que está diseñado de modo que permita un movimiento normal al sujeto y a su vez facilite la segmentación, es muy importante tener en cuenta los problemas causados por la iluminación. El problema en este caso es que al no usar ningún tipo de iluminación artificial, es difícil capturar el color de las marcas en el traje siempre con la misma tonalidad, debido a que el movimiento de las partes del cuerpo genera sombras en las marcas, lo cual hace que varíe su tonalidad a lo
Figura 1. Traje especial para la caracterización
Figura 2. Segmentos corporales de interés
19
S egmentación por color p a r a c a r a c t e r i z a r e l a n d a r h u m a n o ]
largo de toda la secuencia. Para contrarrestar esto se ha buscado controlar un poco este factor haciendo las adquisiciones en un lugar donde la iluminación genere la menor cantidad de sombras posible. Digitalización La digitalización es también una etapa importante para lograr buenos resultados en etapas posteriores. Una buena digitalización permite por ejemplo reducir el tiempo de preprocesado. En este sistema dicha etapa se ha cuidado tratando de ajustar el brillo y el contraste de modo que los colores de las marcas en el traje no se oscurezcan o se confundan con otro color.
y en el algoritmo de segmentación dividir la imagen en partes por coordenadas, para evitar contar los colores repetidos como una sola región. Se usa además un rango para cada banda (RGB), lo cual permite asegurar que se encuentra el mayor número posible de píxeles para cada marca. Así por ejemplo para la marca de Figura 3. Etapas generales del sistema color verde se compara: pixelActual en R<10 && pixelActual en G>200 && pixelActual en B<10
Para la marca color amarillo se compara: pixelActual en R>200 && pixelActual en G>200 && pixe-
Segmentación y seguimiento lActual en B<10 Debido a que se está trabajando con diversas partes del cuerpo: pies, rodillas, espalda, codos, Y así según sea el caso, se asigna un rango manos; se ha buscado un método de segmenpara cada uno de los colores utilizados. Figura 4. Colores primarios aditivos tación que facilite la etapa de seguimiento, es En la práctica se han obtenido resultados decir que permita saber desde el favorables de segmentación primer cuadro, en base al color de (figura 5), pero el mayor prola marca, que se ha encontrado por blema ha sido como se ha menejemplo la mano derecha del sujeto cionado anteriormente, la falta y se pueda realizar su seguimiento. de una buena iluminación, lo Esto para cada una de las partes cual es difícil de controlar sin de interés de acuerdo al color de iluminación artificial. su marca el cual debe ser diferente Una vez que se ha segmenpara cada segmento corporal. tado cada una de las regiones Ya que el objetivo de este trabajo en la imagen (segmentos cores específicamente la caracterizaporales), se calcula el centroide ción y la generación de un modelo, de cada una de estas usando: es que se ha optado por usar este método de segmentación y no uno Donde: más complejo que implique el uso de menos marcas, lo cual obviaFigura 5. Segmentación y graficación de centroides de pies, mente también requiere mas nivel de manos y cuello. procesamiento. Como se están analizando 9 segmen: es la sumatoria de todas las tos del cuerpo es necesario contar con coordenadas en x de los pixeles válidos 10 colores para las marcas (la espalda se para la región. extrae a partir de la cintura y el cuello), : es la sumatoria de todas las lo cual dificulta que estos puedan difecoordenadas en x de los pixeles válidos renciarse fácilmente unos de otros. para la región. Puesto que los colores primarios : es la sumatoria de todos aditivos son el rojo (R), verde (G) y los pixeles válidos para la región. el azul (B), si se toma en cuenta esto tendríamos solo 3 marcas posibles, Lo cual nos da como resultado su pero mezclando estos colores se puede respectiva coordenada en el plano de obtener el resto (Figura 4). la imagen. Esta se guarda en una base Aun así para una segmentación de datos en su campo respectivo (pie Figura 6. Modelo artificial para pruebas óptima sería necesario tener combinacioderecho, pie izquierdo, etc.) y poniendo nes solo de dos colores, lo cual daría RG, como índice el número del cuadro actual RB y GB, tres colores más. En total se pueden usar seis colores del video. Con lo cual, al final se obtiene el desplazamiento diferenciables. El color negro no se ocupa por que es el color del de cada uno de los segmentos corporales de interés, en el traje y el color blanco es probable que se encuentre en el fondo. plano 2D, a lo largo de toda la secuencia de imágenes. La solución es entonces repetir colores en las 4 marcas faltantes Se han llevado a cabo pruebas sobre un modelo artificial 20
Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
(Figura 6), logrando una extracción óptima y rápida de datos, para cada uno de los segmentos corporales en todos los cuadros de la secuencia. Comentarios La técnica que se presenta ha dado buenos resultados, tanto en la parte no-invasiva, al permitir a los sujetos de prueba realizar las acciones sin entorpecer los movimientos corporales, como en la parte de segmentación, logrando hacer una extracción de datos de forma confiable y rápida. El problema que se ha encontrado, ha sido durante la etapa de adquisición, debido a las dificultades para mantener un control en la iluminación. Factor que genera cambios en la tonalidad de los colores, debido a las sombras generadas por las partes mismas del cuerpo de los sujetos de prueba. Incluso cuando no hay sombra en las marcas, la variación de la luz genera cambios en las bandas RGB del color de los pixeles, haciendo que muchos de estos no entren dentro de los rangos establecidos para cada marcador y generando cierta pérdida de información, lo cual se compensa con el cálculo del centroide, ya que debido al tamaño del marcador es posible lograr una buena cantidad de pixeles válidos y por lo tanto el centro de la región resulta válida para la caracterización. C
Sobre los Autores: Jorge A. Saldaña García (zemifes@cenidet.edu.mx) y Azucena Montes Rendón (amr@cenidet.edu.mx) pertenecen al Grupo de Visión Artificial del Departamento de Ciencias Computacionales del Centro Nacional de Investigación y Desarrollo Tecnológico, CINDET.
Referencias [1] ChewYean Yam, Mark S. Nixon, John N. Carter, “Gait Recognition by Walking and Running: A Model-Based Approach”, ChewYean Image, Speech and Intelligent Systems, Electronic and Computer Science University of Southampton, U.K. [2] Frank C. Anderson, Marcus G. Pandy, “Dynamic Optimization of Human Walking”, Department of Biomedical Engineering, and Department of Kinesiology, University of Texas at Austin. [3] Javier Pérez Orive, Arturo E. Pichardo, Daniel D. Chávez “Análisis de parámetros cinemáticos de la marcha normal”, Instituto Nacional de Ortopedia. Cuidad de Mexico. [4] Javier Pérez Orive, Arturo E. Pichardo, Daniel D. Chávez “Desarrollo de un estandar de marcha normal en hombres adultos. Propuesta de estándar para normatividad en estudios de marcha de población mexicana”, Instituto Nacional de Ortopedia. Cuidad de Mexico. [5] Norman Berger, Joan E. Edelstein, Sidney Fishman, Eric Hoffman, David Krebs y Warren P. Springer, “Manual de Ortesica Del Miembro Inferior”, Facultad, EVotsica y Ortsica, Escuela Graduada de Medicina de la Universidad de Nueva York. [6] R. Posada-Gómez, M.A. García Martínez, C. Daul, “Conception and realization of a 3D dynamic sensor as a tool in determination of the nature and severity of diseases in human walking study”, 1Depto. de Posgrado e Investigación, Instituto Tecnológico de Orizaba, 2Centre de Recherche en Automatique de Nancy, France. [7] Susana Collado Vázquez, “Análisis de la marcha humana con plataformas dinamométricas. Influencia del transporte de carga”, memoria presentada para optar al grado de doctor, Universidad Compútense de Madrid, facultad de medicina, España. w w w.cociente.com.m x
Los superordenadores de Sandia ofrecen una nueva explicación del desastre de Tunguska (Evenkia, Rusia) Los asteroides más pequeños pudieron ser más peligrosos de lo hasta ahora conocido.
Mark Boslough observando simulació por computadora. Texto: Sandia National Laboratories; Foto: Randy Montoya; Traducción: Claudia Domínguez
ALBUQUERQUE, Nuevo, México. La imponente devastación del bosque de Tunguska en Siberia, hace un siglo, pudo haber sido causada unicamente por un asteroide, de una fracción de tamaño, según estimaciones anteriormente hechas, esto lo sugieren las simulaciones del superordenador de los Laboratorios Nacionales de Sandia. “El asteroide que causó el extenso daño era mucho más pequeño de lo que se había pensado,” -dijo el principal investigador de Sandia Mark Boslough sobre el impacto que ocurrió aquel Junio 30 de 1908. “Que un objeto tan pequeño haya hecho esta clase de destrucción sugiere que los asteroides pequeños son algo a considerar. Su tamaño más pequeño indica que tales colisiones no son tan improbables como habíamos creido.” Este investigador señala que los asteroides pequeños se acercan a la tierra con más frecuencia, que los grandes, y por esto “debemos hacer más esfuerzos en la detección de los más pequeños, de lo que hasta ahora se ha hecho.” La nueva simulación –que concuerda mejor con los hechos de destrucción conocidos que el modelo anterior- muestra que el centro de la masa de un asteroide, que explota arriba de la tierra, es transportado a velocidades más rápidas que el sonido. Este, toma la forma de un jet de alta temperatura con gas en expansión, llamado “bola de fuego”. Esto provoca ondas de ráfaga y pulsos termales de radiación mayores en la superficie, de las que pudieron ser previstas por una
explosión limitada a la altura en la que la ráfaga fue iniciada. “Existe de hecho menor devastación de la que previamente se pensaba” dice Boslough, “pero fue causada por un asteroide más pequeño. Desafortunadamente, no es un alivio en términos del peligro potencial, porque hay asteroides más pequeños que grandes.” Las simulaciones demuestran que el material de un asteroide entrante es comprimido por el aumento de resistencia a la atmósfera de la tierra. Mientras más penetra la pared atmosférica provoca una explosión nuclear que precipita hacia abajo el gas calentado. Por la energía adicional transportada por la “bola de fuego” hacia la superficie, los científicos habían pensado que podría ser una explosión de entre 10 y 20 megatons pero de tres a cinco megatons era lo más probable. El tamaño físico del asteroide, dice Boslough, depende de su velocidad, si es poroso o no, helado o sin agua, u otras características materiales. “Cualquier hipótesis para la defensa o declinación de esta investigación deberá considerar el entendimiento de los mecanismo de explosión,” dice Boslough. Uno de los trabajos más prominentes sobre estimación de frecuencia de impactos, fue publicado en la revista Nature por el investigador de Sandia Dick Spalding y sus colegas, basados en datos satélitales sobre explosiones atmosféricas. “Se pueden tomar en cuenta estos datos y estimar la frecuencia de llegada, de asteroides a través de argumentos probabilísticos”, dice Boslough.
21
Diseños sostenibles, compromiso con la continuidad de las empresas y del planeta Por: Ing. Ángel Ribó www.solidworks.com.mx >
>
>
Hoy, aún con la mitad de la humanidad situada por debajo del umbral de pobreza, ya se consume un 20% más de lo que la Tierra consigue renovar. La Unión Europea calcula que más del 80% de todos los impactos ambientales relacionados con un producto se determina durante la fase de desarrollo del mismo. Las empresas que planifican pensando en el futuro, son más rentables que las empresas reactivas.
La tecnología de CAD (Diseño Asistido por Computadora, por sus siglas en inglés), especialmente en 3D, ha roto paradigmas importantes en el diseño de productos mecánicos. Ha sustituido al trabajo manual extenuante y abierto espacio a proyectos más inteligentes, creativos y funcionales. Las últimas versiones de sistemas de CAD son tan avanzadas que realmente ayudan a producir productos superiores de forma más rápida, gracias a la reutilización de archivos y componentes de diseños anteriores, así como a interfases intuitivas para el usuario. Este salto de calidad en las mesas de dibujo electrónicas ha traído consigo un reto: el diseño sostenible. Pero, ¿qué es el diseño sostenible? Es un método global y completo para la creación de productos y sistemas no perjudiciales para el ambiente, socialmente equitativos y económicamente viables. En términos ecológicos, significa que el diseño debe ofrecer beneficios obvios y cuantificables; socialmente, un diseño que cubre las necesidades de todas las personas implicadas en su producción, uso, desecho o reutilización; y económicamente, que debe ser competitivo en términos de mercado. En los últimos 20 años, un número creciente de países, empresas e individuos vienen concentrándose alrededor del tema de la sostenibilidad, que se traduce básicamente en la preocupación por el futuro de nuestro planeta. De acuerdo con la ONU, la sostenibilidad es la capa22
cidad de utilizar los recursos naturales de la Tierra sin comprometer el futuro de las próximas generaciones. Según el Instituto Akatu --una organización no gubernamental para educar y movilizar a la sociedad hacia el consumo consciente-- la humanidad se encamina hacia un callejón sin salida. De continuar el actual ritmo de explotación del planeta, en un siglo no habrá fuentes de agua ni de energía, reservas de aire puro ni tierras para la agricultura en cantidad suficiente para la preservación de la vida. Hoy, aún con la mitad de la humanidad situada por debajo del umbral de pobreza, ya se consume un 20% más de lo que la Tierra consigue renovar. Si la población del mundo consumiera como los estadounidenses, se necesitarían otros tres planetas iguales a éste para garantizar productos y servicios básicos como agua, energía y alimentos a todo el mundo. Como evidentemente es imposible disponer de otros tres planetas como la Tierra, la única salida es que todos adoptemos patrones de producción y consumo sostenibles. Este es el reto lanzado a cada ingeniero o diseñador. Además de crear productos superiores, desde el punto de vista del diseño, funcionalidad y economía, se necesita pensar en la sostenibilidad del planeta, en cómo economizar en términos de recursos naturales, cuáles son los impactos en el ambiente, los residuos sólidos que generan, los desechos y su descomposición. Únicamente con la ayuda de la tecnología es posible seguir produciendo al mismo tiempo que preservamos el futuro. No se trata de una ideología verde ‘neo hippie’, sino de dar continuidad a la vida y, consecuentemente a los negocios. Por ejemplo, utilizando tecnología como COSMOS, para hacer análisis del diseño
desde el primer momento de un proyecto, las empresas pueden ahorrar en materiales o saber si pueden reemplazar unos por otros, sin afectar la calidad del producto y dándose la oportunidad de encontrar opciones que además de económicas pueden ser amigables con el ambiente. Pensando en la sostenibilidad, se puede ser innovador tanto en el uso de materiales como en el diseño mismo, al diseñar un producto con partes removibles que puedan ser reemplazadas con partes más modernas cuando éstas se dañen o envejezcan y como resultado, la empresa o el consumidor no tendrán que desechar el producto completo. El estadounidense Andrew Savitz, socio de la firma de auditoría PriceWaterhouse Coopers y una de las mayores autoridades en el campo de la gestión empresarial, alerta: “En los años 50 bastaba sólo con ganar dinero; hoy el foco es la responsabilidad socioambiental”. Savitz señaló las diferencias entre el modo de hacer negocios hoy y en el pasado: “Antes, se esperaba que las empresas ganaran dinero y practicaran la filantropía. En los años 70, empezaron a incorporarse las ideas de protección al ambiente y a asumirse una mayor responsabilidad sobre los productos. Hoy, a las empresas se les exige que promuevan la diversidad, ayuden a recuperar el ambiente, combatan el trabajo infantil,
Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
El mundo ideal monitoreen la cadena de suministros, promuevan la salud pública, generen empleos y lleven desarrollo a las comunidades en las que actúan. Y, por supuesto, necesitan continuar ganando dinero”. El directivo concluyó: “La cuestión es mantener el foco en el llamado ‘triple bottom line’, es decir, en los resultados de la empresa en términos económicos, ambientales y de responsabilidad social”. Con un panorama claro, no hay cómo postergar la adopción del diseño sostenible en las empresas. Afortunadamente, con pequeñas alteraciones en el desarrollo de un diseño de producto, seleccionando cuidadosamente los materiales diseñados para fabricar un producto haciendo uso mínimo de energía y recursos, se generan grandes efectos de propagación en un ciclo de vida sostenible y se puede obtener la ventaja adicional de mejorar el margen competitivo de una compañía en el mercado global. Europa, por ejemplo, está abriendo camino para ese cambio en su manera de pensar y recientemente propuso una Política Integrada de Productos (IPP, Integrated Product Policy) que, además de promover, impulsa el desarrollo sostenible. En un informe reciente, la empresa Cyon Research Corporation analiza esta aproximación: “El principio central de la IPP es que los mayores cambios en términos de impacto ambiental de los productos pueden llevarse a cabo durante la fase de diseño (“antes de llegar a fábrica”), no sólo por medio de la eficiencia de procesos, producción más limpia o gestión de la contaminación (“después de fábrica”). La Unión Europea calcula que más del 80% de todos los impactos ambientales relacionados con un producto se determina durante la fase del diseño. Consecuentemente, las empresas que den prioridad al descubrimiento de maneras metódicas y tangibles de reducir los costos de material y mejoren los procesos de producción serán líderes en el mantenimiento de los márgenes de utilidades.
Los vehículos con consumo eficiente de combustible, los edificios con calentamiento solar, las plantas de combustión limpia, los embalajes reciclables y la iluminación de baja tensión son importantes ejemplos de productos que ayudan a equilibrar las necesidades de consumo con buenos cuidados ambientales. De hecho, cualquier producto podría fabricarse teniendo en mente la sostenibilidad del diseño, si los ingenieros quisieran realmente crear productos superiores utilizando materiales y tecnología del diseño que afecten menos al ambiente. La naturaleza humana considera más fácil dejarlo todo como está, incluso ante argumentos persuasivos, como por ejemplo, el hecho de que las empresas que planifican pensando en el futuro son más rentables que las empresas reactivas. Aunque existan inconvenientes al analizar por primera vez el diseño sostenible, los beneficios a largo plazo (y necesitamos pensar en el largo plazo) son innegables. Las ventajas e inconvenientes que se puedan presentar se analizan mejor con la ayuda de soluciones precisas para el diseño y el análisis del producto antes de su fabricación, cuyos resultados pueden ser repetidos, compartidos y evaluados por todos los departamentos de una organización, desde la fase de diseño y manufactura hasta la comercialización y el transporte. Como profesional e individuo, cada uno de nosotros puede empezar hoy mismo a contribuir en la sostenibilidad del planeta. Ante cada nuevo proyecto de diseño, se deberían hacer las siguientes preguntas: ¿Cuál es el costo de las materias primas? ¿Hasta qué punto el procesamiento y el tratamiento son ambientalmente benignos? ¿Qué energía se necesita para utilizar este material? ¿Existe un material que cueste lo mismo, pero que sea más fácil de reciclar? ¿Existe algún material nuevo que sea resistente hasta el punto de poder utilizar una cantidad menor para producir una pieza con la misma durabilidad? En cada proyecto de diseño es necesario poner a consideración el uso mínimo y las mejores opciones de material, verificar que sean fáciles de desmontar, así como la reutilización o reciclaje del producto al final de su vida útil, que tenga un consumo mínimo de energía, que se fabrique sin producir residuos peligrosos y con el uso de tecnologías limpias como filosofía principal. Los resultados a mediano y largo plazo serán un menor impacto sobre el ambiente, la reducción en los costos de tratamiento del agua, menor cantidad de residuos en los rellenos sanitarios, prevención de la contaminación del suelo, aire y agua, preservación de los bosques y biodiversidad, y disminución de las alteraciones climáticas, además de los beneficios económicos y de impacto social.
Sobre el Autor: Ing. Ángel Ribó es Gerente de Ventas, SolidWorks México, Centroamérica y Caribe. www.solidworks.com.mx
C
w w w.cociente.com.m x
23
24
Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
NIWeek07 ]
En 2002 la Secretaría de Economía empezó a organizar mesas de trabajo para definir las estrategias del programa para el desarrollo de la industria de software, hoy conocido bajo el nombre de PROSOFT. Alcanzar niveles internacionales en capacidad de procesos fue una de las estrategias del programa. Se empezaron a revisar los modelos de procesos disponibles incluyendo ISO9000:2000, CMM-SW, ISO12207, ISO15504 y la versión inicial de CMMI. La conclusión fue: ninguno cumple con los requerimientos de ser fácil de adoptarse en la industria de software mexicana. En estas circunstancias se decide proponer a la SE un proyecto, un tanto atrevido, de desarrollar un modelo de procesos y un método de evaluación “a la medida” de la industria en México. No se trataba de “inventar el hilo negro”. Se cubren por lo menos las prácticas de CMM-SW nivel 3 e ISO9000:2000, en el caso de modelo de procesos, y se cumplen con los lineamientos de ISO15504, con respecto al método de evaluación.
Norma Mexicana de la calidad del software
w w w.cociente.com.m x
25
Algunos de los representantes de la industria expresaron su desacuerdo con este proyecto, sin embargo la SE dio visto bueno y recursos, estos últimos a través de un convenio con la UNAM. La falta de recursos monetarios no fue un obstáculo porque el reto que ofrecía el proyecto atrajo a los recursos más importantes, recursos humanos. Entre septiembre y diciembre de 2002 se logró conjuntar a través de la AMCIS a un equipo de 11 personas, en su mayoría mujeres profesionistas, a que aportaran su conocimiento y experiencia para generar MoProSoft (el Modelo de Procesos para la Industria de Software) como documento base para la norma mexicana. En junio de 2003 la SE lo hizo público a través del portal software.net.mx. Para completar la norma se necesitaba definir el método de evaluación basado en MoProSoft como modelo de procesos. Para tal fin otro equipo en 2003, se definió EvalProSoft (el método de Evaluación de Procesos de Software), que fue revisado por los dos únicos Lead Assessors con los que se contaba en este momento en México. Al principio de se tenían los elementos básicos, el modelo de procesos y el método de evaluación, para empezar los trámites de normalización en el subcomité de Software del NYCE (Normalización y Certificación en Electrónica). Sin embargo faltaba un “detalle”, probar que MoProSoft y EvalProSoft sirven en la práctica. Así surgió el tercer proyecto de pruebas controladas con cuatro empresas que tienen el perfil promedio de la industria de software. Después de un proceso de selección, en julio de 2004, a las cuatro empresas se les aplicó una evaluación inicial para conocer sus niveles de capacidades con respecto al modelo de MoProSoft. Posteriormente, entre agosto y diciembre, con el apoyo de un día a la semana de una consultora, las empresas adecuaron los procesos de MoProSoft a sus necesidades, definieron las plantillas de los productos y empezaron a implementar los procesos. El objetivo de las pruebas controladas fue demostrar que, en un lapso de tiempo relativamente corto, las empresas pueden elevar sus niveles de capacidad y “no morir en el intento”. Las evaluaciones finales comprobaron esta hipótesis. Además, se afinaron los detalles de EvalProSoft para lograr mayor objetividad en la evaluación del cumplimiento de los atributos que caracterizan a cada uno de los niveles de capacidad de procesos. Actualmente el NYCE(Normalización y Certificación Electrónica A.C.) los formalizó como norma. 26
Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
Normalización y Certificación Electrónica A. C., NYCE, es una asociación civil sin fines de lucro creada en noviembre de 1994 por un grupo de empresas líderes de los sectores de Electrónica, Telecomunicaciones y Tecnologías de Información de México, convencidas de la necesidad de contar con un organismo de jurisdicción nacional que tomara en cuenta sus necesidades, en la certificación del cumplimiento con las Normas Oficiales Mexicanas aplicables a los productos de la rama. Entrevista : Cree usted que este modelo y norma, que permite su verificación pueda ser adaptado a diversos proyectos del Macroproyecto de Tecnologías para la Universidad de la Información y la Computación? ¿Y qué beneficios cree usted que podría tener para los grupos interdisciplinarios del Macroproyecto el incorporar este modelo de desarrollo de software? H.O. : La mayoría de los proyectos de este macroproyecto tiene como componente muy importante el desarrollo de software. Por esta razón el modelo de procesos MoProSoft es perfectamente aplicable. Sus procesos de Desarrollo y Mantenimiento de Software y el de Administración de Proyectos Específicos ayudarían mucho en la creación de productos de software de buena calidad, fáciles de mantener y generados con recursos y tiempo asignados. También, el proceso de Gestión de Negocio y los de Gestión de Proyectos, Procesos y Recursos ayudarían mucho en el manejo de la complejidad de muchos aspectos administrativos y estratégicos. C
: ¿Si este modelo se adaptara a las áreas científicas, se tendría que aprobar nuevamente por el NYCE como una norma específica para el desarrollo de software científico? H.O. : No creo que esto sea necesario. El desarrollo de proyectos de software para las aplicaciones científicas tiene sus peculiaridades, por ejemplo las restricciones de tiempo o de recursos no son tan estrictas como en un proyecto comercial, pero las prácticas técnicas de desarrollo son las mismas. La norma en su totalidad abarca procesos para toda una organización o empresa que se dedica a desarrollo de varios proyectos. En el caso de grupos científicos habría que ver cuales de estos procesos son aplicables y restringir las verificaciones nada más a estos. C
w w w.cociente.com.m x
: Entiendo que mucha de la investigación y desarrollo de software dentro del macroproyecto tiene que ver con el desarrollo de software libre...¿Porqué convencer, a los desarrolladores de software, de pagar por adquirir los materiales para ser certificados y por la certificación misma? H.O. : La norma y el modelo de procesos MoProSoft no son obligatorios. Pueden ser usados como marco de referencia para saber que prácticas vale la pena adoptar y hacerlo en función de sus necesidades. Su primer objetivo es servir a las organizaciones para su mejora y éxito. Tampoco nada tiene que ver si es un desarrollo con software libre o comercial. Las verificaciones, popularmente llamadas certificaciones, no son obligatorias. Las organizaciones las pueden contratar cuando quieren convencerse a si mismas de que adoptaron bien los procesos o cuando quieren “presumirse” en el mercado. C
: ¿Porqué el organismo que te certifica es a su vez el que te vende la norma y los materiales? No es el NYCE una asociación civil sin fines de lucro? ¿Porque el NYCE es dueño de la norma? Si la norma se desarrolló, según tengo entendido por la Secretaria de Economía, la UNAM, y AMCIS? Con usted al frente del proyecto. H.O. : Efectivamente la norma fue desarrollada por un grupo en total de 17 personas bajo dos convenios entre la Secretaría de Economía y la UNAM. NYCE es un organismo creado por la CANIETI para emitir las normas para Electrónica. A falta de un organismo similar para software se encargo al NYCE ocuparse también de esa rama. Así fue como NYCE emitió la norma NMX-I-059-NYCE-2005 basada en los documentos originales de MoProSoft y EvalProsoft que se crearon como resultado de los convenios con la Secretaría de Economía. En todo mundo los organismos que emiten las normas las venden. Sin embargo, en este caso los documentos originales están públicos (www. comunidadmoprosoft.org.mx) y para estudiarlos no se necesita pagar nada. C
: ¿Qué otras alternativas de certificación avaladas en México recomendaría usted? H.O. : La única alternativa para evaluaciones con respecto a modelos de procesos de referencia es la de Capability Maturity Model Integration (CMMI) creado por Software Engineering Institute en EEUU. Es un modelo propietario, es decir, C
27
N orma Mexicana de la ca l i d a d d e l s o f t w a r e ]
no es ni norma en Estados Unidos, sin embargo se ha vuelto un referente prácticamente único de distinción de las empresas de desarrollo de software que compiten por el mercado global. Es un modelo que recomiendo a las empresas grandes que tienen que lidiar con proyectos complejos. Para las empresas pequeñas, menores de 25 personas, una parte de sus prácticas puede ser engorrosa. : ¿El costo de la norma mexicana en relación con CMMI es el adecuado? H.O. : Los costos de documentos es una cosa, pero los costos verdaderos están en la definición y la adopción de procesos y luego en las verificaciones o evaluaciones. En ambos casos el mayor costo está en la adopción de procesos. Una buena adopción debe dar a la organización beneficios económicos a mediano plazo que permiten cubrir cualquier costo de una verificación. Si la adopción no logra levantar al negocio, cualquier precio de una verificación va ser alto. Nuestro modelo de procesos es un modelo casi listo para usarse, más cercano a lo que la empresa pueda adoptar con pocas adecuaciones, el modelo de CMMI requiere de mayor esfuerzo de traducción a los procesos que la empresa requiere y ni hablar de idioma. C
: ¿Qué recomendaciones nos puede sugerir? H.O. : Para los desarrollos científicos de software recomiendo que se revise principalmente el proceso de Desarrollo y Mantenimiento de Software de MoProSoft para empezar a incorporar las prácticas de documentación, sobre todo de los diseños. Hemos observado que muchos desarrollos de este tipo se hacen como prototipos desechables, que por falta de documentación no permiten transmitir las experiencias a nuevas generaciones de desarrolladores. C
28
Conclusiones El Modelo MoProSoft es una Norma mexicana verificable; fue desarrollada por la AMCIS, emitida como norma por el NYCE. Es un sistema de gestión de la calidad de los procesos de desarrollo y mantenimiento de software para las PYMES. > Mejora la calidad del software producido por los que adoptan el modelo. > Eleva la capacidad para ofrecer servicios con calidad y alcanzar niveles internacionales de competitividad. > Integra todos los procesos de la organización y mantiene la alineación con los objetivos estratégicos. > Sirve para implantar un programa de mejora continua. > Permite reconocer a las organizaciones mexicanas por su nivel de madurez de procesos. > Facilita la selección de proveedores. > Permite obtener acceso a las prácticas de ingeniería de software de clase mundial. Datos de Contacto: Dra. Hanna Oktaba, coordinadora general de la Unidad de Desarrollo de Software yTecnologías de Información (UDeSyTI). ho@fciencias.unam.mx . www.mtuic.unam. mx/udesyti .
Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
w w w.cociente.com.m x
29
Notas de Prensa Sound and Vibration Measurement Suite 6.0 and PXI-4495 El Lanzamiento más reciente de NI, en enero 8 del presente año, permitirá a todos aquellos ingenieros en el estudios de sonido y vibración, obtener análisis y datos, a través de una poderosa herramienta que han desarrollado, llamada NI Sound and Vibration Measurement Suite en su Versión 6.0, esta herramienta será acompañada del nuevo NI PXI-4495, el cual se compone de 16 canales de entrada para la recopilación de vibración y sonido. Este Software al igual que el Hardware, son configurables para la adquisición, introducción de información y análisis VIs en LabVIEW; por lo cuál, el proceso de adquirir y analizar las señales que el ruido y las vibraciones arrojen, será de mayor mesura, por ejemplo, los ingenieros podrán variar la ponderación y el ancho de banda en una octava del espectro sonoro, mientras graban lecturas generales de vibración. Sus resultados o Outputs son compatibles con archivos o formatos universales (UFF) y I/O support. Para mayor información, visite, http://www.ni.com/news, http://www.multion.com. mx, o escriba a info@multion.com.mx
The MathWorks anuncia Nuevo producto que se integra a Simulink® con Green Hills® MULTI® The MathWorks une fuerzas con Green Hills, para crear una herramienta altamente efectiva, entre la unión de Simulink® y Green Hills® MULTI®, nace Embedded IDE Link™ MU, producto que será útil en el terreno de diseño basado en modelado (Model-Based Design), el cual, automáticamente despliega los códigos generados en Simulink®, dentro de Green Hills® MULTI®. Permitiendo así, pariedad en un alto rango, para la ejecución de microprocesadores embebidos, incluyendo el the Freescale™ Power Architecture (PowerPC®). Para mayor información visite www.mathworks.com , www. multion.com.mx , http://www.ghs.com ó escriba a info@ multion.com.mx
MultiON obtiene la certificacion de ATLAS.ti para vender sus productos. ATLAS.ti es el poderoso software para el análisis cualitativo de conjuntos grandes de datos de texto, gráficos, audio y video Incluye gran variedad de herramientas para hacer las tareas asociadas con cualquier enfoque sistematico al analisis de datos “suaves”, es decir, material que no puede ser analizado completamente usando procedimientos estadisticos forrmales. Durante mas de una decada, ATLAS.ti ha sido el lider en el mercado profesional de software QDA (Quality Data Analysis). Sus herramientas y funciones han establecido el estándar mundial para software de su clase y continua empujando fuerte el desarrollo.
30
Más acerca de ATLAS.ti en http://www.atlasti.com/ más acerca de MultiON Consulting en www.multion.com.mx
Lindo Systems libera la versión 9 de What´s Best. Es la nueva versión del Solver de Optimizacion para Excel, sus adiciones lo hacen más rapido y poderoso para soportar las nuevas versiónes de Microsoft® Office 2007 y Microsoft® Vista®. What’sBest! 9.0 es en promedio 80% más rapido para resolver modelos lineales debido a las mejoras en las soluciones para los metodos Simplex Primal y Dual. La solucion (Solver) para Fronteras (Barrier) es en promedio 20% más rapido en modelos de gran escala lineales y cuadraticos. Los realces en sus soluciones para Simplex y de Frontera, tambien mejoran el manejo de problemás numericos dificiles. La solucion para problemas Enteros (Integer) es en promedio 40% más rapido para un amplio rango de modelos. La solucion general para problemas No Lineales es en promedio 25% más rapido em modelos altamente no lineales y complejos. La solucion para problemas Globales, incluye cantidad de realces para mejorar la robustez en la solucion de problemas de modelos no convexos no lineales a optimalidad global.
IBOPE adquiere localmente Stata/MP2 versión 10 mejor y más rápido procesamiento de datos de encuestas y mediciones. IBOPE AGB es un lider en medicion de audiencias y monitoreo de anuncios e inversión publicitaria. El Sistema de Gestión de Calidad de IBOPE AGB México está certificado por QS México en la norma ISO 9001:2000 así como en el Estándar de Servicio para la Investigación de Mercados en México (ESIMM). Ademas, IBOPE AGB México, consciente de la importancia que representa la investigación de Medios Publicitarios Locales, ha expandido su cobertura de Monitoreo a las principales ciudades de la República Mexicana, otorgando así a la industria nuevas fuentes para la planeación estratégica. Stata/MP es el Software Estadístico para Profesionales con capacidad para procesamiento múltiple que proporciona el apoyo más extenso de cómputo para procesadores múltiples, duales (dual-core) y principales de cualquier proceso de análisis y manejo de datos, ya sea MP2 (2 procesadores), MP4 (4 procesadores), MP8 (8 procesadores) en general.
Empresas líderes en el mercado liberan al público patentes ecológicas Los principales integrantes de la comunidad empresarial se unieron por una causa común sin precedentes a favor del medio ambiente, liberando decenas de patentes innovadoras, con responsabilidad ecológica, al dominio público. Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
Emcore adquirirá los activos de telecomunicaciones de la división de plataformas ópticas de Intel EMCORE Corporation e Intel Corporation anunciaron un acuerdo definitivo para que EMCORE adquiera la porción relacionada con telecomunicaciones de la División de Plataformas Ópticas de Intel por 85 millones de dólares. Los activos de telecomunicaciones que adquirirá EMCORE incluyen propiedad intelectual, activos y tecnología relacionados con rayos láser ajustables, dispositivos de trasposición ajustables, dispositivos de trasposición de 300 pines y montajes láser ajustables e integrables. La transacción está sujeta a revisión de regulaciones y otras condiciones de cierre, y se espera se concrete en el primer trimestre del 2008. La adquisición mejorará la presencia de EMCORE en el segmento del mercado de las telecomunicaciones e incrementará su cartera de productos de fibra óptica, permitiéndole proporcionar a sus clientes de telecomunicaciones una oferta de productos más completa. “El negocio de los componentes ópticos de telecomunicaciones sigue siendo una oportunidad de mercado atractiva, pero creemos que este negocio y sus activos encajan a la perfección en EMCORE”, señaló Doug Davis, vicepresidente del Grupo de la Empresa Digital y gerente general del Grupo de Dispositivos Integrados y Comunicaciones de Intel. “Las dos compañías trabajarán juntas después de concretarse la transacción para completar una transición sin contratiempos en el negocio”. w w w.cociente.com.m x
Dominion Diagnostics establece un nuevo estándar del cuidado, en la medicina del dolor. Esta Compañía Médica introduce un novedoso acercamiento para examinar a pacientes y aconsejar a médicos North Kingstown, Rhode Island – enero 14, 2008 – Como parte de un cambio substancial en el tratamiento de la terápia del dolor, de ser historicamente generalizada a un acercamiento más personalizado, una compañía de Rhode Island, está tomando las riendas y establece un nuevo estándar del cuidado. Hoy, Dominion Diagnostics LLC, un laboratorio privado de pruebas clínicas, anunció el lanzamiento de Scientifically Accurate Medication Monitoring (SAMM TM) (Monitoreo de medicación cientificamente correcto, por sus siglas en inglés), que es un informe de medicación clínica unica que incrementa la práctica de la medicina para el dolor y las adicciones y permite que los médicos individualicen mejor el tratamiento para el cuidado de los pacientes.(SAMM) incluye una pantalla inteligente validada para los medicamentos del dolor y sus metabolizadores asociados junto con la interpretación y la ayuda experta del equipo de
Notas de Prensa ]
La disponibilidad de dichas patentes alentará a los investigadores, los empresarios y las empresas de todos los tamaños y de todos los sectores a crear, aplicar y continuar desarrollando sus productos, procesos y servicios industriales o de consumo con conciencia sobre la preservación, conservación, protección y respeto por el medio ambiente. Las patentes comprometidas para el Eco-Patent Commons presentan innovaciones que se enfocan en cuestiones e innovaciones ambientales en materia de procesos de fabricación o de negocios, donde la solución brinda un beneficio ecológico. Por ejemplo, una empresa puede comprometer una patente para un proceso de fabricación que reduce la generación de residuos peligrosos, o el consumo de energía o agua. Una patente comprometida que cubre una solución de compras o logística puede reducir el consumo de combustible.
Dominion Diagnostics, de farmacólogos clínicos y de Médicos. El desarrollo de SAMM es la culminación de muchos años de trabajo en Dominion, que involucran la adopción consistente de tecnologías innovadoras líderes para enfrentar y exceder las necesidades reales y de cada dia de sus clientes. A principios del 2006, Dominion fue el primer laboratorio en especializarse en una prueba clínica cuantitativa de droga en orina para la medicina del dolor y de las adicciones, al adicionar en conjunto cromatografía liquida y espectrometría de masas(LC/MS/MS) a su extenso menu de laboratorio, con la adquisición de Waters® ACQUITY UltraPerformance LC® (UPLC®)/TQD y sistemas de espectrometría de masas (MS) Quattro micro™. Mas información: www.waters.com www.dominiondiagnostics.com
Electronic Game Show 2007 Tres días al año, las grandes firmas desarrolladoras de consolas y del mundo se dan cita en la ciudad de México para mostrar los nuevos desarrollos que ponen en el mercado. Tal como se esperaba, Sony con Playstation 3, Microsoft con XBox 360 y Nintendo con su innovador Wii, mostraron los nuevos videojuegos para sus consolas que acaban de ser lanzados o que se posicionarán en los próximos meses. No podían faltar los transportables Nintendo DS y el PSP más delgado. Asimismo, las compañías desarrolladoras como EA Games, el mismo Microsoft, Ubisoft (entre otros) mostraron las nuevas tendencias en juegos de acción, combate, deportes, infantiles y de búsqueda en los que han puesto esfuerzo para ser del gusto del público. Tres de los grandes juegos estuvieron presentes: Halo 3, Splinter Cell 4 y Super Mario Galaxy, que fueron la gran atracción de cada una de las plataformas: X-Box 360, Playstation 3 y Wii respectivamente. El interés de la gente no se hizo esperar y desde el inicio del evento estos juegos atrajeron la atención a cada uno de los stands donde se presentaron. La asistencia sigue siendo nutrida año tras año y es maravilloso ver como cada día los desarrollos de consolas, videojuegos y accesorios crece con grandes innovaciones creativas. Ya no es cuestión de estar a la moda con los videojuegos, es ya un estilo de vida el cual tiene más adeptos todos los días y es por eso que se pone la tecnología al servicio de los programadores de hardware y de software para cumplir con creces las expectativas de los videojugadores. Reseña y fotografías: Aldo Cruz
31
N otas de Prensa ]
Zona Gadget Los Nuevos LCD de Samsung unen una gran tecnología y diseño Las Vegas, Nevada – 6 de enero, 2008– Samsung Electronics prepara el debut de su novedosa línea de LCD TV de Alta Definición. Las series 4 y 5 combinan un diseño elegante con una gran variedad de componentes de alta tecnología gracias a los cuales los consumidores podrán experimentar una calidad de imagen inimaginable en un LCD TV fácil usar. “Las nuevas tecnologías y diseños de los LCD TV´s que Samsung tiene nos permiten ofrecer Alta Definición con una gran variedad de funciones y excelente calidad de imagen”, dijo Jonas Tanenbaum, vicepresidente de Flat Panel Marketing de Samsung Electronics America. “Con las series 4 y 5 de LCD TV de Alta Definición cada consumidor podrá experimentar imágenes de gran calidad”. Todos los elementos que conforman el panel de LCD y su control remoto están diseñados específicamente para ofrecer una experiencia de entretenimiento increíble; Las series 4 y 5 de LCD TV de Alta Definición Samsung estarán disponibles a finales del mes de marzo en diferentes tamaños.
32
Apple presenta computadora portátil MacBook Air ultra delgada San Francisco, CA - 15 de enero 2008- Había ‘algo en el aire’, tal y como rezaban los carteles tapados en el Moscone Center. Con una pantalla de 13,3 pulgadas, pesa apenas 1,2 kilos (más o menos similar a otros ultraligeros), cuenta con un procesador Intel Core 2 Duo a 1.6 o 1.8 GHz, y un disco duro de 80 GB, o bien 64 GB de memoria SSD (flash). El procesador, por cierto, ha sido creado especialmente por Intel para este producto. En cuanto a su conectividad, cuenta sólo con un puerto USB, un DVI, Bluetooth 2.0 y WiFi n. En este portátil, Apple ha ‘matado’ a la unidad óptica, aunque ofrece una unidad externa por 99 dólares. Con este portátil ya no hace falta un disco óptico para nada, ni siquiera para copias de seguridad. Se puede incluso instalar software sin cables desde un ordenador sobremesa o un portátil con lector si se quiere. Apple asegura que la batería —interna— tiene autonomía para cinco horas con Wifi. ¿Su precio? mil 799 dólares, en EU. La carcasa es completamente reciclable y la pantalla no contiene mercurio o arsénico. Su ‘packaging’ ocupa un 56% menos de volumen.
Pinnacle ofrece todas las ventajas de High Definition TV en la PC con PCTV HD PRO STICK México D.F. a 14 enero, 2008 – Pinnacle Systems, Inc., la división de productos de consumo de Avid Technology, Inc. (NASDAQ: AVID), anunció el lanzamiento de Pinnacle PCTV Pro Stick, la primera sintonizadora ultra compacta USB 2.0, que ofrece una estupenda calidad de imagen de HDTV vía ATSC. Ese nuevo estándar de TV digital s transmitido por el aire tanto en alta como en definición estándar (la transmisión es gratuita, dependiendo de su proveedor o área). El producto también ofrece soporte para TV analógica (NTSC) vía cable( solo zonas que no tengan cable digital) o antena. Pinnacle PCTV HD Pro Stick incorpora el software Pinnacle TVCenter Pro, con el que el usuario puede convertir su laptop en una TV controlada por control remoto, con funciones de reproductor de video. Su apariencia, funcionalidades y portabilidad transforman el producto en un artículo de uso frecuente, que de verdad puede llevarse en el bolsillo donde se requiera. Como novedad, este producto incluye entradas A/V analógicas para captura desde videocámaras, reproductores de video, etc.
Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
Llene esta forma con tinta negra y envíela vía FAX al (01 55) 55.59.80.83, con su comprobante de depósito para recibir 6 números de Cociente. Fecha:_______________________________________ Nombre Completo:______________________________________ E-mail:_______________________________________
c
SÍ deseo recibir la revista
c
NO deseo recibir la revista
Empresa a la que pertenece:_______________________ Departamento:________________________________________ Dirección a donde desea recibir Cociente Calle y Número: ________________________________ Colonia:_____________________________________________ Ciudad: ______________________________________ País:___________________ Código Postal: ________________ Teléfono con clave lada:__________________________ Fax con clave lada:__________________________
Suscripción Anual: 6 Números de cociente por $100 todo el 2008 A ¿Qué información de software y
hardware le interesa conocer?
6
c
Química y Petróleo.
1
c
Adquisición de Datos.
7
c
Biotecnología, Farmacéutica y Médica.
2
c
Ingeniería de Diseño.
8
c
Servicios Financieros.
(suscripción anual) por $100 pesos.
3
c
Ingeniería de Procesos.
9
c
Otro Sector Industrial.
4
Ingeniería Financiera y Econometría.
Deposita en Banco Santander S.A., Su-
c
5
c
Ingeniería Industrial.
cursal: 0009, Insurgentes Parroquia,
6
c
Ingeniería de Pruebas y Verificación.
D Por favor indique su puesto
Beneficiario: Cómputo Científico
7
c
Telecomunicaciones.
de trabajo: (marque solo uno)
8
c
Academia e Investigación.
1
c
Científico / Investigador.
9
c
Transportación y Logística.
2
c
Lider de Proyecto.
Cuenta Moneda Nacional: 92000612904,
10 c Estadística y Optimización.
3
c
Director Técnico Sistemas.
o por transferencia electrónica con la Clave
11 c Ing. Mecánica, Eléctrica y Electrónica.
4
c
Director Técnico / Gerente.
12 c Química, Física, Geología, etc.
5
c
Ingeniero de Aplicación.
6
c
Ingeniero de Proyecto.
Envía por Fax esta forma y tu comprobante
B Area de aplicación.
7
c
Ingeniero de Pruebas.
de depósito con Nombre y Fecha.
1
c
Calidad.
8
c
Ingeniero de Diseño.
2
c
Cálculo Técnico.
9
c
Otro Puesto de Trabajo.
3
c
Comunicación.
10 c Estudiante.
4
c
Diseño de Control.
5
c
Diseño de Prototipos.
6
c
Diseño de Circuit. Electrónicos y PCBs
E Tipo de org. en la que está
7
c
Procesamiento de Señales.
empleado.
8
c
Procesamiento de Imágenes.
1
c
Farmacéutico / Biotecnología.
9
c
Pruebas y Mediciones.
2
c
Producto Químico / Petróleo.
10 c Bioinformática.
3
c
Eléctrico / Electrónico / Semiconduct.
11 c Modelado y Análisis Financiero.
4
c
Alimentos / Bebidas.
12 c Modelado y Simulación de Procesos.
5
c
Otra Fabricación.
13 c Modelado y Simulación de Productos.
6
c
Laboratorio Independiente.
¿Cuál? _________________
¿Cuál? _________________
7
c
Centro de Investigación / Privado.
C Tipo de Industria.
8
c
Centro de Investigación /Gob.
1
c
Electrónica.
9
c
Universidad.
2
c
Informática y Equipos de Oficina
10 c Ambiental
3
c
Academia e investigación.
11 c Consultoría Técnica
4
c
Comunicaciones.
9
5w w w.cociente.com.m c Automitriz. x
c
Otra Organización. ¿Cuál? _________________
Recibe 6 números de cociente
y Técnico S.A. de C.V.,
interbancaria: 014180920006129049.
Si realizaste tu suscripción a través de nuestro portal de internet, envía una imagen escaneada de tu comprobante de depósito a suscripcion@cociente.com.mx indicando tu nombre completo y la fecha en que realizaste tu suscripción.
Para obtener más información sobre nuestra publicación, envíe un e-mail a: cociente@cociente,com.mx
33
Intel celebra el 60 aniversario del transistor
Próximos Eventos Febrero/marzo/abril 2008
Grove, Noyce y Moore, último quien predijo en su ley de 1965 acerca de la industria de los semiconductores que se ha vuelto toda una leyenda. Exec Images de 19681978.
Intel Corporation celebraró el 16 de diciembre de 2007 el 60 aniversario del transistor, el bloque de construcción del mundo digital actual. Inventado por Bell Labs y considerado uno de los inventos más importantes del siglo XX, el transistor se encuentra en muchos dispositivos electrónicos de consumo y es el componente fundamental que se utiliza para el desarrollo de chips de computadoras, es decir, el “cerebro” de la computadora personal (PC).
Presidente y jefe ejecutivo de Intel Paul Otellini, celebrando el 60 aniversario del transistor, pieza clave de los micro procesadores.
Intel, el fabricante de chips de computadora más grande del mundo, ha presentado recientemente su familia de procesadores quad-core de siguiente generación de 45 nanometros (nm). Considerado como el mayor adelanto en transistores en 40 años por Gordon Moore, cofundador de Intel, estos procesadores son los primeros en utilizar la fórmula de la compuerta metálica high-k (Hi-k) a base de hafnio de Intel para los cientos de millones de transistores contenidos en estos procesadores. Esta innovación, presentada el 12 de noviembre pasado y que continuará en los próximos meses, permite que servidores, PCs de uso cotidiano y laptops se hagan más pequeños, veloces, estilizados y eficientes en el consumo de energía, al tiempo de eliminar también el plomo que es tan dañino para el ambiente; adicionalmente, en el 2008 se eliminarán también los materiales producidos con halógeno. 34
Expo COMM México 2008 México, D.F. 26-29 de Febrero LinuxWorld México Conference & Expo 2008 México, D.F. 26-29 de Febrero SELECT Tendenncias 2008 México, D.F. 26 de Febrero XX Congreso ADIAT de la Administración del Conocimiento a la Innovación Acapulco, México 5-7 de Marzo ExpoManufactura Monterrey, N.L. 4-6 de Marzo CONIEEM 2008 (Congreso Nacional de Ingenieria Electrica y Electronica) Mérida, Yucatán. 21-25 de Abril
Índice de Anunciantes National Instruments........... 02 Expo Manufactura............... 08 EViews............................... 12 The MathWorks................... 13 Expo COMM 2008................ 24 Multisim............................ 29 Stata.................................. 32 MultiON Consulting............. 35 Statistica............................ 36 Cómputo C ientí f ico y Técnico
[ enero -f ebrero - 0 8 ]
w w w.cociente.com.m x
35
Para mayor información dirigirse con Dolores González a: dgonzales@multion.com.mx +52 (55) 55 59 40 50, ext: 125. Lada sin costo: 01 800 MULTION (68 58 466), solo en México www.multion.com.mx