Giga no 1, 2008

Page 1



GiGA

No. 1 / 2008

Editor Jefe: Lic. Vilma Simoneau vilma@cmatriz.copextel.com.cu Diseño: D.I. Humberto Becerra humberto@cmatriz.copextel.com.cu D.I. Vianys Zamora vianys@cmatriz.copextel.com.cu Redacción y corrección: Lic. Norma Márquez norma16@cmatriz.copextel.com.cu Director de Marketing y Comunicación: María del Pilar Herrera mpilar@cmatriz.copextel.com.cu Economía y Finanzas: Elisa García elisa@cmatriz.copextel.com.cu Pre-Prensa Digital: Mandarina Diseño S.A. San José, Costa Rica. Impreso por: Impresión Comercial, Grupo Nación GN S.A. San José, Costa Rica. ¿Cómo contactar con GiGA? Edificio Miramar Trade Center, Ave. 3ra. y 78, 3er. piso, oficina 308, Miramar, Playa, Ciudad de La Habana, Cuba. Telefax: 204 7819 WEBsite: http://www.copextel.com Editada por: Dirección de Marketing y Comunicación, COPEXTEL Frecuencia trimestral

C

on el vigor que siempre caracteriza al colectivo de GiGA arribamos con esta primera edición a los doce años de salida continua, es por eso que antes de pasar a comentar el tema principal hemos querido hacer mención de este nuevo aniversario que como su número indica, nos hace sentir como un adolescente en pleno desarrollo y ebullición. Se denomina espionaje a la práctica y al conjunto de técnicas asociadas a la obtención de información confidencial. Las técnicas comunes del espionaje han sido históricamente la infiltración, el soborno y el chantaje. Con el desarrollo de las nuevas tecnologías, han aparecido técnicas que permiten obtener información objetiva como fotografías, conversaciones, etc. sin intervención humana. Así, existe hoy día una floreciente industria destinada a facilitar sofisticados medios tecnológicos, desde satélites espía hasta microcámaras, tanto para el espionaje como para la protección de la información. En el caso que hoy nos ocupa bajo el título de El cielo amenaza podrán conocer al detalle sobre la mayor red de espionaje y análisis para interceptar comunicaciones electrónicas, ¿su nombre? ECHELON. Esta red puede capturar comunicaciones por radio y satélite, llamadas de teléfono, faxes y correo electrónico en casi todo el mundo e incluye análisis automático y clasificación de las interceptaciones. Se estima que intercepta más de tres mil millones de comunicaciones cada día. La cuestión esencial radica en el funcionamiento de este sistema. Una vez definidos los objetivos del espionaje, resulta evidente el carácter titánico de la tarea encomendada a ECHELON: vigilar todas las comunicaciones que se realizan en

el mundo. A primera vista, tal tarea parecería imposible y hasta absurda. Pero lo interesante del caso resulta que las tecnologías utilizadas ofrecen la posibilidad de alcanzar lo esencial de tan descomunal faena. Aprovechamos esta ocasión para referirnos a un comentario que ejemplifica la voluntad de dominio latente en el pensamiento del imperio norteamericano, quienes manejan los hilos de ECHELON: "Para que la globalización funcione, EE.UU. debe actuar sin miedo como la todopoderosa superpotencia que es. La mano oculta del mercado nunca funciona sin la ayuda de un puño oculto. McDonnald´s no podría florecer sin McDonnel Douglas, el proyectista de los aviones de combate F-15; y el puño oculto que garantiza la seguridad de un mundo en el que puede prosperar la tecnología del Silicon Valley se llama Ejército, Fuerza Aérea, Armada y Cuerpo de Marines de los EE.UU.". Thomas Friedman. The New York Times. 20 de marzo de 1999. Hasta aquí un breve comentario sobre tan interesante contenido porque le aseguramos un minucioso trabajo que desde ya su autor le pronostica una segunda vuelta llena de datos e informaciones curiosas. Para cerrar, a tono con nuestro cumpleaños, un compromiso gigantesco con los lectores de seguir adelante con ediciones cargadas de actualidad tecnológica tanto nacionales como internacionales y el reto de poder llegar a todo el territorio por diferentes vías y para ampliar nuestra presencia ya comenzamos en este mes de marzo con el anuncio de nuestro sitio web. ¡Visítenos y esperamos sus opiniones!

El Editor

[GiGA 1 / 2008]

1


contenido

Rápido y Furioso: USB 3.0 La era de la alta definición llegó, está, y con ella la tecnología se renueva porque requiere mayores velocidades de transferencia de datos y los fabricantes elaboran nuevos estándares que cumplan el principio. Así, la tecnología USB también da un salto y se suma a esta revolución al lanzar el protocolo USB 3.0 (Dubbed SuperSpeed USB). Sí, es la tercera generación de un estándar que marca un antes y un después en la electrónica.

[6]

La informática forense En el presente trabajo se analiza el concepto de delitos informáticos, el estado del arte de la informática forense, habla de sus definiciones, objetivos y usos. También explica brevemente el concepto de evidencia digital y se muestran algunos de los tipos de programas y herramientas usadas por los especialistas forenses.

[ 20 ]

Códigos malignos, resumen 2007 El 2007 se destacó por la detección de redes robots (botnets) que lo forman PCs controladas remotamente por atacantes, un lucrativo mercado negro. Fue pródigo, además, por la instalación de códigos malignos desde páginas web hospederas, bien por enlaces directos a sitios de descarga de archivos o por la explotación de vulnerabilidad en los navegadores de Internet. Es obvio que por la red de redes, hay que saber andar.

[ 24 ]

¿Defectos del lenguaje o problemas de interfaz? Saber como se declaran las variables y los diferentes tipos de datos que usamos en nuestras aplicaciones, no es lo mismo que comprender en qué casos utilizar una u otra variante de declaración, bajo este título se exponen algunos de los problemas que se presentan y te sorprenderá el hecho de que en algunas ocasiones un número no es igual al mismo número cuando comparamos. ¿Que no lo creen?

[ 31 ] La composición de una imagen Un nuevo camino se recorre dentro del campo de las imágenes, y hoy es el conocimiento de la fotografía mediante normas que desde su nacimiento han creado pautas relativas a profundidad o perspectiva, detalle, puntos de vista, tamaño y escala, textura, forma y situación, que componen el todo en la foto y aunque no todos han de estar presentes en cada fotografía, de una forma conjunta sí deben estar.

[ 47 ]

2

[GiGA 1 / 2008]


El cielo amenaza Se trata de un recuento sobre ECHELON, la mayor red de espionaje que intercepta las comunicaciones electrónicas, controlada por el Reino Unido y Estados Unidos, y que conforman varias instituciones de otros países. ECHELON podría definirse como un conglomerado político-económico al servicio de determinado trust. En relación con el espionaje, posee un rasgo distintivo muy importante: su carácter internacional le permite "saltarse" las prohibiciones acerca del espionaje contra sus conciudadanos. Hoy, cuando el cielo amenaza, trae un recorrido interesante por el tiempo y por su ubicación. Su magnitud, dada por el desarrollo tecnológico, la vincula con nuestras páginas.

sumario

[9] 4 6 9 15 16 20 24 28 31 34 39 41 43 45 47 53 54 58 60 64 66 67 68

doce años ¿Quiénes somos? Hardweriando Rápido y Furioso: USB 3.0 El cielo amenaza notihardWare Softweriando CorelDRAW Graphics Suite X4 La Informática Forense Códigos malignos, resumen 2007 ¿Informática segura o mercado seguro? ¿Defectos del lenguaje o problemas de interfaz? Enredados Un detalle de optimización Multicast IP CMS o sistema de gestión de contenidos Joystick Brain Training: ejercicios para el cerebro Joystin - Noticias Multimedia Historia de Cuba en multimedia Mis imágenes La Composición de una imagen perroWEBero GiGA online Ctrl+H El Mouse, ya tiene 43 años GiGAntes Douglas Engelbart Doble click Elemental W… Cartas y A punta de cursor Screen saver cruciGiGA

CMS o sistema de gestión de contenidos

[ 39 ]

El CMS crea y administra contenidos especialmente en páginas web y consiste en una interfaz que controla una o varias bases de datos donde se aloja el contenido del sitio. La División SIS, de Copextel, amplía el tema.

El mouse ya tiene 43 años

[ 54 ]

Con toda su mayoría de edad, el mouse, uno de los periféricos más comunes, es un invento que sigue vivito y coleando. Fue pensado para indicar la posición x-y en la pantalla y se convirtió en una de las interfaces claves de la historia de la informática.

[GiGA 1 / 2008]

3


doce

años

Lic. Norma Márquez González norma16@cmatriz.copextel.com.cu Dirección de Marketing y Comunicación GiGA, Copextel

C

uando estábamos imbuidos en medio del quehacer del primer número de este año, nos dimos cuenta, gracias a la amabilidad y el seguir de algunos amigos lectores, que en marzo 18 cumple GiGA 12 años de haber circulado por primera vez, y decidimos dedicar las primeras páginas de esta edición a hacer un poco de historia, de esa que muchos amigos preguntan y otros, con el propósito de crear una publicación parecida, quieren saber para también ellos dar sus primeros pasos con la seguridad de otra experiencia. Y he aquí un resumen, que si bien debe contener todo lo vivido (léase tarea imposible, como siempre), trataremos de complacerles.

Primeros pasos En 1995 vieron la luz cinco boletines impresos compuesto por seis hojas dobles salidas de una de las primeras impresoras con que contó Asistel o la Corporación en aquella época. Pero en este primer año se personaliza como "Boletín Informativo de Copextel, S.A.". Si es posible, traten de imaginar un folleto de doce páginas que alcanzó una tirada de algunos cientos. Desde ese momento de su nacimiento ya se dividía por temas y éstos constituyeron las

4

[GiGA 1 / 2008]

hoy conocidas secciones: Hardweriando, Softweriando y Enredados. La cuna de este boletín fue la entonces naciente División de Colombus y se identificó con la paloma de la comunicación, como patente de su lugar de origen. Al frente de esta hermosa idea, Jorge Bolaños, su principal progenitor y guía. Así, en 1996 ve la luz con un formato más elegante, algo parecido al actual. Este lanzamiento ocurre en la Feria de Informática de ese año, donde GiGA hizo su aparición como complemento de la presencia de Copextel en dichas citas. Con la segunda salida, es decir, muy pronto después de su debut y por la gran acogida por lectores de Copextel, se reciben las primeras cartas, se crea la Sección que lleva este nombre y la de Perro Webero.

Ayer Con ese surgimiento en 1996 llegan las colaboraciones iniciales con un enfoque más serio y un lenguaje ameno para tratar temas tan técnicos como los de la computación. A aquellos primeros amigos debemos ese decir que caracteriza nuestra revista, pues tratamos desde entonces de

mantener un lenguaje ameno para hablar de temas tan técnicos como los relacionados con la tecnología de la computación y de las comunicaciones. Es un período de cambios importantes: se realizó en una verdadera imprenta, recorrió la isla gracias a las representaciones de Copextel por territorios, se dan los primeros pasos para su registro de circulación y continúan las cartas, complemento que animó para hacerla cada día mejor. Es decir, si en 1996 estaba constituida por apenas unos cuantos bits dispersos, en la tercera salida de1997, llegaban a miles de millones que van ilustrados en su cabezal, con el permiso que fuera entregado por el Registro Nacional de Publicaciones Seriadas. Entonces hubo cuatro ediciones con una portada en colores y el contenido en blanco y negro compuesto por 30 páginas. Llega 1998 y destaca por ser un período muy marcado por su presencia en la Feria y Convención de Informática y una alta demanda por parte de los estudiantes de facultades universitarias de gran importancia para el desa-


doce rrollo de la computación. También como arco iris llegan los colores a todas sus páginas, surge la Sección de la Entrevista, se contratan los primeros fotógrafos y se hicieron cuatro tiradas con 64 páginas. En 1999 se incrementa notablemente el número de colaboradores, muchos de ellos, especialistas de reconocidas entidades destacadas en el campo de la computación como la Universidad de La Habana, la Central de Las Villas, la CUJAE, el Grupo CEJIsoft, Segurmática, y otras empresas como CEDISAP, CEISIC, CENTERSOFT, CITMATEL y entre otras de Copextel, Ecosol Electric y SIS. Todas, comienzan a emplear las páginas de GiGA como soporte para informar a cubanos y extranjeros lo que acontecía en el aún joven ámbito de la informática. La salida se elevó a seis números por año que siguen hasta el 2002. El dos mil se caracterizó por la aparición de nuevas secciones: Elemental W...y Joystick, y como publicación diferente circula en la séptima edición de la Feria y Convención Internacional Informática 2000 cuando adoptó el formato de tabloide con lo último del encuentro, para con tres salidas adicionales, llenar el espacio sede de este encuentro. Y ya en el siglo XXI: en el 2001, con la creación de las secciones Las dudas de mis alumnos y A punta de Cursor, continuó su curso con el acercamiento especial de centros que han estado entre sus lectores por excelencia: ICRT, el CIREN, los Joven Club de Computación, municipios de Cultura y Educación, la UJC, el Comité Central, el INDER, MINFAR y el MININT. Con el período del 2002 se realiza un nuevo lanzamiento especial en Informática y se cuenta con otra buena acogida. Se crea la Sección Automática y se destaca el acercamiento con los amigos de la Peña del Byte. Similar ocurre en el año 2003, mientras el contenido de los artículos se reorienta a la labor de Copextel con trabajos redactados por los especialistas de la propia Corporación, además de mantener el objetivo esencial: los temas referidos con la informática. Se reduce la tirada, y la frecuencia pasa a ser trimestral. Con cambios importantes en la pauta de diseño llega el año 2004. Se crean las secciones de GiGAntes y el cruciGiGA, se retoma la columna de Perro Webero, ahora con una página,

años

mientras que en la última salida aparecen las de Marketing Online y Ctrl+H. Administrativamente, se integra a la Dirección de Marketing y Comunicación, donde nace la idea de convocar a un concurso infantil sobre desarrollo tecnológico, con el fin de adentrar a los más pequeños en el conocimiento de la informática y se realiza otro lanzamiento especial para encontrarnos con amigos y estimular su colaboración. El 2005 se presenta con la creación de la Sección Desktop y se otorga especial atención a la publicación de trabajos que incluyan contenidos relacionados con las aplicaciones informáticas de código, así como también se da especial cobertura a la Cumbre Mundial de la Sociedad de la Información. Con un reconocimiento del Registro Nacional de Publicaciones Seriadas, en la Feria Internacional del Libro, por cumplir 10 años de existencia y mantener una meritoria contribución a la difusión de informaciones y conocimientos actualizados sobre computación, la informática y otros temas afines, llega el 2006, entonces cumplíamos una década y se efectúa un lanzamiento especial en el que participaron directivos del Ministerio de la Informática y las Comunicaciones, de Copextel, profesores de varias facultades universitarias, fundadores, colaboradores y amigos en general.

Hoy Ahora, ya aquel boletín que recorrió una decena de años es toda una revista de calidad reconocida por los trabajadores que nos relacionamos con el cambiante mundo de los códigos binarios o de los unos y los ceros. El camino recorrido demuestra que el colectivo y todos los que de una u otra forma han trabajado para esta revista, sintamos un regocijo o más, un pequeño orgullo cuando miles de estudiantes se acercan en busca de la documentación y consulta para sus trabajos universitarios, o técnicos de nivel medio y maestros empleen sus artículos como material de consulta y nos citen dentro de la bibliografía empleada. Y durante esta travesía, el colectivo que la integra no sobrepasa una plantilla de cuatro trabajadores en todos y cada uno de sus momentos, contando las labores de dirección, edición, redacción, corrección y diseño, atentos todos siempre a la calidad y veracidad de lo que se publica.

Igualmente hemos contado con la cooperación de un grupo de asesores y colaboradores, que atento, corrige y asegura la calidad de las letras, que juntas y en forma de palabras llegan a los lectores. Y por supuesto, el respaldo del económico en el pago a tiempo de las operaciones financieras. Es bueno destacar que el nacimiento y madurez de esta publicación ha estado marcado por todas y cada una de las Ferias y Convenciones de Informática, donde personalidades de otros países han recibido la revista, y más adelante, aparecen en sus páginas, tal es el caso de los señores Richard Stallman y Eugene Kaspersky.

Mañana Y para cerrar esta breve historia, lo hacemos en alto cuando nos referimos al futuro o perspectiva de esta novel, pero experimentada publicación: así como poco a poco fuimos llegando a diferentes entidades y ministerios, trataremos de satisfacer a todos los que hoy solicitan una nueva suscripción, continuar siendo importante para los amigos de los Joven Club de Computación, para hablar de la labor de Copextel, así como de las entidades que integran nuestro Ministerio, y también entre otros objetivos, ampliar la colaboración con los estudiantes de diferentes sedes estudiantiles, pero... para no dejar de ser lo que éramos en un principio: seguiremos brindándonos como tribuna para todo aquel que quiera exponer su experiencia en el trabajo con las computadoras. Para todos hay un lugar, y en cada lugar esperamos estar. La historia, nunca termina, pues el quehacer diario es el hilo que la teje, y este mundo, el de la computación y la informática, tiene un amplio futuro que no se ciñe a una publicación de 68 páginas, ya que cada día son mayores los aportes y también las necesidades de consultas específicas relacionadas con el avance mundial. Para todos trabajamos. Gigabyte, el significado exacto varía según el contexto en el que se aplique. En un sentido estricto, un gigabyte tiene mil millones de bytes. No obstante, y referido a computadoras, los bytes se indican con frecuencia en múltiplos de potencias de dos. Por lo tanto, un gigabyte puede ser bien 1.000 megabytes o 1.024 megabytes, siendo un megabyte 220 o 1.048.576 bytes.

[GiGA 1 / 2008]

5


hardweriando D.I. Humberto Becerra López humberto@cmatriz.copextel.com.cu Dirección de Marketing y Comunicación GiGA, Copextel

L

a era de la High Definition ha llegado para quedarse y con ella, toda la tecnología se renueva. La alta definición requiere mayores velocidades de transferencia de datos y los fabricantes deciden elaborar nuevos estándares que cumplan este principio. De esa manera, la tecnología USB también da un salto y se suma a esta revolución con el lanzamiento del protocolo USB 3.0 (Dubbed SuperSpeed USB). Se trata de la tercera generación de un estándar que ha marcado un antes y un después en la electrónica, los gadgets y todos los dispositivos que hoy forman parte de nuestras vidas. El Universal Serial Bus (bus universal en serie) fue creado en 1996 por siete empresas: IBM, Intel, Northern Telecom, Compaq, Microsoft, Digital Equipment Corporation y NEC.

6

[GiGA 1 / 2008]

El estándar incluye la transm i s i ó n de energía eléctrica al dispositivo conectado. Algunos requieren de una potencia mínima, así que se pueden conectar varios sin necesitar fuentes de alimentación extra. La mayoría de los concentradores incluyen fuentes de alimentación que brindan energía a los dispositivos conectados a ellos, pero otros consumen tanta energía que necesitan su propia fuente de alimentación. Los concentradores con fuente de alimentación pueden proporcionar corriente eléctrica a otros dispositivos sin restar corriente al resto de la conexión (dentro de ciertos límites). Con el diseño del USB se pretendía eliminar la necesidad de adquirir tarjetas separadas para poner en los puertos bus ISA o PCI, y mejorar las

capacidades plug-andplay permitiendo a esos dispositivos ser conectados o desconectados al sistema sin necesidad de reiniciar la PC. Cuando se conecta un nuevo dispositivo, el servidor lo enumera y agrega el software necesario para que pueda funcionar. El USB puede conectar periféricos tales como el ratón, teclado, escáner, cámaras digitales, teléfonos celulares, reproductores multimedia, impresora, discos duros externos, tarjetas de sonido, sistemas de adquisición de datos y componentes de red. Para dispositivos multimedia como escáneres y cámaras digitales, el USB se ha convertido en el método estándar de conexión. Para impresoras, el USB ha crecido tanto en popularidad que ha empezado a desplazar a los puertos paralelos porque el USB hace sencillo el poder agregar más de una impresora a un ordenador personal.


hardweriando En el caso de los discos duros, el USB tal y como se conoce, es poco probable que reemplace completamente a los bu-ses ATA (IDE) y SCSI, porque tiene un rendimiento más lento que esos otros estándares. El nuevo estándar Serial ATA permite tasas de transferencia de hasta aproximadamente 150/300 Mb por segundo. Sin embargo, el USB tiene una importante ventaja en su habilidad de poder instalar y desinstalar dispositivos sin necesidad de abrir el sistema, lo cual es útil para dispositivos de almacenamiento externo. Hoy, gran parte de los fabricantes ofrece dispositivos USB portátiles con un rendimiento casi indistinguible en comparación con los ATA (IDE). Las señales del USB son transmitidas en un cable de data par trenzado con impedancia de 90 Ω ±15% llamados D+ y D-. Éstos, colectivamente utilizan señalización diferencial en half duplex para combatir los efectos del ruido electromagnético en enlaces largos. D+ y D- usualmente operan en conjunto y no son conexiones simplex. Los niveles de transmisión de la señal varían de 0 a 0.3 V para bajos (ceros) y de 2.8 a 3.6V para altos (unos) en las versiones 1.0 y 1.1, y en ±400 mV en Alta Velocidad (2.0). En las primeras versiones, los alambres de los cables no están conectados a masa, pero en el modo de alta velocidad se tiene una terminación de 45 Ω a tierra o un diferencial de 90 Ω para acoplar la impedancia del cable.

nació supuso una revolución por ser un dispositivo de conexión en caliente (conectar y listo, sin necesidad de reiniciar) y proporcionar la posibilidad de conectar hasta un número máximo de 127 dispositivos. Además, que para ese entonces, no era poco, USB 1.0/1.1 disponía de dos velocidades diferentes para transferir los datos. La primera de ellas diseñada para periféricos "directos" (teclados, ratones, trackballs...) a una velocidad de 1.5 Mbps, y la segunda diseñada para otros como webcams, cámaras digitales, etc., a la velocidad de 12 Mbps. USB 2.0: Una notable mejora sobre la interfaz de USB 1.1 con respecto a la velocidad de transferencia de datos, pues la aumenta unas cuatro veces, hasta llegar a la cifra de 480 Mbps. Esta interfaz nació expresamente para la transferencia de datos en grandes cantidades (discos duros, pendrives...) de forma más rápida y cómoda. Wireless USB (WUSB): Existe el difundido error de confundir esta extensión del protocolo USB con el próximo USB 3.0. Wireless USB es una extensión del USB que combina el actual USB 2.0 con las capacidades de una transferencia inalámbrica. Sus características son de una velocidad de 480 Mbps a menos de 3 metros de distancia, y 100 Mbps a menos de 10 metros. Este sistema hace bastante cómodo al estándar 2.0 por el hecho de la tecnología inalámbrica (ejemplo: pasar las fotos de una

cámara digital a la PC sin tener que realizar conexión de cables), pero también habrá que tener en cuenta las repercusiones de seguridad. No podemos confundir el Certified Wireless USB con el WirelessUSB de Cypress Semiconductor. Mientras el primero es el estándar que busca ser aprobado, el segundo es un protocolo diseñado para periféricos "directos" que funciona a una velocidad de 1 Mbps a 10 metros de distancia y 62,5 kbps a 50 metros. USB On-The-Go: Se trata de una mejora de la interfaz USB que permite elegir el estado de cada puerto USB (actúa como dispositivo de datos o como servidor de datos). Es posible transferir todos los datos desde un puerto USB actuando como servidor hasta otro, que se porta como dispositivo sin necesidad de usar un ordenador. Además, posibilita cambiar en cualquier momento el perfil de servidor a dispositivo o viceversa. Varias empresas, entre las que se incluye Intel, Microsoft, HewlettPackard, Texas Instruments, NEC y NXP Semiconductors planean que durante la primera mitad del 2008 la tecnología Universal Serial Bus 3.0 esté operativa. De todos modos habrá que esperar al 2009 ó 2010 para encontrar equipos que incorporen esta tecnología. Según Intel, USB 3.0 hará que la transferencia de datos sea hasta 10 veces más rápida que la actual,

Tipos de USB y sus características Existe una gran variedad de extensiones e interfaces relativas al USB por lo que en ocasiones tiende a la confusión, es por eso que una explicación de cada uno de ellos sería de mucha ayuda. USB 1.0/1.1: Cuando la interfaz USB

Diagrama del USB 3 [GiGA 1 / 2008]

7


hardweriando

gracias al uso de fibra óptica además de cables de cobre. USB 2.0 permite una tasa de transferencia de hasta 480 megabits por segundo, mientras que la nueva versión alcanzaría 4,8 gigabits por segundo. USB 3.0 será compatible con las versiones anteriores de USB y promete un menor consumo de energía.

USB 3.0. a la vuelta de la esquina Entre las novedades que actualmente lanza Intel se destaca la noticia de que la conexión USB 3.0. está más cerca de lo que se pensaba. Patrick P. Gelsinger así lo ha anunciado en San Francisco, y citó como fecha de su lanzamiento este año. Luego matizó la información con el hecho de que desde que se lanza la tecnología hasta que se ve en la calle, es normal que pase entre uno y dos años, lo que sitúa a los productos con esta nueva especificación para el año 2009 ó 2010. Jeff Ravencraft, un estratega de tecnología de Intel, cita el creciente interés por la música digital

Conectores del USB 2 y USB 3

8

[GiGA 1 / 2008]

y el vídeo en alta definición como la razón principal para actualizar la norma USB. La principal novedad técnica de los puertos USB 3.0 será la inclusión de fibra óptica, que elevará a 4.8 gigabits/s la capacidad de transferencia que ahora está en 480 Mb/s. El cable de cobre seguirá ahí para asegurar la compatibilidad con la tecnología USB 1 y 2.0. Las otras ventajas del USB 3.0 es que se llevará mejor con la energía y será más eficiente en ese aspecto. Con las velocidades que puede alcanzar el USB 3.0, el próximo paso sería preguntarse ¿y en qué lo usaremos? Muchos dispositivos no necesitan ésta cantidad de transferencia tan elevada, pero otros podrían llegar a utilizar incluso más, como podrían ser discos duros, tarjetas flash y dispositivos ópticos como DVD's, Blu-ray y HD DVD. Actualmente cuando necesitamos mayor velocidad se utiliza el puerto IEEE 1394 FireWire que llega a transferir

a una velocidad tope de 800 Mb/s. En el CES se vio por primera vez una imagen de cómo será el conector de esta evolución del USB. Como muestra la imagen, el conector es muy similar a los actuales USB 2.0. Si se observa bien, se puede ver que en la parte de atrás posee un par de pins adicionales (se añaden los 5 nuevos contactos para proporcionar dicho aumento de velocidad y se mantienen los 4 anteriores para ofrecer compatibilidad con la especificación del USB 2.0) y es un poco más alargado que el 2.0. El resto de la ficha es igual que el anterior USB.

Conclusiones El USB 3.0 podría ubicarse por encima del eSATA, que resulta ser la única competencia fuerte en la interconexión de periféricos. Lo que sí parece ser seguro, es que una vez que eSATA y USB 3.0 se asienten en el mercado, será el fin definitivo para FireWire (IEEE 1394). Y ya que se habla de interconexiones y de la velocidad de transferencia de información, sería bueno replantearse redes LAN por USB. Además, ¿qué dispositivos de almacenamiento están preparados para soportar esa tasa de transferencia?, los únicos son las memorias flash. ¿Será que con esto terminarán de consolidarse como dispositivos de almacenamiento por defecto, o es que esta nueva versión de USB empujará a los discos duros tradicionales a dar un nuevo paso en su evolución? Aunque la idea de que un USB de 5 Gbps suene a ensueño, da pie a pensar en un posible nuevo problema con el rendimiento del ordenador, a menos que se evalúe una mejora en el desarrollo de la nueva tecnología. Esperemos que sí.


hardweriando MSc.Carlos del Porto Blanco carlos@infosoc.cu Oficina para la Informatización

Los Estados Unidos no tienen amigos, sólo intereses. John Foster Dulles

M

uchas veces nos sentamos a ver una película conociendo de antemano que el guionista nos pasará gato por liebre; el protagonista tendrá más vidas que el minino del patio y después de enfrentarse a 20 soldados elite y a cuatro leones con hambre de una semana, se limpia el polvo del hombro derecho, arregla el peinado y sale a pasear con su linda chica. Sí, ya sé que me dirán que para eso son las películas: para desconectar, y coincido con Usted, sólo que a veces la vida, terca que es, supera con creces a la ficción del guionista más fantasioso. Éste es el caso de la película El Ultimátum de Bourne (2007). La oficina de la CIA en el Reino Unido intercepta una palabra de las consideradas como "alerta" en una conversación por medio de un teléfono móvil de un periodista británico, gracias a la red ECHELON. A ese "invento anglosajón" dedicaré la entrega de hoy.

Rueda, vídeo ECHELON es la mayor red de espionaje y análisis para interceptar comunicaciones electrónicas de la historia,

controlada por la comunidad UKUSA (United Kingdom -United States of America), que es el nombre de un pacto altamente secreto firmado por estos dos países al finalizar la Segunda Guerra Mundial. Esa red está conformado por las siguientes instituciones: por EE.UU.; National Security Agency (NSA); por Canadá, Communications Security Establishment (CSE); por el Reino Unido, General Communications Head Quarters (GCHQ); por Australia, Australian Defense Security Directorate, y por Nueva Zelanda, General Communications Security Bureau. En realidad, el término ECHELON sólo designa a la sección de espionaje de señales (Sigint, Signals Intelligence) dedicada a interceptar las comunicaciones vía satélite. Sin embargo, gran parte de la información que se publica, identifica a la parte con el todo y se denomina ECHELON a toda la red de espionaje que realmente se nombra Sistema de Espionaje de Señales de los Estados Unidos, USSS. UKUSA ha reunido información de

inteligencia desde 1948, pero no fue hasta el lanzamiento de los primeros satélites dedicados a las comunicaciones civiles en los años 70 cuando nace ECHELON. Los países que integran el sistema poseen estaciones de intercepción electrónica y 120 satélites para rastrear gran parte de las comunicaciones establecidas por radio, satélites, microondas, teléfonos móviles, cables submarinos y fibra óptica. Las señales capturadas son procesadas por supercomputadoras que trabajan con aplicaciones denominadas diccionarios, que permiten buscar patrones específicos en las comunicaciones, ya sean direcciones, palabras, frases e, incluso, voces. Para lograrlo se trabaja en el análisis automático y clasificación de lo interceptado mediante técnicas de inteligencia artificial. Se estima que ECHELON intercepta más de tres mil millones de comunicaciones por día. A pesar de haber sido presuntamente construida para controlar las comunicaciones militares y diplomáticas de la Unión Soviética y los países del extinto Pacto de Varsovia, con la desaparición de estos "enemigos" [GiGA 1 / 2008]

9


hardweriando durante los años 90 se produjo un cambio sustancial en la misión de ECHELON. Durante esa década sus objetivos no se limitaron a la vigilancia del crimen organizado, de los movimientos revolucionarios, del terrorismo internacional y de los países "hostiles", progresivamente el espionaje se extendió al ámbito de los propios países participantes y al espionaje comercial. A continuación se relaciona algunas de las bases identificadas con ECHELON: •EE.UU: Fort George Meade, Maryland; Sugar Grove, Virginia; College Park, Maryland; Mountain View, California; Morwenstonw, Yakima; así como la base militar estadounidense Bad Aibling en Alemania, y Sabana Seca en Puerto Rico •Reino Unido: Menwith Hill, Yorkshire y Westminster, Londres •Australia: Geraldton y Shoal Bay •Canadá: Letrim •Nueva Zelanda: Waihopai Para ejemplificar algo lo anteriormente dicho, se dice que la base Sugar Grove, situada en las montañas Shenandoah, a unos 355 km. al sudoeste de Washington, disponía en 1990 de cuatro antenas de satélite. En noviembre de 1998, su número había aumentado a nueve de las seis que estaban orientadas a las comunicaciones europeas y asiáticas. La estación de Morwenstow en el Reino Unido se encarga de coordinar los pinchazos de los satélites de comunicación Intelsat ubicados sobre Europa y los océanos Atlántico e Índico, las de Menwith Hill y Bad Aibling siguen a los satélites que no son del sistema Intelsat y si hace falta pinchar un cable submarino, no hay problemas, para eso está el minisubmarino USS Parche.

Torre del centro de escucha Menwith Hill

10

[GiGA 1 / 2008]

A cada país dentro de la alianza UKUSA le fue asignada una responsabilidad sobre el control de distintas áreas del planeta. La tarea principal de Canadá solía ser el control del área meridional de la antigua Unión Soviética. Durante el período de la Guerra Fría se enfatizó en el control de las comunicaciones por satélite y radio en Centro y Sudamérica, principalmente como medida para localizar tráfico de drogas. Por lo que EE.UU. controlaba gran parte de Latinoamérica, Asia, la zona asiática de Rusia y el Norte de China. Gran Bretaña, por su parte, intercepta comunicaciones en Europa, Rusia y África. Australia se encarga de examinar las comunicaciones de Indochina, Indonesia y el sur de China, mientras Nueva Zelanda barre el Pacífico Occidental. El sistema dispone de 120 estaciones fijas y satélites geoestacionarios que son capaces de filtrar más del 90% del tráfico de Internet a nivel mundial. En los años 90, gobiernos, empresarios y transnacionales estaban afectados por las actividades relacionadas con el espionaje industrial y comercial de ese sistema. Según el experto Carlos Sánchez Almeida: "Se trata de tener el control absoluto del mundo por parte de las compañías norteamericanas, ECHELON podría definirse como un conglomerado político-económico al servicio de determinado trust. Y hablamos de Monsanto, líder en ingeniería genética, o de MacDonnel Douglas, fabricante de armas", si la red de espionaje detecta las intenciones de un gobierno, "podrá tomar una decisión política o económica para influir en esas intenciones, presentando a una compañía de confianza a un concurso". El relanzamiento de las discusiones sobre ECHELON derivó, precisamente, de diversos asuntos en los que la "información privilegiada" permitió a empresas estadounidenses ganar contratos a sus competidoras europeas. Así, la existencia del espionaje internacional dejó de ser un elemento de la "alianza occidental en defensa del mundo libre", para pasar a ser un factor de enfrentamiento entre potencias dominantes. En cuanto al espionaje político, ECHELON tiene un rasgo distintivo muy

importante: su carácter internacional le permite "saltarse" las prohibiciones acerca del espionaje contra sus conciudadanos. Así, un gobierno participante puede pedir a un servicio extranjero realizar el trabajo sucio en su país y quedar a salvo de los controles parlamentarios o judiciales, mientras los espías involucrados guarden el secreto. A continuación describo algunos ejemplos que harían que James Bond entregara al MI5 británico una carta de renuncia irrevocable por no estar a la altura del momento histórico, veamos: En 1983, la entonces primera ministra del Reino Unido, Margaret Thatcher, pidió a los servicios secretos británicos vigilar a dos miembros de su gabinete. Con el fin de evitar eventuales problemas, éstos solicitaron ayuda a sus colegas canadienses. En 1988 se hizo público que el senador estadounidense Thurmond estaba bajo vigilancia de los servicios británicos a solicitud de la NSA. Lo singular de ese caso es que no había razones evidentes para tal vigilancia. Una investigación de la época estableció que no existía un control sistemático acerca de las decisiones de espionaje. Otros casos tuvieron un claro tinte político buscando proteger, o arruinar, a personalidades de la "alta" política, entre otros, Pierre Trudeau, Primer Ministro de Canadá y la princesa Diana de Gales. Y también de Seguridad Nacional, como la vigilancia contra el congresista estadounidense Michel Barnes, por sus comunicaciones con funcionarios sandinistas durante el gobierno de Ronald Reagan (19811989). Sin embargo, revelaciones de los años 90 develaron que los objetivos de los superespías son cada vez más amplios: en 1992, ex agentes británicos declararon al London Observer que organizaciones como Amnistía Internacional y Greenpeace eran monitoreadas sistemáticamente. A partir de las tecnologías para reconocimiento de voz, fue capturado el narcotraficante colombiano Pablo Escobar, al ser localizado gracias a una conversación telefónica que mantenía con su esposa por un teléfono móvil. La NSA identificó mediante ECHELON,


hardweriando •Espionaje a las negociaciones del consorcio europeo Panavia para vender el avión de combate Tornado a los países del Medio Oriente. •También se le achaca a este sistema participación en la disputa entre los gigantes de la industria del automóvil General Motors y Volkswagen, ¿imagina el lector a favor de quién?, claro, a favor de GM, no faltaba más.

Torres de escucha de la red ECHELON

en Madrid, Santiago de Chile, Buenos Aires y Londres a todos los activistas de derechos humanos que jugaron un papel importante en la detención y los procesos judiciales emprendidos contra el dictador chileno Augusto Pinochet. Este hecho de espionaje provocó que muchos de ellos fueran amenazados o expulsados de sus trabajos sin motivo aparente. A principios de los años 90, durante un juicio a dos líderes feministas británicas, las implicadas declararon que sus actividades privadas estaban siendo espiadas. El juez citó a un técnico de la compañía British Telecom que descubrió la existencia de una aplicación informática capaz de escanear simultáneamente 100 000 comunicaciones por segundo, y declaró que el GCHQ interceptaba las comunicaciones desde un satélite mediante redes de fibra óptica. El Gobierno británico contactó con el juez, y éste declaró el testimonio secreto "porque afectaba la Seguridad Nacional" y prohibió utilizarlo en el juicio. La NSA actuó en el caso del secuestro del buque italiano Achille Lauro en 1985. El Presidente egipcio Hosni Mubarak negociaba el traslado del comando de secuestradores al Líbano, pero sus conversaciones fueron captadas por la NSA, que envío los datos a la VI Flota norteamericana, con base en el Mar Mediterráneo y en una operación sorpresa, digna de la película del sábado, el avión que transportaba a los secuestradores fue interceptado en el aire y obligado a aterrizar en una base aérea estadounidense en Sicilia. Tanto Mubarak, como las autoridades italianas no fueron informadas de la opera-

ción que produjo un gravísimo incidente diplomático entre Italia y EE.UU. En cuanto al espionaje comercial también hay mucha tela por donde cortar, y se desnuda el carácter de este sistema mundial de "vigilancia". Lejos no sólo de toda noción de Seguridad Nacional, sino de cualquier "vínculo nacional", los casos de espionaje comercial relacionan a ECHELON con las empresas proveedoras del sistema. Ello comprende nombres muy conocidos: IBM, Lockheed, TRW, Hughes, entre las más importantes. Una evidencia de que estas prácticas fueron incorporadas a las instituciones de EE.UU. fue la creación de Office of Intelligence Liaison, adscripta al Departamento de Comercio. El espionaje comercial afectó principalmente a empresas asiáticas: •NEC pierde un contrato de satélites con Indonesia por miles de millones de dólares que fue a parar "casualmente" a manos de AT&T. •Afectaciones a fabricantes japoneses de autos, por un modelo de auto no contaminante y espionaje en Japón durante las negociaciones sobre el comercio de autos de lujo. •Espionaje durante la asamblea de la Asociación Asia-Pacífico, APEC, en Seattle (1997), operación que arrojó, entre otras cosas, importantes contratos para la construcción de obras hidroeléctricas en Viet Nam, a favor de políticos del Partido Demócrata. •Los servicios canadienses espiaron a la delegación mexicana durante la negociación del TLC en 1992-1993. •Espionaje contra la delegación francesa durante las negociaciones de liberación comercial de la Ronda Uruguay.

A comienzos de la década del 2000, ECHELON estaba en el centro de las disputas entre EE.UU. y Europa, no sólo porque el espionaje favorecía a las empresas estadounidenses, sino también porque en Europa, el Reino Unido juega el papel de Caballo de Troya: no pierde vigencia el viejo Presidente francés Charles de Gaullè con su célebre cita, "el Reino Unido es un portaaviones estadounidense anclado en las costas europeas". Los casos más sonados "causalmente" afectaron a compañías francesas: en uno, McDonnell Douglas y Boeing vendieron mil millones de dólares en aviones a Arabia Saudita desplazando a Airbus, debido a la interceptación de información por el espionaje de EE.UU.; en otro, Thomson-CSF fue desplazada por Raytheon en un contrato por 1 400 millones de dólares para crear un sistema de supervisión por radar en la Amazonia brasileña. También se reporta espionaje de la NSA contra el sistema de correo electrónico de la Unión Europea durante las negociaciones comerciales de 1995 con respecto a las exportaciones de repuestos de automóviles. Según el "Financial Mail on Sunday" las palabras claves identificadas por los expertos de EE.UU. incluyen los nombres de las organizaciones comerciales intergubernamentales y consorcios de empresas que licitan contra compañías estadounidenses. En 1999, se habló de una posible cooperación entre la NSA y Microsoft, con la idea de "plantar" programas espías en Windows, de entregar los códigos para desencriptar y de reducir la eficacia de los medios de defensa contra el espionaje en las PCs. Se esgrimió como pruebas de esa cooperación, los problemas de seguridad que presentó el navegador, Internet Explorer, la presencia de personal de la NSA en los equipos de ingenieros de esa empresa, así como el hecho de que el princi[GiGA 1 / 2008]

11


hardweriando pal comprador de Microsoft fuera el Pentágono. El "misterio" se develó a comienzos del 2007 cuando se hizo público este matrimonio de años. ¿Recuerdan aquella vieja canción de José Augusto que decía: "la verdad escondida aparece"?

El Making Of La cuestión esencial radica en el funcionamiento de este sistema. Una vez definidos los objetivos del espionaje, resulta evidente el carácter titánico de la tarea encomendada a ECHELON: vigilar todas las comunicaciones que se realizan en el mundo. A primera vista, tal tarea parecería imposible y hasta absurda. Primero por la complejidad y las dificultades tecnológicas que implica el diseño de un sistema capaz de interceptar los millones de millones de comunicaciones que se realizan diariamente en el mundo. Segundo, y sobre todo, por la cantidad de información generada, cuyo tratamiento y análisis escaparía a los acelerados tiempos del espionaje. Lo interesante del caso ECHELON es que las tecnologías utilizadas ofrecen la posibilidad de alcanzar lo esencial de tan descomunal tarea.

que la de los satélites civiles). El espionaje en Internet se realiza mediante los servidores raíz, la mayoría de éstos manejada por empresas o instituciones estadounidenses. Los estudiosos de ECHELON ubican once importantes estaciones terrestres de espionaje, cuyo objetivo principal son las transmisiones de los sistemas satelitales, en particular los de Intelsat e Inmarsat. Otras estaciones terrestres, que operan generalmente en bases militares se encargan de rastrear las transmisiones radiales de alta frecuencia ligadas con comunicaciones militares. La red de satélites espías se controla totalmente por los servicios estadounidenses. Está dedicada a interceptar las comunicaciones por microondas, telefonía celular, electrónicas y radiales. Se estima que esta red posee al menos veinte satélites que participan en las tareas de espionaje. El siguiente nivel de ECHELON es el primer tratamiento de la información. Una vez interceptados, los mensajes son convertidos (si conviene) en código binario mediante tecnologías informáticas (reconocimiento de carac-

Gráfico de funcionamiento de ECHELON

La primera capa de ECHELON consiste en los medios de intercepción que captan las comunicaciones y las transmiten a los centros de tratamiento, ello comprende: las estaciones terrestres, los medios navales espías y los satélites secretos ubicados a gran altura (mayor

12

[GiGA 1 / 2008]

teres y de voz). Tal es el caso de los sistemas de reconocimiento de voz, capaces de convertir en texto las conversaciones telefónicas. ECHELON cuenta con un sistema llamado Voicecast que permite establecer un patrón de voz y rastrearlo para monitorear todas

las llamadas de la persona bajo "observación". La intercepción da como resultado cantidades inconmensurables de información. La solución aplicada por el sistema es el establecimiento de principios para discriminar las "escuchas" útiles de las desechables. Ello se concreta en aplicaciones informáticas capaces de analizar los documentos buscando ciertos patrones: palabras, nombres, sitios, códigos, números de teléfono y otros. Los llamados "diccionarios" o compendios de "palabras claves" constituyen la base de tales programas. En ellos, los diferentes servicios de espionaje incluyen los criterios que deben ser rastreados en los mensajes interceptados. Y así, la cantidad de información por analizar se reduce drásticamente. Sólo los mensajes que contienen un término incluido en el "diccionario" son grabados y, en ciertos casos, analizados. Hasta ese momento, todo el proceso es automatizado: la intercepción, la codificación. La búsqueda a partir de los diccionarios se realiza con dispositivos automáticos, entre los cuales destacan las computadoras de procesamiento masivo. Con los mensajes "escogidos", los analistas de ECHELON elaboran diferentes tipos de informes: traducción y compilación de las intercepciones, clasificaciones por temas, personas y otros, según las necesidades del "cliente". Este procedimiento se denomina "Control estratégico de las telecomunicaciones". He aquí una muestra fehaciente del pensamiento de las clases dirigentes de EE.UU., las cuales manejan los hilos de ECHELON. "Para que la globalización funcione, EE.UU. debe actuar sin miedo como la todopoderosa superpotencia que es. La mano oculta del mercado nunca funciona sin la ayuda de un puño oculto. McDonnald´s no podría florecer sin McDonnel Douglas, el proyectista de los aviones de combate F15; y el puño oculto que garantiza la seguridad de un mundo en el que puede prosperar la tecnología del Silicon Valley se llama Ejército, Fuerza Aérea, Armada y Cuerpo de Marines de EE.UU.". Thomas Friedman. The New York Times, 20 de marzo de 1999.

Los créditos La existencia de ECHELON mencionada en 1976 por Winslow Peck se hizo pública en 1998 por la Fundación Omega, dedicada a estudios de mercado, con un informe encargado por


hardweriando

el Parlamento Europeo. Éste señala: "Dentro de Europa todas las comunicaciones por teléfono, fax y correo electrónico son rutinariamente interceptadas por la NSA. A diferencia de los sistemas de espionaje electrónico desarrollados durante la Guerra Fría, ECHELON está diseñado para objetivos civiles: gobiernos, organizaciones y empresas, virtualmente en cualquier país". Por esa fecha el Presidente William Clinton tuvo que desclasificar los primeros documentos que hablaban de ECHELON a instancias de investigadores de la Universidad George Washington. En 1998 el Parlamento Europeo aprobó una resolución acerca de ECHELON, aunque descafeínada, en febrero del 2000 se celebró una audiencia sobre protección de datos, auspiciada por esta entidad que incluyó a ECHELON como uno de sus puntos de discusión. El 5 de septiembre del 2001 (algunas décadas después de que fuera operativo), el Parlamento Europeo denunció en una ya histórica resolución, la existencia de "un sistema de interceptación mundial de comunicaciones, resultado de una cooperación entre EE.UU., el Reino Unido, Canadá, Australia y Nueva Zelanda". Sin embargo, seis días después se desmoronaban las Torres Gemelas de Nueva York y con ellas, y bajo el martillante lema

"America under attack", el sentir de esa resolución. Es de destacar, y no es una trama palaciega de la Europa medieval, que la Unión Europea denunció en una resolución a un país integrante de esa organización, el Reino Unido, y a tres que son miembros de la OTAN (Reino Unido, EE.UU. y Canadá) por espionaje. En fin parece que no todos son tan europeos, ni tampoco están tan unidos. Se pudiera decir que los dueños del mundo sólo confían en los descendientes de la pérfida Albión. Los gobiernos europeos no podían quedar a la zaga de su "Jefe" en este tipo de aventuras y pusieron a funcionar su propio servicio secreto: Enfopol. En noviembre de 1998 la revista electrónica alemana Telépolis denunció la creación de una red de espionaje a semejanza de ECHELON en Europa, que parecía asociarse claramente con el nacimiento de Enfopol y que perseguía los mismos fines que el programa norteamericano. El establecimiento del servicio Enfopol fue ratificado por todos los países miembros de la Unión Europea en 1995 (ENFOPOL 112 100037/95) aunque ninguno de ellos lo confirma o desmienta y tampoco ha existido algún tipo de debate público al respecto. En ese sentido, se aprobó una resolución relativa a la interceptación legal de las telecomunicaciones por el Parlamento Europeo.

Esa resolución, también fechada en 1995, no tiene carácter obligatorio, pero todo apunta a que un grupo de países la adoptaría formando un "espacio Enfopol" a semejanza del "espacio Schengen" que iría aumentando a medida que más países fueran integrándose en dicho espacio. Enfopol intentaría imponer sus normas a todos los operadores europeos de telefonía fija y móvil que deberían facilitar a esta policía secreta europea un acceso total a las comunicaciones de sus clientes, así como información sobre números marcados y desde los que se llama. En el caso de Internet, los Proveedores de Servicio de Internet, ISP, deberían facilitar puertas traseras para que Enfopol pudiera penetrar en sistemas privados a sus anchas. Evidentemente, los ISP estarían obligados a informar sobre los datos personales de su cliente de correo electrónico y claves privadas. La información que proporcionasen tampoco podrían hacerla pública, así como tampoco a quién se la proporcionaron. Todo ello, sin que sea necesaria una orden judicial (una forma muy democrática de proceder por parte de la vieja y culta Europa, ¿no le parece al lector?). Según se comenta, los franceses para no quedarse detrás de su eterno rival, el Reino Unido, crearon su propio sistema, "Frenchelon", algunas de las informaciones conseguidas por los servicios especiales franceses, y realizadas desde estaciones ubicadas en Dordoña, Guayana Francesa y Emiratos Arabes Unidos fueron compartidas con los servicios especiales italianos, alemanes y españoles. Tal y como es costumbre en el cine contemporáneo, los dejo aquí con toda intención de que esperen la segunda parte de esta saga.

Referencias •Añover Julián, 1984. "ECHELON y Enfopol nos espían". •Castrillo Rocío, "¡Ojo el imperio nos espía!". Equipo Nikor. •García Mostazo, Nacho, "Echelon: La red espía global". Rebelión. •Ornelas Bernal Raúl. "Un mundo nos espía. El escándalo ECHELON". •Poole Patrick S., "ECHELON: America's Secret Global Surveillance Network". •"ECHELON". Enciclopedia en línea Wikipedia. •"Informe ECHELON". http://altavoz.nodo50.org/echelon2000.htm [GiGA 1 / 2008]

13



notihardware Grabadora DVD externa Canon DW-100

C

ompañera ideal de viaje de muchas de las cámaras AVCHD que están apareciendo, es este grabador de DVD externo que ha presentado Canon. De uso sencillo, con sólo conectarlo por USB a la cámara y darle al botón de grabar. Listo, ya tienes la copia hecha para poder ver en cualquier reproductor. El Canon DW-100 es un grabador autónomo de DVDs que te permite capturar material de alta definición directamente, grabando en el estándar H.264 AVCHD, el cual puede ser reproducido en cualquier equipo que soporte DVD incluyendo DVDs BluRay, PC o Mac. Y aunque el DVD no tiene la misma capacidad que un

disco Blu-Ray, con este método se tendrá suficiente espacio para grabar todo el material filmado ya sea en DVD Standard o DVD en alta definición AVCHD.

Cámara Lumix DMC-TZ5 con grabación de vídeo en HD

T

enemos nueva e interesante cámara de fotos por parte de Panasonic. Se trata de la Lumix DMC-TZ5, que además de sus 10.7 Mpx, cuenta con un zoom óptico de 10x (con una óptica gran angular la mar de interesante 28-280mm/F3.3~4.9), 50 Mb de memoria interna y posibilidad de seleccionar hasta 6.400 ISO. Pero es que además de todo lo anterior, es capaz de grabar vídeo a 30 fotogramas por segundo, en calidad

HD y a una resolución de 720p. Y todo eso, en poco menos de 241 gramos.

Terminal XPERIA X1 con teclado QWERTY

E

l móvil XPERIA X1, es un terminal de SonyEricsson que oculta un teclado completo horizontal QWERTY debajo de la pantalla. Es en realidad un terminal fabricado por HTC, con el nombre de SonyEricsson y Windows Mobile como sistema operativo, con un agradable diseño enfocado a profesionales. Este terminal quiere combinar la navegación por Internet con las capacidades multimedia, añadido a las opciones que ofrece un sistema con Windows Mobile. Para ello han añadido XPERIA panels, una interfaz de navegación basada en paneles que ofrece acceso rápido a las distintas funciones. Presenta una pantalla táctil de 3 pulgadas, con 800×480 píxeles, AGPS, WiFi, Bluetooth compatible con A2DP (audio en estéreo) y una cámara de 3,2 megapíxeles. Evidentemente, un

Las videocámaras Toshiba con disco duro más pequeñas

E

ntre las características comunes a todos estos modelos se destaca una pantalla panorámica en colores TFT de de 3 pulgadas, prestaciones para la estabilización electrónica de la imagen, así como una gran cantidad de opciones de configuración automática y manual capaces de cubrir incluso las necesidades de los profesionales del vídeo. Por otro lado, ambas series incluyen ranuras SD/SDHC, que soportan hasta 8 Gb y un puerto USB, así como salidas HDMI, por componentes, y A/V para la reproducción directa de las grabaciones en un TV de alta definición. La serie Gigashot A es capaz de capturar video MPEG-4/H.264 a una resolución en alta definición 1080i. Además incorpora un zoom óptico 10x y otro digital 80x con una longitud de foco de 4,5 a 45 mm con un sensor de imagen CMOS de 1,3 pulgadas. Los dos modelos que componen esta serie, Gigashot A40F y A100F disponen de discos duros de 40 Gb y 100 Gb, respectivamente. Para los usuarios más básicos de cámaras de vídeo, Toshiba dispondrá en el mercado de las series Gigashot K. Estas cámaras de vídeo alcanzarán una resolución de 1280 x 720 píxeles y almacenarán las imágenes en el formato MPEG-4. En cuanto al resto de características esta serie ofrece un zoom óptico 10x y 30x de zoom digital, una distancia focal de 6.0 hasta 60 mm y un sensor de imagen CMOS de 1,3 pulgadas. Los dos modelos que componen esta serie, Gigashot K40H de 40 Gb y Gigashot K80H de 80 Gb.

Grabador híbrido VARDIA RD-A600

terminal de tan altas características sólo podría ser HSDPA y compatible con redes inferiores como EDGE y GSM. Por cierto, destacar también que viene con 400 Mb de memoria interna, aunque puede ser ampliada mediante tarjetas microSD.

T

oshiba lanza en Japón su nuevo grabador de HD DVD y HDD Híbrido, el Vardia RD-A600. Con 600Gb trae de serie un par de sintonizadores de alta definición, conexiones Firewire y HDMI. Pero lo mejor de todo es que pueden grabar sobre un HD DVD-R y a su vez DVD-RAM/R/RW aparte de poder almacenar todo el contenido de alta definición en su disco duro. [GiGA 1 / 2008]

15


D.I. Humberto Becerra López humberto@cmatriz.copextel.com.cu Dirección de Marketing y Comunicación GiGA, Copextel

C

orel ha presentado la nueva versión de su programa estrella, CorelDraw Graphics Suite X4, su aplicación centrada en herramientas de diseño. Este nuevo programa incorpora más de cincuenta nuevas funciones y mejoras con respecto a su versión anterior. Ideal en el terreno del diseño de logotipos, gráficos web, folletos y cartelería, el programa se ha labrado una gran confianza entre los diseñadores profesionales, después de más de veinte años desde su aparición. La suite completa incorpora los programas CorelDraw X4, Photo-Paint

16

[GiGA 1 / 2008]

X4, PowerTrace X4, Capture X4, además de un completo "Manual de Técnicas de Diseñadores Expertos", vídeos de formación y más de 10.000 imágenes digitales y clipart. Sus nuevas opciones de texto y maquetación son compatibles con múltiples formatos y programas comunes. Así, destacan sus aplicaciones de diseño, ilustración, edición de imágenes y conversión de archivos vectoriales. "Hemos consultado a los usuarios en diferentes sectores y hemos escuchado sus comentarios sobre cómo mejorar nuestra herramienta", comenta Gerard Metrailler, director de gestión de productos de diseño gráfico de Corel. Las novedades más destacadas de la nueva versión son el formato de texto en tiempo real, la identificación de fuentes, las capas en páginas independientes, las tablas interactivas, la integración con Windows Vista, la integración con ConceptShare, la compatibilidad con formatos de archivos, las plantillas predi-

señadas, las fuentes especializadas y una pantalla de inicio para la gestión del programa. Además, también destaca en Photo-Paint la compatibilidad con archivos RAW, la herramienta para enderezar imágenes y los ajustes de curva tonal. Entre sus novedades se encuentra la posibilidad de configurar las opciones de un documento como el tamaño y la alineación de cada fuente antes de introducirla en el texto. Además esta versión del programa de Corel, incluye una selección ampliada de tipos de letra y la plataforma OpenType, diseñada para mejorar las tipografías latinas, griegas, y cirílicas en el formato de WGL4. Asimismo, está ahora sincronizado con el servicio de identificación de fuente en línea de MyFonts.com, WhatTheFont. El programa permite controlar y revisar las capas por separado en cada página de un documento, reduciendo la presencia de capas vacías. Además, existe la opción de añadir vectores independientes para cada página y vectores maestros para un


softweriando documento entero. Esto da a los usuarios la capacidad de crear diferentes capas. Otra característica nueva es la herramienta Table diseñada para crear e importar tablas. De este modo, los usuarios fácilmente podrán alinear, redimensionar o corregir las tablas y celdas de tablas que mejorarán sus diseños. Además, se podrá convertir el texto delimitado y añadir y ajustar imágenes en celdas individuales. La Suite X4 incluye 80 plantillas diseñadas profesionalmente y permiten al usuario diseñar las suyas propias de manera flexible y fácil, ya que esta operación puede elaborarse a través de un asistente.

rios buscar archivos por autor, sujeto, tipo de archivo, fecha, palabras clave, u otras propiedades del documento. No obstante, otra opción reconocida por el programa es la de añadir palabras clave personalizadas, posiciones u otros apuntes con el fin de organizar mejor los proyectos. Por otra parte, ConceptShare docker, disponible en esta nueva suite, integra un instrumento de colaboración en línea. Así este sistema permite a los usuarios compartir sus diseños e ideas con amistades o clientes en tiempo real, creando múltiples espacios de trabajo. Es compatible con Microsoft Office Publisher, Word 2007, Illustrator CS3, Photoshop CS3, PDF 1.7 (Acrobat 8), AutoCAD DXF y AutoCAD DWG, y Corel Painter X.

Nuevas opciones para tratar las imágenes En cuanto al software de edición fotográfica, Corel Photo-Paint, soporta los archivos RAW, importados directamente desde una cámara digital. Con el programa, que acepta aproximadamente unos 300 tipos de cámaras, los usuarios podrán ajustar las propiedades de cada archivo como el color, el tono o la calidad. De esta manera, se podrán enderezar de manera sencilla las imágenes torcidas a través de unos mandos interactivos, una rejilla con directrices verticales y horizontales y un histograma integrado.

La compañía asegura que esta nueva versión es la única suite profesional de gráficos con el certificado para Windows Vista. Asimismo, el software se integra con las capacidades de búsqueda de Windows Vista directamente desde los cuadros de diálogo de importación, permitiendo a los usua-

Asimismo, el cuadro de diálogo de curva de tono ha sido mejorado, por lo que las imágenes pueden ser ajustadas con mayor precisión en tiempo real. Además, el nuevo instrumento de cuentagotas permite señalar ubicaciones específicas en color sobre la curva de tono de su imagen, así como seleccionar, añadir o suprimir nodos a lo largo de la curva de tono. Las nuevas funciones y mejoras que

más se destacan son: Interface totalmente renovada Conserva el estilo clásico pero tanto los íconos como los menú han sido modernizados, aprovechando las ventajas de Windows Vista y brindando una imagen más moderna al programa. Nueva Pantalla de Inicio La pantalla de bienvenida trae importantes novedades. Ahora, en un estilo similar a la de CorelPainter, varias páginas con novedades técnicas, consejos de diseñadores expertos, una galería de diseños creados en CorelDRAW, etc. Nuevo Sistema de Compresión de archivos Corel reemplaza el algoritmo LZW utilizado en versiones anteriores por el sistema de compresión ZIP, utilizado por el programa CorelWINZip, a efectos de agilizar el proceso de abrir y guardar archivos, evitando errores de archivos por conflictos con los archivos temporarios de Windows. ¿Qué tipo de letra es ésta? Algo muy útil para todo diseñador: reconocer cuál es el tipo de letra a partir de un escaneado. La tecnología del sitio web www.myfonts.com de Bitstream, la empresa creadora de FontNavigator, ahora está incorporada a CorelDRAW. Basta seleccionar una imagen escaneada y automáticamente buscará la letra más similar en una extensa base de datos de miles de tipografías, además de una lista de posible alternativas. Live Text Uno de los aspectos de la nueva interface es la tecnología LiveText, que permite ver los cambios aplicado al texto en forma instantánea, actualizando la imagen a medida que se realizan los cambios. Nunca fue tan fácil y agradable trabajar con texto. Mejora en la gestión de Texto Se ha perfeccionado el manejo de Texto, los diccionarios y demás elementos. Por ejemplo, se incorporan [GiGA 1 / 2008]

17


softweriando Guías aparezcan en todas las páginas, se crean en la Página Maestra, pero si se desean solo en una página específica se pueden crear sólo en ella, y también se puede copiar de una página a otra. Unir fotos panorámicas Es posible crear fotos panorámicas a partir de varias fotos o fusionar dos o más fotos a partir de una, con la nueva tecnología PhotoStitch incorporada a X4 las comillas dobles, así como diferentes formatos de comillas tipográficas. También mejora el ajuste de texto de párrafo.

Visual Basic y Visual Studio Además de permitir el empleo de macros de VisualBasic for

Trabajo en equipo CorelDRAW X4 incorpora una novedosa forma de compartir archivos y hacer un trabajo en colaboración: CorelDRAW ConceptShare, accesible directamente desde CorelDRAW X4 o desde el sitio web http://www.coreldrawconceptshare.com

Applications (VBA) como en ediciones anteriores, X4 admite también el nuevo modelo, Visual Studio for Applications (VI.ST.A.) que precisamente da nombre al actual sistema operativo Windows Vista. Ello permite realizar macros más poderosas, persianas (dockers) personalizados y agregar funciones nuevas al programa. Los programadores, de parabienes. Nueva Herramienta Tablas Tanto para aquellos que hacen tablas de datos, como para quienes lo usen para diagramar revistas, listas de precios y folletos, la nueva Herramienta permite agilizar la

18

[GiGA 1 / 2008]

4.000 nuevos cliparts y 1.000 nuevas fotos La galería de Cliparts incorpora 4.000 nuevos diseños creados por empresas y diseñadores profesionales de diferentes países, totalizando más de 10.000 cliparts. Además, trae 1.000 fotos de alta resolución libres de derechos, listas para ser utilizadas. RAW incorporado El formato RAW de imágenes se ha incorporado directamente a la suite, por lo que ahora se puede gestionar directamente sin necesidad de otro programa independiente. Se incluyen Fuentes WGL4 En esta nueva versión, además de las fuentes standard, se incluyen fuentes en formato Windows Glyph List 4 (WGL4) optimizadas para web. Fusión de Impresión mejorada El menú de Imprimir Fusión ha sido mejorado y modernizado, para simplificar la automatización de impresiones a partir de un documento, numerar hojas o talonarios, crear diplomas o invitaciones, etc.

Puedes realizar un trabajo en colaboración con miles de diseñadores profesionales de todo el mundo. Páginas Maestras y Capas Indepen-dientes. Se ha renovado la estructura del Administrador de Objetos. Ahora existe una Página Maestra, donde van las capas maestras, y cada página tiene sus capas individuales. Asi, por ejemplo, Si se desea que las

elaboración de datos complejos sumando versatilidad.

Enderezar imágenes Ahora CorelDRAW cuenta con una ventana independiente para enderezar imágenes de mapa de bits con gran precisión. Nuevo PowerTRACE Ahora existen nuevas opciones para vectorizar una imagen. Puedes elegir nuevas modalidades, como ilustración técnica o convertir a dibujo lineal. Consejos de los Expertos Además de los manuales y catálogos, CorelX4 trae un libro adicional con artículos de una serie de expertos de diferentes países del mundo. Como curiosidad, una mayor presencia latina: tres de los artículos de Consejos de los Expertos han sido desarrollados por autores de habla hispana (Anna López, Michael Cervantes y Ariel Garaza Díaz, de España, Cuba y Uruguay respectivamente).



softweriando

Ing. Vladimir Fernández Figueredo vfernandez@enet.cu ETECSA, Cienfuegos

H

asta que el 22 de noviembre de 1988, Robert T. Morris, estudiante de la Universidad de Cornell (Ithaca, NY), protagonizó el primer gran incidente de seguridad cuando uno de sus programas se convirtió en el famoso worm o gusano de Internet y quedaron miles de ordenadores conectados a Internet inutilizados durante varios días (se calcula que el 10% de las computadoras de Estados Unidos quedaron bloqueadas simultáneamente y sufrieron pérdidas estimadas en varios millones de dólares), muy poca gente tomaba en serio el tema de la seguridad en redes de computadoras de propósito general. En la medida que crece y se diversifica el uso de Infraestructuras Tecnológicas se incrementan también los riesgos de que las computadoras, dispositivos y sistemas informáticos, conectados o no a Internet, sean vulnerables a ataques o incidentes que ponen en peligro la integridad, disponibilidad y autenticidad de los datos que en ellos se procesa, almacena o transfiere. Y más allá de los datos, el daño a esas infraestructuras es latente. Así, con el aumento del número de incidentes de seguridad, es cada vez más frecuente tener que analizar las acciones realizadas por los atacantes en los equipos: por un lado para conocer y aprender del modo en que operan, averiguar el alcance de éstos, y llegado el momento, poder tomar las medidas oportunas para denunciar el ataque a las autoridades competentes. Pero por otro lado para llevar a cabo la actualización o recuperación parcial o completa del equipo atacado, conocido ya lo dañado, es posible intentar recuperarlo para

20

[GiGA 1 / 2008]

asegurar la continuidad del sistema. Cada vez es más costoso parar un servicio para efectuar la reinstalación de los sistemas informáticos y aplicaciones, además, es conveniente evaluar profundamente las implicaciones que ha tenido el problema de seguridad mediante las herramientas de análisis forense.

Los delitos informáticos Según documento de la ONU en su Undécimo Congreso sobre prevención del delito, la violación informática es difícil de comprender o conceptualizar plenamente. A menudo, se considera una conducta proscrita por la legislación que implica el empleo de tecnologías digitales en la comisión del delito; se dirige a las propias tecnologías de la computación y las comunicaciones; o incluye la utilización incidental de computadoras en la comisión de otros delitos. Algunas definiciones son: •Delitos Informáticos: Son todos aquellos en los cuales el sujeto activo lesiona un bien jurídico, que puede o no estar protegido por la legislación vigente y ser de diverso tipo, por medio de la utilización indebida de medios informáticos. •Delitos Electrónicos o Informáticos Electrónicos: Son una especie del género de los delitos informáticos en los que el autor produce un daño o intromisión no autorizada en equipos electrónicos ajenos, y que por regla general, no se encuentran legislados. •Delitos Cibernéticos: Son ilícitos y se tiene a las computadoras como instrumento, medio o fin. Entre los principales delitos e incidentes de seguridad que afectan hoy las tecnologías de la computa-

ción y las comunicaciones y que causan cuantiosas pérdidas, se pueden mencionar: •Virus informáticos de alcance mundial que provocan considerables perjuicios a las redes comerciales y de consumidores. •Los ataques a servidores con el objeto de sabotearlos DDoS (Ataques Distribuidos de Negación de Servicio). •El vandalismo electrónico y la falsificación profesional. •El robo o fraude, por ejemplo, ataques de piratería contra bancos o sistemas financieros y fraude mediante transferencias electrónicas de fondos. •La "pesca" (phishing) que consiste en el envío masivo de mensajes electrónicos con falsos remitentes para que los usuarios proporcionen sus claves de acceso y contraseñas de sus cuentas. •El envío o ingreso subrepticio de archivos espías o Keyloggers. •El uso de Troyanos/Backdoors para el control remoto de los sistemas o la sustracción de información. •El uso de archivos BOT del IRC para el control remoto de sistemas y sustracción de información. •La inundación de mensajes de propaganda supuestamente de origen conocido (spam). •La difusión de material ilícito y nocivo, o contrario a los principios éticos y políticos de un país. La figura muestra las pérdidas estimadas por tipos de delitos durante el año 2006 según el análisis realizado por el Computer Security Institute (CSI) y el Buró Federal de Investigaciones (FBI) a 313 entidades estadounidenses que pudieron estimar esos valores.


softweriando

Pérdidas por tipo de delito según sondeo CSI/FBI en el año 2006.

Mecanismos de seguridad Para contrarrestar los efectos de los ataques que se incrementan progresivamente en cantidad y formas, existen varios mecanismos de seguridad. Típicamente, los dispositivos de seguridad que se emplean en sistemas informáticos y en redes de propósito general se pueden dividir en tres grandes grupos: de prevención, detección y de recuperación. Los de prevención son aquellos que aumentan la seguridad del sistema durante el funcionamiento normal de éste y evitan la ocurrencia de violaciones de la seguridad. Por mecanismos de detección se conoce a los que se emplean para descubrir violaciones de la seguridad o intentos de violación. Para finalizar, los mecanismos de recuperación son aquellos que se aplican cuando una violación del sistema se ha detectado, para retornar a éste a su estado de funcionamiento correcto; ejemplos de estos mecanismos son la utilización de copias de seguridad, uso de herramientas para la recuperación de datos borrados y contenidos en el propio sistema. Dentro de este último grupo de

mecanismos de seguridad encontramos un subgrupo denominado mecanismos de análisis forense, cuyo objetivo no es simplemente retornar al sistema a su modo de trabajo normal, sino averiguar el alcance de la violación, las actividades de un intruso en el sistema, y la puerta utilizada para entrar. De esta forma se previenen ataques posteriores y se detecta ataques a otros sistemas de la propia red. Sin lugar a dudas, una de las cosas más difíciles de hacer después de una intrusión en un sistema informático es la obtención de pruebas que tengan validez legal en el ámbito jurídico y que permitan denunciar y demostrar el origen e identidad del atacante. En muchos casos, las evidencias dejadas en el equipo son la única defensa posible contra estos ataques, sin embargo, el atacante habrá borrado parte de las huellas dejadas por las acciones realizadas. Unido a esto se encuentra la dificultad intrínseca del propio proceso de búsqueda de pruebas. Además, la actuación de los administradores de sistemas informáticos, en muchos casos, resulta precipitada, ya que en

su afán por retornar el sistema a su modo de funcionamiento normal reinstalan parte o la totalidad del software, eliminando cualquier tipo de evidencia que todavía pudiera permanecer en el equipo. Hasta hace muy poco tiempo, el análisis forense de sistemas informáticos tenía más de arte que de ciencia, pero cada día surgen nuevas herramientas que ayudan a automatizar, en cierta medida, el proceso de recolección y análisis de datos.

Análisis forense Hoy existen múltiples definiciones acerca del tema forense en informática. Una primera revisión sugiere diferentes términos para aproximarnos a este tema, dentro de los cuales se tienen: Computación Forense, Forensia Digital y Forensia en Redes, entre otros. Cada uno de estos términos trata de manera particular o general temas que son de interés para las ciencias forenses aplicadas en medios informáticos. Es importante destacar que al ser esta especialidad técnica un recurso importante para las ciencias forenses modernas, asumen dentro [GiGA 1 / 2008]

21


softweriando de sus procedimientos las tareas propias asociadas con la evidencia, como son: identificación, preservación, extracción, análisis, interpretación, documentación y presentación de las pruebas en el contexto de la situación bajo inspección. En primer lugar, la Computación Forense se puede interpretar de dos maneras: 1. Disciplina de las ciencias forenses, que considerando las tareas propias asociadas con la evidencia, procura descubrir e interpretar la información en los medios informáticos para establecer los hechos y formular las hipótesis relacionadas con el caso. 2 Como la disciplina científica y especializada que entendiendo los elementos propios de las tecnologías de los equipos de computación ofrece un análisis de la información residente en dichos equipos. La informática forense tiene tres objetivos básicos: 1. La compensación de los daños causados por los delatores o intrusos. 2. La persecución y procesamiento judicial de los delatores. 3. La creación y aplicación de medidas para prevenir casos similares. Estos objetivos se logran de varias formas, pero la principal es la recolección de evidencia.

La Evidencia Digital De acuerdo con el documento Guidelines for the Management of IT Evidence la evidencia digital es "cualquier información, que sujeta a una intervención humana u otra semejante, ha sido extraída de un medio informático". En este sentido, la evidencia digital es un término empleado de manera amplia para describir "cualquier registro generado o almacenado en un sistema informático que puede ser utilizado como evidencia en un proceso legal". La evidencia digital es la materia prima para los investigadores donde la tecnología informática es parte fundamental del proceso. Sin embargo, y considerando el ambiente tan cambiante y dinámico de las infraestructuras de computación y comunicaciones, es preciso detallar las características propias de la misma en este entorno. La evidencia digital posee, entre otros, los siguientes elementos que la hacen un constante desafío para aquellos que la identifi-

22

[GiGA 1 / 2008]

can y analizan. Es volátil, anónima, duplicable, alterable, modificable y eliminable. Estas características nos advierten sobre la exigente labor que se requiere por parte de los especialistas en temas de informática forense, tanto en procedimientos, como en técnicas y herramientas tecnológicas para obtener, custodiar, revisar, analizar y presentar la evidencia presente en una escena de un incidente. El proceso de recolección y manejo de la evidencia digital puede resultar complejo, puesto que en muchos casos resulta imposible parar algún servicio para examinar el o los dispositivos afectados, por lo que una vez que se detecta un ataque, se deben tomar algunas medidas por parte de los administradores para evitar que aumenten los efectos negativos del ataque, lo que en alguna medida puede atentar contra el trabajo posterior de los especialistas forenses al comprometer la integridad de la evidencia, por lo que se hace necesario que los administradores cuenten con los conocimientos para actuar ante tales eventos sin afectar el análisis posterior.

Esterilidad de los medios informáticos de trabajo La evidencia digital es única cuando se compara con otras formas de evidencia documental. A diferencia de la documentación en papel, la evidencia computacional es frágil y una copia de un documento almacenado en un archivo es idéntica al original. Otro aspecto único de la evidencia computacional es el potencial de realizar copias no autorizadas de archivos, sin dejar rastro de que se realizó una copia. Esta situación crea problemas concernientes a la investigación del robo de secretos comerciales, como listas de clientes, material de investigación, fórmulas y software propietario.

Verificación de las copias en medios informáticos Las copias efectuadas en los medios previamente esterilizados deben ser idénticas al original del cual fueron tomadas. La verificación de éstas debe estar asistida por métodos y procedimientos matemáticos que establezcan que la información tras-

pasada a la copia es completa. Para esto, se sugiere utilizar algoritmos y técnicas de control basadas en firma digitales que puedan comprobar que la información inicialmente tomada corresponde a la que se ubica en el medio de copia.

Manejo y recolección de evidencia digital La IOCE (International Organization On Computer Evidence) define los siguientes puntos como los principios para el manejo y recolección de evidencia computacional: •Sobre recolectar evidencia digital, las acciones tomadas no deben cambiar por ningún motivo esta evidencia. •Cuando es necesario que una persona tenga acceso a evidencia digital original debe ser un profesional forense. •Toda la actividad referente a la recolección, el acceso, almacenamiento o a la transferencia de la evidencia digital, debe ser documentada completamente, preservada y disponible para la revisión. •Un individuo es responsable de todas las acciones tomadas con respecto a la evidencia digital mientras ésta se halle en su posesión. •Cualquier agencia que sea responsable de recolectar, tener acceso, almacenar o transferir evidencia digital es responsable de cumplir con estos principios.

Herramientas de análisis forense Las herramientas informáticas son la base esencial de los análisis de las evidencias digitales en los medios informáticos. Sin embargo, es preciso comentar que éstas requieren una formalidad adicional que permita validar tanto la confiabilidad de los resultados de su aplicación, como la formación y conocimiento del investigador que las utiliza. Estos dos elementos hacen del uso de las herramientas, una constante reflexión y cuestionamiento por parte de la comunidad científica y práctica de la informática forense en el mundo. Dentro de las herramientas usadas con frecuencia en procedimientos forenses en informática detallamos algunas que son aplicaciones que tratan de cubrir todo el proceso en la investigación forense en informática,


softweriando las cuales se pueden clasificar en cuatro grupos principales. Herramientas para la recolección de evidencia Existe una gran cantidad de herramientas para recuperar evidencia. El uso de herramientas sofisticadas se hace necesario debido a: •La gran cantidad de datos que pueden estar almacenados en una computadora. •La variedad de formatos de archivos que pueden variar enormemente, aún dentro del contexto de un mismo sistema operativo. •La necesidad de recopilar la información de una manera exacta que permita verificar que la copia es exacta. •Limitaciones de tiempo para analizar toda la información. •Facilidad para borrar archivos de computadoras. •Mecanismos de encriptación o de contraseñas. Algunas de las herramientas más usadas son: ENCASE - http://www.guidancesoftware.com/ EnCase es un ejemplo de herramientas de este tipo. Desarrollada por Guidance Software Inc., permite asistir al especialista forense durante el análisis de un crimen digital. Es el software líder en el mercado, el producto más difundido y de mayor uso en el campo del análisis forense. Algunas de las características más importantes de EnCase son: •Copiado comprimido de discos fuente. •Búsqueda y análisis de múltiples partes de archivos adquiridos. •Diferente capacidad de almacenamiento. •Varios campos de ordenamiento, incluidas las estampillas de tiempo. •Búsqueda automática y análisis de archivos de tipo zip y attachments de e-mail. •Análisis electrónico del rastro de intervención. •Soporte de múltiples sistemas de archivo. •Integración de reportes. Otras herramientas son: FORENSIC TOOLKIT http://ww.accessdata.com/Product04 _Overview.htm WINHEX http://www.x-ways.net/winhex/index-e.html

Herramientas para el monitoreo y/o control de computadoras Algunas veces se necesita información sobre el uso de las computadoras, por lo tanto hay herramientas que monitorean su empleo para poder recolectar información. Existen algunos programas simples como key loggers o recolectores de pulsaciones del teclado que guardan información sobre las teclas presionadas, otros que guardan imágenes de la pantalla que ve el usuario y hasta casos donde la máquina es controlada remotamente. Herramientas de marcado de documentos Un aspecto interesante es el de marcado de documentos. En los casos de robo de información, es posible mediante el uso de herramientas, marcar software para poder detectarlo fácilmente. El foco de la seguridad está centrado en la prevención de ataques y algunos sitios que manejan información confidencial o sensitiva tienen mecanismos para validar el ingreso, pero debido a que no existe nada como un sitio 100% seguro, se debe estar preparado para incidentes. Herramientas de hardware Debido a que el proceso de recolección de evidencia debe ser preciso y no modificar la información, se han diseñado varias herramientas como las de DIBS http://www.dibsusa.com/ products/products.asp - Mobile Forensic Workstation (para la recolección detallada y análisis de datos in situ). - Rapid Action Imaging Device (RAID) (para el copiado rápido de discos duros). - Aircapture WLAN 1(para la captura, almacenamiento y análisis de comunicaciones inalámbricas). Para mayor información de otras herramientas forenses en informática se sugiere revisar el enlace http://www.e-evidence.info/vendors.html

La informática forense en Cuba En nuestro país al igual que en muchos otros, el rol de peritos informáticos es asumido por ingenieros y licenciados en Informática, en Telecomunicaciones, en Electrónica, fundados exclusivamente en su for-

mación académica. En la mayor parte de las entidades con medios de cómputo y redes de computadoras, no se toma muy en serio esta actividad y en muchos casos los incidentes de seguridad no son analizados ni reportados. A nivel central, la Oficina de Seguridad para las Redes Informáticas OSRI, adscrita al Ministerio de la Informática y las Comunicaciones (http://www.mic.gov.cu/hticentity.aspx) es la entidad rectora y con mayor desarrollo en la actividad informática forense. Entre sus objetivos se cuenta el de llevar a cabo la prevención, evaluación, aviso, investigación y respuesta a las acciones, tanto internas como externas que afecten el normal funcionamiento de las Tecnologías de la Información del país.

Conclusiones Como se ha visto, el incremento en la cantidad y variedad de los delitos informáticos es cada vez mayor. Los atacantes están cada vez más especializados y también aparecen delitos más lucrativos para los delincuentes informáticos, por lo que es primordial tomar muy en cuenta los mecanismos de seguridad para protegerse, y entre estos mecanismos los de respuesta a incidentes juegan un papel importante. Entre estos últimos, el análisis forense, ya que resulta necesario no sólo determinar la procedencia del ataque para juzgar al atacante, sino también averiguar el alcance de la violación y la vía de entrada para prevenir otros ataques.

Referencias •Código de prácticas para digital forensics,1er Flash mob sobre Digital Forensics, 14 nov.2003-Barcelona, disponible en http://cp4df.sourceforge.net/flashmob03/doc/ 03-Metodologia-rev3.pdf (metodología) •Delitos informáticos, 2005, Undécimo Congreso de las Naciones Unidas sobre Prevención del Delito y Justicia Penal, Bangkok (Tailandia), disponible en http://www.unodc.org (presentación) •Ph.D Jeimy J. Cano, Introducción a la informática forense, 2006, disponible en http://www.acis.org.co/fileadmin/Revista_96/ dos.pdf (artículo) •M.V Boas, Manual de Informática Forense, Del Rey, 1994 (libro) •Guidelines for the Management of IT Evidence, disponible en: http://www.standards.com.au (standar) •Óscar López, Informática Forense: Generalidades, aspectos técnicos y herramientas, disponible en http://www.criminalistaenred.com.ar/ Informatica_F.html (artículo) [GiGA 1 / 2008]

23


softweriando

Códigos malignos,

resumen 2007

Ing. Edgar Guadis Salazar edgar@segurmatica.cu Segurmática

C

oncluyó el 2007, un año distinguido por un mayor predominio en la detección de redes robots (botnets) formadas por computadoras controladas remotamente por atacantes, un lucrativo mercado negro y ataques cibernéticos de mayor envergadura.

Situación internacional Códigos malignos

Fig. 2 - Proporción de mensajes interceptados que contenían enlaces a sitios web, con códigos malignos,

El período se caracterizó por durante el 2007. la consolidación en la instalación de códigos malignos desde La propia organización detectó un páginas web en Internet que los promedio diario de 1 253 nuevos hospedaban, ya sea por enlaces sitios web que hospedaban códigos directos a los sitios de descarga de malignos. Por su parte, Kaspersky los archivos como por la explotación Lab identificó, en el primer semestre de vulnerabilidad en los navegado- del año, más de 28 000 sitios diferentes en estas condiciones. res de Internet. Según la organización MessageLabs, En cuanto a misivas con anexos, estuen el 2007 continuó disminuyendo la vieron especialmente dirigidas a ejecuproporción de códigos malignos dis- tivos de empresas. Esta variante en la tribuidos por correo electrónico res- mayoría de las ocasiones consistió en pecto al total de mensajes revisados caballos de Troya destinados al robo (Fig. 1), pues si en esta ocasión fue 1 de información. Con el fin de engañar de cada 117.7, en el 2006 se contó 1 a los receptores los mensajes contecada 67.9. Sin embargo, prevaleció la nían sus datos personales y así como inclusión de enlaces a sitios web de los supuestos emisores, tanto en el donde éstos se encontraban alojados Asunto como en el Cuerpo, de forma sobre su distribución como anexos tal que se hizo difícil determinar a primera vista su autenticidad. en los mensajes (Fig. 2).

Fig. 1- Proporción de mensajes interceptados en los últimos 3 años, que contenían códigos malignos.

24

[GiGA 1 / 2008]

Las reseñas empleadas generalmente fueron hurtadas de sitios de Redes Sociales (social networking) como: MySpace, Linked-in y Facebook, en los que se establecen comunidades de usuarios conectados a la gran red que comparten determinados temas, gustos, amistades, ficheros de audio, vídeo, etc. Viejos conocidos como W32/Nesky.P, W32/Nesky.T, W32/Nyxem.E y otras versiones del W32/Mytob, se encontraron nuevamente entre los más propagados vía correo, pero las variantes de la familia W32/Zhelatin, también conocida como StormWorm y Nuwar emplearon ambos métodos, de ahí que rápidamente debutaran en la relación de los más destacados por día. Inicialmente, éstas se propagaron anexadas a mensajes de correo electrónico y luego fueron instaladas en las PCs cuando los usuarios accedieron a sitios web en Internet cuyos enlaces estaban incluidos en las misivas. Su éxito fundamental recayó en el uso de la ingeniería social para engañar a los receptores. Los textos e imágenes fueron variados, pero muy sugerentes. Entre ellos se encuentra la insinua-


softweriando ción de que en determinado sitio de Internet se podía descargar un vídeo en el que el emisor había visto al destinatario (Fig 3). Resulta obvio destacar que tal vídeo no existió y en cambio se instaló un "flamante" caballo de Troya en las PCs.

La cantidad de reportes de nuevas variantes de código maligno en breves períodos también fue interesante. Algunas estadísticas obtenidas por Kaspersky Lab reflejaron que las muestras colocadas en los servidores de descarga mutaban cada 90

Fig. 3- Mensaje enviado por Zhelatin, que hace referencia al sitio de descarga del video.

Una de las funcionalidades que incluyen es la posibilidad de ser empleadas en la creación de redes "botnets" mediante la interconexión, por el protocolo P2P de las computadoras comprometidas. Symantec detectó en agosto la remisión masiva de spam desde 4 375 direcciones IP únicas, en un período de 24 horas. En septiembre intervinieron unas 6 000, con sólo un 25% de coincidencia de direcciones IP entre ambas ocasiones. Por su parte, la compañía IronPort Systems, especializada en antispam, registró en octubre 2 700 millones de mensajes desde unos 280 000 sistemas infectados, los cuales contenían enlaces a sitios de Internet que hospedaban el código maligno. Las computadoras que intervinieron en estas acciones formaban parte de una red de máquinas "zombies" interconectadas con el protocolo P2P (Fig. 4).

segundos, y era otra de sus funcionalidades la realización de ataques Distribuidos de Denegación de Servicios (DDoS). Finalizado el año se estimó en más de un millón, el número de ordenadores afectados. Desde el 2004 no ocurría una situación similar. Las ganancias producto del desarrollo y empleo de códigos malignos, así como toda la actividad delictiva asociada y los escasos resultados obtenidos en la erradicación de este mal, auguran que la situación durante el 2008 debe continuar y se considera muy probable la creación de otros aún más sofisticados.

Vulnerabilidades Tal como sucedió en años anteriores, continuó la detección de vulnerabilidades en sistemas operativos y aplicaciones de amplio uso. Relacionados con ellos, nuevos formatos de ficheros ingresaron en la lista de los potencial-

mente peligrosos; variaciones en sus estructuras permitieron explotarlas. Los .ANI correspondientes a imágenes para cursores son ejemplo de ello. Las vulnerabilidades en navegadores de Internet volvieron a ser aprovechadas en la instalación de códigos malignos desde páginas web preparadas al efecto o alteradas con la inserción de códigos que las explotaron. En el Reporte Anual de Riesgos de Seguridad del SANS Institute se encuentran relacionadas, entre otras: Internet Explorer: CVE-2006-4697, CVE-2007-0024, CVE-2007-0217, CVE-2007-0218, CVE-2007-0219, CVE-2007-0942, CVE-2007-0944, CVE-2007-0945, CVE-2007-0946, CVE-2007-0947, CVE-2007-1749, CVE-2007-1750, CVE-2007-1751, CVE-2007-2216, CVE-2007-2221, CVE-2007-2222, CVE-2007-3027, CVE-2007-3041, CVE-2007-3826, CVE-2007-3892, CVE-2007-3896 Firefox: CVE-2007-0776, CVE-2007-0777, CVE-2007-0779, CVE-2007-0981, CVE-2007-1092, CVE-2007-2292, CVE-2007-2867, CVE-2007-3734, CVE-2007-3735, CVE-2007-3737, CVE-2007-3738, CVE-2007-3845, CVE-2007-4841, CVE-2007-5338 IBM contabilizó 3 273 vulnerabilidades en el primer semestre del año y fueron Microsoft, Apple, Oracle, Cisco Systems, Sun Microsystems, IBM, Mozilla, XOOPS, BEA y Linux kernel los 10 vendedores más afectados. Entre los cinco primeros se repartió el 12,6% del total. Un hecho aún más preocupante fue que el 90% de las debilidades podían ser explotadas remotamente. Por otra parte, es necesario señalar que aun cuando en muchas ocasiones los fabricantes fueron advertidos con el fin de que liberaran parches de seguridad para la solución de los problemas, en otras los atacantes se valieron de ellas para realizar los ataques y a partir de los daños ocasionados se revelaron. Esta situación, conocida como vulnerabilidad de "día cero", se repite año tras año. El paquete Office de Microsoft fue representativo de este peligro.

Spam Fig. 4- Computadoras comprometidas interconectadas en una "botnet" distribuyendo mensajes para la instalación de códigos malignos, realizando ataques "DDoS" y robando información.

MessageLabs patentizó que en el 2007 prácticamente se mantuvo la proporción entre la cantidad de estos [GiGA 1 / 2008]

25


softweriando molestos mensajes propagandísticos detectados respecto al total de los revisados y fue de 84,6% (en el 2006 fue 86.2%). Sin embargo, la distribución desde fuentes desconocidas se incrementó de 63,4% a 73,9%. El idioma predominante continuó siendo el inglés con un 70-80%. El bajo costo que representa su envío desde redes de computadoras comprometidas unido a la gran cantidad de destinatarios (consumidores potenciales) a los que llega, aporta ganancias a los involucrados en estas acciones. Quienes cubren realmente los gastos son los propios usuarios de las computadoras afectadas que se encuentran muy lejos de imaginar esta situación. Por otra parte, los perpetradores de acciones de este tipo no requieren de grandes habilidades informáticas. Durante el año, una parte de los spam tuvo como destino las acciones bursátiles (stocks), y se presentó una situación delicada que obligó a la Securities and Exchange Comision (SEC), que es el órgano regulador del mercado bursátil en Estados Unidos, a suspender por diez días la compra-venta de valores de 35 empresas que se aprovecharon de ellos (pump-and-dump). En este caso, los remitentes compraron acciones a muy bajo precio. Luego enviaron los mensajes (Fig. 5) con el símbolo bursátil real y con el empleo de ingeniería social lograron llamar la atención de los inversores. Una vez que el precio de las acciones subió (pump), las vendieron (dump), y obtuvieron ganancias lucrativas.

creadas por herramientas generadoras de spam, que estaban instaladas en computadoras comprometidas que variaron de un mensaje a otro, y la incorporación de la propaganda en ficheros con formato PDF (empleado por el popular editor de textos Acrobat de Adobe), Excel y Word (del paquete Office de Microsoft), que viajaron anexados a mensajes de correo electrónico. En octubre, MessageLabs interceptó 15 millones de mensajes no deseados que tuvieron anexado un fichero .MP3 de audio. Fig. 6.- "Phishing" dirigido a clientes de Visa

Para este año se vaticina un empleo mayor de esos archivos y la incorporación de otros. La empresa consultora de investigación de mercado Radicati Group estima que los usuarios de la mensajería instantánea (IM) podrán recibir unos 27 spam diarios.

Phishing

El término "phishing" (publicado en un boletín de noticias de hackers en 1996) procede de la palabra inglesa fishing (pesca en español), que si bien en sus inicios estuvo relacionado con el robo de cuentas de miembros de American OnLine (AOL) con el fin de utilizar los servicios de la compañía mediante tarjetas de crédito válidas, en la actualidad se asocia a la "captura" de contraseñas y datos financieros en el "gran mar" que representa Internet. Realmente consiste en el envío de mensajes de correo electrónico con enlaces a sitios en Internet, que aparentan pertenecer a instituciones financieras y bancarias bien conocidas, en los que se urge al dueño de la cuenta a introducir datos, tales como número de tarjeta de crédito o sus claves Fig. 5 "Spam" empleado para elevar el precio de las acciones de una de acceso PIN, con el empresa llamada Trimax. supuesto objetivo de Desde el punto de vista técnico se resolver problemas técnicos que se observó el empleo de imágenes gráficas han presentado (Fig. 6).

26

[GiGA 1 / 2008]

Una vez establecido el vínculo se muestra una página web falsa, muy parecida a la real, en la que se solicitan los datos en cuestión. Aunque no lo aparenta, fue condicionada para sustraer la información introducida, posteriormente empleada en acciones delictivas de mayor envergadura. El Grupo Anti-Phishing Workinp Group, dedicado al estudio del tema del phishing, en su reporte de septiembre del 2007 publicó que la cantidad total de reportes únicos ese mes fue de 38 514, un incremento cercano a 13 000 incidencias respecto al mes anterior (Fig. 7) y fue ésta la cifra más alta de ese año. La firma Gartner estimó que 3,6 millones de usuarios de computadoras en Estados Unidos perdieron alrededor de 3,2 billones de dólares debido a estos ataques, en un período de doce meses desde agosto del 2006. Aun cuando el promedio del valor del desfalco disminuyó de 1 244 a 886 dólares se incrementó la cantidad de incidentes. Además, las técnicas desarrolladas por los autores de caballos de Troya empleados en la creación de redes de computadoras zombies, permiten que cada uno de los equipos comprometidos pueda hospedar múltiples sitios para la ejecución de ataques al mismo tiempo, los cuales también pueden replicarse al resto de las computadoras que forman parte de esta red por lo que su desactivación se convierte en una tarea compleja. Lo anterior se une a la venta en línea de herramientas para realizar ese tipo de actividad maligna.


softweriando de Troya, que forman parte de la familia conocida como OnLineGames, destinados a robar todo lo tecleado por los jugadores cuando acceden al sitio web del juego en línea World of Warcraft, con el fin de venderlo posteriormente. En la actualidad se considera que el monto global de dinero asociado a este tipo de delincuencia en la red, asciende a 105 billones de dólares.

Situación nacional Fig. 7.- Reportes únicos mensuales de "phishing" en el período de Sept. 2006 a Sept. 2007.

No es sorprendente que finalmente MessageLabs detectara un incremento, respecto al 2006, de un 0,28% de mensajes de correo electrónico destinados a estos fines. Si en aquella ocasión 1 de cada 274 mensajes contuvo este tipo de ataque, en el 2007 el reporte fue de 1 por cada 156. Para el 2008 se espera un mayor uso del phishing con el empleo del protocolo VoIP -para la transmisión de voz por Internet-, mediante el envío de mensajes que en lugar de contener enlaces a sitios web hagan alusión a un número telefónico y una vez establecida la comunicación se solicite la entrada de los datos por el teclado del teléfono. McAfee Avert Labs estima un incremento de 50% de los embates por esa vía.

Según Maksym Schipka, de MessageLabs, quien ha estudiado esa situación, ya existe una especialización y sofisticación en un mercado en el que los implicados colaboran entre sí. La venta de toda la información y datos personales robados es la que realmente aporta la mayor ganancia. En este último caso, el precio de una sola identidad (nombre completo, número de pasaporte, de licencia, de tarjeta de crédito y datos sobre cuentas bancarias) está en el orden de los 5 dólares.

Durante el año 2007 la cantidad de nuevos programas malignos diferentes recibidos en la cuenta virus@segurmatica.cu, y/o entregados por el Grupo de Soporte Técnico de la empresa de Consultoría y Seguridad Informática Segurmática al Laboratorio Antivirus, fue de 290. Según su clasificación se distribuyeron en 209 caballos de Troya (175 en el 2006), 72 gusanos y 9 virus. Los primeros continuaron afianzándose como los más reportados en cuanto a la cantidad de nuevas muestras, tendencia observada desde el 2003 (Fig. 8).

Delitos cibernéticos de gran importancia Entre los eventos más importantes relacionados con el delito cibernético se puede citar los intentos y ataques reportados a servidores empleados en instituciones gubernamentales de varios países entre los que se destaca el caso de Estonia, donde tuvieron como blanco a los sitios web pertenecientes a la Presidencia, Primer Ministro, Parlamento, ministerios y la policía, pero igualmente sufrieron alteraciones decenas de otros sitios. Fig. 8.- Proporción de códigos malignos, según su clasificación desde el 2002.

Mercado negro El empleo de los botnets es tan lucrativo que las redes se alquilan. Su precio está relacionado fundamentalmente con el número de computadoras controlables y el tiempo por el que son arrendadas. En marzo, según la fundación Shadowserver, el número de máquinas que pasó a formar parte de estas redes se triplicó en menos de un mes.

Si con anterioridad el robo de credenciales estuvo mayormente relacionado con las cuentas bancarias, la gran popularidad alcanzada por los juegos en línea y el dinero que se mueve detrás de ellos llamó la atención de los delincuentes informáticos quienes decidieron tomar también su tajada. Ejemplo de ello es la creación y uso de los caballos

Las muestras más recibidas en la cuenta virus correspondieron a variantes del W32.Netsky y predominó entre ellas la conocida como W32.Netsky.q. Sin embargo, los códigos malignos responsables de la mayor cantidad de reportes recibidos por afectaciones fueron W32.Dilalupass.c, W32.Delf.aws y variantes del W32.Efecto los cuales tienen en común propagarse funda[GiGA 1 / 2008]

27


mentalmente por medio de dispositivos removibles como memorias flash y discos externos. Desde 1988, cuando fue detectado el primero en Cuba, hasta la fecha, la cantidad total de los que han afectado a entidades nacionales es de 1 777 diferentes. Los números mayores los aportan los caballos de Troya con 865, gusanos 465 y virus 399. Los productos antivirus desarrollados en Segurmática fueron actualizados para combatirlos técnicamente, así como prevenir la propagación de otros no reportados.

Recomendaciones - Independientemente de la aplicación de medidas técnicas que sin duda hay que establecer, continúa siendo imprescindible la necesidad de mantener actualizados los equipos con los últimos parches de seguridad liberados para los sistemas operativos y aplicaciones utilizadas. Esta acción es sumamente importante tanto para los administradores de redes como para los usuarios finales. - Establecer y cumplir medidas técnicas y organizativas que ayuden a combatirlos con mayor efectividad. - Continuar tomando conciencia sobre la problemática de los códigos malignos y de todos los daños y acciones delictivas que se derivan de ella. Dos de estos aspectos son: conocer la causa de la necesidad de tomar precauciones en el uso de los dispositivos removibles y mantener los antivirus actualizados teniendo presente que no son la solución absoluta para prevenir su acción. - En el sitio http://www.segurmatica.cu se puede consultar información sobre los programas malignos analizados en el Laboratorio Antivirus de la empresa y de los servicios, cursos referentes a la Seguridad Informática y productos que se brinda para combatirlos técnicamente.

Información consultada

MessageLabs Intelligence: 2007 Annual Security Report McAfee Virtual Criminology Report 2007 SANS Top-20 2007 Security Risks (2007 Annual Update) Malicious code evolution: July-September 2007, Kaspersky Lab Malicious website evolution: January-June 2007, Kaspersky Lab Romania Weblog: News from the Lab, F-Secure. Blog Laboratorio Hispasec

28

[GiGA 1 / 2008]

E

n pleno desarrollo de la revolución digital, ¿un grupo de empresas sería capaz de dominar el mundo sin disparar una sola bala? Este apocalíptico escenario en el futuro inmediato parece ser solamente la fantasía de un talentoso escritor, aunque la realidad a veces supera la imaginación más grande. En efecto un consorcio de grandes compañías de contenidos multimediales y los mayores productores de hardware y aplicaciones informáticas (entre los que se cuentan Microsoft, AMD, Intel, HP e IBM) se juntaron bajo el símbolo de la "Informática segura" (Trusted Computing, TC). Veamos qué es el TC, cuáles son sus ventajas (según los productores) y las desventajas (por supuesto, según los usuarios).

Cómo funciona el TC Las bases del TC son representadas por los mecanismos de criptografía asimétrica aplicados para las siguientes finalidades: 1) Cada dispositivo (PC, CPU, teléfono celular, etc.) se identifica por medio de una especie de pasaporte electrónico. 2) La criptografía ya viene confeccionada, a nivel de hardware, en modalidad "segura". 3) Las informaciones se legitiman y cifran por medio de la "llave" de la máquina. Además, el Trusted Computing Group redacta las reglas para la realización de un subsistema criptográfico, el llamado Trusted Platform Module (TPM), de manera que los dispositivos producidos por varias empresas tengan un mismo comportamiento en relación con el hardware y las aplicaciones informáticas con los que interactúa. El TPM, como los microchips presentes en "smart cards"o tarjetas inteligentes es una pequeña computadora compuesta por una CPU, un coprocesador criptográfico y un


¿Informática segura o mercado seguro?

a usuarios especiales preguntar acerca de su sistema (es decir un remoto a tu PC qué tipo de hardware utilizas y qué aplicaciones informáticas) y conocer el estado de éste, es decir sus variaciones. De ese modo se puede evitar que las informaciones reservadas sean enviadas desde una PC dañada o no segura o que sean recibidos comandos considerados peligrosos. La Remote Attestation se halla avalada por un certificado digital generado por el hardware y que detalla cuáles son las aplicaciones informáticas en ejecución.

Las ventajas, según los fabricantes DrSc. Massimo Dimartino normamg@enet.cu

generador de números aleatorios implementado en hardware por canales I/O (entrada/salida), por memorias RAM y ROM, un sistema de ficheros propio y por un sistema operativo propio (firmware). El TPM genera llaves RSA (secuencias alfanuméricas para "disfrazar un dato") y memoriza datos en modalidad segura, mientras guarda en su propio sistema de ficheros las llaves criptográficas utilizadas para cifrar los datos. El TPM tendrá a su vez cinco funciones principales, cada una con un objetivo distinto empleadas simultáneamente, pero para que se activen es necesario que el software implemente ese soporte en el hardware. Estas funciones son: •Endorsement Key (respaldo clave) Una pareja de llaves RSA a 2048 bits que identifica particularmente cada TPM y protege la integridad del sistema contra violaciones y falsificaciones. La Endorsement Key se asigna al TPM durante la producción. El TPM, por su parte, se realiza de modo que no existan funciones que permitan extraer esa llave, y el mismo dispositivo de hardware reconocerá si ha sido forzado. •Secure entrada/salida - Datos que viajan por los cables de la PC, el bus. Todas las informaciones que transi-

tan por el bus del sistema se cifran de forma asimétrica constantemente, por lo que resultará imposible para programas y mecanismos de hardware entender las informaciones intercambiadas entre el teclado y una aplicación, y entre esa aplicación y la pantalla, cuando se está realizando una transacción segura de datos. •Memory Curtaining - representa la separación de la memoria RAM en unidades discretas de manera tal que el hardware no permita a cada programa la lectura y escritura de las zonas de memoria utilizadas por otras aplicaciones que se estén ejecutando. El kernel (el corazón del sistema operativo) no tendrá acceso a esas zonas de la RAM porque los datos contenidos en ellas son cifrados por el Secure I/O (memoria/salida), entonces las informaciones estarán seguras aun cuando alguien lograse tomar el control del sistema. •Sealed Storage (memoria cifrada)Protege las informaciones por medio del cifrado con el empleo de llaves generadas por las aplicaciones informáticas y el hardware que permiten su ejecución. Esto quiere decir que esas informaciones pueden ser utilizadas sólo con la misma combinación de aplicaciones informáticas y hardware. •Remote Attestation (identificación desde un dispositivo remoto) - Permite

•Protección contra virus y spyware La firma digital de las aplicaciones informáticas permitirá a los usuarios reconocer aquellos programas originales creados por compañías "confiables", y buscar las versiones falsas que pueden contener códigos trampa. Por ejemplo, hay numerosas versiones falsas de MSN Messenger enriquecidas con spywares que se pueden descargar desde sitios de MSN enteramente clonados. El sistema operativo al descubrir una firma digital no válida, advertirá al usuario que ese programa que intenta descargar no es fiable. •Digital Rights Management (DRM) El sistema TC permite a los productores de aplicaciones informáticas la creación de un sistema inviolable que impide la duplicación no autorizada de programas o materiales multimediales. Gracias al Sealed Storage una canción descargada por Internet o memorizada en soportes CD o DVD podrá ser cifrada y su lectura sería posible sólo con un programa "fiable". Éste, por medio del memory curtaining (memoria de cortina, en este caso la RAM), impedirá que sea interceptada la criptografía de esa canción y el Secure entrada/salida no consentirá a otros programas espiar el buffer de la tarjeta de sonido ni tampoco remplazarla con un sistema de grabación analógico. De igual forma, las aplicaciones informáticas pueden defenderse contra copias no autorizadas.

Protección contra el phishing Mediante el uso del Remote Attestation es posible defenderse contra el phishing verificando la integridad del servidor del banco [GiGA 1 / 2008]

29


softweriando financiero con el cual se trata de hacer una transacción segura. Las reglas de construcción del TPM prevén que determinadas llaves de acceso memorizadas en el dispositivo (por ejemplo, el PIN para acceder a la cuenta bancaria) pueden ser activadas sólo si el usuario posee los requisitos digitales correctos y únicos. Además, el navegador de Internet con soporte TC podrá averiguar la validez del sitio del Banco en Internet e impedir el acceso, aun cuando se esté en presencia de camuflaje de DNS (dirección de Internet).

Biometría en la Red Mientras que una contraseña pudiera cambiarse una vez que ha sido robada o descubierta, nuestras huellas digitales o el iris de los ojos no pueden renovarse una vez que los datos numéricos que las reconocen han sido captados por otras personas. Mediante la plataforma TC esos parámetros biológicos serán convertidos en una serie de bits y por medio del Secure entrada/salida crear una serie de datos encriptados que salen desde el lector biométrico y que serán legibles sólo por aplicaciones informáticas fiables.

Las desventajas, según los usuarios Los opositores del TC piensan que detrás de esas maravillosas propuestas hay una deliberada intención de limitar las posibilidades de utilización del sistema por parte de su legítimo propietario. Veamos: •Imposibilidad para cambiar de aplicaciones informáticas. Imagina que escribes un artículo y lo haces con un programa "fiable". El Sealed Storage, al proteger tu trabajo contra códigos malignos, no hará distinción alguna entre este programa y otros útiles como aquellos que se emplean para convertir tu artículo en diferentes formatos o simplemente un programa mejor. Si el usuario quisiera cambiar las aplicaciones informáticas, le resultaría imposible leer las noticias que estén en el diario viejo, porque éstas sólo podrán leerse con el programa fiable. Como resultado tendrás que emplear sólo este programa y no otros quizás mejores. Cualquiera

30

[GiGA 1 / 2008]

pudiera pensar que Microsoft puede usar esta función para impedir a otros programas de código abierto leer documentos de Office. La difusión de documentos Word en la Red por parte de una Administración Pública obligaría a todos los que necesiten leer esos documentos comprar la licencia para la utilización del paquete MS Office y obviamente del sistema operativo Windows. •El Remote Attestation causa otros problemas: hoy los sitios de Internet pueden visualizarse con varias tipologías de navegadores de Internet, pero hará inútil la concurrencia de otro navegador fiable, por ejemplo desde otro país no podría accederse a la lectura de publicaciones cubanas que estén en la Red.

Usuario bajo control Uno de los objetivos del TC es interactuar con el DRM (Digital Right Management). Por ejemplo cuando se descarga un fichero musical y se paga por eso, los dueños de ese fichero (artistas, casas discográficas, etc.) tienen la potestad de dictar reglas de cómo su música puede utilizarse y querer que el usuario escuche dos veces al día esa música, o sólo ¡en el día de su cumpleaños! Además, pueden utilizar el Remote Attestation para permitir la ejecución de esa canción solamente con un programa fiable: el Sealed Storage que no permitiría al usuario ejecutar esa canción con otro programa que no sea del agrado de la casa discográfica dueña, mientras el memory curtaining impediría hacer copias durante su ejecución. Un watermark audio (sonido que se repite mientras escuchas la canción) impediría la grabación con una grabadora convencional.

Dificultades para cambiar de PC Con el TPM integrado en la CPU de nuestra PC, todas las identidades digitales (Attestation Identity Key) utilizadas para proteger los datos y los contenidos multimediales legalmente adquiridos quedarán de seguro fuera de nuestro control y propiedad. Para el usuario que quiera cambiar de PC porque la suya se averió por cualquier causa, o para aquel que quiera utilizar sus datos

sobre más de una plataforma se presenta un problema muy grande: el usuario que quiera transferir sus datos hacia otros sistemas ¡no lo podría hacer!

Todo bajo un tamiz La posibilidad de impedir el uso de programas no fiables en favor de los que sí lo son, y que se actualizan automáticamente, puede llevar al control total del flujo de informaciones en la red y la libertad de los usuarios para consultarles. Por ejemplo, un diario puede regular que para bajar sus artículos, la computadora de determinado usuario deba leerlos con un programa fiable. A su vez ese programa pudiera estar preparado para obligar a leer solamente la última versión del artículo. Esta imposición de visualizar "la versión más reciente" permitiría al diario rescribir la historia, cambiando o eliminando los artículos (Ej. Orson Wells en 1984). Aunque el usuario hubiera bajado en su computadora el artículo original, el programa se negaría a visualizarlo porque está consciente de que existe un artículo más actualizado. Quien critica dicha plataforma afirma que esto podría tener efectos muy peligrosos, pues pudiera darse el caso de que alguien quiera que un documento que contiene informaciones comprometedoras no sea visible por nadie, incluso ¡ni por su propio autor! Con el TC, aquel que tiene las llaves del control, posee también la tecnología para poder desaprobar documentos y hasta sitios completos de Internet sin que el usuario se percate de ello por el solo hecho de que el navegador se negará a visualizarlos.

¿Quién financia todo eso? Por supuesto, nosotros los usuarios que no tendremos más oportunidades de comprar una computadora con TCenabled, porque ¡no habrá de otro tipo!

Fuentes http://es.wikipedia.org/wiki/Trusted_Computing http://linuca.org/body.phtml?nIdNoticia=207 http://www.eff.org/wp/trusted-computing-promise-and-risk http://www.gnu.org/philosophy/can-youtrust.es.html http://www.no1984.org (aquí se puede encontrar un listado de PCs que ya llevan la plataforma TC)


¿Defectos del lenguaje o problemas de interfaz? Ing. Bárbaro Socarrás Hernández barbaro@reduim.cu CIATE

T

odo el que tiene la difícil tarea de trabajar diseñando y elaborando sistemas y programas de computación, conoce que en ocasiones, los resultados de una operación matemática simple, no son los esperados, lo que ocurre con cierta frecuencia cuando se refiere a operaciones donde se manipulan números que representan ganancias y pérdidas de dinero, entonces se comprende enseguida porque, entre otras cosas, hay un usuario que espera el producto ese esfuerzo, el cual en muchos casos es económico de profesión y siempre sacará sus cuentas estilo bodeguero antiguo (a mano y en papel cartucho) o como el de estos tiempos, que utiliza calculadora o tal vez una calculadora científica.

Llegado a este punto, se tropieza con una función típica de las interfaces: servir de puente entre las partes involucradas. El tema de la interfaz entre la forma en que se manejan los números y de cómo lo hacen las máquinas está muy relacionado con lo que se conoce como Tipos de Datos contenidos en las definiciones de los lenguajes de programación a partir del estándar. Hay cierta similitud en los Tipos de Datos que manejan la mayoría de los desarrolladores, pues al final se habla de algo muy relacionado con los lenguajes y con los sistemas de operación por lo que esas definiciones permiten que los programas operen con diferentes tipos. Éstos pueden ser: •Cadenas de texto •Números Reales •Números Enteros •Otros Se toma como ejemplo los Tipos de Datos que utiliza el desarrollador Delphi versión 7, para representar los números reales, esos tipos se corresponden con los usados en la FPU y a su vez están contenidos en el estándar IEEE.

Los que trabajan con la primera versión de Delphi seguramente recuerdan que esta lista era más corta. La siguiente figura muestra una porción de la amplia referencia dedicada en la versión 7 a los Tipos de Datos, Variables y Constantes:

pan un lugar significativo. Se trata de llegar a un compromiso cuando el interés es el de trabajar con la cifra como entero despreciando los decimales. Al hacer pequeñas pruebas con el Desarrollador Delphi se observarán algunos resultados curiosos para observarlo, prepare un formulario con el siguiente aspecto:

En los botones Redondear y Borrar Dentro de los reales hay un "tipo curio- coloque el siguiente código respecso": el denominado Currency, que apa- tivamente: rece de repente a partir de Delphi 2 con una justificación procedure TForm1.RedondearClick(Sender: TObject); que se explicará, basado en los Var Valor: Double; llamados errores de redondeo ValorRedondeado: Integer; y errores de exactitud, los cuabegin les pueden presentarse cuanTry Valor:=StrToFloat(Edit1.Text); do se usa la aritmética de ValorRedondeado:=Round(Valor); punto flotante, muy necesaria Edit2.Text:=IntToStr(ValorRedondeado); en los programas que resuelexcept ven problemas del complejo ShowMessage('Valor de Entrada no Valido'); end; mundo económico. A contiend; nuación se puede observar más cerca la importancia de procedure TForm1.BorrarClick(Sender: TObject); dichas declaraciones.

Redondeando En la categoría de errores lógicos, los de redondeo ocu-

begin Edit1.Clear; Edit2.Clear; end;

[GiGA 1 / 2008]

31


softweriando Cuando corra el programa verá que la regla es: si el número que se pretende redondear es par el redondeo es hacia abajo y si es impar hacia arriba. Sobre esta característica del Desarrollador Delphi, los programadores han tenido que trabajar buscando soluciones en aplicaciones particulares, ya que la función Round simplifica mucho el trabajo. Algunos han empleado el ensamblador (muy cerca de la base de estas insuficiencias) y otros han trabajado en soluciones con la propia sintaxis del lenguaje y con la utilización de variantes de Tipos de Datos. Vea a continuación dos instancias de esta pequeña aplicación donde se muestran los resultados mencionados en la regla:

Defina un formulario en Delphi con los siguientes controles (RadioButton, ListBox y BitBtn):

A continuación escriba el código de dos procedimientos generales ComparaConDouble y ComparaConCurrency y el correspondiente a cada control como sigue:

En este ejemplo observará un resultado inesperado, ya que si al cero le suma un valor y luego resta el mismo valor, debe darle el cero que inició las operaciones, sin embargo, cuando el tipo de datos seleccionado es Double la comparación da el resultado que se muestra a continuación:

En la versión 7 del Desarrollador Delphi está presente el tipo de datos

Procedure ComparaConDouble; var Valor: Double; begin Valor:=0; Form1.ListBox1.Items.Add ('Tipo de Dato Double'); Form1.ListBox1.Items.Add ('Valor=0'); Valor:=Valor+0.05; Form1.ListBox1.Items.Add ('Valor:=Valor+0.05 = '+FloatToStr(Valor)); Valor:=Valor+0.05; Form1.ListBox1.Items.Add ('Valor:=Valor+0.05 = '+FloatToStr(Valor)); Valor:=Valor-0.05; Form1.ListBox1.Items.Add ('Valor:=Valor-0.05 = '+FloatToStr(Valor)); Valor:=Valor-0.05; Form1.ListBox1.Items.Add ('Valor:=Valor-0.05 = '+FloatToStr(Valor)); if Valor = 0 then Form1.ListBox1.Items.Add ('0 = 0') else Form1.ListBox1.Items.Add ('0 <> 0') end;

Soluciones para este problema se han publicado varias, algunas realizan las operaciones completamente por aplicaciones informáticas. Trate Usted de inventar alguna que tenga como base el ensamblador, lo que resulta como quitar el "ruido" que provoca la función definida en el Desarrollador, en otras palabras: mejorar la interfaz.

Comparando Cuando de comparaciones se trata el problema se complica y ya no se habla de "algunos resultados curiosos" sino de resultados catastróficos donde un número es posible que no sea igual al mismo número cuando se hace la comparación. ¿Sorprendido? Observe el ejemplo que sigue:

32

[GiGA 1 / 2008]

Procedure ComparaConCurrency; var Valor: currency; begin Valor:=0; Form1.ListBox1.Items.Add ('Tipo de Dato Currency'); Form1.ListBox1.Items.Add ('Valor=0'); Valor:=Valor+0.05; Form1.ListBox1.Items.Add ('Valor:=Valor+0.05 = '+FloatToStr(Valor)); Valor:=Valor+0.05; Form1.ListBox1.Items.Add ('Valor:=Valor+0.05 = '+FloatToStr(Valor)); Valor:=Valor-0.05; Form1.ListBox1.Items.Add ('Valor:=Valor-0.05 = '+FloatToStr(Valor)); Valor:=Valor-0.05; Form1.ListBox1.Items.Add ('Valor:=Valor-0.05 = '+FloatToStr(Valor)); if Valor = 0 then Form1.ListBox1.Items.Add ('0 = 0') else Form1.ListBox1.Items.Add ('0 <> 0'); end; procedure TForm1.CompararClick(Sender: TObject); begin if RadioButton1.Checked = true then ComparaConDouble else ComparaConCurrency; end; procedure TForm1.BorrarClick(Sender: TObject); begin ListBox1.Clear; end;


softweriando Currency que proviene del tipo Comp y de hecho permite la solución de este problema. La definición de este tipo es:

del contenido de la memoria (segmento de datos) y el contenido de los registros de la CPU, entre otros. Todos los datos se muestran en

Para observar su potencia pruebe el ejemplo anterior, pero sustituyendo la declaración de la variable Valor: Double por Valor: Currency. Este cambio se logra mediante la selección del RadioButton correspondiente y devolverá la confianza demostrando que casi todo tiene solución cuando de interfaces se trata. Vea el resultado a continuación:

hexadecimal por defecto. La figura siguiente muestra esa ventana:

La ventana FPU Detrás de las tablas Usted puede mirar que está pasando por detrás de la sintaxis que el Desarrollador le suministra para programar sus cuentas y sus comparaciones. Para esto hay dos herramientas muy importantes tales como:

La ventana CPU En las versiones de 32 bits, las operaciones aritméticas se realizan directamente con instrucciones de la CPU, cuando Usted corre el programa paso a paso en busca de errores (utilizando el Debugger), puede tener acceso a esta importante ventana si emplea la combinación CTRL+ALT+C. Dicha ventana suministra información de bajo nivel de la aplicación que está corriendo. En ella encontrará la instrucción en la que Usted está detenido detallada en ensamblador, un vaciado

Es muy útil cuando se trabaja con la aritmética de Punto Flotante. Para tenerla disponible sólo hay que usar la combinación CTRL+ALT+F, ella muestra un vaciado del segmento de datos (memoria) que utiliza el programa en ejecución. Igual que en el caso anterior los datos se muestran en formato hexadecimal por defecto. La siguiente figura, en ST0 puede apreciarse el efecto de conversión del tipo de datos Currency para la comparación descrita en el ejemplo anterior:

Esta ventana puede informar, mediante el control y el estado de las banderas (paneles de la derecha de la figura), lo que sucede en operaciones de redondeo, división por cero y otras. No todo está disponible con el uso de estas facilidades, por ejemplo los intentos de "debuggear" un segmento de código externo provocan inestabilidad, e

incluso, en algunos casos la necesidad de reiniciar el sistema

¿El resumen ya? Mi opinión es que vale la pena resumir, pues el objetivo es sólo despertar curiosidad y no que se dude de muchos de los programas que ya hemos hecho, porque casi todo el que programa, encuentra soluciones para esos problemas, incluso sin necesidad de conocer las especificaciones de los diferentes procesadores. Por cierto, un dato curioso: casi nadie suministra un software y da la posibilidad de resarcir daños y perjuicios por la presencia de errores lógicos ni cuentas que no dan. Ojo con los Tipos de Datos, éstos juegan un rol importante en las interfaces hombre-máquina. [GiGA 1 / 2008]

33


enredados

Ing. Osmany Vera Carballés División PCmax, Copextel

E

n la actualidad el mayor tráfico en Internet es del tipo unicast, la información llega a un único nodo (elemento activo capaz de recibir, procesar y enviar información) en la red; pero existe con menor frecuencia el de tipo multidifusión o multicast, en los que la información llega a más de un nodo simultáneamente en la red, sin llegar a ser todos. Cuando la información llega al mismo tiempo a la totalidad de los nodos en la red, se está en presencia de un tráfico de tipo difusión o broadcast. Los mecanismos de unicast y broadcast no emplean todo el ancho de banda o BW (Band Wide) disponible en la red. El mecanismo de tipo unicast no optimiza el BW al tener que enviar la misma información a nodos que pudieran ser atendidos al unísono. El mecanismo de broadcast lo desaprovecha al enviar la misma información a todos los nodos de la red, sean solicitantes o no de la información, y esto provoca que el rendimiento de los nodos sea más lento debido a que cada uno deberá procesar la información difundida independientemente de su solicitud. El mecanismo de multicast elimina las desventajas del unicast y el broadcast, mientras busca un término medio para la transmisión de altos flujos de datos como requiere el vídeo en la red. El multicast solamente envía la información a los nodos que la han solicitado y a diferencia

34

[GiGA 1 / 2008]

del mecanismo de broadcast, permite que cada nodo decida si quiere recibir la información. Por lo general, una tecnología de hardware y software reservará un conjunto extenso de direcciones para usarse con el multicast, por esto, el mecanismo de multicast ha permitido el soporte para aplicaciones multimedia en las redes de hoy. En la actualidad algunos tipos de aplicaciones necesitan un método eficiente para enviar datos a grupos de nodos en cualquier parte de la red, sea local o amplia. Se trata de enviar datos desde un origen a varios destinos, sin que lleguen a ser todos, distantes física y lógicamente. El método empleado para resolver las necesidades de estás aplicaciones es el mecanismo de multicast.

Multicast IP El mecanismo de multicast para datagramas IP (Internet Protocol) permite la abstracción del hardware y la transmisión de los datagramas IP a un conjunto de nodos que forman un unívoco grupo multicast. La pertenencia a estos grupos es un proceso dinámico, un nodo puede unirse o abandonar un grupo en cualquier momento, puede ser miembro de un número indeterminado de grupos o ser miembro de un grupo como receptor y ser emisor a otro grupo, entre otras facilidades. Cada grupo tiene una dirección de multicast única, siempre de clase D,

para un direccionamiento con IPv4 (Internet Protocol versión 4). En similitud a los servicios telemáticos con protocolos y puertos asignados, algunas direcciones IP están asignadas para multicast y corresponden a grupos que siempre existen aun cuando no posean miembros. Esas direcciones, se dice, son bien conocidas. Además de ésas, hay otras disponibles para usos temporales que corresponden a grupos transitorios que desaparecen cuando el número de miembros en los grupos se anula. Son aspectos importantes en el multicast IP, los siguientes: • La pertenencia a grupos es dinámica y permite a los nodos unirse a un grupo y abandonarlo en cualquier momento. • La capacidad de los nodos de unirse a grupos multicast se realiza mediante un protocolo. Específicamente con el envío de los mensajes del protocolo de administración de grupos de Internet o IGMP (Internet Group Management Protocol). • Los grupos no tienen límite en cantidad y los nodos miembros pueden estar dispersos en diferentes redes IP. Para este caso, los enrutadores de interconexión deberán ser capaces de soportar el mecanismo de multicast, enrutando tanto los datagramas IP como los mensajes IGMP. • Un nodo puede enviar datagramas IP a un grupo multicast aunque no pertenezca a ese grupo. • Multicast IP usa como protocolo de


enredados transporte a UDP (User Datagram Protocol). Es fácil apreciar que el mecanismo de multicast se hace muy conveniente para redes que deben soportar aplicaciones en tiempo real como las de tipo multimedia, sean streaming de audio, de vídeo, de audio y vídeo, voz sobre IP o VoIP (Voice over IP), vídeo en demanda o VOD (Video On Demand), videojuegos en línea (Online Video Game) y otros servicios telemáticos que soliciten adecuadas prestaciones y se utilicen a menudo como sistemas distribuidos.

Direccionamiento IPv4 para multicast Las direcciones de destino en los datagramas IP para multicast se definieron de clase D, es decir, la dirección destino en el datagrama IP comienza con los cuatros primeros bits más significativos o MSB (Most Significant Bit) iguales a 11102 y continúa con los otros posibles valores hasta alcanzar los 32 bits de la dirección IPv4. La tabla número 1 muestra los rangos asignados para el direccionamiento IPv4.

Tabla 1. Rangos asignados en el direccionamiento IPv4.

Hay disponibles 28 bits para completar una dirección IP para multicast, por lo que pudieran existir aproximadamente 268 millones (228=268435456) de grupos multicast diferentes. Sin embargo, hay rangos de direcciones IP para multicast bien definidos. La tabla número 2 muestra algunos de esos rangos de direcciones y sus propósitos. La tabla número 2 muestra también de forma general los rangos de direcciones y sus funciones. Algunos rangos que no se muestran están reservados por la agencia oficial que asigna, al menos, los nombres y direcciones para Internet o IANA (Internet Assigned Names Authority). Además, dentro de cada rango también hay direcciones específicas y subrangos reservados. Para ilustrar con mayor claridad se presentan algunos ejemplos en la tabla número 3. Para obtener una lista detallada de todas las direcciones IP para multicast asignadas por la IANA se puede consultar www.iana.org/assignments/multicast-addresses. Las direcciones IP para multicast sólo pueden emplearse como direcciones de destino. Nunca podrán aparecer en el campo de dirección fuente de un datagrama IP, ni en una tabla de rutas estáticas como dirección IP para el próximo salto. Por demás, no se generan mensajes de error ICMP (Internet Control Message Protocol) relacionados con datagramas IP de multicast; por ejemplo, destino inaccesible (3) y tiempo excedido para un datagrama (11), lo que exige mucho cuidado y rigurosidad al trabajar con esas direcciones.

Tabla 2. Rango de direcciones IPv4 para multicast y sus propósitos.

Direcciones Ethernet multicast Las direcciones Ethernet identifican a cada uno de los nodos y sus interfaces, de forma particular o en grupos, que conforman la red. Las llamadas direcciones de control de acceso al medio o dirección MAC (Media Access Control) están constituidas por 48 bits que usualmente se representan de diversas

Tabla 3. Algunas direcciones IPv4 para multicast específicas y sus propósitos. [GiGA 1 / 2008]

35


enredados formas: como una secuencia de bits agrupados en 6 octetos, como una secuencia de dígitos hexadecimales agrupados en 6 pares y como una agrupación de 3 cuartetos de símbolos hexadecimales, esta última muy usada por la compañía estadounidense Cisco System Inc., líder mundial en telecomunicaciones. Definitivamente la más usada es la segunda forma, pero de igual manera cualquier variante de representación significan e indican la misma información. Al igual que las direcciones IP, las de MAC pueden ser usadas para llegar a un único nodo en la red (trama unicast), todos los nodos de la red (trama broadcast) y como es lógico, a una cantidad, no mínima ni máxima, de nodos en la red (trama multicast). Las tramas unicast se identifican por tener como dirección MAC destino, la MAC que se graba en la memoria de tipo ROM (Read Only Memory) que poseen las interfaces o BIA (Burned In Address), también conocidas como las direcciones administradas universalmente o AAUs (Universally Administered Addresses) que son asignadas por el Instituto de Ingenieros en Electricidad y Electrónica de Estados Unidos o IEEE (Institute of Electrical and Electronics Engineers). Como se indicó anteriormente, las direcciones MAC están compuestas por 48 bits, donde los 24 bits más significativos indican el identificador único de la organización u OUI (Organizationally Unique Identifier) asignado por el IEEE a los fabricantes. Los restantes bits, los 24 bits menos significativos, serán asignados por el fabricante a sus productos logrando así que sea única la dirección MAC del producto que será usada como dirección MAC destino en la trama Ethernet unicast. Las tramas broadcast poseen la dirección MAC destino con los 48 bits en "1" lógico, o sea, el valor FF:FF:FF:FF:FF:FF16 que implica una dirección de difusión y con ello que las tramas lleguen y sean procesadas por todos los nodos de la red. Las tramas multicast, al igual que las de tipo broadcast, tiene que ser conformadas de manera que lleguen a los nodos que se desee en la red. Para multicast, simplemente se tiene reservada una condición en el valor de la dirección MAC destino de la

36

[GiGA 1 / 2008]

trama, el valor fijo 01:00:5E16 del OUI. Cuando se usa multicast IP en Ethernet, la dirección MAC destino de la trama Ethernet estará en el rango de 01:00:5E:00:00:0016 a 01:00:5E:7F:FF:FF16. Para mayor comprensión, la figura 1 muestra un esquema que ilustra el mapeo de los valores bit a bit en la traslación de direcciones multicast. La figura 1 muestra esquemáticamente la relación bit a bit de una dirección IP destino en un datagrama IP multicast hacia una dirección MAC destino en una trama Ethernet multicast. Los bits del orden del 5 al 9 de la dirección IP del datagrama IP no se usarán en el mapeo hacia la creación de la dirección MAC destino en la trama, aunque son parte de los 28 bits que conforman el identificador del grupo multicast.

Los algoritmos utilizados por los protocolos multicast son: Propagación por la Trayectoria Inversa o RPF (Reverse Path Forwarding) y Árbol Centralizado o CBT (Core Based Trees).

Propagación por trayectoria inversa El algoritmo RPF construye un árbol de entrega desde el nodo emisor u origen hasta cada miembro del grupo. Para ello, cada datagrama IP multicast recibido en un enrutador se reenviará por las restantes interfaces que cuenten con miembros del grupo, siempre que la interfaz por la que llegue sea la utilizada por el enrutador para enviar datagramas IP unicast hacia el nodo emisor del datagrama IP multicast, principio de trayectoria inversa. Los árboles así

Fig. 1 Esquema de asignación bit a bit para la traslación de direcciones multicast.

Algoritmos para multicast IP Los algoritmos para la entrega multicast IP permiten mantener los árboles de distribución o entrega multicast entre los nodos, en especial los enrutadores y así lograr alcanzar a todos los miembros de un grupo multicast. Los algoritmos deben realizar como mínimo las tareas siguientes: • Encaminar únicamente los datagramas IP a los miembros del grupo multicast. • Optimizar las rutas desde el origen hasta cada destino y evitar bucles. • Distribuir la carga por todas las ramas de la estructura topológica que alcance el árbol de distribución multicast. • Mantener el árbol de distribución multicast mediante un modelo de señalización eficiente y escalable.

obtenidos mantienen rutas óptimas y son dependientes de cada origen. Distintos orígenes darán lugar a diferentes árboles, con lo cual se distribuye mejor la carga para la transferencia de datos multicast por toda la red. El algoritmo RPF consta de un mecanismo de verificación. Siempre que se cumpla el principio de trayectoria inversa, el datagrama IP enviado por el nodo emisor será reenviado por las demás interfaces que conecten a nodos asociados al grupo multicast en cuestión. Cuando no se cumpla el principio de trayectoria inversa, el datagrama IP será descartado y por tanto no se reenviará. Además, se verifica que nunca se reenvíe por la misma interfaz que fue recibido para evitar un reenvío innecesario al origen.


enredados Árbol centralizado En este algoritmo se selecciona un enrutador que actuará como punto central o CP (Center Point). El CP no es más que la raíz del árbol de entrega para los nodos de un mismo grupo multicast. Cuando un nodo envíe un informe de pertenencia IGMP (tipo de mensaje del protocolo IGMP que indica que el nodo de origen pertenecerá a un grupo multicast) para conectarse a un grupo multicast, su petición irá ascendiendo hacia el punto central. Se activará la estructura y en caso de que no exista, se irán estableciendo nuevas ramas del árbol en el camino hacia el CP. Para ello, si el enrutador que recibe la solicitud ya forma parte del árbol de entrega de ese grupo multicast, es decir, ya tiene registrados otros nodos miembros del grupo, verificará si la interfaz por la que recibió la petición está asociada al grupo, si no es así, la asociará y añadirá una rama nueva al árbol por medio de la interfaz. Si el enrutador no forma parte del árbol, reenvía la petición hacia el enrutador multicast más próximo que se encuentre en el camino hacia el CP y creará igualmente una rama nueva al árbol. El árbol así obtenido es óptimo, desde el CP hasta los nodos miembros de un mismo grupo, pero obliga a que el envío multicast desde un nodo origen se haga primero al CP para su posterior reenvío a los nodos destino y provoca trayectos semióptimos. Otra característica de algoritmo CBT es que el árbol obtenido es único para un grupo multicast e independiente de los nodos que lo originan.

Protocolos para multicast Los protocolos son los responsables del mantenimiento de los árboles de distribución, utilizando los algoritmos descritos o variantes de éstos. Como soporte en la toma de decisión de los algoritmos, el enrutador puede hacer uso de información de encaminamiento unicast, como las tablas de enrutamiento, o simplemente obtener la información necesaria mediante el propio protocolo multicast. En función de las aplicaciones y las dimensiones de la red, los distintos protocolos para el encaminamiento multicast se clasifican en: • Densos (Dense mode)

• Esparcidos (Sparse mode) Los protocolos densos están diseñados para entornos en los que existen muchos nodos miembros de un grupo multicast en la red, y se cuente con suficiente BW. La estrategia que se sigue es partir de un árbol muy denso; por ejemplo, uno que conecte todas las subredes se irá podando al recibir notificaciones explícitas por parte de los enrutadores de que no hay actividad en una rama concreta. Habitualmente se utiliza el algoritmo RPF para esta variante. Los protocolos esparcidos se emplean en redes de gran cobertura y donde existan pocos nodos miembros de un grupo multicast. La estrategia que se sigue es construir un árbol en función de la pertenencia a un grupo multicast mediante las notificaciones explícitas por parte de los enrutadores, reduciendo así la carga por control necesaria. Habitualmente se basan en el algoritmo CBT.

DVMRP (Distance Vector Multicast Routing Protocol) Este es un protocolo para el enrutamiento multicast de tipo denso, muy conocido y utilizado en pequeños y medianos sistemas autónomos AS (Autonomous System). Se basa en un modelo de vector distancia similar a los protocolos de enrutamiento unicast como RIP (Routing Information Protocol), y tiene muchas similitudes con RIPv2 (Routing Information Protocol version 2), protocolo basado en vector distancia y métrica de saltos. DVMRP se usa en entornos semejantes a los recomendados para usar el protocolo de enrutamiento RIP. DVMRP crea el árbol de entregas multicast utilizando como punto de partida un árbol de entregas broadcast al que se le realizan podas para limitar su alcance. Para ello se construye un árbol broadcast desde el origen mediante el algoritmo RPF y a continuación se van podando ramas hasta que sólo queden las activas, que exclusivamente alcanzan a los nodos miembros de los grupos multicast. La estrategia que realiza DVMRP es la siguiente: • Cada enrutador envía periódicamente su tabla de rutas, vector distancia, a los enrutadores vecinos con el uso de la dirección IP destino reservada 224.000.000.004, que recibirán todos los enrutadores que imple-

menten DVMRP. Con los vectores distancia recibidos, cada enrutador calculará las rutas óptimas hacia las distintas redes destino existentes, que se hace igual a como lo ejecuta el protocolo RIP, pero para el intercambio de datagramas IP multicast en sí se utiliza el algoritmo RPF. Con el envío del primer datagrama IP multicast a un grupo se establece un árbol que alcanza todas las subredes, aunque éstas no tengan nodos que sean miembros activos de ese grupo. A continuación habrá que podar las ramas inactivas. Cada enrutador que ha recibido un datagrama IP multicast de un grupo y no cuenta con nodos miembros del mismo en sus interfaces, enviará un mensaje de poda al enrutador superior por la misma interfaz por donde recibió el datagrama IP multicast. Igual hará el enrutador superior si recibe mensajes de poda por las interfaces que usó para el reenvió del datagrama IP multicast, y sucesivamente hasta crear el árbol para ese grupo multicast. De esa manera, los enrutadores tienen que recordar los mensajes de poda que han enviado porque las podas tienen una validez limitada, pues caducan a los 7200 segundos (2 horas), y tendrán que renovarse transcurrido ese tiempo. Igualmente, si se realiza la conexión de un nuevo nodo al grupo multicast y esa rama del árbol está podada, el enrutador deberá enviar un nuevo mensaje de conexión para reconstruir nuevamente la antigua rama podada.

MOSPF (multicast OSPF) MOSPF se considera una extensión multicast del protocolo OSPF (Open Shortest Path First), basado en algoritmos de estado de enlace. Así opera el MOSF: Los enrutadores difunden dentro de cada área OSPF información sobre los grupos multicast activos y sus nodos miembros. De este modo, cada enrutador cuenta con esa información y puede calcular de forma independiente las rutas para el camino más corto desde un origen hacia todos los nodos miembros del grupo multicast y reenviar adecuadamente los datagramas IP multicast que reciba por cualquiera de sus interfaces. Para el intercambio de información sobre grupos multicast con enrutadores de otras áreas OSPF, se utilizan los enrutadores de fronteras de áreas [GiGA 1 / 2008]

37


enredados ABR (Area Border Router). Para evitar la difusión innecesaria de tráfico multicast, uno de los ABR asume la tarea de centralizar la información y distribuir los envíos multicast entre áreas. MOSPF se suele clasificar como un protocolo denso porque utiliza el broadcast para propagar la información sobre grupos multicast y sus nodos miembros, aunque no usa técnicas de broadcast para el envío de los datagramas IP multicast a cada nodo de un grupo multicast, sino todo lo contrario: los datagramas IP multicast se envían exclusivamente a cada nodo del grupo y por el camino más corto. Desde este punto de vista pudiera considerarse como un protocolo esparcido. En todo caso es un protocolo con dependencia plena de OSPF, y por ello, sólo se implementa en redes con enrutamiento unicast OSPF.

PIM (Protocol Independent Multicast) Debido a la complejidad de MOSPF y a su dependencia de un modelo de enrutamiento unicast se desarrolló PIM, un protocolo multicast independiente del unicast utilizado y que se ha convertido en el protocolo de enrutamiento multicast estándar por defecto. PIM define dos modos de operación: denso y esparcido, para adecuarse a la densidad de nodos en un grupo multicast presentes en un AS. Ambos modos, denso y esparcido, pueden convivir en un mismo AS y conmutar entre los modos en un mismo grupo multicast en función de la cantidad de nodos miembros. PIM-DM (Protocol Independent Multicast - Dense Mode) realiza el algoritmo RPF. Para determinar si un datagrama IP multicast ha entrado por la ruta correcta se utiliza la información disponible, a menudo, la tabla de enrutamiento mantenida con el protocolo unicast adoptado. De manera similar al protocolo DVMRP, PIM-DM construye inicialmente un árbol broadcast que lleva desde el origen a todos los enrutadores multicast y posteriormente se utiliza la información recolectada por medio de IGMP y difundida desde los nodos miembros del grupo multicast hacia el origen para podar las ramas inactivas y convertir el árbol broad-

38

[GiGA 1 / 2008]

cast en uno multicast y óptimo. Debe mantenerse la información sobre las ramas podadas para un grupo por si hay que volver a reactivarlas. Ese proceso se conoce como injerto. PIM-DM es un protocolo muy simple de implementar. Su enfoque denso lo hace adecuado para entornos donde hay pocos grupos multicast con muchos nodos miembros, poca distancia entre emisores y receptores y un alto volumen de tráfico multicast. PIM-SM (Protocol Independent Multicast - Sparse Mode) utiliza una variante del algoritmo CBT basado en un punto de reunión RP (Rendezvous Point), que tiene una función equivalente al CP del CBT. El RP es la localización donde los que originan se conectan lógicamente con los nodos receptores del grupo multicast. La operación de PIM-SM consiste en que todos los que originan deben registrarse en el RP, así como todos los receptores se integrarán en un árbol con raíz en el RP, y se envían para ello mensajes de conexión en el momento en que un nuevo integrante se activa. Esos mensajes progresan hacia el RP y sirven para abrir nuevas ramas o integrar la nueva ruta en una rama ya existente hacia el RP. Inicialmente, el tráfico desde el que origina se envía al RP y por el árbol multicast se reenvía a los nodos destinatarios. Para mantener el árbol de entrega multicast, sólo se mantienen las ramas orientadas hacia los nodos que han solicitado explícitamente su conexión al grupo. Para descartar o podar ramas obsoletas, los enrutadores integrados en el árbol multicast deben enviar periódicamente mensajes hacia el RP para confirmar la existencia de las ramas. Si se dejan de recibir estos mensajes, las ramas en cuestión serán podadas. No se guardará información sobre las podas realizadas ya que una reactivación de las ramas por nuevos miembros se indicará explícitamente. Como se expresó en el tema de los algoritmos, los caminos entre uno que origina y los destinatarios son semióptimos, ya que el tráfico se envía por el RP y no tiene que ser necesariamente el camino más corto entre el origen y los destinos. Una vez que comienzan los envíos será posible rehacer el árbol de entregas multicast, con raíz en RP, en otro

árbol que tenga como raíz al de origen, y así los caminos más cortos serán los más óptimos. Para eso se utilizan los mensajes periódicos de conexión desde el que origina, que activan los nuevos caminos óptimos, hacia los destinos y cuando esté creado el nuevo árbol, de caminos óptimos, se podarán los árboles que emplean el RP como raíz. Finalmente se puede afirmar que PIM-SM es adecuado en entornos con pocos nodos receptores en cada grupo multicast y escaso BW, como pueden ser nuestros entornos empresariales.

Conclusiones Al valorar la necesidad del mecanismo multicast, se concluye que para el envío de la misma información a varios receptores al unísono, mayor y mejor uso del BW disponible, menor procesamiento y latencia en los nodos, etc. y la gran variedad de servicios que hoy necesitan de él para su óptimo desempeño; distribución masiva de audio y vídeo, distribución de información de interés común como las bolsas de valores, los anuncios, los resultados de eventos y las noticias, así como la replicación de datos de diversa índole, los juegos distribuidos y otros, son razones muy convincentes para decidir la implementación del mecanismo de multicast. En los entornos empresariales nacionales, sean las redes corporativas del sector empresarial e industrial, las infraestructuras de telecomunicaciones que soporten la transferencia de imágenes médicas, las multimedias educativas y otros datos que demandan altas tasas de transferencia, elevado BW y adecuada relación bit error o BER (Bit Error Ratio) es muy conveniente implementar multicast IP. Actualmente están disponibles equipos activos que conforman el hardware encargado del procesamiento, conmutación y enrutamiento de los datos útiles y necesarios para la implementación de multicast IP mediante el protocolo de administración de grupos de Internet IGMP con su más reciente versión. La División PCmax, Tecnología Informática, perteneciente a la Corporación Copextel, S.A. presenta entre su cantera de productos tecnología asociada a tales fines.


enredados

Ing. Vilma González Pérez vilma@sis.copextel.com.cu SIS, Copextel

L

a producción acelerada y masiva de contenidos educativos que desarrollará la División SIS de Copextel, en el próximo período ha hecho imprescindible el uso de Sistemas de Gestión de Contenidos, aprovechando las bondades de éstos relacionados con la rapidez con que se consigue un producto final, y el mantenimiento simple así como bien definido del producto final; además, de la inmensa cantidad de productos de este tipo que existen en software libre y la disponibilidad de componentes u objetos disponibles en la Web para ellos.

¿Qué es un CMS? Un CMS, Content Management System o Sistema de gestión de contenidos permite la creación y administración de contenidos principalmente en páginas web; es por eso que también son conocidos como gestores de contenido web (Web Content Management o WCM), por el contrario, la definición acrónima de CMS (Content Management System) se aplica generalmente para referirse a sistemas de publicación. Consiste en una interfaz que controla una o varias bases de datos donde se aloja el contenido del sitio. El sis-

tema permite manejar de manera independiente el contenido y el diseño. Así, es posible manejar el contenido y darle en cualquier momento un diseño distinto al sitio, sin tener que dar formato nuevamente al contenido, además de permitir y controlar de forma simple la publicación en el sitio a varios editores. Un ejemplo clásico es el de editores que cargan el contenido al sistema, otro de nivel superior permite que esos contenidos sean visibles a todo el público y otro nivel superior, administra todos los derechos.

¿Cómo funciona? Un sistema de administración de contenido a menudo funciona en el servidor del sitio web. Muchos sistemas proporcionan diferentes niveles de acceso según el usuario, y varía si se trata del administrador, editor o creador de contenido. El acceso al CMS es generalmente vía el navegador, y en ocasiones se requiere el uso de FTP para subir el contenido, casi siempre contenido multimedia. Los elaboradores de contenido crean sus documentos en el sistema. Los editores, los comentan, aceptan o rechazan. El editor jefe es responsable de publicar el trabajo en el sitio. El CMS controla y ayuda a manejar

cada paso de este proceso, incluyendo las labores técnicas de publicar los documentos a uno o más sitios. En muchos sitios con CMS una sola persona hace el papel de creador y editor. Los blogs generalmente funcionan de esta manera. Creación de contenido Un CMS aporta herramientas para que los creadores sin conocimientos técnicos en páginas web puedan concentrarse en el contenido. Lo más habitual es proporcionar un editor de texto WYSIWYG (What You See Is What You Get o "lo que ves es lo que obtienes"), en el que el usuario ve el resultado final mientras escribe, al estilo de los editores comerciales, pero con un rango de formatos de texto limitado. Esta limitación tiene sentido, ya que el objetivo es que el creador pueda poner énfasis en algu[GiGA 1 / 2008]

39


enredados nos puntos sin modificar mucho el estilo general del sitio web. Hay otras herramientas como la edición de los documentos en XML, utilización de aplicaciones ofimáticas con las que se integra el CMS, importación de documentos existentes y editores que permiten añadir marcas, habitualmente HTML, para indicar el formato y estructura de un documento. Un CMS puede incorporar una o varias de estas herramientas, pero siempre tendría que proporcionar un editor WYSIWYG por su facilidad de uso y la comodidad de acceso desde cualquier ordenador con un navegador y acceso a Internet. Para la creación del sitio propiamente dicho, los CMS aportan herramientas para definir la estructura, el formato de las páginas, el aspecto visual, uso de patrones y un sistema modular que permite incluir funciones no previstas originalmente. Gestión de contenido Los documentos creados se depositan en una base de datos central donde también se guardan el resto de datos de la web, cómo son los relativos a los documentos (versiones, autor, fecha de publicación y caducidad, etc.), datos y preferencias de los usuarios, la estructura de la web, etc. La estructura de la web se puede configurar con una herramienta que habitualmente presenta una visión jerárquica del sitio y permite modificaciones. Mediante esta estructura se puede asignar un grupo a cada área con responsables, editores, autores y usuarios con diferentes permisos. Eso es imprescindible para facilitar el ciclo de trabajo (workflow) con un circuito de edición que va desde el autor hasta el responsable final de la publicación. El CMS permite la comunicación entre los miembros del grupo y realiza un seguimiento del estado de cada paso del ciclo de trabajo. Publicación Una página aprobada se publica automáticamente cuando llega la fecha de publicación, y cuando caduca se archiva para futuras referencias. En su publicación se aplica el patrón definido para toda la web o para la sección concreta donde está situada, de forma que el resultado final es un sitio web con un aspecto

40

[GiGA 1 / 2008]

consistente en todas sus páginas. Esta separación entre contenido y forma permite que se pueda modificar el aspecto visual de un sitio web sin afectar los documentos ya creados y libera a los autores de preocuparse por el diseño final de sus páginas.

Puntos importantes • Simple inclusión de nuevas funcionalidades en su sitio. Con un CMS eso puede ser tan simple como incluir un módulo realizado por terceros, sin que suponga muchos cambios en la web. El sistema puede crecer y adaptarse a las necesidades futuras. • Mantenimiento de gran cantidad de páginas. En una web con muchas páginas se necesita un sistema para distribuir los trabajos de creación, edición y mantenimiento con permisos de acceso a las diferentes áreas. También han de gestionarse los metadatos de cada documento, versiones, la publicación y caducidad de páginas y los enlaces rotos, entre otros aspectos. • Reutilización de objetos o componentes. Un CMS permite la recuperación y reutilización de páginas, documentos, y en general de cualquier objeto publicado o almacenado. • Páginas interactivas. Las páginas dinámicas no existen en el servidor tal como se reciben en los navegadores, sino que se generan según las peticiones de los usuarios. • Independencia de presentación y contenido. Los CMS facilitan los cambios con la utilización, por ejemplo, del estándar CSS (Cascading Style Sheets u hojas de estilo en cascada) con lo que se consigue la independencia de presentación y contenido. • Consistencia de la web. No significa que todas las páginas sean iguales, sino que hay un orden (visual) en lugar de un caos. Los CMS pueden aplicar un mismo estilo en todas las páginas con el mencionado CSS, y una misma estructura mediante patrones de páginas. • Control de acceso. No consiste simplemente en permitir la entrada a un sitio web, sino el gestionar los diferentes permisos a cada área del sitio web aplicados a grupos o individuos.

Tipos Hay multitud de diferentes CMS.

Pueden agruparse según el tipo de sitio que permiten gestionar. A continuación se muestran los más representativos: Genéricos: Ofrecen la plataforma necesaria para desarrollar e implementar aplicaciones que den solución a necesidades específicas. Pueden servir para construir soluciones de gestión de contenidos, de comercio electrónico, blogs, portales... Ejemplos: Zope, OpenCMS, Typo3 y Apache lenya. Foros: sitio que permite la discusión en línea donde los usuarios pueden reunirse y discutir temas en los que están interesados. Ejemplos: phpBB, SMF y MyBB. Blogs: Publicación de noticias o artículos en orden cronológico con espacio para comentarios y discusión. Ejemplos: WordPress, Movable Type, Custom CMS, Blogsmith/Weblogs, Gawker CMS, TypePad, Blogger/Blogspot, Drupal, Plone y Scoop. Wikis: Sitio web dónde todos los usuarios pueden colaborar en los artículos, aportando información o reescribiéndola. También permite espacio para discusiones. Indicado para material que irá evolucionando con el tiempo. Ejemplos: MediaWiki y Tikiwiki. eCommerce: Sitios web para comercio electrónico. Ejemplo: osCommerce y Dynamicweb eCommerce. Portal: Sitio web con contenido y funcionalidad diversa que sirve como fuente de información o como soporte a una comunidad. Ejemplos: PHP-Nuke, Postnuke, Joomla, Drupal, e-107 y Plone. Galería: Permite administrar y generar automáticamente un portal o sitio web que muestra contenido audiovisual, normalmente imágenes. Ejemplo: Gallery. e-Learning: Sirve para la enseñanza de conocimientos. Los usuarios son los profesores y estudiantes. Existen aulas virtuales donde se pone a disposición el material del curso. La publicación de un contenido por un profesor es puesta a disposición de los estudiantes, en un aula virtual, de ese contenido. Ejemplo: Moodle. Publicaciones digitales: son plataformas especialmente diseñadas teniendo en cuenta las necesidades de las publicaciones digitales, tales como periódicos, revistas, etc. Ejemplo: ePrints.


joystick Luis Yasser Vila Cabrera

A

veces hace hasta lo imposible por aparentar una edad inferior a la que se tiene, sin embargo, el cerebro envejece día tras día sin que se repare en ello. A raíz de esa problemática, la compañía Nintendo, líder del sector de los videojuegos, lanzó al mercado un título único, capaz de mejorar con un entrenamiento continuo, una memoria venida a menos por el paso de los años. Este juego llamado Brain Training (Entrenamiento Mental) ha rediseñado el mundillo de las consolas y convencido a millones de nuevos seguidores en todo el mundo. Si quiere saber qué se esconde detrás de este inesperado superventas, lea el siguiente material.

¿Cómo nació Brain Training? En mayo del 2004 los directivos de Nintendo se reunieron en las oficinas centrales de la empresa, con sede en Kyoto, antigua capital de Japón. Entre ellos se encontraba el anciano Atsushi Asada, miembro honorífico del comité ejecutivo de la compañía quien a punto de jubilarse expuso la siguiente reflexión: "Tengo casi setenta años y llevo media vida trabajando en Nintendo, sin embargo, yo, ni ningún amigo de mi edad hemos encontrado todavía un producto que nos interese, ¿Qué podemos hacer al respecto?". La observación era muy acertada, pero como poco después comentó Satoru Iwata (presidente de Nintendo) enfocarla sólo hacia los ancianos era un error. Según él había que inventar una forma de jugar que atrajera a todo el mundo: desde los más jóvenes, pasando por la gente de mediana edad, hasta llegar a los ancianos. Entonces afloró la segunda interrogante: ¿Por qué desde cierto rango de edad las personas no se interesaban por los juegos? La respuesta era bien sencilla y generalizada: la mayoría los contem-

plaban como una actividad totalmente inútil y una pérdida de tiempo que no reportaba algún beneficio. Llegados a este punto, los chicos del gigante nipón tenían el molde para solucionar el problema: crear un juego que convenciera al gran público de que jugar podía ser más que una simple y pasajera diversión. Meses después, y de la forma más inesperada, llegaría la materia prima: la idea del millón que lo revolucionaría todo. Yoshihiro Mori, responsable financiero de la empresa, era uno de los miles de japoneses que se habían aficionado al Brain Exercises, un libro de ejercicios mentales escrito por un reconocido neurocientífico llamado Ryuta Kawashima. Al percatarse de su potencial, Mori propuso a Iwata la idea de llevar los citados pasatiempos a Nintendo DS, ya que la portátil contaba con las características idóneas: reconocimiento de voz y escritura mediante la pantalla táctil. Dicho y hecho. El presidente de la gran N se reunió con el afamado profesor Kawashima y le mostró la recién nacida portátil. Como era de esperar el médico quedó prendado con las bondades de la maquinita y decidió apoyar la idea. Pero faltaba lo más difícil: convencer a los desarrolladores de Nintendo. Para persuadirlos, el gran jefe se reunió con un equipo de nueve personas, les explicó en qué consistía el proyecto y al ver el poco entusiasmo, les dio un plazo de noventa días para desarrollarlo; así al menos no se quejarían de perder demasiado tiempo. Cuando estuvo listo para salir al mercado, la reacción de los distribuidores fue parecida: mucha cautela, de hecho los primeros resultados de ventas arrojaron unas escasas 45 000 unidades. Lo cual a primera vista podría parecer un fracaso. Sin embargo, estos primeros compradores no eran el nuevo público al que

quería conquistar Nintendo, sino sus fieles seguidores. La avalancha vino después, cuando estos habituales descubrieron que podían compartir su experiencia con sus padres e, incluso, sus parejas. Resultado: desde hace casi dos años ningún otro título se ha mantenido prácticamente semana tras semana en el TopTen y ahí sigue con más de cinco millones de copias comercializadas juntando la primera y segunda entregas sólo en Japón, y más de diez millones en todo el mundo.

Caja de la primera entrega

Importante

Kawashima

A pesar de ser un juego gráficamente básico y de mecánica sencilla, la conversión a los mercados occidentales (América, Europa, etc.) fue más compleja, ya que al utilizar el reconocimiento de voz y la escritura en pan[GiGA 1 / 2008]

41


joystick igual posición en la que antes aparecían los números. La finalidad es recordar la posición y ordenarlos de menor a mayor. Con sólo cuatro dígitos es fácil, pero no es lo mismo cuando llegan a ser doce.

talla tuvo que someterse a un proceso de traducción y localización más detallado de lo habitual.

El reto de Brain Training

Cuentasílabas: Como su nombre indica, el ejercicio consiste en contar todas las sílabas de una frase. Resulta muy sencillo hasta que se enfrente con diptongos e hiatos en los que el cerebro se pondrá a toda marcha. Consola Nintendo DS Más Brain Training

Posición de la consola para jugar al Brain Training

Al comenzar el juego lo primero que se pide al usuario es saber si escribe con la mano izquierda o la derecha. En caso de ser diestro, la orden será girar la consola 90º a la derecha, y si es zurdo lo contrario. Así, la pantalla táctil queda en el lado de la mano que no sujeta la consola; hay que destacar la comodidad de ésta al encontrarse en esa posición. Puede que sea porque el ojo humano esté acostumbrado a leer de izquierda a derecha y con la DS girada en ese ángulo están las pantallas una al lado de la otra y no encima. Juegos como Hotel Disk 215 ó Another Code, también utilizan esta variante.

Entrando en materia Este juego fue concebido con el objetivo de mejorar la capacidad mental del usuario y lo primero que averiguará es cuántos años tiene su cerebro. El profesor Kawashima, o mejor: su recreación poligonal empezará con una prueba que demostrará una de las cualidades del juego: el reconocimiento de voz gracias al micrófono integrado. En ambas pantallas aparecen palabras coloreadas con el objetivo de decir el color de la palabra. Por ejemplo, si aparece la palabra "negro" coloreada de rojo, hay que decir rojo y no negro. Esta simple prueba hace que el cerebro entre en conflicto: por un lado, lee la palabra negro, y por otro identifica el color rojo, el esfuerzo para descartar lo que lee y decir sólo el color variará para cada jugador. El reto será llegar a los veinte años, edad óptima de nuestro cerebro en la escala Kawashima. Este dato casi define el estilo del

42

[GiGA 1 / 2008]

comprador: un usuario adulto, que empieza a darse cuenta que no sólo lo físico sufre con el paso de los años, sino también la capacidad de recordar cosas cotidianas como un número de teléfono, el nombre de calles o incluso claves secretas. Eso sí, hace falta jugar durante varias semanas para desbloquear todas las pruebas, lo que garantiza en cierta medida la continuidad temporal del juego, con especial hincapié en su objetivo: mejorar la edad cerebral. A continuación se hace un breve repaso a varios de los ejercicios mentales que plantea el juego: Cálculo 20: La prueba más rápida y la primera que se encuentra. En la pantalla izquierda aparecen cálculos muy básicos: sumas, restas y multiplicaciones que dan como resultado un número entre cero y cien. En la táctil se debe escribir el resultado lo más rápido posible. Cálculo 100: La misma prueba que la anterior, pero hasta cien cálculos mentales. Con la práctica se podrá desbloquear un modo difícil que incluye divisiones y cálculos más complejos. Lecturas: La prueba consiste en leer varias páginas de literatura (el idioma cambia según la versión de cada región), mientras el juego marca un tiempo. El objetivo es leer lo mejor y más rápido posible. En este caso, si se hace trampa y se pasan las páginas muy rápido, el propio programa recordará no engañarse a sí mismo. Retentiva: En la pantalla de la izquierda aparecen unos números en una disposición concreta. A los dos segundos desaparecen y en la pantalla derecha salen unos cuadrados en

Cuentapersonas: Igual de evidente que el anterior. El juego empieza con un número de personas dentro de una casa. Luego comienzan a entrar más gente por un lado y a salir por el otro; en niveles difíciles, algunos llegan a entrar hasta por la chimenea. Estas pruebas reflejan un resultado importante, ya sea el tiempo utilizado o un determinado valor. Diariamente estos datos quedan registrados en una tabla gráfica que marca la evolución en cada prueba, incluso comparándolo con otros amigos o familiares que también hayan introducido su perfil en el juego y sigan el entrenamiento diario. Paralelo a estos ejercicios se encuentra un test cerebral que se puede realizar todos los días. Lo primero que se pregunta al usuario en este caso, es si está en un sitio en el que pueda hablar en voz alta, para evitar situaciones como las de estar hablando con la consola en pleno autobús. Las pruebas en este caso son tres de todas las disponibles y son escogidas al azar por el sistema.

Problemillas técnicos Cuando todo fluye con rapidez y precisión, Brain Training crea adictos totales. Incluso, es posible afirmar que es el título que mejor demuestra las posibilidades del dúo táctil-micrófono de Nintendo DS. Además, la mecánica es muy intuitiva y todo está perfectamente explicado. Si a eso se suma que el único botón a pulsar para iniciar la partida es el Power, se considera estar ante el videojuego idóneo para todo tipo de público, desde los habituales hasta los que nunca han tocado una consola. Hasta aquí viento en marcha. Pero cuando no se consigue que el número dibujado sea reconocido, las ganas de apagar la consola y decir hasta mañana son inaguantables. Esto sucede


joystick mucho con la escritura del número cuatro, ya que suele identificarse como un nueve. La cosa se complica en la prueba de recordar palabras, pues la i puede ser j, o también una l ó la t una x.

¿Quién es el doctor Kawashima?

El doctor Ryuta Kawashima

Nacido en la ciudad japonesa de Chiba, su fama mundial llegó gracias al Brain Training para Nintendo DS. No obstante, el doctor Ryuta Kawashima ya triunfaba en Japón gracias a su libro de ejercicios mentales y era una figura destacada en la comunidad científica por sus logros en el campo de las imágenes funcionales del cerebro, ciencia que investiga y estudia la comprensión de las funciones de cada área de este órgano. Actualmente es catedrático en la Universidad de Tohuku.

pués de realizar algunos cálculos matemáticos y de una breve lectura en voz alta.

Dos preguntas claves ¿Cómo se mide la estimulación cerebral?: Es posible capturar la actividad de este importante órgano mediante el sistema de imágenes por resonancia magnética. Este procedimiento refleja el flujo de sangre. ¿Qué es el córtex prefrontal?: Es una parte del cerebro desarrollada única y exclusivamente en humanos. Otorga las habilidades de procesamiento mental típicas de los humanos: pensar, crear, comunicarse con otras personas, concentrarse, etc. También se cree que es un área de almacenamiento y procesamiento de información. De igual modo tiene una gran influencia en las acciones y emociones de las personas.

Concluyendo

Respuestas del genio Según el doctor Kawashima, si sólo se utiliza el cuerpo para movimientos rutinarios, la fuerza física se ve mermada con el paso del tiempo, lo cual significa que la actividad diaria no es suficiente para mantenerse. Sus estudios plantean que algo similar ocurre con el cerebro humano, ya que la rutina del día a día no supone un desafío para la mente. Por eso deben realizarse diferentes tareas mentales durante unos diez minutos y de manera diaria. La experiencia y varias pruebas realizadas a más de cien voluntarios han demostrado la efectividad de este entrenamiento cerebral. En cuanto a los modos de estimular el cerebro, existen tres principios. En primer lugar: escribir, leer y calcular. Luego, la acción de comunicarse con otra persona de manera eficiente. Y por último la creación manual. De hecho, los resultados de varios test que ha realizado el Dr. Ryuta demuestran que la capacidad de memorización se incrementa en 20 y 30% cuando se comparaba la memoria antes y des-

La segunda entrega incluye ejercicios musicales

Brain Training realmente supone un antes y un después en la centenaria compañía de Kyoto. Si Wii fue concebida para seducir al jugador que apenas conoce lo que es una consola de sobremesa, esa máxima ya era una realidad con la llegada del DS. Nintendo propuso abrir completamente las puertas a usuarios hasta ahora desconocidos, demuestra una capacidad de reinventarse a sí misma, ofrece un software innovador y desmarcado del apartado visual, resaltando la jugabilidad o la diversión. Sólo queda premiar su originalidad, autenticidad, y sus ganas de intentar despojar el sustantivo "malo" como un sinónimo de videojuego.

Lo mejor del juego • Mejora la habilidad mental • Es un título realmente único • La enorme vida útil con un calendario permanente

Tienes en tus manos la primera Giga de 2008 y ¡cómo no! el reportero Joystin se ha encargado de que esta nueva edición venga cargadita con la información más actual del mundo consolero.

Japón ama a Wii

S

egún un estudio realizado por la consultora especializada en tecnología Enterbrain, Nintendo ha consolidado su supremacía en el mercado nipón de las consolas de sobremesa. Los datos arrojan que desde su lanzamiento en diciembre de 2006 hasta el 20 de enero de 2008 la compañía de Super Mario ha distribuido 5.019.337 unidades de su revolucionaria Wii. Bastante alejada, pero segunda en el ranking esta la PlayStation 3 de Sony, que desde su salida en noviembre de 2006 ha convencido a 1,81 millones de usuarios en el país del sol naciente. Por el contrario Xbox 360 no ha logrado convencer al exigente público japonés y se queda tercera con unas escasas 570.000 unidades en casi tres años.

Un nuevo género

B

ajo el nombre Sonic Chronicles: La Hermandad Siniestra se esconde una nueva aventura del erizo azul. Pero esta vez la mascota de Sega dejará las plataformas, para protagonizar este RPG de estética cómic, donde cada personaje tendrá una característica especial y podrán formar equipos de hasta 11 personajes. De momento se conoce que todo el juego se manejará con el stylus y que no habrá combates aleatorios, sino que los adversarios estarán visibles, una característica muy implantada entre los nuevos RPG. El videojuego está siendo desarrollado por BioWare y será lanzado durante este 2008 en exclusiva para Nintendo DS. [GiGA 1 / 2008]

43


joystick Diversión adelantada

L

a revista Famitsu ha desvelado que la nueva entrega de Mario Kart para Wii estará en los comercios para abril. Una fecha que ha desatado un revuelo internacional pues el juego no se esperaba hasta finales de 2008. Además de la fecha, se dieron a conocer algunas novedades como la inclusión de motocicletas entre los vehículos disponibles, la activación del Canal Mario Kart en WiiConnet 24, cuya función será

La cifra de oro almacenar records y otros datos, a fin de compartirlos con otros usuarios. También se desveló que el número definitivo de circuitos incluidos en el juego son 32, más 10 escenario en modo batalla. La mitad de los circuitos principales (16), serán escenarios completamente inéditos, mientras que el resto lo completarán entornos ya conocidos de la serie como el Waluigi Stadium (Game Cube), el Mario Circuit (Nintendo 64), el Yoshi Falls (Nintendo DS) y el Ghost Swamp 2 (Super NES). Por su parte, el modo multijugador online soportará hasta 11 jugadores de forma simultánea y contará con cinco modos de control diferentes: Wii Wheel (periférico con forma de volante), Wiimote +Nunchako, Wiimote solo, mando clásico y mando de Game Cube.

Spielberg debuta

E

lectronic Arts ha confirmado que para mayo Boom Blox, el primer juego desarrollado por el famoso director de cine Steven Spielberg estará listo. El título es

un action-puzzle lleno de personajes carismáticos y escenarios coloridos con 300 niveles donde el objetivo es apilar bloques con cierta variedad de mecánicas y retos. Contará con un modo cooperativo y un versus. También, ofrecerá la posibilidad de recrear los escenarios y colocarles más elementos o personajes para luego compartirlos vía WiiConnect24. El rey midas del cine ha declarado además que se considera todo un "gamer" y que quiso hacer un juego que pudiera compartir con sus hijos.

S

egún un comunicado oficial, la tercera entrega de Super Smash Bros, subtitulada Brawl y lanzada en exclusiva para Wii, consiguió vender 500 000 copias en su primer día y alcanzar el millón en tan sólo 11. Marcando así un nuevo record en Japón, donde ningún otro título había alcanzado esta meta tan rápidamente.

Microsoft les ayuda

L

os estudiantes interesados en desarrollar para XNA contarán con el apoyo de Microsoft. Para ello la compañía ofrecerá de manera completamente gratuita a los estudiantes de EEUU, Reino Unido, Canadá, China, Alemania, Francia, Finlandia, Suecia, Suiza, Bélgica y España el acceso a las herramientas para programar a XNA. Aunque la mayoría de las aplicaciones, tales como Visual Studio C# 2005 Express o el propio XNA Game Studio ya se podían conseguir de manera gratuita, lo interesante es que esta oferta a estudiantes incluye un año de suscripción al XNA Creators Club. De este modo los estudiantes se ahorran el precio que vale la afiliación, y obtendrán ventajas como poder lanzar sus juegos desde la Xbox 360 conectada al PC y formar parte de un amplio grupo de desarrolladores para compatir trabajos.

La Curiosa

Adiós HD DVD

E

l pasado mes de febrero el fabricante Toshiba, anunció oficialmente la retirada del formato HD DVD. Según varios analistas esta decisión podría beneficiar a la Playstation 3 de Sony, ya que es la única consola de nueva generación que ofrece reproductor Blu-ray, formato de alta definición que hasta el

44

[GiGA 1 / 2008]

momento competía contra el HD DVD. Por su parte, desde la consultora DFC Intelligence, se estima que el fallecimiento del mencionado formato no afectará directamente a Xbox 360, alegando que Microsoft nunca ha estado radicalmente ligada a un formato HD con Xbox 360 y siempre lo ha tomado como una opción".

E

n esta nueva era de los productos en serie, el "tuning" se ha puesto de moda como una alternativa para personalizar los objetos y convertirlos en piezas únicas. El mundo de las consolas no se escapa a esta tendencia, y si no, echa un ojo a esta galería que deja ver como el tuneo se ha apoderado de la nueva generación.


multimedia

Jorge Luis Ulloa Velázquez, Carlos Basulto Valls, Maykel Antonio Cabrera, Lázaro García Mejía Estudiantes de Ingeniería Informática Universidad de Camagüey jorge.ulloa@reduc.edu.cu

L

a enseñanza y el aprendizaje de la historia para cualquier país revisten gran importancia. En el caso de Cuba, la historia de la nación tiene un valor transcendental, pues precisamente es ésta la que debe enseñar a los ciudadanos a argumentar y defender las ideas. Como expresó H. Díaz Pendás (2007), la Historia de Cuba tiene que ser un instrumento a favor del crecimiento de cada sujeto como patriota e internacionalista, para promover la educación en valores y la formación integral de las nuevas generaciones. Durante varios años, este autor ha insistido en que para enseñar la Historia, los métodos a utilizar deben ser diversos para que ayuden a la comprensión por parte de los estudiantes de los contenidos históricos que se enseñan sea, destacando el diálogo y el intercambio de ideas para facilitar que todos aprendan de todos. Pero no siempre al estudiar un hecho o proceso histórico determinado, se cuenta con toda la bibliografía existente para apropiarse de los argumentos necesarios y defender una o varias ideas, en ocasiones está dispersa o es escasa, lo que dificulta que los estudiantes tengan acceso a ella. El producto multimedia que se presenta, a disposición de los estudiosos de la Historia de Cuba, contribuye a dar solución a esta problemática, ya que permite conocer los acontecimientos relacionados con la formación de la nacionalidad cubana, las personalidades implicadas, la cultura y tendencias ideológicas fundamentales de la época, recopiladas y que están en correspondencia con el programa de estudio de Historia de Cuba vigente, de ahí que sea un medio a disposición de los [GiGA 1 / 2008]

45


multimedia estudiantes y profesores de fácil acceso que posibilita por su contenido sacar lecciones dirigidas a descubrir el pasado, pensar en el presente y proyectar el futuro de la nación cubana libre, soberana e independiente, cuyos hijos sean portadores de una cultura general integral que permita de forma consciente ser sujetos activos en la construcción de un mundo mejor.

Creación de la multimedia El acceso a las computadoras que tienen hoy los estudiantes, por contar todas las escuelas del país con el equipamiento necesario, ha exigido la creación de diferentes productos informáticos sencillos, amenos, atractivos y con calidad, que estimulen su utilización y tengan en cuenta los retos de un proceso de enseñanza-aprendizaje dinámico, transformador y complejo. Las indagaciones empíricas realizadas sirvieron de base para la creación de la multimedia y demostraron la carencia de un producto informático que respondiera a las exigencias didácticas de los medios de enseñanza y aprendizaje para la asignatura de Historia de Cuba, en particular lo relacionado con la formación de la nacionalidad cubana. Conscientes de esa problemática, un grupo de estudiantes de 3er. año de la carrera de Informática de la Universidad de Camagüey, bajo la guía del profesor de Historia, Félix Torres, comenzó un trabajo de mesa para la creación de la multimedia "Formación de la nacionalidad cubana", la que se elaboró con la aplicación Dreamweaver 8 sobre Windows XP, con textos en tamaño medio, imágenes y sonidos que facilitan la comprensión de la lectura. También se utilizó en su producción, herramientas informáticas para la edición gráfica y de sonidos como Photoshow, Flash y Soundforce. Las imágenes fueron cuidadosamente trabajadas en la edición y se ambientaron con sonidos elaborados por profesionales de la locución de la radio provincial Cadena Agramonte.

Estructura del producto Seis temas centrales estructuran la multimedia: • Inicio de la formación de la nacionalidad cubana • Cultura - Literatura: Primeras manifestacio-

46

[GiGA 1 / 2008]

nes culturales (hasta 1790) Manifestaciones literarias - Teatro Manifestaciones teatrales - Plástica Desarrollo de la plástica a finales del siglo XVIII - Música Manifestaciones musicales • Economía: La economía en la etapa - Azúcar Desarrollo de la azúcar en la etapa - Tabaco Desarrollo del tabaco en la etapa • Corrientes ideológicas: Corrientes ideológicas en la etapa - Reformismo (primera etapa) Movimiento reformista (1790-1820) - Independentismo Movimiento independentista - Reformismo (segunda etapa) Movimiento reformista (1830-1837) - Abolicionismo Desarrollo del abolicionismo - Anexionismo Etapa anexionista (1843-1855) - Reformismo (tercera etapa) Movimiento reformista (1855-1888) • Personalidades - Félix Varela - José A. Saco - Francisco de Arango y Parreño - José de la Luz y Caballero - Gaspar Betancourt Cisneros - Narciso López - Domingo del Monte • Bibliografía

Doble beneficio La experiencia obtenida favoreció la comprensión y aplicación de los contenidos informáticos y de la Historia de Cuba, a la vez que permitió la sistematización de las habilidades investigativas relacionadas con la búsqueda bibliográfica, el análisis de diferentes fuentes, la valoración, la reflexión de los contenidos objeto de estudio, la solución de problemas derivados de la teoría y la práctica vinculado a las disciplinas de la carrera de Informática, todo lo cual resulta imprescindible en la formación de un profesional. La motivación alcanzada durante el desarrollo del producto informático y la satisfacción emocional lograda han permitido a los autores, entrar en una etapa de divulgación y puesta en práctica de la multimedia y muestra de ello es la confección de este trabajo para GiGA.

Conclusiones • La multimedia elaborada, por sus

características en cuanto a diseño y montaje, puede ser un instrumento valioso en manos de profesores y estudiantes interesados en la formación de la nacionalidad cubana. • Al recopilar bibliografías de difícil acceso y concentrar los datos en un producto informático, facilita al lector o investigador una mejor utilización del tiempo disponible, a la vez que se recrea en un ambiente de gráficos y sonidos. • El producto elaborado, por sus características y fácil manejo, puede ser utilizado en el desarrollo de los diferentes programas de Historia de Cuba de los distintos niveles de educación, en cuyos contenidos se traten los aspectos relacionados con la temática de que se hable.


mis Imágenes DI. Vianys Zamora Pimentel vianys@cmatriz.copextel.com.cu Dirección de Marketing y Comunicación GiGA, Copextel

H

oy nos adentramos en el conocimiento de la fotografía mediante algunas normas que desde su nacimiento han creado pautas relativas a profundidad o perspectiva, detalle, puntos de vista, tamaño y escala, textura, forma y situación, que componen un todo en la foto. Sin embargo, no todos esos factores tienen que estar presentes en cada fotografía, pero sí las que utilicemos han de estar de manera conjunta. Lo expresivo de una foto no está dado por los detalles, sino en su efectismo, el cual no necesariamente tiene el mismo significado para todo el mundo, porque las personas son disímiles, pero si ésta es efectiva, siempre habrá quien sabrá valorarla en su significado, cualquiera que sea el que interpreten. Otro de los factores más importantes que conforman el conjunto de la fotografía son la composición, selección y disposición de sujetos en el área de la imagen fotográfica, que da como resultado la capacidad para comunicar algo.

Composición La mayor parte de las buenas fotografías han sido creadas, por tanto, si se quiere hacer fotografía hay que familiarizarse con algunos principios de la composición, aunque existe un

elemento que el fotógrafo posee, ya sea por la experiencia o por la capacidad de atrapar el momento y encontrar la instantánea para perpetuarla en el tiempo, sin más creación que su intuición misma. La verdadera fuerza de una buena imagen radica en la combinación de un motivo y una composición vigorosa, lo que se decide dejar fuera de la imagen es tan importante como lo que se incluye en ella. En esencia la composición es como se ha indicado, la selección y colocación de objetos en el área fotografiada. Pero la experiencia enseña muchas cosas al respecto, se recomienda que cuando miremos a través del visor, procuremos ver la fotografía que hay realmente y no otra que haya visto antes. Por lo que es válido buscar experiencias nuevas y buscar las formas más expresivas de mostrar a los demás.

El encuadre El ojo humano observa un espacio mayor que el encuadre que nos da la

cámara fotográfica que está limitado por cuatro lados. Por lo tanto, es imprescindible escoger lo que se quiere incluir y lo que vamos a excluir desde nuestro marco fotográfico. Para acercar y aumentar un motivo hay que usar un teleobjetivo. Pero si se desea ampliar el campo de visión, utilizaremos un gran angular, al cual podemos recurrir cuando se necesita mucha profundidad del campo. • Encuadre simple: Podemos añadir un elemento extra en una composición, encuadrando el tema principal dentro de una forma del primer plano o del fondo. Se dice que un buen procedimiento, es disparar nuestra cámara a través de una ventana o similar, pues aumenta la profundidad y el equilibrio de la fotografía, y se llega a eliminar detalles sobrantes al cubrir cielos o primeros planos vacíos. Otra forma o posibilidad sería colocar el elemento principal en el primer plano de forma que, exponiendo para un fondo [GiGA 1 / 2008]

47


mis Imágenes mucho más luminoso se forme una silueta. Encuadres estos que suelen exigir un riguroso cuidado de alineación entre el fondo y el primer plano. (Ver Fig. 1) • Encuadre compuesto: Este tipo de encuadre trata de representar una imagen dentro de otra. Es decir, en la misma composición un elemento se encuadra con otro dentro de la misma fotografía, destacándolo dentro de ésta. (Ver Fig. 2) • El recorte del encuadre El corte del encuadre: El formato de una fotografía condiciona la imagen final. Un encuadre realizado de forma horizontal resalta el espacio, y el vertical la magnifica. (Ver Fig. 3) • Ángulos del encuadre Un elemento puede encuadrarse desde varios ángulos, acercándose o alejándose de éstos, desde abajo o arriba, las proporciones y el fondo modifican la composición. Buscar un buen ángulo para la toma fotográfica consiste en espiar a nuestro individuo gráfico, y estar atentos sobre cualquier pequeño desplazamiento de poca distancia, con esto se puede generar composiciones diferentes que serán más o menos afortunadas. En tal caso, nos desplazaremos alrededor de nuestra escena acercándonos y alejándonos si es posible, hasta llegar a alcanzar el punto de vista adecuado. Debemos buscar el ángulo de incidencia de la luz más adecuado para la escena que deseamos comunicar, siendo normalmente la iluminación más adecuada la semilateral, pero también podemos utilizar cualquier otra clase de iluminación. Los planos que se encuentren anteriores al motivo que queremos destacar, deberán estar limpios de cualquier elemento que interfiera en la observación de nuestro motivo principal, o bien que otros objetos puedan interferir en él desplazándolo a un segundo lugar. Los ángulos de toma se dividen en cuatro tipos según el nivel de altura con respecto al elemento o motivo desde el cual se realicen. Cada uno de estos ángulos y niveles deberán ser conocidos por el fotógrafo para su utilización consciente y adecuada.

Fig. 1 Encuadre simple

Fig. 2 Encuadre compuesto

• Toma a nivel Es cuando la fotografía se realiza desde la misma altura o nivel que la del elemento tomado, no por encima ni por debajo. Las tomas fotográficas realizadas nos muestran más naturalidad y objetividad en la composición. • Toma en picado Cuando se realiza desde una posición más alta que el elemento fotografiado, desde arriba hacia abajo. Muchos aficionados, cuando realizan fotografías desde este punto no tienen en cuenta el ángulo de la toma. El resultado de esto son las tomas poco agraciadas y mal compuestas. Esta también transmite una disminución en cuanto al tamaño. Sobre las personas transfieren rostros poco favorecidos y desproporcionados. • Toma en contrapicado Es cuando la fotografía se realiza desde un lugar más bajo que el motivo tomado, quedando éste más alto que la cámara. Debido a la perspectiva que se genera, el obje-

48

[GiGA 1 / 2008]

Fig. 3 Recorte del encuadre

to se aprecia engrandecido visualmente, puede en algunos casos connotar enaltecimiento, importancia o poder. • Toma en Cenital Es cuando la imagen se toma en un ángulo totalmente de arriba hacia

abajo, en posición perpendicular con respecto al suelo, es decir, lo más extremo posible de una toma en picado. Produce una gráfica sin perspectiva que puede ser muy descriptiva si se aplica a objetos pequeños, inusuales e interesantes si se usa con


mis Imágenes elementos grandes.

La regla de oro y sus tres leyes Los principios formales de la composición visual se utilizaron de forma elemental desde la antigüedad. Pueden observarse todavía los murales egipcios, aztecas, mesopotánicos, etc. Este estudio e información que tenemos hoy, la descubrieron los griegos de la edad clásica, entre los siglos V y III antes de nuestra era, quienes las pusieron en práctica desde la pintura, escultura y finalizando en la arquitectura. Más tarde y durante el Renacimiento europeo entre los siglos XV y XVI, los grandes maestros de esa época hicieron bastante uso de estos principios, dejándonos algunas de las más hermosas imágenes que tiene el patrimonio mundial. En los tiempos de modernidad los principios de composición visual se han llegado a poner en crítica en varias ocasiones a causa del nacimiento de nuevas tendencias artísticas, pero en ningún caso han perdido vigencia, ya que son de uso común y aplicándose tanto en los medios de comunicación, la fotografía, el cine, publicidad, etc. Ley del horizonte, de la mirada y tres tercios Estas son normas que nos pueden ser de gran utilidad para empezar a componer partiendo de ellas, y que podemos utilizarlas o no según nuestro criterio dependiendo de la temática del trabajo a realizar. Es aconsejable realizar varias tomas fotográficas de una misma imagen, respetando estas leyes en unos casos y en otros no, para después comparar el resultado final. La ley del horizonte la primera regla fotográfica Se indica que en el recuadro fotográfico deben trazarse, imaginariamente, tres líneas horizontales del mismo ancho, tanto si se está trabajando en posición horizontal o vertical, y en la gran mayoría de los casos, dar alrededor de dos bandas a la zona donde se encuentra el motivo principal, y más o menos una banda a la zona secundaria. Generalmente, la amplitud de ambos espacios dependerá de la mayor o menor importancia de cada uno de

Fig. 4 Ley del horizonte

éstos, pudiendo ser casi iguales si la relación entre el motivo principal y el secundario no es tan desequilibrado hasta reducirse la zona secundaria a sólo un pequeño borde si el motivo principal es muy destacado. Es importante señalar, que esta regla no sólo se aplica cuando se encuentra presente el horizonte, sino en toda imagen que tenga una línea más o menos horizontal que divida a la composición en dos espacios diferenciados. (Ver Fig. 4) La ley de la mirada, segunda regla fotográfica Es aquella ley en que toda persona, animal o cosa, dentro del recuadro fotográfico debe de tener más espacio libre hacia su parte frontal que lo que ocupa su parte trasera, independientemente de la amplitud de lo abarcado en el encuadre de la toma. Incluso podemos recortar el borde del recuadro fotográfico, la parte del elemento gráfico en cuestión por su parte posterior, si éste se encuentra en un plano cercano a la cámara o es de dimensiones muy grandes. Siguiendo la pauta de estas leyes, concederemos más o menos espacio a nuestro objetivo principal, (el individuo, personaje o plano) según la importancia del campo que tengamos delante, siempre que sea directamente proporcional entre el valor de lo mostrado y el espacio que nos ocupa. (Ver Fig. 5) Regla de los tres tercios La denominada regla de los tercios divide la escena en tres partes, tanto horizontal como verticalmente. Las

Fig. 5 Ley de la mirada

líneas que determinan estos tercios se cortan en puntos estéticamente adecuados para situar el centro de interés, con lo que evitamos que al estar situado en el centro de la imagen resulte estático. La Ley de los Tercios: En el recuadro fotográfico deberán trazarse, de forma imaginaria, dos líneas equidistantes verticales y dos horizontales, siendo alguno de los cuatro puntos donde se cruzan las cuatro líneas divisorias donde debe colocarse o encontrarse el motivo que deseamos resaltar dentro de la composición fotográfica Aplicando la regla de los tres tercios realizamos un ajuste asimétrico de la imagen, dejando a un lado la aburrida y estática composición central. [GiGA 1 / 2008]

49


mis Imágenes Los puntos fuertes Según la división por tercios de una escena, la confluencia de éstos marca unos puntos donde se hacen llamativos los objetos: puntos fuertes. El centro es un punto fuerte. Es recomendable hacer coincidir los objetos con estos puntos.

El campo: primer plano El campo es el espacio que abarca nuestro objetivo, es más largo cuando el elemento o bien el motivo principal se encuentra muy lejos respecto al punto de toma. Sin embargo, es medio cuando el elemento principal ocupa casi la mitad de la altura del fotograma y está situado cerca de la cámara. Los planos fotográficos se dividen en planos de profundidad, según a la distancia que se encuentre del objeto o motivo principal.

Segundo plano Desenfoque del fondo La imagen suele estar compuesta, de un primer plano, un segundo plano y un fondo. La separación de varios planos se realiza teniendo en cuenta las diferencias tonales. Para captar la atención sobre algún elemento en primer plano, sólo hay que desenfocar el fondo abriendo el diafragma. Las líneas dominantes deben centrar la atención, no desviarla. Se puede hallar una línea casi en cualquier cosa, como en un camino o en una sombra. Una de las normas más populares de la composición se basa en la repetición de las líneas y objetos, especialmente cuando el tema es una estructura. Las líneas pueden ser, horizontales, verticales, curvas u oblicuas. Las líneas horizontales suelen expresar armonía y profundidad, paz y tranquilidad, mientras que las verticales limitan la profundidad y actúan como barreras entre la fotografía y la vista, es decir marcan la grandeza del motivo. Las líneas curvas y amplias dan una sensación de belleza y gracia, aportando movimiento a la composición. La vista recorre la línea de manera pausada y natural. Producen una sensación de paz y tranquilidad. Las curvas en S son otra forma de composición bella y armónica, y también de las más comunes. La vista sigue suavemente la curva hasta alcanzar el principal centro de

50

[GiGA 1 / 2008]

interés, centro que debemos asegurarnos que exista.

Las formas, resaltar el volumen La imagen fotográfica es de dos dimensiones (bidimensional). La iluminación y el contraste resaltan los volúmenes de una imagen. La luz puede realizar un aplanamiento o incluso crear fuertes sombras, provocando que éstas se fundan entre sí mismas. La forma viene también modificada por el punto de la toma. Por otra parte un fondo monocromático muy contrastado puede hacer resaltar la forma del motivo. Los motivos o elementos que se reflejan en el agua duplican su volumen llegando a formar imágenes de gran belleza. Las formas se pueden utilizar para marcar un encuadre dentro de otro encuadre.

El mosaico El mosaico se compone por una sucesión de formas y líneas. Para no alcanzar la monotonía, se debe que introducir elementos secundarios. Debemos jugar con los tonos, luces y sombras para resaltar la composición del conjunto fotográfico. Cuando el mosaico ocupa todo nuestro encuadre fotográfico resulta muy impactante. Los mosaicos se encuentran en todo nuestro alrededor, entre las personas, observando paisajes, sombras, etc.

El pattern El denominado efecto pattern consiste en repetir sucesivamente una serie de elementos gráficos y que mediante una combinación de volúmenes ajustan una imagen armónica. Para realizar esta clase de fotografías es imprescindible tener mucha atención y visualizar atentamente, tanto a la iluminación como al encuadre. Las repeticiones de formas se encuentran en la propia naturaleza, animales, árboles, objetos, etc. Donde se encuentra una repetición de elementos pattern, es en el campo de la arquitectura, en ladrillos, tejados, ventanas...

La textura En conceptos fotográficos, la palabra textura define la estructura de cualquier superficie ya sea áspera e irregular o suave y brillante. La textura revelada por una fotografía dice lo

que se sentiría si la superficie se pudiese tocar. El motivo debe transmitir una sensación táctil y de profundidad, como por ejemplo la rugosidad de una corteza o la suavidad del terciopelo. La luz, es la clave para fotografiar la textura. La mejor suele ser oblicua, dependiendo de la calidad de textura. Las superficies compuestas por muchos detalles se iluminan con luz difusa y direccional. La luz dura suele destacar las superficies irregulares. Uno de los momentos más idóneos para realizar fotografías con texturas interesantes es al anochecer o al amanecer.

Exposición y enfoque Para tener una exposición correcta dependeremos de la combinación del tiempo de obturación. El obturador limita el tiempo que el rayo de luz penetra en la cámara y expone la película o el sensor digital. Mediante el obturador se controla el tiempo necesario para que la imagen se exponga y quede reflejada en la película o el sensor digital y la abertura del diafragma. El diafragma y el tiempo son directamente proporcionales, cuanto más abierto se encuentre el diafragma, más rápido será el tiempo de obturación. Por ejemplo, en valores numéricos (f22) corresponden diafragmas cerrados y con valores más bajos f4 corresponden a diafragmas abiertos. Con diafragma cerrado se obtiene mayor profundidad del campo.

Enfoque, distancia focal El enfoque permite hacer nítido a un sujeto, solamente cuando la distancia entre el objetivo y la película es la correcta. Si se utilizan objetivos tradicionales, el enfoque se realiza girando el anillo adecuado y éste hace que las lentes se muevan hasta lograr la nitidez deseada. La distancia mínima puede reducirse para fotografías de cerca con unas lentes de acercamiento. La cámara fotográfica permite congelar motivos en movimiento, gracias a la velocidad del obturador. Para detener un movimiento es necesario tener en cuenta la velocidad con que se mueve el sujeto. Efecto pannig: Consiste en seguir con la cámara el motivo en movi-


mis Imágenes miento durante el disparo. El fondo de la imagen siempre queda movido. Es importante elegir un tiempo de obturación adecuado y que permita espesar la idea del movimiento.

Tipos de perspectiva: La perspectiva es el mejor procedimiento para crear una sensación tridimensional en una fotografía. El ojo estima la distancia en base a la disminución de tamaño de los objetos y al ángulo de convergencia de las líneas (perspectiva lineal). Del objetivo y de la distancia dependerá el que la imagen tenga más o menos profundidad. Líneas dinámicas: Las formas más dinámicas de composición, hacen uso de líneas diagonales. Escogiendo un punto de toma, un objetivo que provoque líneas convergentes o radiales, se puede llegar a obtener una fuerte impresión de perspectiva. Perspectiva aérea: Las condiciones climáticas y atmosféricas (humo, neblina) aportan una sensación de profundidad, ya que los colores y la tonalidad de la imagen se amortiguan según va incrementado la distancia. Los diferentes cambios cromáticos facilitan que la perspectiva aérea sobresalga y destaque. (Ver Fig. 6)

El retrato No es recomendable hacer retratos sin tener en cuenta el carácter y el aspecto del individuo o sujeto. Un buen retrato debe transmitir el estado de ánimo del sujeto en el momento del disparo. Es importantísimo observar a la persona que se pretende retratar.

Las imperfecciones del acercamiento Al fotografiar a personas es muy importante que se les vea bien. Hay muchas formas de resaltar la fisonomía del personaje jugando con la luz, el fondo, la perspectiva y la composición. En el caso de la luz es importante que el sujeto tenga sombras en la cara que resalten sus facciones, si no es así, aparecerá una cara "plana" sin relieve. Una luz lateral puede ayudar. En el caso del fondo es recomendable quitarle importancia haciéndolo

Fig. 6 Perspectiva aérea

borroso. De esta forma se resaltará al sujeto. Para ello hay que contar con una profundidad de campo pequeña. Hay dos formas de disminuir la profundidad de campo: aumentar la apertura de diafragma (número f bajo), y aumentar la distancia focal (zoom alto). El objetivo perfecto para el retrato del rostro es de longitud focal igual al doble de la diagonal del formato del fotograma (80-100mm para el formato 24x36). El objetivo focal largo evita las distorsiones de la perspectiva (la nariz o mentón pronunciados) provocadas por el acercamiento excesivo de la cámara fotográfica hacia el rostro. En los primeros planos, una nitidez acentuada puede poner en relieve posibles defectos de la piel del sujeto. Para suavizar la imagen se puede colocar un filtro difusor, que aporta al retrato, un aire romántico permitiendo disimular las imperfecciones del rostro. En los retratos la cara ocupará casi toda la escena. Es recomendable que se vean al menos los hombros de la persona.

El retrato ambientado El fondo debe ser reconocible y crear una composición armoniosa con el sujeto principal. El espacio que rodea al personaje en primer plano debe permitir comprender el momento que está viviendo dentro del ambiente elegido.

Fig. 7 Retrato ambientado

Los objetivos más recomendados para el retrato ambientado son los normales o gran angulares. Con el gran angular quedan enfocados todos los planos y se dispone de una gran profundidad de campo. (Ver Fig. 7) Y con el retrato, que como la pintura y el dibujo en su momento se pusieron de moda, la fotografía asumió en su momento también para plasmar al individuo, cerramos este pequeño recorrido y abrimos nuestro zoom para adentrarnos en las generalidades de las cámaras digitales y la correlación entre cantidad de megapíxeles y calidad fotográfica. [GiGA 1 / 2008]

51


Una de las preocupaciones que nos asiste casi siempre cuando utilizamos las cámaras digitales es la calidad de nuestras fotografías en dependencia de los megapíxeles de éstas. Mucho se ha hablado de los programas de retoque fotográfico y las bondades que brindan. Ya sea cual sea la cantidad de megapíxeles de nuestros dispositivos fotográficos, estas aplicaciones informáticas brindan la posibilidad mediante sus herramientas de mejorar nuestras instantáneas, conozcamos a continuación un poco de estas interioridades por tipo de cámaras. Generalidades sobre las compactas digitales Se suele clasificar las cámaras digitales por sus megapíxeles, esto es, la cantidad de píxeles que dividen la toma. De esto depende directamente el margen de ampliación de la imagen, ya que los píxeles reflejan la cantidad de la información, pero no tanto la calidad. De hecho, pensar que más megapíxeles dan más calidad, no es del todo acertado. La calidad del objetivo y la del sensor tendrían, en este caso, más importancia. Cualquier compacta tiene dos opciones para guardar la foto: tamaño y calidad. En lo referente al tamaño, la opción mayor corresponde a los megapíxeles efectivos de la cámara y la menor muchas veces- a un tamaño estándar de pantalla. Solemos ver, por ejemplo, cámaras de casi 2 megapíxeles efectivos que ofrecen la posibilidad de realizar capturas a 1600 x 1200 (1,92 megapíxeles), 1024 x 768 y 640 x 480 píxeles. La calidad indica el nivel de compresión del archivo JPEG. Cuanta más calidad, menos compresión. En general, las distintas opciones de calidad de las actuales máquinas compactas aprietan bastante, por lo que indicaciones como "óptima" o "superior", "muy buena" y "buena" podemos traducirlas por "aceptable", "mala" y "destrózame la foto, que quiero guardar muchas". Si queremos más autonomía y no necesitamos ampliarlas, es preferible jugar con las opciones de tamaño y evitar las calidades inferiores. Por lo que un máximo tamaño habitual en las cámaras de 2 megapíxeles es el de 1600 x 1200 píxeles. Como veremos, es idóneo para copias clásicas de 15 x 10 centímetros. En cuanto a las cámaras de 3 megapíxeles, el máximo tamaño de imagen generalizado en esta gama de cámaras es de

52

[GiGA 1 / 2008]

2048 x 1536 píxeles (3,14 millones de píxeles). Si tenemos en cuenta que en términos binarios, 1 Mb equivale a 1.048.576 bytes, una foto de estas características tiene exactamente 3 megapíxeles, que abierta en un programa informático, ocupa 9 Mb de memoria, puesto que cada píxel son 3 bytes. En la tarjeta flash, la misma imagen ocupará mucho menos. Para comprobar estos cálculos podemos ver cuánto ocupan en la tarjeta 20 ó 30 fotos capturadas en la máxima calidad y calcular la media. Si es igual o superior a 1,3 Mb (una séptima parte de 9 Mb), la cámara no abusa de la compresión. Si la media baja de 1 Mb, podemos considerar que el nivel de compresión es excesivo. En las de 4 megapíxeles, el tamaño usual en las cámaras de 4 millones de puntos es de 2304 x 1728 píxeles (en algunos modelos 2272 x 1704 píxeles). Si tenemos presente que 1 Mb equivale a 1.048.576 bytes, tales imágenes tienen una resolución de 3,7 megapíxeles. Abiertas en el ordenador, ocuparán unos 11,1 Mb de memoria, pues cada píxel lo componen 3 bytes. Un grado de compresión JPEG aceptable en la cámara, de 1/7 parte del tamaño, se traducirá en un peso de archivo en la tarjeta de unos 1,6 Mb. Los primeros modelos de 5 millones de píxeles hacían fotos de 2560 x 1920 puntos de resolución. Ahora, es muy frecuente el tamaño de 2592 x 1944 píxeles, ligeramente mayor, que suele traducirse por una resolución total de 5,04 millones de píxeles. Si tenemos presente que cada megapíxel está compuesto en realidad por 1,048 millones de píxeles, hablamos entonces de una imagen de 4,8 megapíxeles reales. Cargada en el ordenador, una foto de estas características tiene un peso de 14,4 Mb, pues cada píxel equivale a 3 bytes. Una variable que suele aparecer en las cámaras de 5 megapíxeles es el formato de captura. Además de la opción de grabación en JPEG, tendremos en muchas cámaras la posibilidad de guardar en RAW, y en algunas también en TIFF. Se evita así la pérdida de calidad que conlleva la compresión JPEG, si bien el número de fotos que caben en la tarjeta disminuirá notablemente.

Las posibilidades al disparar en RAW son muy interesantes, pero merecen que las tratemos más adelante, a un nivel un poco más avanzado. De momento, esbozaremos rutinas dimensionales básicas. Recordemos que si disparamos fotos de 5 megapíxeles en formato JPEG que suponen 14 Mb de información, un nivel aceptable de compresión en la cámara se traduce en un peso aproximado de 2 Mb en la tarjeta. En el segmento de los 6 megapíxeles, nos encontramos actualmente con compactas cuyos tamaños de imagen son de hasta 2816 x 2112 píxeles (también de 2872 x 2160), y con réflex digitales de 3072 x 2048 píxeles (o de 3000 x 2000). Esto deja entrever la convivencia de formatos de proporción 4:3 con otros que se adaptan al clásico 3:2. El peso medio de cada foto en la tarjeta con una compresión JPEG poco agresiva puede oscilar entre 2,5 y 2,8 Mb. En RAW se anotan 2 bytes por cada píxel (un único canal capturado a 12 bits y anotado a 16), por lo que estaríamos hablando de 12 Mb. De todas formas ya se está implantando la compresión sin pérdidas, que puede reducir el tamaño en la tarjeta incluso a 7 Mb. En cuanto a las primeras cámaras lanzadas al mercado con una resolución de 8 megapíxeles hacen fotos de 3264 x 2448 píxeles. Casi 8 millones de píxeles que son en realidad, 7,62 megapíxeles, casi 23 Mb de información, en términos de canales RVA (rojo, verde y azul) de 8 bits por canal. Disparando en JPEG a tamaño completo, el peso medio en la tarjeta flash debería rondar los 3 Mb; en RAW, con una buena compresión sin pérdidas, algo más del triple. Conociendo esto, también es recomendable tener en cuenta cuál será el destino de nuestra imagen digital, cuál formato o dimensión a utilizar. No es lo mismo concebir una foto para publicar en una página web o para ser procesada para imprimir ya sea en una impresora doméstica o un minilaboratorio digital. Conocer esta parte del proceso fotográfico, es útil y necesario para que nuestras fotos no sólo lleven lo que queramos trasmitir, sino también que con la calidad de una buena imagen, enfaticemos el mensaje.


GiGA online G

iganautas, hoy navegaremos juntos en este barco informático acompañados de las olas hechas de palabras y números binarios en ese mar inmenso que es el ciberespacio. Con la alegría inmensa de nuestros ya 12 años, y aún más, con el gustazo que nos damos en presentarles dentro de esta Sección algo salido y hecho en casa. Cuando aprendimos a dar nuestros primeros pasos, en esa primera casa con la ayuda de aquellos amigos de Colombus, y gracias al Portal Islagrande apareció el primer sitio de GiGA. Más tarde con la llegada de la Feria y Convención Internacional Informática 2002, rediseñamos el espacio de esta publicación en su formato digital. Después de algunos años donde nuestra embarcación varada en puerto soñó con volver a navegar entre el conocimiento, hoy gracias al colectivo de multimedia de la Dirección de Marketing y Comunicación de Copextel, el barco ha soltado amarras y ha echado a andar. Escribir sobre algo muy nuestro e invitarlos a descubrir lo que les proponemos con este renovado diseño, resulta más que difícil. Trataremos con la mayor modestia de presentarles en esta Sección el sitio de GiGA en Internet. Muchos nos reclaman que la publicación impresa no les llega o les es difícil obtenerla en la red de estanquillos de correos, pues para aquellos que nos persiguen y no la consiguen, para todos y cada uno de todos los asiduos lectores, hemos hecho realidad este sueño viejo. Aquí les llega celebrando su aniversario doce y ¡qué regocijo se siente al escribirlo!, decirlo o mejor aún aparecer en nuestra PC, con su cabezal de letras amarillas abriendo su página principal que entre noticias actualizadas, clásicas secciones y artículos ya legendarios, hacen su forma.

Desde nuestra primera edición hasta la última, con sus habituales secciones, se presenta GiGA en Internet. Su diseño, la manera de concebir su estructura y sobre todo el cúmulo de información que año tras año, sección tras sección, han hecho su edición impresa, estarán allí, encontradas todas en un mismo soporte. Hardweriando, Softweriando, Multimedia, Enredados, Elemental W…, todas y cada una de ellas, artículos, comentarios, reseñas, podrán ser consultadas como en nuestras páginas impresas, en esta herramienta que GiGA ha asumido, y que junto a las otras bondades que brinda el sitio, ha manejado de una manera inteligente, y que no sólo han sido concebidas para hacer la navegación más asequible, sino también llevar el conocimiento que recoge en sus ya tantas ediciones a un sector más amplio y hacer de nuestro sitio un espacio de habitual consulta. No sólo hemos querido conformar un sitio donde la información sea su único atractivo, también podrá tener acceso mediante la descarga en formato .pdf de todos los números desde el 2002 hasta la última edición que se publique. La comunicación es otro de los aspectos que hemos concebido. Comentarios que podrán publicar en éste, el contacto, no sólo con nuestro colectivo, sino también con los autores de los artículos, y la posibilidad de dar puntos a los artículos y eso permitirá medir la calidad de éstos, y lo más importante: el intercambio entre GIGA y sus lectores. Antes de terminar este recorrido e invitarlos a que visiten nuestro espacio, donde nos encontraremos ustedes y nosotros en una especie de rincón de cita entre lectores y GiGA, agradecemos a muchos que siempre a la sombra de nuestra publicación han estado. A todos los que de una manera u otra son y serán eternamente parte de esto que ustedes

reciben cada tres meses y que detrás de su nombre de letras amarillas, no sólo está el arduo trabajo de los realizadores de la revista, colaboradores y amigos, sino a aquellos que junto a nosotros empezaron por el año 1996 del siglo pasado a acompañarnos, y que nunca han abandonado nuestro viaje. Gracias a los que ayer y hoy han echado a soñar con nosotros, a Elvira, Rubén y Abelito. Pero sobre todo gracias a nuestros seguidores por permitirnos llamarlos con este término que alguien algún día inventó para nombrarlos y que ustedes fueran parte de nosotros. Giganautas, a navegar…. [GiGA 1 / 2008]

53


U

no de los periféricos más comunes, el mouse o ratón a más de 40 años después de su invento, sigue vivito y coleando. Pensado para indicar simplemente la posición x-y en la pantalla, se convirtió en una de las interfaces claves de la historia de la informática. El primer ratón concebido en 1964 por Douglas Engelbart, fue diseñado con dos ruedas perpendiculares que permitía indicar una posición x-y en la pantalla y se registró con el nombre de "X-Y Position Indicator for a Display System".

El nombre Cuando se patentó, recibió el nombre de "X-Y Position Indicator for a Display System" (Indicador de posición X-Y para un sistema con pantalla), sin embargo el término más usado del ratón (mouse en inglés) se lo dio el equipo de la Universidad de Stanford, durante su desarrollo, ya que su forma y su cola (cable) recuerdan a un roedor.

Mouse El ratón, también denominado mouse es un periférico de entrada de la computadora de uso manual, generalmente fabricado de plástico, utilizado como entrada o control de datos. Se usa con una de las dos manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor. Hoy día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz.

54

[GiGA 1 / 2008]

La forma del dispositivo originó su nombre

En América predomina el término inglés mous, mientras que en España se utiliza prácticamente de manera exclusiva el calco semántico "ratón". El Diccionario panhispánico de dudas recoge ambos términos, aunque considera que como existe la forma adaptada, el anglicismo es innecesario. Por su parte el DRAE únicamente acepta la entrada ratón para este dispositivo informático.

Actualidad Habitualmente se compone de al menos dos botones y otros dispositivos opcionales como una "rueda", más otros botones secundarios o de distintas tecnologías como sensores

del movimiento que pueden mejorar o hacer más cómodo su uso. Se suele presentar para manejarse con ambas manos por igual, pero algunos fabricantes también ofrecen modelos únicamente para usuarios diestros o zurdos. Los sistemas operativos pueden también facilitar su manejo a todo tipo de personas, generalmente invirtiendo la función de los botones. En los primeros años de la informática, el teclado era casi siempre la forma más popular como dispositivo para la entrada de datos o control de la computadora. La aparición y éxito del ratón, además de la posterior evolución de los sistemas operativos, logró facilitar y mejorar la comodidad, aunque no relegó el papel primordial del teclado. Aún hoy pueden compartir algunas funciones dejando al usuario que escoja la opción más conveniente a sus gustos o tareas.

Historia Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el


Stanford Research Institute, un laboratorio de la Universidad de Stanford, a poca distancia de Silicon Valley en California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Su invención no fue un hecho banal ni fortuito, sino que surgió dentro de un proyecto importante que buscaba aumentar el intelecto humano mejorando la comunicación entre el hombre y la máquina. Con su aparición, logró también dar el paso definitivo a la creación de los primeros entornos o interfaces gráficas de usuario.

La primera maqueta

Copia del primer prototipo.

La primera maqueta se construyó de manera artesanal de madera, y se patentó con el nombre de "X-Y Position Indicator for a Display System". A pesar del aspecto arcaico que tenía, su funcionamiento básico es similar al de hoy. Con un aspecto de adoquín, encajaba bien en la mano y disponía de dos ruedas metálicas que, al desplazarse por la superficie, movían dos ejes: uno para controlar el movimiento vertical del cursor en pantalla y el otro para el sentido horizontal, contando además con un botón rojo en su parte superior.

Modelo de 1987 de IBM

Por primera vez se lograba un intermediario directo entre una persona y

la computadora, era algo que, a diferencia del teclado, cualquiera podía aprender a manejar sin apenas conocimientos previos. En esa época además la informática todavía estaba en una etapa primitiva: ejecutar un simple cálculo necesitaba de instrucciones escritas en un lenguaje de programación.

Presentación En San Francisco, a finales de 1968 se presentó públicamente el primer modelo oficial. Durante hora y media además se mostró una presentación multimedia de un sistema informático interconectado en red y también por primera vez se daba a conocer un entorno gráfico con el sistema de ventanas que luego adoptarían la práctica total de sistemas operativos modernos. En ese momento, además, se exhibió hipermedia, un mecanismo para navegar por Internet y usar videoconferencia. Engelbart realmente se adelantó varias décadas a un futuro posible, ya desde 1951 había empezado a desarrollar las posibilidades de conectar computadoras en redes, cuando apenas existían varias docenas y bastante primitivas, entre otras ideas como el propio correo electrónico, del que sería su primer usuario. Pensó que la informática podía usarse para mucho más que cálculos matemáticos, y el ratón formaba parte de este ambicioso proyecto, que pretendía aumentar la inteligencia colectiva fundando el Augmentation Research Center (Centro para la investigación del incremento) en la Universidad de Stanford. Y pese a las esperanzas iniciales de Engelbart de que fuera la punta del iceberg para un desarrollo de distintos componentes informáticos similares, una década después era algo único, revolucionario, que todavía no había cobrado popularidad. De hecho varios de los conceptos e ideas surgidos aún hoy han conseguido éxito. Engelbart tampoco logró una gran fortuna, la patente adjudicaba todos los derechos a la Universidad de Stanford y él recibió un cheque de 10 000 dólares.

El éxito de Apple El 27 de abril de 1981 se lanzaba al

mercado la primera computadora con ratón incluido: Xerox Star 8010, fundamental para la nueva y potente interfaz gráfica que dependía de este periférico, y a su vez fue otra revolución. Posteriormente, surgieron otras computadoras que también lo incluyeron, algunas de ellas fueron la Commodore Amiga, el Atari ST y la conocida Apple Lisa. Dos años después, Microsoft, que había tenido acceso al ratón de Xerox en sus etapas de prototipo, dio a conocer su propio diseño disponible, además, con las primeras versiones del procesador de texto Word. Tenía dos botones en color verde y podía adquirirse por 195 dólares, pero su precio elevado para entonces y el no disponer de un sistema operativo que realmente lo aprovechara, hicieron que pasara sin glorias. No fue hasta la aparición del Macintosh en 1984 cuando este periférico se popularizó. Su diseño y creación corrieron a cargo de nuevo de la Universidad de Stanford, cuando Apple en 1980 pidió a un grupo de jóvenes un periférico seguro, barato y que se pudiera producir en serie. Partían de un ratón basado en tecnología de Xerox con un costo alrededor de los 400 dólares, con un funcionamiento regular y casi imposible de limpiar. El presidente, Steve Jobs, quería un precio entre 10 y 35 dólares. Si bien existen muchas variaciones posteriores, algunas innovaciones recientes y con éxito han sido el uso de una rueda central o lateral y el sensor de movimiento óptico por diodo LED, ambas introducidas por Microsoft en 1996 y 1999 respectivamente, o el sensor basado en un láser no visible del fabricante Logitech. En la actualidad, la marca europea Logitech es una de las mayores empresas dedicadas a la fabricación y desarrollo de estos periféricos, más de la mitad de su producción la comercializa por medio de terceras empresas como IBM, HewlettPackard, Compaq o Apple.

Funcionamiento Su funcionamiento principal depende de la tecnología que utilice para capturar el movimiento al ser desplazado sobre una superficie plana o

[GiGA 1 / 2008]

55


alfombrilla especial para ratón, y transmitir esta información para mover una flecha o puntero sobre el monitor de la computadora. Según las tecnologías empleadas en el sensor del movimiento o por su mecanismo y del método de comunicación entre éste y la computadora, existen multitud de tipos o familias. El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en la pantalla, con uno o dos clicks, pulsaciones, en algún botón o botones. Para su manejo, el usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clicks para la mayoría de las tareas.

¿Cómo se captura el movimiento de un ratón mecánico estándar? 1- Al arrastrarlo sobre la superficie gira la bola 2- Ésta a su vez mueve los rodillos ortogonales 3- Van unidos a unos discos de codificación óptica, opacos, pero perforados. 4- De acuerdo con su posición pueden dejar pasar o interrumpir señales infrarrojas de un diodo LED. 5- Estos pulsos ópticos son captados por sensores que obtienen así unas señales digitales de la velocidad vertical y horizontal actual para transmitirse finalmente a la computadora.

información a la computadora, que mediante software procesa e interpreta. • Ópticos Es una variante que carece de la bola de goma, que evitando el frecuente problema de la acumulación de suciedad en el eje de transmisión, y por sus características ópticas es menos propensa a sufrir un inconveniente similar. Se considera uno de los más modernos y prácticos actualmente. Puede ofrecer un límite de 800 ppp, como cantidad de puntos distintos posibles de reconocer en 2,54 centímetros (una pulgada): a menor cifra peor actuará el sensor de movimientos. Su funcionamiento se basa en un sensor óptico que fotografía la superficie sobre la que se encuentra y detectando las variaciones entre sucesivas fotografías, se determina si el ratón ha cambiado su posición. En superficies pulidas o sobre determinados materiales, el ratón óptico causa movimiento nervioso sobre la pantalla, por eso se hace necesario el uso de una alfombrilla.

Parte inferior de un ratón con cable y sensor óptico

Tipos o modelos Por mecanismo • Mecánicos Tienen una gran bola de plástico, de varias capas, en su parte inferior para mover dos ruedas que generan pulsos en respuesta al movimiento de éste sobre la superficie. Una variante es el modelo de Honeywell que utiliza dos ruedas inclinadas con 90 grados entre ellas en vez de una bola. La circuitería interna cuenta los pulsos generados por la rueda y envía la

56

[GiGA 1 / 2008]

• De láser Este tipo es más sensible y preciso, haciéndolo aconsejable especialmente para los diseñadores gráficos y los fanáticos de los videojuegos. También detecta el movimiento deslizándose sobre una superficie horizontal, pero el haz de luz de tecnología óptica se sustituye por un láser invisible al ojo humano con resoluciones a partir de 2000 ppp, lo que se traduce en un aumento significativo de la precisión y sensibilidad. • Trackball El concepto de trackball es una idea novedosa que parte del hecho: se debe mover el puntero, no el dispositivo, por lo que se adapta para presentar una bola, de tal forma que cuando se coloque la mano encima se pueda mover mediante el dedo

pulgar, sin necesidad de desplazar nada más ni toda la mano como antes. De esta manera se reduce el esfuerzo y la necesidad de espacio, además de evitarse un posible dolor de antebrazo por el movimiento de éste. A algunas personas, sin embargo, no les termina de resultar realmente cómodo. Este tipo ha sido muy útil por ejemplo en la informatización de la navegación marítima.

Un modelo trackball de Logitech

Por conexión • Por cable Es el formato más popular y más económico, sin embargo, existe multitud de características añadidas que pueden elevar su precio, por ejemplo si hacen uso de tecnología láser como sensor de movimiento. Actualmente se distribuyen con dos tipos de conectores posibles: tipo USB y PS/2, antiguamente también era popular usar el puerto serie. • Inalámbrico En este caso, el dispositivo se usa sin un cable físico de comunicación entre éste y la computadora, utilizando algún tipo de tecnología inalámbrica. Para ello requiere un punto de concentración de la señal inalámbrica, un receptor, que produce mediante baterías el ratón, el emisor. El receptor normalmente se conecta a la computadora por USB, o por PS/2. Según la tecnología inalámbrica usada pueden distinguirse varias posibilidades: Radio Frecuencia (RF): Es el tipo más común y económico de este tipo de tecnología. Funciona enviando una señal a una frecuencia de 2,4 GHz, popular en la telefonía móvil o celular, la misma que los estándares IEEE 802.11b y IEEE 802.11g. Es popular, entre otras cosas, por sus pocos errores de desconexión o interferencias con otros equipos inalámbricos, además de disponer de un alcance suficiente: hasta unos 10 metros.


Infrarrojo (IR): Esta tecnología utiliza una señal de onda infrarroja como medio de transmisión de datos, popular también entre los controles o mandos remotos de televisores, equipos de música o en telefonía celular. A diferencia de la anterior, al tener un alcance medio inferior a tres metros, su éxito ha sido menor. Además de que tanto el emisor como el receptor deben de estar en una misma línea visual de contacto, de manera directa e ininterrumpida, para que la señal se reciba correctamente.

botones laterales programables, y una bola para mover el puntero, llamado Mighty Mouse.

Bluetooth (BT): Bluetooth es la tecnología más reciente como transmisión inalámbrica (estándar IEEE 802.15.1), que cuenta con cierto éxito en otros dispositivos. Su alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del estándar Bluetooth).

En Windows, lo más habitual es el uso de dos o tres botones principales. En sistemas UNIX como GNU/Linux que utilicen entorno gráfico (X Window), era habitual disponer de tres botones (para facilitar la operación de copiar y pegar datos directamente). En la actualidad la funcionalidad del tercer botón queda en muchos casos integrada en la rueda central de tal manera que además de poder girarse, puede pulsarse.

Un modelo inalámbrico con rueda y cuatro botones, y la base receptora de la señal

El controlador Es desde hace un tiempo, común en cualquier equipo informático, de manera que todos los sistemas operativos modernos suelen incluir de serie un software controlador (driver) básico para que éste pueda funcionar de manera inmediata y correcta. No obstante, es normal encontrar software propio del fabricante que puede añadir una serie de funciones opcionales, o propiamente los controladores si son necesarios.

Modelo Mighty Mouse de Apple

Hoy día cualquier sistema operativo moderno puede hacer uso de estos tres botones distintos e incluso reconocer más botones extras a los que el software reconoce, y puede añadir distintas funciones concretas, como por ejemplo asignar a un cuarto y quinto botón la operación de copiar y pegar texto.

Pérdida de sensibilidad o contacto de los botones: se manifiesta cuando se pulsa una vez un botón y la computadora lo recibe como ninguno, dos o más clicks consecutivos, de manera errónea. Esto se debe al desgaste de las piezas de plástico que forman parte de los botones del ratón, que ya no golpean o pulsan correctamente sobre el pulsador electrónico. Para solucionarlo normalmente debe desmontarse completo y colocar varias capas de papel adhesivo sobre la posible zona desgastada hasta recuperar su forma original. En caso de uso frecuente, el desgaste es normal, y suele darse a una cifra inferior al milímetro por cada 5 años de vida útil.

La sofisticación ha llegado a extremos en algunos casos, por ejemplo el MX610 de Logitech, lanzado en septiembre del 2005. Preparado anatómicamente para diestros, dispone de hasta 10 botones.

Dolores musculares causados por el uso del ratón: Si el uso de la computadora es frecuente, es importante usar un modelo lo más ergonómico posible, ya que puede acarrear problemas físicos en la muñeca o brazo del usuario. Esto es por la posición totalmente plana que adopta la mano, que puede resultar forzada, o también producirse un fuerte desgaste del hueso pequeño que sobresale de la muñeca, hasta el punto de considerarse una enfermedad profesional. Existen alfombrillas especialmente diseñadas para mejorar la comodidad al usar el ratón.

Modelo inalámbrico con cuatro botones

Sin embargo a pesar de estos problemas, son muchos los que agradecen este periférico tan popular, no sólo por su funcionamiento, sino también por su diseño que comparado con ese roedor temido por muchos, contradictoriamente acariciamos en esta forma, y agradecemos el que siga siendo parte de nuestras PCs.

Los botones Hasta mediados del 2005, la conocida empresa Apple, para sus sistemas Mac apostaba por un ratón de un sólo botón, pensado para facilitar y simplificar al usuario, las distintas tareas posibles. Actualmente ha lanzado un modelo con dos botones simulados virtuales con sensores debajo de la cubierta plástica, dos

miento del puntero en la pantalla. Puede retirarse fácilmente la bola de goma por la parte inferior y así acceder a los ejes de plástico para su limpieza, usando un pequeño pincel de cerdas duras. Para retardar la aparición de suciedad en el interior del ratón es recomendable usar una alfombrilla. Este problema es inexistente con tecnología óptica, ya que no requiere partes mecánicas para detectar el desplazamiento. Es uno de los principales motivos de su éxito.

Problemas frecuentes Puntero que se atasca en la pantalla: Es el fallo más frecuente, se origina a causa de la acumulación de suciedad, frenando o dificultando el movi-

Tomado de Internet

[GiGA 1 / 2008]

57


Douglas Engelbart

D

ouglas Engelbart es considerado uno de los padres de la informática y es el principal creador del ratón. Este genio de la informática nace el 30 de enero de 1925 en Portland, Estados Unidos. En 1942 termina el Instituto y se marcha a Oregon, donde comenzó a estudiar Ingeniería Eléctrica en la Universidad Estatal en Corvallis, pero abandonó sus estudios para ir como tantos otros jóvenes a la Guerra. Durante la II Guerra Mundial, Engelbart trabajó dos años de técnico de un invento reciente: el radar, que utilizaba un innovador sistema para mostrar información por una pantalla. Aunque Engelbart no tenía interés por la tecnología militar, encontró un atractivo en ésta, la cual, probablemente sería la semilla de su futura visión sobre cómo las máquinas podían mostrar información. "Si un monitor de radar puede hacer esto, un ordenador también", pensó Engelbart. Después de su graduación en 1948 consiguió un puesto de ingeniero eléctrico en el Laboratorio Aeronáutico de Ames (la precursora de la NASA o ARC) en Mountain View, California. Fue en esa época cuando comenzó a pensar sobre lo complicado que empezaba a ser el mundo y cómo los humanos podían solucionar este reto de comprensión y manejo en una sociedad que no paraba de evolucionar. En 1951 dejó por completo todo lo que hacía para centrarse de lleno en el mundo de las PCs. Se doctoró en Ingeniería por la Universidad de Berkeley en 1955 y con el objetivo de fundar su propio centro de investigación abrió un pequeño negocio de semiconductores, que abandonaría en 1957. Tras el rechazo por parte de David Packard (de Hewlett Packard) a las ideas de futuro de Engelbart, comenzó a trabajar en el Instituto de

58

[GiGA 1 / 2008]

Desarrollo de Stanford, bautizado por él y donde se dedicó a desarrollar herramientas que aumentasen la capacidad y productividad humanas, proyecto que pronto le llevaría al desarrollo de un dispositivo que revolucionaría la informática: el ratón. Este dispositivo, concebido inicialmente como un indicador de la posición x-y en la pantalla del ordenador para facilitar su manejo al usuario, como un mediador entre la máquina y el hombre sin necesidad de comunicar a la PC con instrucciones u órdenes lo que se quisiera ejecutar, está inspirado en las ideas de Vannevar Bush (As we may think), quien en 1945 ya soñaba con "navegar" entre hipertextos con su máquina Memex. "A Conceptual framework for the augmentation of Man's Intellect (1963)" es el título del estudio de Engelbart basado en las ideas de su antecesor Bush, donde intenta definir en 132 páginas, las funciones que habrían de incorporar las máquinas y programas para poder mejorar su rendimiento y ayudar a aumentar las capacidades cognoscitivas humanas. En las primeras pruebas del ratón probaron con una pelota grande y pesada y aparatos con ejes centrales. Contaban con un panel bastante ligero que se sostenía al lado de la pantalla con un control movible para manejar las cosas. Así, el primer

modelo desarrollado por Engelbart y su compañero de faenas Bill English, fue construido de forma artesanal con materiales tan simples como la madera o una moneda, pero su funcionamiento es prácticamente idéntico al de los ratones actuales. Este primer ejemplar es, sin duda, una pieza histórica en informática, y se encuentra en la casa de California de su inventor, y no en algún museo especializado como podría pensarse. Este genial científico, considerado por muchos como el Thomas Alva Edison de la informática (también se conoce como el antecesor de la ofimática moderna), desempeñó un papel esencial. Además de su aporte del ratón, con las innovaciones de Engelbart, se desarrolló el primer sistema digital de producción colectiva o groupware basado ya en la idea del hipertexto (Theodor Nelson acuñó el término hypertext en 1965 al que definió como "escritura no secuencial"); el sistema de "ventanas" (windows), que constituye la idea base sobre la cual se construyeron los


actuales sistemas operativos user friendly; los sistemas de ayuda integrados a la interfaz (los llamados help-on-line) que complementan y/o sustituyen los manuales escritos; el procesador de textos, y un sistema avanzado de correo electrónico. En 1984 el ratón de Engelbart (con un solo botón) pasó a ser incorporado en las Macintosh de Apple, pero no sería hasta los 90 cuando penetraría de forma extendida en los hogares como una parte o elemento más del ordenador. Así, éste se ha convertido en el segundo periférico más importante en un ordenador (el primero es el teclado, obviamente). Con el paso del tiempo, con la evolución en el diseño de los ordenadores en general, también se han producido modificaciones en el diseño y prestaciones del ratón, pero inalámbrico o no, óptico o no, con rueda, con 4 ó más botones, ergonómicos... la base sigue siendo la misma y su funcionamiento tampoco ha cambiado. Se puede afirmar que ha cambiado más exterior que interiormente. Después de 20 años dirigiendo su propio laboratorio y 11 años como científico, primero en Tymshare, donde se encontró marginado y relegado a la oscuridad, a pesar de que varios ejecutivos mostraron interés por sus ideas, ninguno de ellos se ofreció a poner fondos para

su desarrollo. Posteriormente, en la Corporación McDonnell Douglas, Engelbart decidió en 1986 retirarse por completo de la vida corporativa. Funda en 1989 junto con su hija Christina, un centro de estudios estratégicos con objeto de mantener viva esa idea bipolar de conocimiento-tecnología para ayudar tanto a empresas como a la administración, y lo llamó Bootstrap. Funciona como una ONG de producción intelectual y lógicamente, a pesar de las propuestas de privatización, es una organización sin ánimo de lucro. Este instituto tiene sus instalaciones en la sede de Logitech, empresa de fabricación de dispositivos periféricos que más se ha lucrado con el invento de Engelbart. De ahí que no es de extrañar esta predisposición por parte de una empresa privada hacia una ONG tecnológica. En 1993 recibió el IEEE Computer Pioneer Award. En el año 1996 fue galardonado con el Premio Yuri Rubinsky Memorial que se concede a personas individuales que hayan contribuido a lo largo de una vida llena de esfuerzos al cuidado y desarrollo de la infraestructura mundial de información y que está dotado con 10 000 dólares. Para 1997 le otorgaron el Premio Lemelson-MIT, del Instituto de

Tecnología de Massachusets, una eminencia para los investigadores, que otorga medio millón de dólares. En este mismo año recibe también el Premio Turing, galardón otorgado todos los años por la ACM a individuos destacados por sus contribuciones técnicas a la comunidad informática. Está considerado como el Premio Nobel de la Informática. El año 1998 lo incluye en el Salón de la Fama de los Inventores Nacionales. En el 2000 se le hizo entrega a Engelbart de la Medalla Nacional de Tecnología por crear las bases de la informática personal. Un año después fue galardonado con la Medalla de la Sociedad Británica de Computación Lovelace. Este reconocimiento se otorga a personas que han realizado contribuciones significativas al avance de los sistemas de información o en la comprensión de su desarrollo. Recibió también en el 2005, el Norbert Wiener Award que otorga anualmente la Asociación de Profesionales de la Informática por una Sociedad Responsable. Actualmente Engelbart divide su tiempo entre el Instituto Bootstrap y dirige seminarios, publicaciones, mesas de trabajo. Engelbart es autor de más de 25 publicaciones, ha generado 20 patentes y ha recibido una gran cantidad de premios y reconocimientos.

Curiosidades El primer ratón, construido por el propio Engelbart a partir de un bloque de madera, tenía el botón (un pulsador hecho con una moneda de cinco centavos) en el lado derecho del artilugio. ¿El motivo? Como podéis imaginar, Engelbart era zurdo. Debido a su entrenamiento en el ejército, Engelbart fue capaz de trabajar prácticamente todo el día sin descanso durante largos años, usando su tiempo libre para desarrollar y escribir los conceptos de las tecnologías que tenía en mente. En el libro Bootstrapping: Douglas Engelbart, Coevolution, and the Origins of Personal Computing se

desprende que demostró no haber servido como organizador de grupos de trabajo y aparentemente no fue capaz de transmitir su visión a los colaboradores. Así, la mayoría de ellos fueron a parar (en 1978) a Palo Alto Research Center de Xerox, donde impusieron la facilidad de uso como uno de los requisitos fundamentales de cualquier sistema, y Engelbart tomó como traición a sus ideales, ya que para él siempre predominó el desarrollo de las capacidades por encima de la facilidad de uso. La presentación original en vídeo de los famosos 90 minutos de 1968 forma parte de la Colección Engelbart en las Colecciones Especiales de la Universidad de Stanford. El vídeo ori-

ginal fue editado y secuenciado en 35 partes distintas (en formato Real Vídeo). Las ideas de Engelbart eran tan radicales, revolucionarias y asombrosas, que muchos asistentes a la famosa presentación del año 68 creyeron que todo se trataba de una farsa, un hoax. [GiGA 1 / 2008]

59


Doble clicK Hablando de la Feria

E

Hacia Informática 2009

n el número anterior anunciamos, e hicimos realidad, llevarles lo que acontezca en el camino hacia la Convención y Feria Internacional Informática 2009 que ha de celebrarse del 9 al 13 de febrero de ese año, en las áreas del Palacio de Convenciones y del contorno expositivo de Pabexpo. De la Feria hablamos en esta edición. La Feria Comercial de Informática 2009 tendrá por sede será el centro de exposiciones Pabexpo, que colinda con el Palacio de Convenciones. Su Comité Organizador tiene como objetivo que esta Feria brinde su espacio en el que productores y empresas cubanas y extranjeras expongan en un ambiente de intercambio y solidaridad, sus más novedosos proyectos, tecnologías, recursos, productos y servicios del campo de las soluciones y aplicaciones informáticas, telecomunicaciones, electrónica y la automática, así como su empleo en los diversos sectores de la sociedad. Objetivos 1. Mostrar las posibilidades y aplicaciones en proyectos, equipamientos y sistemas que en el universo de las Soluciones Informáticas, el Software, las Telecomunicaciones, la Electrónica, la Automática y los Equipos Médicos ofrecen hoy empresas e instituciones cubanas y del mundo. 2. Presentar resultados relevantes en proyectos de investigación, desarrollo e

innovación tecnológica de las TIC que contribuyen al desarrollo endógeno. 3. Mostrar en un área expositiva denominada CUBA, un grupo importante de soluciones y proyectos de aplicación de las TIC, que contribuyen al objetivo de alcanzar Soberanía Tecnológica. 4. Procurar un área donde productores y empresas cubanas y extranjeras muestren sus más novedosos productos y soluciones. 5. Propiciar un espacio de intercambio y negociación fraternal donde cada expositor, participante y visitante de la Feria encuentre respuestas y soluciones acordes con sus necesidades. 6. Crear un espacio para promocionar proyectos en etapas primarias de su desarrollo, con el fin de identificar posibles asociados para el cierre del ciclo de producción y comercialización. Plazos y fechas importantes • Solicitudes de muestras expositivas: hasta el 30 de septiembre del 2008. • Confirmación de aceptación de muestras expositivas: hasta el 1 de diciembre del 2008. Idiomas oficiales: Español e inglés. Todos podemos ser portavoz del Comité Organizador y extender esta invitación a participar en la Feria Comercial a personalidades, científicos y profesionales del sector de las Tecnologías de la Información, las Telecomunicaciones, la Electrónica y la Automática que deseen compartir sus conocimientos en este escenario de intercambio solidario. (A cargo de Norma Márquez)

Wiki Search ya está disponible

C

omo ocurre en Wikipedia, Wikia Search se basa en la participación de los usuarios, que pueden controlar el sistema para organizar los resultados de las búsquedas, valorar su utilidad o crear sus propios buscadores. Wikia Search competirá con otros buscadores como, por ejemplo, Google, que utiliza complicados y secretos logaritmos para establecer en qué orden aparecen los resultados de una búsqueda. Jimmy Wales, fundador de Wikipedia y uno de los creadores del proyecto Wikia Search, dijo que espera que este portal "sea como el buen vino, ya que mejorará a medida que pase el tiempo y más y más usuarios contribuyan con él. Las búsquedas en Internet deben ser más abiertas y transparente". A diferencia de Wikipedia, que es una fundación sin ánimo de lucro, Wikia Search depende de la firma Wikia y obtendrá en un futuro ingresos publicitarios. Por su parte, Google anunció que desarrolla un servicio competidor de la enciclopedia en Internet, Wikipedia, donde los usuarios podrán escribir artículos sobre diferentes temas, eso sí, firmados.

Llegarán al millón los cubanos graduados de computación

C

uando en junio concluya el actual curso en las instalaciones de los Joven Club de Computación, nuestro país llegará al millón y medio de graduados en esas instalaciones. Se destaca que en el período de octubre del pasado año a enero del presente, concluyeron sus estudios en esa especialidad más de 100 mil personas, lo que muestra el interés por su aprendizaje en niños, jóvenes y adultos. Actualmente, los Joven Club de Computación tienen una matrícula que sobrepasa 125 mil alumnos, además de dar atención a la Universidad de las Ciencias Informáticas, personas con limitaciones físicas y de la tercera edad, así como también propician la navegación por

60

[GiGA 1 / 2008]

la red Cuba, la comunicación vía correo electrónico entre los colaboradores en el exterior y sus familiares, y la difusión de la realidad de Cuba por Internet.


Doble clicK Mentiras que circulan sobre las computadoras

S

í, efectivamente, el cibermundo no escapa a los augurios y supersticiones como en la vida diaria. Ahí están los muy famosos de que pasar por debajo de una escalera trae mala suerte y el del gato negro, ¿quién no ha meditado ante alguno en un momento dado? Pero su difusión por Internet es muy rápida y se ha convertido en fuente de inspiración para inventar leyendas urbanas. Por ejemplo: una de esas ficciones cuenta que si se nos cae un vaso de líquido sobre el teclado, éste queda inservible. Será cuento, pero a todos gusta repetirlo. Con la proliferación de la comunicación electrónica, la difusión de esos rumores se ha incrementado exponencialmente. Pero la informática no es sólo una vía, sino también un tema para estas historias. Veamos: El apagado imprescindible- Indica que si no apagamos la PC por la noche, su velocidad se reducirá, pero existen programas de hibernación que evitan que tengamos que apagar el aparato.

La antorcha olímpica- Esta información se recibe por e-mail. Habla de un virus que 'quema' las tripas de la PC. El borrado completo- Se cree que si se eliminan los archivos de un ordenador se puede regalar o botar sin riesgo de que alguien llegue a saber lo que contenía. El sistema anticopia- Se asegura que Windows Vista está plagado de sistemas de protección anticopia y de bloqueo de contenidos a instancia de la SGAE y otros organismos semejantes que impiden grabar música descargada de Internet. Tampoco puedes reproducir DVD comprados si no es con un reproductor específico de Windows. La doncella ciega- Si entras en la página www.blindmaiden.com estando solo, en la medianoche de un día sin Luna y con todas las luces apagadas te encontrarás con una doncella ciega que te arrancará los ojos. Son supersticiones, es cierto, pero… cuidado… no existe aforismo que no se base en la experiencia.

Para Stallman, el término propiedad intelectual puede confundir

R

ichard Matthew Stallman aboga por establecer un marco de referencia moral, política y legal como alternativa al desarrollo y distribución de software privativo. Stallman, considerado padre del movimiento del software libre, propuso eliminar la expresión "propiedad intelectual" a la hora de

definir normativas dispares como los derechos de autor, las patentes y las marcas, ya que ese término beneficia a empresas y "confunde" a la sociedad. Se cuentan entre sus mayores logros como programador, el editor de texto Emacs, el compilador GCC y el depurador GDB, bajo la rúbrica del Proyecto GNU.

China adelantará a EE.UU. con mayor número de internautas

C

hina adelantará muy pronto a Estados Unidos y se convertirá este año en el país con el mayor número de usuarios de Internet del mundo, según cálculos anunciados por fuentes oficiales. El país asiático tenía a finales del 2006

unos 210 millones de internautas, tan sólo cinco millones menos que Estados Unidos. Ya que su número de usuarios se incrementó en 73 millones durante el 2007, es de prever que el adelantamiento se produzca muy pronto.

HP presenta disco de estado sólido

L

a firma Hewleck Pacard anunció introducir discos de estado sólido (SSD) en sus sobremesa con un modelo que, según fuentes de la firma, es 46% más delgado que cualquiera de los hasta ahora disponibles en el mercado. Según la compañía, el HP Compaq dc7800 Ultra-Slim Business Desktop, se trata del modelo más pequeño para equipos de sobremesa empresariales que dispone de características mejoradas: mayor eficiencia energética y soporte para Intel vPro, que facilita la gestión de las PCs. Los SSD consumen menos energía que los discos duros convencionales y según los fabricantes, pueden reemplazar a los discos duros de las PC como almacenamiento primario ya que proporcionan mejor rendimiento y durabilidad, así como un acceso a los datos más rápido. Por el momento, HP va a disponer de un disco SSD de 16 Gb, aunque los usuarios podrán seleccionar discos duros con capacidades de almacenamiento de hasta 160 Gb. El sistema también incluye soporte para TPM (Trusted Platform Module), un hardware basado en tecnología de autenticación para la seguridad del sistema. Se ejecuta sobre procesadores Core 2 Duo, Celeron D o Pentium de Intel y dispone de conexión Gigabit Ethernet más un acelerador de gráficos de Intel. Como sistemas operativos, el usuario puede elegir entre Windows Vista, XP o FreeDos. Con este anuncio, HP se suma a las iniciativas de incluir discos SSD en su hardware, tales como Dell o Toshiba. [GiGA 1 / 2008]

61


Doble clicK Faltan profesionales de las TI en Latinoamérica

L

atinoamérica sufre un déficit de 84 000 profesionales en Tecnologías de la Información (TI), situación que se agravará en el 2010, cuando se necesitarán 90 000 personas en esos puestos, según un estudio de la firma Cisco Systems trascendido en Costa Rica. El informe “Demanda de habilidades en redes y conectividad”, destaca que en dos años las empresas en la región solici-

tarán 333 000 puestos para profesionales en tecnología, pero sólo habrá una oferta de 243 000 personas, lo que podría afectar la productividad y competitividad latinoamericana. Para llegar a estas cifras, Cisco encuestó a expertos del área de gobierno, telecomunicaciones, salud, educación y comercio en Argentina, Colombia, Costa Rica, Chile, Venezuela, Brasil y México.

Las portátiles podrán alimentarse de sol y agua

V

oltaic System mostró en CES (Consumer Electronic Show) 2008 su maletín Generator, ya disponible, que permite a los usuarios enchufar sus laptops a una batería recargable albergada en su interior. Un panel solar que cubre uno de los lados del maletín es el encargado de proporcionar la energía, mientras que la batería interna es lo suficientemente inteligente para detectar si la laptop enchufada necesita 12 ó 20 voltios. Voltaic Systems incluye en su oferta diversos enchufes universales para garantizar la compatibilidad del producto con múltiples marcas de portátiles. El maletín pesa casi dos kilos con la batería, y es necesario que

B 62

[GiGA 1 / 2008]

Bluetooth dispondrá de un modo WiFi Los futuros dispositivos con tecnología Bluetooth tendrán la capacidad de conectarse a redes WiFi 802.11 para aprovechar ese mayor ancho de banda, una medida que mejorará de forma notable el comportamiento de esos productos.

Reproducción de vídeos online crece Un informe de la consultora Carrier y Asociados reveló que la reproducción de vídeos online creció 250% en el en Argentina. Se pasó de dos a siete millones de consumidores en sólo un año. El estudio demostró que reproducir vídeos resulta una actividad cotidiana, y que su consumo aumenta notablemente en la medida en que desciende la edad.

Las videogafas transforman la vista

la luz solar incida directamente sobre el panel para conseguir un funcionamiento óptimo, y el portátil tarda un día en cargarse completamente. Por eso, el fabricante recomienda realizar recargas parciales de menor cuantía, pero con frecuencia.

Hay dos motores de búsqueda chinos entre los diez más usados del mundo aidu y Alibabá, principales motores de búsqueda de China, se situaron en el tercer y décimo puestos, respectivamente, de la lista de los diez más usados del mundo, según el estudio de una consultora publicado en la prensa local. El primer puesto lo ocupó Google,

Compactas sin CD...

con un 62,4% de las búsquedas, cinco veces más que el segundo, Yahoo, que registró 12.8%. Baidu está considerada la versión china de Google gracias a su popularidad y beneficios. Alibaba.com entró por primera vez en la lista de "los diez" con 0,8% de las búsquedas globales.

Según crece el tamaño de los televisores, los espectadores se alejan de la pantalla, pero existe una tendencia paralela en la electrónica de consumo que reduce las pantallas y las acerca más al espectador: a unos centímetros del globo ocular. Las videogafas, empleadas como lentes normales, requieren dos pequeñas pantallas de cristal líquido que dan al espectador la sensación de que ve un televisor de pantalla grande desde unos dos metros… cuidado, dicen los que saben que causan transformaciones en la vista.

El español aumenta su influencia en Internet El idioma español aumenta su influencia en las búsquedas efectuadas en la Red en los últimos siete años, mientras que Estados Unidos pierde su predominio como eje de las telecomunicaciones mundiales, según revela un estudio del Centro del Instituto de Empresas para el Análisis de la Sociedad de la Información, Enter.


Doble clicK La Unión Europea quiere que la IP se considere dato personal

E

l director de la oficina de Protección de Datos alemana, Peter Scharr, planteó que la serie de números que identifica a una computadora en la Web, la dirección IP, sea considerada una información de carácter personal. Actualmente, Scharr dirige un grupo de la Unión Europea que elabora un informe para determinar si las políticas de privacidad de los buscadores Google, Yahoo y Microsoft, entre otros, cumplen con las leyes comunitarias de protección de datos de los

usuarios. En una declaración en el Parlamento Europeo, Scharr aseguró que si alguien puede ser identificado por su IP en Internet, entonces ésta "ha de ser considerada como un dato personal". Su opinión es muy diferente a la que sostiene Google, que insiste en que una dirección IP identifica simplemente la localización de un ordenador, no al usuario individual. De hecho, pueden estar ligadas a un cibercafé o a una oficina, donde las computadoras son usadas por varias personas.

Actualización anti-adware es un virus

T

rend Argentina lanzó una alerta sobre la aparición de un nuevo malware que tras la promesa de actualización de una supuesta herramienta de seguridad infecta el ordenador del usuario. "Bajo la recomendación de actualizar la licencia de esta falsa aplicación de seguridad, el usuario no hace más que reactivar un troyano y no sólo eso, sino que además, para

activarlo, el internauta debe enviar su dinero vía sms o telefónicamente, lo cual transforma a este ataque en una doble pérdida de dinero", afirma Mariano Gut, Ejecutivo de Cuentas Corporativas de Trend Argentina. "De este modo, el usuario no sólo infecta su PC, sino que además pierde dinero adicional por ese cobro fraudulento", sintetiza el especialista.

Un paraguas con Internet

L

a tecnología todo lo impregna y parece que ahora ha llegado por fin al paraguas. Si el año pasado fuimos testigos de la creación de uno que avisa a su dueño de cuándo va a utilizarlo, con una luz que parpadea en su mango, ahora lo somos de su unión con Internet. En un intento por hacer "más divertido caminar bajo la lluvia", dos científicos de la Universidad Keio de Tokio trabajan desde hace casi dos años en un prototipo de paraguas que se conecta a Internet mediante una conexión inalámbrica y utiliza su parte interna como pantalla donde proyecta imágenes. Fotos y GPS Conocido como Pileus, el paraguas

Más compactas sin CD... Corel renueva aplicación para editar imágenes Con nuevas capacidades para el retoque de fotografías digitales, Corel lanzó el Corel Paint Shop Pro Photo X2, con una paleta de funciones mejorada para compensar efectos como la falta de iluminación o la niebla, circunstancias habituales en las fotografías tomadas en temporada invernal. Otras herramientas son el ajuste de relleno flash para corregir rápidamente áreas subexpuestas o la mejora fotográfica inteligente que corrija la imagen en general.

Firefox 3 usará menos memoria en Linux Las mejoras que se añaden a la última versión de Firefox afectan especialmente el consumo de memoria, un apartado que en Linux se verá muy reducido, según las palabras de Chris Blizzard, miembro de Mozilla Foundation, y explicó que el objetivo de ésta, a largo plazo, es hacer que la web se mantenga como plataforma viable, a pesar de los intentos de Microsoft y Adobe por imponer tecnologías propietarias como Silverlight y AIR, que amenazan desplazar a los estándares abiertos.

Linus explica porqué la gente no pasa a Linux

permite al usuario ver vídeos mientras camina, además de poder tomar fotografías, ya que lleva una cámara incorporada. También el paraguas cuenta con un sistema de posicionamiento vía satélite en tres dimensiones, ofrecido por Google Earth, para que el usuario no se pierda durante su paseo.

En una entrevista concedida a la Linux Foundation, Linus Torvalds habló del pasado, presente y futuro de Linux, y según su criterio, Linux sigue sin triunfar porque la gente está contenta así como están las cosas. Torvalds confirmó que su verdadero interés era hacer que Linux triunfase en la informática personal y en la de escritorio que es la usada por la mayoría de las personas. Sin embargo, las cosas no están saliendo como él podría desear, y eso se debe a una realidad eterna y palpable: más vale malo conocido que bueno por conocer. [GiGA 1 / 2008]

63


Y para satisfacer una parte de las muchas sugerencias de los giganautas traemos algunos temas, corticos por supuesto, que por no ser muy complejos se ajustan a los límites de lo "elemental". Sí, soliciten en sus cartas o llamadas, contenidos que en buenas y útiles síntesis podamos "desenmarañar", pues siempre juntos aprendemos.

Cómo ocultar el contenido de una carpeta en Windows XP sin de instalar programas Gracias al sistema de archivos NTFS, Windows XP permite que cada usuario cifre sus carpetas. Es decir, los demás usuarios del sistema podrán ver sus contenidos, pero no abrir, mover o copiar los archivos. También existen numerosos programas que permiten ocultar carpetas en Windows, pero su empleo no es muy recomendado, ya que pueden fallar a la hora de mostrar o desbloquear las carpetas. Hace más de un año, Microsoft creó a 'Microsoft Private Folder', un programa que permite a los usuarios tener una carpeta bloqueada con contraseña, que resulta efectivo, y tanto que muchos usuarios, en su momento, olvidaron la contraseña asignada a la carpeta y no volvieron a entrar a ella. Por ese motivo, Microsoft se vio obligado a quitar el programa de su web de descargas.

5- Entonces, para entrar a la carpeta y ver su contenido se deberá dar doble click en el segundo .bat creado. Y para que esta magia funcione es necesario que los archivos .bat se ejecuten desde la misma ubicación de la carpeta privada. Lo mejor sería tener los dos archivos en otra carpeta o en una memoria flash, para que nadie los asocie y los utilice, además, porque cualquiera que conozca el truco puede crear el .bat correspondiente para acceder al contenido, pero muchos no lo conocen y los que intenten acceder a la carpeta, verán el Panel de Control y cerrarán la ventana sin darle mayor importancia, sobre todo si la ubicación y el nombre de la carpeta privada son discretos.

¿Qué significa desfragmentar el disco duro y para qué sirve? Puede explicarse con un esquema sencillo:

Ahora demos uno a uno los pasos para ocultar el contenido de una carpeta 1- Se crea una carpeta nueva para guardar allí toda nuestra información confidencial. Por ejemplo, puede ser en Mis documentos. 2- En la misma ubicación (en este caso dentro de Mis documentos), se crea un nuevo archivo con el Bloc de notas y se copia el siguiente código, remplazando lo escrito en rojo por el nombre de la carpeta privada. ren giga.net {21EC2020-3AEA-1069-A2DD-08002B30309D} Después se guarda el archivo con la extensión .bat, por ejemplo 'elemental.bat'. 3- Se deberá crear otro archivo parecido y guardarse en el mismo directorio con la extensión .bat, por ejemplo 'ahora.bat'. En este caso, el código a incluir es el siguiente (remplazar lo escrito en rojo): ren giga.net.{21EC2020-3AEA-1069-A2DD-08002B30309D} giga.net 4- Al final tendremos en la misma ubicación: nuestra carpeta a proteger y dos archivos .bat. Con doble click en el primer .bat creado, ocultaremos el contenido de la carpeta. Se observará que el icono de la carpeta cambia y es similar al que corresponde al Panel de Control. Ahora, si se intenta acceder a la carpeta no se verá su contenido, sino que se accederá al Panel de Control.

64

[GiGA 1 / 2008]

La flecha roja = disco con archivos fragmentados La flecha amarilla = disco con archivos desfragmentados • Suponiendo que se quiere abrir o ejecutar el archivo verde (cada bloque es parte del archivo), se verá claramente cómo entre los bloques hay parte de otro archivo (bloque azul). Para abrir o ejecutar el archivo verde, el disco deberá leer los dos primeros y buscar el tercero para continuar leyendo el archivo, pero para eso debe saltar el bloque azul. Igual sucede si se quisiera abrir o ejecutar el archivo azul. Y esto ocurre porque los archivos en el disco duro se encuentran fragmentados, diseminados por todo el disco, para leerlos el cabezal va y viene en busca de las distintas partes de los archivos. Nota: Si se tiene el disco duro muy fragmentado, las aplicaciones se ejecutarán más lento, pues se tarda más en encontrar las distintas partes que forman un archivo y leerlo completamente.


¿Es provechoso actualizar Windows? Muchos amigos piensan que las actualizaciones de Windows no son útiles y que es mejor no descargarlas, o incluso, siguen el consejo de algún informático de no descargarlas. Ésta es una recomendación errónea. Las actualizaciones de seguridad de Windows solucionan vulnerabilidades del sistema: lo hacen más seguro y estable, por lo que son necesarias especialmente si la PC está expuesta a las amenazas de Internet. Todos los sitios sobre seguridad, en la red de redes, lo recomiendan. Por regla general, Microsoft libera los parches el segundo martes de cada mes y las descargas se encuentran disponibles en Windows Update por el sistema automático de descargas de Windows.

Esta advertencia aparece automáticamente cuando no se selecciona una actualización, y así se evita que Windows recuerde a diario su descarga.

El XP-AntiSpy optimiza con pequeños ajustes El XP-AntiSpy es un programa gratuito de unos 339 kb que permite configurar varias funciones de Windows XP.

Acerca de por qué las actualizaciones son malas Su raíz está en el Windows Genuine Advantage (WGA), un programa ActiveX que se encarga de comprobar si el sistema operativo es original o no. En el caso de no serlo, aparece un molesto icono y mensaje junto al reloj que engaña al usuario con la indicación de que está en riesgo, además, al iniciar Windows también se muestra el mensaje y se demora el inicio del sistema. La idea del WGA es limitar a los usuarios piratas con algunas descargas desde la Web de Microsoft, además de asustar a más de uno para que compre la licencia original. Las descargas críticas y de seguridad no se ven limitadas por tener una copia pirata, es decir, Microsoft permite su descarga e instalación.

Entonces: No instales el WGA si tu Windows es pirata... Es posible evitar la instalación del WGA y no instalarlo es lo ideal si se tiene una versión pirata, más allá de que existen métodos para eliminar el WGA del sistema o simular que se tiene un Windows original. Una vía para evitar el conflicto del WGA es configurar las actualizaciones de Windows para que se nos notifique de la existencia de los parches, pero éstos no sean descargados ni instalados hasta que nosotros queramos. Eso se logra desde el Centro de Seguridad en el Panel de Control. Una vez configurado, todos los meses el sistema de actualizaciones de Windows permitirá descargar los nuevos parches de seguridad. En la ventana de descargas podrá seleccionarse qué actualizaciones descargar y cuáles no, y entonces descartar la del WGA.

Su uso es muy sencillo. Cada función de la lista se detalla en el sector inferior de la ventana y los ajustes que realicemos se aplicarán sólo si damos click en el botón Aplicar ajustes, y podremos crear nuestros perfiles de configuración o emplear aquellos que el programa trae por defecto. Esto es algo muy sencillo, pero útil.

Para proteger los datos del pendrive Se trata de un programa gratuito y de fácil manejo: Remora Usb Disk Guard que al ser instalado en un pendrive o en un disco duro externo, permite encriptar bajo una contraseña los archivos y carpetas que deseemos. Este programa no oculta los archivos, sino que los encripta y eso imposibilita su lectura o escritura sin la contraseña correcta. Es, sin duda, una buena opción para evitar el acceso no autorizado a documentos y datos personales que se almacene en estos dispositivos. La instalación requiere 5 megas de espacio y es compatible con Windows 2000, XP, 2003 y Vista.

Dos antivirus en la PC ¿funcionan? No se recomienda tener dos antivirus en una misma PC porque se anulan, salvo que estén muy bien configurados. Un antivirus y un programa anti-syware como el AdAware sí se pueden tener porque cumplen funciones distintas: uno detecta los virus y el otro spywares y programitas especialmente de publicidad que hacen lenta la PC. Estos dos no generan conflicto entre sí. [GiGA 1 / 2008]

65


Hola giganautas… este saludo es el primero del 2008….y cómo pasa el tiempo que de pronto son años… sí, ya estamos descontando el número doce y continuamos con muchos amigos que nos hacen llegar sus cartas y sus mensajes. Honestamente, se las ingenian para contactarnos y eso nos halaga. Entonces comenzamos a contestar esas cartas que tantos ánimos nos dan para que la tarea sea mejor y más objetiva.

De los requisitos para colaborar "Algunos pequeños detalles no están del todo claros para que al redactar un artículo sea verdaderamente completo para su publicación", eso nos comenta la lectora Déborah Fernández que vive en el municipio de II Frente, en la oriental provincia de Santiago de Cuba. Ella, que se desempeña como Informática de su empresa, quiere colaborar con GiGA, pero solicita le especifiquemos algunos aspectos. Sí, no comiences tu artículo con un subtítulo (en diseño se le cambia la inicial por una capitular, lo que en un subtítulo no es posible), generalmente empleamos la narración impersonal (si se trata de alguna experiencia, la respetamos) y debes adicionar un resumen que sirve para la edición, el diseño y para redactar la Sección del Contenido. Y aunque siempre ayudamos, es mejor adelantar esta parte… Ah… y no olvides los subtítulos que introducen a los subtemas de tu trabajo.

Agradecemos una sugerencia A Walter Casañas Olivera, alias elprofet@, estudiante de 4to. Año de Bibliotecología y Ciencia de la Información, en la Universidad de La Habana, le agradecemos la sugerencia para el tema de Linux y le decimos que espere su próxima aparición en nuestras páginas. A los autores del trabajo: Linux: Un futuro para Cuba también les informamos tus consideraciones y esperamos puedan ustedes intercambiar información mediante sus contactos, y el de Walter es sedelisa@uh.cu.

Una carta muy arriba Es un tema muy técnico el que solicita el Licenciado Ericnell Puebla Núñez, que se desempeña como jefe del SubNodo de Educación, en Bartolomé Masó, en la provincia de Granma y que tiene el correo eric@dmebm.dpegr.rimed.cu, consultaremos con nuestros colaboradores habituales para ver quién te puede ayudar en lo referido a la búsqueda de informaciones en una base de datos MySQL, pues en este

66

[GiGA 1 / 2008]

momento no tenemos cómo contactar al autor del programa. La idea de la sección que propones es muy buena y desde ya la tenemos en la mira. ¿Tus palabras?: bienvenidas. Gracias.

Para todos trabajamos Una carta muy linda nos llegó del lector Maykel Bravo Navarro (no envió su dirección personal). Él labora en la Asociación de Sordos de Cuba (ANSOC), es sordo y estudia ingeniería en Informática. Estamos prestos a ayudarlos también a ustedes para que realicen una suscripción y te estamos eternamente agradecidos por ser una de tus lecturas preferidas.

Y del organopónico de Alamar Los amigos de esta unidad productora de vegetales, hortalizas y plantas que sirven como condimentos, en Alamar, nos hacen una consulta bastante general, y aunque desde GiGA no podemos sugerir una solución, sí les decimos que se comuniquen con el Centro de Llamadas Leatiendo de Copextel, al 204-3333, que allí les indicarán a dónde dirigirse para conseguir esa nueva selladora que necesitan. Y la carta de ustedes nos da mucho ánimo, pues sabemos que hasta esos pequeños e importantes lugares llegamos. Ya nos estamos despidiendo, y les recordamos que toda carta que nos llegue será siempre bienvenida y servirá para aprender algo útil con ustedes, los lectores. No olviden que nuestra dirección aparece en la primera página, que somos un colectivo que trata de publicar las experiencias de todos, y técnicos en general, así como sus experiencias e innovaciones, y por ello, y porque trabajamos pensando en el futuro, las ideas que a este grupo lleguen pueden servir para ayudar a otros lectores que también nos contacten. Y ahora se impone el "chao giganautas". Colectivo de GiGA

A punta de Cursor... Por Norma Márquez González

Y miren amigos, cuando este ejemplar llegue a sus manos, ya estaremos más cerca de la XIII edición de la Feria y Convención Internacional Informática 2009, y con todo el trabajo que generan esos encuentros de congresos, talleres, exposiciones e intercambios, nosotros los de esta Redacción, también tendremos llenas nuestras mesas y PCs de materiales que nos relacionen con el evento. Aún están frescos los días de la XII edición del 2007 cuando entre las tareas priorizadas me propuse aquella de asistir cada día para llevarles la información más real de lo que en el Palacio de Convenciones acontecía. Y en forma de suspiro vienen hoy de mi "cesto de mimbre" los diferentes stands cuando conversara con los expositores e "inventaba" para lograr la mejor foto que luego ilustraría el recuento que hiciera para tal ocasión. La del 2009 se prepara bajo el lema "Las Tecnologías de la Información y las Comunicaciones como soporte para el desarrollo endógeno y la soberanía tecnológica de los pueblos", esta edición sesionará tanto en el espacio de Pabexpo como en el Palacio de Convenciones, y también GiGA, una vez más, plasmará su desarrollo. Con estos nuevos aires, viene a mi mente que no sólo en forma de revista, GiGA ha transitado por salones y stands: en la edición del 2000 realizamos tres incursiones en forma de tabloide, y en la del 2002 con su elegante portada negra ofreció a los seguidores (muchos, entonces estudiantes, quizás hoy, profesionales) una historia resumida de la historia de la computación, labor casi de magia, que logramos de nuestros gigacolaboradores. Entonces, desde ya, y con el deseo serio y característico de cuando nos empeñamos en una tarea, este colectivo les invita a visitar los sitios de la bibliografía, porque en febrero del 2009, del 9 al 13, si asistes, nos encontraremos por esos lugares. Sí, nos veremos seguramente en la gran cita de la Informática.

Bibliografía: http://www.informaticahabana.cu http://www.informaticahabana.com


Esta imagen muestra lo que pasaría si los libros utilizaran Internet Explorer...

Definiciones: Webmaster: personaje que se pasa toda la vida webeando. Foto digital: Poner el dedo en el lente de la cámara. Ley del software: si aprenden a utilizarlo, sacan otra versión. ----------------

''Las vacaciones de un informático'':

Un informático despistado va a una conferencia, y está en el vestíbulo del hotel con las maletas. Su esposa no confía en él para hacer el papeleo del hotel, así que le dice: • Mira: yo voy a firmar en el libro de registro, conseguir la llave y todas esas cosas. Tú quédate aquí vigilando las diez maletas. Cuando ella vuelve, el marido le dice: • Oye, no lo entiendo, nadie nos ha robado ninguna maleta, sin embargo tenemos nueve. • ¿Qué dices? ¡Hay diez! • No, mira, cuéntalas: 0, 1, 2...

Así será Google dentro de 5 años

Solución del cruciGiGA

[GiGA 1 / 2008]

67


Horizontales 1. Superficie principal de trabajo del Windows. 11. Jugosa fruta de los cítricos. 14. Repetición del sonido. 15. Sirve para abrir puertas y si es inglesa para ajustar. 18. Cada una de las partes en que se divide una obra teatral (plural). 20. De ir (inv.). 22. De lo que están llenas las criollitas de Wilson. 23. Até, junté. 24. Tipo de tarta compuesta por panetela y se cubre con merengue. 25. La letra más gordita. 26. Monstruoso, horrible. 28. Del verbo ser (tú y ahora). 30. Abreviatura de señor. 32. De andar (yo, ahora). 34. Capital más iluminada. 37. Anillo. 39. Terminación de infinitivo. 40. Cuatro en números romanos. 42. Quitar la vida. 44. Igual a la 30. 45. De tejer (yo, ayer). 46. Sílaba de fruta tropical y repetida es el nombre completo. 47. Del verbo tocar (yo, ahora). 48. Símbolo del azufre. 49. Lugar seco donde se guarda trigo u otros granos. 50. Punto donde ocurren dos o más conexiones en una red de comunicaciones. Verticales 1. Link. Palabra, frase o gráfico de un hipertexto que conecta con otra información. 2. En informática es sinónimo de guardar o grabar en la memoria. 3. Persona que intenta acceder a un sistema informático sin autorización y generalmente con fines maliciosos. 4. Dios del Sol de la mitología egipcia. 5. Conjunción excluyente (inv.). 6. Símbolo del prefijo TERA (un billón). 7. Símbolo químico del oxígeno.

68

[GiGA 1 / 2008]

Autores: Ene Eme Ge normamg@enet.cu

8. Una de las teclas principales en un teclado. Enter. 9. Símbolo que representa acción o mandato en el escritorio de la PC. 10. En ajedrez, enroque corto. 12. Lenguaje de programación desarrollado por Sun Microsystems para elaborar aplicaciones exportables a la red. 13. Obedecer, cumplir órdenes. 16. Sílaba de vuelen. 17. Para los griegos: dios del amor. 19. Afirmación. 27. Macho de la zorra (muchos). 29. Semejante, comparación entre dos cosas. 31. Periférico que soporta el peso de la mano para hacer click o doble click. 33. Tiene muchas definiciones: flexibles, duros, compactos… 34. Hendiduras microscópicas sobre la capa de material reflectante del CD que permite registrar la información. 35. Clase de animales plumíferos. 36. Receptáculo de tela, cuero, papel, etc., comúnmente de forma rectangular o cilíndrica y abierto por uno de los lados. 38. Metal precioso y codiciado por su belleza. 41. Pimiento. 43. Del verbo atar (yo ahora)


La Corporación Copextel convoca a la tercera edición del Concurso Infantil: "PINTANDO UN FUTURO TEGNOLOGICO" en saludo al 4 de Abril y a las Celebraciones por el 50 Aniversario del Triunfo de la Revolución. Bases Se podrá concursar en dos categorías: De 5 a 8 años De 9 a 12 años en las especialidades de Pintura y Dibujo, Arte Digital (obras impresas o en formato digital) y Creatividad (maquetas u otras manifestaciones que se combinen, donde se haga uso de la creatividad e ingenio del niño) Todos estos trabajos en cualquiera de las categorías que se concursen, deberán reflejar la importancia y utilización de la tecnología digital. Además de plasmar la visión del niño sobre ésta. Cada concursante presentará una obra que podrá entregar en la Dirección de Marketing y Comunicación de Copextel, situada en Ave. 3ra. e/ 78 y 80 en el Centro de Negocios Miramar, edificio Habana, oficina 308, Playa. Debe reflejar bien claro el nombre y apellidos, edad, nombre de la escuela, dirección y teléfono particular. El plazo de entrega será hasta el 31 de marzo de 2008. • Se concederá un Gran premio y 3 premios en cada categoría. • Los obras ganadoras serán publicadas en la Revista GiGA.



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.