GiGA
No. 3 / 2006
Director: Ing. Jorge Bolaños jorge@colombus.cu Editora: Lic. Vilma Simoneau vilma@cmatriz.copextel.com.cu Diseño: D.I. Humberto Becerra humberto@cmatriz.copextel.com.cu D.I. Vianys Zamora vianys@cmatriz.copextel.com.cu Redacción y corrección: Lic. Norma Márquez norma16@cmatriz.copextel.com.cu Director de Marketing y Comunicación: Eviel Ramos eviel@cmatriz.copextel.com.cu Economía y Finanzas: Elisa García elisa@cmatriz.copextel.com.cu Consejo Editorial: Adolfo Cepero, Ramón Torres, Renaldo Velázquez, David Friedman, Ricardo Rey, Jorge Bolaños, Eviel Ramos, Vilma Simoneau. Pre-Prensa Digital: Mandarina Diseño S.A. San José, Costa Rica. Impreso por: Impresión Comercial, Grupo Nación GN S.A. San José, Costa Rica. ¿Cómo contactar con GiGA? Edificio Miramar Trade Center, Ave. 3ra. y 78, 3er. piso, oficina 308, Miramar, Playa, Ciudad de La Habana, Cuba. Telefax: 204 7819 WEBsite: http://www.copextel.com Editada por: Dirección de Marketing y Comunicación, COPEXTEL Frecuencia trimestral
N
o es la primera ocasión que hemos tomado la decisión de separarnos por una vez y aunque sea en distancia milimétrica de la línea editorial que nos caracteriza. Sin embargo, nos parece que nunca antes se nos había dado una mejor ocasión para hacerlo. Ustedes leerán estas líneas en los albores del 9 de Octubre, cuando la Corporación Copextel celebre su Aniversario número 15. Por ello olvidémonos por unos instantes de tecnologías de punta, de procesadores y procesamiento, de autómatas, comunicaciones, redes, software, datos, tendencias y fusiones. Y aunque no tenemos hoy artículo principal, tenemos a un protagonista: Copextel. No nos referimos al nombre, abreviatura de una denominación casi impronunciable; tampoco a sus unidades estratégicas, con sus Divisiones Territoriales, comerciales y de apoyo, sin duda un concepto empresarial de vanguardia; no hablamos de los talleres, los almacenes, los servicios técnicos, que reflejan la capacidad de respuesta ante las necesidades tecnológicas del país. Hablamos de José, de Pedro, de Rosa, de los casi siete mil trabajadores, conocidos o no, que durante estos tres lustros, con ese sentido de pertenencia que los caracteriza, han aunado esfuerzos para crear, errar, aprender y crecer. Los hombres vienen y van, la obra queda. Por ello para aquellos que estuvieron ayer y hoy no están, que están hoy y no estarán mañana, y sobre todo para aquellos que estuvieron, están y estarán, ¡felicidades!
En esta crónica de surgimiento y desarrollo, no podemos dejar de mencionar a nuestra propia revista. En GiGA quedó impregnado para siempre ese espíritu entusiasta de hacer, de innovar, de vencer los obstáculos, pedestal indestructible sobre el que descansa la Corporación de hoy. Dicho esto, nos vino a la mente una de las anécdotas de aquellos primeros años, muy cercana a la revista, que compartimos con ustedes, siguiendo las pautas de la sección Entrevista de este número de aniversario y que dice más que las propias palabras. Anécdota Necesitábamos la tirada lista para un lunes, cayera quien cayera, y la pequeña imprenta en plena esquina de Carlos III había estado sin electricidad en múltiples ocasiones esa semana. El atraso era mayúsculo. El tiempo se agotaba. ¿La solución? Trabajar domingo, jornada completa. ¿El reto? Los trabajadores en la imprenta no tenían almuerzo. Aún recordamos, con emoción contenida, como apareció entre nosotros un aprendiz de cocinero. Ese domingo, cazuelas humeantes de por medio, en un pequeño carro, nos fuimos para la imprenta. ¡Las revistas estuvieron listas el lunes!
El Director
[GiGA 2 / 2006]
1
contenido
La amenaza fantasma ¿Sólo los UMPC son ultraportátiles? Acerca de la ultraportabilidad de ingeniosos equipos que caben hasta en el bolsillo de un pantalón, y de algunos que en el año 2004 resultaban toda una innovación. Ya hoy son desplazados por otros como los OQO, todos de indiscutible actualidad. Por ejemplo, éste ofrece una pantalla más pequeña que el UMPC y posee un teclado qwerty que se desliza en caso de no ser necesario. De este tema nunca se agota el arsenal.
[ 12 ]
Papel electrónico, un adiós a la imprenta El llamado e-paper o papel electrónico gana fuerzas en los últimos años y también su aplicación concreta. Se presentará en finísimas láminas en forma de pantalla plana, capaz de enrollarse, y por ese "monitor" ultradelgado corren colores, números, imágenes. Si llegaran a desplazar el acostumbrado soporte impreso, entonces se podrá afirmar que todo en cuestión de escritura no está dicho aún.
[ 26 ] ¿Se equivocan las computadoras? Los fallos ocasionados en las computadoras, por errores de hardware, software, diseño u otros, han dejado en el mundo una estela de lamentables accidentes: la obligada retirada de 160 000 partes de equipos de la Toyota, en la aviación, los fallos de los misiles Patriot, en navegación espacial, gasoductos y en equipos médicos que han cobrado vidas humanas, entre otros, son de hecho, un llamado a la reflexión.
[ 36 ] Programas espías El desarrollo de las computadoras, como todo, trae también mayores riesgos. Y los programas espías se convierten en silenciosos veladores que acechan el momento propicio para hacer de nuestras PCs un instrumento de las suyas. Todos los datos que puedan servir para beneficio de ladrones cibernéticos, deben estar bien protegidos, pues la repetición se ha convertido en máxima: siempre hay espías en la red.
[ 41 ] Agentes de transferencia de correo sobre Linux Un agente de transferencia de correo (MTA) transmite mensajes de correo electrónico entre hosts con el uso de un protocolo de transferencia y a su vez un mensaje puede envolver a muchos MTA hasta llegar a su destino. Acerca de los MTA en entornos para Linux, y una comparación entre los más populares: Sendmail, Postfix y Exim, trata fundamentalmente este trabajo.
[ 48 ]
2
[GiGA 3 / 2006]
Aniversario 15: Copextel
sumario
Es evidente que este año ha traído números cerrados para celebraciones dentro de Copextel. Nuestra revista en el primer trimestre celebró sus 10 años, mientras en este octubre la Corporación cumple quince años de creada. Aniversarios para celebrar, y este número trata de ser una edición especial para acercarnos un poco más a Copextel y sus estructuras, a sus trabajadores y actividades, siempre con la premisa de traer a los giganautas y amigos en general lo que de este colectivo esperan, con sus temas, y secciones acostumbradas. Mas para todo Copextel llegue hoy un escueto mensaje: gracias por existir.
4 10 12 16 20 26 30 32 36 41 44 48 52 54 57 62 64 78 72 74 78 81 82 87 88 92 94 95 96
Entrevista Copextel: Hace camino al andar MarketingOnline Encuentro comercial y técnico Señal 2006 Hardweriando La amenaza fantasma HDMI: conectividad presente y futuro De la PC al papel… Papel electrónico, un adiós a la imprenta Notihardware Clima e informática Softweriando ¿Se equivocan las computadoras? Programas espías Programando con MySQL 5 Enredados Agentes de transferencia de correo sobre Linux Lo que se expresa en los chats Buen tiempo… y temperaturas frescas Comunicaciones inalámbricas Y hablando de telecomunicaciones… Joystick E3 una feria de gigantes Joystick Noticias Multimedia Una nueva meta de SIS Historia y apreciación de las artes Consejos para un mejor escaneado perroWEBero Viaje a Cuba sin pasaje Ctrl+H Vista hace fe… hablemos de monitores GiGAntes Ada Lovelace, la primera programadora Doble click Elemental W… Cartas y A punta de cursor Screen saver cruciGiGA
Una nueva meta de SIS
[ 40 ]
Resguardo es el nuevo proyecto multimedial de esta División de Copextel con el fin de cuidar y conocer temas relacionados con la diversidad histórico-cultural de Latinoamérica. Surge como parte del convenio de colaboración gestado entre Cuba y la hermana República Bolivariana de Venezuela.
E3, una feria de gigantes
[ 49 ]
Una descripción sobre la feria de los juegos que se celebra en la ciudad estadounidense de Los Ángeles y en la que participan importantes firmas, es la narración bajo el citado título. Conozca, además, los principales participantes y premiados. [GiGA 3 / 2006]
3
Lic. Norma Márquez González norma16@cmatriz.copextel.com.cu Dirección de Marketing y Comunicación GiGA, Copextel
U
na de las características principales de Copextel es que ha sabido interpretar el momento histórico, el que Fidel menciona en su concepto de Revolución, siempre ha sabido interpretarlo y adaptarse a él y, además, siempre dispuesto a cambiar lo que deba hacer cambiar. (Ciro Muro, Gerente General División Territorial Camagüey) Escribir para la Sección de la Entrevista el conjunto de muchas conversaciones con aquellos primeros trabajadores de la aún no nacida Corporación, y al escucharlos hablar con entusiasmo, evitar hasta la más pequeña de las emociones, de las nuestras, de manera que no influyan en el curso de lo que conformamos y nos hicieran perder ese hilo nutricio que quisiéramos dé vida a estas páginas, es un desafío. Y citando ese primer párrafo expresado por uno de aquellos fundadores entre las entrevistas realizadas de con-
4
[GiGA 3 / 2006]
junto con el Grupo de Producciones Audiovisuales de la Dirección de Marketing y Comunicación, quisimos entrar en el tema. Sus palabras para la edición que saluda este aniversario 15 de fundada la Corporación, dicen mucho y nos llevan a narrar más.
Las primeras imprecisiones No ha sido tarea de una jornada establecer el momento exacto en que Copextel se reconociera como Corporación. Al principio había imprecisiones en cuanto al año de nacimiento, el nombre, lugar, con cuáles personas, qué mes y hasta qué día. Finalmente, ese primer cheque que caminó por Bancos o sus instituciones, y que pasó de unas manos a otras, de ambas partes con diferentes intereses, marcó el 9 de octubre de 1991 como el día del parto definitivo. Nacía, pues, en la casa donde hoy se encuentra la División de Sistemas Informáticos y Software, SIS.
Anécdota: Todo esto surgió como consecuencia de un gran entusiasmo y mucha iniciativa, no había transporte y apenas teníamos locales para trabajar, se buscaron y gestionaron naves de Asistel y otros que aparecieron. (Ing. José Antonio González, Vicepresidente Grupo de la Electrónica)
Los pasos del comienzo Por aquellos días, el mercado cubano estaba signado por un déficit de servicios que respondiera a la demanda, ya creciente, en cuanto a asistencia técnica y reparación de equipamiento gastronómico. Estos fundadores con quienes conversamos dejaron implícito un factor común: año 1991, pleno período especial, y un grupo de personas, con poca o ninguna experiencia que sin temores y motivaciones comienzan a hacer andar una empresa que comercializa soluciones de alta tecnología y servicios asociados a ella. Comienza así, la compra y venta de adelantos que luego cimentaron las bases.
entrevista Surgen nuevas estructuras
Anécdota: Tuvimos el valor de apoderarnos de un nicho de mercado insatisfecho o ser la alternativa. Copextel siempre ha sido la cuna para potenciar ideas de alguien y darle espacio para desarrollarse. Todos los negocios han sido ideas buenas y tienen nombres y apellidos. Es de mencionar que todos los negocios comenzaron por servicios técnicos y después se pasó a la comercialización. (Lic. Adolfo Cepero, Vicepresidente Copextel)
Quiénes comenzaron Cuentan esos trabajadores que estuvieron en los albores, que era un grupo de personas jóvenes con talento e iniciativa con muchos deseos de hacer nuevas cosas, dicen que caracterizados por la impronta de arriesgarlo todo y... ganar. Se trasmitía desde entonces lo que más adelante sería el espíritu que hizo avanzar la empresa y llegar hasta nuestros días: confianza y decisión de apostar por los jóvenes. Anécdotas: La clave del éxito está en la manera en que la máxima dirección de la naciente empresa dio independencia a los trabajadores, se podía actuar. Si se tenía una idea y ésta era buena, pues tomaba curso y todo el que venía podía desarrollar su iniciativa. En aquel momento, era mucha gente joven sin temores, prácticamente a pie, sustentada en un espíritu motivado y con ganas de trabajar. Yo llegué recién graduada y me siento desde entonces parte de esta familia. (Ing. Olga M. Abreu, Gerente General MGelposs) Cuando comenzábamos a desarrollarnos hubo una política descentralizadora... y en medio de todas aquellas limitaciones, en cada estructura teníamos que crear nuestros propios recursos para seguir adelante y la suerte o la posibilidad de encontrarme con gente joven ayudó mucho porque nos nutríamos permanentemente de ellos. (Ciro Muro)
6
[GiGA 3 / 2006]
La idea de reunirse por Divisiones Comerciales se califica como de muy buena, ya que permitía iniciar un negocio, desarrollarlo y había independencia entre las diferentes actividades que comienzan a realizarse. Conocimos que la única actividad que estaba centralizada en aquellos primeros pasos de las recién creadas Divisiones Comerciales fue la actividad financiera, ya que las empresas tenían potestad de vender y comprar de forma que todos los ingresos iban a esta instancia. Esa misma estructura se replicó en los territorios, y así surgieron la de Villa Clara, Varadero, Camagüey..., hasta llegar a 16. Anécdotas: Todos éramos nuevos en la comercialización y cuando comenzó la actividad de venta resultó una novedad. Entonces, vender una torre de disquete o un disco duro era un logro, una superventa. Los comerciales de aquellos días debían estaban obligados a tener un gran poder de convencimiento, pues muy pocos clientes conocían o asimilaban, y no con poco recelo, las nuevas tecnologías. Téngase en cuenta que las PC comenzaban a aparecer en el mercado. La gente no conocía los medios informáticos, ni su utilidad, y no tenían previsto gastos para ello. (Ing. Vladimir González, Grupo Atención a Programas Priorizados)
representaba las ventas del primer millón de dólares y el entusiasmo era contagioso. (Pedro Aguila, Atención Polos Turísticos de Copextel) El crecimiento era increíble, tanto la parte económica como la estructura, cambiaban con igual dinámica, pero siempre se creció de manera austera, sin grandes inversiones. Se comenzaba con pequeña logística y allí donde eran cuantiosos los negocios y clientes, se crecía entonces y se mejoraban las condiciones. (Ing. Rafael Gutiérrez, Gerente Mundo Ofimático Cerro)
Con el auge y el desarrollo comenzaron a definirse las líneas de negocios, es decir, ya se puede considerar a Copextel como una Corporación consolidada y segura. Hoy existen ocho Unidades Estratégicas de Negocios, las cuales agrupan la labor por línea y misión similares de cada División o territorio.
Por qué identidad y pertenencia Siempre que se hace referencia a Copextel dentro y fuera de sus instalaciones o allí donde realiza sus negocios, se escucha que sus trabajadores tienen un alto sentido de la identidad y pertenencia. Así la definen algunos:
El crecimiento en los comienzos siempre fue exponencial. No se crecía un por ciento, sino que se multiplicaban las ventas. De un año para otro se crecía dos y tres veces. Las actividades evolucionaban vertiginosamente y los recursos se quedaban siempre limitados, nunca ha sido suficiente la capacidad de almacenaje. La llegada de contenedores de mercancía se disfrutaba como un hecho de crecimiento. Recuerdo un día cuando vi en 222 al Presidente y otros ejecutivos estibando electrodomésticos de un contenedor hacia un almacén ubicado detrás de donde hoy se encuentra Fincopex. Esa mercancía
Anécdotas: Las personas tienen un sentido de pertenencia y la defienden como cosa suya, se sienten motivadas por el trabajo y gusta el colectivo. Eso estimula a trabajar y la dirección es muy colegiada. (Olga M. Abreu) En relación con el sentido de pertenencia hay que decir que el trabajador de Copextel se siente orgulloso, para él no hay hora, es consagrado y así vemos a nuestros trabajadores que aún de noche instalan televisores, aunque ya han pasado el día haciéndolo en escuelas o casas. No hay sábado ni domingo, se cumplen tareas y no por ello el colectivo deja de esta bien preparado y dispuesto a ejecutar cualquier labor, tanto en Cuba como en el exterior. (Vladimir González)
Batalla de Ideas, mucho por decir Gran parte de las tareas de la Batalla de Ideas que hoy acomete nuestro país, no es necesario relatarlas en una entrevista de cumpleaños. Ellas están en todas partes y Copextel, se halla presente: ya sea en escuelas, hospitales o sedes universitarias y juveniles. Dentro de las labores priorizadas habría que cruzar el bello Caribe para que el lector, amigo de la Sección, llegue a tener una idea completa. Pero las ideas no se obstaculizan por fronteras: persisten, y en ellas ha quedado impreso mucho esfuerzo y solidaridad. Por ello nos comentaron: Anécdotas: La entrada de Copextel en la Batalla de Ideas comenzó por una venta a la Tribuna Antimperialista "José Martí", y con la ubicación de televisores y videos en las escuelas, de forma que ha llegado a cubrir la gran demanda de esos productos y servicios. Este crecimiento ha sido el reconocimiento a una manera de actuar, a una trayectoria de trabajo. (Adolfo Cepero)
La capacidad de Copextel de adaptarse a los diferentes escenarios es una cualidad que desde 1991 la caracteriza. Surgida en medio de grandes dificultades, aún hoy mantiene ese espíritu de luchar y por eso es capaz de dar servicio a los proyectos de la Batalla de Ideas de forma que se ha potenciado y es la entidad en el país con mayor presencia en estas tareas. Es raro no encontrar una estructura de Copextel en el lugar más pequeño o apartado. (José A. González) Coincidentemente con estos 15 años, hoy la participación en la Batalla de Ideas está permitiendo el tránsito de la adolescencia hacia la juventud de Copextel, una juventud con madurez revolucionaria. (Pedro Aguila) Ese es el reto mayor. (Rafael Gutiérrez) El hecho de que Copextel sea parte misma de la Batalla de Ideas hace que
los 83 mil televisores Panda que hemos instalado para el disfrute de humildes y revolucionarios de nuestro territorio camagüeyano, nos hace sentir profundamente la gratitud de esas personas por la felicidad que se les da. Y soy de los hombres que tienen claro que lo más importante para un ser humano, es hacer felices a los demás. Y en Copextel se tiene esa oportunidad. Y como ser humano, nos sentimos realizados plenamente. (Ciro Muro)
Pudiéramos decir hoy que Copextel es la suma de muchos centros de trabajo con un solo estilo. El futuro lo ha ganado. (Pedro Aguila)
Y en el cierre ¿qué significa Copextel? No es posible terminar sin tocar algunas fibras fuertes de los sentimientos de estas personas. Son fundadores de una Corporación grande y unida, y ya hoy pasados 15 años aún imprimen la nostalgia de aquellos días cuando iniciaban un negocio motivados por el hecho de realizarse como profesionales y haber contado con la confianza y el ánimo de jefes que les brindaron la mano amiga para continuar con pasos firmes. Entonces eran jóvenes que en su mayoría, aún pisaban el último escalón de las aulas universitarias y hoy son capaces y especializados profesionales. Por eso estas últimas razones acerca de Copextel: Copextel es como un ser humano que una ha visto crecer y desarrollarse. Para mí es todo, independiente de mi familia, pero es el complemento de esa familia, ha sido mi gran compañero en el desarrollo de mi vida como ingeniera. (Ing. Lupe Larrinaga, Vicepresidenta Copextel) A mí cada vez que me preguntan sobre el tema de Copextel, prefiero recordarlo en tres momentos muy importantes que como directivo marcaron satisfactoriamente mi vida profesional. Sin Copextel, no hubiera sido posible. (Ing. Julio González, Presidente de Radiocuba) La filosofía de Copextel, es la generación de ideas, iniciativas, autonomía, la independencia, el espíritu joven, no ver obstáculos. Y es así Copextel. (Adolfo Cepero) Son 15 años de mi vida trabajando en la Corporación, es muy importante, además de ser la cantera fundamental de mi formación como especialista, comercial y como cuadro, en la cual ha sido esencial. (Ing. José A. Riesgo Ron, Vicepresidente de Copextel)
Siento orgullo de trabajar en Copextel. Pienso que todo se ha hecho, con esfuerzo, y mucha entrega. Siempre se diferenció de las demás empresas por imponer tecnologías de punta, lo más novedoso, por ser imagen y realidad de modernidad y desarrollo constante. Existe una trabajo de colectivo muy grande y eso es satisfacción. Siempre se ha impuesto grandes metas... y ha ganado. (Rafael Gutiérrez) La inauguración de una obra y aludirse al trabajo de Copextel, estimula. Es gratitud que los niños en las escuelas estén satisfechos con los equipos que hoy tienen, y ése es nuestro grano de arena, y en él está presente cualquier trabajador de Copextel. (Vladimir González) Todo el tiempo que llevo trabajando en Copextel ha significado alcanzar la plenitud como cuadro y complementar mis conocimientos como profesional, gracias al espíritu proletario que se respira y por el ambiente de trabajo. Como ser humano puedo asegurar que Copextel ha sido parte de la felicidad que encuentro en mi familia. (Ciro Muro) No queda más que decir, otros fundadores se encuentran en tareas insoslayables, pero por ese trabajo de todos se celebra este cumpleaños. Finalmente y para completar el título de esta Sección, mejor lo dejamos con la voz del trovador: Caminante son tus huellas el camino y nada más Caminante no hay camino, se hace camino al andar Al andar se hace camino y al volver la vista atrás Se ve la senda que nunca se ha de volver a pisar [GiGA 3 / 2006]
7
C
titular del Ministerio de la Informática y las Comunicaciones y un gran número de clientes, proveedores y amigos.
on la realización cada año del evento Señal, Copextel ha creado una cita permanente con sus principales clientes, proveedores y otras instituciones que están relacionadas de manera esencial con la actividad empresarial que desarrolla. El encuentro promueve un amplio intercambio comercial y técnico que se prevé fundamentalmente en dos escenarios: un espacio para conferencias especializadas y lanzamientos de productos e intercambio técnico, y un área expositiva donde se muestran las soluciones tecnológicas más novedosas que comercializa Copextel. Señal 2005, en sólo tres jornadas cumplimentó un amplio programa de trabajo que permitió la exposición de una muestra de 264 equipos, 28 insumos y 131 herramientas, así como también el desarrollo de 31 temas en conferencias técnicas. Fue notable el poder de convocatoria de esta cita: Copextel acompañada de 84 de sus principales proveedores pudo atender a más de 1700 invitados lo que implicó la participación en
10
[GiGA 3 / 2006]
conferencias de 948 clientes y 658 visitantes a la sala de exposiciones.
Con estos precedentes, Copextel ha fijado la nueva cita de Señal en octubre del 2006, y con una convocatoria de especial significado por estar dedicado al Aniversario 15 de la Corporación.
Y como resultado del trabajo técnico y comercial desarrollado en estos escenarios, se destaca que se suscribieron 334 intenciones de negocios con implicaciones significativas para el desarrollo de la estrategia comercial de la organización.
Así que sin perder la estructura que comúnmente da soporte a los objetivos de este evento, ahora se ha incluido un conjunto de actividades especiales para distinguir a los diferentes protagonistas que durante estos 15 años han marcado pautas importantes en la trayectoria de la empresa.
Desde su apertura, el evento estuvo caracterizado por importantes encuentros. En el acto de inauguración estuvieron presentes Otto Rivero, Vicepresidente del Consejo de Ministros, y Fernando Sordo, Presidente de Copextel. Durante el transcurso de la cita se contó con la visita de Ignacio González Planas,
Con la apertura de Señal 2006 también verá la luz este número, y lo acompaña una invitación muy especial dirigida a todos los amigos de Copextel y la promesa de que en la próxima salida, GiGA volverá con un espacio para compartir e informar los resultados de este trascendental evento.
H
ace mucho tiempo, en una galaxia muy lejana... clásico empezar de cualquiera de los capítulos de La guerra de las galaxias, claro que no es de esto de lo que hablaremos, pero el título es para hacernos ver que al igual que en esta conocida saga, la historia no comenzó a contarse por el principio. Y es lo referido a los uPC (ordenador ultrapersonal) que debió conocerse antes de que se hablara en el número 2 del 2006 del Proyecto Origami, de Microsoft e Intel y sus Ultra Movil PC (UMPC), que al parecer era algo desconocido, nunca visto por nadie, una especie de eslabón perdido entre la Table PC y los Pocket PC o PDA… y que no era más que una pequeña computadora con algunas características propias que la diferenciaban de las antes vistas por la ausencia del teclado físico, pantalla táctil y como su nombre lo indica: ultraportátil.
¿Sólo los UMPC son ultraportátiles? Tenemos entonces que frente a cualquier notebook del mundo, UMPC ofrece algo que antes no se brindaba: ultraportabilidad. Pero... ¿qué tan
12
[GiGA 3 / 2006]
D.I. Humberto Becerra López humberto@cmatriz.copextel.com.cu Dirección de Marketing y Comunicación GiGA, Copextel
cierto es eso? Es más portátil que una laptop, pero no más que un PDA o Smartphone. Convengamos en que por completo y poderoso que sea un
hardweriando PDA, no hay ninguno que corra Windows XP y pueda recibir e instalar programas de ese sistema operativo. Pero vamos más allá, porque aunque UMPC efectivamente parezca un genuino peldaño que antes no existía, ya en diciembre del 2004 se hablaba sobre el OQO. Desafortunadamente esa noticia no causó el mismo impacto que el Proyecto Origami. El OQO ofrece una pantalla más pequeña que el UMPC, 5" en lugar de 7". Pero sí posee un teclado qwerty que se desliza en caso de no ser necesario. El precio de lista del OQO estuvo cerca de los 2 000 dólares, pero en pocos meses bajó a 1 500, y aún resulta caro aunque se oferte con USB 1.1, bluetooth, red 802.11b y micrófono incorporado. Su pantalla táctil es inexacta y la potencia del CPU Crusoe de 1 GHz es baja, si la fiebre de "no importa la potencia, sino el consumo" se hubiera desatado hace un par de años, Transmeta contaría otra historia. No supieron actuar a tiempo para surfear la ola del UMPC. Dejando a un lado el OQO y Transmeta, hay otro producto, llamado DualCor que es similar al OQO en cuanto a dimensiones, pero que esconde un híbrido que por su sola extravagancia es una maravilla de la electrónica de consumo. El DualCor es más dual de lo que parece. Por un lado tiene un CPU VIA C7M de 1.5 GHz con 1 Gb de memoria DDR2 y 4 Gb en disco duro, mientras que por otro contiene un procesador Xscale con memoria exclusiva de 128 Mb más 1 Gb de memoria flash que aloja las aplicaciones de Microsoft Windows Mobile 5.0 Pocket PC Phone OS. Ésta no es una PC con funciones de PDA, ni un PDA con aplicaciones de
PC. Es las dos cosas y eso cuenta. Una vez vistos el OQO y el DualCor, lo que queda en cuanto a competidores es el Sony Vaio U750. Pese a que la pantalla es de 5" como la del OQO, el tamaño total, gracias al reborde, es de 17 cm, a medio camino entre éste y un UMPC. Pero eso no es de mucha importancia ya que tiene un precio de casi 2 700 dólares, sin dejar de mencionar que incluye docking station, un teclado plegable USB, y otras tantas facilidades que la UMPC no tiene como puertos RJ45, IEEE 1394, VGA y lector incorporado de tarj e t a s Memory Stick y Compact Flash. Aunque todo esto parezca positivo lleva dos años en el mercado con ventas muy pobres.
Principales características OQO primero en su tipo La firma OQO fundada por dos ex diseñadores de portátiles en Apple, y respaldada empresarialmente por varios pesos pesados de la industria procedentes de IBM, Cirrus Logic y otras empresas de semiconductores, comprendieron la necesidad de los usuarios de llevar encima siempre sus trabajos en un ordenador y casi tan pequeño como un PDA, en lugar de transferir constantemente sus ficheros a un portátil de un PDA y/o un reproductor musical. Para ello, el ordenador en cuestión tiene que ser lo bast a n t e potente como
para ser utilizado en el escritorio, y bastante pequeño para caber en un bolsillo, contar con una pantalla visible, opciones de conectividad y accesorios para ser usado tanto en la oficina como fuera de ella. El primer producto de esta nueva categoría, denominada uPC se trata
del OQO model 01, un equipo de sólo 124x86x23 mm y 397 gramos (poco más que un iPod) que ostenta las especificaciones siguientes: •Procesador Transmeta Crusoe de 1 GHz •Disco duro de 20 Gb •256 Mb de memoria RAM DDR, no ampliable •Pantalla transflectiva panorámica WGA (800 x 480 píxeles) de 5”, con sensor de iluminación ambiente. Se desliza parcialmente hacia atrás y deja el teclado al descubierto •Gráficos 3D acelerados con 8 Mb de memoria RAM de vídeo •Dispositivos de entrada: teclado QWERTY para pulgares (como un Blackberry o un Treo), pantalla táctil con puntero digital, TrackStik y rueda lateral de desplazamiento •Conectividad sin cables: WiFi (802.11b) y bluetooth; terminal para antena WiFi exterior •Interfaces: FireWire (IEEE 1394) y USB 1.1 incorporados; segundo FireWire, segundo USB y Ethernet, en cable de ampliación •Monitor externo: 1 280 x 1 024 píxeles •Audio: salida de auriculares, micrófono •Batería: recargable y extraíble con hasta 3 horas de autonomía
[GiGA 3 / 2006]
13
hardweriando El sistema operativo es Windows XP, pero pese a la incorporación de una pantalla táctil, no se trata de la versión para Tablet PC. De hecho, el software de OQO requiere el uso de un puntero digital específico y no es posible emplear otro tipo de lápices pasivos, ni los dedos. El equipo permite la instalación de Linux, algo que no es de extrañar dado que la arquitectura de los procesadores Transmeta es compatible con los sistemas operativos para x86 de Intel, y que en su desarrollo ha intervenido Linus Torvalds, padre de Linux. DualCor un uPC con teléfono inteligente DualCor Tecnologies es una compañía estadounidense que ha conseguido unir un teléfono móvil avanzado que ejecuta el sistema operativo Windows Mobile 5 y una PC con Windows XP en un dispositivo de mano. Tiene una pantalla de 5 pulgadas y la compañía ha afirmado que existe demanda de este dispositivo, sobre todo después de que cada vez son más los trabajadores que empezaron a cambiar sus portátiles por Blackberry y otros ordenadores de mano. El dispositivo cuenta con un procesador C7-M a 1,5 GHz de Via Technologies y una memoria DDR 2 de 1Gb, en su parte de PC. DualCor precisó haber escogido un procesador Via porque consume un máximo de 7,5 vatios y ofrece el suficiente rendimiento como para funcionar como un ordenador normal.
14
[GiGA 3 / 2006]
Respecto a la parte del teléfono móvil, utiliza el sistema operativo Windows Mobile 5.0 Pocket PC, un procesador de comunicaciones PXA de Intel, 128 Mb de DRAM y 1Gb de memoria flash. Juntos, el ordenador y el teléfono móvil, comparten un disco duro de 40 Gb. •Procesador de 1,5 GHz •Pantalla LCD táctil de 5 pulgadas con resolución de 800 × 480 píxeles •1 Gb de DDR2 RAM •1 Gb de memoria NAND •Disco duro de 40 Gb •Doble sistema operativo Windows XP Tablet PC Edition y Windows Mobile 5.0 •3 puertos USB 2.0
•Salida Mini VGA para conectar un monitor exterior •Ranura de expansión para memorias Compact Flash II. Según la compañía, incorporar dos plataformas informáticas distintas aumenta la vida de la batería. Si hablamos del modo PC tendremos entre tres y cuatro horas, tiempo similar al
que ofrece una portátil, mientras que en modo de teléfono móvil se consiguen tiempos de entre 8 y 10 horas. Sony Vaio U750 un uPC o UMPC Es el mismo ultraportátil que se comercializó en Japón como el VAIO U70. Cuenta con sistema operativo Windows XP Professional SP2. Procesador Pentium de 1 GHz, 512 Mb RAM, entrada de datos vía toque de pantalla. Pantalla de 800x600 píxeles, de 5". Disco duro de 20 Gb. Dimensiones: 6.6x4.25x1.0, peso 1,2 libras. Posee también conexión vía USB 20 y Firewire, 1 slot CF y 1 para Memory Stick Pro. La docking station incluye: puerto replicador para VGA-out, 4x USB 2.0, 1x DC -in, 1x 4-pin FireWire/iLink, 1x 10/100 Ethernet y cuenta con Wi-Fi, speaker, batería de 1800 mAh, TouchStyk mouse pointer, teclado USB opcional. •Procesador de 1,1 GHz Intel Pentium M •Sistema Operativo Windows XP Profesional •Pantalla LCD 5 pulgadas con resolución 800 x 600 píxeles •Dispositivos de entrada: pantalla táctil con puntero digital •512 Mb DDR266 RAM •Disco duro de 20 Gb •USB 2.0, 4-pin FireWire •Dos ranuras de expansión para memorias Compact Flash y una para Memory Stick •Conectividad sin cables: WiFi (802.11G) •10/100 Ethernet •Audio: el portavoz interior monofónico, 3.5 mm •Batería: recargable de 3,5 horas de autonomía
hardweriando Concluyendo… Una de las características de más peso a tener en cuenta para que un equipo portátil se considere ultraportátil es el consumo de energía. La existencia del Pentium M ha permitido que actualmente existan productos que con el P4 Mobile hubieran durado encendidos menos del tiempo que demora bootear Windows. De hacerlo, habría sido con mucha potencia, es verdad, pero poco sirve ésta cuando no se tiene un enchufe cerca para sostenerla. Así y todo, un Pentium M no es todo lo ahorrativo que se necesita, pero tampoco los Intel Celeron M ya que en Cebit los prototipos de UMPC al reproducir una película no alcanzaron llegar al final
porque la batería duró menos de dos horas. El UMPC brinda algo que al menos tres dispositivos ofrecen y en ninguno ha sido motivo para éxito de ventas: la ultraportabilidad. Lo importante es que mientras esos tres dispositivos se enfocan en tamaño y atractivo, el UMPC apunta a otra cosa: a las ventas (ventas por volumen). Si resulta y se generan las famosas economías de escala, al menos en precio puede destrozar a OQO, Dualcore y Vaio U750. Pero en cuanto a las prestaciones y características formales, cualquiera podría ser un Ultra Movil PC. Después de analizar estos tres equipos ultraportátiles, podemos decir que el Proyecto Origami no partió de la nada, Microsoft e Intel no fueron tan originales como pensamos en un principio, pues... ya había un antecedente. No supieron buscar un nicho apropiado en el mercado, se limitaron a imitar y en un menor grado a mejorar lo que ya otros habían logrado.
Ing. Juan Carlos García juank@ciscuba.com Comercial Tokmakjian Group Inc.
E
l HDMI es el nuevo estándar para la transmisión de señales de vídeos digitales, aunque con una implementación muy reciente en el mercado (algo más de dos años), tiene bases sólidas para su despegue comercial a gran escala. Por definición, vemos que HDMI (High Definition Multimedia Interface o Interfaz multimedia de alta definición) es una norma que permite transmitir audio y vídeo digital sin comprimir por medio de un único cable. Esta conexión ofrece un ancho de banda de hasta 5 Gb por segundo y por eso se emplea en el envío de señales de alta definición: 1920 x 1080 píxeles (1080i, 1080p) ó 1280 x 720 píxeles (720p) desde un sintonizador de televisión o un lector DVD a una televisión compatible con alta definición, aunque ya han aparecido cámaras de fotos y videocámaras que disponen de conexión HDMI.
16
[GiGA 3 / 2006]
Basado en el Interface Visual Digital (DVI), forma muy popular y establecida de conexión entre computadoras y monitores planos, ya sean LCD o PDP, también se puede localizar en numerosos equipos de Home Theater (Amplificadores-Rx), pero no fue una interfaz diseñada específicamente para ese propósito como sí lo es la de HDMI. Tanto el DVI como el HDMI poseen más que suficiente ancho de banda para manejar el comúnmente utilizado formato de HDTV de 720p/1 080i, en forma descomprimida, pero también puede manejar el formato de alta definición 1080p/60Hz (1920 x 1080) 60Hz/ progresivo. La diferencia radica en que el HDMI surge como soporte explícito de datos de vídeo con componentes digitales Y, Cb, Cr (DVI es casi siempre RGB) y puede transportar audio digital multicanal tanto
comprimido como sin comprimir adicionalmente al video, todo por una misma conexión, un único cable. El audio multicanal puede contener hasta 8 canales con una frecuencia de muestreo (bit-rate) de 24 bits a 192 kHz, o sea, una mayor calidad que hace más práctica esta interfaz para el consumidor. HDMI puede realizar un control básico de los datos entre los componentes de A/V, el cual hace mucho más que los controles universales y finalmente el HDMI usa un conector considerablemente más pequeño que el DVI. Cuando el cable DVI se usa en equipos para el consumo, de A/V, no incluye el protocolo de encriptamiento conocido como High-bandwith Digital Content Protection (HDCP). HDMI siempre incluye HDCP y la mayoría de los estudios de Hollywood y las compañías de satélites y
hardweriando cables apoyan el HDCP para evitar que las señales de DVI y HDMI sean copiadas. La interfaz HDMI fue diseñada para que sea compatible "hacia atrás", con la del DVI de forma tal que dispositivos de un tipo puedan ser conectados a otros diferentes, mediante adaptadores simplepasivos que sólo pierden las nuevas funciones adicionales a las interfaces HDMI, las más importantes: el transporte de audio multicanal y de control de datos, esto es relevante para un gran número de productos de la electrónica de consumo que emplean interfaz DVI, ya que no los vuelve obsoletos cuando HDMI sea universal y preferido por la industria. Aunque por años se han utilizado los conectores análogos de audio y video para la conexión de equipos de A/V, en la actualidad con la diversidad de equipos enteramente digitales no tiene sentido mantener en el "medio" esos cables análogos y tener que hacer las dobles conversiones de video y audio de D/A (digital/análogo) y A/D (análogo/digital), con la consecuente pérdida de calidad en la información que se visualiza. Una interfaz digital entre equipos digitales permite una mejor calidad en el vídeo y en el audio, pero a su vez, es una conexión "inteligente", ya que por diseño, la señal digital de vídeo transporta más información desde la fuente al equipo de visualización y permite a este último configurarse a la resolución óptima de la fuente, que hace más
efectiva la calibración de los parámetros del dispositivo, sin desechar la calibración técnica acorde con la certificación adecuada. Otra razón muy clara y conveniente desde el punto de vista estético, es la eliminación de esos molestos cables RCA, toshlink, s-video, etc., colocados por detrás de los rack de equipos de A/V, que imposibilitan realizar una buena limpieza en dicha área y ahora con un simple cable se logra la interactividad entre todos los elementos componentes del sistema de A/V y se elimina la congestión de cables. Aunque todas las razones expuestas son convincentes, el hecho es que los grandes emporios de la Electrónica de Consumo y los estudios de películas de Hollywood tienden fundamentalmente a obligar a los consumidores a la conectividad digital entre los elementos para garantizar un mayor control sobre la piratería. La MPAA (Motion Picture Association of America), organización que representa los intereses mercantiles de los estudios fílmicos en Estados Unidos nunca ha estado de acuerdo con la decisión legal tomada en el año 1984 que permite a los consumidores hacer copias personales de películas y que mundialmente se conoce como Betamax. Macrovisión es una prueba latente de esto, aplicado a los DVD y VHS para la protección contra copias análogas, aunque en este caso no es difícil de burlar. Sin embargo, una conexión enteramente digital entre componentes digitales, per-
mitiría un mayor control sobre este problema de la industria, de ahí el surgimiento del HDCP mucho antes de que fueran establecidas en la práctica las interfases DVI y HDMI. Similar es también otra interfaz estándar: la IEEE 1394, o Firewire que posee DTCP (Digital Transmisión Content Protection). Una vez que todo esté conectado de forma digital y debidamente protegido, Hollywood promete mayor contenido con alta definición en sus materiales fílmicos. En la CES (Consumer Electronic Show) el mayor evento ferial del mundo del campo de la Electrónica de Consumo, del 2004, Silicon Image (gestor principal del nuevo Standard, copatrocinado por Hitachi, Matsushita, Philips, Sony, Thompson y Toshiba) introduce el primer circuito. Integrado para la Tx (transmisión) y Rx (recepción) de señales HDMI bajo el nombre de Panellink Cinema, también mostró en asociación con cuatro fabricantes europeos seis productos prototipos que utilizaban estos novedosos circuitos. Un año más tarde en el mismo evento, cerca de 70 productos de alrededor de una docena de fabricantes europeos exhibían ctos. de transmisión y recepción de señales HDMI, los que ya se comercializaban en Estados Unidos, Japón y Europa. Ejemplos de dichos chips son: a) HDMI SiI 9030 (HDMI TX) Ejemplo de utilización de conectividad del chip:
[GiGA 3 / 2006]
17
hardweriando
(Teatro en Casa) y la HDTV con la consecuente protección anticopia de sus contenidos, con que los grandes distribuidores de material copyright quedarán "complacidos". b) Es relativamente económico de implementar.
b) HDMI SiI 9031 (HDMI Rx) La Compañía Monster´s Cables se destaca mundialmente por ser la promotora principal en la fabricación y soporte de los cables y adaptadores pasivos de la tecnología HDMI. A diferencia de los cables con conectores DVI que no exceden 5 metros, los nuevos cables HDMI pueden oscilar desde 1 m hasta unos 100 pies ó 30,5 metros aproximadamente y son 8 las longitudes estándar para su comercialización: 1m, 2m, 4m, 5m, 35 pies, 50 pies, 75 pies y 100 pies, disponibles tanto en HDMI-HDMI como en HDMI-DVI.
Adaptador HDMI-DVI
Cinema de Silicon Image debe pronosticar un aceleramiento en la estandarización de la conexión HDMI. La historia de la Electrónica de Consumo está matizada por innumerables productos fallidos que no han prendido en los consumidores, independientemente del prestigio de sus promotoCable con conectores HDMI in-out res, pero parece ser que HDMI no Más de cien productos con conec- será uno de ellos por dos razones tores HDMI salen al mercado cada primordiales: año. Fabricantes de televisores de a) Contiene las especificaciones pantallas de cristal líquido, plas- técnicas requeridas para manejar ma, DVD, cámaras de video, etc., señales de audio multicanal, vídeo han incluido dicha conexión en sus y datos entre equipos digitales nuevos modelos y la segunda requeridos en el presente y futuro generación de chips Panellink de los sistemas de Home Theater
18
[GiGA 3 / 2006]
A pesar de las "trabas" que algunos fabricantes o patrocinadores de otros estándares como es el caso de Mitsubishi y su IEE 1394 (Firewire) pudie- ran presentar, las anteriores razones presuponen un camino bastante "despejado". Resumen de las ventajas de la conexión HDMI Las ventajas del HDMI son: · Su elevado ancho de banda, que asegura aplicaciones futuras tipo HDTV. · Un simple cable puede transferir información de audio y vídeo sin comprimir desde un descodificador hasta un monitor o pantalla. · El hecho que transporte vídeo sin comprimir garantiza la más alta calidad de imagen. · Elimina las conversiones analógico-digitales y digital-analógicas. · Sustituye los actuales cables de audio y video entre diferentes componentes audiovisuales por uno solo: simplifica las conexiones y elimina errores de cableado, así como "limpia" la parte posterior de
Conexión entre TV LCD y DVD
hardweriando los muebles donde se alojan los equipos audiovisuales. · Proporciona una protección llamada HDCP (High-bandwidth Digital Content Protection) para el enlace entre diferentes componentes HDMI (así lo quiso la industria audiovisual). · S o p o r t a e l C o n s u m e r Electronics Control Protocol (CEC) que permite controlar todos los componentes audiovisuales con un solo mando a distancia. · Es totalmente compatible con el DVI-HDCP y permite a los equipos DVI conectarse a monitores HDMI mediante un simple cable adaptador pasivo. Los equipos HDMI también pueden conectarse a monitores DVIHDCP. · Es un pequeño conector y por los pines internos, pasa la misma información que por un conector DVI, pero por el cual circulan también datos de audio digital multicanal.
hardweriando
E
n el cotidiano hacer, junto a la PC, monitor y teclado, en nuestro puesto de trabajo existe un periférico casi imprescindible: la impresora. Para muchos, la utilización de éstas sólo se reduce a plasmar letras o cálculos en unas hojas, para luego archivar; para otros la posibilidad de admirar su trabajo gráfico. Pero sin duda, cualquiera que sea la aplicación de ésta, se debe tener conocimiento del periférico con que contamos, no sólo para obtener un mejor resultado de nuestro trabajo, sino para alcanzar un mayor funcionamiento de éste y por ende hacer más duradera su vida útil.
¿Qué es una impresora? La impresora es el periférico que la PC utiliza para presentar información impresa en papel. Las primeras nacieron muchos años antes que las computadoras, e incluso antes que los monitores, y es durante años, el método usual para presentar los resultados de los cálculos en aquellos primitivos ordenadores, todo un avance respecto a las tarjetas y cintas perforadas que se usaban hasta entonces. Aunque en nada se parecen las modernas impresoras a sus antepasados, no hay duda de que igual que hubo impresoras antes que
20
[GiGA 3 / 2006]
PCs, las habrá después, aunque se basen en tecnologías que aún no han sido siquiera inventadas.
Generalidades y definiciones Existen diferentes tipos de impresoras, desde las más antiguas y ruidosas hasta las más avanzadas y silenciosas. Sin embargo, cualquiera que sea su tipo, hay conceptos básicos para todas. Véase a continuación algo de éstos: Velocidad Se suele medir con dos parámetros: •ppm: páginas por minuto que es capaz de imprimir •cps: caracteres (letras) por segundo que imprime Hoy se usa casi exclusivamente el valor de ppm, mientras el de cps se reserva para las pocas impresoras matriciales que aún se fabrican. De cualquier modo, los fabricantes siempre calculan ambos parámetros de forma totalmente engañosa; por ejemplo, cuando se dice que una impresora de tinta llega a 7 páginas por minuto no se advierte que son páginas con hasta un 5% de superficie impresa, en la calidad más baja, sin gráficos y descontado el tiempo de cálculo del ordenador. Y aún así resulta prácticamente
imposible conseguir dicha cifra, ya que en realidad rara vez se sobrepasan los 3 ppm de texto con una impresora de tinta, si bien con una láser es más fácil acercarse a las cifras teóricas que indica el fabricante. Resolución Es probable que sea el parámetro que mejor define a una impresora. La resolución es la mejor o peor calidad de imagen que se puede obtener con ésta, medida en número de puntos individuales que es capaz de dibujar una impresora. Se habla generalmente de ppp, puntos por pulgada (cuadrada) que estampa una impresora. Así, cuando se habla de una impresora con resolución de "600 x 300 ppp" se refiere a que en cada línea horizontal de una pulgada de largo (2,54 cm) puede situar 600 puntos individuales, mientras que vertical llega hasta los 300 puntos. Si sólo aparece una cifra ("600 ppp", por ejemplo) puede significar que la resolución horizontal es igual que la vertical. De cualquier modo, no todo es "tirar puntos" sobre el papel. Dos impresoras de la misma resolución teórica pueden dar resultados muy dispares, ya que también influye el tamaño de esos puntos y la precisión a la hora
hardweriando de colocarlos sobre el papel. De nada sirve colocar 360 000 puntos en una pulgada cuadrada si están puestos unos sobre otros emborronando la imagen. El buffer de memoria Es una pequeña cantidad de memoria que tienen todas las impresoras modernas para almacenar parte de la información que les va proporcionando el ordenador. De esta forma la computadora, mucho más rápida que la impresora, no tiene que esperar continuamente y puede pasar antes a otras tareas, mientras termina la impresora su trabajo. Resulta evidente que cuanto mayor sea el buffer, más rápido y cómodo será el proceso de impresión por lo que algunas llegan a tener hasta 256 kb de buffer (en aquellas muy profesionales, incluso varios Mb). La interfaz o conector Las impresoras se conectan a la PC casi exclusivamente mediante el puerto paralelo, que en muchos sistemas operativos se denomina LPT1 (LPT2 en el caso del segundo puerto paralelo, si existiera más de uno). Como el puerto paralelo original no resultaba demasiado rápido, en la actualidad se utilizan puertos más avanzados como el ECP o el EPP, que son más veloces y añaden bidireccionalidad a la comunicación, es decir, la impresora puede "hablarle" a la PC, lo que antiguamente era imposible, al tiempo que mantienen la compatibilidad con el antiguo estándar. El método de trabajo del puerto paralelo (estándar, ECP, EPP...) se selecciona en la BIOS del ordenador. Físicamente, el conector para puerto paralelo tiene un aspecto en el extremo del cable que se conecta al ordenador, con 25 pines en dos hileras, mientras el que se conecta a la impresora puede tener 36 pines planos y unas abrazaderas. El cable para conectar ambos dispositivos se denomina cable paralelo Centronic. Para bidireccionalidad se debe usar cables específicos, más avanzados y de mayor calidad. Otras formas menos comunes de conectar una impresora es mediante el puerto serie (que utilizan los modems externos y muchos ratones, pero es bastante lento); por un conector USB (rápido y sencillo, aunque con pocas ventajas frente al
puerto paralelo); por un dispositivo de infrarrojos (muy útil en el caso de portátiles) o directamente conectados a una red (y no a un ordenador conectado a la misma) en el caso de grandes impresoras para grupos.
Tipos de impresoras Si se quiere clasificar los diversos tipos de impresoras que existen, la forma más lógica es hacerlo atendiendo a su tecnología de impresión, es decir, al método que emplean para imprimir en el papel, e incluir en dicha clasificación como casos particulares otras consideraciones como el uso de color, su velocidad, etc. Eso lleva a los tres tipos clásicos: matriciales, de tinta y láser. Impresoras de impacto (matriciales)
Fueron las primeras que surgieron en el mercado. Se les denomina "de impacto" porque imprimen mediante la marca de unas pequeñas piezas (la matriz de impresión) sobre una cinta impregnada en tinta la cual puede ser fuente de muchos dolores de cabeza si su calidad no es la deseada. Según sea el cabezal de impresión se dividen en dos grupos principales: de margarita y de agujas. Las de margarita incorporan una bola metálica en la que están a relieve las diversas letras y símbolos a imprimir; la bola pivota sobre un soporte móvil y golpea a la cinta de tinta, con lo que se imprime la letra correspondiente. El método es absolutamente el mismo que se usa en muchas máquinas de escribir eléctricas, lo único que las diferencia es la carencia de teclado. Las impresoras de margarita y otros métodos que usan tipos fijos de letra están en completo desuso debido a que sólo son capaces de escribir texto, además, para cambiar de tipo o tamaño de letra se debe cambiar la matriz de impresión (la bola) cada vez. Por otra parte, la calidad del texto y la velocidad son muy altas y permiten obtener copias múltiples en
papel de autocopia o de carbón. Las impresoras de agujas, muchas veces denominadas simplemente matriciales, tienen una matriz de pequeñas agujas que impactan en el papel formando la imagen deseada. Cuantas más agujas posea el cabezal de impresión mayor será la resolución, que suele estar entre 150 y 300 ppp, y es casi imposible superar esta última cifra. Aunque la resolución no sea muy alta es posible obtener gráficos de cierta calidad, en blanco y negro, no en colores. El uso de color implica la utilización de varias cintas u otras más anchas, y resulta casi imposible conseguir una gama realista de colores, más allá de los más básicos. Al ser impresoras de impacto pueden obtener copias múltiples, lo que las hace especialmente útiles en oficinas o comercios para la realización de listados, facturas, constancias y demás documentos. Su velocidad en texto es de las más elevadas, aunque producen un ruido monótono y elevado que llega a ser molesto. Resulta muy común encontrarlas con alimentadores para papel continuo, lo que sólo ocurre con algunas impresoras de tinta de precio elevado. En general, las impresoras matriciales de agujas se posicionan como impresoras de precio reducido, calidad media-baja, escaso mantenimiento y alta capacidad de impresión. Impresoras de tinta
Por supuesto, las impresoras matriciales utilizan tinta, pero cuando se habla de impresora de tinta se acostumbra a hacer referencia a aquellas en las que la tinta se encuentra en forma más o menos líquida y no impregnan una cinta como en las matriciales. La tinta es impulsada hacia el papel por unos mecanismos que se denominan inyectores, mediante la aplicación de una carga eléctrica que hace saltar una minúscula gota de tinta [GiGA 3 / 2006]
21
hardweriando por cada inyector, sin necesidad de impacto. De todas formas, los entresijos últimos de este proceso varían de una a otra marca de impresoras (por ejemplo, Canon emplea en exclusiva lo que denomina "inyección por burbuja") y no son realmente significativos a la hora de adquirir una u otra impresora. Estas impresoras se destacan por la sencilla utilización del color. Antiguamente (y todavía en algunos modelos de muy baja gama o en impresoras portátiles), para escribir cualquier cosa en colores se tenía que sustituir el cartucho de tinta negra por otro con tintas de los colores básicos (generalmente magenta, cyan y amarillo). Este método tenía el inconveniente de que el texto negro se fabricaba mezclando los tres colores básicos y era más lento, caro en tinta y dejaba un negro con un cierto matiz verdoso. En la actualidad, casi todas estas impresoras incorporan soporte para el uso simultáneo de los cartuchos de negro y en colores. La resolución de estas impresoras es en teoría bastante elevada, hasta de 1.440 ppp, pero en realidad la colocación de los puntos de tinta sobre el papel resulta bastante deficiente, por lo que no es raro encontrar que el resultado de una impresora láser de 300 ppp sea mucho mejor que el de una de tinta del doble de resolución. Por otra parte, existen papeles especiales, mucho más caros que los clásicos folios de papelería para alcanzar resultados óptimos a la máxima resolución o una gama de colores más viva y realista. El principal destinatario de este tipo de impresoras es el usuario doméstico, además del oficinista que no necesita trabajar con papel continuo ni con copias múltiples, pero sí ocasionalmente con color (logotipos, gráficos, pequeñas imágenes...) con una calidad aceptable. Algo que se debe destacar es el alto costo de los cartuchos de tinta, debido a que generalmente no sólo contienen la tinta, sino parte o la totalidad del cabezal de impresión. Este sistema asegura que el cabezal siempre esté en buen estado, pero es más caro. Otra opción es la existencia de sistemas de recarga de cartuchos aprovechando el cabezal, algo que
22
[GiGA 3 / 2006]
no muchos recomiendan por lo engorroso del procedimiento. Impresoras láser
Otros tipos de impresoras Existen otras impresoras de uso poco común, pero que cubren ciertas necesidades concretas del mercado, como pueden ser los grandes formatos o la calidad fotográfica. Plotters
Son las de mayor calidad del mercado, si se entiende por calidad la resolución sobre papel normal que se puede obtener, unos 600 ppp reales. En ellas la impresión se consigue mediante un láser que va dibujando la imagen electrostáticamente en un elemento llamado tambor que va girando hasta impregnarse de un polvo muy fino llamado tóner (como el de fotocopiadoras) que se le adhiere debido a la carga eléctrica. Por último, el tambor sigue girando y se encuentra con la hoja, en la cual imprime el tóner que formará la imagen definitiva. Las singulares características de estas impresoras obligan a que dispongan de su propia memoria para almacenar una copia electrónica de la imagen que deben imprimir. A mayor tamaño y calidad de impresión se necesita mayor cantidad de memoria, que estará en torno a 1 ó 2 Mb. Si el documento a imprimir fuera muy largo y complejo, por ejemplo con varias fotografías o a una resolución muy alta, puede producirse un error por overflow (falta de memoria), lo que puede evitarse mediante la tecnología GDI comentada ya (es decir, utilizando memoria de la propia PC) o preferiblemente instalando más memoria a la impresora. Las impresoras láser son muy resistentes, mucho más rápidas y más silenciosas que las matriciales o de tinta, y aunque la inversión inicial en una láser es mayor que en otras, el tóner sale más barato a la larga que los cartuchos de tinta, por lo que se recupera la inversión. Por todo ello, las de láser son idóneas para entornos de oficina con una intensa actividad de impresión, donde resultan importantes la velocidad, calidad y el bajo costo de mantenimiento que el color o la inversión inicial.
Se trata de unos aparatos destinados a la impresión de planos para proyectos de arquitectura o ingeniería, por lo que trabajan con enormes formatos, DIN-A1 (59,4 x 84 cm) o superiores. Antiguamente consistían en una serie de plumillas móviles de diferentes grosores y colores que se movían por la hoja reproduciendo el plano en cuestión, lo que era bastante incómodo por el mantenimiento de las plumillas y podía ser impreciso al dibujar elementos tales como grandes círculos. En la actualidad casi todos tienen mecanismos de inyección de tinta que facilitan mucho el mantenimiento, el cual se reduce a cambiar los cartuchos. Son auténticas impresoras de tinta, sólo que el papel es mucho más ancho y puede venir en rollos de decenas de metros. Impresoras para fotos
Constituyen una categoría de reciente aparición. Usan métodos avanzados como la sublimación o las ceras o tintas sólidas, que garantizan una pureza de color excepcional, si bien a un precio relativamente elevado en cuanto a consumibles, y una velocidad baja. La calidad de estas impresoras
hardweriando puede ser tal, que muchas veces el resultado no se diferencia al de una copia fotográfica tradicional, incluso usando resoluciones relativamente bajas como 200 ppp. Sin embargo, son caras y los formatos de impresión no exceden el clásico 10 x 15 cm, ya que cuando lo hacen, los precios suben vertiginosamente y son entonces impresoras más apropiadas para pruebas de imprenta y autoedición.
Impresoras de gran formato
Resulta un calificativo tan bueno como cualquier otro para definir a las impresoras, casi exclusivamente de tinta, que imprimen en formatos hasta el A2 (42 x 59,4 cm). Son impresoras que aúnan las ventajas de las de tinta en cuanto a velocidad, color y resolución aceptables junto a un precio bastante ajustado. Se utili-
zan para realizar carteles o posters, pequeños planos o pruebas de planos grandes, así como cualquier tarea para la que sea apropiada una impresora de tinta de menor formato: cartas, informes, gráficos. Impresoras para grupos Son aquellas de gran capacidad, preparadas para funcionar en una red, incluso sin depender de un ordenador. Suelen ser impresoras láser, en
ocasiones con soporte para colores, con bandejas para 500 hojas o más, velocidades de más de 12 ppm (¡¡¡reales!!!) y memoria por encima de 6 Mb. Últimamente se tiende a
que tengan funciones de fotocopiadora o capacidad para realizar pequeñas tiradas sin necesidad de emplear una fotocopiadora, e incluso, clasifican y encuadernan. Adecuación al uso Para terminar esta reseña, se resume en la tabla que ilustra el trabajo algunos elementos fundamentales que ayudarán a comprender todo lo explicado anteriormente.
Conclusiones Ya sea el tipo de impresora, características, funcionamiento y su uso, es indiscutible que tener dentro de nuestro espacio de trabajo este periférico, facilita la labor. Incluso son innumerables las ocasiones que nos ponen en situaciones difíciles cuando se deterioran, o simplemente si se retrasa el trabajo. Es por eso que consideramos importante expandir el conocimiento que de ésta se tiene, para cuando demos c+p, la transferencia de información pase de manera fluida y quede plasmado en el papel el resultado de lo hecho. Para terminar estas páginas relacionamos algunas impresoras que Copextel comercializa en sus dependencias, así como sus características y dónde se pueden adquirir. Esperamos que lo explicado sirva para que su adquisición sea acertada. [GiGA 3 / 2006]
23
hardweriando Copextel, por medio de sus Divisiones Territoriales, puntos de venta y tiendas especializadas Mundo Ofimático, ofrece a nuestros clientes la posibilidad de adquirir la mayoría de los tipos de impresoras anteriormente descritos, así como sus insumos, partes y piezas y servicio de garantía y posventa. En el caso de las impresoras matriciales, contamos con la fiabilidad de varios modelos de la reconocida marca EPSON, en sus variantes de carro ancho como la FX-2190 que
soporta la impresión de listados, sobres y etiquetas para todo tipo de aplicaciones o carro estrecho como la FX-890 para medianos volúmenes
modelos de alto rendimiento como la DFX 8500 especialmente concebi-
o la HP Deskjet 460C, especialmente diseñada para el trabajo con portáti-
da para entornos donde la rapidez sea un factor clave, capaz de imprimir hasta 1120 caracteres por segundo. Para cubrir sus necesidades de impresión en sistemas láser, en sus variantes blanco y negro o en colores, inyección de tinta o multipropósitos, Copextel distribuye una amplia gama de impresoras Hewlett Packard como la económica y funcional HP Laserjet 1012, con impresiones de
les. También ofertamos soluciones integrales para la oficina como las series multipropósitos Officejet 3015
hasta 15 ppm en blanco y negro con resolución de 1200 dpi o la HP Color LaserJet 3700DN, que puede impride impresión que es perfecta para los ámbitos comercial, industrial y de administración pública. Además, comercializamos modelos de bajo costo económico como la LX-300
y 6200, que reúnen en un solo equipo, prestaciones como impresora, fax, escáner y fotocopiadora.
PLUS que aunque su tamaño es pequeño llega a imprimir hasta 8 códigos de barras distintos y otros
24
[GiGA 3 / 2006]
mir páginas A4 a todo color en sólo 20 segundos con resoluciones de hasta 2400 dpi mediante su sistema HP Imageret de procesado de imágenes, mientras que en calidad fotográfica se cuentan la HP Deskjet 5940
Para una descripción más amplia de nuestras impresoras, precios, características técnicas y el lugar más cercano para adquirirlas, y pueda ver otros productos que comercializamos, visite el sitio www.mpc.com.cu
T
egos Gastronomía se cuenta entre las gerencias pioneras de Copextel S.A. Surgida en el año 1995 integra un grupo de entidades que está diseñado a cubrir la demanda de servicios especializados de venta, posventa y proyectos "llave en mano" con tecnología de punta relacionada con equipamiento gastronómico a instalaciones hoteleras y restaurantes, entre otras instituciones estatales. Un equipo profesional con sentido de pertenencia y responsabilidad orientado a la satisfacción del cliente con una atención personalizada es Tegos Gastronomía. El liderazgo de los servicios que ofertamos dentro del mercado nacional se ha fortalecido con las obras para los programas de la Revolución conocido como "Batalla de Ideas" y entre éstos se pueden citar: nuestra presencia en las obras de la Universidad de Ciencias Informáticas, alojamientos hospitalarios,
hospitales y escuelas de trabajadores sociales. La actividad de venta que ofertamos incluye la instalación de equipos, montaje, puesta en marcha y garantía, con extensión a los servicios de posventa con mantenimiento, su diagnóstico y reparación. También ofrecemos servicios de proyecto que incluyen la modalidad "llave en mano". Hoy formamos parte de una estructura con una logística que cubre la totalidad del territorio nacional. Los resultados han sido posibles gracias a una gestión de la calidad enfocada a la satisfacción del cliente. Contamos con un sistema de gestión basado en ocho principios: enfoque al cliente, liderazgo, participación de todos los trabajadores, enfoque basado en procesos, enfoque de sistema para la gestión, mejora continua, enfoque basado en hechos para la toma de decisiones, y relaciones mutuamente beneficiosas con nuestros proveedores. Estos princi-
pios nos permiten una dirección y control sistemático y transparente de la gerencia para lograr un desempeño exitoso orientado a las necesidades de todas las partes interesadas. Dentro de nuestro sistema de gestión se destaca la implementación del control interno según la Resolución 297/03 del Ministerio de Finanzas y Precios. Este control abarca todos los procesos y operaciones en la entidad y nos proporciona una seguridad razonable en la confiabilidad de la información, la eficiencia y eficacia de las operaciones, el cumplimiento de las leyes, reglamentos y políticas vigentes, así como en el control de los recursos. Nuestra visión de cultura organizacional se amplía. Estamos atentos a la dinámica exponencial de cambios a nivel global y regional. Marchamos rumbo a un nuevo paradigma: Somos Uno y Elegimos Cocrear, hacia una transformación organizacional a partir de la conciencia y la motivación de hacernos responsables.
hardweriando
D.I. Vianys Zamora Pimentel vianys@cmatriz.copextel.com.cu Dirección de Marketing y Comunicación GiGA, Copextel
C
uando parecía que todo en cuestión de escritura estaba dicho, de entre mensajes y artículos sale la noticia que una nueva fórmula de ésta, se viene desarrollando y que incluso se dice que revolucionará el mundo editorial. Las primeras técnicas de escritura que aparecieron en el 4000 a.n.e., han mantenido una evolución lenta, pasando de la tinta china hasta la escritura. Y no es más que el método de intercomunicación humana que se realiza por medio de signos visuales que constituyen un sistema. Sin embargo, tras años de investigación y desarrollo se comenzó a trabajar en un proyecto futurista: el papel electrónico. La idea de sustituir el papel, soporte que acompaña a todos desde hace siglos, por unas ultramodernas pantallas del grosor de una cartulina, flexible y por supuesto, portátiles, hoy se despliega en los primeros prototipos que ya están en circulación.
Detrás del producto Por las características que presenta en su diseño este producto, en el que una de las más representativas es la extrema delgadez de su pantalla, lleva a que los desarrolladores a que
26
[GiGA 3 / 2006]
hayan acudido al empleo de una especie de tinta electromagnética, otra de sus características. Pero más allá de lo que llega en su conjunto, existe una serie de componentes que lo conforma. De ahí que detrás de esta apariencia exista un estudio que ha devenido lo que se nos presenta hoy. De manera que la pantalla está formada por un montón de diminutas bolas cargadas con tinta, la mitad de color blanco y la otra mitad negra. Además de estar pintadas a medias, cada hemisferio
tiene diferente polaridad. Cuando pasa un haz eléctrico, éstas se colocan boca arriba o boca abajo: cambian de color según la polaridad. Es decir, pueden ser blancas o negras. Según la posición de los millones de puntos que hay en la página se van formando letras, palabras, párrafos. Una de las primeras compañías que sacaron a la luz pública un prototipo del futuro periódico electrónico fue IBM, una de las empresas que colaboran en la financiación del proyecto en el Tecnológico de Massachussetts (MIT). Idea que mereció la medalla de oro de 1999 de la Sociedad de Diseño Industrial de Estados Unidos, y aunque de momento no está en el mercado, espera tener a mediano plazo este tipo de pantallas en diversos tamaños a disposición del público.
Arquitectura Estamos ante una pantalla plana que se puede enrollar, una tecnología desarrollada en su mínima expresión para que, por ese "monitor" ultradelgado corran colores, números, imágenes, e incluso, cambien. De esa forma, el uso del papel electrónico comienza a rodar por el mundo, y este soporte podrá ser empleado no sólo para bajar los costos del papel tradicional, sino que también
hardweriando tado, casi de igual forma a como se realiza esa acción frente a una página web.
presenta una nueva y atractiva forma de publicidad. Es posible también verla plasmada en etiquetas y envases de diferentes productos. El también llamado e-paper (papel electrónico) tiene más de 30 años de investigación y desarrollo y fue sólo en los últimos años que comenzó a tomar fuerza y aplicación concreta. Pero ¿de qué se trata? El papel electrónico es una hoja compuesta por dos láminas externas producidas con un material especial flexible, liviano y resistente. En el medio se ubican partículas de cristal líquido pequeñísimas que se activan al ser inducidas por medio de un débil campo eléctrico.
Siemens, Samsung, Lucent, E-Ink, Philips, Fujitsu, Sony y Plastic Logia son algunas de las compañías que desarrollan el papel electrónico. Cada una lo hace con un estilo propio, aunque apuntan al mismo objetivo: reemplazar el uso del papel común y generar un negocio. Sin embargo, ya sea el diseño que cada cual le imprima, todo se ha realizado bajo la misma filosofía. El papel electrónico se activa por la acción de partículas eléctricas. Para ello usan también una clase especial de tinta llamada electroforética, que posee moléculas microscópicas de colores que se controlan por medio de la corriente eléctri-
ca cuando son puestas en una matriz. Pero más allá de esta explicación tecnológica, los especialistas exponen y defienden las ventajas de las aplicaciones que trae el papel electrónico que con fuerza prevé remplazar al papel actual.
Aplicaciones La tecnología del papel electrónico permite actualizar información. No se ha definido si se cargarán nuevos datos todos los días o en tiempos espaciados. El e-paper permite muchas aplicaciones y gran parte de ellas se manifestarán en la medida en que se vayan utilizando. Uno de los primeros empleos de este nuevo recurso se encara en Estados Unidos. La empresa E-Ink, una de las comprometidas con este desarrollo, comercializa hojas de papel electrónico con fines publicitarios. Se trata de láminas de 180 por 120 milímetros y 3 de ancho colocadas en las vitrinas de los locales que muestran los precios de los productos en forma animada. De manera que si se reemplaza el pliego de cartón de colores que cuelga anunciando el nombre y ofertas de cualquier tienda por uno de papel electrónico que se mueve, cambia, o muestra una oferta y pasados unos segundos, cambia y refleja otra. Y así, todo el día, incluyendo o eliminando aquellas promociones que se considere. Pero además de las ventajas visuales aparecen cuestiones vinculadas con los costos: en una pequeña pieza de papel podría incluirse información que, en el papel común, demandarían hojas y hojas. Todos esos datos, que se llevan las tres cuartas partes de la caja podrían incluirse en una pequeña pieza de papel electrónico adosada al envase. Y como el papel electrónico habilita el movimiento, la información se moverá en una u otra dirección. En otras palabras: cada una de las piezas de papel electrónico permitiría "navegar" por esa superficie. Entonces se podría "subir" o "bajar" con una flechita dibujada al cos-
Un sector en el que el uso del e-paper revolucionaría al mercado sería el de publicaciones escritas en papel. Este podría resumir los conceptos del diario de papel y el diario online en uno mismo. En una hoja de papel electrónico se cargaría la información de la edición del día con la posibilidad de sumarle actualizaciones, a gusto y parecer del editor. Otro detalle es el efecto que produce la electroforética, es decir el diario podría leerse sin inconvenientes en lugares donde la luz es tenue. Esto acompañado de que su tamaño, forma y diseño permiten un traslado fácil y cómodo a cualquier parte.
Prototipos que han visto la luz Varias compañías apostaron por esta tecnología. Así, varias son las que han lanzado sus propuestas, mientras Sony inició la comercialización del papel electrónico, en marzo pasado, con la información de que iniciaría la producción de su pantalla Librié, que ahora ya está disponible en el comercio japonés. Con dimensiones de 126 mm x 190 mm, Librié tiene el tamaño de una billetera un peso de 300 gramos. El dispositivo puede almacenar el equivalente al contenido de 500 libros.
Los libros son descargados al dispositivo desde Internet, en un formato denominado BBeB, desarrollado especialmente por Sony para Librié. El formato BBeB hace posible comprimir el contenido de un libro de 250 páginas en unos increíbles 500 kb. Librié está basado en una tecnología de [GiGA 3 / 2006]
27
hardweriando "tinta electrónica" conocida como E Ink, desarrollada por Philips. Las primeras informaciones procedentes de Japón confirman que, en efecto, la pantalla tiene una alta resolución, mucho mejor que las mejores pantallas LCD y Sony informa que la resolución es de 170 píxeles por pulgada cuadrada, contra 70-90 píxeles de las pantallas corrientes. La pantalla usa corriente únicamente cuando cambian sus contenidos. En la práctica, esto implica que Librié puede mostrar 10 000 páginas antes de tener que cambiar su batería. Otra de las empresas que anuncian su producto basado en esta tecnología es Fujitsu, que aparte de los usos espera-
dos de papel electrónico para crear revistas o periódicos realmente digitales, aspira algún día a lograr la resolución, rapidez y contraste de las pantallas LCD. Fujitsu acaba de anunciar un gran avance al lograr papel electrónico fácil de doblar, e incluso puede representar color si se usa un sistema de tres capas: rojo, verde y azul. Otra gran noticia es que emplea muy poca energía y tiene la capacidad de memorizar la última imagen y desplegarla sin necesidad de ésta. Por su parte, la compañía estadounidense E Ink presentó una revolucionaria pantalla basada en la tecnología de "tinta electrónica". Sus dimensiones son de 122 por 183 milímetros y su contenido puede ser modificado vía mando
remoto a una computadora. En un comunicado, E Ink destaca que este producto tiene un consumo mínimo de electricidad y puede ser adaptado a numerosas necesidades, especialmente en el ámbito publicitario. La entidad destaca el hecho de que "mientras otras compañías han dedicado más de dos décadas a desarrollar una tecnología de este tipo, E Ink sólo necesitó doce meses para convertir los resultados del laboratorio en un producto comercial al alcance de todos". E Ink concluye señalando que éste es sólo el primer paso en el camino hacia los periódicos digitales, los libros electrónicos y los monitores ultrafinos. La conocida empresa Epson también decidió presentar su papel electrónico en el SID 2005, su E-Paper, un display flexible que no presenta la estructura rígida de una pantalla corriente. El modelo tiene dos pulgadas, lo que facilita alcanzar una resolución de 320 × 200 píxeles con 200 ppi. El secreto de este logro radica en haber conseguido usar plástico en lugar de cristal como display. Según comentan, se espera que en dos años comience su integración en dispositivos, especialmente orientados a la lectura. De hecho, uno de los principales objetivos a alcanzar con este desarrollo es obtener un alto contraste para facilitar la lectura de textos con letra pequeña en el dispositivo.
Así como Epson con su e-paper y Fujitsu con su pantalla flexible, ahora Hitachi, aparece con un nuevo papel electrónico de 13,1" y monocromo, con una definición de 100 dpi. El que incorpora tecnología WLAN con la idea de descargar imágenes publicitarias de servidores, y soporta una batería secundaria de ion-litio. Con la batería conectada, el papel mide 1 cm. de grosor.
28
[GiGA 3 / 2006]
El hecho de poseer tan baja definición (el e-paper de Epson tiene 200 dpi) y de permitir bajarse imágenes publicitarias es porque ese papel está pensado para componer paneles publicitarios en calles y centros comerciales. Su costo es inferior a los paneles LCD y se espera que sustituya a éstos el año próximo. Aunque no se descarta otros usos, entre los que esperemos que esté alguno de ámbito doméstico.
Futuro A medida que se abre al mundo y al mercado este producto, se irá encontrando nuevas aplicaciones, que por sus posibilidades llegarán a ser tan cotidianas como ese papel común que impreso relata las últimas noticias del mundo. Así, algún día ocurrirá algo que sólo se ha soñado: entrar al cine y al teatro a disfrutar de un espectáculo con boletos desarrollados con esta tecnología. El e-paper permitirá no sólo traer la información de la fila y butaca donde sentarse para apreciar lo que se presenta, sino que servirá para ampliar los datos sobre el espectáculo, el estado del tiempo si es al aire libre y aspectos relacionados con el acontecimiento. Este proyecto que lleva años en desarrollo y hoy es noticia que deslumbra a muchos, y se prevé revolucione el mundo editorial, es aún una tecnología naciente que con sus ventajas y aplicaciones, inundará no sólo el mercado publicitario, sino también que traerá en otro soporte el acostumbrado periódico o las grandes obras de la literatura universal, dejándonos la añoranza de tocar y sentir el libro leído y releído, el diario viejo en el que una noticia revolucionó el mundo o el borrador de algún artículo que escribimos, o quizás la GiGA que hoy les llega en formato impreso.
notihardware Slider Jet el nuevo móvil de Kyocera
E
l Jet KX18, además de ofrecer las funcionalidades básicas para servicio de voz, está habilitado también con Wap, BREW, mensajes de texto (SMS), mensajes Multimedia (MMS), reproductor de Música en los formatos MP3, AAC, MP4, 3GP y M4A, puerto de memoria expansible hasta un 1 Gb, cámara VGA con flash, zoom digital y botón dedicado para la cámara, con captura y reproduc-
ción de vídeo. Este teléfono también ofrece a los usuarios la capacidad de bajar de Internet sus programas favoritos de televisión y videoclips. El Jet KX18 también incluye una pantalla de 262 000 colores, que permite ver imágenes y vídeo en alta resolución; así como altavoz para conversaciones manos libres. Además, dispone de la tecnología BREW 3.1.3 para la descarga de juegos y tonos de repique.
Escáner DR-1210C de Canon
D
iseñado para agilizar al máximo la digitalización de los documentos, el escáner DR-1210C de Canon, es polivalente porque acepta todo tipo de documentación, sean hojas sueltas y de distinto tamaño, libros y papeles plastificados. Lleva un alimentador automático para hojas sueltas a doble cara y la clásica superficie acristalada para el proceso manual. La velocidad es de 12 páginas por minuto a una resolución de 300 puntos por pulgada, tanto en blanco y negro como en colores y se puede aumentar hasta 600 puntos por pulgada. Incluye los programas
Acrobat Standard y Omnipage SE para generar los PDF y archivos correspondientes, y otros específicos de Canon para simplificar la clasificación. Incluye tres botones para sencillez de manejo y otros para automatizar tareas.
Móvil que compite con los Blackberry
E
l explorador no admite los marcos flotantes o no está configurado actualmente para mostrarlos. Ogo fue lanzado en sus inicios en Estados Unidos por AT&T Wireless (ahora Cingular Wireless) y se comercializa en la actualidad en Suiza de la mano de Swisscom Mobile, el operador móvil líder en este país, en Turquía por un ISP que forma parte del mayor conglomerado multimedia, y en Alemania, mediante una alianza con Vodafone y 1&1, el mayor ISP de Europa. Ogo es un dispositivo peculiar. A diferencia de otros móviles que han apostado por las funcionalidades multimediales, éste se ha centrado por integrar la mensajería por Internet (soporta AIM, MSN y Yahoo!) además de correo electrónico y SMS en un solo dispositivo compacto. También la navegación por Internet (en html y no WAP) y se le ha añadido pushemail y sincronización de la agenda, mediante un acuerdo con Synchronica con su programa SyncML Gateway.
Científicos japoneses desarrollan grabadora de aromas
L
a calidad de las fotografías, sonido y vídeo es mejorada constantemente, pero nunca podrá transmitir información sobre el olor de los objetos fotografiados o filmados. Esta realidad llevó a un grupo de científicos adscritos a la Universidad de Tokio, Japón, a crear un aparato que pueda analizar y reproducir aromas combinando diversos productos químicos. Esta tecnología tiene diversas aplicaciones comerciales, que van desde las compras en línea (probar un perfume antes de comprarlo) hasta el
30
[GiGA 3 / 2006]
uso en hospitales (evaluar a distancia el olor de sangre u orina). En su descripción del proyecto, sus desarrolladores escriben: "Imagine sentir el perfume de su novia cuando le llama por teléfono o el olor del mar al ver una escena del Titanic". Los generadores de aromas no constituyen una novedad tecnológica, por lo que los anuncios de Japón, en el mejor de los casos, representarán un avance en la materia. "Con el video, usted sólo necesita grabar variantes de rojo, verde y azul. Sin embargo, las personas tie-
nen 348 sensores olfatométricos. Entonces, necesitamos un gran número de químicos fuente", comentó Pamuk Somboen, del grupo de científicos japoneses, a la publicación New Scientist. Inicialmente se han seleccionado 96 aromas que serán combinados, calentados y hervidos hasta dar el olor preciso. Después, los aromas serán registrados por 15 "narices electrónicas". En las pruebas realizadas hasta ahora se ha podido distinguir y reproducir el aroma de manzanas blancas y rojas.
3M presenta innovadora pizarra digital
L
a pizarra dispone de una superficie de escritura de gran dureza, realizada en porcelana esmaltada sobre perfil de acero. La superficie, sobre la que se puede escribir tiene un bajo brillo para evitar el deslumbramiento. Cuenta también con botones de acceso rápido con los que el usuario puede calibrar, acceder a la barra de herramientas interactiva, desplazarse hacia delante o hacia atrás, acceder a la galería y crear nuevas páginas con pulsar un botón. Entre otras funciones, incluye las de reproducción (playback) y de borra-
do en seco, e incorpora un lápiz de presentación digital. La tecnología de la nueva pizarra de 3M permite capturar electrónicamente las notas escritas para archivarlas, interactuar con ellas en la PC, proyectarlas o mostrarlas en Internet.
Microchip apagado almacena información
F
reescale, una compañía estadounidense desarrolló el primer chip capaz de almacenar información como si fuese un disco duro y bautizaron esta tecnología como magnetoresistive random-access memory (Mram) y ya los han fabricado con una capacidad de almacenamiento de 4 Mb. Este 'chip' almacena los datos de
forma magnética en lugar de eléctrica. Su principal ventaja es que puede retener información incluso sin corriente eléctrica, es decir, con el equipo apagado, algo que no es posible con los chips actuales, según informa la BBC. También se destacan la velocidad de lectura de este sistema, superior a la normal, y que no se pierde con el uso.
Reproductor multimedia iMax T60
E
l iMax T60 es un reproductor multimedia con capacidades de 20 y 30 Gbytes. Tiene una pantalla panorámica de 4 pulgadas, sintonizador de radio FM, conectividad USB y soporta los formatos AVI, MPEG-4, VOB, DAT, OGG, MP3, WMA y AC3. El fabricante dice que su batería tiene autonomía suficiente para reproducir 10 horas de video y 20 de audio. Sus dimensiones son de 13,3 x 7,8 x 2,2 cm y 250g de peso.
Synaptics Onyx: teléfono sin teclas
Cámara con 7 funciones en 1
L
a más novedosa videocámara multifunción de Aiptek (modelo DV 8900) permite obtener imágenes impresas sin utilizar la PC, es de pequeño tamaño, y su pantalla TFT de 2,4 pulgadas puede llegar a girar en un ángulo de 2 702º. Cuenta con la función PMP (Portable Media Player), lo que permitirá capturar, comprimir, visualizar películas y programas de la pequeña pantalla grabados a partir de una fuente de vídeo, una webcam o un lector MP3. Con la función pictbridge (para que podamos realizar impresiones sin necesidad de recurrir a nuestra PC), incluye un amplio abanico de funciones: cámara de fotos con una resolución de 10 megapíxeles que incorpora estabilizador digital autofocus, vídeo
E
digital MPEG4, grabadora de voz y grabación de TV. Cuenta con una memoria interna de 32 Mbytes y admite tarjetas con una capacidad máxima de 2 Gb. La resolución en las imágenes pueden llegar a soportar 2 592 x 1 536 píxeles y en vídeo ésta llega a los 640 x 480 ppp.
l Onyx es un concepto de teléfono sin teclado, desarrollado por Synaptics y el estudio de diseño Pilotfish, en el que toda la pantalla es sensible al tacto. Y sí, existen otros teléfonos así, pero la diferencia con éste es que "no sólo reconoce puntos y toques, sino también formas y movimientos complejos junto con entrada multipunto". Las posibilidades son muchas, desde responder a una llamada poniéndolo contra la mejilla hasta mandar mensajes con gestos de los dedos. [GiGA 3 / 2006]
31
Ing. Rafael Borja Domínguez borja@eg.copextel.com.cu Navalec Ing. Frank Pascual Viscaíno pascual@eg.copextel.com.cu Electrónica General - Copextel
C
ada día, el deterioro de la capa de ozono anuncia la inminencia de un cambio climático que algunos especialistas temen llegue a ser irreversible y de impredecibles consecuencias. Uno de los factores climáticos que acusan un gran cambio es la ocurrencia cada vez mayor de tormentas eléctricas severas cuyo pronóstico parece indicar que lejos de reducirse, tenderán a aumentar tanto en frecuencia como en intensidad. Ante esta realidad cabe preguntarse: ¿cómo influye ese cambio climático en el funcionamiento de las Tecnologías de la Informática y las Comunicaciones (TIC)? ¿En qué grado nos afecta y qué medidas se pueden tomar para minimizar su impacto en nuestra estructura? El aumento de la frecuencia e intensidad de las tormentas eléctricas, recogido en las estadísticas de los servicios meteorológicos de casi todos los países del Mundo, preocupan a especialistas de diversas ramas, y entre ellos se cuentan todos aquellos vinculados con las llamadas TIC. Toda vez que los efectos secundarios de carácter electromagnético de estas descargas, son responsables de averías que van desde la corrupción de programas hasta el deterioro o envejecimiento prematuro de los componentes de montaje superficial tan difundidos en motherboards, discos duros, impresoras y otros periféricos de cualquier estación de trabajo, del cual puede depender el funcionamiento de un laboratorio, instalación hospitalaria con toda su tecnología de punta o cualquier otra
32
[GiGA 3 / 2006]
en la que la informática y las comunicaciones han hecho su aparición. Ante este hecho irrebatible cabe preguntarse qué medidas se hallan a nuestro alcance para minimizar el impacto nocivo de las descargas atmosféricas y sus efectos electromagnéticos secundarios. Para dar respuesta a esta interrogante se impone un análisis resumido del fenómeno y sus vías de propagación.
Lo que ocasiona el rayo La corriente de una descarga atmosférica puede variar desde decenas hasta centenares de kiloamperes y traer como efecto asociado la generación de un campo electromagnético de corta duración, así como gran intensidad y velocidad de propagación. Este campo electromagnético originado por la corriente del rayo es el responsable de los fenómenos inductivos que ocurren principalmente en líneas de transmisión, antenas, chasis metálicos y componentes de circuitos electrónicos a los que se atribuye buena parte de las averías que se registran durante las tormentas eléctricas. A su vez el impacto de la descarga atmosférica sobre la tierra, trae como consecuencia la generación de una corriente de dispersión que eleva el potencial de tierra y da lugar a una cresta de voltaje de los diferentes frentes de onda de propagación de la energía en el terreno, en dependencia de la composición mineral de éste y su grado de humedad. Es responsable de diferencias de potencial peligrosas para la vida humana y animal.
La dispersión en el terreno de esta energía es capaz de afectar las tomas de tierra de los circuitos eléctricos que alimentan a los diferentes consumidores y dan como resultado la generación de transientes en los sistemas eléctricos que pueden ingresar, por las líneas de alimentación, al interior de los equipos electrónicos sensibles y generar averías de gran magnitud que generalmente se traducen en bajas técnicas de equipos y la imposibilidad de reparar daños de tal magnitud. El radio de influencia de un rayo puede alcanzar distancias desde 2 km hasta varias decenas de km si se tiene en cuenta que esa energía se puede propagar por las vetas de los mantos acuíferos del subsuelo, y dar lugar a fenómenos de averías o mal funcionamiento aparentemente inexplicables dadas las distancias involucradas.
Cómo proteger nuestros medios La naturaleza de los eventos descritos y sus vías principales de propagación indican la necesidad de establecer barreras de protección para nuestros equipos o sistemas y permitan suprimir o minimizar a niveles tolerables los eventos electromagnéticos que como resultado de la ocurrencia de tormentas eléctricas nos amenazan. Para lograr estos objetivos es necesario diferenciar las vías fundamentales de penetración o influencia de esos eventos nocivos: 1. Inducción electromagnética en formas de pulsos electromagnéticos sobre: líneas de transmisión eléctri-
cas, de datos, coaxiales, sistemas de antenas transmisoras y receptoras y en general de todo tipo de línea de transmisión de cobre, chasis y estructuras metálicas. 2. Transitorios atmosféricos que generaran pulsos electrostáticos capaces de cargar eléctricamente cualquier estructura metálica, cableado, etc., cercanos a la zona de tormenta. 3. Dispersión sobre el terreno de descargas atmosféricas con la subsiguiente disipación de energía eléctrica, capaz de aumentar potenciales de tierra y de penetrar al interior de los circuitos eléctricos de alimentación vía toma de tierra de transformadores, neutros de circuitos y tomas de tierra de protección eléctrica e inducción sobre circuitos soterrados. Atendiendo a estas vías fundamentales de propagación se han desarrollado diferentes tecnologías para la protección de los sistemas tanto de señales débiles como de líneas eléctricas debido a que ambos están estrechamente vinculados entre sí, y forman un sistema integral de soporte de las comunicaciones y la transmisión de datos. Para la protección de líneas eléctricas se han desarrollado dispositivos cuya función es la de actuar como conductores ante la presencia de una variación de voltaje que sobrepase los niveles prefijados por el fabricante para cada tipo de circuito y conducir a tierra el evento, de manera que se evite su propagación hacia el interior del equipo o circuito a proteger. Es necesario comprender que un solo dispositivo, por muy potente que sea, es incapaz de disipar o conducir a tierra toda la energía que puede provenir de una descarga electromagnética, por lo que es acertada práctica establecer determinados niveles de protección de acuerdo con las normas de los fabricantes que prescriben la aplicación de estos componentes. Para la protección de líneas de transmisión de señales, cables coaxiales, líneas telefónicas, etc., existen dispositivos supresores de transientes que incluyen la combinación de varisto-
res, descargadores gaseosos y diodos de avalancha según las diferentes tecnologías desarrolladas por los distintos fabricantes de dispositivos que garantizan una eficaz derivación a tierra de los eventos y tienen a su vez gran velocidad de respuesta y bajas pérdidas de inserción, por lo que son prácticamente transparentes a la transmisión y recepción de señales cuando se instalan adecuada y correctamente. La protección de redes informáticas comporta el diseño de dispositivos especialmente creados para este fin, lo que permite tanto la protección de líneas de transmisión de datos como la de switchers, hubs, routers, etc., y a su vez la protección individual de las estaciones de trabajo, al crear lazos cerrados de protección entre el dispositivo distribuidor de la red y la propia estación de trabajo y sus periféricos, para los que se han desarrollado también, protectores tanto para puertos serie como paralelo. Existen módulos de protección basados en varistores y diodos de avalancha para la protección de sistemas Power Ethernet ampliamente aplicados en la protección de los sistemas de radioenlace que se emplean en la formación de las WAN y otros sistemas de transmisión digital. La aplicación de protectores para líneas telefónicas en la entrada de línea de los diferentes tipos de módem evita desagradables averías que con frecuencia interrumpen nuestra labor y causan averías. Un elemento también importante dentro de la arquitectura de la protección contra efectos secundarios de las descargas atmosféricas es la toma de tierra hacia la cual deberán derivarse los eventos nocivos que se desea evitar y a su vez constituye la referencia de cero voltaje, tanto para sistemas de alimentación de AC, fuentes de alimentación de DC, ceros lógicos, etc. La no existencia de una adecuada toma de tierra puede dar al traste con nuestros esfuerzos no sólo de crear un eficiente sistema de protección, sino de hasta tener una red de transmisión de datos que funcione adecuadamente ya que como se enuncia en el párrafo anterior, está
asociada a los elementos que determinan la estabilidad del sistema. Su mal diseño o funcionamiento deficiente repercute sobre el resto del sistema y es en ocasiones el responsable del funcionamiento intermitente de la red, variación de la velocidad de transmisión, corrupción de instrucciones o programas, interferencias de alta frecuencia que afectan el funcionamiento de diferentes equipos entre los que se encuentran fundamentalmente los de imaginología de hospitales y otras averías de gran magnitud.
Conclusiones La naturaleza de las interferencias radioeléctricas forma parte de las ciencias que estudian el campo electromagnético y su interacción con el ser humano y su obra sobre la Tierra. Dentro de ella, la influencia de los campos electromagnéticos derivados de las descargas atmosféricas constituye una rama notablemente compleja acerca de la cual existen variadas opiniones y diferentes tendencias muchas veces influenciadas por intereses económicos de los distintos fabricantes y ajenos a nuestros intereses, sin embargo debemos tener en cuenta que estos fenómenos son de origen natural y comportan la influencia de distintos procesos sobre los cuales tenemos escaso conocimiento y ningún control, pero nada obsta a que no tomemos las medidas adecuadas para la protección de los medios, ya que una avería en ellos implica no sólo la pérdida de equipamiento, indudablemente valioso, sino la suspensión de los servicios que éstos prestan y la posible pérdida del fruto del trabajo de muchos, representado por la información que en ellos se almacena o se transmite. Para evitar este panorama es aconsejable encomendar la tarea a entidades como Electrónica General, de Copextel, que establecidas en el territorio nacional se encargan de diseñar, instalar y mantener Sistemas Integrales de Protección Contra Efectos Secundarios de Descargas Atmosféricas de acuerdo con normas internacionales y nacionales revisadas por el Comité Electrotécnico Cubano y reglamentadas por la Agencia Cubana de Protección Contra Incendios, APCI. [GiGA 3 / 2006]
33
softweriando
MSc. Carlos del Porto Blanco carlos@infosoc.cu Oficina para la Informatización
El hombre inteligente aprende de sus propios errores, el sabio aprende de los errores de los demás. Arturo Adasme Vasquez
E
n octubre del 2005, el fabricante japonés de autos Toyota anunció la retirada de 160 000 de estos equipos del modelo híbrido Prius, por reportes que daban cuenta de que los indicadores de la pizarra del chofer se activaban sin motivo aparente y el motor de gasolina del auto se detenía inesperadamente. A diferencia de las retiradas de autos en gran escala del 2004, el problema esta vez no se debió a una falla de hardware, sino a un error de programación en el código que controlaba al auto. El Prius tenía un error de software y debido a éste, Prius se unió a la lista de errores provocados por las computadoras, que comenzó en 1947 cuando un grupo de ingenieros encontró una mariposa nocturna en el relay número 70 del panel F de la computadora Harvard Mark 1. Esta computadora ejecutaba una prueba de sus multiplicadores y sumadores cuando algo comenzó a marchar mal. Un rato después, la mariposa fue retirada y pegada al libro de incidencias con la frase First actual case of a bug being found. El artículo de hoy se dedica a este tema: algunos ejemplos de errores provocados por computadoras y sus consecuencias.
36
[GiGA 3 / 2006]
Adelante la historia Errores de computadoras en la aviación Un fallo de computadoras dejó 40 vuelos en tierra de la aerolínea Delta
Airlines en mayo del 2004; otro fallo de potencia creó problemas en una computadora que forzó a Northwest a cancelar más de 120 vuelos en julio del 2004; un error de tecleo por un
trabajador dejó sin viajar o retrasó varios vuelos de US Airways por
algunas horas en agosto del 2004. Todo ello es una muestra del porqué las aerolíneas se han convencido de que son totalmente dependientes de las computadoras.
Fallo de misiles Patriot El 25 de febrero de 1991 durante la Guerra del Golfo, una batería estadounidense de misiles Patriot, en Dharan, Arabia Saudita, falló en el seguimiento e intercepción de un misil iraquí Scud: éste golpeó uno de los dormitorios de los soldados y provocó la muerte de 38 de ellos e hirió a otros 100. A raíz de esta situación se preparó un informe para la Oficina General de Contabilidad, GAO/IMTEC/92/26 titulado "Misiles Patriot de defensa: problemas de software que provocaron que el sistema fallará en Dharan, Arabia Saudita", en el que se explica-
softweriando estaba formada por 24 células que ocupaban un área total de 160 000 metros cuadrados. Sólo cuatro soportaban la cubierta de la plataforma.
ba que normalmente en este tipo de sistema el tiempo se mide por el reloj interno de la computadora en décimas de segundo, después se multiplica por 1/10 para obtener el tiempo en segundos, cálculo que se realizaba con el empleo de registros de 24 bits de punto fijo. Dicha operación originaba truncamientos y aproximaciones que causaban errores que en este caso llegaron a ser significativos.
En la primera base de hormigón para la estructura Sleipner A brotó una vía de agua y se hundió después de una operación de lastre controlada durante la preparación del ajuste de la cubierta en Grandsfjorden, en las afueras de Stavanger, Noruega el 23 de agosto de 1991. Inmediatamente después del accidente, la compañía petrolera noruega dueña de la plataforma, Statoil, creó un grupo de investigación que concluyó lo siguiente:
La parte superior de la cubierta de la plataforma pesaba 57 000 toneladas y estaba preparada para acomodar a 200 personas y al equipamiento de perforación, que tenía un peso aproximado de 57 000 toneladas. El hundimiento fue de tal magnitud que provocó un evento sísmico de 3,0 grados en la escala Richter y una montaña de escombros a 220 metros de pro-
La pérdida de la plataforma se produjo por un fallo en uno de los muros de una célula, que provocó una serie de colapsos y vías de agua que las bombas no fueron capaces de enfrentar. El muro falló como resultado de una combinación de errores serios en el análisis
fundidad. Ese desastre causó un costo económico de 700 millones dólares. Esta investigación rastreó el error hasta concluir que la causa primaria fue una aproximación inexacta en el cálculo de elementos finitos del modelo elástico lineal de una célula (usando el popular programa para cálculo de elementos finitos NASTRAN). Las tensiones se subestimaron en un 47%, lo que provocó que ciertos muros de hormigón no fueran lo suficientemente gruesos. Un análisis más cuidadoso determinó que este diseño fallaría a los 62 metros de profundidad, casi exacto a lo que ocurrió: el desastre se desató a los 65 metros de profundidad.
Como parte de la investigación se determinó que el error antes mencionado, acumulado en el tiempo era aproximadamente de 0,34 segundos, valor muy elevado cuando lo que se mide es la velocidad de un misil. La expansión binaria de 1/10 es 0.00011001100110011001100 y así al infinito, pero el registro de 24 bits del misil Patriot almacenaba el valor: 0.00011001100110011001100, introduciendo un error binario de: 0.000000000000000000000001100 11001100 o lo que es lo mismo en notación decimal, 0.000000095. Si se multiplican las décimas de segundos del reloj de la computadora del misil por 100 horas, valor tope de la máquina, se obtiene 0,34 segundos. Un misil Scud viaja a una velocidad de 1676 metros por segundo, es decir más de medio kilómetro en 0,34 segundos, tiempo más que suficiente para que el misil Scud entrante estuviera fuera del "rango ventana" del radar y del Patriot. Hundimiento de la plataforma de aguas profundas Sleipner A La plataforma de extracción de petróleo y gas en aguas profundas Sleipner A, del Mar del Norte, se apoyaba en el lecho marino a una profundidad de 82 metros. Esa plataforma era del tipo Condeep y
de elementos finitos y el insuficiente anclaje del refuerzo en la zona crítica.
[GiGA 3 / 2006]
37
softweriando Errores computacionales en misiones espaciales
Misiones a Marte En las misiones a Marte se ha registrado errores de software, procesos y hasta errores de diseño que a su vez han resultado pérdidas de datos científicos o de misiones enteras. Si se considera el costo de una misión espacial, el precio de un error puede fluctuar entre miles de dólares durante el desarrollo, hasta millones una vez que la misión está en pie. El orbitador climatológico de Marte se quemó en la atmósfera marciana en 1999 después de perder su inserción orbital por cálculos inconsistentes de la unidad. Se sospecha que ese mismo año, el Mars Polar Lander se
fue un gran éxito cuando el rover Sojourner se desplazó 100 yardas sobre el planeta durante 87 días y excedió su expectativa de vida de 7 días. Sin embargo, un día completo de exploración se perdió cuando el equipo de soporte técnico se vio forzado a reiniciar el sistema mientras los datos científicos se descargaban. La misión Mars Exploration Rover (MER) 2003, incluyó dos rovers: Opportunitty y Spirit (especie de carro robotizado) programados para aterrizar en la superficie de Marte en enero del 2004 para recoger muestras de rocas, suelo y la atmósfera, durante un período de al menos 90 días, valor que se ha
desplomó durante su aterrizaje en Marte, por un desajuste de software. En contraste con esas fallas, la misión de 1997 del Mars Pathfinder (MPF)
superado con creces, pues en el 2006 aún se mantenían operativos aunque con limitaciones. Cada rover costó 400 millones de dólares, por lo que un problema en el código que apagara a uno de ellos
38
[GiGA 3 / 2006]
durante una noche, provocaría una pérdida de 4,4 millones de dólares, así como también la pérdida de valioso tiempo de exploración del planeta. Estación Espacial Internacional El colapso de la computadora a bordo de la Estación Espacial Internacional en febrero del 2002 interrumpió las comunicaciones de voz de la tripulación con la Tierra y disminuyó la energía de la nave. A mitad del camino de sus 61 días en el espacio, una de las computadoras vitales de la Estación se apagó inexplicablemente e incapacitó el sistema de control de altitud de la nave, que es el que mantiene al complejo espacial bien orientado. Una de las computadoras colapsó a las 14:00 horas del meridiano de Greenwich. Esta máquina es la que normalmente acepta los datos enviados desde Rusia apuntando sensores hacia cuatro giroscopios montados en la armazón metálica de la nave, al no existir esa posibilidad los giroscopios no pudieron controlar la orientación de la estación en órbita y, por tanto, los paneles solares no podían rastrear adecuadamente al Sol y redujeron sus posibilidades para obtener luz solar y de ella energía. La radio-antena principal de la Estación no podía apuntarse con precisión mientras la nave estaba a la deriva. Ello imposibilitó a la tripulación la comunicación con los controladores de la Tierra, excepto cuando volaban sobre la estación de seguimiento rusa de Asia Central. Los controladores de Tierra ordenaron a la tripulación que apagara los experimentos científicos y los sistemas de respaldo de energía de la Estación para así ahorrar energía hasta que el problema se solucionara. El viaje a la deriva de la Estación se detuvo a las 17:00 horas, del meridiano de Greenwich, y se habilitó a la tripulación para que comenzara un proceso con vistas a posicionar adecuadamente los paneles solares, volver a encender los experimentos científi-
softweriando
cos y el resto de los equipos que se habían desconectado para establecer una pausa eléctrica. La causa del colapso de la computadora no fue detectada de manera inmediata. Este fue el primer fallo de cómputo significativo desde abril del 2000 cuando las computadoras de control y comando estadounidenses colapsaron, mientras una tripulación llegó a bordo de un transbordador para erigir un brazo robotizado canadiense valorado en 600 millones de dólares. Estos fallos de las computadoras son normalmente rastreados hasta los discos duros en busca del error y por eso la tripulación instaló nuevas memorias semiconductoras en las computadoras de control y comando estadounidenses. A continuación se muestra una relación de errores provocados por computadoras que apareció publicada en Wired News. 28 de julio de1962: Sonda espacial estadounidense Mariner I Un error en el programa de vuelo de la sonda espacial Mariner I provoca que el cohete portador se desviara de la
ruta preestablecida. La sala de control de vuelos destruye al cohete cuando volaba sobre el Océano Atlántico. La investigación sobre las causas del accidente descubrió que una fórmula escrita en papel y lápiz fue transcrita erróneamente al código del programa y provocó un error de cálculo en la trayectoria del cohete portador. 1982: Gasoducto soviético Operativos de la CIA "plantan" un error en una computadora canadiense comprada por la URSS para el control del gasoducto transiberiano. Los soviéticos habían obtenido el sistema como parte de un amplio esfuerzo por adquirir tecnología sensitiva estadounidense. La CIA, alertada sobre el programa soviético, decidió sabotear el equipamiento, el cual pasó la inspección soviética y al estar operativo provocó la que se considera la mayor explosión no nuclear de la historia. 1985 al 1987: Acelerador médico Therac-25 El dispositivo de terapia de radiación, Therac-25 fue un sistema de terapia de radiación basado en el diseño de un modelo anterior: Therac-20, que fue mejorado y podía entregar dos tipos diferentes de radiación: Beta y X. Los rayos X del Therac-25 se generaban por el choque de electrones de alta energía contra una placa de metal colocada entre el cañón electrónico y el paciente. Una segunda mejora fue reemplazar el viejo sistema de seguridad electromecánico del Therac-20 por un software de control, decisión tomada a partir de la percepción de que el software es "más confiable". Lo que los ingenieros desconocían era que ambos sistemas Therac fueron construidos sobre un sistema operativo elaborado pobremente por un programador con poco entrenamiento. Debido a un tipo de error denominado "condición de concurso", dos contendientes luchan por la obtención de un recurso, un tecleo rápido podía configurar accidentalmente al Therac-25 de forma tal que el cañón electrónico disparaba en el modo de alta potencia, pero con la placa metálica fuera de posi-
ción. El resultado fue que al menos cinco pacientes murieron y otros fueron seriamente dañados. 1988: Overflow en un buffer de una versión de Unix Berkeley El primer gusano de Internet: Morris worm, infectó entre 2000 y 6000 computadoras en menos de un día a partir de que se produjo un overflow en un buffer. El código específico es una función de la biblioteca estándar de entrada/salida, gets (), diseñada para obtener una línea de texto desde el teclado. Desafortunadamente esa función no previó límites en la cantidad de caracteres que entraban y una cantidad excesiva de éstos permitió que el gusano tomara el control de la computadora. Los programadores respondieron suprimiendo la función gets () en el código, pero aún no se ha eliminado del lenguaje de programación C, donde esta función se mantiene. 1988 -1996: Generador de números aleatorios Kerberos Los autores del sistema de seguridad Kerberos descuidaron la selección adecuada de la "semilla" del generador de números aleatorios y la seleccionada no era verdaderamente aleatoria; como resultado, durante ocho años fue posible romper de forma trivial el acceso a computadoras que basaban su sistema de autenticación en Kerberos. Hasta el año 2004 no se conoció si ese error fue explotado por alguien. 15 de enero de 1990: Paralización de la red de AT&T Un error en una versión del software que controlaba el switch de larga distancia 4ESS de AT&T provocó una gran "caída" de computadoras cuando éstas recibían un mensaje de sus vecinas al recuperarse de una "caída". El día en cuestión, un switch de la red en la ciudad de New York "cayó" y volvió a activarse, causando la "caída" de sus vecinos y así sucesivamente: 114 switch estuvieron "cayendo" y "levantándose" cada seis segundos, dejando un estimado de 60 000 personas sin servicio de larga distancia durante nueve horas. ¿La solución?: se cargó la versión previa del software. 1993: La división en Punto Flotante del Pentium Un error en la oblea de silicio provocó un error en el muy promocionado microprocesador Pentium de Intel, el que se originaba cuando se dividía números en [GiGA 3 / 2006]
39
softweriando de referencia inercial: un número en notación de Punto Flotante de 64 bits relacionado con la velocidad horizontal del cohete respecto a la plataforma que fue convertido en un entero con signo de 16 bits. El resultado obtenido fue superior a 32 767, mayor valor que puede ser almacenado en una variable de ese tipo, la conversión falló y de ahí en adelante todo comenzó a ir de mal en peor.
notación de punto flotante que se encontraban en determinado rango. Por ejemplo, si se divide 4195835.0 entre 3145727.0 el resultado era 1.33374 en lugar de 1.33382, un error de 0.006, pero que se convirtió en una pesadilla de relaciones públicas para Intel, con un estimado de 3 a 5 millones de chips defectuosos en circulación. Al comienzo, Intel ofreció reemplazar los Pentium cuyos dueños pudieran probar que necesitaban gran confiabilidad y luego la Compañía suavizó su posición y acordó reemplazar los microprocesadores de todo aquel que lo deseara. Ese error costó a Intel 475 millones de dólares. 1995 - 1996: Ping de la muerte La falta de un chequeo riguroso y un error en la manipulación del código que recuperaba los fragmentos de un mensaje sobre una red IP provocaron la "caída" de una gran cantidad de computadoras debido al envío de un paquete "ping" erróneo desde una computadora conectada a Internet. La mayoría de los equipos afectados fueron, por supuesto, las que corrían Windows, que se bloquearon y mostraron la "pantalla azul de la muerte" al recibir esos paquetes, sin embargo, el ataque también afectó sistemas Macintosh y Unix. 4 de junio de 1996: Vuelo 501 del cohete portador francés Ariane 5 El cohete portador Ariane 5 lanzado por la Agencia Espacial Europea explotó 40 segundos después de su lanzamiento desde la base espacial de Kourou, Guayana Francesa cuando había alcanzado 3700 metros de altura. Este proyecto se desarrolló durante una década y costó siete millardos de dólares (sólo el cohete y su carga costaron 500 millones). La investigación de las causas del desastre duró dos semanas y determinó que fue provocada por fallas del sistema
40
[GiGA 3 / 2006]
Las causas exactas estuvieron en que parte del código empleado en el Ariane 4 se reutilizó en el Ariane 5, pero los motores más potentes de este último, activaron un error en una rutina aritmética de la computadora de
vuelo. Al ser más rápidos los motores del Ariane 5 originaban que los números de 64 bits fueran más grandes que los generados por el Ariane 4, lo que provocó una condición de overflow que colapsó a la computadora de vuelo de respaldo y 0,05 segundos después lo hizo la de vuelo principal. Se sobrepotenció a los motores y el final ya se conoce. Noviembre 2000: Instituto Nacional del Cáncer. Ciudad de Panamá Una serie de accidentes en el software para la planificación de terapias creado por la firma estadounidense Multidata Systems International, introdujo errores de cálculo en la dosificación apropiada de la radiación para pacientes. Este software permitía a los encargados de las terapias de radiación dibujar en la pantalla de una computadora la colocación de los escudos de metal llamados "bloques", diseñados para proteger los tejidos sanos de los pacientes de la radiación. El programa sólo permitía que los técnicos trabajaran con cuatro
"bloques" y los médicos panameños recomendaron el uso de cinco. Los técnicos panameños descubrieron que podían burlar al software dibujando los cinco "bloques" como si pareciera un solo gran "bloque" con un gran agujero en el centro, pero ellos no consideraron que el software de Multidata ofrecía diferentes respuestas de configuraciones según era dibujado el agujero. Si se dibujaba en una dirección se calculaba la dosis correcta, pero dibujarlo en otra dirección implicaba que el software recomendara dos veces la exposición necesaria. Al menos ocho pacientes murieron y 20 recibieron sobredosis que les provocaron significativos problemas de salud. Sólo se recogieron en este artículo algunos hechos provocados por errores atribuibles a computadoras, la lista es mucho más amplia y es una desdicha que se incremente con el tiempo. Si bien es cierto que las computadoras son equipos tremendamente útiles y muy imbricados en el tejido social y empresarial, siempre hay detrás de ellas seres humanos en su diseño, programación, mantenimiento, etc. Y ahí es donde generalmente salta la liebre.
Referencias
•Garfinkel Sioson; "History´s Worst Software Bugs". http://www.wired.com/news/technology/bugs/0,2 924,69355,00.html •Halvorson Todd; "Station Computer Crash Sends Outpost Adrift". •Walch Sarah; "Computer error causes faulty election results". http://www.thebatt.com/media/storage/paper657 /news/2002/10/08/FrontPage/Computer.Error.C auses.Faulty.Election.Results515508.shtml?norewrite200608071039&sourcedomain=www.thebatt.com •"Airlines´computer systems questioned". http://www.cnn.com/2004/TECH/12/28/airlines.c omputer.troubles.ap/index.html •"La computadora lo puede verificar". http://www.nasa.gov/centers/ames/spanish/rese arch/exploringtheuniverse/exploringtheuniversecomputercheck.html •"The Explosion of the Ariane 5". http://www.ima.umn.edu/~arnold/disasters/ariane.html •"The Patriot Missile Failure". http://www.ima.umn.edu/~arnold/disasters/patriot.html •"The Sinking of the Sleipner A offshore platform". http://www.space.com/missionlaunches/exp4_u pdate_020204.html
softweriando
Ing. Edgar Guadis Salazar edgar@segurmatica.cu Empresa Segurmática
E
stadísticas elaboradas por EarthLink, uno de los principales proveedores de acceso a Internet en Estados Unidos, que toman como referencia las computadoras revisadas en el período del 1 de enero al 31 de marzo del 2004, mostraron que como promedio existían casi 27,8 programas espías per cápita. Más recientemente, en diciembre del 2005, las empresas norteamericanas America OnLine (AOL) y National Cyber Security Alliance (NCSA), publicaron el resultado de una encuesta a 354 personas distribuidas en varios estados de la Unión, la cual fue combinada con la búsqueda de códigos malignos en un grupo de computadoras, previa aprobación de los encuestados. En lo referente al tema de los programas espías, una vez mostrado el reporte final de lo encontrado en cada ordenador, el 92 % de los usuarios afirmó que desconocía la presencia de estos códigos. El 91 % ignoraba su acción dañina y la manera en que habían ingresado a sus sistemas. De lo anterior se deduce que estos códigos se instalan sin el consentimiento del usuario o enmascarados en aplicaciones que además de brin-
dar facilidades interesantes para éste, solapadamente realizan acciones no deseadas e ignoradas, por lo que son acreedores de la clasificación de caballos de Troya. El nivel de incidencia tan alto demuestra también que "están en el ambiente", y en efecto, es así.
con la página del banco visitado (Fig. 1), en la que solicitan sean introducidos ciertos datos como: nombre de usuario y contraseñas. Como se puede apreciar, la causa de la petición es un presunto error en los datos necesarios para acceder a la cuenta en cuestión.
Fundamentalmente se instalan cuando un usuario accede a un sitio poco seguro en Internet, ejecuta un anexo recibido mediante servicios tan populares como el correo electrónico y la conversación en línea (chat), o descarga ficheros desde las redes P2P para el intercambio de archivos.
Sus objetivos principales - Robar números de tarjetas de crédito y otros datos de carácter personal afines con actividades financieras, para su ulterior empleo en acciones vandálicas. Bancus es una familia de códigos malignos desarrollados para robar datos de las cuentas de clientes de bancos brasileños. Una vez ejecutados quedan en memoria y monitorean todas las ventanas que sean abiertas con Internet Explorer. Cuando la página visitada corresponde a una de su interés, muestran otra ventana cuyo título concuerda
Fig. 1. Ventana mostrada por Bancus, para robar datos de autenticación [GiGA 3 / 2006]
41
softweriando Otro tanto persiguen los conocidos como Banker. En este caso no se muestra una nueva ventana, el ardid consiste en capturar todo lo tecleado una vez que el navegador de Internet accede a páginas web que realmente pertenecen a determinadas instituciones bancarias. Sin lugar a dudas, el autor del código maligno conoce de antemano que en ese sitio se muestra un formulario para solicitar los datos de acceso a una cuenta. La información capturada es almacenada en un archivo que luego es enviado a una dirección electrónica predeterminada. - Obtener información sobre las características más importantes de los sistemas comprometidos con el fin de controlarlos remotamente y crear redes de computadoras que respondan a las órdenes del atacante. Troyanos como el ProAgent.121 elaboran un informe sobre las características de los sistemas comprometidos que envían por medio del correo electrónico a una cuenta prefijada (Fig. 2).
mañas de las que se vale para engañar al usuario, cuando navega por Internet, e incitarlo a realizar su instalación en un ordenador, es mostrar ventanas que advierten de errores en el sistema, los cuales serán corregidos cuando se ejecute la aplicación a
Fig. 3. Ventana que da a entender que la solución a un supuesto problema de sincronismo del reloj del sistema, se resuelve mediante la descarga y ejecución de la aplicación.
Fig. 2. Contenido del mensaje enviado a una cuenta de correo predefinida (user80@seg.inf.cu), desde una computadora comprometida. Remitente: ProAgentV1.21.
- Conocer gustos, preferencias y hábitos de los usuarios al acceder a Internet. Estos datos son de gran utilidad para robar la iniciativa a la competencia, pues se puede crear un banco de información sobre consumidores potenciales. Entre los más sobresalientes se cuenta el Gator que generalmente se instala en la computadora formando parte de alguna aplicación de amplio uso como Kazaa. Una de las arti-
42
[GiGA 3 / 2006]
ductos pregonados por él para que con frecuencia muestre propaganda al respecto, independientemente de los temas contenidos en los sitios visitados luego por el usuario. Incluso, sustituye información publicitaria cuando se trata de la competencia, por ejem-
la que hacen referencia. El problema como tal es ficticio, pero la reacción inicial es creer en él, agradecer mentalmente tan alta gentileza y ciegamente descargar la aplicación. El resultado: convivir con un molesto intruso (Fig. 3). Gator registra los sitios de interés que visita un usuario cuando accede a la red de redes. Basta que detecte en alguna ocasión que éste contacta uno en los que se publican servicios o pro-
plo, el anuncio de unas zapatillas de una marca, puede ser reemplazado por el de otra marca. El resultado desde el punto de vista del usuario es la recepción de anuncios publicitarios en todo momento y un negocio redondo para los promotores, pues el costo es muy bajo. - Apoderarse de palabras claves empleadas para acceder a servicios disponibles en una red y su uso ulterior libre de pago. Entre las funciones que realizan los miembros de la familia Qucart se encuentra la captura de la información almacenada en la caché de contraseñas de Windows, de los datos ingresados en todas las ventanas abiertas y del contenido del portapapeles, es decir, casi no se le "escapa" nada de lo que se introduce y se utiliza en una sesión de trabajo. Más adelante envía el "botín" resultante de su fechoría a sitios prefijados en Internet. - Sustraer información almacenada o manejada en las computadoras, acción típica de cualquier forma de espionaje. Lithium es un código maligno que abre una puerta trasera para facilitar el control total, de manera remota, de un ordenador. Entre las acciones que puede realizar el atacante, desde
softweriando su PC, se encuentran: •Obtener características del sistema comprometido (Sistema Operativo, Memoria, CPU, BIOS, Nombre de la PC, Zona horaria, Directorio Windows, Directorio Sistema), además, los Registros (e incluso modificarlos), Procesos en memoria (también terminarlos) y Recursos compartidos en la red (Fig. 4).
Fig. 6. Captura del tráfico en la red donde se muestra a la PC comprometida (172.16.1.81) descargando un archivo desde Internet.
Fig. 4. Recursos compartidos en la red a la que se encuentra conectada la PC comprometida
•Robar todos los caracteres tecleados, el contenido de la pantalla, imágenes de la webcam y el sonido que se introduce por medio del micrófono. •Buscar, borrar, ejecutar, subir, descargar, mover y editar un fichero (Fig. 5).
Fig. 7. Fichero descargado desde Internet hacia el directorio raíz de la PC comprometida. El nombre es modificado concluida esta operación.
Conclusiones
Fig. 5. Contenido del directorio raíz de la unidad C: (PC comprometida), así como posibles acciones a realizar sobre un archivo
•Ordenar la descarga de un fichero colocado en un sitio de Internet, lo que permite la instalación en la PC comprometida de otros códigos malignos y versiones mejoradas del suyo (Fig. 6 y 7). •Abrir un Shell remoto. •Mostrar mensajes de diferentes tipos.
El hecho de que cada vez se detecten más programas malignos destinados a espiar y a crear redes de computadoras, tema que será tratado en próximos trabajos, obliga a tener presente este problema real y a la toma de medidas para combatirlos. Esta actividad ilegal indudablemente continuará y es posible se incremente, pues no sólo sus creadores y empleadores son los beneficiados. Dos ejemplos recientes lo demuestran: - La empresa Panda Antivirus detectó la existencia de una red (formada por una cifra superior a 2 700 computadoras comprometidas distribui-
das en más de 120 países) destinada al robo de datos y contraseñas para lo cual se utilizaba una variante del troyano BRIZ. - Expertos de Sophos descubrieron un sitio web donde se vendía un kit de programas espías, e incluso se les ofrecía soporte técnico a sus compradores. En el sitio www.segurmatica.cu de Segurmática podrá encontrar información sobre los programas malignos reportados al Laboratorio Antivirus, los cuales son identificados y descontaminados por los productos que en esta empresa se desarrollan, así como los cursos y servicios que brinda. [GiGA 3 / 2006]
43
softweriando
Lic. Carlos García González
M
ySQL es el más popular de los sistemas de gestión de base de datos de código abierto (Open Source). Se creó como una alternativa del mSQL, ya que éste no cumplía con las expectativas de velocidad y flexibilidad que sus creadores necesitaban. Se encuentra desde sus inicios escrito en C/C++, lo que lo ha hecho muy rápido y portable. Hoy es posible descargar versiones para las siguientes plataformas: •Windows •Sun Solaris •Free BSD •Mac OS X •Linux •HP-UX y otras plataformas Unix.
tabla está ocupada entonces el Server espera hasta que esté libre para realizar esta operación. •Insert Ignored, que permite insertar los registros en la tabla sólo si no entran en contradicción con la llave primaria o algún índice único. Esto agiliza muchas operaciones, pues de lo contrario antes de insertar se debe chequear que no exista ya un registro con esas llaves o índices, y con esta instrucción se realiza todo en un paso único. •Select …Limit, que posibilita obtener de una consulta sólo un subconjunto de ésta, por ejemplo:
combina con la instrucción select y se pueden filtrar los resultados de manera eficaz y se ahorra algunas líneas de código. •Create table ….. like ….., permite crear una nueva tabla a partir de la estructura de otra. También posee un arsenal de funciones útiles como son por ejemplo: •Match(…) Against (…), permite realizar búsquedas en tablas con
select * from libros limit 5 --- Sólo los 5 primeros select * from libros limit 10,7 --- Sólo los del 11-17
Características de MySQL Aparte de su velocidad y fácil manejo ha adicionado en cada versión características que lo han hecho ganar adeptos, y éstas son: •Insert delayed, la cual permite insertar registros en un buffer y continuar las operaciones en el cliente. Si la
44
[GiGA 3 / 2006]
Esta simple instrucción es muy útil en el caso en que se desee devolver resultados paginados para una búsqueda. •Operador REGEXP, para el trabajo con expresiones regulares, esto se
índices de textos, esto es muy útil si se piensa en la implementación de un buscador. •Encode(), Decode(), MD5(), Password(), SHA() y otras que posibilitan realizar el manejo de conteni-
softweriando dos encriptados, muy útil para el manejo del tema de seguridad como por ejemplo contraseñas de usuarios. Y muchos otros ejemplos entre los que se podría citar las funciones de manejo de bits y las de cadenas de caracteres. No obstante, todo lo mencionado, MySQL adolece de procedimientos almacenados, triggers y vistas, características que ofrecen casi todos los sistemas de bases de datos existentes en el mercado y que ayudan mucho en el proceso de desarrollo de una aplicación, y ello, no obstante todas las justificaciones que se dan, lo sitúa en desventaja frente al resto de sus competidores. Pero por ejemplo, MySQL para suplir eso ofrece algo similar a un "espacio de trabajo", ya que cuando se abre una conexión es posible la creación de variables (en la forma @nombrevariable para poder referenciarlas) y tablas temporales, así como todo el trabajo de actualización sumado a que se puede realizar sobre éstas, lo cual emula de alguna forma con el uso de procedimientos almacenados.
La nueva versión
de MySQL sobre Windows ha mejorado mucho con esta nueva versión, ya que se incluye un asistente para configurar el Server:
el conjunto de caracteres por defecto, nombre que se le dará a este servicio en la lista de servicios de Windows (si se selecciona instalar
Es posible ahora especificar los detalles del tipo de instalación en dependencia de los objetivos deseados. Determinar el tipo de bases de datos a utilizar, número de conexiones simultáneas, puerto del servicio,
como servicio), y algunas otras opciones. También se ofrece en el sitio Web de MySQL algunas herramientas (no sólo para Windows) como son:
Recientemente una nueva versión salió al mercado, la número 5, que ha incorporado una serie de características entre las que se pueden nombrar: •Procedimientos almacenados •Funciones (además de las existentes en versiones anteriores, las UDFs) •Triggers •Vistas (incluyendo las actualizables) •Tipo de datos BIT •Cursores •La longitud de los VARCHAR llega a 64 kb •Diccionario de datos para el acceso a metadatos. •Una nueva librería para aritmética que ofrece mayor precisión en operaciones matemáticas. Estas son las más importantes desde el punto de vista de programación, pero hay algunas más que aparecen detalladas en los manuales de usuario.
MySQL Administrador Permite realizar el trabajo de administración del servicio, de los usuarios, copias de seguridad y muchas opciones de manera muy sencilla.
Instalación y herramientas Hay que destacar que la instalación [GiGA 3 / 2006]
45
softweriando que esto da un nivel de abstracción e independencia al programador con respecto a operaciones a realizar con los datos, por ello es de obligada mención transmitir algunos tips importantes para todos aquellos que incursionen en esta versión. 1.Estructura de un procedimiento almacenado A diferencia de otros sistemas de bases de datos, MySQL exige una estructura específica cuando se crea un procedimiento almacenado. Esta estructura es la siguiente: MySQL Query browser Ofrece una interfaz gráfica para realizar consultas y editar procedimientos almacenados.
create procedure nombre_procedimiento (lista de parámetros) begin ---- Declaración de variables ….. ---- Declaración de cursores ….. ---- Declaración de condiciones y handlers ….. ---- Código del procedimiento end
El orden siempre debe ser el indicado anteriormente, pueden omitirse secciones, pero las restantes deben conservar el orden.
MySQL Migration Toolkit Ofrece un asistente para emigrar desde otro sistema de base de datos a MySQL.
El resto de las herramientas de línea de comandos permanece como en versiones anteriores. Desde el punto de vista de cliente es posible utilizar otras herramientas, como es el caso del MySQL Front, el phpMyAdmin y el famoso EMS MySQL Manager, el cual sin lugar a dudas ocupa el puesto de honor en cuanto a posibilida-
46
[GiGA 3 / 2006]
des para manipular bases de datos en MySQL.
Tips para el trabajo con procedimientos almacenados Tal vez, de las características nuevas que se han introducido en esta versión de MySQL, la más importante desde el punto de vista de un programador sea la inclusión de procedimientos almacenados, ya
2.Nombres de las variables Hay que poner especial atención a los nombres de las variables, ya que si por alguna casualidad coinciden con el nombre de un campo del campo de una tabla que se referencie en determinado momento, entonces existirá una ambigüedad y siempre el Server pensará que se refiere al campo, por lo que el valor no se almacenará en la variable y como este código asume que así será, entonces podrán producirse resultados no esperados, y buscar la razón de éstos no será tarea fácil. Se ilustra lo anterior con el siguiente ejemplo:
softweriando create table `test` ( `id` int(10) unsigned not null, primary key (`id`) ) engine=myisam default charset=utf8 ;
tado es 55, con lo que queda claro el cuidado que se debe tener con los nombres de las variables.
3.Manejo insert into test(id) values(55) ; de condiciones MySQL introduce los Se ha creado una tabla con nombre llamados handlers (manejadotest que sólo contendrá un registro res), que son acciones a realizar con el valor del campo id igual a 55. de acuerdo con determinadas condiciones. Estas son códigos Ahora vamos a crear un procedi- que devuelve MySQL según algumiento que devuelva ese valor: nos eventos, como por ejemplo que ocurra cierto error o cuando se itera por un cursor, indicar que se llegó al create procedure `testsp`() final. Véase un ejemplo que not deterministic ilustra el ciclo de vida de un sql security definer cursor: comment '' begin declare id int ; set id = 11 ; select id into id from test ; select id as 'resultado' ; end;
Esto funciona a nivel de tablas temporales también y es posible crearlas y devolverlas.
Conclusiones Con esta nueva versión, MySQL, brinda a los programadores un conjunto de herramientas que les permite agilizar el desarrollo de aplicaciones. Su instalación es más personalizable y las herramientas para su manejo han evolucionado considerablemente. Sin lugar a dudas, MySQL es una buena opción para todos aquellos que necesiten un motor de
declare eof int default 0 ; declare vid int ; declare testCursor cursor for select id from test; declare continue handler for not found set eof = 1; --- Declaración del handler
¿Cuál es el resultado esperado de este procedimiento?
open testCursor ; fetch testCursor into vid ;
De acuerdo con la sintaxis, el resultado sería 55, pero la realidad es que éste es 11.
while not eof do
Ahora veamos otro ejemplo:
---- operaciones a realizar end while ; close testCursor ;
create procedure `testsp2`() not deterministic sql security definer comment '' begin declare vid int ; set vid = 11 ; select id into vid from test ; select vid as 'resultado' ; end;
El código de este procedimiento es el mismo que el del anterior, excepto que se cambió el nombre a la variable. Si se ejecuta, se verá que ahora el resul-
set eof = 0 ; ---- Muy importante si se quiere utilizar el mismo handler para otro cursor
4.Devolver tablas. Con los procedimientos almacenados es posible devolver resultados que se obtengan de la construcción de alguna consulta, por ejemplo:
datos que sea rápido y confiable, sobre todo en la creación de sitios web con acceso a bases de datos y para ello está fundamentalmente dirigido.
create procedure `testsp3`() not deterministic sql security definer comment '' begin select * from test ; end;
[GiGA 3 / 2006]
47
enredados Ing. Yhosvanni Goenaga Fernández yhosva@copextel.com.cu Tecnostar, Copextel Ing. Adrián Hernández Gámez adrianhe@tesla.cujae.edu.cu MINFAR
U
n agente de transferencia de correo (MTA) transmite mensajes de correo electrónico entre hosts con el uso de un protocolo de transferencia (ESMTP, SMTP, X.400, UUCP). Un mensaje puede envolver a muchos MTA a medida que éste se mueve hasta llegar a su destino. En el mercado existen numerosas aplicaciones que cumplen con los requisitos MTA, unas propietarias, otras de libre distribución (código libre) que corren sobre diferentes plataformas de sistemas operativos y todas con sus características particulares. Este trabajo tiene como objetivo describir y caracterizar los MTA para Linux, así como hacer una comparación entre tres populares agentes de transferencia de correos: Sendmail, Postfix y Exim, y su contenido se basa más bien en conclusiones extraídas después de escudriñar en los foros de discusión, donde se han encontrado diversas opiniones basadas en experiencias personales, sitios web y artículos que tratan el tema de los MTA en entornos Linux/Unix, fundamentalmente.
Características de los MTA La arquitectura de diseño de algunos MTA se basa en una estructura monolítica y otros utilizan un diseño de otra índole. La diferencia radica en que en los llamados monolíticos todo el procesamiento depende de un solo programa o aplicación y los que no lo son, generalmente poseen un diseño del tipo modular, esto es que cada una de las funciones la lleva a cabo un programa separado. Como resultado, los programas son mucho más pequeños, más sencillos, y con menor ten-
48
[GiGA 3 / 2006]
dencia a contener fallos funcionales o de seguridad. Al igual que todos los servicios que se activan en sistemas Unix/Linux, para configurar un MTA, generalmente se usan diversos ficheros del tipo *.cfg, de los cuales depende un funcionamiento adecuado o no del agente de transferencia que se trate. En el rendimiento de un MTA, existen numerosos factores que influyen, entre los que se encuentran: manejo de conexiones SMTP, entrega rápida de mensajes, uso de filtros y antivirus de correo, entre otros. Un punto crucial de los MTA es la seguridad y para esto se han desarrollado técnicas que tratan de garantizar ese aspecto, como son las herramientas antispam, filtros de mensajes, productos antivirus, soluciones que integran estos componentes, mecanismos de encriptación y autentificación, listas de acceso, etc. De las consideraciones previas se puede afirmar que cualquier MTA lleva involucrado aspectos comunes como: • Arquitectura, diseño y configuración • Rendimiento • Seguridad: Antivirus, Filtros, Autentificación, Vulnerabilidades • Otros A continuación se describe y compara a Sendmail, Postfix y Exim basado en los aspectos anteriores. Sendmail Legendario servidor de código abierto, sus inicios (1982) pueden ser trazados desde el nacimiento del correo electrónico que ocurrió en la década antes del nacimiento de Arpanet, red
precursora de Internet. Históricamente fue el MTA más utilizado a nivel mundial, aunque hoy es desplazado por otros de más reciente aparición. En el contexto actual, en la mayoría de las distribuciones, Sendmail ya no viene como agente por defecto como hace algún tiempo, aunque existe la posibilidad de usarlo si se desea. Es un software de código abierto y existe tanto una variante gratis, así como productos comerciales, ambas desarrolladas por el Consorcio Sendmail y el Sendmail Inc. • Arquitectura, diseño y configuración Diseño totalmente monolítico en todas sus versiones corrientes, con la excepción del nuevo Sendmail X lanzado el 2 de noviembre del 2005. Es un MTA con una extrema capacidad de configuración mediante reglas y un lenguaje especial de macros (M4), aunque hay que destacar que dicha configuración no es nada trivial. Permite configurar aspectos que normalmente yacen ocultos en el código compilado de otros programas similares. En el fichero de configuración de este MTA (sendmail.cf) se encuentra toda la información relativa al sistema que Sendmail utilizará cada vez que sea ejecutado. La revisión y modificación de este fichero es bastante complicada y necesita una serie de conocimientos previos. El fichero no puede ser compilado con el ejecutable, ya que debe permitir la portabilidad de la configuración entre sistemas. En tiempos en que Sendmail era el "rey" de los MTA su compilación era el tratamiento usual por los administra-
enredados dores, ahora hay que destacar que esta tarea es bastante compleja, engorrosa y se necesita un tiempo considerable para dedicarse a esa ardua labor, por tanto, hoy la mayoría de los especialistas prefieren emplear paquetes binarios que son más sencillos de instalar y configurar. • Rendimiento Algunos administradores opinan que presenta dificultades en manejar una mediana cantidad de conexiones smtp (algo así como, 50 conexiones por segundo), téngase en cuenta que recibir 50 mensajes por segundo es más o menos tener un tráfico de 30 mil mensajes por día. Especialistas plantean que su rendimiento es aceptable, pero no espectacular, aunque otras fuentes indican que las versiones más recientes de Sendmail como 8.13.x y Sendmail X, han aportado una mejoría muy considerable en el rendimiento. • Seguridad Con el tiempo a Sendmail se le ha dado el calificativo de ser un MTA "inseguro" y con una larga lista de vulnerabilidades (bugs) explotables por hackers. Según algunos, la más crítica radicaba en el hecho de que toda la complejidad del sistema de correo recaía en un solo programa que necesariamente debe ejecutarse con privilegios de administrador (root) y que podía ocasionar que un usuario local lograse conseguir privilegios de superusuario. Sendmail, Inc. y el Consorcio Sendmail a partir de la versión 8.11.6 (2002) solucionó el problema de la instalación de este MTA que permitió que el usuario no tenga que ser necesariamente root, lo cual evita que programas (Exploits) aprovechen determinadas vulnerabilidades para de esa forma obtener privilegios de superusuario y publicó el parche necesario para resolver este problema en las versiones previas. En las actuales como la 8.13.5 y el Sendmail X se han resuelto muchas vulnerabilidades que tenían versiones anteriores, siempre teniendo en cuenta que en cada momento aparecen nuevas. Las recientes versiones de Sendmail usan cifrado de la conexión mediante TLS (se basa en el uso de certificados digitales X.509) y permiten hacer uso de encriptación SSL (Secure Socket Layer). También utiliza SASL (Simple Authentication and Security Layer),
capa software que permite añadir soporte de autentificación en protocolos orientados a conexión, como es el caso de SMTP, método pop-beforesmtp que consiste en que los clientes, antes de poder enviar mensajes por el servidor, deben recoger primero el mismo mediante POP3 o IMAP. Soportan SMTP AUTH donde el cliente se identifica mediante un Usuario y una Clave ante el servidor SMTP, y si ésta se realiza correctamente se autoriza el uso del servidor, por ejemplo, permitir hacer Relay. La autorización se hace a la persona y no al sistema informático que en ese momento le proporciona soporte. AntiSpam: Para Sendmail es relativamente fácil bloquear las nuevas técnicas de publicidad no deseadas empleadas para enviar correo basura, bloquea incluso muchos de los métodos más comunes de spam por defecto. No obstante, existen productos de terceros que se integran con Sendmail como: SpamAssassin de Apache (escrito en Perl), Kaspersky Anti-Spam, Trend Micro Spam, etc. Filtros: Mediante el uso de las bibliotecas Milter (Sendmail's Content Filter API) confeccionadas en lenguaje C/PERL, es posible que un programa desarrollado por terceros tenga acceso al mensaje que está siendo procesado por el Sendmail. Antivirus: Soporta el motor de Kaspersky Antivirus, BitDefender, AVIRA for Sendmail-Milter, Clamav (producto libre) y NOD 32, entre otros.
Postfix En 1998 comenzó a difundirse su uso bajo la denominación de VMailer e IBM Secure Mailer y posteriormente pasaría a llamarse Postfix. Fue escrito por Wietse Z. Venema, y desarrollado bajo la licencia pública de software de IBM, y aún es desarrollado activamente por especialistas de esta compañía. Postfix corre sobre sistemas Unix (AIX, BSD, HP-UX, IRIX, Solaris LINUX, MacOS X, Tru64 UNIX) y distribuciones GNU/Linux (Suse, RedHat, Debian, Mandrake). Se puede afirmar que es la alternativa sencilla ante el Hiper-Mega-Servidor Sendmail. Es un MTA libre y completamente gratuito. • Arquitectura, diseño y configuración A diferencia de Sendmail, que posee un diseño monolítico, en Postfix se han disgregado diversos procesa-
mientos que se realizan sobre un mensaje a su paso por el MTA, adjudicando cada tratamiento o grupo de procesos independientes, en otras palabras, se puede afirmar que presenta una arquitectura modular. Los procesos que conforman Postfix se comunican por sockets que se crean por razones de seguridad, en un directorio de acceso restringido. La información que intercambian los diversos procesos es la mínima posible, que se limita en la mayoría de los casos a la referencia de la entrada en una cola y la relación de destinatarios, o a un simple identificador de estado. Algunas características requieren bibliotecas de terceros como LDAP, SQL, TLS (Transport Layer Security), otras están disponibles sólo cuando el Sistema Operativo lo soporta, por ejemplo: IP V6, posibilidad de caché, etc. El fichero principal de configuración que utiliza Postfix se llama main.cf y habitualmente se encuentra en /etc/postfix/. En su diseño han primado factores como la seguridad, eficiencia y la facilidad de configuración y administración, junto con la compatibilidad con Sendmail y con otros sistemas de correo. • Rendimiento El rendimiento de Postfix es realmente muy bueno, por ejemplo, según opiniones de administradores, cuando se produce algún atasco de mensajes, tras resolverse éste salen a una velocidad mucho mayor de la que se observa en Sendmail. Utiliza técnicas desarrolladas para los modernos servidores web y, según la documentación, una PC puede recibir y entregar un millón de mensajes distintos al día. Se incrementa el rendimiento con el uso de filtros, antivirus de correo y demás técnicas. Seguridad Es lógico deducir (de hecho es así) que Postfix al ser un MTA popular y reciente, al igual que las nuevas versiones de Sendmail, utiliza cifrado de la conexión mediante TLS, permite hacer uso de encriptación SSL (Secure Socket Layer) y que también utiliza el método pop-before-smtp, SASL y SMTP AUTH. AntiSpam: Uso de SpamAssassin de [GiGA 3 / 2006]
49
enredados Apache, Kaspersky Anti-Spam, entre otros. Filtros: Filtra mensajes en base a las cabeceras de éstos y a patrones definidos mediante expresiones regulares. Uso de las ACL o listas de control de acceso (formando listas negras) son las direcciones de e-mail que NO pueden enviar correo al servidor, si llega un mensaje con alguna de éstas, se rechazaría. Permite integración con filtros de terceros, como es el caso del Amavisd. Antivirus: Kaspersky Antivirus, Clamav, RAV Antivirus, Mcafee, etc.
Exim MTA desarrollado en la Universidad de Cambridge para su uso en sistemas Unix. La primera versión fue escrita en 1995 por Philip Hazel en dicha Universidad. La versión más actualizada es la 4.60. Exim corre sobre todos los sistemas Unix y distribuciones GNU/Linux (Suse, RedHat, Debian, Mandrake) y es el MTA que viene por defecto en los sistemas Debian. Se encuentra a disposición de forma gratis bajo los términos de licencia pública general de GNU. • Arquitectura, diseño y configuración Puede usar un único fichero monolítico (Debian) en /etc/exim4.conf.template/ o bien varios ficheros pequeños en /etc/exim4/conf.d/ para generar la configuración final. Se instala con el clásico comando aptget install exim. Exim presenta un control descentralizado, de modo que no existe un proceso central realizando toda la gestión de entrega y recepción de mensajes.
retardadas. Los mensajes SMTP entrantes comienzan a despacharse tan pronto como hayan sido recibidos, sin esperar el cierre de la llamada SMTP. Exim puede ser configurado para realizar entregas locales de forma inmediata, dejando las entregas remotas (SMTP) hasta que el mensaje es recogido por un proceso que gestiona las colas y esto incrementa la posibilidad de que múltiples mensajes estén siendo enviados bajo una simple conexión SMTP. • Seguridad Exim puede configurarse siempre para usarse como root, excepto cuando realice entregas locales, que siempre se hacen en procesos independientes bajo un apropiado identificador de usuario y de grupo. Alternativamente, puede ser configurado como root sólo cuando sea necesario. En particular, no necesita correr con privilegios de administrador cuando se reciben o envían correos sobre SMTP. En este MTA, los hosts a los cuales se les ha permitido hacer Relay desde una PC hacia otro dominio externo pueden ser controlados por dirección IP de host y de red. El control de Relay por dominio y por dirección origen siempre está activado por defecto. Al igual que Postfix, Exim utiliza cifra-
SMTP AUTH, STARTTLS para la autentificación de clientes y establecer conexiones encriptadas respectivamente. Utiliza el mecanismo de autentificación del tipo CRAM-MD5 que es descrito en la RFC 2195. AntiSpam: Puede utilizar control antispam para ambientes corporativos integrando productos como: Spamassassin, Kaspersky Anti-Spam y Mail Scanner, entre otros. Filtros: Es muy flexible y permite incluir filtros personalizados en los mensajes. Rechaza el correo directamente en el servidor durante su recepción, entonces el spammer puede recibir un código de error y sabe que esta dirección no funciona. También soporta lista de bloqueo (listas negras) en tiempo real. Antivirus: Puede utilizar Clamav, Amavis (libre), Kaspersky Anti-Virus, etc. AVIRA MailGate ofrece una protección fiable para el tráfico de correo (desde y hacia Internet, pero también el tráfico interno) contra los programas maliciosos, analizando las conexiones SMTP entrantes y salientes, directamente en el servidor de correo. Según una revista especializada en redes y programación se muestra la siguiente tabla comparativa (2004) entre los tres MTA que se han descrito sobre Unix/ Linux. ( Ver tabla 1)
No es necesario tener privilegios de administrador (root), a no ser que sea necesario, para realizar cualquier tarea, ya sea recepción y entrega externa sobre SMTP. • Rendimiento Presenta una velocidad de procesamiento muy buena, comparable con Postfix y Qmail. Las entregas remotas del mismo mensaje hacia diferentes hosts pueden opcionalmente hacerse de modo paralelo. Exim puede llevar a cabo múltiples entregas bajo el mismo canal SMTP después de que éstas hayan sido
50
[GiGA 3 / 2006]
Tabla 1
do de conexión mediante TLS, con el uso de certificados digitales y permite emplear encriptación SSL que se implementa con la utilización de la biblioteca OpenSSL. Exim soporta extensiones del tipo
Como se observa en la tabla anterior, los tres MTA poseen características similares según los aspectos a comparar. Es interesante destacar que esta fuente plantea que Postfix no posee encriptación SSL, lo cual difiere de la
enredados opinión de la mayoría de los especialistas. A continuación se muestra una estadística de los MTA tratados en este trabajo en el año 2004, según los votos de usuarios suscriptos al sitio LinuxQuestions.org, comunidad activa de Linux.( Ver tabla 2)
sistemas de código abierto, además de que existe abundante información y documentación que se comparte en la gran comunidad mundial de código abierto. La Corporación Copextel, S.A. utiliza en sus servidores de correo el Sistema Postfix como MTA, corriendo sobre
ración, rendimiento y seguridad, recomendamos al lector apostar por Postfix como solución excelente para escenarios diversos, por ejemplo para el caso de países en vías de desarrollo como es el caso de Cuba, sólo hay que destacar que se debe preparar a los administradores con suficientes conocimientos previos para la configura-
Tabla 2
Como se puede apreciar, en el 2004 Postfix es el favorito, seguido por Sendmail y Exim. Según los sitios visitados, criterios de especialistas listas de distribución, el estado del arte de la utilización de estos MTA en el mundo y nuestra opinión, se puede afirmar que el MTA ideal para entornos corporativos y de Campus es Postfix, entre otras características, por su facilidad de configuración, diseño modular y que la mayoría de las distribuciones de Unix/Linux actuales ofrecen como opción por defecto la instalación de este MTA. Quizás para una pequeña red, con poca o mediana cantidad de mensajería se podría recomendar la utilización de Exim, y obtenerse excelentes prestaciones para este tipo de escenario, pues MTA no deja de ser un buen candidato para el manejo del correo electrónico. No se debe descartar el histórico Sendmail, pero su utilización en el ámbito actual queda desplazada por Postfix, por lo que se aconseja que las instituciones que tengan versiones viejas de Sendmail migren a Postfix y si es el caso de que sus recursos humanos ya están familiarizados con Sendmail, pues se actualicen instalando una nueva versión de este MTA. Las herramientas gratis y de código abierto, cada vez tienden a ser la solución más económica y eficiente para las organizaciones que no cuentan con el presupuesto para comprar productos comerciales, que no dejan de ser excelentes, pero sí con el capital humano para la implementación de
Linux Redhat 9.0. Mediante éstos se realiza el procesamiento y transferencia de toda la mensajería que se mueve hacia y desde el dominio *.copextel.com.cu. Como dato curioso existe un sobreviviente Sendmail, pero sus días están contados, pues ya se piensa en una inmediata migración hacia Postfix.
Conclusiones En este artículo se ha expuesto de forma sucinta los MTA más populares, aunque existen otros que también resultan buenos. Este trabajo pretende apostar por el uso de agentes de transferencia de código abierto y gratis, teniendo en cuenta todos los elementos expuestos. Existen productos comerciales excelentes, pero con el inconveniente de que hay que pagar por ellos, además de que son herramientas con códigos cerrados, el soporte técnico corre a cargo del proveedor y la documentación no resulta de fácil alcance para los especialistas. Recomendamos la implantación de un MTA gratis y de código abierto y no el uso de herramientas comerciales si no está bien justificada su aplicación, por ejemplo, una Corporación que cuente con grandes sumas de dinero para el desarrollo de la infraestructura Telemática y de sus recursos humanos. En Internet existen opiniones diversas sobre cuál MTA escoger y se observa que como mismo se halaga a uno se critica a otro. Teniendo en cuenta los elementos previamente descritos como arquitectura, diseño y configu-
ción óptima y puesta en alta de dichos sistemas.
Glosario de términos y acrónimos MUA: Del inglés: "Mail User Agent". Programa que ejecuta el usuario para conectarse a un MTA y transferir los mensajes. Se conecta a servidores de mensajería para recepcionar los mensajes enviados al usuario. MTA: Del inglés: "Mail Transfer Agent". Programa encargado de transferir el correo electrónico por Internet. MDA: Del inglés: "Mail Delivery Agent" SMTP: Del inglés: "Simple Mail Transfer Protocol". Protocolo estándar para transferir correo hacia y entre MTA. ESMTP: Del inglés: "Extended SMTP". SMTP extendido. Mail Relay: Acción de permitir el paso o tránsito de la mensajería de un Servidor de correo a otro. X.400: Protocolo que define la forma de los mensajes de correo electrónico. POP3: Del inglés: "Post Office Protocol version 3". Protocolo usado para que los MUA recepcionen mensajes pendientes. IMAP: Del inglés: "Internet Message Access Protocol". UUCP: Del inglés: "Unix-to-Unix Copy Protocol". SMTP AUTH: Autentificación sobre el protocolo SMTP. STARTTLS: Opción que brindan los servidores para lar prestaciones TLS. Spam: Mensajería electrónica no deseada, llamada correo "basura". X.509: Estándar de certificados para firmar documentos y garantizar la seguridad y fiabilidad en las comunicaciones. GNU: GNU's not UNIX (General Public Licence). LDAP: Del inglés: "Light Directory Access Protocol". ACL: Del inglés: "Access Control List". Listas de control de acceso. Contienen reglas para permitir o denegar el acceso a computadoras, servidores, subredes, etc. CRAM-MD5: Algoritmo de encriptación de la información. SQL: Del inglés: "Structured Query Language". IP V6: Del inglés: "Internet Protocol Version 6". Versión más actual del protocolo utilizado en Internet.
[GiGA 3 / 2006]
51
enredados
Lo que se expresa en los chats Dirigida a los que usan y abusan del chateo por la Red
L
os chats son un laboratorio social de bulliciosa actividad, y ésta tiene como única materia prima el código ASCII, o sea, los 128 ó 256 símbolos gráficos representables mediante un teclado de PC. Prácticamente nada si lo comparamos con el tono de voz, la cadencia, musicalidad, los gestos, la mirada... presentes en toda conversación. Pero lo bastante como para hechizar a miles de usuarios. Unos usuarios son conscientes de la ausencia de todas esas características presentes en la conversación oral, y por ello se lanzan a la ardua tarea de poder representar sus emociones y estados de ánimo gracias a la estrechez de los códigos ASCII. Pero no se pueden eludir las características del medio, y éstas condicionan la manera de 'hablar' de los usuarios. Predominan las estructuras gramaticales sencillas. Como hay que teclear muy rápido, las intervenciones son cortas y no se suele cuidar la ortografía (ojo con esto). Muchos usuarios afirman que intentan acercarse al máximo a lo que para ellos es una conversación cotidiana, lo que hace que se trate de un registro escrito espontáneo, próximo, desprovisto de convenciones o reglas gramaticales. Las frases están poco elaboradas, la propiedad reflexiva del texto escrito se diluye porque es imposible revisar cada frase, y además, opiniones o exposiciones se ven cortadas por las intervenciones de otros participantes. Al exponer un contenido en lengua escrita estamos acostumbrados a poder revisar la construcción formal e ir disponiendo los componentes del argumento de forma consecutiva, progresiva y lineal. Pero en los chats se improvisa más, el contenido se distribuye fragmentado. En un chat no es conveniente redactar frases o conversaciones muy largas, porque, tal y como ocurre cuando se habla por teléfono, se pierde el interés del público. Además, el factor scroll de la pantalla también influye en que las construcciones gramaticales de más de dos líneas no sean leídas. En realidad, el discurso en un chat es
52
[GiGA 3 / 2006]
una obra colectiva y vital, ya que en su creación intervienen varias personas. ¡Incluso hay que contar con aquellas que sólo leen, bien porque están en otra conversación, o porque no quieren participar activamente en la que está en marcha! Pero tampoco podemos considerar que en los chats se dé simplemente la transcripción de una conversación oral. Si lo comparamos con el registro escrito convencional parece irreflexivo y desordenado, pero si lo comparamos con el registro oral, parecerá todo lo contrario. Todo lo que se dice en un chat está mucho más pensado que lo que se dice en una conversación. Y además, como siempre se habla más rápido que se teclea, las intervenciones suelen ser más sintéticas e ir más al grano. Son los elementos extralingüísticos (gestos, entonación, miradas, el ruido ambiental, acento, la voz) que faltan en un chat, factores determinantes para comprender e interpretar su funcionamiento.
Jugar con las palabras Dentro de las palabras existentes en el diccionario y posibles de confeccionar con el alfabeto corriente, los usuarios de IRC tienen un margen de acción muy amplio. a) Aparecen todas las distorsiones más o menos involuntarias debido a la falta de atención y corrección en el tecleo, que provoca la conversación escrita instantánea. b) Hay distorsiones voluntarias para dar énfasis, tono, cadencias, volumen, etc. Para ello los usuarios recurren a alargar las vocales, usar mayúsculas, repetir sus intervenciones, utilizar varios símbolos de exclamación. También se emplean mucho las onomatopeyas. c) En tercer lugar están las incorrecciones deliberadas. Los usuarios, además de los errores involuntarios y distorsiones voluntarias, cometen muchas faltas deliberada y exageradamente, con el fin de individualizar su forma de expresión. Ello suele imprimirle un contenido de humor al mensaje.
d) Juegan con los símbolos. Todos conocemos los "emoticones" o "smilies", con un papel fundamental en los chats. e) Juegan con el medio: el sistema IRC destaca especialmente en el gran margen de interacción que permite con el medio. Se pueden confeccionar mensajes de entrada, salida, o comentarios para acciones que lleva a cabo un usuario, lo que enriquece el nivel de comunicación del chat. Existe una multitud de comandos y opciones con las que gestionar el comportamiento y las posibilidades del usuario en su entorno de charla IRC. Y, a nivel comunicativo y lingüístico, está el comando "/me", al que podemos llamar tercera persona narrativa (TPN). Mediante los TPN se elaboran mensajes del tipo "usuario se está durmiendo" o "usuario se parte de risa". El resultado de la sencilla utilización de este comando proporciona al chat una dimensión diferente y dramática. Sirve para llamar la atención, subrayar de modo especial un contenido y para jugar el papel de voz en off descriptiva de lo que los participantes están haciendo (y no sólo diciendo). Permite imaginar los chats como algo con gran fuerza teatral, enriquecen la creación dramática de los personajes/usuario y proporciona una elaboración narrativa que mezcla lo espontáneo y lo próximo con un lenguaje en tercera persona convencionalmente distante. Y finalmente, si quieres entrar en la polémica, y ver qué está ocurriendo con los códigos lingüísticos habituales en los chats, lo más efectivo es, ¿cómo no?, conectarse. Se dice que una imagen vale más que mil palabras. Sin embargo, en muchísimos canales de chat, mil palabras se teclean en tres o cuatro minutos. Estas son curiosidades que ocurren mientras se chatea, la reflexión es para quien escribe porque no todo el que nos lee, interpreta igual. Cuidemos, entonces, con gran esmero, nuestra forma de decir.
(Adaptado para GiGA por Norma Márquez a propósito de un estudio publicado en Internet)
enredados
Lic. Jovanna González Pérez. jovanna@radiocuba.cu Grupo de Comunicación Radiocuba
C
uentan que el 23 de enero de 1900, un llamado por radio al Yermak salvó la vida a los hombres que pescaban cerca de la isla Hegland, en el Báltico; 12 años después el Titanic se hundía llevándose al fondo del mar 1503 personas y otro certero llamado salva a 710 sobrevivientes. Así se impuso la utilidad de la comunicación radial…
99, construida por el cubano Luis Casas Romero, transmite la primera noticia: el pronóstico del tiempo que auguraba para los habaneros Buen tiempo y… temperaturas frescas. Acontecía la primera transmisión de radio en Cuba y el año 0 en la historia de las radiocomunicaciones en el país, aunque oficialmente se instituyó dos meses después.
Las primeras manifestaciones de comunicación de la especie humana tienen su génesis en los gestos, la voz, las señales de humo, los dibujos pictóricos y la escritura. Siguieron las artes, como la música y el teatro, conjuntamente con la formación y desarrollo de la especie y sus culturas. Así los primeros sistemas telegráficos y telefónicos utilizaban cable para lograr la transmisión de mensajes. Con los avances en el estudio de la electricidad, Hertz descubre las ondas electromagnéticas. A finales de siglo, Marconi asombra con la primera comunicación por radio entre países. Pero no fue hasta el siglo XX, con la innovación de los tubos al vacío y el surgimiento de la electrónica, que se inventa el primer sistema para transmisión de voz, cuya primera emisión data de 1906 en Estados Unidos.
Cuando la década del 50 sorprende al mundo con las transmisiones de televisión en Estados Unidos, Inglaterra y Francia, Cuba tuvo el privilegio de ser pionera en América Latina. Ostenta páginas gloriosas antes y después del triunfo revolucionario, como aquel majestuoso día de febrero en que el ingenio de un guerrillero, daba a conocer mediante un parte de guerra, la madurez de un ejército, y después junto al pueblo victorioso de los primeros años propaga la verdad de Cuba.
Dieciséis años después, una emisora experimental ubicada en Animas
54
[GiGA 3 / 2006]
A más de medio siglo de sus orígenes, la empresa Radiocuba, garante del transporte y difusión de las señales de radio y televisión en Cuba y para el mundo, exhibe considerables avances en esta materia. Y como sus antecedentes, desde su constitución en entidad corporativa del Ministerio de la Informática y las Comunicaciones (MIC) en 1995,
ha transitado por momentos ascendentes, acorde con el desarrollo de las nuevas tecnologías y las exigencias sociales. Ha estado presente en todas las batallas de la revolución. No obstante lo costoso de las inversiones y las dificultades económicas del país más bloqueado del mundo, Radiocuba emprendió un proceso de modernización y ampliación de su red de transmisión por todo el país, en el que se encontraba cuando junto a otras empresas del MIC, se inserta en el montaje, prueba y puesta en marcha de los nuevos canales vinculados a la Batalla de Ideas, estrategia de educación, cultura y bienestar para convertir a Cuba en el país más culto del mundo. En la actualidad centra su interés en la culminación de las inversiones en proceso, asociadas al crecimiento y mejora continua de los servicios a la población. Entre éstos se destaca el proyecto de las 100 estaciones comunitarias de radio y 100 de televisión diseminadas por todo el país, de las cuales 130 transmisores ya están instalados. Este proyecto parte de la estrategia nacional para la desconcentración de los medios de comunicación, su explotación comprende la difusión de programas locales de radio o
enredados
televisión, relativos a la vida y costumbre de cada territorio y como herramienta efectiva de los gobiernos locales para brindar información a la población. El otro destino de estos equipos será mantener informados a los habitantes de aquellas localidades cuyos canales de comunicación sean interrumpidos durante la ocurrencia de situaciones excepcionales, pues ofrecen la posibilidad de establecer conexiones con los canales nacionales que se transmiten vía satélite, además, si éstas no se pudiesen establecer, las estaciones también viabilizan la transmisión de programación informativa diferida, mediante el uso de casetes de vídeo o discos compactos de idéntico formato. El proyecto de mayor impacto social que hoy acomete Radiocuba es la instalación de receptores satelitales en sitios de interés social o uso colectivo en zonas de silencio del archipiélago cubano. Al implementarse la plataforma satelital quedó garantizada la cobertura del ciento por ciento del
territorio nacional y se posibilitó que los colaboradores cubanos en América Latina y el Caribe, pudieran recibir en esos países las señales de los canales de radio y televisión cubanos. Tras la implantación de la plataforma se da rienda suelta a la Operación Caimán, proyecto del MIC, que Radiocuba emprende junto a Copextel en el presente año. Bajo su égida se han instalado receptores satelitales en municipios de las diez provincias más complejas topográficamente y de mayores afectaciones climatológicas, o sea, las llamadas zonas de silencio: 271 en total, 121 803 habitantes que se benefician con la instalación de dichos receptores en estos sitios, seleccionados previamente entre el Consejo de Estado, el Ministerio de Educación y los gobiernos territoriales. Hasta hoy se han emplazado más de 1 200 de estos equipos en instituciones sociales: consultorios médicos, escuelas, salas de vídeo y círculos sociales. Lugares adonde la población
accede a esos servicios de manera colectiva, algo imposible años atrás por las dificultades de recepción de la señal en estas regiones. Una experiencia singular en este proyecto lo constituyen las 135 viviendas de Cabo Cruz, comunidad de la costa Sur en la provincia de Granma, éstas poseen un receptor satelital que garantiza el acceso a 5 canales televisivos y a las emisoras nacionales de radio. De igual modo disfrutan estos servicios 84 familias de Gavilanes en Sancti Spíritus y 120 de Santa Catalina en Guantánamo, beneficiadas con la instalación de estos equipos en cada vivienda. Este interactuar con la gente de pueblo y el servir desinteresadamente a los otros ensancha los corazones y enaltece la intención de la tarea, noble desde su concepción misma, con la aspiración mayor de sostenerla en la cotidianidad y el decursar del tiempo, ese que una vez vaticinó la primerísima y cubana noticia radial transmitida contra todas tempestades……Buen tiempo… y temperaturas frescas. [GiGA 3 / 2006]
55
enredados
Ing. Víctor Román Sanz Fajardo victorsanz@etecsa.cu ETECSA Ing. Osmany Vera Carballés vera@pcmax.copextel.com.cu PcMax, Copextel
L
a multiplexación por división de frecuencias ortogonales (OFDM) es un caso especial de las transmisiones con portadoras múltiples, en las que un flujo de datos se transmite sobre un número de subportadoras a baja velocidad. En julio de 1998, un grupo de Normalización de la IEEE decidió seleccionar OFDM como un nuevo estándar para la banda de 5 GHz en comunicaciones inalámbricas, destinada a trasmitir flujos de datos desde 6 hasta 54 Mbps. Este nuevo estándar fue el primero en usar comunicaciones de paquetes de esa técnica, limitada hasta entonces a sistemas de comunicación continua. Actualmente dicha técnica es aceptada para las comunicaciones inalámbricas de área local WLAN por la IEEE en su norma 802.11a, por la HIPERLAN/2 y por los sistemas MMAC (Comunicaciones Móviles con Acceso Multimedia). También se espera que se emplee para las comunicaciones
inalámbricas de banda ancha para servicios de multimedia. OFDM es conocida como una técnica de modulación multicanal que utiliza multiplexación por división en frecuencias (FDM) de subportadoras ortogonales con una secuencia de datos de baja velocidad. Las razones principales para el uso de OFDM son aumentar la robustez contra la dispersión producida por el efecto de multitrayectorias y el desvanecimiento selectivo de frecuencias. En los sistemas con una sola portadora cuando ocurre una interferencia se puede provocar un fallo total; pero en los de múltiples portadoras sólo un pequeño por ciento de las portadoras será dañado y con esto una pequeña parte del sistema. En ese caso, para eliminar los pocos errores presentes se utilizan técnicas de corrección en correspondencia con el por ciento de portadoras dañadas. La palabra ortogonal indica la existencia de una relación matemática
entre las diferentes frecuencias correspondientes a cada subportadora del sistema. En un sistema FDM, se hallan espaciadas espectralmente de forma que puedan ser recibidas usando filtros y demoduladores convencionales y también se introducen bandas de guardas entre los subcanales, en el dominio de la frecuencia, que disminuye la eficiencia espectral del sistema. Sin embargo, en la señal de OFDM se organizan las subportadoras de manera que sus bandas laterales estén solapadas con las adyacentes, sin interferencia entre ellas. Para que esto ocurra, las subportadoras deben ser ortogonales y el espaciamiento mínimo entre ellas ser múltiplo de 1/T, donde T es la longitud de la señal OFDM. Las especificaciones del estándar IEEE 802.11 para los sistemas WLANs se definen como los requerimientos en la capa física (PHY) y en su subca[GiGA 3 / 2006]
57
enredados pa de control de acceso al medio (MAC). Para sistemas de alta velocidad de transferencia de datos el estándar tiene previsto variantes de capas PHY, tal como la IEEE 802.11b para operaciones en la banda sin licencia para uso Industrial, Científico y Médico (ISM) en 2,4 GHz y la IEEE 802.11a para operaciones en la banda de frecuencias de 5150 a 5825 MHz (U-NII), que se muestra en la figura 1. El IEEE 802.11a define 52 subportadoras para cada canal. De éstas, 48 se usan para datos y las restantes se emplean como portadoras patrones o tonos pilotos necesarios para hacer ajustes de fase en los demoduladores coherentes del extremo receptor del sistema. La duración de los intervalos de guarda es 800 ns, para proporcionar un excelente desempeño sobre un canal con retrasos espectrales de hasta 250 ns. Para hacer un uso eficiente del espectro disponible en la banda de 5 GHz, los diseñadores del estándar IEEE 802.11a determinaron el uso de la técnica OFDM. Para complementar OFDM, la IEEE incluyó en sus definiciones una variedad de modulaciones y alternativas de codificación. Por ejemplo, el estándar permite la combinación de modulaciones tales como: Digital de Fase Binaria (BPSK), de Fase Cuaternaria (QPSK) y la de Amplitud por Cuadratura (16-QAM) con codificadores convolucionales con razón de bit R=1/2 para generar velocidades de transferencia de 6, 12 y 24 Mbps respectivamente. Otras opciones de codificación incluyendo R=2/3 y R=3/4 combinadas con 64QAM son usadas para generar velocidades de transmisión de hasta 54 Mbps. En la actualidad existen sistemas que logran alcanzar 72 Mbps.
OFDM bajo el estándar IEEE 802.11a En la práctica, la generación de la señal OFDM está propuesta en la IEEE 802.11a como se describe a continuación: Como se observa en la figura 3, en el transmisor, los bits en la entrada son codificados con un codificador convolucional con R=1/2, la velocidad puede ser incrementada a R=2/3 y R=3/4, después del entrelazado, los datos binarios se convierten en valores modulados en QAM. Se agregan 4 datos pilotos a los 48 ya existentes,
58
[GiGA 3 / 2006]
y así con los 52 datos formar un símbolo OFDM. El símbolo es modulado sobre 52 subportadoras que se les aplica la trasformada rápida de Fourier inversa (IFFT), la salida es convertida a serie y se le adiciona una extensión cíclica para lograr que el sistema sea muy robusto ante el efecto del desvanecimiento por multitrayectorias en la propagación. Seguidamente el mecanismo de ventana es agregado para hacer un estrechamiento del espectro de salida. Usando un modulador de cuadratura IQ, la señal se convierte de digital a analógica y se desplaza a la banda de 5 GHz, ésta se amplifica y transmite por la antena y su sistema de alimentación de antena (feeder). El receptor realiza básicamente las operaciones inversas al transmisor, con la adición de las tareas de adaptación. En el primer paso, el receptor estima el desplazamiento de frecuencia y el tiempo del símbolo, que se realiza con el empleo de símbolos de adaptación en el preámbulo, luego se eliminan las extensiones cíclicas y así la señal puede ser aplicada a la transformada rápida de Fourier para reconstruir los 52 datos modulados en QAM en las 52 subportadoras. Los símbolos de adaptación y las subportadoras pilotos se usan para una respuesta adecuada del canal y la corrección de algunas variaciones de fase presentes. Los datos modulados en QAM son desmapeados a datos binarios y finalmente un decodificador de Viterbi entrega los bits de entrada originales. La IFFT y la transformada rápida de Fourier (FFT) son operaciones casi idénticas, en verdad, la IFFT puede crearse con el uso de un circuito integrado de alta escala de integración (VLSI) de uso específico para la FFT al que se le conjugan o invierten los datos de entrada y salida, además hay que dividir el dato de salida por el tamaño de la FTT. Esto hace posible el uso del mismo hardware para ambos sentidos de comunicación, transmisión y recepción. Como con-
secuencia, disminuye la complejidad del hardware, que sólo es posible para modos de comunicación simplex y semiduplex en los que no se transmite y recibe en el mismo instante. Éste es el caso descrito en el estándar IEEE 802.11a. La tabla 1 muestra los parámetros de OFDM bajo el estándar IEEE 802.11a.
OFDM usando DFT inversa El uso de la transformada discreta de Fourier (DFT) en transmisión de datos con formato paralelo fue investigado en 1971 por Weinstein y Ebert. En la figura 4, considerando que la secuencia d0,d1,d2,..., dN-1, donde dn es la salida de un modulador digital como QAM, PSK (modulación por conmutación de fase), y suponiendo la realización de la trasformada discreta de Fourier inversa (IDFT) en la secuencia 2dn, donde el factor 2 se usa para propósitos de ajustes, se tomará el resultado de n números complejos Sm (m= 0,1..., n-1) como:
Tiempo de guarda y extensión cíclica Uno de los principales problemas en los sistemas de comunicaciones inalámbricas es la dispersión en tiempo producida por el desvanecimiento por multitrayectorias durante la propagación. OFDM trata este efecto indeseable eficientemente. La trans-
enredados misión paralelo implica que el flujo de datos de entrada se divide en NS subportadoras y la duración del símbolo es NS más pequeña, lo cual reduce relativamente la dispersión en tiempo producida en el mecanismo de propagación con respecto a la duración del símbolo OFDM. La interferencia intersímbolo (ISI) es casi eliminada con la introducción de un tiempo de guarda entre cada símbolo OFDM. Este tiempo se escoge de forma que sea más prolongado que el esperado en la dispersión por multitrayectorias, de manera que no haya interferencia entre símbolos OFDM en el tiempo. El tiempo de guarda será la ausencia de señal, pero esto podrá provocar el surgimiento de la interferencia interportadoras (ICI). Entonces, el símbolo OFDM es extendido cíclicamente durante el período de guarda. Usando este método, las demoras repetitivas de los símbolos OFDM siempre tienen un número entero de ciclos con respecto al intervalo de la FTT, de forma que la demora sea menor que el tiempo de guarda y así se logra que las señales que son recibidas mediante reflexiones con retardos o dispersión en el tiempo más pequeño que el tiempo de guarda no provoquen interferencia interportadoras. Si la dispersión en tiempo por multitrayectorias excede el tiempo de guarda en una pequeña fracción con respecto al intervalo de la FFT, por ejemplo un 3%, las subportadoras dejarán de ser ortogonales, en este caso la ICI es aún pequeña y se puede lograr una constelación razonable. Ahora bien, si la dispersión excede el tiempo de guarda en un gran valor con respecto al intervalo de la FFT, por ejemplo 10%, la constelación será afectada seriamente y se obtendrá una tasa de errores inaceptable.
Mecanismo de ventana Una señal OFDM consiste, como ya se dijo, en un número de subportadoras moduladas en QAM no filtradas, lo que significa que el espectro fuera de banda decrece más despacio y semeja una función sinc. Para un gran número de subportadoras, el espectro disminuirá rápidamente en los comienzos, lo que es causado por el hecho de que los lóbulos laterales a la vez son acotados. Para hacer que el espectro disminuya rápidamente, el mecanismo de ven-
tana se aplica a la señal OFDM. El mecanismo más usado es el tipo coseno alzado dado por:
Codificador convolucional De acuerdo con el estándar, los datos deben ser codificados con un codificador convolucional de razón de código R=1/2, 2/3 ó 3/4 en correspondencia con la velocidad de datos deseada. El codificador convolucional usa un polinomio generador estándar en la industria, g0=1338 y g1=1718 con R=1/2. El decodificador recomendado por la IEEE 802.11a es el algoritmo de Viterbi. Aunque el codificador convolucional está aprobado y recomendado en el estándar, cualquier otro tipo de codificador en bloque se puede usar según ciertas aplicaciones, un ejemplo es la comunicación de paquetes para servicios de voz y datos en los cuales la longitud del paquete puede hacerse igual a un múltiplo de la longitud del código. Para estas aplicaciones es más conveniente utilizar un codificador de bloques debido a que el codificador convolucional presenta una memoria que debe ser leída para finalizar el Trellis, lo cual disminuye la eficiencia de la razón de código. Casos muy particulares de códigos de bloque usados en los sistemas OFDM son el Reed-Muller y el ReedSolomon.
Entrelazado
El mecanismo de entrelazado es implementado con vistas a aleatorizar la ocurrencia de bits erróneos
antes del proceso de codificación. En el transmisor, los bits ya codificados son permutados de cierta forma y esto logra asegurar que bits adyacentes sean separados por varios bits después del proceso de entrelazado. En correspondencia con el estándar, todos los bits de datos deben ser entrelazados por un bloque entrelazador con un tamaño de bloque correspondiente al número de bits de un simple símbolo OFDM, NCBPS. El entrelazado está definido como dos pasos de permutación. La primera asegura que bits adyacentes codificados sean mapeados en subportadoras no adyacentes. La segunda asegura que bits codificados adyacentes sean mapeados alternativamente en la constelación, unos en los menos significativos y otros en los más significativos y así se evitan períodos largos de ejecución del sistema con baja confiabilidad. Todo el proceso de entrelazado se realiza en el extremo transmisor y por ello es necesario realizar el proceso homólogo inverso en el extremo receptor que se conoce como la inversión del entrelazado.
Sincronización Antes de que un receptor OFDM pueda demodular una subportadora tiene que realizar al menos dos tareas de sincronización. La primera consiste en encontrar los símbolos OFDM que puedan estar fuera de sus límites y en el instante adecuado, esto debe ser óptimo para evitar la ICI y la ISI. La segunda tarea es la estimación y corrección del desplazamiento que pudiera tener la subportadora y con ello se evita aún más la ICI. Para los receptores coherentes, la fase de la subportadora debe estar sincronizada, por ello se necesita en el receptor un demodulador coherente QAM para detectar las amplitudes y fases de todas las subportadoras y definir las posibles [GiGA 3 / 2006]
59
enredados decisiones que correspondan a cada constelación QAM en su respectiva subportadora. Usualmente, la señal OFDM recibida tiene un corrimiento en frecuencia el cual enseguida provoca una interferencia interportadora. Eso significa que las subportadoras dejan de ser perfectamente ortogonales produciendo con ello un ruido de fase. Si se usa un prefijo cíclico y se tiene en consideración que los tiempos de guarda TG de cada símbolo OFDM son idénticos durante un periodo de muestreo T, se puede hacer una sincronización en tiempo y frecuencia con el empleo del que muestra la figura 5. El dispositivo de la figura 5 correlaciona la parte prolongada de un tiempo TG de la señal, con una parte que está T segundos demorada en una línea de retardo. La salida puede ser escrita por la ecuación siguiente: La función de correlación produce varios picos que corresponden a los diferentes símbolos y los máximos de amplitudes con variaciones significativas. La razón por la cual se hace es que aunque la potencia promedio para un intervalo de T segundos sea constante para los símbolos OFDM, la potencia en el tiempo de guarda puede
variar sustancialmente. Otro efecto es el nivel indeseable de los lóbulos laterales con respecto al nivel del lóbulo principal. Estos lóbulos laterales reflejan la correlación entre dos pedazos de señal OFDM que pertenece en parte o totalmente a dos símbolos OFDM diferentes. Cada símbolo OFDM distinto contiene valores de datos independientes y el resultado de la función de correlación es una variable aleatoria, que puede alcanzar un valor mayor que el deseado en el pico de correlación. La desviación estándar de una magnitud de correlación aleatoria es relativa al número de muestras independientes sobre las cuales la correlación es obtenida, mientras mayor sea el número de muestras independientes para obtener la función correlación, menor será su desviación estándar. En el caso extremo donde la función de correlación ha sido obtenida con una sola muestra independiente, la magnitud de salida es proporcional a la potencia de la señal y no
60
[GiGA 3 / 2006]
existirá en este caso ningún pico distintivo en la correlación. Otro caso extremo es cuando la función de correlación ha sido obtenida con muchas muestras independientes, la relación entre las amplitudes de los lóbulos laterales y picos de amplitudes pueden tender a 0, porque el número independiente de muestras es proporcional al de subportadoras. La técnica de calcular la función de correlación de la extensión cíclica sólo es eficaz cuando se usa un número grande de subportadoras en el sistema OFDM, preferiblemente más de 100 subportadoras. Un caso particular es cuando en lugar de usar símbolos de datos aleatorios se emplean los símbolos de adaptación especialmente diseñados.
Conclusiones En este artículo han sido descritos los principios de funcionamiento y los algoritmos matemáticos de los diferentes bloques funcionales que componen un transmisorreceptor concebido para operar en la banda de frecuencias U-NII utilizando la técnica de multiportadoras OFDM. Se puede concluir que OFDM presenta ventajas que hacen atractiva su implementación en los equipos y sistemas en la actualidad y estas ventajas son: • Uso eficiente del espectro disponible • Eliminación de la interferencia intersímbolo con el uso de prefijo cíclico • Recuperación de gran cantidad de datos dañados debido al uso de codificador/decodificador con técnicas del tipo corrección de errores hacia adelante (FEC) • Adecuada respuesta del canal debido al uso de técnicas de ecualización adaptativa • Menos sensible a los errores provocados en los tiempos y conmutaciones del proceso de muestreo • Ofrece buena protección contra la interferencia de canales adyacentes y los impulsos de ruidos parásitos • Es insensible al desvanecimiento selectivo y al corrimiento de frecuencia Por todas estas ventajas es que la técnica de OFDM se incluye en los diseños actuales de los sistemas de telecomunicaciones. En la División PCmax, de Copextel se oferta a nuestros clientes la posibilidad de adquirir en la línea TREDNED el equipamiento inalámbrico en las bandas de 11 y 54 Mbps y 2,4 Gbps que incluye puntos de accesos, tarjetas, sticks inalámbricas, etc., las cuales basan su funcionamiento en esta técnica que hoy traemos para su
enredados
Y hablando de telecomunicaciones… ocho años después de la muerte de Maxwell, y que supuso el inicio de la era de la comunicación rápida a distancia. Hertz desarrolló el primer transmisor de radio que generó radiofrecuencias entre 31 MHz y 1,25 GHz.
S
e denomina telecomunicación a la técnica de transmitir un mensaje desde un punto a otro, normalmente con el atributo típico adicional de ser bidireccional. Proviene del griego tele, que significa distancia. Por lo que el término telecomunicación cubre todas las formas de comunicación a distancia, incluyendo radio, telegrafía, televisión, telefonía, transmisión de datos e interconexión de ordenadores. La base matemática sobre la que se sustentan las telecomunicaciones fue desarrollada por el físico inglés James Clerk Maxwell, el cual en el prefacio de su obra Treatise on Electricity and Magnetism (1873) declaró que su principal tarea consistía en justificar matemáticamente conceptos físicos descritos hasta ese momento sólo de forma cualitativa, como las leyes de la inducción electromagnética y de los campos de fuerza, enunciadas por Michael Faraday. Con este objeto, Maxwell introdujo el concepto de onda electromagnética, que permite una descripción matemática adecuada de la interacción entre electricidad y magnetismo mediante sus célebres ecuaciones que describen y cuantifican los campos de fuerzas. Maxwell predijo que era posible propagar ondas por el espacio libre si se utilizaban descargas eléctricas, hecho que corroboró Heinrich Hertz en 1887,
62
[GiGA 3 / 2006]
Las telecomunicaciones, como tal, comienzan en la primera mitad del siglo XIX con el telégrafo eléctrico, ya que éste permitió enviar mensajes con contenido de letras y números. A esa invención se le hicieron dos notables mejorías: la adición, por parte de Charles Wheatstone, de una cinta perforada para poder recibir mensajes sin que un operador estuviera presente y la capacidad de enviar varios mensajes por la misma línea, que luego se llamó telégrafo múltiple, añadida por Emile Baudot. Más tarde vino el teléfono, con el que fue posible comunicarse utilizando la voz, y posteriormente, la revolución de la comunicación inalámbrica: las ondas de radio. A principios del siglo XX aparece el teletipo que con el código Baudot permitía enviar y recibir textos en algo parecido a una máquina de escribir, que era impreso por tipos movidos por relés. El término telecomunicación fue definido por primera vez en la reunión conjunta de la XIII Conferencia de la UTI (Unión Telegráfica Internacional) y la III de la URI (Unión Radiotelegráfica Internacional) que se inició en Madrid el 3 de septiembre de 1932. La definición del término, aprobada entonces fue: "...toda transmisión, emisión o recepción, de signos, señales, escritos, imágenes, sonidos o informaciones de cualquier naturaleza por hilo, radioelectricidad, medios ópticos u otros sistemas electromagnéticos".
El día 9 de diciembre de 1932, en virtud de los acuerdos alcanzados en la reunión antes citada, se firmó en Madrid el Convenio por el que se creaba la Unión Internacional de Telecomunicaciones (UIT) que en el futuro sustituiría a la UTI y a la URI. El siguiente artefacto que revolucionó las telecomunicaciones, a mediados de siglo, fue el módem que hizo posible la transmisión de datos entre computadoras y otros dispositivos. En la década de los años sesenta comienza la unión entre la telecomunicación y la informática con el uso de satélites de comunicación y las redes de conmutación de paquetes. La década siguiente se caracterizó por la aparición de las redes de computadoras y los protocolos y arquitecturas que servirían de base para las telecomunicaciones modernas (en estos años aparece ARPANET que dio origen a Internet). También cabe destacar que en estos años toma auge la normalización de las telecomunicaciones: el CCITT trabaja en la de las redes de conmutación de circuitos y de paquetes, mientras la Organización Internacional para la Estandarización crea el modelo OSI. A finales de los años setenta aparecen las redes de área local. En los años ochenta las computadoras personales se volvieron populares, aparecen las redes digitales y las redes de telecomunicaciones comienzan a hacerse omnipresentes. En la última década del siglo XX aparece Internet, que se expandió enormemente y a principios del siglo XXI vivimos los albores de la interconexión total, por medio de todo tipo de dispositivos que son cada vez más rápidos, compactos y poderosos. Tomado de Wikipedia, "La enciclopedia libre".
joystick
A
64
[GiGA 3 / 2006]
Luis Yasser Vila Cabrera
V
uelve la magia de las tres "E" a Los Ángeles y la ciudad se cubre con sus mejores galas para recibir lo más novedoso y llamativo del entretenimiento digital. En los días previos a la inauguración del certamen la curiosidad por descubrir cómo sería la segunda generación de títulos para Xbox 360, el aspecto de los juegos de Wii, la sensación que produciría su revolucionario control y el interés por la tecnológicamente impactante PlaySatation 3 despertó un ambiente de impaciencia casi indescriptible. Por eso como ya es costumbre cada año la sección Joystick prepara un trabajo especial en el que se recoge lo más importante acontecido antes, durante y después del Electronic Entretaiment Expo y los lectores de esta revista también vivan la Feria.
Asistir al E3, la gran odisea Cada año entre diciembre y enero, la Web oficial del evento, www.E3expo.com, abre un período de registro al cual pueden acceder sólo miembros de la industria, medios de comunicación y prensa y no se admite otro público. Tras realizar una exhaustiva revisión a cada solicitud, la ESA (propietaria y organizadora del E3) aprueba o no la petición. En caso positivo el aspirante obtendrá una credencial que
desde el año 2001 no se envía por correo ordinario. Por esta razón los invitados extranjeros deben recogerla en una zona del Convention Center días antes o durante el evento.
Preshows, expectación y euforia El E3 abre oficialmente sus áreas expositivas el miércoles, sin embargo desde hace varios años las conferencias previas a esta apertura le han robado el protagonismo. La razón es
El majestuoso Convention Center
bien sencilla, las compañías participantes ven cada edición como una oportunidad única para captar la atención hacia sus productos. Todos conocen la repercusión que sucede a estas presentaciones, por eso no escatiman recursos para ofrecer el [GiGA 3 / 2006]
65
joystick mejor montaje. Era costumbre que los preshows de Nintendo, Microsoft y Sony tuvieran lugar los martes, hasta que esta última, con el fin de tomar la delantera, trasladara su programa a los lunes. Un día que por tradición, estaba reservado a las Third Partys. Es de mencionar que los lugares donde acontecen estas reuniones cuentan con un alto prestigio, ya sea arquitectónico, cultural o de exclusividad. El Shrine Auditórium, la biblioteca de la ciudad, el Teatro Chino, los estudios de rodaje de Sony Pictures e incluso el Kodak Theatre, donde tiene lugar la ceremonia de entrega de los Oscar, se encuentran entre los escenarios más llamativos.
Square-Enix, la leyenda de Final Fantasy
Perfectos serán los personajes de FF XIII
Final Fantasy XIII la mejor exclusiva de PS3
Third Party. La reunión comenzó con un vídeo que mostraba los siguientes juegos: Dawn of Mana (PS2), Final Fantasy V y VI (ambos para GBA), Rocket Slime para Nintendo DS, y algún que otro juego para móviles. Tras esta breve introducción, Final Fantasy XII ocupó la atención de los presentes mediante un extenso trailer. A continuación Square reafirmó la idea de llevar su legendaria saga a los móviles, concretamente con el capítulo FF Dirge of Cerberus. Posterior a esta revelación, Final Fantasy III tomó el protagonismo. En relación con este título se comentó la impresionante conversión realizada de la vieja secuela a la actual entrega totalmente en 3D para DS. Luego se mostraron imágenes debut de Final Fantasy VII Crisis Core para PSP, aunque nada del propio juego, sólo vídeos en tiempo real. Para abrir las puertas a la nueva generación se mostró Dragon Quest Swords: The Masked Queen and the Tower of Mirrors, un RPG que acompañara a Wii en su lanzamiento. La tensión subió cuando Akitoshi Kawazu, productor ejecutivo de FF Crystal Chronicles para GameCube, confirmó los rumores: dos nuevas entregas de la saga están en desarrollo, FF The Cristal Bearers para Wii y FF Ring of Fates para DS (que además contará con multijugador Wi-Fi). Y llegó el momento crucial de la presentación: por primera vez Final Fantasy XIII apareció en las pantallas. En medio de una euforia, el productor Yoshinori Kitase, explicó que las escenas del trailer eran renders del propio juego y para concluir Motomu Toriyama, director del proyecto, confesó que éste será el mejor Final Fantasy visto y que también están en producción FFXIII: Agito (para móviles) y FF XIII: Fabula Nova Crystallis, un action-RPG al estilo Final Fantasy X-2.
Wiimote en mano Miyamoto inauguró el show
ovación, Reggie Fimls-Aime, presidente de Nintendo América y conductor de la cita, reveló que para finales de año, el mundo experimentaría nuevas formas de jugar. Dicho esto, un vídeo promocional desplegó parte del software que correrá en Wii: Metroid Prime 3, Super Swing Golf, Wii Sport, que incluye tres deportes: béisbol, golf y tenis, Disaster: Day of Crisis, Fire Emblem, Excite Truck, Project Hammer, Super Mario Galaxy y el esperadísimo Zelda: Twilight Princes, que como se esperaba tendrá una versión para Wii y otra para GameCube. Seguidamente y en directo, un jugador hizo uso del revolucionario control para demostrar la mecánica de movimientos sobre Link y sus funciones como caminar, lanzar flechas, usar la espada, etc. En ese instante se puso al descubierto una nueva característica del mando: incluir un altavoz para escuchar sonidos durante el juego.
Iwata orgulloso ante la innovadora Wii
Nintendo, la exhibición que más…
Final Fantasy III para DS una obra de arte
Aunque cada año se hace referencia a las conferencias, ésta es la primera ocasión que se habla acerca de una
66
[GiGA 3 / 2006]
La conferencia más esperada de este E3 tuvo lugar en un abarrotado Kodak Theatre que comenzó con la presencia de Shigeru Miyamoto, quien sustituyó batuta por Wii Remote para dirigir una orquesta virtual, que bajo el eslogan "Playing is believing", interpretó una conocida melodía de Zelda. Tras una calurosa
La presentación prosiguió con Dragon Ball Z Budokai Tenkaichi, Dragon Quest, Tony Hawk, Elebits, Red Steel, Rayman 4, Sonic Wild Fire y Final Fantasy: The Cristal Bearers, títulos que acompañarán el lanzamiento de Wii y que demuestran el fuerte apoyo y confianza que las Third Partys han depositado en la propuesta de Nintendo. Luego llegó el turno del universo portátil, George Harrison, vicepresi-
joystick Sony más cara que nunca
Super Mario Galaxy al infinito y más allá
dente de Marketing de la Compañía, subrayó el ascendente éxito de Nintendo DS con 16 millones de unidades distribuidas y 40 millones de sesiones mediante Wi-Fi Connection, gracias a juegos como Nintendogs, Brain Training o Animal Crossing. Para ésta también hubo novedades: New Super Mario Bros, Pokémon Mysterious Dungeon, Diddy Kong Racing, Starfox DS, Yoshi's Island 2, Final Fantasy III, Mario Vs. Donkey Kong y Zelda: Phantom Hourglass. Al retomar Wii, Satoru Iwata, presidente de la gran N anunció "Wii 24 Connect", un nuevo sistema de intercambio entre jugadores que funcionará aun cuando la consola se encuentre apagada, el "Zapper Style", periférico que transformará el Wii Remote en pistola, y el "Classic Style", un mando de diseño tradicional ideal para los juegos del sistema Virtual Console).
Con una hora de retraso debido a problemas técnicos, Kaz Hirai presidente de Sony América, subió al estrado y rompió el hielo refiriéndose a los conceptos y perspectivas que tienen con PlayStation 3. En el final se dio paso a Syphon Filter, LocoRoco, Ape Academy 2, Killzone: Liberation, World Tour Soccer 2, Talkman y Gangs of London, próximos títulos de PSP. También fueron anunciadas las nuevas prestaciones como reconocimiento de voz y GPS que acompañarán a la portátil.
Hirai y Kataguri muestran la futurista PlayStation 3
Luego de citar las bondades del formato Blu-Ray, Sony ratificó que PS3 será la consola más potente de nueva generación y que su lanzamiento está previsto para noviembre próximo. A continuación Phil Harrison, vicepresidente ejecutivo de Sony, hizo rodar Gran Turismo HD. Este capítulo de la saga incluirá motos, coches de F1, coches antiguos, modo online y otras características.
Snake lucirá un look más veterano
de gran acción y Resistance. Kaz Hirai se refirió al apoyo Third Partys y dio paso a nuevos trailers. Assasin's Cred (UbiSoft), Ridge Racer 7 y Tekken 6 (Namco), Virtua Fighter 5 (Sega), las licencias de Electronic Arts y otra gran cantidad de títulos. Los más esperados estaban por aparecer: Final Fantasy XIII, que había sido mostrado horas antes por SquareEnix y Metal Gear Solid 4, del que se visualizó un frangmento con detalles gráficos casi perfectos. Para el final, Ken Kataguri, creador de la máquina, mostró para decepción de los presentes, el nuevo mando de PS3. Un Dual Shock inalámbrico muy similar al de PlayStation 2. Nada quedó del control futurista que tanto había impresionado en el pasado E3, dispositivo que incluye un sensor de movimiento capaz de reproducir las acciones sin necesidad de accionar botones y que según sus presentadores resultaba ser una función completamente novedosa y original, lo cual hubiera resultado noticia meses atrás, si Nintendo no hubiera mostrado su Wii Remote. Y para finalizar la pantalla anunció que PlayStation 3 saldrá al mercado en dos versiones, una con 20 y otra con 60 Gb de disco duro que costarán 499 y 599 dólares respectivamente.
Nuestro deporte nacional presente en Wii Sport
Para finalizar tuvo lugar un partido de tenis entre Iwata, Miyamoto, Reggie y una de las personas del público escogida al azar. Como curiosidad es de destacar que los personajes en pantalla tenían el mismo rostro de los jugadores. Algo quedó claro en esta presentación: Nintendo busca emocionar al jugador y reafirmar que ha sido, es y será el rey de la innovación en la industria del videojuego.
Microsoft, la segunda legión de 360 La futurista PlayStation 3
Con una demo técnica, titulada Eye of Judgement, capaz de reproducir el movimiento de cartas en un juego, se dio la bienvenida a la futura generación de "Eye Toy". Siguió el turno a las posibilidades online de PS3 y nuevos juegos. Formula One 06, Heavenly Sword, Warhawk, The Getaway, Naughty Dog, Eight Days, un título
Antes de comenzar, Microsoft conoció sobradamente que la expectación de esta Feria estaría centrada en las propuestas de sus competidores Sony y Nintendo por lo que su única opción fue la de apostar todo a Xbox 360. El Teatro Chino de Los Ángeles fue el lugar escogido para desarrollar un programa que comenzó con la proyección de Gear of Wars. Impresionantes gráficos y efectos [GiGA 3 / 2006]
67
joystick visuales se apreciaban en medio de un gran combate entre humanos y una gigantesca araña. Sin concretar el lanzamiento, Peter Moore, vicepresidente de la Compañía, elogió el trailer y lo calificó como "experiencia de juego más espectacular de la nueva generación". Luego se reveló que la Xbox 360 lleva más de cinco millones de unidades distribuidas en todo el mundo y que el 57 % de sus usuarios utilizan Xbox Live, sobre todo el servicio Arcade, que permite descargar juegos clásicos. Según se confirmó, Contra, Mortal Kombat 3, Street Fighter II, junto a otra decena de viejos conocidos muy pronto estarán disponibles en este sistema.
Esta aventura de terror, pondrá al jugador en la piel de Jennifer, una joven secuestrada que con la ayuda de un perro deberá enfrentarse a cientos de monstruos y resolver difíciles puzzles si quiere seguir con vida.
Mortal Kombat Armageddon (PS2 - Xbox) El volante perfecto para las carreras de 360
Xbox, en la que será su tercera entrega. Y con esta despedida Microsoft revalidó el apoyo a su consola y el sistema Live, su esfuerzo por conseguir juegos exclusivos y sus planes de lograr que 10 millones de usuarios tengan una 360 antes que PS3 y Wii invadan el mercado.
Alfa y omega de dos generaciones Esta Feria tuvo el privilegio de acoger un eclipse entre dos generaciones: los juegos de la nueva era que sobresalen con mérito propio y, los actuales que se despiden dejando verdaderas obras de arte. Amén de lo irreversible, la calidad de algunas propuestas obliga a realizar un breve repaso por los coletazos de PS2, Xbox y GC.
El último combate mortal para la actual generación, reunirá a los más de 60 luchadores aparecidos en la saga a lo largo de estos años. Como novedad incluirá la posibilidad de crear las fatalities.
Godo f War (PS2)
Así presentó Peter Moore el nuevo GTA
En un regreso al futuro, Moore comentó que para finales de este año la nueva Xbox contará con 160 títulos y para demostrar el potencial de esta segunda legión de juegos, el enorme display mostró fragmentos de: Viva Piñata, Mass Effect, FEAR, Too Human, Dead Rising, Fable 2, Haze, Blue Dragon, MotoGP 06 y Forza Motorsport 2. De este último se exhibieron dos nuevos accesorios: un volante inalámbrico y una cámara web, "Xbox Visión" y siguió el asomo de los periféricos con el estreno de la unidad externa HD-DVD, competidor del Blue Ray Disc, que al conectarse a la consola permitirá reproducir películas en este formato. Su último fichaje, Grand Theft Auto IV saldrá para 360 el 16 de octubre. Al final, Bill Gates subió a escena y presentó "Live Anywhere", una especie de Xbox Live integrada en Windows Vista para facilitar el juego multiplataforma y otras opciones. La conferencia concluyó en medio de un ambiente de música y vídeo con Halo, la saga más representativa de
68
[GiGA 3 / 2006]
Gear of Wars mostró unos gráficos de película
Rule of Rose (PS2)
A Kratos no le basta el Olimpo y quiere más poder. En varios aspectos esta secuela superará a su predecesor e incluirá novedades como la posibilidad de surcar los escenarios encima de Pegaso.
Eragon (PS2- GC- Xbox)
Acompañado de su dragón Saphira, el joven Eragon deberá utilizar
joystick magia, armamentos e inteligencia si quiere sobrevivir la odisea que le espera. Conjuntamente con el apartado gráfico, la ambientación derrocha calidad.
Super Paper Mario (GC)
Mundos giratorios de perspectiva bimencional y personajes en 2D, así se mostró la tercera entrega de este peculiar RPG para GameCube. Una de las sorpresas de la Feria si se tiene en cuenta que su existencia era desconocida.
Okami (PS2)
mer grupo destacó Command & Conquer, Company of Heroes y Medieval 2: Total War. Mientras que en el segundo los de mayor potencial fueron Lords of the Ring, Tabula Rasa, Sun, Age of Conan o el prometedor Warhammer: Age of Reckoning, que tendrán la tarea de medirse con la esperada ampliación de World of Warcraft: Burning Crusade.
(Xbox 360) Mejor juego de acción y aventura: Assassin's Creed (PS3) Mejor juego de pelea: Heavenly Sword (PS3) Mejor juego RPG: Mass Effect (Xbox 360) Mejor juego de carreras: Excite Truck (Wii) Mejor juego de simulación: Spore (PC) Mejor juego de deporte: Wii Sports (Wii) Mejor juego de estrategia: Supreme Commander (PC) Mejor puzzle/party game: Guitar Hero 2 (PS2) Mejor juego multiplayer online: Enemy Territory : Quake Wars (PC)
Momentos históricos del E3 Crysis uno de los títulos más destacados para PC
Y el ganador es…
Como cada edición desde el año 1998, los Game Critical Awards fueron entregados. MTV, Yahoo, Los Angeles Times, The Washington Post, GamePro, Game Revolution, Newsweek, Rolling Stone, CNN/Money, entre otra veintena de prestigiosos medios de prensa y difusión, realizaron la votación para seleccionar los ganadores de estos premios, entre los que el gran vencedor resultó ser Nintendo y su revolucionaria Wii. E3 la mayor Feria de videojuegos del mundo
Convertido en lobo, el dios Okami deberá redimir la vida y el color a un mundo sumido en la más profunda agonía. Un argumento emotivo, gráficos muy peculiares y una jugabilidad inmejorable hacen de este título una obra maestra.
El mundo de la PC Al margen de las galácticas presentaciones para consolas se ha dejado un espacio para el mundo de la PC. Spore, Crysis y Unreal Tournament 2007, que constituyen por sí una oferta impresionante de juegos que darán mucho que hablar. De cualquier modo los géneros de PC que despertaron mayor interés en la Feria fueron la estrategia y los MMORPG, Juegos de Rol Multijugador Masivo Online. Del pri-
Wii la reina del Olimpo
Lo mejor de la Feria: Wii Juego más original: Spore (PC) Mejor juego para PC: Spore (PC) Mejor juego para consola: Gears Of War (Xbox 360) Mejor hardware: Wii Mejor juego para portátiles: The Legend Of Zelda: Phantom Hourglass (DS) Mejor juego de acción: Gears Of War
Para concluir se trae a los lectores algunos datos interesantes de este encuentro entre ocio y tecnología. • El primer Electronic Entretaiment Expo se celebró en 1995 a manos de la entonces Asociación del Software Digital Interactivo, ahora Asociación de Software de Entretenimiento. • Antes de existir el E3 los desarrolladores mostraban sus productos en otros eventos como el "Consumer Electronics Show" o el "European Computer Trade Show". • La Feria tiene lugar en el Convention Center, un inmenso complejo de hormigón, acero, cristal y diseño vanguardista, que posee más de 26 000 metros entre pabellones principales, salas de reuniones y demás áreas. • Este año las mayores superficies expositivas fueron reservadas por Sony y Nintendo. [GiGA 3 / 2006]
69
joystick Aunque el terremoto E3 sacudió a Los Ángeles, los videojuegos no admiten tregua, por eso en Joystick-Noticias se ha recopilado algunos de los sucesos más relevantes sucedidos tras la Feria.
Felicidades Sonic
E
l pasado 23 de junio, Sonic, la conocida mascota de Sega cumplió 15 años. A lo largo de su carrera este peculiar personajillo ha protagonizado más de 30 videojuegos, su propia serie de dibujos animados, además de ser la imagen de varias campañas publicitarias y decenas de productos. En la actualidad el erizo azul se prepara para aterrizar en la nueva generación con dos aventuras que seguramente engrosarán su lista de triunfos, Sonic The Hedgehog, para PS3 y XBOX 360 y Sonic Wild Fire, un juego exclusivo para Wii.
La crisis del UMD
M
ientras el éxito de PSP sigue un ritmo ascendente, no se puede decir lo mismo de sus películas UMD. De hecho Paramount Pictures y Universal Studios interrumpieron indefinidamente su producción en este formato e incluso varias tiendas retiraron estas películas y
se comenta que muchas otras podrían prescindir de ellas en un futuro próximo. Entre las causas de esta crisis, los analistas señalan que la situación se debe en gran medida, al exceso de confianza que Sony depositó en su formato al lanzar más de 200 filmes en sólo cinco meses.
Sony se disculpa
D
espués de recibir numerosas críticas de diversos colectivos, el grupo japonés Sony Computer Entertainment, ha retirado de ciudades como Ámsterdam, los carteles publicitarios que acompañaban el lanzamiento de su PSP White Edition. La citada campaña mostraba imágenes
N
unidades de este curioso simulador de vida, para Nintendo DS. Como consecuencia de este boom, la gran N trabaja en una versión de la franquicia para Wii, además de encontrarse inmersa en la producción de una película cuyo estreno está previsto para finales de este año.
La curiosa
A
más de una década de su aparición, Nintendo 64 sigue dando de qué hablar. Esta vez, Echo Delta, uno de sus juegos, fue adquirido en la página de subastas por Internet E-bay, por la increíble suma de 1500 dólares. La mecánica de este curioso software consistía en rescatar barcos del fondo marino en un mínimo de tiempo. En un principio su lanzamiento estaba concebido para
70
[GiGA 3 / 2006]
S
egún reveló el diario español El País, los estudios Universal han llegado a un acuerdo con el director de cine Peter Jackson, para la realización de una película basada en "Halo", uno de los videojuegos más exitosos de Xbox. Por otro lado, Steven Spielberg anunció que dirigirá tres videojuegos para Electronic Arts, con planes de llevarlos después al celuloide. Las funciones del mencionado genio se centrarán en el aspecto argumental y la línea estética de cada juego.
Microsoft, en la Games Convention
en las que una mujer blanca vestida del mismo color, agarraba con gesto amenazante la cara de una mujer negra asustada. De cualquier modo Sony se disculpó y alegó que su única intención era mostrar el gran contraste de color existente entre el modelo negro, original de PSP y la nueva versión blanca.
Animal Crossing, a por más intendo ha vuelto a conseguir que medio mundo se rinda ante los encantos de sus extrañas criaturas. Esta vez no son los Pokemon, sino los raros habitantes del universo Animal Crossing los causantes del fenómeno. Solamente en Japón han sido distribuidos tres millones de
Cine y videojuegos
Nintendo 64 Disk Drive, pero la debacle de este último periférico condenó el proyecto al más profundo olvido. Como justificante a su desorbitado precio hay que considerar que se trata de un cartucho-prueba en desarrollo, en perfecto funcionamiento y con la versión "casi" final del juego. Además disfrutar un título probado por contadas personas en todo el mundo bien lo vale.
L
a ciudad alemana de Leipzig celebró el pasado mes de agosto la mayor feria del sector de los videojuegos en Europa. En su quinta edición consto con 368 compañías y más de 150.000 visitantes. La Games Convention que abrió el primer día en exclusiva para el público especializado, este año quiso darle una importancia especial a las familias y las mujeres, para que se incorporen de forma definitiva como jugadores a este sector en alza, especialmente en la Red y en los dispositivos portátiles. Como dato curioso le traemos la imagen del simulador de vuelo desarrollado por Microsoft, que pudo ser apreciado por muchos de los visitantes en el espacio expositivo de la Feria, donde esta compañía hacía gala de su presencia.
multimedia
Niurka Milanés niurka@sis.copextel.com.cu Gilberto García gilberto@sis.copextel.com.cu Ing. Vilma González Pérez vilma@sis.copextel.com.cu
S
istemas Informáticos y Software, una división de Copextel, continúa trabajando arduamente en el proyecto conocido entre nosotros por Resguardo, a continuación detallamos.
¿Qué es Resguardo? Este proyecto está concebido para dar soporte a un espacio virtual donde se podrán consultar contenidos de diversos temas. Tiene como objetivo fundamental establecer un Método de Generación de contenidos, utilizando las TIC, que permita procurar, almacenar, organizar, registrar, analizar y publicar contenidos, todos relacionados con la diversidad histórico-cultural de Latinoamérica.
¿Cómo surge? Resguardo nace dentro del convenio de colaboración gestado entre nuestro país y la hermana República Bolivariana de Venezuela.
¿Por qué es necesario? En ediciones anteriores, otros colaboradores, han tratado el tema de la gestión de información visto desde diferentes aristas, y en lo que sí existe una coincidencia general es que cada vez se hace más necesario guardar o registrar la información de manera adecuada para que pueda ser recuperada, analizada y compartida con personas interesadas en el tema. La organización, registro, análisis, recuperación y divulgación de la información es uno de los objetivos
72
[GiGA 3 / 2006]
de este proyecto de salvaguarda de la diversidad histórico-cultural, lo que constituye un reto que se inserta dentro de la colosal batalla que libran nuestros países en el rescate y difusión de sus valores, cultura y realidades. Una de las primeras dificultades a la que debemos enfrentarnos es la diversidad de los poseedores de esta información, la cual es tan amplia como la información misma, así como sus niveles culturales, educacionales, posibilidades materiales y recursos técnicos.
Solución Ante la disyuntiva anterior se propone la creación y publicación online de un Instrumento de generación de contenidos y una Guía para la elaboración de contenidos para la WEB que faciliten el proceso de generación de contenidos. El primero tiene como característica fundamental ser sencillo, con una interfaz amigable y fácil de comprender. En el transcurso de este artículo se mostrará de forma general algunas de sus prestaciones. La Guía para la elaboración de contenidos para la WEB tiene como premisa explicar algunas recomendaciones, pautas y normas dirigidas a personas que nunca han trabajado para este medio, así cómo ciertas especificaciones relacionadas con los recursos posibles a utilizar.
Descripción del Instrumento Como ya se comentó, a este Instrumento se podrá acceder desde la
WEB sólo escribiendo en el explorador http://Procura.html Al realizar esta operación se presentará en su monitor la primera página del instrumento donde se dispondrá de tres opciones: Nuevo: El proceso de almacenaje de la información recuperada se realizará por pantallas distribuidas de la siguiente manera: Pantalla Datos del Autor (Fig.1): Aquí son introducidos los datos que identifican al autor o poseedor de la información por medio de un formulario sencillo que tiene disponible un conjunto de listas desplegables que facilitan el llenado de datos, tales como: país, estado o provincia, nacionalidad, etc.
Fig.1
Al completar estos datos se podrá continuar introduciendo información con sólo dar un click en el botón "Continuar". El resultado de esta acción llevará a la pantalla de Datos Generales (Fig2). En esta pantalla se introduce el nombre del producto y el tipo de manifestación cultural a que pertenece. Además, se podrá explicar de forma concisa algunos elementos generales del producto empleando los campos
de sinopsis y descripción general. A partir de este punto es recomendable utilizar la Guía para la elaboración de contenidos que estará disponible en Internet.
multimedia botones, que permitirán abrir las respectivas pantallas.
Fig. 5 Fig. 4
Fig.2
El acceso a la próxima pantalla se realizará igualmente utilizando el botón "Continuar". Pantalla Descripción del Contenido (Fig.3) En esta pantalla se adiciona, modifica o eliminan los contenidos relacionados con la manifestación que se está suministrando. Para cada uno de los contenidos se introduce su nombre (puede asociarse el concepto de contenido, por ejemplo, con los capítulos de un libro) y su texto propiamente.
Fig.3
A cada contenido es posible asociar recursos, entiéndase por recursos vídeos, audio, imágenes, fotos y animaciones (Fig. 4), los cuales se pueden adicionar y eliminar. Para cada recurso se debe especificar el tipo de media, seleccionando una de las variantes que se brinda (imagen, audio, vídeo) y el fichero donde se encuentra físicamente almacenado. Además, podrán incluir las palabras del glosario referidas a esa parte del contenido, si desean que su producto disponga de esta opción (Fig. 5). Referente a éstas se introduce la palabra y su significado. Al glosario se puede adicionar, modificar o eliminar palabras. Para poder acceder a estas dos últimas opciones el instrumento brinda dos
Modificar: Permite acceder a la información que ya fue almacenada y realizar las modificaciones deseadas. El proceso de recuperación puede ser por los campos de Expresión Cultural o por el Nombre de la Manifestación. La búsqueda se realiza de forma creciente por subcadenas. Además, puede seleccionar en qué orden desea ver los resultados: por expresión cultural o por nombre de la manifestación. El proceso de Modificación es muy sencillo una vez seleccionado el tema sobre el que se desea realizar los cambios, basta con dar un click sobre el hipervínculo y todo el contenido de esa sección se visualiza en la caja de texto para su edición. A continuación serán mostradas las mismas pantallas que cuando seleccionamos "Nuevo", pero con la información que ya se introdujo en la base de datos, para que sea modificada en caso de ser necesario. Vista Preliminar: Esta es la mejor opción del Instrumento que se presenta hoy, porque en ella se podrá ver cómo quedará su página antes de ser publicada, mientras que la final se obtiene de forma dinámica y en cada caso serán mostrados tantos hipervínculos a los contenidos como hayan introducido en cada caso. También se da la opción de ver la lista de recursos que se asociaron a la manifestación en cuestión.
Requerimientos técnicos En la versión inicial de esta herramienta se utiliza: Gestor de base de datos: Access. Tecnología web: HTML y ASP Servidor web: Internet Information Server ó Personal Web Server. Explorador web: Internet Explorer o NetScape
Estado actual Hoy el proyecto Resguardo se encuentra en fase de Prueba Piloto en tierras
venezolanas, mientras tanto nosotros trabajamos en el perfeccionamiento de la vista gráfica y eliminando problemas técnicos, entre ellos, se sustituye el código ASP por PHP y la utilización de diferentes gestores de base de datos, con el objetivo de obtener una aplicación más portable, que sea independiente de la plataforma.
Conclusiones
Realmente no existen muchas palabras para describir lo que pudimos ver reflejado en el rostro de una de las personas que utilizó de forma experimental este método. Se trata de alguien excelente, muy profesional y experta cocinera... aunque de programación no sabe nada. En este trabajo compartimos algunas de las pantallas con sus recetas de cocina... Un deleite, se lo aseguramos. Y por ello comparto con ustedes algunas de las pantallas de su receta de cocina. Nos vemos en el próximo número con nuevas experiencias y productos. [GiGA 3 / 2006]
73
multimedia
Ing. Yanluis Ulloa Velázquez
MSc. Teresa Bustillo Martínez y Equipo JAGGER Universidad de Camagüey
L
a Multimedia Apreciación e Historia del Arte fue concebida a partir de un conjunto de elementos que pueden ser divididos en tres grandes segmentos: diseño, programación y elaboración del contenido. Los criterios de selección asumidos para cada caso respondieron a factores tales como disponibilidad, factibilidad y coherencia visual. Esta multimedia reúne un conjunto de requisitos en perfecta correspondencia con los modos de la audiovisualidad contemporánea, a la vez que posibilita una identificación más inmediata con el estudiante a partir de la comunidad de códigos entre ambos. Es decir, la selección de la multimedia como soporte responde a la solución de poner las nuevas tecnologías en función del proceso de enseñanza-aprendizaje y, sobre todo, de lograr una relación entre los códigos siempre cambiantes de la visualidad del estudiante y las posibilidades expresivas del soporte. Además, en un mundo en el que la inmensa mayoría de los mensajes recibidos clasifican dentro de los audiovisuales, la utilización de la multimedia converge en perfecta coherencia con el entorno sociocultural del estudiante, a la vez que significa una posibilidad de entrenamiento para la familiarización con este tipo de soporte, interactivo por definición. Para la realización de este producto fue imprescindible la selección y empleo adecuados de las opciones para la programación, la edición de materiales visuales, textuales y sonoros así como para la obtención de ambientes (diseños específicos) propicios para la navegación del usuario. Éstas constituyen el soporte tecnológico, a partir del cual se construye el producto y sólo desde ellas se hizo posible la materialización de la multimedia. Para tal fin, se ejecutaron las siguientes etapas:
74
[GiGA 3 / 2006]
multimedia Guión o Metodología de Manejo de Relaciones (RMM) Se inició con la elaboración de un guión para la multimedia, desde el cual se planificó la navegación por el contenido y la interacción con el usuario. Los principios fundamentales establecidos en el guión fueron: • Partir siempre de la pantalla Inicio. • Posibilitar fácilmente el cambio de una pantalla de contenido a otra. • Garantizar a todas las Galerías la opción de Ampliar, Guardar e Imprimir. • Ubicar los elementos que permiten la navegación de forma ergonómica y descodificable. • Procurar que la navegación se produzca siempre mediante los mismos elementos o con características de apariencia similar y funcione al interactuar con el usuario. • Ordenar la navegación de forma que responda claramente al contenido que se brinda en la multimedia.
Creación de la multimedia Para la compilación multimedia se utilizó el lenguaje LINGO del programa Macromedia Director MX 2004, cuya filosofía de trabajo está basada en la industria cinematográfica. El empleo de imágenes ocupó un amplio sector de la información contenida en éste. La causa fundamental radica en la amplia superioridad de los canales visuales en cuanto a captación de información. Sin embargo, en este caso, la especificidad del producto propuesto exigía doblemente la presencia de la imagen, por medio de la cual se mostraron más de 850 obras de arte pertenecientes a Europa, América y Cuba. • Digitalización de imágenes Fue un procedimiento que permitió convertir imágenes existentes en formatos no digitales (libros, catálogos, publicaciones periódicas) en información digital. Este trabajo constituyó un proceso de gran importancia, pues aspectos técnicos como la resolución de la imagen de salida definieron el software seleccionado. Finalmente, el programa utilizado para la digitalización de las imágenes fue MiraScan que permitió la obtención de imágenes digitalizadas a 400 dpi. • Tratamiento de imágenes Es el trabajo realizado con éstas en
función de prepararlas para su colocación en las pantallas de la multimedia. Su objetivo es corregir los indicadores de salida de la imagen y limpiar cualquier desecho del proceso de digitalización. Para ello se utilizó el programa Adobe Photoshop CS2 (8.0). Además se trabajó en los ajustes de las tonalidades cromáticas y en los posniveles de luz en las imágenes para lograr la correcta visualización. • Edición de sonido En el trabajo de la multimedia no hubo necesidad de proceder a la digitalización del sonido, pues se partió de una matriz originalmente soportada en bit. El sonido de la multimedia se editó con la aplicación de Sonic Foundry Sound Forge 8.0 y se optó por el formato loop para evitar los cortes bruscos en la banda.
Discusión y principales resultados Las indagaciones realizadas durante el desarrollo de la investigación para crear la multimedia, demostraron la carencia de un producto que respondiera a las exigencias didácticas de los medios de enseñanza y aprendizaje para la asignatura Apreciación del Arte. Las posibilidades que brinda el software por su diseño, elaboración y funcionalidad, permiten su uso en otras instituciones escolares, como por ejemplo, los Joven Club de Computación, los Institutos Superiores Pedagógicos y otros niveles de enseñanza. El producto diseñado se caracteriza por ser una entidad dinámica, ya que se visualiza, a la vez que se oye y se accede a los contenidos con el empleo del ratón. La multimedia se diseñó para ser estable y compatible con el mayor número de hardware posible. Además, su diseño permite por sus estructuras de ficheros XML, una fácil actualización y ampliación del contenido en el futuro. En el producto se logra una combinación de elementos que garantizan el dinamismo. Se conjugaron, por una parte, áreas perfectamente regulares distribuidas en virtud de su función y peso visual con matices y altas gradaciones del color gris. El efecto final fue un ambiente claro y atractivo, sin excesos, estridencias, ni monotonía.
Los textos fueron resueltos con la tipografía de la familia Verdana 12 px, con un tamaño medio y de fácil lectura, que se mantiene estable a lo largo de toda la aplicación para dar unidad entre sus elementos constituyentes y facilitar la comprensión. La multimedia contiene cinco temas musicales y uno de presentación. Los primeros pueden ser escuchados según la voluntad del usuario mediante la activación o desactivación del icono correspondiente, y responden a cada una de las áreas principales de contenido y la pantalla de inicio. El tema de presentación se escogió por considerarlo efectivo en la provocación de sensaciones expectantes y por sus cualidades rítmicas y dinámicas. Se diseñaron diez pantallas que visualizan los contenidos y opciones básicas de la aplicación: • Pantalla de Presentación
Es una animación diseñada a partir de una imagen de fondo que representa un reloj de arena. Se escoge este elemento para simbolizar el tiempo y, con él, su devenir y la historia. Paralelamente aparecen por cada uno de los laterales de la pantalla, dos secuencias de imágenes del repertorio ideosimbólico de la multimedia. Los criterios de selección respondieron a un balance entre las tres latitudes incluidas en el producto: Europa, América y Cuba. Seis imágenes escultóricas abandonan su lugar de origen para cruzarse al centro de la pantalla y regresar a su ubicación original. Una vez concluida la secuencia, se hace un fade out y aparece el título del producto. El logotipo diseñado sugiere un ojo que deriva a una letra A para convertirse luego, por el desplazamiento de su sombra, en una alusión al reloj de arena. Del logo se desprende el título completo del producto y la presentación termina con [GiGA 3 / 2006]
75
multimedia un último fade out para dar paso a la pantalla principal. La música utilizada dura los 22 segundos de la presentación que pertenece al compositor Jean Michel Jarre y responde a esquemas rítmicos in crescendo y bases armónicas sencillas. • Pantalla de Inicio
de los botones principales. En el lateral izquierdo aparecen sucesivamente Sistema-Forma, Semiótico, Icónico y Hermenéutico que son los cuatro enfoques que se presentan en la multimedia. En la parte superior, entre el área de identificación de la multimedia y el de texto, se reubican los botones de contenido principal que antes estuvieron a la izquierda, sin incluir el que está activo, en este caso Enfoques. Una vez activada la pantalla, se carga por defecto, el primero de los contenidos, en este caso SistemaForma. El usuario podrá desplazarse por el texto según sus necesidades de aprendizaje o pasar a la próxima ventana cuando lo haya decidido. • Pantalla de Contenido: Europa
Es el punto de partida para la organización de la información, gracias a ella el usuario puede acceder a las distintas áreas del producto. La imagen que caracteriza el entorno es un montaje de las tres obras representativas de las principales áreas de contenido: La Danza, de Henri Matisse, Antropofagia, de Tarsila do Amaral y La Jungla, de Wifredo Lam. En el lateral izquierdo de la pantalla aparecen los botones referidos a Inicio, Enfoques, Europa, América y Cuba. Los cuatro últimos remiten a las áreas principales de contenido. Al centro de la pantalla está ubicada la etiqueta de presentación, un texto breve que introduce el producto, sus objetivos y principales atributos. A la derecha se definió un área para la recomendación de textos que el usuario puede visitar dentro de la multimedia. • Pantalla de Contenido: Enfoque
Es la primera pantalla de contenido que aparece. Cuando se carga, se produce un cambio en la ubicación
76
[GiGA 3 / 2006]
En el área intermedia entre la identificación del producto y el texto principal, aparecen los botones del menú principal no activos, en este caso están disponibles Enfoques, América y Cuba. En la inferior del lateral derecho está definida la Galería. Ésta área se destina a las imágenes de la multimedia y desde ella se pueden ejecutar cuatro funciones: desplazar las imágenes por medio de dos iconos indicadores de dirección (anterior y posterior), ampliarlas, guardar la imagen ampliada e imprimirla ampliada. Se ejecutan por la activación de los respectivos botones. Paralelamente a la ampliación, en el área de la Galería, se muestra la imagen siguiente, con la que podrán repetirse todas las operaciones antes descritas o pasar a la próxima. • Pantalla de Contenido: América
Es la segunda opción que aparece en el menú de la página principal. En el área superior derecha aparece como imagen de identificación: "La Danza", de Henri Matisse, obra perteneciente al Fauvismo, tendencia representativa de las vanguardias históricas del Viejo Continente, en la que se trabajan los escorzos con gran maestría y se nota una gran libertad del color. Su autor constituyó un paradigma para los posteriores movimientos de vanguardia. En el lateral izquierdo vuelve a aparecer el menú principal de la página. En el caso Europa está compuesto por los siguientes botones: Prehistoria, Antigüedad, Edad Media, Renacimiento-Barroco, Siglos XVIIIXIX, Primeras vanguardias y Últimas tendencias. A su vez estos botones se despliegan en submenús que agilizan la navegación del usuario y permiten una optimización del tiempo ante el producto. Algunos de estos submenús son Paleolítico y Neolítico; Egipto, Grecia y Roma; Románico y Gótico, entre otros.
Es la tercera opción del menú de la página principal y se identifica con la obra Antropofagia, de Tarsila do Amaral, símbolo del arte latinoamericano, matizado por la mezcla de lo más avanzado de las vanguardias europeas y la identidad latinoamericana. Esta obra refiere uno de los movimientos más importantes de la vanguardia latinoamericana y es verdaderamente representativa del mejor proceso creativo del Continente. El menú principal de la pantalla está integrado por los siguientes botones: América precolombina, América colonial y América republicana. Los submenús trabajados fueron: Zona de los Andes Centrales y Zona de Mesoamérica; Siglos XVIXVIII, Siglo XIX y Siglo XX. Las opciones de Galería y Recomendamos se mantienen exactamente iguales en formato y navegación, pero ajustadas al tema latinoamericano. Los botones del menú principal disponibles en la parte superior
multimedia son Enfoque, Europa y Cuba. • Pantalla de Contenido: Cuba
Es la última opción de contenido del menú de la página principal y se identifica con La jungla de Wifredo Lam, obra emblemática del más trascendental de todos los artistas cubanos. Tanto el autor como la obra remiten a un entorno colmado de sincretismos culturales que expresan ineludiblemente la realidad cubana. En el lateral izquierdo aparece nuevamente el menú principal de la pantalla, en este caso conformado por: Cuba precolombina, Cuba colonial, Cuba republicana y Cuba revolucionaria. Algunos de los submenús trabajados en esta área fueron: Academia, Primeras vanguardias, Segundas vanguardias, 1959-1980 y 1981-2004. Los menús disponibles son Enfoques, Europa y América. El resto de las opciones se mantiene idéntico a las pantallas anteriores, pero ajustadas al tema Cuba. Dentro de las pantallas de contenido se establecieron hipervínculos o links hacia otros documentos previstos en otras áreas. • Pantalla Complementaria: Buscar
La pantalla Buscar permite al usuario entrar una palabra en la multimedia y que el programa le devuelva todos los artículos o imágenes, según preferencia del usuario, en los que aparezca dicha palabra. La búsqueda
puede ser combinada o indistinta y siempre quedará circunscripta a los contenidos contemplados en el producto. • Pantalla Complementaria: Contactos
La pantalla Contactos brinda al usuario las direcciones electrónicas y postales de los miembros del equipo de realización de la multimedia. Su propósito es facilitar el intercambio con ellos y propiciar la necesaria retroalimentación del proceso. • Pantalla Complementaria: Créditos
La pantalla de Créditos muestra los datos generales del equipo de realización de la multimedia y las funciones fundamentales desempeñadas por cada uno de sus miembros. • Pantalla Complementaria: Ampliar imagen
La pantalla Ampliar imagen se carga como resultado de la activación del botón Ampliar, insertado encima de la imagen mostrada en
Galería. De manera indistinta, el usuario podrá desplazarse por ésta y/o seleccionar la imagen deseada para ser observada a mayor escala en el espacio de texto, con su correspondiente identificación: título, autor y, de ser necesario, la tendencia artística y el país, en el mismo lugar donde antes estuvo la referencia principal del texto. En las cuatro pantallas complementarias los ambientes son homogéneos entre sí y mantienen los mismos principios de navegación que el resto de la multimedia. Buscar, Contactos y Créditos forman parte del menú de la pantalla principal del producto. Mientras que Ampliar aparece sólo dentro de las pantallas de contenido Europa, América y Cuba. Además de los elementos antes descritos se diseñaron tres iconos que constituyen una puerta simbólica hacia una opción o una aplicación. El icono de aplicación es el que representa el título multimedia en el sistema operativo y está simbolizado por el logo de ésta. Los iconos de funciones complementarias -Desplazamientos, Cerrar y Sonido (on/off)- juegan un papel secundario en el trabajo con la aplicación, por ello son de pequeño tamaño. Su diseño se debe a los códigos de uso del sistema operativo Windows para una fácil identificación por parte del usuario medio. Con la colocación del cursor sobre la imagen cambian su tonalidad y es el signo para la posibilidad de realizar una acción.
Conclusiones La multimedia elaborada, por sus características en cuanto a diseño y montaje, puede ser un instrumento valioso en manos de profesores y estudiantes interesados en los estudios de la historia y la apreciación del arte. Los resultados obtenidos a partir de su introducción en el proceso de enseñanza-aprendizaje de la asignatura Apreciación del Arte, permitieron en un primer acercamiento, realizar valoraciones favorables acerca de la factibilidad para contribuir de manera satisfactoria a la apropiación de los contenidos de esta asignatura. [GiGA 3 / 2006]
77
Consejos para un mejor escaneado.
L
a resolución, los píxeles, el interpolado y el formato son algunos de los parámetros que permiten lograr una buena copia digital de las imágenes. ¿Cómo obtener la calidad óptima para digitalizar imágenes y textos sin tener problemas? Escanear una imagen es un proceso para algunos complicado, pero para lograr un buen resultado hay que tener presente para qué se quiere escanear la misma y cual va a ser su uso. Con el uso de la tecnología digital, se nos ha hecho posible convertir gráficos, fotos y textos en formato impreso a imagen digital. La PC asume el resultado de este proceso y nos da lo posibilidad de enviarlas por correo electrónico, publicarlas en Internet, incluso de retocar y manipular éstas. Después de eligir el original los negativos darán mejor resultado que las fotos impresas en papel, pero para digitalizarlos se necesita un periférico especial: algunos fabricantes de escáneres lo ofrecen con la compra del equipo, y otros lo venden como un opcional. En todo caso, siempre es más caro escanear negativos que fotos en papel. Esta herramienta será esencial para hacer un archivo de alta calidad. Uno de los consejos más sencillos es que si se cuenta con un escáner de cama plana (los más populares), debe observar que en su vidrio no haya polvo o marcas de dedos. De lo contrario, serán registrados en la imagen digital; esto se aplica también a los negativos o diapositivas. Posteriormente en el programa de digitalización (el que viene con el escáner u otro que haya instalado) elija la opción Adquirir imagen, Buscar fuente TWAIN o similar. Allí aparecerá una ventana, que por lo general permite hacer una previsualización de lo que va a escanear. Es muy útil si va a digitalizar sólo una parte de una imagen: no tendrá que hacer cortes más tarde
78
[GiGA 3 / 2006]
y el escaneado será más rápido. Pero antes de presionar el botón que ordena al equipo comenzar a digitalizar, hay varios parámetros que convienen configurar para obtener un resultado óptimo. La resolución Primero, decida qué hará con la imagen: si es un negativo y quiere simplemente archivarlo, la mayor resolución óptica del escáner será la adecuada. Para verla en pantalla (en una página Web, como wallpaper, para mandar por correo), aquí debe pensar en términos de píxeles: si tiene configurado Windows para que trabaje a 800 x 600 y quiere que la imagen ocupe todo el fondo de la pantalla, ésa será la resolución en la que tendrá que escanear la foto. En general, se considera que un monitor de 15" a 800 x 600 tiene una resolución de 75 dpi, que es lo que algunos programas de escaneo recomiendan para imágenes que se verán en pantalla. Pero tenga en cuenta que en un monitor de otro tamaño o resolución se verá diferente. No olvide el espacio en disco que ocupa el archivo generado, es muy lindo poder identificar el anillo que tiene puesto un amigo en una foto en la que aparece con su equipo de fútbol, pero esa resolución (todos esos píxeles) tiene un costo en KB. Una imagen de 800 x 600 píxeles y 16 millones de colores, por ejemplo, ocupa unos 135 KB en formato JPG. Si piensa imprimir el archivo, puede indicarle a la máquina cuál es el tamaño de la imagen que quiere lograr para no tener que ajustarlo después. Típicamente, para una impresora de 600 ó 720 dpi (puntos por pulgada), la imagen será escaneada a una resolución de 120 a 240 dpi. Si su intención es digitalizar texto para hacer OCR (Optic Character Recognition, reconocimiento óptico de texto), lo mejor es escanear a 300
dpi, que es la resolución con la que trabaja la mayoría de estos programas. Y en blanco y negro, al OCR no le interesan los grises ni los colores. La resolución es la cantidad de muestras por pulgada expresada en puntos (dpi) o píxeles (ppi) que tendrá nuestra imagen. En fin, cuantas más muestras de una misma pulgada de imagen se tiene, mejor. Esto no siempre es así. Primero, por las limitaciones del original, una foto tiene su propia resolución y tomar más muestras de lo mismo no agregará detalles. Es muy poco lo que se logra escaneando en muy alta resolución una imagen de baja calidad, lo único que se hace es agrandar cada punto de la foto original. A la vez, si la imagen se va a pasar a papel, hay que tener en cuenta las limitaciones de la impresora. Sus dpi no son los mismos que los de la imagen, porque la primera necesita varios puntos de tinta para crear un punto de color de la foto. Los programas de escaneo tienden a imprimir las imágenes en su tamaño original, pero siguiendo una regla inversa: cuanto mayor es la resolución, más chica se imprime la foto. ¿Cómo es esto? Una imagen digital se compone de un número finito de píxeles. Si le pide a la impresora que incluya más de esos puntos por cada pulgada, el tamaño relativo de la imagen se achica. Por eso, si no está seguro del destino de la imagen, lo mejor es usar alta resolución. Siempre se puede reducir más tarde con un editor de imágenes. En cambio, si aumenta ese valor en la imagen digital, el resultado será dudoso. Los retoques. La mayoría de las interfaces de digitalización ofrece una escala, medida en porcentajes, que define el tamaño que tendrá la imagen digitalizada
cuando se imprima. Al 100%, la foto impresa tendrá la misma dimensión que el original; al 50% su medida será la mitad del original, etc. Para imprimir al doble de tamaño tendrá que escanear la imagen al doble de la resolución usual (algunos programas hacen esto automáticamente). Cuando se está digitalizando, la resolución refiere a la cantidad de muestras que toma el escáner (una foto de 4 pulgadas de ancho a 100 dpi crea una imagen de 400 píxeles horizontales). Al imprimir determina la distribución de los píxeles en el papel. Para agrandar una imagen en pantalla (aumentar la cantidad de píxeles) se usa el interpolado. Entre cada píxel original se agregan nuevos con el color del píxel original más cercano, con otros que tienen el color promedio de los dos píxeles que están a su lado (bilineal) o en las cuatro direcciones (bicúbico). El interpolado lo puede hacer el programa de edición o el escáner. Por eso se habla de resolución óptica (los puntos de color que realmente registran sus sensores) e interpolada (que aplica el periférico usando algoritmos). El interpolado no agrega detalle a la imagen. Recuerde: el dato que no se escaneó del original no puede ser restaurado por la computadora. Para digitalizar texto (hacer OCR) es indispensable ajustar el contraste,
para diferenciar el negro del texto del fondo del papel, y evitar que el software lo confunda con una palabra. Este control, junto a los de brillo y saturación de color, se aplica en el resto de las fotos: puede tratar una imagen después de que fue escaneada, pero un buen original será más flexible. En una imagen oscura se perderá detalle; si se la aclara más tarde se recuperará una parte, pero no toda. Es más simple y efectivo tomar una foto clara para oscurecerla (quitarle información) que hacer lo opuesto. El archivo. Las opciones para guardar la imagen son varias, pero las más populares son dos: usando el formato JPEG (.jpg) o el TIFF (.tif). Los archivos JPG comprimen muchísimo los datos de una imagen (ideal para enviarla por e-mail), pero usan un sistema que descarta información para lograrlo. Cada vez que abre el archivo y lo graba (en un editor de imágenes), pierde un poco de calidad, la imagen se corrompe. Esto se controla: la mayoría de los programas permite elegir la calidad que se desea para el archivo. La mayor calidad será más fiel a los atributos de la imagen, pero generará un archivo más grande. El formato TIF es el preferido en ambientes profesionales porque su método de compresión no descarta datos: no importa cuántas veces se edite la imagen, la calidad será la
misma. Su contra es que genera archivos de gran tamaño, aunque se evita usando la compresión LZW del formato. Si planea retocar una imagen, puede guardar el original como TIF, hacer una copia en JPG y editar esta última. Otro formato que está ganando adeptos es el PNG, desarrollado para reemplazar al GIF (que está limitado a 256 colores), porque ofrece buena compresión sin corromper la memoria digital. Cualquiera que sea su elección, debemos tener en cuenta como ya hemos dicho cual será el uso final de la imagen. Si queremos ésta para publicar en Internet o para simplemente enviarla por correo la resolución de la imagen debe ser baja, pues de lo contrario se vuelven pesadas y muy difícil de cargar en el caso de ser publicada en Internet. Si lo que se quiere es lograr una buena impresión, la resolución de la misma debe ser alta, pero debemos tener en cuenta el estado de la imagen inicial. Pero esto es algo que se puede remediar con los programas de tratamiento de imágenes. Así que si conjugamos conocimientos, hardware y software adecuados, podremos obtener no sólo una digitalización óptima de imagen y texto, sino un excelente resultado cualquiera que sea el destino final de este proceso. En próximas ediciones ampliaremos más sobre este periférico, sus aplicaciones y utilización.
www.cubasi.cu
Viaje a Cuba sin pasaje
A
pesar de que Cuba se insertó tardíamente en Internet, las publicaciones digitales de nuestro país tienen hoy una presencia respetable en la telaraña global de transmisión de datos. El portal Cubasí.cu, de la Unidad de Negocios Datos perteneciente a la Empresa de Telecomunicaciones de Cuba, ETECSA, así lo reafirma con más de 20 millones de visitantes que han navegado por el portal desde su aparición, el 17 de julio del 2001, hasta la fecha. Con un sólo click, el cibernauta foráneo podrá viajar nuestro país y encontrar en Cubasí un medio informativo con artículos de diversos temas ubicados en cinco canales: Actualidad, Cultura, Música, Multimedia y Guía de Cuba con secciones y subsecciones cada uno. Informaciones de salud, educación, deporte, cultura, artículos de opinión, entrevistas y reportajes se pueden encontrar en la dirección electrónica http://www.cubasi.cu/, gracias al esfuerzo de su redacción periodística. El proceso de inserción, edición y publicación de noticias se realiza con el novedoso Content Manager System administrador de noticias. Con esta plataforma de alta tecnología, única en el país, Cubasí ha logrado una mejor arquitectura de sus contenidos, mayor flexibilidad e inmediatez en la publicación, al tiempo que integra los tres medios masivos de comunicación: radio, televisión y prensa escrita. Una de las fortalezas del sitio es la posibilidad de estar hospedado en Infocom, uno de los proveedores nacionales de servicios de Internet de mayores potencialidades en Cuba, lo que le permite un mejor aprovecha-
miento de los recursos multimediales y que lo distingue del resto de los sitios cubanos. Esto ha permitido la publicación de entrevistas en videos a destacadas personalidades de la cultura nacional e internacional como los premio Nóbel José Saramago, Eve Bonafini, Rigoberta Menchú, Juan Madrid y Miguel Bonasso por sólo mencionar algunas. Esta ventaja facilita igualmente convertir temáticas como la música en contenidos de gran aceptación para los usuarios, así lo demuestran las entrevistas a conocidas figuras como X Alfonso, Frank Delgado, Gerardo Alfonso, David Torrens, Frank Fernández, Teresita Fernández y la cobertura realizada por Cubasí a la visita de Joaquín Sabina en ocasión de la presentación de su libro de sonetos en la pasada Feria del Libro cubana. Cuando los ciclones Dennis y Wilma, el lente de la cámara del portal grabó videos e imágenes que fueron publicadas de manera inmediata y que colocaron al sitio en los primeros lugares del buscador Google, sólo antecedido por la BBC. Habría que añadir, además, algunos servicios que ofrece el portal, que facilitan la difusión de los medios de prensa cubanos: Transmisión en vivo de las Mesas Redondas y descarga online de las emisiones de este programa en la semana, transmisión en tiempo real de las principales emisoras cubanas y la réplica en los servidores de Infocom de todos los medios digitales de los periódicos del país con subdominio Cubasí. Dos premios obtenidos en el Concurso Nacional de Periodismo 26 de Julio, de la UPEC, avalan el trabajo realizado por el sitio. Estos fueron La apuesta de Cuba, una entrevista que ofreció al portal el ingeniero Roberto
Santiesteban, director de la Unidad de Negocios Datos referente a Internet y los proyectos de conectividad social en Cuba, y el gráfico interactivo sobre el Clásico Mundial de Béisbol, una atractiva propuesta que incrementó notablemente los accesos de los usuarios al sitio. Como si fuera poco, hasta junio del presente año, el portal ha recibido 3 835 350 visitas, cifra que supera las recibidas de enero a diciembre en los años 2002 y 2004 y que confirma una intención editorial que trata de no perder de vista el hecho de que en Internet el cibernauta demanda de los medios una información cada vez más actualizada sobre aquello que le interesa. Reclama imágenes que se lo muestren, sonidos que se lo cuenten, textos que se lo expliquen. Y los reclama al instante de haberse producido el hecho. Colaboración de: Aday del Sol Reyes.
[GiGA 3 / 2006]
81
Vista hace fe… hablemos de monitores
E
l monitor es el principal dispositivo de salida de una PC, es decir, permite visualizar tanto la información introducida por el usuario como la devuelta por la computadora. La tecnología en este periférico ha evolucionado mucho desde la aparición de las computadoras personales con monitores de fósforo verde hasta los últimos modelos LCD y de plasma, pero de manera mucho más lenta que otros componentes, como pueden ser microprocesadores, placa base, etc. Las características de los monitores también han evolucionado según las nuevas necesidades de los usuarios, como ha sido el diseño asistido por ordenador (CAD/CAM) o el aumento del tiempo de estancia delante de la pantalla, que se ha solventado al aumentar su tamaño y la calidad de lo que se ve. Las compañías fabricantes de estos dispositivos investigan constantemente nuevas tecnologías que proporcionan al usuario condiciones de trabajo más confortables y con menos efectos negativos para la salud, sin descuidar algo muy de moda: el diseño. A continuación se hace un pequeño recuento de este importante dispositivo que tan esencial resulta para el éxito de cualquier trabajo.
Breve historia Desde la aparición de los primeros monitores hasta hoy , el avance de estos dispositivos no ha sido muy relevante si se compara con el resto de los componentes, como por ejemplo los microprocesadores, que evolucionan a una velocidad impensable. Es indudable que los monitores han evolucionado, pero aún es uno de los componentes que más tiempo permanece "actualizado" y siempre es compatible con las nuevas tecnologías. Por ejemplo, se puede colocar un moderno Pentium III© con un monitor monocromo usado para un 386, sin embargo
82
[GiGA 3 / 2006]
una tarjeta AGP no puede ser utilizada con una placa base que tenga más de un año. El modo CGA (320 x 200 y 4 colores) fue el utilizado con la aparición de las primeras PCs. y seguidamente surgió el modo EGA (640 x 350 y 16 colores). En la actualidad el estándar mínimo es el VGA, que ofrece una resolución de 640 x 480 y 16 colores. Luego, IBM propuso el modo XGA (65.536 colores a 640 x 480) y más tarde han aparecido el VGA+ o Super VGA que ofrecen resoluciones y colores superiores. Los fabricantes se han agrupado en la VESA (Video Electronics Standards Associations) para definir, entre otras cosas, la norma SVGA que ofrece una resolución de 1024 x 768 en 256 colores.
Monitor VGA
Hoy, con la aparición de las nuevas tarjetas gráficas AGP (Acelerated Graphic Port) es posible obtener resoluciones de hasta 1600 x 1200 y 16,7 millones de colores, siempre que el monitor esté preparado para ello y con unas frecuencias de barrido mucho más que aceptables.
Sus características En primer lugar se hablará de monitores de tubos de rayos catódicos, los más utilizados hoy. El aspecto exterior es muy similar en todos y constan básicamente de una pantalla, una carcasa y dos cables.
• La pantalla La pantalla es de fósforo y la calidad de la imagen depende principalmente del tubo de rayos del monitor y de los materiales que la componen. La resolución se mide en píxeles. Un píxel es la unidad mínima de información gráfica que se puede mostrar en pantalla, cuantos más píxeles haya, es mayor la resolución y ésta se encontrará íntimamente relacionada con las dimensiones del monitor, aunque no siempre se cumple esa condición. El tamaño de la pantalla en las PCs varía desde 14 pulgadas hasta 50 pulgadas de las diseñadas para aplicaciones específicas. Con independencia del tamaño de la pantalla, el ordenador puede presentar una resolución que varía desde los 640x480 píxeles hasta 1600x1200 en los monitores más avanzados. No todos permiten altas resoluciones. La resolución en píxeles viene determinada también por la tarjeta gráfica. En la memoria del ordenador cada punto de la pantalla está representado por cierto número de bits. De este número depende el de colores que pueden ser visualizados. La resolución del color varía desde los dos colores de los monitores monocromos hasta 16,7 millones de colores, que es la resolución fotográfica. Cuanto mayor sea el número de bits para representar los colores, mayor será la calidad de la imagen. Este parámetro también vendrá condicionado por la tarjeta gráfica. Un monitor de altas prestaciones no nos servirá de nada sin una buena tarjeta de vídeo. Además, los monitores de gama alta permiten regular muchos parámetros de la imagen, y llegar, incluso, a controlar la intensidad del color según su temperatura, por ejemplo 6000 k ó 9000 k, o también conocidos como colores fríos y colores calientes.
gen. El conector del cable de vídeo es estándar en todas las PCs.
La tecnología de la pantalla y del tubo de rayos es específica para cada fabricante, aunque todas están basadas en los mismos principios. Otro aspecto importante a tener en cuenta es el entrelazado. Ésta es una técnica que permite al monitor alcanzar mayores resoluciones refrescando el contenido de la pantalla en dos barridos en lugar de uno, pero tiene como desventaja el hecho de producir un efecto de parpadeo muy molesto, debido a que el tiempo de refresco no es lo suficientemente pequeño como para mantener el fósforo activo entre las dos pasadas, y esto es visible para el ojo humano. La frecuencia de barrido también es importante, consiste en la cantidad de veces que se refresca la pantalla por segundo y se mide en MHz. La frecuencia de sincronización vertical indica el número de imágenes completas presentadas en un segundo. Ésta suele ser del orden de 60 Hz o superior. El número de líneas visualizadas en un segundo corresponde a la frecuencia de sincronización horizontal. Las frecuencias de barrido horizontal y vertical son distintas. Las verticales tienen un valor superior, debido a que en las horizontales la visualización de la primera línea no se hace inmediatamente después de terminar la última. Cuanto mayor sea el valor de este parámetro es mejor, ya que permitirá mayores resoluciones, la imagen será más nítida y estable. Así, las frecuencias de barrido influyen
mucho en las prestaciones del monitor. Las pantallas más avanzadas suelen ser multifrecuencia, es decir, que ofrecen distintas frecuencias según la resolución en píxeles seleccionada por el usuario. También hay que tener en cuenta el tamaño del dot pitch o punto. Éste se define como la unidad mínima física que puede mostrarse en la pantalla. Cuanto menor sea este valor, mejor resolución se obtendrá. El tamaño normal del pitch es de 0.28 mm, aunque ya se consiguen 0.21 mm en monitores de gama alta. • La carcasa La carcasa se podría definir como la estructura externa del monitor, es decir, la que contiene al resto de los componentes. Está fabricada con materiales plásticos debido a sus conocidas características: son aislantes eléctricos y de la humedad, ligeros, bajo costo y de fácil moldeado. El color de la carcasa suele generalmente es blanco crudo, aunque también puede ser negro, o incluso de colores para los más atrevidos (por ejemplo el del nuevo Macintosh iMac). • Los cables Los cables de un monitor suelen ser dos, situados en la parte posterior de la carcasa. Uno de ellos es la alimentación, que puede tomarse de la torre de la PC o bien de la red eléctrica. El otro cable es el de vídeo, algo más grueso y además es estriado por fuera. Une la salida de la tarjeta de vídeo con el monitor y ello permite que se pueda ver la ima-
• Filtros y controles Cuando el tiempo de estancia delante del ordenador es de varias horas se hace necesaria la protección visual. La medida de protección más generalizada es el filtro que es como una sobrepantalla que se coloca delante del monitor y reduce al máximo las radiaciones que éste emite, puede constar de varias capas de cristales polarizados y separados por capas de gases nobles, pero éste no es el único método de protección. Algunas pantallas vienen equipadas con filtros incorporados y cristales tintados para la protección de la vista. La importancia de esta protección es notable y por ello existen en todo el mundo numerosas normativas de seguridad que regulan las radiaciones que emiten los monitores. Otro aspecto relevante son los controles de vídeo, con los cuales es posible ajustar parámetros de la imagen como el brillo, contraste, color, tamaño, posición, etc., así como la operación encendido/apagado. Pueden ser analógicos o digitales. Los controles digitales tienen la ventaja de que no se manipulan cuando el monitor está apagado, mientras los analógicos sí, lo que resulta cómodo a la hora de la limpieza o manejo del monitor. Los parámetros controlables dependerán de la marca y el modelo del monitor y se hallan integrados normalmente en la parte inferior delantera de la carcasa.
Monitores de cristal líquido (LCD)
Monitor de cristal líquido
Las primeras computadoras portátiles (notebooks) venían provistas de pantallas de rayos catódicos de pequeñas dimensiones, pero debían conectarse a una toma mural para poder funcionar y tenían el tamaño y el peso de una [GiGA 3 / 2006]
83
máquina de coser. Para que éstas se hicieran auténticamente portables fue necesaria la aparición de las pantallas de cristal líquido (LCD). Los primeros modelos eran monocromos y ofrecían una resolución muy limitada. Hoy, dos tecnologías se reparten el mercado: la matriz pasiva y la matriz activa. Esta última proporciona una calidad de imagen excepcional, pero su precio es aún muy elevado. Las pantallas de matriz activa son mucho más caras de fabricar, ya que una proporción muy alta de las producidas tiene algún defecto y es rechazada (más del 75%). Esa proporción aumenta rápidamente con el tamaño de las pantallas y por ello su resolución está limitada, por lo que en una portátil las resoluciones de pantalla serán mucho menores que en una computadora de sobremesa. Los monitores más modernos están fabricados con tecnología Dual Scan (DSTN) o TFT (Thin Film Transistor). Esta última es la más avanzada y permite mejores resoluciones y calidad de visión, aunque su precio es todavía muy elevado. Desde principios de 1998 se adopta la tecnología de pantallas para portátiles a las computadoras de sobremesa que conlleva un mayor ahorro de espacio y energía. El gran inconveniente es, además de su elevado costo, el tamaño de pantalla, ya que los mayores monitores de cristal líquido y tecnología TFT fabricados hoy son de 15", y el estándar es de 12,2", mientras que los monitores de sobremesa pueden llegar hasta 24". Es indudable que esta tecnología absorberá la mayor parte del mercado de los monitores en un futuro próximo, pero actualmente está lejos de alcanzar en los campos del diseño gráfico y el CAD/CAM, donde el tamaño de la pantalla es indispensable para una máxima productividad.
Pantallas táctiles Existen varias tecnologías para implementar los sistemas táctiles, cada una basada en diferentes fenómenos y con distintas aplicaciones. Los sistemas táctiles más importantes son: pantallas táctiles por infrarrojos, táctiles resistivas, pantallas táctiles y touchpad capacitivos y pantallas táctiles de onda acústica superficial (SAW). Infrarrojos Es el sistema más antiguo y fácil de entender. En los bordes de la pantalla, en su carcasa, existen unos emisores y receptores de infrarrojos. En un lado
84
[GiGA 3 / 2006]
Monitor Táctil
están los emisores y en el contrario los receptores. Existe una matriz de rayos infrarrojos vertical y horizontal. Al pulsar con el dedo o con cualquier objeto sobre la pantalla se interrumpe un haz infrarrojo vertical y otro horizontal. La computadora detecta qué rayos han sido interrumpidos, conoce de este modo dónde se ha pulsado y actúa en consecuencia. Este sistema tiene la ventaja de ser muy simple y de no oscurecer la pantalla, pero tiene claras desventajas: son caras y voluminosas, muy sensibles a la suciedad y pueden detectar fácilmente falsas pulsaciones (una mosca que se pose, por ejemplo). Pantallas táctiles resistivas Es un tipo muy usado. La pantalla táctil propiamente dicha está formada por dos capas de material conductor transparente, con cierta resistencia a la corriente eléctrica, y una separación entre las dos capas. Cuando se toca la capa exterior se produce un contacto entre las dos capas conductoras. Un sistema electrónico detecta el contacto y al medir la resistencia puede calcular el punto de contacto. Hay varios tipos de pantallas resistivas según el número de hilos conductores que usan: entre cuatro y ocho. Todas se basan en el mismo sistema. Las pantallas táctiles resistivas tienen la ventaja de poder ser usadas con cualquier objeto: el dedo, un lápiz, un dedo con guantes, etc. Son económicas, fiables y versátiles. Por el contrario al usar varias capas de material transparente sobre la propia pantalla se pierde bastante luminosidad. Por otro lado, el tratamiento conductor de la pantalla táctil es sensible a la luz ultravioleta, de forma que con el tiempo se degrada, pierde flexibilidad y transparencia. Pantallas táctiles capacitivas En éstas se añade una capa conductora al cristal del propio tubo. Se aplica una
tensión en cada una de las cuatro esquinas de la pantalla. Una capa que almacena cargas se sitúa sobre el cristal del monitor y cuando un usuario toca el monitor algunas cargas se transfieren al usuario, de forma que la carga en la capa capacitiva disminuye. Este decrecimiento se mide en los circuitos situados en cada esquina del monitor y el ordenador calcula, por la diferencia de carga entre cada esquina, el sitio concreto donde se tocó y envía la información al software de control de la pantalla táctil. La principal ventaja de este sistema es que, al tener menos capas sobre el monitor, la visibilidad de la pantalla mejora y la imagen es más clara. Pantallas táctiles de onda acústica superficial (SAW) Sobre la superficie del cristal se transmiten dos ondas acústicas inaudibles para el hombre. Una de las ondas se transmite horizontal y la otra verticalmente. Cada una se dispersa por la superficie de la pantalla y rebota en unos reflectores acústicos. Las ondas acústicas no se transmiten de forma continua, sino por trenes de impulsos. Dos detectores reciben las ondas, uno por cada eje. Se conoce el tiempo de propagación de cada onda acústica en cada trayecto. Cuando el usuario toca con su dedo la superficie de la pantalla, ésta absorbe una parte de la potencia acústica y atenúa la energía de la onda. El circuito controlador mide el momento en que recibe una onda atenuada y determina las coordenadas del punto de contacto. Además de las coordenadas X e Y, la tecnología SAW es capaz de detectar el eje Z, la profundidad, o la presión aproximada que se ha ejercido con el dedo, puesto que la atenuación será mayor cuanta más presión se ejerza.
Para terminar Está claro que el monitor es una parte muy importante en una PC, por ser el que normalmente proporciona los datos de salida. Como ya se ha dicho antes, la velocidad de evolución de estos dispositivos es muy inferior a la de otros y merece la pena analizar qué tipo de monitor escoger, pues es posible cambiar de computadora sin necesidad de cambiar éste. Además, con el paso del tiempo la vista lo agradecerá. Es indudable también tener presente qué uso se hará del monitor, porque sería infructuoso adquirir el mejor monitor para ponerlo en un servidor, en el que prácticamente no se usa. Por ello se debe elegir aquel cuyas características se adecuen a nuestras necesidades.
Ada Lovelace,
la primera programadora
A
da Lovelace, cuyo verdadero nombre es Augusta Ada Byron King, nació en Inglaterra el 18 de diciembre de 1815. Su historia es corta y significativa. Fue una mujer adelantada a su momento, imbuida por el influjo de las ideas clásicas de la sociedad victoriana de su tiempo y relegada a un segundo plano por ser mujer, pero que con el tiempo recibiría un gran reconocimiento por la labor que desplegó en el mundo de la informática. Conozcamos su historia. A muchos resulta común su apellido: Byron, y es que Ada es la única hija legítima del conocido poeta romántico Lord George Gordon Byron, del cual la alejó su madre quien no quería que su hija fuera una poetisa bohemia como el padre. A pesar de no haberse conocido en persona, padre e hija mantenían una intensa correspondencia. Lord Byron homenajeaba a Ada en su obra poética, por ello no es extraño encontrar su nombre entre las heroínas de sus escritos. Esto continuó así hasta la muerte de su padre en Grecia, cuando ella contaba sólo ocho años de edad. Ada se relaciona con el mundo de las ciencias por inclinación de la madre (Lord Byron la llamaba La Princesa del paralelogramo) y por el estatus social en que vivían: estar al día con el progreso era una señal de prestigio y poder, concepto que hiciera posible que mujeres pertenecientes a la llamada clase alta se dedicaran a estudios científicos. Recibió clases particulares de matemáticas y ciencias, especialmente de la rama de Astronomía. El 8 de julio de 1835 se casó con William King, octavo barón de King, nombrado más tarde Conde de Lovelace, y se convirtió en la Condesa de Lovelace, conocida luego como Lady Ada Lovelace. King era un hombre débil al que Ada superaba en inteligencia, pero que la apoyó y ayudó en todo momento. Su primer contacto con las máquinas en 1833 fue gracias al desarrollo de su amistad con Charles Babage, matemático inglés y científico protoinformático a quien se atribuye la primera idea de concebir un ordenador, pues su máquina analítica funciona con el mismo principio que los ordenadores actuales. A Lady Lovelace se atribuye el desarrollo de las instrucciones para hacer cálculos
en una versión temprana del ordenador. Ada y Babbage conformaron un buen dúo de trabajo y ella escribió para él un programa que permitiría calcular los valores de los números de Bernouilli. No obstante, la labor de Ada siempre quedó relegada a un segundo plano y se le consideraba en ocasiones como simple transcriptora de las ideas de Babbage. Treinta años tuvieron que pasar para que se diera a conocer la identidad de los trabajos de A.A.L y su labor ganara más valor, incluso, que el de Babbage. Babbage imaginaba una máquina capaz de interactuar con su operador, dotada de una memoria, unidad operativa, perforadora de tarjetas y una impresora, pero tenía dos puntos débiles: la mecánica y las tarjetas perforadas. Ada consiguió solventar los errores más serios de su proyecto. Así publicó en 1843 una serie de documentos interesantes sobre la máquina de Babbage, su Ingenio Analítico (los ordenadores actuales tienen como precedente histórico esta Máquina Analítica, un artefacto mecánico para el cálculo que, por primera vez, almacenaba en una memoria una serie codificada de instrucciones y que hoy se entiende por programa) que quizás se hubiera hecho realidad mucho antes, de no haber sido por la temprana muerte de Ada. Babbage intentó construirla varias veces, pero sin éxito. Al final desistió. Ada fue previsora, y temiendo que censuraran su trabajo lo relegaran al olvido por el simple hecho de ser mujer, lo firmó únicamente con sus iniciales A.A.L. En 1843 escribió un artículo que comenzó como la traducción de unas notas del matemático italiano L.F. Menabrea en el que describía y analizaba la máquina analítica o de cálculo. Incluyó demostraciones de cómo calcular funciones trigonométricas que contuvieran variables y publicó también el primer programa con las instrucciones que la harían funcionar. Este artículo llegó a triplicar la longitud de las notas originales. Suyos son, además, conceptos como un conjunto de instrucciones que permiten que otras se repitan en un bucle o subrutina; también inventó una notación para describir los algoritmos de la máquina analítica, esto es, el primer lenguaje de programación. Es por
todo ello por lo que se le reconoce como la primera programadora de la historia. Sus ideas trascendieron y sirvieron como base un siglo más tarde al matemático también británico Alan M. Turing en 1937 y por John von Neumann en 1946, ambos considerados fundamentales en el desarrollo del ordenador tal y como se conoce hoy. Ada también conoció personalmente a personajes británicos relevantes de su época como Sir David Brewster (físico inventor del caleidoscopio), Charles Wheatstone (físico e inventor conocido especialmente por su trabajo en electricidad), Charles Dickens (novelista y autor entre otras obras de David Copperfield o Grandes esperanzas) y Michael Faraday (químico y físico inventor del motor eléctrico, el generador y el dinamo). Como primera mujer en el mundo de los ordenadores, Lovelace, la encantadora de los números, ocupa un espacio sensible en el cuadro de figuras históricas y demuestra que las mujeres y la informática siempre han mantenido una estrecha relación desde un principio, al desempeñar papeles decisivos y no una simple presencia testimonial. ADA es un lenguaje de programación derivado del Pascal, desarrollado en 1979 por encargo del Pentágono para los proyectos de software del Departamento de Defensa de EE.UU., y aunque son muchas las mujeres que han realizado grandes contribuciones a la informática, sólo Ada cuenta con un lenguaje de programación que lleva su nombre y es el primer reconocimiento a su labor tras su muerte. Ada Byron fue una mujer muy adelantada a su época que lamentablemente murió de cáncer a la temprana edad de 37 años. [GiGA 3 / 2006]
87
Doble clicK Apple desvela el nuevo Mac Pro
E
l nuevo Mac Pro: una estación de trabajo Quad (con cuádruple núcleo), equipada con dos procesadores de 64 bits del nuevo tipo Intel Xeon Dual-Core y que opera a una velocidad de hasta 3 GHz más una nueva arquitectura de sistema que ofrece hasta el doble de rendimiento que el anterior Power Mac G5 Quad es la presentación hecha por Apple. El Mac Pro incluye de manera estándar la tarjeta NVI-
DIA GeForce 7300 GT con 256 Mb de memoria de vídeo que permite trabajar con dos monitores simultáneamente y con el display Apple Cinema HD Display de 30 pulgadas, el cual posee una incomparable resolución de 2560 por 1600 píxeles y el Apple Cinema HD Display de 23 pulgadas con una resolución de 1920 por 1200 píxeles, ideales para editar contenido HDTV (High Definition Television)
Conciben teclado para jugar
S
e trata de un teclado que presenta como novedad un añadido especial con 40 teclas para juegos del tipo First Person Shooter, admite conectarle otros periféricos gracias a dos puertos USB, teclas para una fácil navegación y un acceso rápido a Internet. Y entre otras curiosidades de este teclado se destaca un enorme botón que sirve para que podamos dejar caer cómodamente la mano sobre su diseño ergonómico y uno preparado para que al dejarlo pulsado nos permita hablar sin necesidad de pulsarlo otra vez.
Google no lanzará servicio de música online
E
n la conferencia más importante de la industria musical, la NARM (National Association of Recording Merchandisers), Google aseguró que no tiene planes de entrar en el negocio de las descargas de música online. Así finalizó los rumores sobre el posible lanzamiento de "Gtunes", un sitio para competir con el iTunes de Apple y aseguró no estar interesado en la venta de música. Dichos rumores corrían hace más de un año y cada vez eran más persistentes, sobre todo después de que la compañía lanzara su función para buscar música y anunciara un acuerdo con Sony BMG para ofrecer sus videos musicales por medio de Google Video.
Linux en las provincias habaneras: LiHab
E
l Grupo de Usuarios de GNU/Linux de las provincias habaneras, denominado LiHab, surge en el año 2001 como iniciativa de Roger Peña Escobio, actual administrador de la red de la Casa de las Américas, y José E. Blanco, administrador y desarrollador en la empresa Partagás, entre otras personas, con el objetivo de crear un espacio de reunión para los amantes de GNU/Linux y el software libre. Compuesto por usuarios del software libre para propósitos personales
88
[GiGA 3 / 2006]
y/o profesionales, el grupo tiene como objetivos promover el uso del software libre en Cuba por las empresas, organizaciones e individuos, así como brindar un espacio de reunión para los amantes del software libre. Para ello, LiHab realiza citas mensuales en las que se imparten conferencias y desarrollan paneles dirigidos a sus miembros y a todos los interesados en aprender acerca de GNU/Linux y el software libre. Estos encuentros se realizan el último sábado de cada mes, en su sede del
Palacio Central de Computación, de Centro Habana a las 9:30 am. El tema de cada cita se anuncia siempre con antelación por medio de la lista de correos linux-l (http://listas.softwarelibre.cu) y la entrada es libre para todos los interesados. Otras actividades realizadas lo constituyen la impartición de cursos de administración y operadores de máquinas que usan software libre, coordinación de festivales de instalación y encuentros con otras instituciones (Ej: UCI) y visitantes extranjeros. (Colaboración: Alfonso Alí)
Doble clicK Llegará generación de teléfonos informáticos
S
iemens planea el anuncio de una nueva línea de teléfonos de sobremesa que utiliza tecnologías más propias de la electrónica de consumo, y así se suma a la lista de fabricantes en combinar tecnologías de comunicaciones e informática en un teléfono fijo. Algunas de las
prestaciones de esta nueva línea de teléfonos de Siemens son similares a los anunciados recientemente por Avaya, con la inclusión de un puerto USB. Posee un adaptador Ethernet inalámbrico que se conecta al puerto USB de los nuevos teléfonos que permitirá se utilicen en entornos WiFi.
En Internet todos pueden pintar como los grandes
P
ara todos aquellos que alguna vez soñaron con pintar como Jackson Pollock, Picasso o Piet Mondrian, la red de redes dispone de varias páginas web con herramientas para conseguirlo. En JacksonPollock.com y con ayuda del mouse, se puede distribuir colores por la superficie de la pantalla con la famosa técnica "dripping" del artista estadounidense. En MrPicassoHead.com, aparecen elementos picassianos como narices, ojos y orejas, que igualmente se pueden trasladar a un lienzo: en pocos pasos se tiene un "Picasso" individual. Y en la
web de, Visual Communication Network, también con unos pocos clicks y un generador que funciona por azar, es posible confeccionar cuadros abstractos al estilo de Mondrian.
Desmienten e-mail con virus superdestructivo
S
e trata de un correo electrónico que se envió masivamente alertando al usuario a no abrir mensajes con el asunto "Invitation" ya que contenía el virus "Antorcha Olímpica", considerado el más destructivo de la historia porque eliminaba el sector cero del disco rígido. Sin embargo, sólo se trató de un HOAX, es decir, un mensaje engañoso a modo de
Yahoo presenta nuevo sistema de búsquedas
broma. El objetivo de estos correos, además de su carácter "chistoso", es crear una ola de pánico entre los internautas y que se genere una cadena masiva de reenvíos de emails para ocupar un ancho de banda innecesario. Así que, si te llega un correo con esa alerta, no hagas caso al mensaje y bórralo inmediatamente que no hay peligro alguno... al menos hasta ahora.
Y
ahoo! Search Builder brindará al usuario la posibilidad de elegir uno o más sitios Web de una lista para realizar búsquedas cruzadas y agregar el buscador a su propia página de Internet. Así, quienes posean un blog de, por ejemplo, fútbol, y se adhieran al servicio, tendrán un buscador en su Web que les dará resultados sobre ese deporte. Con la iniciativa, Yahoo pretende liderar el mercado de las búsquedas "sociales" que reciben este nombre porque son asistidas por personas que ya hallaron tales resultados.
Los virus no duermen
U
n estudio de Sophos revela que aunque el gusano Netsky-P, detectado en el año 2004, es aún el más extendido en el correo electrónico, sus cifras globales han caído de un correo infectado por cada 222, ya que los autores buscan otros métodos: atacan en menor escala con troyanos, introducen links trampa e intentan robar dinero e identidades. Sophos indica que este descenso puede malinterpretarse como que el correo electrónico es ahora más seguro, pero es un engaño, pues la realidad es que el número de amenazas crece a millares cada mes. Aunque hay menos virus y gusanos en el actual correo electrónico, los atacantes bombardean con mensajes que enlazan con sitios maliciosos donde se hallan los troyanos esperando a las víctimas inocentes. [GiGA 3 / 2006]
89
Doble clicK El arte electrónico se adapta al humor del espectador
L
a belleza puede ser algo muy subjetivo, pero los últimos trabajos artísticos electrónicos tienen sobre todo, que ver con el estado de ánimo del observador. Científicos estadounidenses y británicos han desarrollado trabajos artísticos que cambian teniendo en cuenta el humor de quien que los mira. Un software especial escoge las pistas faciales y adapta el color y los brochazos de la imagen digital. El programa analiza la imagen de
ocho expresiones faciales de manera que mientras cambian las emociones de quien lo observa, el trabajo artístico responde en consecuencia... pero en tiempo real. Según sus creadores, este tipo de pinturas empáticas sólo necesitan una PC y una cámara web para trabajar, y con un programa calibrado para la persona que admira la obra ya se está preparado para comenzar a recrear el arte personalizado basado en el estado de ánimo.
Los códigos maliciosos serán más difíciles de erradicar
L
a compañía de seguridad Kaspersky Lab anunció que debido al aumento en la complejidad de los troyanos, que aparecen ahora como archivos encriptados, las empresas de antivirus tendrán menos eficacia para reducir los efectos negativos producidos por estos códigos maliciosos. El informe pone de manifiesto la rápida evolución de las llaves públicas encriptadas empleadas por una familia de malware encriptado,
Gpcode, que pasó de emplear 56 a 660 bits. Llamado comúnmente "ransomware" (rescate de mercancía), los troyanos que encriptan ficheros de datos en una PC antes de pedir un pago a cambio de suministrar las llaves para abrir los archivos, llegan desde hace unos meses para convertirse en un problema mesurable.
Hacker advierte: "spywares" como regalos
C
aleb Sima, jefe de Tecnología de SPI Dynamic, advirtió durante su intervención en la conferencia de hackers Black Hat, del peligro que pueden acarrear los famosos feeds "RSS", y explicó que éstos podrían integrar códigos maliciosos que instalasen spywares u otros métodos para robar información clave de los usuarios. Es decir, los sistemas empleados para bajar feeds en formatos RSS o ATOM pue-
90
[GiGA 3 / 2006]
den ejecutar códigos "javascript" camuflados dentro del texto. El experto citó como ejemplo el hecho de que los lectores populares conviertan los caracteres como "<" en tags HTML, que permite inyectar código dentro de esos caracteres que será ejecutado por el lector inmediatamente. De esta manera, los hackers podrían invadir sitios para modificar los feeds o bien crearlos bajo nombres de sitios de confianza.
Más compactas sin CD... Adobe anuncia renovación radical de Flash Adobe, que en el 2005 compró a Flash, planea hacer grandes cambios al programa cuando se cumplen diez años de su creación y según información extraoficial, Adobe planea convertir a Flash en una plataforma versátil de desarrollo de aplicaciones para vídeo, dispositivos móviles y servicios en línea, ejecutables sin tener en cuenta el navegador o sistema operativo empleados.
A pesar de todo se aburren... Un sondeo realizado en Estados Unidos reveló que no obstante la multiplicación de medios, con Internet a la cabeza, más los disímiles artefactos electrónicos con opciones para el entretenimiento, no han impedido que los adolescentes y jóvenes de ese país se aburran.
Censo medieval entra en Internet El registro público más antiguo del Reino Unido, el censo de hace 920 años conocido como Domesday Book, aparece ya en la red de redes, lo que permitirá a los usuarios hojear el archivo más grande y rico del país desde la comodidad de sus casas.
Pasan a la historia Windows 98 y Millennium Microsoft decidió que las versiones Windows 98 y Millennium no reciban más soporte técnico. El superpopular Windows 98 está instalado en unos 70 millones de PCs del mundo, muchas en países pobres, pero... ya no habrá nuevas actualizaciones para él... No obstante, la compañía anunció un nuevo SO para computadoras viejas y lo llamará Windows Fundamentals for Legacy PC.
Doble clicK Chips de radiofrecuencia en los pasaportes
E
n Estados Unidos se impulsa la integración en los pasaportes propios y de otros países de un chip que puede ser leído por radiofrecuencia, y que según afirman algunas autoridades podría reducir las falsificaciones de documentos oficiales. Pero lo que se defiende como una mejora de seguridad puede suponer un nuevo problema, pues expertos investigadores demostraron que es posible clonar ese chip al duplicar la etiqueta de radiofre-
cuencia que almacena los datos del pasaporte. Si se establecieran procedimientos de identificación automáticos, en los que el viajero sólo tiene que pasar sus documentos por un lector para que éste le identifique, sería posible engañar a la máquina haciéndole leer un chip no original y hacerse pasar por otra persona. Las autoridades estadounidenses aseguran que eso no pasará, y que no se prevé que los controles de inmigración no los realicen personas.
Noticias de Microsoft
Más compactas sin CD... Japón, retoma el trono BlueGene/L de IBM ha reinado durante los dos últimos años en el mundo de las grandes computadoras, pero las tecnologías japonesas se disponen a retomar el liderato, según trascendidos que informan que el Instituto Riken de Yokohama desarrolló una nueva bestia de la computación, llamada MDGrape-3, con capacidad de cálculo de un petaflop por segundo... es la primera máquina en llegar a esa frontera.
Corrige 12 vulnerabilidades Durante el mes de agosto, Microsoft publicó su actualización mensual de Windows que en esta oportunidad subsanó 12 errores, de los cuales 10 corresponden a Windows XP, mientras que los demás afectan a los programas de Office y según trascendidos referidos por TechWeb, uno de los errores afecta a PowerPoint. Por ahora, la Gigante del Software no proporciona detalles sobre los demás errores y... todo hace pensar que los parches para Windows nunca terminarán. Por ejemplo, luego de las actualizaciones de junio y julio, hackers y compañías de seguridad informática descubrieron nuevos errores con mayor o menor nivel de gravedad.
Invitación para hackear Windows Vista El nuevo sistema operativo de Microsoft, Windows Vista, está colmado de procedimientos y funciones de seguridad y son tantas las funciones de seguridad y protección, que algunos usuarios de la versión Beta 2 reportan en diversos blogs que "en momentos, incluso, son una molestia". Uno de los elementos centrales del nuevo esquema de seguridad es la incorporación de distintos niveles de usuarios y también de permisos. Así se evita que usuarios inexpertos sean engañados por intrusos e inducidos a ejecutar malware o a desactivar funciones de seguridad. Microsoft exhortó en la conferencia Black Hat realizada en la ciudad estadounidense de Los Ángeles a "hackear y exponer todas las vulnerabilidades de Vista". En Black Hat se reúnen "hackers malignos", aunque también "los hackers bondadosos", calificados como "White Hat". Por ser la primera vez que Microsoft participa en estas conferencias, se puede interpretar como una señal de que se siente confiada en la seguridad y alta protección de Windows Vista.
Llama a actualizar urgentemente sus equipos Microsoft publicó una docena de actualizaciones que corrigen nueve fallas de seguridad calificadas como "críticas" y tres consideradas "importantes". Las vulnerabilidades "críticas" involucran a los programas Microsoft Windows, Internet Explorer, Outlook Express y Office. De los doce boletines, once previenen la ejecución remota de código arbitrario, que permitiría a un atacante tomar el control completo de un sistema, y el restante evita que un tercero consiga privilegios de administrador en forma no autorizada. Por su parte, las tres correcciones "importantes" consisten en un parche para Windows Explorer que repara un hueco para la ejecución de código remoto, otro para Microsoft Windows Hyperlink Object Library y el tercero para el núcleo o kernel, que permite la asignación no autorizada de privilegios.
AOL lanza un software antivirus gratuito La división de Internet de Time Warner, AOL, anunció el lanzamiento de un antivirus gratuito para usuarios online que proporciona análisis en tiempo real y actualizaciones cada hora. El nuevo software, llamado Active Virus Shield, está desarrollado por Kaspersky.
Ropa con conexión para iPod Levi Strauss llevará al mercado un modelo de pantalón vaquero especialmente diseñado para usarse junto con el reproductor de música portátil iPod. Viene con estuche y cable para el reproductor, incorporados en uno de los bolsillos laterales y control remoto en el más pequeño (el que está dentro del bolsillo derecho) para cambiar temas y volumen, pero la prenda no viene con el iPod, sino que se comprarán por separado.
Castigo por piratear la consola Xbox El propietario de una tienda de videojuegos en Los Ángeles fue condenado a seis meses de prisión domiciliaria por haber vendido versiones piratas de la popular consola de videojuegos Xbox de Microsoft... ¡Estos piratas del Siglo XXI! [GiGA 3 / 2006]
91
Y en esta Sección, como siempre, les traemos algunos consejos y atajos que sirven para que tu relación con la PC sea más provechosa y segura... ah, si para los usuarios con más experiencia resultaran muy fáciles entonces los invitamos a enviarnos aquellos "descubrimientos" que puedan ser útiles a todos. Siempre es útil contar con mayor espacio disponible en la pantalla. Así, cuando no necesites usar tu barra de tareas (la barra gris que se encuentra al pie de la pantalla), puedes mantenerla oculta, pero no te preocupes, ésta no desaparecerá para siempre, ya que cuando la necesites, sólo tendrás que llevar el cursor al área donde se encontraba y aparecerá nuevamente. Esa propiedad de ocultamiento automático se encuentra en la mayoría de las versiones de Windows. ¿Cómo hacerlo? a) Da click con el botón derecho del mouse en un área de la barra de tareas que se encuentre "en blanco", es decir, sin ningún icono. b) Se desplegará un menú. Da click con el botón izquierdo en "Propiedades" (Properties) o "Personalizar". c) Abierta esta opción, ve a la solapa "Opciones de la barra de tareas", selecciona el recuadro de ocultamiento automático y clickea "Aceptar". Esta es una tarea muy simple. Y si estuvieras navegando por Internet, también podrías activar el autocultamiento del menú de Internet Explorer, que se encuentra arriba de la pantalla, y navegarías a pantalla completa (full screen). Para lograrlo: a) Con Internet Explorer abierto, presiona F11 para maximizarlo. b) Da click en un área en blanco de la barra de menú. c) Marca la opción de ocultamiento automático. Cuándo necesites usar la barra de menú, sólo deberás mover el cursor hacia la parte superior de la pantalla, donde la barra debería estar, y reaparecerá automáticamente. Para lograr que lo que se ocultó vuelva a mostrarse siempre, simplemente recorre el camino inverso, y elimina la marca que colocaste para seleccionar las opciones de ocultamiento automático.
Cómo evitar que la PC se cuelgue Aquí traemos un paso fundamental
92
[GiGA 3 / 2006]
para evitar los frecuentes e irritantes "cuelgues" de las computadoras, pues en algún que otro momento, todos nos hemos encontrado con frecuencia con esos odiosos "cuelgues" en los que la pantalla se congela y todo deja de funcionar. Los expertos en ordenadores afirman que una buena manera de prevenir muchos de estos incidentes es cerciorarse de que el disco duro tenga un espacio libre igual o mayor a dos veces la cantidad de memoria RAM. Por ejemplo, si tienes una RAM de 128 Mb, deberás mantener un mínimo de 256 Mb de espacio libre en el disco duro. Esto se justifica por el hecho de que todo se almacena en la memoria RAM. Pero si tienes más datos de los que se pueden mantener en la RAM, ésta escribirá temporalmente esos datos extras en el disco duro. Pero, si haces algo que sea necesario que la PC guarde en el disco rígido, es decir, una cantidad de datos superior al espacio que tiene disponible, algo tendrá que suceder… Ocurrirá exactamente... Uno de esos irritantes "cuelgues" de la máquina. Primero chequea la cantidad de Memoria RAM que tiene tu máquina: a) Da click con el botón izquierdo del mouse en el icono "Mi PC" dentro del Escritorio y elige "Propiedades" dentro del menú que aparece cuando se da click con el botón derecho sobre un área blanca. b) En la ventana "Propiedades del Sistema", da click en la solapa "Rendimiento". c) La cantidad de memoria RAM que tienes se podrá ver en esa pantalla. Y para saber cuánto espacio libre tienes en el disco duro: a) Da click en el icono "Mi PC", elige la opción "Propiedades" haciendo un click con el botón derecho sobre el icono "C". b) Dentro de la opción "General", se te indicará qué cantidad de espacio tienes ocupado y qué cantidad libre. Si no tienes una cantidad de espacio libre por lo menos dos veces mayor que la cantidad de la RAM y experimentas dificultades frecuentes en la
computadora, podrías borrar los archivos y desinstalar programas innecesarios, hasta lograr que quede suficiente espacio libre en el disco duro y se alcance la proporción de dos o más veces mayor que los bytes de la memoria RAM. Si bien ésta no es la única causa por la que la computadora podría funcionar mal o lentamente, sí es una de las causas más frecuentes. Pero si colapsara tu disco duro... A pesar de que te lo habían advertido, siempre dejaste las tareas de backup para el día de mañana. ¿Quieres evitar esta situación desagradable (lamentablemente, tan común)?, aprende a confeccionar tu propio plan de back up.
Backup, el mejor amigo de tu disco duro... y de tu información Sólo es cuestión de tiempo para que experimentes algún problema con tu disco duro. ¿Estás preparado para perder tu información? Si tu disco duro colapsara en este momento, ¿cuál sería tu plan de acción? Generalmente, las personas piensan salvaguardar su información siempre después de experimentar un problema. Si te ocurre igual, te aconsejamos evites ser una víctima más de las desastrosas pérdidas de datos. Tu plan de integridad de datos deberá depender de: 1. La frecuencia con que hagas un backup de la información. 2. Qué información deseas resguardar. 3. Qué procedimiento de backup utilizarás. Es común que la frecuencia con que salvaguardarás tu información esté determinada por lo importante que consideres que es ésta. En cualquier caso, prueba haciéndote esta pregunta: "¿Si mi disco duro se rompiera ahora, me sería útil la información
del último backup que realicé?" Si la respuesta es negativa, deberías poner tus datos a salvo con más
frecuencia. Desde ya, tú querrás conservar toda tu información, pero, ¿podrías arreglarte con el último backup que efectuaste hace un mes? ¿Sería eso suficiente? Una vez que determines la frecuencia de realización de backup, márcalo en tu agenda y, por si acaso, programa tu computadora para que te lo recuerde. Asimismo, es aconsejable elegir algunas fechas importantes a modo de recordatorio para efectuar los backups. Por ejemplo, cumpleaños de seres queridos, aniversarios, fiestas patrias, etcétera.
El backup resguarda la información de tu disco duro El tipo de información a resguardar dependerá del uso que le des a tu PC. Algunos de los directorios claves, si utilizas Windows, son Mis Documentos, Favoritos, y los directorios de Escritorio. Recuerda que si empleas distintos usuarios en tu computadora, entonces los tres directorios recién mencionados serán diferentes para cada uno, y todos deberían ser resguardados. Además, es posible que quieras incluir tu información de correo electrónico. No te olvides de anotar la información relativa a las cuentas de e-mail que posees. En ese sentido, asegúrate de no perder los nombres de usuarios y las claves. Asimismo, emprende un recorrido por todos los directorios
de tu PC y verifica que no estés dejando nada de importancia sin resguardo. Confecciona una lista con todos los programas que estás utilizando. Si tienes los CDs originales, ubícalos en una locación segura. No te olvides de guardar los CDs que controlan los aparatos periféricos, como el escáner o la cámara digital. Además, al recoger estos CDs, podrías acordarte de otra información que necesite backup. Y si tienes aplicaciones o programas que has bajado de Internet, sería apropiado que los copies a un CD y los agregues a tu colección de información segura. En ese contexto, puedes guardar las descargas y aplicaciones en CDs según los bajas de Internet. El procedimiento que uses para hacer el backup de tu información puede estar determinado por la cantidad de datos que deseas resguardar. Si entraran en un CD o DVD, sólo debes copiarlos y habrás terminado. Pero, si la cantidad de información requiriera varios CDs o DVDs, tal vez desees emplear un segundo disco duro. Si no te sientes cómodo con la idea de agregar un segundo disco duro interno (o no cuentas con uno) o si estás usando una laptop, lo mejor para tus fines de resguardar información, de ser posible, será apoyarse en un disco duro externo. La información que tienes en tu computadora puede desaparecer en un abrir y cerrar de ojos. Y si no quieres gastar grandes cantidades en la recuperación de información, tómate un tiempo ahora para crear tu plan de backup. En el momento que tengas una emergencia de información, tu plan de acción será la mayor seguridad... Y si te mantienes apegado a ella, tus datos más valiosos siempre estarán a buen recaudo.
¿De dónde vienen los virus que atacan a tu PC? Para crear los virus no hace falta tener capacitación especial ni una genialidad significativa, sino conocimientos de algún lenguaje de programación, como por ejemplo: Ensamblador, C++, Delphi y Basic, entre otros, así como el conocimiento de algunos temas que no son difundidos para el público en general.
Los creadores de virus son los denominados hackers o crackers. Estos últimos pueden ser definidos como aquellos individuos que toman como propio el reto de penetrar y alterar los sistemas de información establecidos para imponer sus normas e intenciones más allá de cualquier restricción o legislación. Por su parte, los hackers entran a un sistema y en ocasiones se conforman con dejar un archivo o una nota de "aquí estuve", sin causar más daños y dejan sólo su huella digital. Ahora bien, a solicitud de nuestros lectores podemos sintetizar que el crackear se puede definir como las técnicas para desproteger programas que son usadas de forma ilegal, sin pagar licencias; adueñarse de conocimientos con fines de lucro o con daño intencional mediante el uso de virus informáticos. Son los piratas informáticos: roban información para su comercialización ilegal, replican software y desencriptan información para su beneficio económico. No existen virus benéficos, en ocasiones son escritos como una broma, quizá para irritar a la gente desplegando algunos mensajes humorísticos. En estos casos, el virus no es más que una molestia. Pero se dice que los virus son creados especialmente por estudiantes de Informática, con el sólo fin erróneo de probar que son los mejores programadores. Se les califica como carentes de moral, en busca de notoriedad pública, pero también son fruto de las empresas que fabrican antivirus en su afán de manipular el mercado de éstos. La gran mayoría de los creadores de virus lo ven como un entretenimiento o diversión absurda, aunque también existen otros que usan los virus como medio de difusión de sus quejas o ideas radicales. ¿Que cómo se reproducen? Los virus se reproducen a sí mismos. Una vez activados dentro el sistema, se pueden copiar a sí mismo e infectar otros archivos o discos a medida que el usuario acceda a ellos. Se reproducen naturalmente. Y para terminar te recordamos algo que GiGA ya te dijo: un virus bien diseñado se reproducirá por un largo tiempo antes de activarse, lo cual permite que se disemine por todos lados. [GiGA 3 / 2006]
93
Hola giganautas... Y pensamos que el remedio fue "mejor" que la enfermedad... así como le decimos, pues en el número anterior comentamos sobre la cantidad de cartas que recibimos de ustedes, que no se cuentan por miles, y de pronto se han llenado nuestros buzones de correos y también las mesas con las tradicionales de sobre y sellos, que cariñosamente llamamos "vivitas y coleando": toda una gran prueba de que nos leen, nos quieren y nos tienen en cuenta. Pues manos a la obra...
Windows no se queda atrás El lector es Dairys o Daeris (no está clara la firma), de Cruces, en Cienfuegos, y nos habla de las características de su PC (aparte de que él tiene 24 años, es bajito, trigueño, de piel blanca, ojos pardos, colecciona GiGA... y quiere amigos). Mira, no pensamos que Windows esté llamado a desaparecer por ahora, aunque Linux presente ventajas por su código abierto. Y acerca de los antivirus, imagínate, existen diversos criterios... algunos prefieren Norton, otros el NOD 32, y así... Pero todos, como el Mcafee te van a pedir siempre licencia para actualización, para ello, si no tienes Internet ni licencia, tendrás que buscar alguien que te ayude en ese sentido... o contactar a los compañeros de Segurmática. Concursos no tenemos programados por ahora, pero siempre avisamos con tiempo.
Persisten los linuxeros "Soy un asiduo lector de la revista y me gustaría que tocaran más el asunto del GNU/Linux... con el fin de integrarnos en el proceso de migración...". Es el lector Ariel Hernández Amador, estudiante de Cibernética. En realidad tratamos de satisfacer a todos, y como te brindas, igual te aceptamos y escribe del tema, aunque no ha estado ausente de nuestras páginas. La Sección Elemental W... como su nombre indica, habla de Windows, pero podemos "migrar también", y para nadie es secreto que casi todos trabajamos con el programa de las ventanas... pero ellas están abiertas para recibir al pingüino de Linux con una sonrisa... adelante, escribe.
Abraham Rodríguez: sin palabras "Mi nombre es Abraham Rodríguez Hanze, tengo 15 años y resido en el municipio de La Lisa. Creo que todo lector de GIGA tiene un compromiso con el colectivo, escribirles. Porque saben atrapar a los lectores con la forma tan particular de referirse a nosotros en la Sección de Cartas; hacen que cada persona se sienta como un integrante más del colectivo", así comienza su misiva este amigo y nos dice tantas cosas bonitas y reales que estamos convencidos de que eres uno de nuestros más
94
[GiGA 3 / 2006]
fieles y declarados lectores, o bueno, gigadeptos. Nos dejaste sin palabras, contentos y deudores. Llámanos por teléfono si no has recibido aún las respuestas que te enviamos. Y pensamos más, damos marcha atrás en el tiempo y enorgullece darse cuenta de que cuando nació GiGA tú sólo tenías 5 años... y ya hoy eres un giganauta. Gracias.
Los pinareños en punta La Empresa Pesquera Industrial de La Coloma (EPICOL) en la occidentalísima Pinar del Río, solicita suscripciones, y como es un tema que inquieren muchos lectores, le recordamos que para organismos estatales y centros de trabajo en general, están abiertas las suscripciones... para viabilizarlo, si no poseen alguna GiGA anterior, le sugerimos contacte con nuestros económicos por los números 204-7819 y 2047820... Hay para todos.
Yudelci habla de sus "trampitas" Yudelci Rodríguez, del municipio de Boyeros, quien obtuvo la revista gracias a que su compañero Denis, trabajador de ETECSA se la facilitó, nos brinda una serie de combinaciones y "trampitas" para resolver los dolores de cabeza con los passwords. Agradecemos tus ideas. Para lo de obtener la revista, pues con una visita de Denis, quien trabaja cerquita de aquí, podemos ayudarte, y por el aniversario 10, gracias amiga giganauta. Quedan muchas respuestas, por ejemplo, para Yasser González, amante de varias secciones de la revista, aunque prefiere Joystick (al igual que muchos otros jóvenes lectores); a Wilfredo Palma y Raciel Mérida de La Salud, en el municipio habanero de Quivicán que desean recibir la revista que también hablen con nuestros económicos... y a más amigos que son los imprescindibles para que estas dos columnas de intercambio amistoso y técnico siga siempre asegurando lazos de amistad, les decimos con el cariño de siempre, chao giganautas.
Colectivo de GiGA
A punta de Cursor... Por Norma Márquez González
Ocurre con las computadoras que cuando nos superidentificamos, puede que dejemos de ocuparnos del entorno. No se discute: sucede a todos. Y el otro día viendo un programa de TV en el que el conductor nos pone de lleno en la realidad, comprendí que la identidad con las PCs nos hace algo indiferentes. Sí, así: hoy he decidido hablar de cuando "sin querer" atiborramos la cabeza de quien nos rodea. Por ejemplo: abrimos un correo "cariñoso" de postalitas que dicen poco y gastan mucho espacio, se abre la imagen y sale una musiquita. Agradecidos miramos la "belleza" del mensaje, y si en ese momento nos separamos de la PC, entonces el encanto que llegó con la postal, dígase la melodía, se queda para el que se sienta cerca de nosotros y una y otra vez escuchará lo mismo... una y otra vez escuchará lo mismo... hasta que ocurra algo que rompa la letanía dejada a sus oídos. Este es un ejemplo poco común, pero hay otros que lo son más: el de poner música en nuestras bocinas y entretenernos en "nuestro" mundo. Señores... abramos los ojos y más las orejas: no somos el Principito de Saint Exupery: no tenemos cada uno un planeta. Y en medio de esta ciberrealidad, aunque ensimismados, estamos "en familia" y la música que uno oye quizás es tortura para otro... ¿sí o no? Y cuidado con los decibeles que se desprenden de "ciertos" audífonos..., eso no es música, es un ruidito que hasta cosquillas despierta... Existen las preferencias y no siempre coinciden. Y para este mal ¿cuál es la cura? Sencillo giganautas: escuchemos "dentro" de los órganos auditivos lo que cada cual quiera, sin estridencias y sin torturar a quienes nos quedan cerca. Este es un problema de delicadeza y educación... y es un mal, aunque de éstos no nos guste hablar en A Punta. Estas líneas son un alerta que si bien no es tema de computación, sirve para reflexionar acerca de que ellas soportan todo lo que les hagamos, pero quienes nos rodean, no son máquinas. Escriban y si coincidimos podemos escuchar una armonía que guste a ambos ¿qué les parece la Conga santiaguera sobre Micaela? Ya ven: creo que ésta gusta a todos, pero sin excesos... Nos vemos. Bibliografía: mimusica.com
¿Chistecitos sueltos? - ¿Cómo usa un elefante un ordenador? - Con mucha memoria y sin ratón. - ¿Cuál es la diferencia entre un hacker y un usuario típico? - Un usuario típico quiere comprar un ordenador más rápido para pasar menos tiempo con él. -¿Por qué para apagar Windows hay que ir al botón de Inicio? Puede que ocurra con algunas "ellas" y el soporte técnico :( ...................................... Caso 1 Ing. Sist.: ¿Qué computadora tiene? Usuaria: Una blanca. Ing. Sist.: ... (Silencio) Caso 2 Ing. Sist.: Haga click sobre el icono de Mi PC, a la izquierda de la pantalla. Usuaria: ¿Su izquierda o mi izquierda? Ing. Sist.: ... (Silencio) Caso 3 Ing. Sist.: ¿Qué ve en su monitor ahora mismo? Usuaria: Un osito de peluche que mi novio me compró. Ing. Sist.: ... (Silencio) Caso 4 Ing. Sist.: Ahora, pulse F8. Usuaria: No funciona. Ing. Sist.: ¿Qué hizo exactamente? Usuaria: Presionar la "F" 8 veces como me dijiste, pero no ocurre nada. Ing. Sist.: ... (Silencio) Caso 5 Ing. Sist.: Tu password es 'a' minúscula de andamio, V mayúscula de Víctor, el número 7. Usuaria: ¿Y el 7 en mayúscula o minúscula? Ing. Sist.: ... (Silencio)
• No pude soportar que mis amigas intercambiaran sus direcciones de e-mail como antaño lo hacían con las recetas de cocina. Y yo fuera del circuito. Así que, finalmente... ¡¡¡me compré la computadora!!! Y cambié: Chapar por chatear. La hernia de disco por el disco duro. El tic nervioso por el doble click. En lugar de engordar... me maximizo. Vivo pendiente de los e-mails que recibo. Padezco una compu-dependencia compulsiva, y mejoré la relación con mi nuera y con mi hijo. Con ellos me comunico por e-mail. Y: • Ya no corro el riesgo o el peligro de despertarlos con mis llamadas inoportunas. • No me entero si al leer el e-mail, mi nuera dice: "¡¡qué divina es tu mamá, nos mandó un mail, ya se lo estoy contestando!!", o dice: "De nuevo tu mamá manda un montón de tontos e-mails. Contéstaselos tú, ¡¡que para eso es tu mamita!!". Y si no me responden pronto, no me corto las venas ni los cables, tampoco se me cae la moral, sólo pienso que se les cayó el sistema... Solución del cruciGiGA
Caso 6 Usuaria: Tengo un grave problema. Un amigo me puso un protector de pantalla, pero cada vez que muevo el mouse desaparece... Ing. Sist.: ... (Silencio) ........................................... Pero los hombres tienen similitudes :) • Virus: También conocido como esposo molesto, cuando menos se espera, se instala y van apoderándose de todos los espacios. Si intentas desinstalarlo, vas a perder algunas cosas; si no lo intentas, pierdes todas. • Internet: de difícil acceso. • D.O.S.: Todas lo pidieron algún día, pero nadie lo quiere ahora. • RAM: Aquel que olvida todo apenas se desconecta. ........................................ Y no quedan fuera los chistes con las suegritas :) : ( La cibersuegra Aunque muchas han cambiado con la llegada de Internet... algunas ¡¡siguen como siempre!! Las suegras dicen: [GiGA 3 / 2006]
95
Elaborado por: Ene Eme Ge norma16@cmatriz.copextel.com.cu
HORIZONTALES 12. En este lugar a cerca de él. 13. E-mail que no se solicita y se considera poco ético o basura. 15. Preposición que denota lugar, tiempo o modo. 16. Sílaba de moroso. 17. Organización Básica Eléctrica. 19. Que no es virtual. 20. Infusión, pero es un arbusto del Extremo Oriente. 21. Forma de dativo y acusativo de segunda persona. 23. Símbolo del Sodio. 24. Vocal repetida. 25. Repetido es tonto. 26. Sílaba de Ontario. 27. La revista de nuestra Corporación. 28. Próximo, contiguo o que tiene afinidad con otra cosa. 29. Enroque en el ajedrez, el del lado del rey. 30. Aféresis de ahora. 33. Sílaba de tierra. 34. Apellido de pintor cubano fallecido en París en 1982. 35. Lo encontramos en software y también en hardware. 38. Por la cantidad de integrantes se les llama a los equipos de fútbol. 41. Artículo determinado femenino. 42. Mano grande. 44. Vocal repetida. 45. Consonantes de raíz. 46. De orar. 47. Nota musical. 48. Órgano externo de la audición. 49. Extraterrestre. 50. Conozco.
96
[GiGA 3 / 2006]
VERTICALES 1. Nombre del símbolo obligatorio en toda dirección de correo electrónico. 2. Nave. 3. Imagen en la pantalla que representa programa u otro recurso. 4. Del verbo ir. 5. Pronombre demostrativo y también de letra. 7. Sílaba de saeta. 8. Dueña. 9. Leí más de una vez.... muchos lo hacen con GiGA... :) 10. Lema de Copextel que dice es la Solución... 11. Navegador de Internet de origen noruego que resulta más eficiente y pequeño que Netscape Navigador y Explorer. 14. Lenguaje que emplean dos computadoras para comunicarse entre sí. 18. Gráfico que se inserta en una página web, generalmente con fines publicitarios. 22. Conjunto de programas, instituciones y reglas informáticas para realizar ciertas tareas en una computadora. 30. Sucesión continua de olas. 31. Librería Mundial Online que ofrece más de un millón de títulos por Internet. 32. Árboles a los que no se les puede pedir peras. 36. Última comida del día, pero invertida. 37. Se dice a los José, pero invertido. 39. Sílaba de nardos. 40. Eso no se toca, es... (sílaba que repetida se dice a los niños). 43. Metal precioso, se considera el mejor conductor de la corriente... 45. Sílaba de pectoral.