Director - Dr. Carlos Osvaldo Rodriguez Propietarios - Editorial Poulbert SRL. Responsable de Contenidos - Dr. Carlos Osvaldo Rodriguez Coordinacion Editorial - María Delia Cardenal - Carlos Rodriguez Senior Security Editor - Carlos Vaughn O Connor Departamento Comercial publicidad@revistanex.com Colaboran en esta edición Redacción - María Bouzzo - Gustavo Cardinal - Ariel Cortez - Georgina Cupolo - Julia Nuñez - Agustin Steve - Carlos Vaughn O Connor DISEÑO - Analía Arbarellos - Federico Arena - Stheven Florez Bello - Carlos Rodriguez Bontempi - Leandro Sani SUSCRIPCIONES suscripciones@revistanex.com PREIMPRESIÓN E IMPRESIÓN Talleres gráficos VALDEZ Loyola 1581. Cap. Fed. Tel 4854-3437 DISTRIBUCIÓN Distribución en Capital Federal y Gran Buenos Aires: Huesca Distribuidora de Publicaciones S.A. Aristóbulo del Valle 1556/58. C1295ADH - Capital Federal Argentina. (www.distribuidorahuesca.com.ar) Distribuidora en Interior: DGP Distribuidora General de Publicaciones S.A. Alvarado 2118/56 1290 Capital Federal - Argentina NEX IT Revista de Networking y Programación Registro de la propiedad Intelectual en trámite leg número 3038 ISSN 1668-5423 Dirección: Av. Corrientes 531 P 1 C1043AAF - Capital Federal Tel: +54 (11) 5031-2287
Queda prohibida la reproducción no autorizada total o parcial de los textos publicados, mapas, ilustraciones y gráficos incluidos en esta edición. La Dirección de esta publicación no se hace responsable de las opiniones en los artículos firmados, los mismos son responsabilidad de sus propios autores. Las notas publicadas en este medio no reemplazan la debida instrucción por parte de personas idóneas. La editorial no asume responsabilidad alguna por cualquier consecuencia, derivada de la fabricación, funcionamiento y/o utilización de los servicios y productos que se describen, analizan o publican.
Si desea escribir para nosotros, enviar un e-mail a: articulos@revistanex.com
50
#
NEX IT SPECIALIST - STAFF
E
l presente número fue realizado con las ganas y el esfuerzo de siempre pero con el agregado de una gran alegría extra. En realidad son dos grandes alegrías para el equipo de Nex, las cuales queremos compartir con ustedes, ya que en definitiva son quienes hicieron posible estos logros. En primer lugar, hemos alcanzado las cincuenta ediciones de la revista y, desde aquel periódico gratuito inicial hasta esta actualidad con la revista y algunos sitios Web que la complementan instalados, han pasado seis años y mucho trabajo. En segundo lugar, la revista Nex IT se hizo acreedora del Premio Sadosky a la Trayectoria Periodística 2008, otorgado por la Cámara de Empresas de Software y Servicios Informáticos. Los premios a la Inteligencia Argentina son fruto del reconocimiento de la industria para aquellas personas, instituciones, empresas o equipos de trabajo que con sus aportes, proyectos e iniciativas fortalecen y logran relevantes avances para el sector. Estos dos acontecimientos no solo nos llenan de orgullo y satisfacción sino que nos impulsan a seguir trabajando para ustedes, nuestros lectores, que nos han acompañado durante todo este tiempo y que son quienes han hecho que esto sea posible. De parte de todo el equipo de Nex entonces, un gran agradecimiento a nuestros lectores, anunciantes, y a la CESSI por habernos honrado con tan valiosa distinción. En la presente edición encontrará una completa reseña con la historia y los momentos más
EDITORIAL
importantes en la vida de Apple, la compañía que gracias al diseño y creación de espectaculares y vanguardistas dispositivos muchas veces ha logrado hipnotizar a sus usuarios, quienes le permiten pasar por alto acciones que a otras compañías no se le perdonan. Desde el garage donde Jobs y Wozniak dieron vida a la Apple I hasta las últimas actualizaciones para el iPhone 3G, analizamos y les contamos todas las polémicas y controversias que sustentan el mito de la manzana. Continuamos con la historia de Internet, ingresando ya en los años 80, una época en donde la evolución de la red de redes tomó un ritmo vertiginoso e imparable.
En la sección Innovadores podrá conocer la historia de Asa Dotzler, uno de los principales colaboradores de la Fundación Mozilla, así como también una serie de tips y claves para sacar el máximo provecho del popular navegador de código abierto. En Networking le contamos sobre la evolución del 3G hacia las conexiones de 4 generación, en Hardware, AMD lanzó su plataforma para portátiles Puma para competir con la Centrino 2 de Intel y análisis que ofrece cada una, y en Open Source le presentamos una interesante herramienta de Backups de código abierto, Bácula. Por último y debido a la recepción de varios pedidos de lectores, hemos habilitado una sección de Carta de Lectores para afianzar el feedback con ustedes y de la cual los invitamos a ser partícipes, enviando sus dudas, sugerencias e inquietudes. Los invitamos entonces a recorrer la NEX #50. No deje de contactarnos a redaccion@revistanex.com
ENTE DE CIRCULACION NETA PAGA
Impresion Formato Impreso: 20000 ejemplares Suscriptores promedio*: 12000 Venta Neta Paga promedio**: 8000 Readership: 3,5
NEX IT SPECIALIST |3|
edición #50 NOTA DE TAPA Apple: ihypnotized you
( #32 )
La compañía es un icono de la tecnología, el diseño y la innovación, sin embargo sus prácticas siempre polémicas la colocan en la posición opuesta a las nuevas tendencias que dominan en la tecnología de hoy. ¿Podrá Apple mantener su status de marca más admirada del mundo a pesar de ir contra las tendencias colaborativas, comunitarias y abiertas?
NOTAS DESTACADAS La hora de las Netbooks
( #12 )
Sin dudas, estas pequeñas, económicas y portables computadoras, son uno de los fenómenos del 2008. Aquí les mostramos cuáles son, qué características ofrecen y a qué precio se consiguen las netbooks en Argentina y el resto de Latinoamérica.
Vislumbrando lo nuevo
( #38 )
La EmTech 2008 del MIT nos trae todos los años lo nuevo en materia tecnológica y analiza hacia dónde estamos yendo. Conozcamos un poco más lo que dentro de algunos años será moneda corriente.
Asa Dotlzer - El hombre que lleva en la sangre la libertad y la cooperación ( #66 ) “Hay que confiar en los voluntarios. El éxito radica en la colaboración. Cuanto más se involucren, mayor será la calidad del material que produzcan y mayor será el uso que le den al producto”. Lo dice Asa Dotzler, el Director de Desarrollo de Comunidades de Firefox, el 2º navegador más importante. |6| NEX IT SPECIALIST
Historia de Internet Década del ‘80 ( #43 ) Durante la década de 1980 Internet creció exponencialmente, una de las razones fueron las diversas innovaciones técnicas como computadoras y hardware que han hecho que la red de redes sea más accesible a las organizaciones, instituciones educativas y particulares, así como la creación de organizaciones que ayudaron a manejar la enorme comunidad que está ahora en Internet. Conozcamos entonces la tercera parte de la Historia de Internet.
WWW.REVISTANEX.COM
LA MEJOR REVISTA TÉCNICA EN ESPAÑOL
IT ( #60 )
E-learning 2.0: aulas sin paredes ni fronteras
Es una de las opciones que actualmente se utiliza con mayor frecuencia para atender las necesidades de educación continua. Constituye una propuesta de formación que contempla su implementación predominantemente mediante Internet, haciendo uso de sus servicios y herramientas.
( #64 )
Jimmy Wales en Argentina
Invitado por Wikimedia Argentina y por la Fundación Vía Libre, Jimmy Wales, fundador de Wikipedia y unos de los personajes más influyentes de la historia de Internet, se hizo presente en la Universidad de Belgrano para presentar la Academia de Wikipedia y, además, brindó una conferencia de prensa.
( #70 )
Hyper-V: La Nueva Tecnología de Virtualización
La virtualización de servidores se ha vuelto un tema sumamente importante para el mundo tecnológico, debido al gran potencial y los beneficios económicos que esto conlleva. Autor: Roberto Di'Lello
SEGURIDAD Bacula: Un sistema de Backups Libre y Robusto ( #20 ) Veremos las distintas características de Bacula, su estructura, funcionamiento y tipos de respaldo soportados.
Ekoparty 2008
( #26 )
Conozca lo que sucedió en una conferencia de nivel internacional con speakers extranjeros y locales, invitados de Latinoamérica y el mundo. Autor: Federico Nan y Emiliano Piscitelli
La seguridad del mail
( #28 )
En los albores de Internet era casi imposible imaginar un mundo dependiente de la tecnología. Hoy todo está conectado y gracias al e-mail. Autor: Sebastián Passarini
HARDWARE Intel Centrino 2 vs. AMD Puma
( #18 )
Analizamos a fondo lo que ofrece cada una de las nuevas plataformas portátiles de AMD e Intel.
EN CADA ISSUE NETWORKING ( #56 )
Entrando en la nueva era, sobrepasando 3G
Los continuos avances en las tecnologías móviles han encontrado su objetivo al ampliar su campo de acción, para ello nuevas herramientas surgen dando inicio a una nueva era. Autor: Ariel M. Liguori
La incomprensión de los nuevos modelos de Internet ( #40 ) Dos noticias que se conocieron semanas atrás pueden parecer distintas, pero comparten un dato en común: ambas reflejan la poco o ninguna comprensión de los nuevos fenómenos que se producen en Internet. Autor: Ricardo Goldberger
Eventos ( #8 ) // Noticias en el mundo del Software Libre ( #78 ) // Carta de lectores ( #80 ) // Breves ( #82 ) Un mundo unificado gracias a Cisco
( #52 )
En el marco de Cisco Networkers 2008 entrevistamos a Taylor Collyer Director de la Gerencia de Productos para la Unidad de Negocios de Comunicaciones Unificadas, quien nos plateó hacia dónde se dirige la empresa.
WWW.REVISTANEX.COM
NEX IT SPECIALIST |7|
EVENTOS Se entregaron los premios Sadosky La Cámara de Empresas de Software y Servicios Informáticos (CESSI) entregó los “Premios Sadosky 2008” en el Sheraton Hotel de la Ciudad de Buenos Aires, en el marco de su Cena de Gala anual. Los reconocimientos fueron para referentes en Recursos Humanos, Industria TI, Tecnología, Inversión y Prensa que contribuyen al desarrollo del sector IT local.
Los Premios Sadosky, nombrados así como homenaje a Manuel Sadosky, considerado el padre de la computación en la Argentina, fueron creados para distinguir y premiar a personas, instituciones, empresas o equipos de trabajo que con sus aportes, investigaciones, proyectos e iniciativas fortalecen a la industria y logran relevantes avances para el sector IT.
Con seis años de presencia en el mundo editorial, la Revista NEX IT se hizo acreedora del Premio a la Trayectoria Periodística por ser pionera en el tratamiento de la gran variedad de temas que hacen al mundo de las TICs.
Llevada a cabo en el Hotel Sheraton de Buenos Aires, la ceremonia de premiación contó con la presencia del Jefe de Gabinete de Ministros Sergio Massa, el ministro de Trabajo, Empleo y Seguridad Social, Carlos Tomada, el
ministro de Educación, Juan Carlos Tudesco y el ministro de Ciencia, Tecnología e Innovación Productiva, Lino Barañao. La edición 2008 estuvo integrada por 14 categorías diferentes vinculadas a las áreas de Recursos Humanos, Industria IT, Tecnología, Prensa e Inversión.
6° Exposición de Videojuegos Argentina Por sexto año consecutivo, más de 1500 personas asistieron a la exposición de videojuegos argentina (EVA) organizada por la Asociación de Desarrolladores de Videojuegos Argentina (ADVA), el 15 y 16 de noviembre en el Centro Cultural General San Martín. EVA tiene como objetivo generar un punto de encuentro entre los participantes y difundir los distintos aspectos del progreso del videojuego. Por esto hubo un ciclo de conferencias en los cuales se habló sobre programación, arte 2D y 3D, música y sonido, diseño de juegos y negocios, dictado por más altos exponentes de SONY e invitados de Es-
tados Unidos y México, entre otros. También se brindaron talleres y un showcase de juegos argentinos, donde los creadores mostraron sus proyectos antes de ser lanzados
Como todos los años, se llevó a cabo el Cisco Networkers, la conferencia anual donde los ingenieros de redes se reúnen para recibir entrenamiento técnico y educación de Cisco, como también para interactuar con otros profesionales de redes. Con 4 días completos, los asistentes pudieron presenciar los Techtorials, un entrenamiento in|8| NEX IT SPECIALIST
tensivo y especializado los cuales incluyeron principios de diseño, casos de estudio y mejores prácticas. Además al Technology Showcase para conocer las novedades del mundo de ICT y a las Sesiones de Tecnología las cuales cubrieron temas como tecnologías, arquitecturas, aplicaciones y detalles de solución de fallas para soluciones particulares.
FOTO: www.sxc.hu / Rodolfo Clix
El mundo del networking
WWW.REVISTANEX.COM
WWW.REVISTANEX.COM
NEX IT SPECIALIST |9|
mundonex.com yahoo guardará solo tres meses la información de sus usuarios
La versión 3.05 del navegador soluciona 8 agujeros de seguridad y modifica los derechos de los usuarios adaptándolos a los requerimientos de GNU. Esta acción de Mozilla se da tras varias críticas y pedidos de la comunidad de código abierto.
Se trata de una importante medida a favor de la privacidad de los usuarios ya que la compañía reducirá de 13 a 3 meses el tiempo en que conservará la información. Esta noticia se da en el marco de una amplia discusión entre las compañías y asociaciones que velan por la privacidad de los usuarios.
buenos Aires ya tiene su distrito tecnológico
Secunia PSI
Se encontrará ubicado en la zona sur de la ciudad, más precisamente en los barrios de Parque Patricios y Pompeya y ha sido pensado como un centro de desarrollo y fabricación de nuevas tecnologías.
Secunia PSI es un optimizador gratuito que permite hacer una verificación completa de todos los programas del sistema para localizar errores y agujeros de seguridad. Se trata de una herramienta realmente útil sobre todo si tenemos muchos programas instalados en nuestras computadoras y se recomienda ejecutarlo periódicamente.
WEb
Importante actualización en Firefox
SEGurIDAD
BUSINESS
oPEN SourCE
Conectando a la comunidad IT
VIDEoS
Asa Dotzler Conozca a Asa Dotzler, director de Desarrollo de Comunidades y una de las figuras mas importantes en la estructura de Mozilla Firefox, el popular navegador de código abierto que cuenta ya con más de 100 millones de usuarios.
|10| NEX IT SPECIALIST
WWW.REVISTANEX.COM WWW.NEXWEB.COM.AR
m
GENERAL
La La
hora
la
de las
Netbooks Sin dudas, estas pequeñas, económicas y portables computadoras, son uno de los fenómenos del 2008. A partir del éxito experimentado por la Eee PC de Asus todos los fabricantes decidieron lanzar su propia alternativa al nuevo mercado y hoy en la región ya se consiguen ocho modelos distintos. Aquí les mostramos cuáles son, qué características ofrecen y a qué precio se consiguen las netbooks en Argentina y el resto de Latinoamérica.
E
l 2008 será recordado por haber sido el año de la masificación de un nuevo dispositivo, las netbooks, las cuales ofrecen la posibilidad de estar conectados y acceder a herramientas de trabajo y estudio a bajo costo y a través de un equipo liviano y pequeño. Les contamos cuáles son los equipos que se consiguen en la región y las prestaciones que ofrecen.
Más pequeños y algo más básicos que las tradicionales laptops, los equipos ultraportátiles se caracterizan por tener pantallas que van de las 7 a las 10 pulgadas, procesadores de bajo consumo Intel Atom, o su variante del fabricante taiwanés Via. Si bien en un principio fueron equipos solo que permitían estar conectados y realizar algunas tareas básicas, con el paso de los meses los fabricantes se fueron superando y hoy es posible encontrar modelos muy económicos, muy pequeños y livianos pero que ofrecen casi todas las funcionalidades propias de los equipos más poderosos.
ACER ASPIRE ONE La ultraportátil de Acer pesa menos de un kilo y se destaca por su precio y su cuidado diseño. Personal ha decidido ofrecerla comercializarla para incrementar su negocio de conexiones de tercera generación móvil. cuenta con: Pantalla de 8.9 pulgadas.•Procesador Intel Atom a 1,6 GHz.•Memoria RAM de 512 MB ampliable hasta 1GB.•Se la puede conseguir con disco SSD de 8 GB o con disco duro de 80 GB.• Batería de 3 celdas, ampliable hasta 6 celdas.•No cuenta con Bluetooth. Precio: La compañía taiwanesa se destaca por su apuesta por los equipos económicos y la Aspire One no es la excepción. Se la consigue por un precio que arranca en los 550 dólares. Personal la ofrecerá con módulo 3G incorporado por unos 650 dólares.
|12| NEX IT SPECIALIST
WWW.REVISTANEX.COM
GENERAL HP HP MINI MINI NOTE NOTE 2133 2133 Esta netbook de HP se diferencia de la competencia por su robusto y cuidado diseño con carcasa de aluminio, y porque su capacidad de memoria y almacenamiento tiene poco que envidiarle a las laptops más poderosas. Sin embargo inexplicablemente su procesador es un Via C-7, y este es el punto más flojo de un muy buen equipo. cuenta con: Pantalla de 8.9 pulgadas.•Procesador Via C7 de entre 1 GHz y 1.6 GHz.•Pesa 1,27 kg.•Posee el 92 por ciento del tamaño de un teclado convencional.•Memoria RAM de entre 1 GB y 2 GB.•Disco de entre 120 GB y 160 GB.•Bluetooth.•Batería de 3 celdas ampliable a 6 celdas. Precio: Su rango de precios oscila entre los U$ 850 y los U$ 1.150 dependiendo de las especificaciones.
TOSHIBA TOSHIBA SATELLITE SATELLITE NB NB 105 105 La compañía japonesa acaba de lanzar este modelo en los principales mercados de la región como Argentina, Chile y México con un precio de alrededor de 800 dólares. cuenta con: Pantalla de 8.9 pulgadas.•Procesador Intel Atom a 1,6 GHz.•Disco de 120 GB.•Memoria RAM de 1 GB.•Sistema operativo Windows XP. Precio: Alrededor de los 800 dólares.
LG LG X110 X110 Comercializada en Argentina por Movistar se trata de la primer netbook con conectividad 3G de la región. Cuenta además con pantalla de 10 pulgadas y procesador Intel Atom. Buscando ampliar su oferta de conexiones 3G más allá del saturado mercado de los móviles, Movistar ha decidido apostar por esta netbook del fabricante coreano LG. cuenta con: Pantalla de 10 pulgadas. • Procesador Intel Atom a 1.6 GHz. • Memoria RAM de 1 GB. • Disco de 80 GB.•Pesa 1,19 kg. • Batería de 3 celdas. • Conectividad 3G y la posibilidad de agregarle un módulo GPS. Precio: Movistar las comercializará en Argentina por U$ 660 con planes de banda ancha móvil.
|14| NEX IT SPECIALIST
WWW.REVISTANEX.COM
GENERAL DELL MINI MINI INSPIRON INSPIRON 9 9 DELL Excelente alternativa de Dell para el sector de las netbooks, la Mini Inspiron cuenta con una buena batería, un gran diseño y pesa apenas un kilo. cuenta con: Pantalla de 8.9 pulgadas.•Procesador Intel Atom a 1,6 GHz.•Memoria de 512 MB o 1 GB.•Disco SSD de 8 GB o de 16 GB.•Windows XP. •Batería de 4 celdas.•Se le puede agregar Bluetooth por 25 dólares más. Como es costumbre con los productos Dell, esta netbooks ofrece muchas posibilidades para personalizarla y customizarla de acuerdo a los gustos y necesidades de cada uno. Precio: Arranca en los 650 dólares para la configuración más básica.
ASUS ASUS EEE EEE PC PC 1000 1000 La Eee PC 1000 ofrece pantalla más grande, mayor capacidad de batería y almacenamiento que la primera versión de la Eee. cuenta con: Pantalla de 10 pulgadas•Procesador Intel Atom a 1.6 GHz.•Disco duro tradicional de 80 GB o SSD de 40 GB.•Memoria RAM de 2 GB.•Batería de 6 celdas que le otorgan una gran autonomía.•El modelo con disco duro pesa 1.45 kg. y se puede optar entre Linux o XP.•El modelo con SSD pesa 1.33 kg. y solo viene con Linux. Precio: Se la consigue a partir de los 750 dólares.
MSI MSI WIND WIND U100 U100 Netbook de excelente diseño, cuenta con pantalla de 10 pulgadas, teclado grande y cómodo y conectividad Bluetooth. cuenta con: Pantalla de 10 pulgadas. •Procesador Intel •Atom a 1.6 GHz.•Disco de 80 GB o 120 GB. Memoria RAM de 1 GB.•Bluetooth.•Pesa 1 kilo.•Batería de 3 celdas ampliable a 6 celdas. Precio: Se la consigue a partir de los 600 dólares para los equipos con Linux, batería de 3 celdas, sin Bluetooth y disco de 80 GB, mientras que con Win XP, Bluetooth, batería de 6 celdas y disco de 120 GB se consigue por unos 780 dólares.
|16| NEX IT SPECIALIST
WWW.REVISTANEX.COM
BGH BGH e-Nova e-Nova N10 N10 Es la nueva netbook que ya se puede conseguir en el mercado argentino. Se la puede conseguir en dos modelos, aunque la única diferencia entre ellos es que uno cuenta con conectividad 3G y el otro no. La compañía de telefonía móvil Claro ha decidido incrementar su oferta de conexiones móviles de alta velocidad y como el mercado de telefonía celular se encuentra ya saturado, la respuesta lógica era comenzar a apostar por las netbooks. Claro ha decido ofrecer entonces este equipo de BGH. cuenta con: Procesador Intel Atom a 1,6 GHz. • Pantalla de 10 pulgadas. • Disco de 120 GB. • 1 GB de RAM. • SO Windows XP • Batería de 6 celdas • Peso de 1,4 kg. • No tiene Bluetooth Precio: Claro la comercializa por $1499 con modem 3G incluido, mientras que en cadenas de retail el modelo sin 3G se vende por $2599.
LARGA VIDA AL XP El Windows XP es, junto a algunas distribuciones de Linux, el software más utilizado en las pequeñas portátiles que hoy están de moda, por lo que Microsoft se ha visto obligado a alargarle la vida a su popular sistema. Al tratarse de equipos pequeños, con procesadores de bajo consumo, no son capaces de soportar al Windows Vista, por lo que los fabricantes deben elegir entre alguna distribución Linux o el viejo y popular XP. De esta forma, Microsoft se ha visto obligado a alargarle la vida al XP en principio 6 meses más, hasta diciembre de 2008, pero aún no se sabe qué ocurrirá en 2009. Es que el segmento de las netbooks es uno de los de mayor crecimiento en la industria y obviamente Redmond no piensa quedarse fuera de este gran negocio.
CLAVES A TENER EN CUENTA A la hora de elegir una netbook es clave prestar especial atención a los siguientes ítems: 1)PROCESADOR: Intel Atom a 1,6 GHz es el estándar y se trata de la mejor alternativa que hay en el mercado. El Via C7 es inferior en calidad de trabajo, mientras que el nuevo Via Nano iguala e incluso en algunos aspectos supera al Atom. 2)MONITOR: Los de 7 pulgadas puede resultar excesivamente pequeños e incómodos para trabajar, los de 9 son buenos, mientras que los de 10 pulgadas ofrecen el balance ideal entre la ultraportabilidad y la calidad de imagen. 3)CONECTIVIDAD: Wi-Fi ofrecen todas, pero no todas vienen con conectividad Bluetooth y una minoría cuenta con la posibilidad de acceder a redes 3G. 4)MEMORIA: La mayoría de los modelos actuales cuenta con memoria RAM de 1 GB. 5)DISCO: La primera Eee PC contaba con unidad de almacenamiento SSD que no superaba los 16 GB y este era uno de los puntos flojos de todos los primeros modelos. Hoy se consiguen netbooks con discos rígidos de hasta 120 GB
ELEGIMOS Por calidad y cantidad de prestaciones y por su precio nos quedamos con la MSI Wind. Su pantalla de 10 pulgadas es el punto medio ideal entre conectividad se pueden ampliar hasta alcanzar el nivel de una máquina poderosa. Y se trata de una de las más económicas del mercado. La Eee PC 1000 también ofrece muy buenas características, mientras que los modelos de LG, BGH y Acer se destacan por su relacion costo-beneficio, ya que Movistar, Claro y Personal han decidido subvencionarlas, porque su interés pasa por colocar en el mercado la mayor cantidad de abonos de banda ancha móvil.
WWW.REVISTANEX.COM
NEX IT SPECIALIST |17|
HARDWARE
AMD Puma
Intel Centrino 2
Las nuevas plataformas para portátiles de AMD e Intel representan un paso adelante en la movilidad de los usuarios. Mejores prestaciones gráficas, rendimiento y ahorro de batería son algunas de las novedades de los nuevos productos. Aquí un análisis a fondo con lo que ofrece cada uno.
AmD SE DIVIDE buSCANDo rENTAbILIDAD Tras más de tres años de balances en rojo, la compañía continúa en la búsqueda de una rentabilidad duradera. Su última apuesta consiste en hacerse más pequeña y concentrada en determinadas actividades. La última novedad al respecto pasa por su división entre una compañía que diseñará los micro y otra que los fabricará. Así la fabricación quedará en manos de Foundry Company, una compañía creada por fondos provistos por AMD en conjunto con inversores provenientes de Emiratos Árabes. AMD espera que los inversionistas inyecten en los próximos años más de 5.000 millones de petrodólares al nuevo emprendimiento.
S
egún los últimos datos suministrados por IDC, en Estados Unidos ya se venden más laptops que computadoras de escritorio y esta tendencia en el corto plazo se trasladará a todos los mercados del mundo. Dentro del ámbito de las portátiles se han diferenciado dos grandes segmentos, por un lado las omnipresentes netbooks, de bajo costo y prestaciones limitadas y por otro las laptops poderosas que buscan trasladar a la movilidad todas las posibilidades que otorgan las desktops, en especial en lo que hace al aspecto gráfico y a la potencia de proceso. Si bien AMD se ha visto relegada desde hace tiempo por el liderazgo absoluto de Intel, sus nuevas plataformas para portátiles ofrecen un interesante nuevo capítulo en la pelea entre estos gigantes del hardware.
Puma: la gran apuesta de AMD Esta plataforma es sin dudas una de las evoluciones más importantes de los últimos años de aMD. Su principal característica es |18| NEX IT SPECIALIST
WWW.REVISTANEX.COM
HARDWARE que ofrece un sistema gráfico de gran desempeño en 3D, similar al que ofrecen las desktops más poderosas. La plataforma está formada por: • El corazón de la plataforma es el procesador turion 64 X2 Ultra, fabricado con 65 nanómetros, doble núcleo y 2 MB de cache L2. Uno de los puntos más positivos de este procesador es que permite regular de manera precisa la energía que se requiere para cada momento, gracias a la incorporación de tres planos de voltaje independientes. Dos se encargan de gestionar la energía suministrada a cada uno de los núcleos, mientras que el tercero hace lo propio con el bus Hypertransport 3.0. • chipset aMD 780g integrado, que cuenta además en su interior con la gPU ati Radeon HD 3200. Sin dudas la inclusión de la tarjeta de ATI le da un plus que aún no ha podido igualar Intel en materia gráfica. • ati PowerXpress es la tecnología que permite utilizar la tarjeta gráfica más potente cuando la máquina está conectada a la corriente y la tarjeta gráfica integrada cuando se está utilizando la batería a fin de estirar al máximo su duración.
Centrino 2, la evolución de la plataforma líder intel centrino 2, antes conocida con el nombre en clave Montevina, es la última plataforma para móviles lanzada por intel y si bien no ofrece grandes novedades sí se renovó lo suficiente como para seguir liderando de manera cómoda el mercado. Con respecto a sus antecesores Penryn, una de las principales novedades es el lanzamiento de seis nuevos procesadores, cinco Core 2 Duo y un nuevo Core 2 Extreme. Todos de 45 nanómetros, ofrecen importantes mejoras gracias al nuevo bus de 1.066 MHz. El chipset que incluye es el Mobile intel 45 Express, que viene con el módulo Intel WiFi Link 500 integrado, el cual es compatible con WiMAX, y cuenta además con tecnología Deep Power Down que minimiza el funcionamiento de los núcleos de procesador, |20| NEX IT SPECIALIST
ahorrando energía, y los hace compatibles con memorias DDR3.
permitirá a aMD pelear con mejores armas en este sector de mercado.
Esta es precisamente una de las oportunidades más interesantes que los centrino 2 ofrecen, ya que se trata de una apuesta a futuro, porque si bien por el momento dominan las memorias DDR2, sin dudas serán reemplazadas cuando las DDR3 disminuyan su precio.
Sector que debido al crecimiento de las computadoras portátiles en detrimento de las tradicionales de escritorio, no promete más grandes posibilidades a futuro.
El motor gráfico es el Intel gMa X4500, el cual ha sido presentado por la compañía como capaz de otorgar un rendimiento hasta tres veces mayor que su antecesor X3100. Si bien los centrino 2 ofrecen mejoras con respecto a los Penryn estas no son muy significativas y pasan más que nada por la disminución del consumo energético. En ese sentido se observa que el grueso del trabajo se ha centrado en reducir al máximo posible el consumo energético. Así, el de los primeros modelos rondará los 35 vatios, aunque habrá versiones específicas de 25, e incluso se habla de modelos de ultra bajo consumo con cifras inferiores a 10 vatios aunque está por confirmar.
CONCLUSIONES • La plataforma Puma se destaca por el gran rendimiento gráfico logrado gracias a la integración de un buen procesador con un chipset dotado con una de las tarjetas gráficas más poderosas del mercado. Lo que la hace ideal para quienes necesitan prestaciones gráficas superlativas como diseñadores, gamers o productores audiovisuales. • Sin embargo, si bien la plataforma centrino 2 es inferior a Puma en lo que hace a gráficos, posee un mejor procesador, menor consumo de batería y mayor disipación de calor que el producto de aMD. Por eso Puma significa una importante evolución por parte de aMD, que cada vez más apuesta a sacar ventaja de su alianza con ATI, uno de los mayores fabricantes de tarjetas gráficas del mundo. El excelente rendimiento de Puma, sumado a su agresiva política de precios, seguramente le
En el caso de Intel, aunque centrino 2 no ofrece cambios revolucionarios, las mejoras en rendimiento, procesador y bajo consumo sobre productos existentes, le alcanzan para seguir liderando cómodo el mercado de las plataformas de alto rendimiento y bajo consumo.
CorE I7 EL muLTI-CorE mÁS PoDEroSo Presentado como el mejor procesador para desktop del planeta, el Core i7 de Intel es el reemplazante del histórico Core Duo aparecido en 2006 y la respuesta de Intel frente a la Opteron Quad Core de AMD. Una de las particularidades que más destacan desde Intel es que el Core i7 es capaz de apagar alguno de sus cuatro núcleos y concentrar la energía en los que si son necesarios, gracias a su tecnología Turbo Boost, obteniendo en algunos casos velocidades de procesamiento hasta un 40 por ciento superiores a sus antecesores, en especial en lo que hace a edición de video y la visualización de juegos. Estos procesadores, antes conocidos con el nombre en clave de Nehalem deberán competir con los Opteron Quad Core de 45 nanómetros de AMD, los cuales ya ocupan un lugar muy importante en la estructura de algunas grandes empresas como Sun, Dell, HP o IBM que ya los utilizan en sus servidores. Dell acaba de lanzar en Latinoamérica una de las primeras computadoras en utilizar el Intel Core i7, la súper poderosa Dell Studio XPS. Está máquina, pensada para el ámbito profesional o los gammers más exigentes, cuenta con disco duro de hasta 1 TB, memoria RAM de hasta 12 GB, lectograbadora de Blu-Ray, sintonizador de TV, ocho puertos USB, gráficos NVIDIA o ATI y por supuesto procesador Intel Core i7. Esta espectacular máquina se consigue en Argentina a partir de los $5.999, en Chile a partir de los $990.000, en México a partir de los $18.990 y en Perú a partir de los $4.990.
WWW.REVISTANEX.COM
CorE I7: CuATro NÚCLEoS móVILES INTEL INVITA A CrEAr LA ComPuTADorA IDEAL Intel junto a Asus han lanzado una novedosa iniciativa mediante la cual se invita a todos los interesados a diseñar una laptop tradicional, una netbook y una laptop para gamers, de manera colaborativa, al mejor estilo Web 2.0. Los interesados pueden ingresar al sitio WePC. com, y comenzar a interactuar con personas de todo el mundo a fin de crear diseñar las nuevas computadoras. Una vez que estén listas, Intel y Asus serán los responsables de poner las ideas en práctica. La fabricación correrá por cuenta de Asus mientras que los equipos utilizarán procesadores Intel Centrino 2, para la laptop tradicional, Atom, para la netbook y Centrino 2 Extreme para la laptop para gamers.
WWW.REVISTANEX.COM
Para mediados de 2009 se esperan, los Intel Core i7 de cuatro núcleos, pensados especialmente para la movilidad. Fabricados en 45 nanómetros y basados en la arquitectura Nehalem, serán los primeros procesadores de cuatro núcleos de bajo consumo, adaptados para computadoras portátiles. Entre las mejoras con respecto a sus antecesores se espera que los Core i7 para portátiles, consuman hasta un 30 por ciento menos de energía.
NEX IT SPECIALIST |21|
OPEN SOURCE Autor: Emiliano Piscitelli Nantec Solutions
Un sistema de Backups Libre y Robusto
D
urante las Jornadas Regionales de Software Libre 2007 y 2008 (ver NEX #49), asistí a numerosas charlas de distintos proyectos, pero uno de los que más me interesó fue el de Bacula, un sistema completo de Backups. Fue así que casi por casualidad en el evento de seguridad Ekoparty (ver en esta NEX), me crucé con Víctor Hugo dos Santos, disertante de las charlas de Bacula en las Jornadas Regionales. En esta nota, el resultado directo del encuentro, vamos a ver las distintas características de Bacula, su estructura, funcionamiento y tipos de respaldo soportados, para cerrar con una entrevista realizada a Victor Hugo, que la verdad no tiene desperdicio.
¿Qué es Bacula? Bacula es un sistema de respaldo muy completo y robusto, una de las características más destacadas que se puede apreciar es su modularidad, ya que se encuentra dividido en diferentes módulos, los cuales realizan una tarea específica, permitiendo instalar cada uno de ellos en distintos servidores y estos a su vez pueden estar en distintas ubicaciones geográficas. Si a esto le sumamos que posee una licencia GPL (GNU General Public License), su adaptación a diferentes plataformas, su constante desarrollo y mantenimiento, podemos decir que Bacula es una de las mejores opciones a la hora de elegir un sistema de Backup.
Bacula está dividido en las siguientes partes: *-Bacula Director *-Bacula File (Cliente) *-Bacula Storage *-La Consola *-El Catálogo Bacula Director: Este servicio gestiona todas las operaciones de backup's, conoce los trabajos que se van a realizar, cuándo, dónde y cómo. Además se encarga de verificar y restaurar los ficheros que le solicitemos (ver figura 1). Bacula File (cliente): Este debe instalarse en todos los equipos que deseemos respaldar su información, básicamente está a disposición del Director, lee, transmite y en el caso que se requiera restaura los archivos que este le indique (ver figura 2).
Entendiendo su estructura y funcionamiento Como bien dice Víctor en sus diferentes charlas, cuesta solo 15 minutos comprender el funcionamiento del sistema gracias a la documentación y la estructura que presenta, no así para la configuración, ya que será tarea de cada uno de nosotros leer la basta documentación que se encuentra en su sitio oficial (www.bacula.org), para comprender de esta manera la terminología empleada y los diferentes comandos que nos proporciona. |22| NEX IT SPECIALIST
Figura 1 – Director WWW.REVISTANEX.COM
Bacula Storage: Este servicio es el encargado de gestionar la administración general de los archivos respecto a los volúmenes que se hayan definido: discos locales, grabadoras de CD o DVD, unidades de cinta, volúmenes NAS o SAN, autocargadores o librerías de cinta (ver figura 3). La consola: Este software se instala en los distintos equipos que se conectan al Director, de esta manera se le da órdenes para programar las distintas tareas, realizar consultas y otro tipo de tareas administrativas (ver figura 4). El catálogo: Dentro de éste es donde se encuentran registradas todas las operaciones que realiza el director (ver figura 5). Figura 2 – Cliente
WWW.REVISTANEX.COM
Funcionamiento Lo primero que se realiza es la definición de los distintos trabajos
Figura 3 – Storage
Figura 5 – Catàlogo
Figura 4 – Consola
Figura 6 – General NEX IT SPECIALIST |23|
OPEN SOURCE
Figura 7 – Efectos en cada uno de los tipos de respaldo a medida que van cambiando los datos
(jobs) en el Director (DIR), como así también su fecha y hora para ejecutarse, luego el Director se contacta con el primer Cliente (FD) definido, comprobando los distintos archivos estipulados, seguido a esto los distintos Clientes empezarán a enviar los archivos a respaldarse al Servicio de Storage (SD), quien los almacenará en el volumen predefinido (ver figura 6).
Tipos de Respaldos que podemos usar en Bacula Respaldos completos Un respaldo completo es aquel que se realiza sobre un grupo de archivos definidos y en el caso que vuelva a repetirse no verifica si estos datos han cambiado, simplemente vuelve a copiar todos y cada uno de ellos.
Respaldos incrementales Este tipo de respaldos primero verifica si la fecha de modificación de un archivo es más reciente que la fecha de su último respaldo, si no lo es significa que el archivo no se modificó desde el último respaldo realizado y se omite para su copia. Como se habrán dado cuenta, una de las principales ventajas de este tipo de respaldo es su velocidad, ya que seguramente de todos los datos que respaldemos gran parte no ha cambiado. Pero la desventaja que presenta es a la hora de restaurar un archivo, ya que puede suceder el tener que pasar a través de varios respaldos de este tipo hasta que encontremos este archivo. Cuando se restaura un sistema de archivos completo es necesario restaurar el último respaldo completo y cada respaldo incremental subsecuente. Respaldos Diferenciales Tanto los respaldos diferenciales como los incrementales son similares, ya que ambos solo copian archivos que hayan sido modificados. Sin embargo, los respaldos diferenciales son acumulativos, es decir que una vez que un archivo ha sido modificado continúa siendo incluido en todos los respaldos diferenciales subsecuentes (hasta el próximo respaldo completo). Esto significa que cada respaldo diferencial contiene todos los archivos modificados desde el último respaldo completo, haciendo posible realizar una restauración completa solamente con el último respaldo completo y el último respaldo diferencial (ver figura 7).
HoW To PASo A PASo Ahora viene la parte entretenida, así que a jugar un poco con Bacula! Para esto Víctor Hugo nos preparó este detallado How to para que podamos paso a paso configurar esta excelente herramienta. Los archivos de configuración están divididos en varias secciones (FileSet, Director, Job y otras) que se inician y terminan con “{“ y “}” respectivamente. Dentro de cada sección tenemos el parámetro "Name" que sirve para identificarla y por el general está compuesta por el nombre de la máquina + la función que cumple (no es obligatorio), por ejemplo: localhost-dir (modulo director en la máquina local) localhost-fd (modulo cliente en la máquina local) localhost-sd (modulo storage en la máquina local) jefe-fd (modulo cliente en la máquina del jefe) En una máquina con Debian, la instalación se realiza con el comando aptitude. En nuestro caso, estamos instalando el servidor Bacula Director, Bacula Storage, Bacula Client y la |24| NEX NEX IT IT SPECIALIST SPECIALIST
Consola de Administración: # aptitude install bacula-server bacula-console # ls /etc/bacula/ bacula-dir.conf bacula-fd.conf bacula-sd.conf bconsole.conf scripts El Modulo Director viene listo para funcionar localmente. Para nuestras pruebas cambiaremos pocos parámetros para que el director funcione en la red local. Ahora vamos a comentar paso por paso lo que tendremos que realizar:
Editar el archivo “bacula-dir.conf” con el editor que estemos familiarizado.
2
Dentro de la sección “Director” vamos a comentar el parametro “DirAddress = 127.0.0.1” para que el director escuche en todas las direcciones de red que tengamos configuradas.
Al final del archivo (la orden en que aparecen no es importante), agregamos una nueva sección llamada "FileSet" con los siguientes valores: FileSet { Name = "Clientes-WinXP" Include { Options { signature = SHA1 compression=GZIP6 IgnoreCase = yes } File = "C:/Documents and Settings" File = "F:/" } } En este ejemplo estamos creando un profile de carpetas y archivos a respaldar y en el ejemplo de arriba estamos respaldando "todos" los archivos y carpetas dentro de la carpeta "C:/Documents and Settings" y todos los archivos y carpetas en la unidad de disco "F:"
WWW.REVISTANEX.COM WWW.REVISTANEX.COM
12 Ahora que indicamos qué carpeta/archivos vamos a respaldar, tenemos que configurar qué clientes iremos a respaldar, en el mismo archivo (bacula-dir.conf) agregamos una nueva sección llamada "Client", que contendrá los siguientes parámetros: Client { Name = jefe-fd Address = 172.16.100.114 Password = "ABC123def456" # debe de coincidir con el archivo de configuración que se ubica en los clientes. }
Por último, vamos a programar los horarios de las tareas en el mismo archivo. Agreguemos esta sección al final del archivo: Job { Name = "Mi-Jefe" JobDefs = "DefaultJob" FileSet = "Clientes-WinXP" (paso 4) Client = "jefe-fd" (paso 5) Write Bootstrap = "/var/lib/bacula/mi-jefe. bsr" } Esta sección utilizará los parámetros por defecto definidos en la sección "DefaultJob" (buscarla dentro del archivo de configuración bacula-dir.conf) y sobrescribir los parámetros que pusimos manualmente como por ejemplo Name, Client y FileSet.
6
Busquemos en la sección "Device" (hay varias) una que tenga el nombre "FileStorage" (esta es la ubicación que viene configurada por defecto para almacenar los respaldos). En esta sección vamos a ver que tenemos el parámetro: "Archive Device = /tmp" el cual lo cambiaremos por: "Archive Device = /var/bacula" que seré la carpeta donde iremos a guardar los respaldos de todos nuestros clientes. Observación 1: La carpeta debe de existir y debe de haber espacio en disco suficiente. / Observación 2: Al final de este mismo archivo existen otros ejemplos de configuración para unidades de cintas, DVDs y otros dispositivos que pueden ser utilizados.
Ahora editamos el archivo de configuración "bacula-sd.conf" que es el responsable del “Modulo Storage" y en el buscamos dentro de la sección "Storage" el parámetro "SDAddress = 127.0.0.1" lo cual debemos comentar para que el modulo storage escuche en todas las direcciones de red que tengamos configurado en este servidor.
9 8 10 El archivo de configuración “bacula-fd. conf” que hace referencia a la configuración del cliente local está listo para usar, así que no lo tocaremos.
Reiniciamos todos los servicios asociados a Bacula: # /etc/init.d/baculadirector restart # /etc/init.d/bacula-sd restart # /etc/init.d/bacula-fd restart Como se explicó anteriormente, al instalar en el mismo servidor de respaldos el cliente (bacula-fd), éste se encuentra listo para funcionar.
En el caso de los clientes Windows, es necesario descargar el software cliente desde el sitio oficial de Bacula (http://ww.bacula.org), sección "Downloads/Current Files" carpeta "Win32"... Observación: Acá esta el enlace directo para la versión 2.4.3 (última a la fecha de escribir este artículo) http://ufpr.dl.sourceforge.net/sourceforge/bacula/winbacula-2.4.3.exe
11
Una vez descargado el software, la instalación es como cualquier otro aplicativo para Windows (siguiente, siguiente y finalizar).
WWW.REVISTANEX.COM
Al término de la instalación vamos a ejecutar el programa “Edit Client Configuration” que se encuentra en el Menu Inicio -> Todos los Programas -> Bacula -> Configuration -> Edit Client Configuration. Esto abrirá el “Block de Notas” en donde debemos revisar la configuración que tenemos y luego comprobar que los parámetros “Name” en la sección FileDaemon y “Name y Password” en la sección Director sean los mismos que configuramos en el servidor (ver paso 5). FileDaemon { Name = jefe-fd FDport = 9102 WorkingDirectory = “C:\\Documents and Settings\\All Users\\Datos de programa\\Bacula\\ Work” Pid Directory = “C:\\Documents and Settings\\All Users\\Datos de programa\\Bacula\\Work” Maximum Concurrent Jobs = 2 } Director { Name = vm1-dir Password = “ABC123def456” } Hasta aquí sería todo el referente a configuraciones, ahora pasaremos a chequear si todo funciona correctamente. Para comprobar que todo funciona bien, en el servidor se utiliza el software de administración llamado “bconsole”, lo cual es bastante intuitivo: # bconsole Connecting to Director 127.0.0.1:9101 1000 OK: vm1-dir Version: 1.38.11 (28 June 2006) Enter a period to cancel a command. *status Using default Catalog name=MyCatalog DB=bacula Status available for: 1: Director / 2: Storage / 3: Client / 4: All Select daemon type for status (1-4): 3 The defined Client resources are: 1: vm1-fd / 2: jefe-fd Select Client (File daemon) resource (1-2): 2 Connecting to Client jefe-fd at 172.16.100.114:9102 jefe-fd Version: 2.4.3 (10 October 2008) VSS Linux Cross-compile Win32 Daemon started 10-Nov-08 12:41, 0 Jobs run since started. Heap: heap=0 smbytes=10,545 max_ bytes=10,664 bufs=51 max_bufs=52 Sizeof: boffset_t=8 size_t=4 debug=0 trace=1 Running Jobs: Director connected at: 10-Nov-08 13:08 No Jobs running. Otros comandos interesantes dentro del utilitario bconsole son: *-help - muestra una lista con todos los comandos. / *-run - ejecuta una tarea/respaldo fuera del horario programado. / *-restore - restaura archivos/carpetas desde un respaldo efectuado. *-estimate - muestra la cantidad de archivos, bytes y tiempo. / *-cancel - cancela un tarea que se esté ejecutando y/o programada. *-status - muestra el estado del director/storage y/o clientes. Si se siguieron todos los pasos arriba descriptos, seguramente ya tendrán funcionando Bacula en sus equipos, a partir de aquí en adelante quedará en nosotros el seguir investigando y adaptando Bacula a nuestras necesidades, para esto existe mucha documentación en la Web y de muy buena calidad (ver links de intereses al final de la nota). NEX IT SPECIALIST |25|
OPEN SOURCE INTERVIEW Entrevista a
Víctor Hugo dos Santos NEX IT: Contanos un poco sobre vos y a qué te dedicas actualmente. Víctor Hugo dos Santos: Mis primeras "tecleadas" fueron en una TK-80, pero por gracia divina duró poco tiempo y pronto tuve una "PC" a mi disposición que con el tiempo me permitió perfeccionarme en base al "ensayo - error". Sin terminar mis estudios, pero con muchas ganas de viajar y conocer, fui recorriendo ciudades y por ende varias empresas en Sudamérica, adquiriendo experiencia en programación, hardware, soporte e instrucción de informática para el "lado oscuro de la fuerza", hasta que finalmente me sumergí y apasioné por el entorno Linux/OpenSource y todo a lo que ello se refiere. En la actualidad vivo en el Sur de Chile y me desempeño como Administrador Linux, cargo que involucra tareas como respaldos, virtualización, seguridad, redundancia y continuidad operacional, además dedico algunas (y a veces varias) horas diarias a revisar o estudiar lo que hay de nuevo por Internet, participar en las distintas listas/grupos de discusión y proyectos Open Source a nivel mundial, lo que ha traído como últimos resultados la participación como Coordinador Nacional de Chile en el FLISOL (Festival Latinoamericano de Instalación de Software Libre), la participación como expositor en las Jornadas Regionales del SL en Buenos Aires y recientemente la participación como expositor en el Noveno Encuentro Linux en Concepción/Chile. NEX IT: ¿Hace cuánto y cómo conociste el proyecto Bacula? VHS: En 2002 trabajaba en una empresa informática que prestaba asesoría/servicios a varias compañías y en una de ellas existía un "sistema de respaldo" hecho en php, en donde se necesitaba que los clientes tuvieran los archivos y/o carpetas compartidos para poder realizar el respaldo. Dicho sistema además de ser muy básico presentaba serios problemas de seguridad y confiabilidad. A solicitud de mi jefe, entonces, iniciamos la búsqueda de una herramienta de respaldo que cumpliera con algunos requisitos, como por ejemplo: • Poder realizar respaldos / restauraciones (créanme, había algunos "sistemas" que solamente respaldaban y la restauración había que hacerla manualmente). • Poder realizar comprobaciones del respaldo. • Que tuviera estadísticas de respaldos y enviara resúmenes de las operaciones realizadas y/o fallidas. • Que fuera seguro y tuviera un desarrollo constante y transparente. • Ser económico y ojalá no tuviera que pagar una licencia para cada cliente que se agregaba. Después de un par de meses y de probar varias |26| NEX NEX IT IT SPECIALIST SPECIALIST
alternativas (yo me dedicaba a las alternativas bajo Linux) llegamos hasta Bacula, que para esa época estaba en la versión 1.23 ó 1.24 (hoy vamos en la versión 2.43) y que cumplía todos nuestro requisitos y además estaba bajo licencia GPL y soportaba un buen número de unidades de cintas antiguas que habíamos "heredado" de algunos sistemas UNIX en el pasado. NEX IT: ¿Estás relacionado con el grupo de desarrollo de Bacula? VHS: He programado en algunos momentos de mi vida (principalmente cuando estaba en el lado oscuro de la fuerza), pero para mi la programación/ desarrollo era como el matrimonio, o sea, algo que toma un largo tiempo. Y llegue a la conclusión que habían áreas más interesantes para mi, como por ejemplo la administración de sistemas, su seguridad y continuidad operativa y a esto me dediqué. En algunos momentos (como la mayoría de nosotros), escribo algunas líneas de scripts, pero no me puedo declarar programador. Y en el caso del proyecto Bacula participo principalmente como betatester ya que aparentemente son pocos los que están dispuestos a hacer pruebas con algo tan delicado como el respaldo. Ahora mismo tengo 4 máquinas virtuales (que no son tan criticas) que están siendo respaldadas con la versión 2.5.X. NEX IT: Contanos un poco acerca de las charlas que diste en estos últimos tiempos. VHS: Hace unos 4 años realicé la primera charla sobre Bacula y de este tiempo hasta hoy ya van como 15 charlas realizadas en distintas ciudades y países, siendo la más reciente en agosto de 2008 en las Jornadas Regionales en Buenos Aires. En los eventos se destacan muchos temas nuevos (lo que no es malo), pero muchas veces se dejan de lado temas importantes y fundamentales para las empresas. Uno de ellos es el respaldo, para muchos el respaldo de la información de la empresa "es tan" importante como la información misma! A las personas que miran las charlas y las características de Bacula, les encanta la flexibilidad de los distintos módulos del sistema, las funciones y los alcances que tiene, pero también se asustan un poco cuando se muestran los archivos de configuración que francamente son algo complicados de entender a la primera vista. Muchos me han comentado después de las charlas que en sus empresas utilizan sistemas que no dan una buena confianza, que sus respaldos son artesanales y que les gustaría tener un sistemas de respaldos más profesional y que ahora irán a analizar Bacula como solución, lo que me alegra mucho pues creo que ésta es la finalidad de las charlas, "incentivar las personas a dar el primer paso" NEX IT: Contarnos actualmente algún caso real donde tengas implementado Bacula. VHS: Te puedo comentar 2 casos: • En la actual empresa donde trabajo utilizamos Bacula para respaldar solamente los servidores de la compañía que por temas relacionados a la contingencia están separados en distintos sites. En
este caso Bacula está configurado con 2 módulos de almacenamiento (storages) que realizan los respaldos cruzados, o sea todos los servidores que están en un site se respaldan el otro site. • En otra empresa en la que he trabajado, se utilizaba Bacula para respaldar principalmente a los clientes/usuarios que en esta época tenían Windows 98, algunos XP y uno que otro Linux. La instalación que realizábamos respaldaba más o menos 400 usuarios y hoy este número ha subido a más de 700 usuarios. NEX IT: Por último, ¿qué recomendarías a los lectores que necesitan implementar algún sistema de Backup, por dónde empezar, qué tener en cuenta, etc.? VHS: Los sistemas de respaldos son fundamentales, pero uno se da cuenta solamente cuando pierde todos los datos y necesita recuperarlos. A nivel general: • Hay que analizar bien la herramienta que se va a utilizar, ver si cubre todas las necesidades. • Crear un buen sistema de rotación de volúmenes (cintas/discos/dvd). • Crear un calendario de pruebas de restauración (imprescindible). • Cumplir fielmente las fechas de pruebas de restauración (mucho más importante que la anterior). En el caso de bacula: • Es FUNDAMENTAL leer toda la documentación del sistema, principalmente para entender los que son los volúmenes, pools, jobs, las funciones de los distintos módulos y los comandos de operaciones básicas del sistema. • Una vez que tenga claridad de esto, hay que meterse en la configuración del sistema, que no es muy sencilla en principio, pero con el tiempo es algo muy simple y fácil de modificar. • Una vez terminada la configuración inicial del sistema, las tareas de manutención son casi nulas. Así que mantener un sistema de respaldos con Bacula es muy fácil y trivial. Y por último, Bacula está bajo GPL lo que nos garantiza el acceso al código fuente y que lo podamos utilizar como nos sea más conveniente. Pero pesar de esto, no se debe de considerar a Bacula simplemente porque es gratis, pero sí porque posiblemente sea uno de los mejores sistemas de respaldos existentes.
En conclusión Primero que nada quisiera agradecer a Victor Hugo, por haberse dispuesto a colaborar desinteresadamente con esta nota, luego con todo lo visto en este artículo, solo me queda decir a los lectores, que si están pensando en implementar un sistema de Backup profesional, le den una oportunidad a Bacula, ya que como quedó demostrado es un sistema muy fiable, robusto y por sobre todo Libre! WWW.REVISTANEX.COM WWW.REVISTANEX.COM
WWW.REVISTANEX.COM
NEX IT SPECIALIST |27|
Autor: Federico Nan y Emiliano Piscitelli NanTECH Solutions
Con Eko ozca cia part lo spe de n y 20 que les aker ivel 08, suce ca , inv s ex inte Una c dió y e ita tr rn on en l m do anj aci fer la und s d er ona en o. e La os y l c tin loc on oam aéri -
200 8
SEGURIDAD
T
uve la suerte de ser invitado a la Ekoparty Security Conference los días 3 y 4 de Octubre, encuentro que tuvo lugar en el Centro Cultural Borges, un lugar cálido y muy cómodo para realizar conferencias (seguramente muchos lo conocen por sus puestas artísticas). Pero esta vez estuvo inundado por profesionales y entusiastas de la seguridad informática. Esta conferencia, en su cuarta edición, desplegó profesionalismo y calidad en todo sentido. Mucha organización por parte de sus integrantes hacía notar que sabían cómo hacer una conferencia de nivel internacional con mucho esfuerzo y entusiasmo. Un evento como este hace que muchas miradas estén puestas en Argentina y que la Ekoparty tome carácter internacional estando a la altura de otras conferencias de seguridad como BlackHat o Defconf. La apertura de sus puertas fue a las 8:30 de la mañana, donde muchos informáticos (más de lo que se esperaba) estaban impacientes por ser acreditados y conseguir un lugar privilegiado en la primer conferencia dictada por Dave Aitel, CTO de Inmunity. Fue muy oportuno poner a Dave Aitel al principio, ya que nos obligó a todos a despertarnos tras tomar el café que se servía en varias mesas, y poner nuestro oído atento al claro discurso en inglés que brindó Dave sobre el futuro de la actividad de la seguridad informática. Las charlas continuaron durante todo la jor-
|28| NEX IT SPECIALIST
nada. Hubo ponentes brasileros, chilenos, alemanes, franceses, estadounidenses y una gran cantidad de argentinos. En el segundo día no podía faltar la charla de Luciano Bello y Maximiliano Bertacchini, quien viene recorriendo el mundo presentando la vulnerabilidad en el paquete OpenSSL, seguida por la del matemático Hugo Scolnik, la cual fue muy aplaudida. También hubo charlas muy interesantes sobre SAP, Javascript, Wifi, entre otras. No solo fueron dos días los de Ekoparty. Además de la conferencia, el 29 y 30 de septiembre y 1 de octubre se dictaron Trainings sobre variados temas de seguridad a un precio accesible; hubo gran cantidad de participantes que viajaron de diferentes lugares de Latino América para asistir a estos trainings únicos. El clima de la Ekoparty en sus cinco días fue relajado y permitió que todos aprendamos y conozcamos nuevas tecnologías respecto de la seguridad. Pero los asistentes no solo estuvimos escuchando charlas si no que también pudimos participar de actividades que se desarrollaron durante la conferencia. Packetwars fue un juego que se realizó el primer día y cuyo objetivo fue penetrar varios sistemas operativos especialmente preparados para este juego. En dos horas como tiempo límite, varios equipos formados por asistentes con sus laptops, pudieron alcanzar el objetivo y obtuvieron premios por ello. También se desarrolló una actividad llamada Lockpicking. En ésta nada tenían que ver las computadoras. Había otro tipo de herramientas parecidas a las que usan los cerrajeros, y la meta era poder abrir todo tipo de cerraduras en el menor tiempo posible. Muy divertido y atractivo para los que gustan de la seguridad perimetral. El mundo de la informática y, sobre todo de la seguridad, por lo general es asimilado a estar con computadoras durante horas y horas, pero la realidad nos demuestra que también hay tiempo para divertirse; por eso la gente de la Ekoparty organizó un After Hour y un After Party. En un clima más relajado y llegada la noche del día jueves (primer día de la conferencia) se llevó a cabo el After Hour en un cómodo Bar, ubicado a unas pocas cuadras del Centro Cultural Borges. Esta vez con música bastante más fuerte que en el Borges, las luces más bajas y sin café pero con otras bebidas en mano, pudimos disfrutar de charlas interesantes como la Andrew Cushman de Microsoft. El viernes, último día de la conferencia, se realizó el After Party en la Costanera de la ciudad de Buenos Aires, donde se celebró el éxito del evento y todos pudimos festejar ya sintiéndonos parte, de la finalización de una Conferencia que funcionó a la perfección. WWW.REVISTANEX.COM
RESUMEN DE ALGUNAS CHARLAS In-depth Anti-Forensics – Challenges of Steganographyon Discovering Hidden Data (Domingo montanaro)
ción de intrusos, malware, botnets y ataques a clientes Web. Trabaja también como consultor independiente.
Sobre el disertante Domingo Montanaro es un Especialista en Seguridad de la Información, ha estado trabajando con alta tecnología de investigación criminal para distintas empresas privadas. Su especialidad es la recuperación de datos, manejo de incidentes, respuesta y seguimiento, reunión de pruebas forense y anti-forense, búsqueda y desarrollo de la Información.
La charla Lo importante a destacar de este disertante es su manera de dar las diferentes charlas, ya que en otra oportunidad en este mismo año tuve la suerte de escucharlo y realmente quedé muy contento con la forma que tiene para presentar los diferentes temas. Fue así que esta charla no ha sido una excepción, ya que de una manera muy clara y prolija, Sebastián explicó con lujo de detalles cómo estudiaron la cantidad de datos recolectados (80 GB aproximadamente) basados en intrusiones reales, las cuales fueron capturadas y estudiadas durante los años 2005, 2006 y 2007 en distintos honeypots. Entre otras cosas mostró cómo fueron estudiando el comportamiento según las acciones de cada intruso y las intenciones que estos presentaban.
La charla En esta charla Domingo dio a conocer los distintos tipos de métodos utilizados actualmente para el ocultamiento de datos, contó algunas de sus experiencias dentro de este campo y mostró a todos los oyentes cómo darse cuenta de este tipo maniobras, como así también algunas de las herramientas que él usa comúnmente. Gracias a su experiencia, esta charla fue muy instructiva y se vio a varios asistentes realmente muy interesados en los temas desarrollados. Dime cómo atacas y te diré quién eres (Sebastián García) Sobre el disertante Sebastián García es docente e investigador en Seguridad Informática. Actualmente dicta clases en varias universidades, centrándose en los modelos educativos libres y las prácticas académicas de Penetration Tests. Sus trabajos de investigación son en la temática de detec-
WWW.REVISTANEX.COM
Atacando rSA mediante un nuevo método de factorización de enteros (Hugo Scolnik) Sobre el disertante Licenciado en Ciencias Matemáticas de la UBA (1964) y Doctor en Matemática por la Universidad de Zurich (1970). Sus campos de investigación son Criptografía, Robótica, Optimización No Lineal, modelos matemáticos y métodos numéricos. Es referee y miembro del Editorial Board de diversas publicaciones internacionales. Durante la última década se interesó fundamentalmente en la consolidación del Departamento de Computación de la Facultad de
Ciencias Exactas de la UBA que creó en 1984 a través de la formación de jóvenes investigadores, y proyectos diversos como el del fútbol robótico, el desarrollo de nuevos métodos computacionales en criptografía, teoría de control, optimización no lineal, y sus aplicaciones a, por ejemplo, la reconstrucción de imágenes tomográficas en tiempo real. Publicó 45 trabajos en revistas internacionales sobre modelos matemáticos, inteligencia artificial, teoría de autómatas, análisis numérico y aplicaciones a la Economía y Sociología. Dirigió 65 tesis de Licenciatura en Computación y Matemática Aplicada y 3 tesis de doctorado (2 en Brasil, una en el marco del convenio Argentina-Francia). Ha dictado conferencias en distintas facultades e institutos de la UBA, en las Universidades de Alicante, Campinas, Cambridge, Chile, Columbia, Londres (Imperial College), Minnesota, MIT, Porto Alegre, Rice, Rio de Janeiro, San Pablo, Stanford, Southampton, Sussex, Tokio, Tucumán, Universidad Nacional Autónoma de México y Zurcí, entre otras. La charla Creo que fue una de las más esperadas de todo el evento, ya que no todos los días uno se puede darse el lujo de presenciar una charla de un exponente como el Dr. Hugo Scolnik. En el transcurso de la charla se mostró cómo atacar RSA mediante un nuevo método de factorización de enteros, sin lugar a dudas de alto y complejo contenido técnico pero que el Dr. Scolnik pudo mostrar muy claramente con algunos ejemplos y una muy clara explicación.
NEX IT SPECIALIST |29|
ITPRO EN PYMES INTERVIEW
Autor: Sebastián Passarini
LA SEGURIDAD DEL MAIL
Administrador de redes
En los albores de Internet era casi imposible imaginar un mundo dependiente de la tecnología. Todo comenzó como una alternativa a los medios de comunicación disponibles en ese entonces. Hoy todo está conectado, todo digitalizado y gran parte de la información que utilizamos se encuentra almacenada en lo que dieron a llamar e-mail o correo electrónico.
E
n los inicios de la era Internet, o mejor dicho de ARPANET, la idea original de intercambiar mensajes entre usuarios de una misma computadora no era del todo revolucionaria. Ya para ese entonces existían programas que permitían a usuarios de una misma computadora intercambiar mensajes. Fue Ray Tomlinson a quien, por el año 1971, se le ocurrió que podría enviar mensajes de una computadora a otra. A partir de allí ya no habría prácticamente límites geográficos para el intercambio de mensajes. Hoy, es increíble ver cómo con el paso del tiempo, que ha dado lugar a increíbles adelantos tecnológicos y al cambio en la forma de comunicarnos y de hacer negocios. Y es precisamente en los negocios donde haremos foco. El correo electrónico es uno de los protagonistas en el manejo de informa-
ción personal corporativa, y hasta podemos asegurar que ha desplazado a los medios de comunicación convencionales, como ser las comunicaciones telefónicas. Hoy, todo circula por nuestras bandejas de entrada. Tal es la importancia del correo electrónico que, de perderse esta información, nuestro trabajo y nuestros planes correrían un alto riesgo. Si no, pregúntense a Uds. mismos ¿qué ocurriría si hoy el servicio que brinda mi central telefónica se interrumpiera por un lapso de 4 horas? No mucho, utilizaríamos nuestros celulares en última instancia. Ahora, ¿qué ocurriría si mi servidor de correo se viera interrumpido por un lapso de 4 horas? Sin dudas estaríamos todos corriendo de un lugar a otro, buscando esa impresión del contrato con nuestro más valioso cliente o los pedidos de otro cliente importante que deben ser despachados en las
próximas 2 horas. Sería un desastre, eso sí sería estar incomunicados. Ahora que hemos tomado conciencia de la importancia del correo electrónico para las comunicaciones de nuestra compañía, pasaremos a develar de la mano de Alt-N Technologies los recursos y las recomendaciones que nos ayudarán a minimizar estas interrupciones del servicio, y poder así asegurar la continuidad de nuestro negocio. En las siguientes líneas, podrán disfrutar de la entrevista exclusiva que hemos realizado para NEX IT a Arvel Hathcock, fundador y CEO de Alt-N Technologies (creadores del servidor de correo electrónico MDaemon para Windows). Junto a Arvel estaban Kevin A. Beatty (Director de Marketing de Alt-N), Jerry Donald (Vice Presidente Ejecutivo de Alt-N) y Pablo Potokski (Director General de iSoftland – Empresa distribuidora de productos Alt-N, entre otros).
LA ENTREVISTA NEX IT: ¿TIENE ALT-N ALGÚN ESTuDIo rEALIZADo ACErCA DEL TIPo DE INFormACIóN QuE CIrCuLA y SE ALmACENA EN LoS SISTEmAS DE CorrEo ELECTróNICo CorPorATIATIVoS? Alt-N: Sí, podemos asegurar en base a encuestas realizadas que el 97% de la comunicación empresarial es vía e-mail, que el 83% de los datos críticos de una organización pueden ser encontrados aquí, y que un 79% de todo este tráfico se utiliza para confirmar o aprobar pedidos. También, que el 90% de todo el e-mail que circula por Internet es Spam. NEX IT: LA DoCumENTAENTACIóN DE VuESTro SErVIDor DE CorrEo ELECTróNICo mDAEmoN INDICA QuE EL ProDuCTo ES IDEAL PArA |30| NEX IT SPECIALIST
ComPAÑÍAS DE 5 A 500 uSuArIoS. ¿ES mDAEmoN uN ProDuCTo PENSADo PArA PEQuEÑAS y mEDIANAS EmPrESAS? Alt-N: Nuestros productos pueden ser utilizados en cualquier tipo y/o tamaño de empresa. Lo que ocurre es que no solo comercializamos productos seguros y confiables, sino que además somos una alternativa económicamente atractiva y viable, para todas aquellas compañías que tienen ciertas limitaciones de presupuesto. Esto hace que nos enfoquemos en compañías de hasta 500 usuarios. NEX IT: ¿CuÁL SErÍA LA CoNFIGurACIóN mÍNImA DE ProDuCToS ALT-N PArA uNA PymE QuE QuIErE INSTATALAr Su PrImEr SErVIDor DE CorrEo ELECTróNICo, y QuE A Su VEZ QuIE-
rE ESTATAr ProTEGIDA CoNTrA EL SPAm y LoS rIESGoS ACTuALES DE SEGurIDAD? Alt-N: Simplemente con instalar MDaemon y el producto Security Plus for MDaemon tendría una configuración mínima recomendada. Si desea tener una primer barrera de protección puede instalar el Security Gateway for SMTP Servers, el cual detendrá la mayoría de las amenazas (Spam, Virus, phishing, hoaxes, etc.), antes de que estas logren ingresar a la red interna. NEX IT: EL moTIVo PrINCIPAL DE VuESTrA VISITAITA A ArGENTINA, ¿ES EL DE PrESENTAENTAr EL ProDuCTo mDAEmoN E-mAIL SErVEr o EL ProDuCTo SECurITy GATEGATEWAy For SmTP SErVErS? WWW.REVISTANEX.COM
Alt-N: Ante todo queremos comentarles que esta es nuestra primera visita a Argentina y al cono sur. La idea principal es la de dar a conocer las últimas técnicas de autenticación y las tendencias en cuanto a la seguridad en el correo electrónico. Por supuesto, y dado que nuestros productos utilizan estas técnicas, haremos referencias a los mismos, aunque nos localizaremos en las características de nuestro Security Gateway for SMTP Servers, el cual además de proteger al correo corporativo, posee un módulo de reporting muy rico y fácil de usar. Uno de los puntos a resaltar de este módulo es el envío automático de reportes, el cual indica a los usuarios los mensajes detectados como Spam, el usuario puede decidir si agregarlo a una lista blanca o no hacer nada. También posee información que un administrador puede utilizar para la solución de problemas. NEX IT: uNo DE LoS ProbLEmAS QuE ENFrENTANTAN LAS ComPAÑÍAS DE IT EN ArGENTINA ES QuE No SIEmPrE LA DEmANDA DE ProFESIoNALES ES CubIErTATA Por LA oFErTATA DEL mErCADo. ESTo HACE QuE No ToDAS LAS PErSoNAS DE IT SEAN ProFESIoNALES y/o PErSoNAL CAPACITAITADo CorrECTATAmENTE o CoN LA EXPErIENCIA NECESArIA. ¿CoNSIDErAN QuE LA GENTE DE IT ESTÁ CAPACITAITADA Como PArA ENTENDEr y AFroNTANTAr LoS rIESGoS DE SEGurIDAD ACTuALES? Alt-N: Esto no es un problema solo en Argentina, sino que ocurre también en los Estados Unidos. Es por esto que luego de muchos años de investigación y trabajo estamos lanzando al mercado productos que son de muy fácil implementación y en los cuales la configuración por default tiene en cuenta muchos aspectos de la seguridad que tal vez una persona de IT no muy bien preparada podría pasar por alto. Con respecto al personal de IT es común ver en pequeñas empresas el problema de la falta de capacitación o que ni siquiera hayan personas de IT. Esas pequeñas compañías también pueden encontrar en nuestros productos el aliado ideal.
Conclusión El correo electrónico almacena mucho más que mensajes, almacena nuestros planes y hasta nuestra estrategia de negocio. Debemos asegurarnos que está alineado con los pilares de la seguridad, siendo estos: Confidencialidad, Seguridad e Integridad de los datos. Por ello es que debemos protegerlo de las amenazas, no solo con tecnología sino también con Políticas claras de uso del e-mail corporativo. WWW.REVISTANEX.COM
NEX IT: ¿PuEDEN LoS ProDuCToS DE ALT-N CoNVIVIr CoN oTroS ProDuCToS DE SEGurIDAD y/o SErVIDorES DE CorrEo? Alt-N: Nosotros tenemos dos estrategias de posicionamiento en el mercado. La primera consiste en brindar a las empresas que necesitan instalar su primer servidor de correo, o a aquellas que salen de servidores de correo costosos como lo es Exchange Server de Microsoft, la posibilidad de instalar nuestra solución MDaemon e-mail server. Nuestra segunda estrategia es la de proporcionar a empresas ya maduras en el uso del e-mail, las que pueden tener soluciones como ser un Exchange o Lotus Domino, nuestra solución de Security Gateway for SMTP Servers. Esta solución puede trabajar con cualquier servidor de correo SMTP y es ideal para instalar en por ejemplo una DMZ, como primera barrera de protección ante las amenazas de seguridad que podemos encontrar tanto fuera de nuestra red, Internet, como así también dentro de la misma. Es decir que no solo prestamos atención al correo entrante, sino también al saliente. NEX IT: CoN LA IDEA DE mEJorAr LA ProTECCIóN ANTE AmENAZAS, ¿ES ACoNSEJAbLE TENEr INSTATALADoS DISTINToS ProDuCToS DE SEGurIDAD y DE DISTINToS FAbrICANTES Como SEr uN ANTIVIruS DE uN FAbrICANTE EN NuESTrA PrImErA bArrErA DE ProTECCIóN y oTro ANTIVIruS DE oTro FAbrICANTE EN NuESTroS CLIENTES? ¿QuÉ oCurrE CoN LAS SoLuCIoNES DE ANTISPAm? Alt-N: En soluciones de antivirus puede ser una buena idea ya que estos productos dependen de las firmas para detectar las amenazas, y puede que un virus no detectado en la primera barrera luego sea detectado en la segunda. Pero por el lado de una solución AntiSpam yo recomendaría tener un único producto con todas las funcionalidades de AntiSpam, ya que
Acerca del autor
es más fácil la detección de problemas. NEX IT: ¿CoNSIDErAN QuE LoS uSuArIoS FINALES DEbErÍAN ESTATAr CAPACITAITADoS rESPECTo AL uSo QuE SE LE DA AL E-mAIL o CoN TECNoLoGÍA PoDEmoS ASEGurAr QuE No SErEmoS PrESA DE NINGÚN TIPo DE ATAQuE? Alt-N: Si bien existe mucho hardware y software que podríamos utilizar, ninguna combinación es la solución perfecta. De hecho, el flagelo de la ingeniería social se soluciona en parte con una buena política establecida por las compañías. Y como toda política, para que ésta tenga los efectos deseados debería estar apoyada por los directivos de una compañía. También haría hincapié en la difusión de buenas prácticas respecto del uso del e-mail y de la información en general. NEX IT: EN VuESTrA PÁGINA WEb HACEN rEFErENCIA A mIGrAr DE EXCHANGE A mDAEmoN, A LA DIFICuLTATAD DE ADmINISTrAr uN SErVIDor EXCHANGE y HASTATA TIENEN uN ouTLook CoNNECTor PArA ACCEDEr A mDAEmoN. ¿ESTÁN INTENTANINTENTANDo LLAmAr LA ATENATENCIóN DE uSuArIoS DE EXCHANGE y QuE ÉSToS CAmbIEN A Su ProDuCTo mDAmEoN? Alt-N: En nuestras encuestas vemos que muchos de nuestros actuales clientes, usuarios hoy de MDameon han venido de Microsoft Exchange. Por otro lado Microsoft es quien tiene la mayor parte del mercado en cuanto a servidores de correo instalados y Outlook, en sus diferentes versiones, es uno de los clientes más difundidos y utilizados. Por esto es que hacemos referencia a Exchange en lugar de a otros vendors. También creemos que hay compañías que por su tamaño y presupuesto no pertenecen al mercado de Exchange y que en nuestros productos pueden encontrar el aliado ideal para cumplir con los objetivos del negocio.
NEX IT SPECIALIST |31|
Sebastián Passarini es Administrador de Infraestructura y Seguridad en Válvulas Precision de Argentina. Ha realizado varios cursos de tecnología y ha obtenido la certificación MCP de Microsoft. Actualmente está finalizando la carrera de Sistemas.
Links de Interés • http://www.altn.com/ • http://www.isoftland.com/ • http://www.dkim.org/ • http://tools.ietf.org/html/rfc4871
Further Reading En la página de Alt-N pueden encontrar mucha literatura acerca de los productos, white papers, así como también casos de estudio. No dejen de consultarla.
NEX IT SPECIALIST |31|
NOTA DE TAPA
La compañía es un icono de la tecnología, el diseño y la innovación, sin embargo sus prácticas siempre polémicas la colocan en la posición opuesta a las nuevas tendencias que dominan en la tecnología de hoy. ¿Podrá Apple mantener su status de marca más admirada del mundo a pesar de ir contra las tendencias colaborativas, comunitarias y abiertas?
|32| NEX IT SPECIALIST
WWW.REVISTANEX.COM
L
a tapa de abril de la prestigiosa revista Wired generó admiración y polémica. Admiración porque gracias a su diseño fue elegida como una de las mejores tapas de revista de 2008 por la Sociedad de Editores de Revistas de EE.UU. Polémica porque el título de la nota era “Cómo Apple hace todo bien haciéndolo todo mal” y en ella se plantean básicamente una serie de argumentos sobre los errores de Apple, en especial se compara su estrategia con el proceder de las empresas de Silicon Valley, y también porque se muestra a Steve Jobs como a un CEO despiadado y falto de ética. Obviamente ingresar en este tipo de polémi-
ideas y aportes. 3) Juego limpio: no abusar de la posición dominante y competir en igualdad de condiciones y en base a la calidad de los productos. 4) cuidado e incentivo de los empleados: las empresas del Valle suelen incentivar a su personal dándole la posibilidad de desarrollar sus propios proyectos, además de otorgarles beneficios y gratificaciones especiales. Y, siempre según la visión de Kahney, Apple contradice todos estos principios. Otro de los puntos que señala el autor como negativo es el del estricto secreto que impone Apple sobre sus productos, que llegó incluso al extremo de denunciar judicialmente a Nicholas Ciarelli responsable del blog ThinkSecret, el cual develaba secretos sobre la marca y que finalmente fue cerrado. Todo lo que expresó Leander Kahney, en definitiva, no es más que una visión de los hechos, una opinión de alguien que sin dudas conoce mucho la historia de la empresa, pero una opinión en fin.
cas no es lo que nos interesa aquí, pero sí se puede analizar aquello de que Apple logra tener éxito a pesar de hacer todo mal. A lo que el autor de la nota se refiere es que Apple no respeta ninguna de las reglas no escritas que cumple cualquier compañía que logra tener éxito en Sillicon Valley. Específicamente la nota escrita por Leander Kahney, editor de Wired y experto en el mundo Apple tras haber escrito los libros The Cult of Mac y Inside Steve´s Brain, se refiere a Google y opone su modelo al de Apple.
Vientos de cambio soplan en el Valle De esta forma si Google apuesta por el código abierto, Apple lo hace por el más cerrado de todos, si Google es flexible con los horarios y se ocupa del bienestar de sus empleados, en Apple se ejercería una presión asfixiante sobre los suyos. En definitiva, según la visión de Kahney, algunas de las reglas no escritas para tener éxito en Silicon Valley son: 1) cooperación: con la comunidad, con las plataformas abiertas. 2) comunicación: informar a través de algún blog, grupo o canal, a los fans sobre las novedades de la compañía, proyectos, el ambiente de trabajo y recibir e incorporar sus WWW.REVISTANEX.COM
Nuevas tecnologías, viejas prácticas No obstante lo que no se puede negar es que muchas de las prácticas de Apple pertenecen a otra era de la informática. Y sobre todo que cuando otras empresas, Microsoft por ejemplo, realiza alguna acción parecida es castigada y demonizada por el resto del mundo, pero cuando se trata de la compañía liderada por Jobs, el status que este verdadero icono del diseño y la tecnología posee, termina salvándolo de todas las criticas.
La marca más admirada del mundo Apple es vanguardia, es diseño, es individualismo y sobre todo funciona, dicen sus fans. Pero Apple también pertenece a una época en donde el software propietario y empaquetado era el dominante, una época en donde el conocimiento y la información estaba en manos de unas pocas empresas que se dedicaban a hackearse entre ellas para obtener la supremacía en el mercado (ver recuadro “Los buenos artistas copian, los grandes roban”), pero que de ninguna manera esa información estaba disponible para los usuarios. Treinta años más tarde, por primera vez, son los usuarios los que generan más información y contenidos que las empresas. Gracias a las posibilidades de Internet y a su espíritu evidentemente democrático y colaborativo, así
La famosa campaña Get a Mac, con lo que Apple intenta diferenciar a sus productos de los de Microsoft, ha generado polémicas y sobre todo ha abierto todo un nuevo mercado de la publicidad entre las TICs. Un mercado en donde se apuesta por la creatividad, la ironía y el humor (ver NEX #44). Sin embargo, esa fuerte presencia de Apple en el mundo de la publicidad no es nueva. En 1984 durante el Super Bowl fue presentada la primera Macintosh con una espectacular publicidad realizada por el famoso director de cine Ridley Scott, responsable de películas como Alien, Blade Runner y Gladiador. El comercial marcó una época por su realización cinematográfica y la gran cantidad de recursos utilizados para llevarlo a cabo (vea la publicidad de Macintosh 1984 en MundoNex.com).
No solo es quien diseñó la histórica manzana que representa a la compañía, sino que es uno de los personajes menos afortunados en la historia de la informática. Fue el tercer socio fundador de la compañía y poseía el 10 por ciento de la misma, sin embargo, al poco tiempo prefirió apostar por la seguridad de Atari y vender sus acciones de Apple por 800 dólares ya que consideraba que la empresa no tenía mucho futuro. Además sus antiguos socios le dieron una bonificación de despedida de 1.700 dólares. Con el tiempo y dada la cotización que alcanzó la compañía, ese 10 por ciento que Wayne poseía hubiese significado una suma cercana a los 7 mil millones de dólares. El sin embargo, afirmó que nunca se arrepintió de haber vendido su parte por 800 dólares porque esa era la mejor decisión que podía tomar en aquel momento.
El fanatismo por la compañía de la manzana llega a extremos increíbles. Tanto así que esta película muestra a gente con manzanas tatuadas en su cuerpo, que explican la pasión que sienten por los productos de la compañía como si se tratará de hinchas de un equipo de fútbol. Realizado por dos fanáticos de Apple, este documental cuenta con sitio, blog, grupo en Facebook y espacio en MySpace. Se espera que próximamente sea lanzada en DVD.
NEX IT SPECIALIST |33|
NOTA DE TAPA como también al protagonismo cada vez mayor de los programas de software libre, una nueva era ha llegado a la informática. Una era en la cual los líderes y ejemplos a seguir se llaman Jimmy Wales, Larry Page, Sergey Brin, Steve Chen, Mark Zuckerberg, fundadores de empresas y sitios como Google, Wikipedia, YouTube o Facebook. Sin embargo, aún en este contexto, Apple ha logrado el increíble mérito de no quedar desactualizada sino todo lo contrario. A 32 años de su fundación, Apple continúa siendo la marca más “cool” del mundo y su nombre se ha asentado como sinónimo de creatividad, diseño e innovación. Incluso año a año suele quedarse con los premios a la marca más influyente, más inspiradora y con más futuro.
Problemas en tiempos de Cloud, aplicaciones online y plataformas abiertas La calidad y belleza de sus productos son el principal sostén de esta posición, pero la pregunta pasa por saber qué le deparará el futuro a la manzana y sobre todo si su aura la mantendrá indemne a los cambios radicales que se están produciendo en la industria. Es que Internet, y las compañías que la dominan, han reconfigurado por completo el mercado, modificando la forma de hacer negocios, de crear y compartir nuevos contenidos, programas y aplicaciones. Y en la misma red que alberga a cientos de sitios, blogs, espacios y comunidades dedicados a la compañía y sus productos, se han alzado varias voces de protesta contra las prácticas de Apple, incluso de quienes solían defender a ultranza a Jobs y compañía. Cuestiones como la utilización de DRM en los temas descargados desde iTunes, aún después de que Amazon y MySpace hayan decidido dejar de utilizarlo, o el hecho de que el sistema Mac OS X no pueda ser utilizado en ninguna computadora que no haya sido fabricada por Apple, logran irritar a defensores del software libre. Las decenas de demandas que Apple recibe al año por prácticas monopólicas en el mercado de la música, molestan a los defensores del libre mercado y la libre competencia. John Lilly, CEO de Mozilla, denunció a Apple por prácticas poco éticas y competencia desleal, cuando a los usuarios de Windows les apareció a través del actualizador de software, la posibilidad de instalar Safari como navegador predeterminado, pero con la particularidad de que ya venía pre-tildado el campo que activaba la instalación. |34| NEX IT SPECIALIST
La rebaja en 200 dólares en el iPhone, tan solo dos meses después de haberlo lanzado, le generó millonarias demandas por parte de usuarios que se sintieron estafados por haber pagado el precio inicial de 599 dólares por el dispositivo. Los programadores independientes relegados en la primera versión del iPhone, pudieron comenzar a crear aplicaciones para el iPhone 3G y venderlas en iTunes, pero a cambio debieron firmar un restrictivo acuerdo de confidencialidad y debieron sortear numerosas trabas a la hora de trabajar ya que Apple se negaba a darle la información necesaria. Incluso a Alex Sokirynsky, creador de dos interesantes aplicaciones para el iPhone, se le prohibió comercializar su Podcaster, un cliente para Podcast para el iPhone, porque supuestamente duplica la funcionalidad Podcasts incluida en iTunes. Y si la única forma de adquirir aplicaciones para el iPhone es a través de App Store y Apple se niega a comercializar aplicaciones que puedan competir con las propias, entonces no existe lugar para la competencia.
Los desafíos Apple, en definitiva, parece manejarse con sus propias reglas y su aura de compañía innovadora, de diseño, revolucionaria, creadora de productos que no solo son estéticamente impactantes sino que funcionan, la mantienen indemne por el momento y la ubican en el pedestal de intocable. Ahora que Google ha lanzado Android, una plataforma para móviles totalmente abierta, que programas Open Source como OpenOffice, Ubuntu o Firefox son cada vez más exitosos, que toda la industria está virando hacia las aplicaciones online y la Cloud Computing, incluidos gigantes como Microsoft e IBM, y que la participación de los usuarios se hace cada vez más masiva e importante en la generación de programas, contenidos y productos, nuevos desafíos se plantean en el camino de Apple y las primeras voces se han levantado para protestar contra algunas prácticas anacrónicas de la compañía. Apple cuenta con el prestigio y los productos suficientes como para encarar esta nueva era desde un lugar de privilegio. El tiempo dirá si se adapta a las nuevas circunstancias o si continúa creando sus propias reglas. Y en ese caso serán también los hechos los que indicarán si lo hizo con éxito o fracasó en el intento.
Existen cientos de historias y leyendas sobre la historia de los logos de Apple, sin embargo lo cierto es que la empresa ha tenido a lo largo de su historia 3 logos distintos. 1) El primero fue un dibujo de Ronald Wayne que mostraba a Isaac Newton leyendo un libro bajo un manzano a punto de desprender su fruto y alrededor de la imagen se leía la leyenda “Newton… A mind forever voyaging through strange seas of thought… alone”, es decir “Newton… una mente siempre viajando a través de los extraños mares del conocimiento… solo”, y se trataba de una cita del poeta inglés William Wordsworth. La frase resumía la formula que daría éxito a la compañía, creación e individualismo. 2) Como Jobs no estaba conforme con la efectividad del logo, al cual consideraba demasiado complejo e intelectual, un año más tarde convocó a Rob Janoff quien era el director de arte de una importante agencia de publicidad. Fue Janoff quien diseñó la famosa manzana multicolor que alcanzó una impresionante popularidad en el mundo entero. Existen infinidad de interpretaciones sobre el significado de la manzana multicolor. Se dijo que la manzana representa al conocimiento y al mismo tiempo a la lujuria, mientras que los colores del arco iris representaban la novedad de los gráficos en colores de la Apple II. Otra versión afirma que la manzana era la fruta preferida de Steve Jobs, quien es vegetariano. Pero la versión más polémica es la que afirma que la manzana multicolor es un homenaje al genial matemático Alan Turing, quien sentó las bases de la computación y falleció al morder una manzana envenenada con cianuro en 1953. Se cree que Turing decidió suicidarse ya que se encontraba víctima de una gran depresión. Es que poco tiempo antes y en pleno siglo XX, la justicia británica increíblemente lo había condenado a realizarse un tratamiento con hormonas por haber sido hallado culpable de homosexualidad.
WWW.REVISTANEX.COM
Como los responsables nunca han querido aclarar el verdadero significado y fuente de inspiración del logo, su historia forma parte de las leyendas y misterios que rodean a la compañía. 3) En 1998 y coincidiendo con el lanzamiento de la iMac, se renovó el logo, básicamente quitándole las bandas multicolores que lo formaban, estilizándolo y haciéndolo más elegante. Entre 1999 y 2000 el nombre de la compañía pasó a ser finalmente Apple, sin el Computer y el logo adquirió un poco de relieve y quedó inmortalizado en el color gris que todos conocemos.
Esa frase de Pablo Picasso es un perfecto resumen de la película Pirates of Silicon Valley. Se trata de la historia no oficial y no autorizada del surguimiento de los imperios Apple y microsoft y está basada en el libro Fire in the Valley: The Making of a Personal Computer y en investigaciones propias del director Martyn Burke. La película básicamente da cuenta de la encarnizada competencia entre dos de las figuras más emblemáticas y millonarias de la historia de la computación, Steve Jobs y Bill Gates, quienes supieron sacar provecho de sus talentosos compañeros, Steve Wozniak el de Apple y Paul Allen el de Microsoft, robarle ideas a otras compañías y pelearse entre ellos. Según la visión del director de la película, Apple y Jobs ya eran muy exitosos cuando un joven Bill Gates luchaba por encontrar su oportunidad junto a sus viejos compañeros de Harvard Paul Allen y Steve Ballmer. Luego, Gates lograría venderle a Ibm las licencias de un sistema operativo que él no creó, sino que compró a un programador por 50.000 dólares y mediante el cual comenzaría a cimentar su fortuna. Jobs, por su parte, le habría robado la idea del mouse y la interfaz gráfica utilizada en la macintosh a Xerox. y finalmente Jobs sería engañado y pirateado por bill Gates quien a partir de haber copiado la interfaz de la primera mac crearía el Windows, el sistema operativo que le aseguraría el título de hombre más rico del mundo.
WWW.REVISTANEX.COM
NEX IT SPECIALIST |35|
NOTA DE TAPA
Linea del tiempo - Linea del tiempo - Linea del tiempo - Linea del tiempo - Linea del tiempo - Linea del tiempo - Linea del tiempo - Linea del tiempo - Linea del tiempo - Linea del
1971
Presentados
por un amigo en común
se conocen Steve Jobs quien
tenía 16 años y Stephen Wozniak de 21 años. Ambos tenían debilidad por las computadoras.
1976 Con un capital inicial de 1.100 dólares producto de la venta de la camioneta de Jobs y una calculadora HP de Woz, es fundada Apple Computer. La Apple I se vendía por 666 dólares y se trata de la primera computadora personal de la historia. 1977 Es lanzada la Apple II la cual gracias a su elegante diseño, poco peso, teclado y sobre todo que se vendía totalmente ensamblada se convirtió rápidamente en un éxito de ventas. La Apple II incluía el histórico logo de la manzana multicolor.
1980 Apple sale a cotizar en bolsa y Steve Jobs se convierte en el multimillonario más joven de los EE.UU. Cerca de 50 empleados que poseían acciones de la empresa también obtienen unos cuantos millones. 1981 Tras un accidente que casi le quita la vida, Wozniak comienza a alejarse de la compañía. 1983 Es lanzada Apple Lisa, la primera computadora personal en contar con mouse e interfaz de usuario. Pero su elevado precio superior a los U$ 9.000 la convirtió en un nuevo fracaso. 1984 Es presentada la primera Macintosh. 1985 Wozniak se retira definitivamente y Steve Jobs es alejado de la toma de decisiones y prácticamente obligado a renunciar. Más tarde fundará NeXT y Pixar. 1991 Apple lanza el primer PowerBook, una ligera portátil que incluye casi todas las funciones de las desktop.
1992 Con 25 años de edad se une a la compañía el diseñador británico Jonathan Ive, padre del iMac, iPod de tercera generación en adelante y la MacBook Air. 1996-1997 En medio de una grave crisis financiera, Apple decide traer de vuelta a Jobs, le compra su compañía NeXT y lo nombra CEO. Jobs busca el auxilio financiero de Bill Gates y reorienta los negocios de la compañía. 1998 Es presentada la primer iMac y se comienza a trabajar en el proyecto Mac OS X. 2001 Apple lanza el iPod y revoluciona el negocio de la música. El mismo año es presentado el Mac OS X. 2006 Es presentada la primer MacBook. 2007 Llega el iPhone, un smartphone de pantalla táctil que combina varias funciones y que impuso una verdadera fiebre por los dispositivos
|36| NEX IT SPECIALIST
con
interfaz táctil.
WWW.REVISTANEX.COM
GENERAL
L
|38| NEX IT SPECIALIST
PHOTOSYNTH
Desde el 20 de agosto se puede usar online el Photosynth. Si bien fue presentado hace un tiempo, ahora figuran algunas modificaciones. El Photosynth permite tomando como base una fotografía es crear un espacio en 3D en donde uno se puede mover. ¿Cómo fuciona? Se necesita un conjunto de fotografías (sacadas por la misma persona o por diferentes, en otro momento, ubicación, etc); cada foto es procesada para extraer diferentes características distintivas, como el borde del marco de una ventana o el picaporte de una puerta. Estas fotos que comparten características son entonces unidas en la Web, al encontrar la misma característica en varias imágenes, entonces se puede calcular su posición 3D. La única condición es que el software solo se puede correr en una PC. http:// livelabs.com/photosynth/
htt p:/ /liv
ynth/ hotos m/p .c o
yc
ofu
NING
Gina Bianchini - CEO
La EmTech 2008 del MIT nos trae todos los años lo nuevo en materia tecnológica y analiza hacia dónde estamos yendo. Conozcamos un poco más lo que dentro de algunos años será moneda corriente.
Este evento de tres días de duración tiene como objetivo juntar a los innovadores y líderes para discutir las nuevas tecnologías que cambiarán y mejorarán nuestras vidas, crearán oportunidades y un gran crecimien-
to económico. Desde 1999 la EmTech se realiza todos los años con el agregado de los “TR35” del año, los 35 innovadores de menos de 35 años. Cabe destacar que originalmente eran TR100, los 100 innovadores de menos de 35 años, hasta 2005 cuando se realizó el cambio (ver recuadro).
bs ela
vislumbrando lo nuevo
a Emerging Technologies Conference, más conocida como la EmTech, es un evento de nivel mundial organizado por la revista Technology Review del MIT, en la cual año tras año se dan a conocer las últimas novedades en ingeniería y tecnología.
in de N a r o ad nd
g
“Una nueva red social es creada en Ning cada 30 segundos”, afirmó Gina Bianchini, CEO y cofundadora de Ning, quien además cree que es una red social única ya que le brinda al usuario la plataforma (y no como Facebook que es una plataforma simple). La idea de Ning es crear una red social como el usuario lo prefiera, customizarla completamente, agregando y quitando lo que se quiera sin necesidad de encuadrarse en un estándar y disfrutando de los beneficios de una red social. ¿La diferencia? Ning tiene a disposición de los usuarios un directorio con más de 30 aplicaciones las cuales pueden ser agregadas en cualquier perfil.
WWW.REVISTANEX.COM
Calais
Sitios para no perderse
Mogulus: es la plataforma más poderosa de transmisión en vivo en Internet, donde los productores pueden transmitir programas en vivo, grabados o reproducirlos por demanda. Se trata de un estudio de televisión online al cual se puede acceder a través de la Web y sin necesidad de instalar ningún software. http://www.mogulus.com/ Panda: Es una solución open source para la subida, streaming y codificado de videos. http://pandastream.com/ Digital Chalk: Como un instructor, uno pueden crear cursos multimedia integrando videos, imágenes y páginas web. http://www.digitalchalk.com
Calais es servicio que utiliza la tecnología del procesamiento natural del lenguaje (Natural Language Processing - NLP) para taggear semánticamente los textos subidos al sistema. De esta forma se reconoce automáticamente los nombres de personas, compañías, industrias, sistemas operativos, locaciones, etc. El objetivo que busca Calais, la cual está relacionada con Reuters, es hacer que todo el contenido sea más accesible, interoperable y valioso. http:// opencalais. com
Animoto: Es una aplicación Web que genera automáticamente videos de tipo profesionales usando las imágenes y la música seleccionada por el usuario. Se pueden subir todas las imágenes que queramos, elegir la música de fondo y esperar a que nos llegue por mail el producto terminado. http://animoto.com
El poder del cliente + la nube
http :
Sin dudas fue lo más esperado del EmTech 2008. La charla de Craig Mundie, Chief Research & Strategy Officer de Microsoft, estuvo orientada a ver hacia dónde se dirige Microsoft en particular y la computación en general en las próximas décadas, y predijo que se viene un mundo virtual en 3D el cual será posible con la combinación del cliente y de los servicios que ofrece Internet. Mundie llamó a esta próxima generación como “informática espacial” en la cual figuran atributos como muchos procesadores de núcleo; programación paralela; conciencia del contexto y del modelo de base; personalización, humanismo y adaptación; 3D; y la utilización de discurso, la visión y los novador del año gestos. Para ilustrar a qué se refiere con informática espacial, Mundie n I l 20 E 08 comentó que en unos pocos meses Microsoft Research planea poner a prueba un nuevo asistente virtual en la recepción de algunos de sus edificios del campus el cual ayudará a organizar las reservas de transporte para trasladar a la gente alrededor de los 10 milloTR35 nes de metros cuadrados que Desde 1999 la Technotiene Redmond. logy Review premia a los innovadores de menos de 35 años en 4 categorías bien diferenciadas: Biotecnología, Tecnología de la Información, Nanotecnología y Energía. Si bien en un principio se premiaba a los 100 innovadores más jóvenes, en 2005 se decidió acortar la lista y sólo premiar a 35 personas de una larga lista de tecnólogos, comunicadores, electrónicos, nanotecnólogos y todos aquellos que están cambiando el mundo. El TR35 es entregado a los finalistas en la EmTech de cada año, por lo que además se eligen de entre ellos al Innovador del Año de y al Humanitario Tecnológico. JB Straubel, ingeniero electrónico de autos deportivos de 32 años, se llevó el primer premio como Innovador del 2008. Straubel es el encargado del desarrollo del primer auto eléctrico de Tesla el cual puede acelerar de 0 a 120 k/h es solo segundos. Por su parte, Aimée Rose, creadora de detectores de explosivos ultrasensibles de 34 años, se hizo acreedora del premio al Humanismo tecnológico. El detector se llama Fido XT y puede detectar algunos billonésimos de un gramo de explosivo en el aire y rara vez da como resultado un falso positivo. //a nim
Mu
nd
ie, ie Ch
f Re search & Strategy Of fice rd e
M
o os icr
ft
om o.c ot
WWW.REVISTANEX.COM
Cra ig
NEX IT SPECIALIST |39|
OPINION Autor: Ricardo D. Goldberger Periodista Científico especializado en Informática y Nuevas Tecnologías.
la incomprensión de los nuevos modelos de internet Dos noticias que se conocieron semanas atrás pueden parecer distintas, pero comparten un dato en común: ambas reflejan la poca o ninguna comprensión de los nuevos (y no tan nuevos) fenómenos que se producen en Internet, a causa de ella o exclusivamente por su existencia. En un caso se acusó a un buscador, en el otro, a una construcción comunitaria. En ninguno se tuvo en cuenta que el resultado era uno solo: matar al mensajero.
L
a primera de las noticias a que aludimos en el copete, dice: “La pelea entre Maradona y los buscadores llegó a los medios extranjeros”. Se refería a un mensaje que aparecía en Yahoo! cuando se intentaba buscar “Diego Maradona”: “Con motivo de una orden judicial solicitada por partes privadas, nos hemos visto obligados a suprimir temporalmente todos o algunos de los resultados relacionados con esta búsqueda”, según el artículo publicado en La Nación (1). Lo más eminente, a juzgar por el contenido de la nota, era que “El hecho trascendió las fronteras nacionales y el sitio estadounidense de noticias tecnológicas C|Net News mencionó este caso. Indicó que, desde el último año, los usuarios de Internet tienen acotada su búsqueda en los servicios de Google Argentina y Yahoo! Argentina como consecuencia de las medidas ordenadas por los jueces argentinos. Así mismo, aclara que la restricción de las búsquedas no afectan a los servidores ubicados en territorio estadounidense, como Yahoo.com y Google.com.” Y señalaba causas similares llevadas a cabo para que nombres como Nicole Neumann, Florencia Raggi y María Eugenia Tobal o el de la jueza María Servini de Cubría, no apareciesen en los resultados. Un par de semanas más tarde, El Mundo de Madrid reportaba que un diputado germano había mandado bloquear la Wikipedia alemana. Según El País, de Madrid, “Su entrada en Wikipedia decía que el diputado alemán Lutz Heilmann colaboró con la temida policía secreta (Stasi) de la República Democrática Ale-
|40| NEX IT SPECIALIST
mana y que dirigió en Lübeck una tienda de artículos eróticos por Internet. Ofendido, el diputado federal de La Izquierda emprendió acciones legales.” (2). Durante casi 72 horas, la Wikipedia alemana estuvo inaccesible, a pesar de lo cual, a través de los buscadores y de versiones de la Wikipedia en otras lenguas, la información podía ser consultada igual. Finalmente, y tal como lo consigna el mismo diario, “La Audiencia Provincial de Lübeck ordenó la reapertura de la página Web de Wikipedia en Alemania que había quedado bloqueada por solicitud de un diputado del partido de La Izquierda. “Según indicó el tribunal, la reapertura se ordenó después de que el propio diputado retirara su querella.” (3). Lo que hacen buscadores como Google, Yahoo o Live Search es indexar palabras aparecidas en sitios Web. En otras palabras, los buscadores no reproducen contenido propio, sino de otros. Ningún buscador, dicho sea de paso, genera su propio contenido, sino que nos dice a los usuarios dónde está lo que buscamos. Culpabilizar a los buscadores de que aparezcan determinados resultados es igual a culpar a un camión repartidor de que las etiquetas de los productos que reparte estén mal colocadas. La Wikipedia, así como otros sitios basados en el formato Wiki, permite la edición, corrección y control de la información publicada por medio de la comunidad. Dicho de otra manera, cualquiera que encuentre un error, o algo que cree que es un error, puede ingresar al texto y modificarlo. En lugar de interponer un
recurso legal, que impidió el acceso a la Wikipedia al resto de la ciudadanía alemana, lo que el diputado Heilmann debería haber hecho, si no estaba de acuerdo con lo que se publicaba, es haber entrado y corregido. Es muy probable que a este señor ni se le hubiera pasado por la cabeza que podía haberlo hecho. Pero eso indica que, en realidad, si no lo hizo, es porque desconoce que este tipo de mecanismos se está popularizando cada vez más. El que no podía desconocerlo era su asesor de prensa o de comunicaciones, si hubiese tenido uno. Lo más notable es que el propio Heilmann tiene una página de Internet, y fue en ella donde reconoció que había sido un error recurrir a la vía judicial. Internet es, a su manera, un nuevo mundo. Pero un nuevo mundo que convive simultáneamente con el nuestro. Un mundo en el que vamos a vivir obligatoriamente. Y como cualquier mundo, tiene reglas que se deben cumplir para sobrevivir en él. Si no las conocemos, deberemos aprenderlas. Pero nunca hacerlo desde el prejuicio o la sinrazón.
Links de Interés • http://www.lanacion.com.ar/nota. asp?nota_id=1069280 • http://www.elmundo.es/ navegante/2008/11/17/ tecnologia/1226909625.html • http://www.elmundo.es/ navegante/2008/11/17/ tecnologia/1226935254.html
WWW.REVISTANEX.COM
FASCÍCULO coleccionable 3 de 5 No deje de ver el video de Historia de Inte rnet en mundonex.co m
la decada
durante la década de 1980 internet creció exponencialmente, una de las razones fueron las diversas innovaciones técnicas como computadoras y hardware que han hecho que la red de redes sea más accesible a las organizaciones, instituciones educativas y particulares, así como la creación de organizaciones que ayudaron a manejar la enorme comunidad que está ahora en internet. ///////////////////////////////////////////////
8
de los
pág. siguiente
»
A comienzos de la década de 1980, ARPANET (Advanced Research Projects Agency Network) adopta como estándar el protocolo TCP/IP (Transfer Control Protocol/Internet Protocol) sustituyendo a NCP (Network Control Program). Además, ARPANET se separa de la red militar que la originó, de modo que ya sin fines militares se puede considerar esta década como la del nacimiento de Internet. Durante 1980 Tim Berners-Lee trabajó en el CERN (La Organización Europea para la Investigación Nuclear) desde junio hasta diciembre. En este período propuso un proyecto basado en el hipertexto para facilitar la forma de compartir y la puesta al día de la información entre investigadores al que llamó “Enquire Within” (preguntar desde “adentro”). A fines de la década, mientras se encontraba trabajando en la empresa de John Poole llamada Image Computer System, el científico británico presentó al CERN, que para ese entonces era el nodo de Internet más grande de Europa, un proyecto que unía Internet y el hipertexto (HTTP y HTML), lo que luego derivaría en la Word Wide Web. Desarrolló su primera propuesta de la Web en marzo de 1989, pero no tuvo mucho eco, por lo que en 1990 y con la ayuda de Robert Cailliau, hicieron una revisión que fue aceptada por su gerente, Mike Sendall. Usó ideas similares a las que había usado en el sistema Enquire para crear la World Wide Web, para esto diseñó y construyó el primer navegador (llamado WorldWideWeb y desarrollado con NEXTSTEP) y el primer programa que corre de fondo en un servidor Web al que llamó httpd (HyperText Transfer Protocol daemon).
En 1981, un acuerdo entre CSNET (Computer Science Network), NSF (Nacional Science Foundation) y DARPA (Defense Advanced Research Projects Agency), permite que el tráfico de CSNET comparta la infraestructura de ARPANET. En consecuencia, y de forma similar, la NFS promociona sus redes regionales de NSFNET (Nacional Science Foundation´s Network) inicialmente académicas para buscar clientes comerciales, expandiendo sus servicios y explotando las economías de escala resultantes para reducir los costos de suscripción para todos. Para fines de este año ya existen alrededor de 213 máquinas conectadas. Además, la corporación IBM presenta sus primeros computadores personales a un precio de 4500 dólares con una gran repercusión, ya que logran vender más de 65.000 unidades tan solo en los primeros cuatro meses (ver recuadro). En agosto de este año, Microsoft compra un sistema operativo llamado QDOS, que tras realizar unas pocas modificaciones, se convierte en la primera versión del sistema operativo de Microsoft MS-DOS 1.0 (Microsoft Disk Operating System). A partir de aquí, se suceden una serie de modificaciones del sistema operativo, hasta llegar a la versión 7.1 en 1995, a partir de la cual MS-DOS deja de existir como tal y se convierte en una parte integrada del sistema operativo Windows. Ira Fuchs y Greydn Freeman crean el servicio BITNET, una red internacional de computadoras de centros docentes y de investigación que ofrecía servicios interactivos de correo electrónico y de transferencia de ficheros utilizando un protocolo de almacenaje y envío basado en los protocolos Network Job Entry. Se conecta-
ba a Internet mediante correo electrónico. Con la excepción de BITNET y USENET, una red de usuarios donde se pueden leer o enviar mensajes a distintos grupos de noticias ordenados de forma jerárquica, todas las primeras redes (como ARPANET) se construyeron para un propósito determinado. Es decir, estaban dedicadas (y restringidas) a comunidades cerradas de estudiosos; de ahí las escasas presiones por hacer estas redes compatibles y, en consecuencia, el hecho de que durante mucho tiempo no lo fueran. En 1983, dos importantes eventos realizados hicieron que Internet fuera más fácil de usar y más uniforme que nunca. Se trata de la creación de DNS (Domain Name System) y la sustitución del protocolo NCP por TCP/IP. Todos los ordenadores/computadoras que se conectan a una red necesitan tener una dirección que las identifique, de lo contrario, la información no sabría a donde dirigirse. A esta dirección se la llama dirección IP y consta de 4 números, entre 0 y 255 separados por puntos. Como sería muy difícil recordar estos números, se utilizan los DNS (sistema de nombre de dominio) para conectarnos a los distintos servicios de la red, que son más fáciles de recordar. El Domain Name System (DNS) o Sistema de Nombres de Dominio permite a los usuarios de una red TCP/IP utilizar nombres jerárquicos y descriptivos para localizar fácilmente computadoras (hosts) y otros recursos en dicha red, evitando de esta manera tener que recordar la dirección IP de cada ordenador al que se desea acceder. En esencia, DNS es una base de datos distribuida que contiene asociaciones de nombres simbólicos (de hosts) a direcciones IP. El
CompuTadora //1980 laiBmprimEra pC 8088 bus ISA de 8bits a 4.77MHz con 16K de RAM ampliable a 256K gracias a sus 5 ranuras de expansión.
En 1980 IBM comienza con el desarrollo de su propia computadora personal. Para la creación de la misma utilizaron una arquitectura abierta para que otras empresas pudiesen hacer sus modelos compatibles con la IBM. En cuanto al microprocesador, optaron por el Intel 8088 de 16bits, y con |44| NEX IT SPECIALIST
El dispositivo de almacenamiento estándar fueron las cintas de casette, y como opción extra se podía instalar un lector de discos flexibles (diskettes).
puter Products la licencia de una versión clon del CP/M llamada QDOS y le hicieron mejoras a este sistema, creando el sistema llamado PC-DOS. La figura muestra uno de los primeros discos duros de IBM para el ordenador personal (PC). Se basa en una interfaz de MFM y almacenaba 20 MB.
Para el Sistema Operativo intentaron que Digital Research adaptase su sistema CP/M para el 8088 pero no se llegó a cerrar el negocio. IBM llegó a un acuerdo con Microsoft y adquirieron Seattle ComWWW.REVISTANEX.COM
FASCÍCULO coleccionable 3 de 5 hecho de que sea distribuida permite delegar el control sobre diferentes segmentos de la base de datos a distintas organizaciones, pero siempre de forma que los datos de cada segmento están disponibles en toda la red, a través de un esquema cliente-servidor (ver recuadro). El primero de enero de 1983, todas las computadoras en ARPANET o CSNET estaban obligadas a utilizar el protocolo TCP/IP, lo que se convirtió en una mejora para las comunicaciones en toda la red y permitió que todos los ordenadores puedan comunicarse fácilmente entre si. Para ese momento, Europa crea la “European Unix Network” (EuNet), conectado a ARPANET para proporcionar servicios de correo electrónico y servicios Usenet a diversas organizaciones usuarias en los Países Bajos, Dinamarca, Suecia e Inglaterra. Entretanto, el mismo año empieza a hacerse realidad Internet cuando la red militar de ARPANET, que hasta entonces había sido utilizada solo por organizaciones operativas, de investigación y de desarrollo en el área de la defensa, comienza a ser utilizada por varios civi-
//
El origen de
BITNET
En 1988, la Organización Panamericana de la Salud (OPS) estaba trabajando con la National Library of Medicine (NLM) para lograr que el servicio de búsquedas en línea a MEDLARS (MEDical Literature Analysis and Retrieval System) estuviera disponible a las bibliotecas médicas de la
se vinculan a Internet. En 1987, el número de host en Internet supera los 10,000. En 1988, Internet deja ver sus vulnerabilidades. El primero de noviembre, la red de redes es “infectada” con un virus de tipo “gusano”. Hasta el 10% de todos los servidores conectados fueron afectados. El acontecimiento subrayó la falta de adecuados mecanismos de seguridad de Internet, por lo cual DARPA formó el CERT (Computer Emergency Reponse Team), un equipo de reacción rápida que mantiene datos sobre todas las incidencias en red y sobre las principales amenazas. Para ese entonces, Jarkko Oikarinen escribe la que se considerará una de las populares aplicaciones de Internet conocida como IRC (Internet Relay Chat). Durante este año se completa WWW.REVISTANEX.COM
les, generando un mayor alcance. La transición desde NCP a TCP/IP en ARPANET permitió la división en una MILNET para dar soporte a requisitos operativos y una ARPANET para las necesidades de investigación.
ARPANET se divide en dos En 1985, ARPANET ya contaba con alrededor de 1000 computadoras (hosts), y mientras que fue creada originalmente para uso militar, la ciencia, la investigación social y la informática, pasó a ser cada vez más popular en la red. Debido a preocupaciones de seguridad nacional, ARPANET se dividió en dos redes independientes; ARPANET y MILNET. A partir de la división, ARPANET ya no se utilizaría con fines militares, sino que ahora se centraría únicamente en las aplicaciones de la investigación. Cabe señalar que a pesar de dejar de utilizarse para la defensa, ARPANET aún hoy es apoyado por el DoD (Departamento de Defensas de los Estados Unidos). En 1985, CSNET de la mano de MCI, fueron contratados para mejorar la red. Así, crearon
Universidad de Chile. Los participantes en los dos proyectos comenzaron a cuestionarse si se podría utilizar BITNET para buscar en las bases de datos de la NLM; más específicamente, se cuestionaron si sería legal y técnicamente posible transmitir los comandos de búsqueda y los resultados de la búsqueda a través de BITNET. En mayo de 1988, un proyecto de colaboración llamado BITNIS (BITNET y el
el primer tendido trasatlántico de fibra óptica entre los EE.UU. y Europa con una capacidad de transmisión de 40.000 llamadas telefónicas simultáneas. El comité del Nacional Research Council (Consejo Nacional de Investigación), presidido por el científico Leonard Kleinrock y entre cuyos miembros estaban Licklider Clark y Robert Kahn, elaboró un informe dirigido a la NSF y titulado “Towards a Nacional Research Network”. El informe llamó la atención del entonces senador Al Gore quien se introdujo en las redes de alta velocidad que pusieron los cimientos de la futura Autopista de la Información. Mientras continúa el acelerado crecimiento de la red, se establecen los primeros gateways entre servidores privados de correo electrónico y
unas nuevas y más rápidas líneas que serían llamadas líneas T1. Aunque MCI crearía el nuevo circuito, IBM crearía routers avanzados y se utilizaría para gestionar la nueva red. Esta nueva red en 1986 fue nombrado NSFNET (National Science Foundation Network). Cabe señalar que CSNET aún sigue existiendo en la línea de velocidad de 56 Kbps. En 1986 esta nueva red creada por la Nacional Science Foundatios (NSF) de EE.UU. sobrevino en el desarrollo de NSFNET que se diseñó originalmente para conectar cinco superordenadores. Su interconexión con Internet requería unas líneas de muy alta velocidad. Esto aceleró el desarrollo tecnológico de INTERNET y brindó a los usuarios mejores infraestructuras de telecomunicaciones. Otras agencias de la Administración norteamericana entraron en Internet, con sus inmensos recursos informáticos y de comunicaciones: NASA y el Departamento de Energía. En marzo de este año, Symbolic.com aparece como el primer nombre de dominio registrado. El nombre de dominio es un identificador único a través del cual las computadoras
Sistema de Intercomunicación de NLM) fue lanzado por la NLM, OPS y la Universidad. El programa de prueba para BITNIS fue elaborado por el doctor Andrés Stutzin y Víctor Cid, de la Universidad de Chile. En agosto de 1988, ellos llevaron a Washington, D.C. el primer programa de BITNIS y el concepto básico de BITNIS fue demostrado con éxito en la NLM.
los establecidos originalmente en Internet. Una nueva época estaba a punto de empezar, la de la explotación comercial de Internet. Durante 1989 la empresa Compuserve Information Service lanza el primer servicio interactivo de información a través de computadores conectados a la Ohio State University contando con 1.200 abonados. Menos de 20 años más tarde, las redes globales de computadores que formarán Internet contarán con 40 millones de usuarios, el 70% de ellos en EE.UU. Terminando la década, con más de 100,000 hosts en Internet, Tim Berners-Lee presenta una propuesta que contempla un sistema de hipertexto para permitir compartir la información en línea entre los investigadores de la High Energy Physics Community. NEX IT SPECIALIST |45|
Hub: (o concentrador) es un equipo de redes que permite conectar entre sí otros equipos y retransmite los paquetes que recibe desde cualquiera de ellos a todos los demás. Los hub han dejado de ser utilizados, debido al gran nivel de colisiones y tráfico de red que propician.
Host:
en las especificaciones del protocolo de Internet, el término “host” significa cualquier equipo que tenga dos vías de acceso a otras computadoras en Internet. Un host tiene un número específico que, junto con el número de red, forman su dirección de IP única. Si se usa el Protocolo Point-to-Point para ingresar al proveedor de acceso, se tendrá una dirección IP única para el tiempo que dure la conexión a Internet y mientras la computadora sea el host. En este contexto, un “host” es un nodo en una red.
Switch: (en castellano “conmutador”), es un dispositivo analógico de lógica de interconexión de redes de computadoras que opera en la capa 2 (nivel de enlace de datos) del modelo OSI (Open Systems Interconnection). Un conmutador interconecta dos o más segmentos de red, funcionando de manera similar a los puentes (bridges), pasando datos de un segmento a otro, de acuerdo con la dirección MAC de destino de los datagramas en la red.
Un switch: es considerado un hub inteligente, cuando es inicializado el switch, éste empieza a reconocer las direcciones MAC que generalmente son enviadas por cada puerto, en otras palabras, cuando llega información al switch este tiene mayor conocimiento sobre qué puerto de salida es el más apropiado, y por lo tanto ahorra una carga a los demás puertos del switch, esta es una de las principales razones por las cuales en Redes por donde viaja Video o CAD, se procura utilizar switches para de esta forma garantizar que el cable no se sobrecargue con información que eventualmente sería descartada por las computadoras finales, en proceso, otorgando el mayor ancho de banda (bandwith) posible a los Videos o aplicaciones CAD.
Router: significa enrutador, es decir, buscador del camino o ruta. A diferencia de una red local de tipo Ethernet en la que un mensaje de una persona a otra se transmite a todos los ordenadores de la red, y solo lo recoge el que se identifica como destinatarios, en Internet, el volumen es tan alto que sería imposible que cada ordenador recibiese la totalidad del tráfico que se mueve para seleccionar sus mensajes, así que podríamos decir que el router en vez de mover un mensaje entre todas las redes que componen
FOTO: www.sxc.hu /Patataj Patataj
de redes
información, y en ocasiones esto resulta innecesario y excesivo.
Internet, solo mueve el mensaje entre las dos redes que están involucradas, la del emisor y la del destinatario. Es decir, un router tiene dos misiones distintas aunque relacionadas. El Router se encargará de analizar paquete por paquete el origen y el destino y buscará el camino más corto de uno a otro. Esta forma de transmitir información tiene grandes ventajas: -El router es capaz de ver si una ruta no funciona y buscar una alternativa. -El router es capaz incluso de encontrar la ruta más rápida (por ejemplo la que tenga menos tráfico) en caso de poder escoger entre varias posibilidades.
Network Card: (o tarjeta de red) es la que permite la comunicación entre diferentes aparatos conectados entre si y también permite compartir recursos entre dos o más equipos (discos duros, CD-ROM, impresoras, etc.) FOTO: www.sxc.hu / Mario Alberto Magallanes Trejo
//Conceptos básicos
//¿Cuál es la diferencia entre un Switch y un Hub? El HUB básicamente extiende la funcionalidad de la red (LAN) para que el cableado pueda ser extendido a mayor distancia, es por esto que un hub puede ser considerado como una repetidora. El problema es que el hub transmite estos “broadcast” a todos los puertos que conecta, esto es, si el hub contiene 8 puertos, todas las computadoras que estén conectadas al hub recibirán la misma |46| NEX IT SPECIALIST
WWW.REVISTANEX.COM
FOTO: www.sxc.hu /John De Boer
FASCÍCULO coleccionable 3 de 5
A las tarjetas de red también se las llama adaptador de red o NIC (Network Interface Card, Tarjeta de Interfaz de Red en español). Hay diversos tipos de adaptadores en función del tipo de cableado o arquitectura que se utilice en la red (coaxial fino, coaxial grueso, Token Ring, etc.) pero actualmente el más común es del tipo Ethernet utilizando un interfaz conector RJ-45. Cada tarjeta de red tiene un número de identificación único de 48 bits, en hexadecimal llamado dirección MAC. Estas direcciones hardware únicas son administradas por el Institute of Electronic and Electrical Engineers (IEEE).
//direcciÓn iP Es un número que identifica de manera lógica y jerárquica a una interfaz de un dispositivo (habitualmente una computadora) dentro de una red que utilice protocolo IP (Internet Protocol), que corresponde al nivel de red o nivel 3 del modelo de referencia OSI. Dicho número no se ha de confundir con la dirección MAC (o MAC adress), un número hexadecimal fijo que es asignado a la tarjeta o dispositivo de red por el fabricante, mientras que la dirección IP se puede cambiar. Es habitual que un usuario que se conecta desde su hogar a Internet utilice una dirección IP. Esta dirección puede cambiar al reconectar; y a esta forma de asignación de dirección IP se denomina una dirección IP dinámica (normalmente se abrevia como IP dinámica). Los sitios de Internet que por su naturaleza necesitan estar permanentemente conectados, generalmente tienen una dirección IP fija, es decir, no cambia con el tiempo. Los servidores de correo, DNS, FTP públicos y servidores de páginas Web necesariamente deben contar WWW.REVISTANEX.COM
con una dirección IP fija o estática, ya que de esta forma se permite su localización en la red. A través de Internet, los ordenadores se conectan entre sí mediante sus respectivas direcciones IP. Sin embargo, a los seres humanos nos es más cómodo utilizar otra notación más fácil de recordar y utilizar, como los nombres de dominio; la traducción entre unos y otros se resuelve mediante los servidores de nombre de dominio DNS. Existe un protocolo para asignar direcciones IP dinámicas llamado DHCP (Dynamic Host Configuration Protocol).
//dns (dOMAin nAMe systeM) El Sistema de Nombres de Dominio (DNS por sus siglas en inglés, Domain Name System) es una base de datos distribuida y jerárquica que almacena información asociada a nombres de dominio en redes como Internet.
//PArA QuÉ sirVe eL dns La asignación de nombres a direccio-
nes IP es la función más conocida de los protocolos DNS. Por ejemplo, si la dirección IP del sitio www.yahoo.com es 63.65.251.8, la gente llega a ese equipo especificando www.yahoo.com y no la dirección IP. Es decir, los DNS traducen nombres de host (www) en un dominio (yahoo.com) –es decir, servidor Web “www” del dominio “yahoo. com”- a números IP para que el usuario tenga que recordar solamente los nombres lógicos. Es un sistema que ayuda a los usuarios a utilizar la red de una manera sencilla. Inicialmente, el DNS nació de la necesidad de recordar fácilmente los nombres de todos los servidores conectados a Internet. En un inicio, SRI (ahora SRI Internacional) alojaba un archivo llamado HOSTS que contenía todos los nombres de dominio conocidos (técnicamente este archivo aún existe). El crecimiento de la red causó que el sistema de nombres centralizados en el archivo HOSTS no resultara práctico y en 1983, Paul Mochapetris publicará los RFCs 882 y 883 definiendo lo que hoy ha evolucionado el DNS moderno. (Estos RFC luego quedarán obsoletos por la publicación de los RFCs en 1987). Ver historia de Internet década de 1960. NEX IT SPECIALIST |47|
// irC inTErnET rElaY CHaT Es un protocolo de comunicación en tiempo real basado en texto, que permite debates en grupo o entre dos personas y que está clasificado dentro de la mensajería instantánea. Las conversaciones se desarrollan en los llamados canales de IRC, designados por nombres que habitualmente comienzan con el carácter # o & (este último solo es utilizado en canales locales del servidor). Es un sistema de charlas ampliamente utilizado por personas de todo el mundo.
IRC fue creado por Jarkko Oikarinen (alias “WiZ”) en agosto de 1988 con el motivo de reemplazar al programa MUD (talk multiusuario) en un BBS llamado OuluBox en Finlandia. Oikatinen se inspiró en el Bitnet Relay Chat, cual operaba en la red Bitnet.
golpe de estado en la Unión Soviética de 1991 para informar através de un período de censura en los medios. Fue utilizado de similar manera por los Kuwaitíes durante la invasión a Irak.
El IRC ganó popularidad cuando fue utilizado en el intento de
1983
1981
980
1980
1980
el ejérCito norteAmeriCAno AdoptA Como estándAr el protoColo tCp/ip. tim bernerslee desArrolló “enQuire witHin”, lA red mundiAl de inFormACión ConoCidA Como internet.
|48| NEX IT SPECIALIST
pArA Fines de este Año yA existen Alrededor de 213 máQuinAs ConeCtAdAs. ibm presentA su primerA ComputAdorA personAl, lA ibm pC 8088. miCrosoFt ComprA un sistemA operAtivo llAmAdo Qdos el CuAl se Convierte en lA primerA versión del sistemA operAtivo del ms-dos 1.0. irA FuCHs y greydn FreemAn CreAn el serviCio bitnet.
ComienzA lA ComerCiAlizACión de lA Commodore 64.
1982
se CreA el dns (domAin nAme system) y se sustituye el protoColo nCp por tCp/ip. ApAreCe en FrAnCiA el minitel. europA CreA lA “europeAn unix network” (eunet). ArpAnet ComienzA A ser utilizAdA por Civiles. pAul moCHApetris publiCA los rFCs 882 y 883. WWW.REVISTANEX.COM
980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980
Los usuarios IRC utilizan una aplicación cliente para conectarse con un servidor, en el que funciona una aplicación IRCd (IRC Daemon o servidor de IRC) que gestiona los canales y las conversaciones.
64 //1980 Commodore (C64, CBM64/CBM64, C=64) Es una computadora personal de 8 bits que salió a la venta en la década de 1980. Utilizaba unidad de casete además de disketera tipo 5 ¼. Disponía de un teclado profesional muy robusto, distintas tomas de conexión y poseía infinidad de juegos, aplicaciones, gráficos y multimedia. Contaba con una paleta de 16 colores y un intérprete BASIC- Aceptaba la conexión directa de periféricos sin necesidad de un interfaz de conexión, (como alguno de sus más directos competidores) incorporando dos puertos de conexión de mandos de juego (joystics), puertos serie IEC, RS232 y C2N, salida a la televisión, salidas de video compuesto y audio mediante un conector DIN de alta fidelidad y un puerto de expansión para cartuchos. Algunos cartuchos in-
corporaban lenguajes de programación como COBOL, o un Basic más avanzado, o expansión de ram, más algunas utilidades para congelar los juegos y poder copiarlos. Su reloj funcionaba a menos de 1 Megahercio, pero sus excelentes capacidades gráficas y sonoras, hicieron de ella la computadora personal favorita de millones de usuarios caseros. Hoy en día existen programas que emulan su funcionamiento al completo, para GNU/ Linux, Windows y otros sistemas opera-
1985
1987 El número de host en Internet supera los 10.000.
1986 WWW.REVISTANEX.COM
Apple Computer introduce HyperCard. Los RFCs reemplazan a los RFC por estar obsoletos.
El 1 de noviembre Internet es infectada con un virus de tipo gusano el cual se propagó al 10 por ciento de los servidores. Jarkko Oikarinen escribe la aplicación IRC (Internet Relay Chat). Se completa el primer tendido trasatlántico de fibra óptica entre los Estados Unidos y Europa con una capacidad de 40.000 llamadas telefónicas simultáneas. Se desarrolla el DOS 4.0.
1990
Las líneas T1 fueron renombradas como NSFNET (National Science Foundation Network).
Se diseña y se desplega con éxito la versión original del IP.
Entonces se comenzó un proyecto para una videoconsola de Commodore que usara ambos circuitos, llamada Ultimax o Commodore MAX Machina, creada por Yací Terakura de Commodore Japón. Este proyecto fue cancelado después de fabricarse algunas unidades para el mercado japonés.
1988
Se crean las líneas T1 para mejorar la red.
Se registra el primer dominio: Symbolic.com.
Placa base de un Commodore 64.
tivos. En enero de 1981, MOS Technology, Inc., diseñadora subsidiaria de circuitos integrados de Commodore, inició un proyecto para diseñar los circuitos gráficos y de audio para la nueva generación de videoconsolas. El diseño de los circuitos, llamados VIC-II gráficos= y SID (audio) fue completado en noviembre de 1981.
1990
980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980 980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980 1980
FASCÍCULO coleccionable 3 de 5
1989 CompuServe Information Service lanza el primer servicio interactivo de información. Se registran más de 100.000 hosts en Internet.
NEX IT SPECIALIST |49|
FASCÍCULO coleccionable 3 de 5
1° CompuTadora //1984 laapplE Macintosh (abreviado Mac) es el nombre con el que actualmente nos referimos a cualquier computadora personal diseñada, desarrollada, construida y comercializada por Apple Inc. El Macintosh 128K fue lanzado el 24 de enero de 1984. Fue el primer ordenador personal comercializado exitosamente que usaba una interfaz gráfica de usuario (GUI) y un mouse en vez del estándar de esa época: la interfaz por línea de comandos. La línea de producción de Mac`s en la actualidad varía desde el básico Mac Mini de escritorio hasta los servidores de rango medio como Xserve. Los sistemas Mac tienen como objetivo principal de mercado del hogar, la educación y la creatividad profesional. La produc-
ción de Mac está basada en un modelo de integración vertical en los de Apple proporciona todos los aspectos de su
hardware y crea su propio sistema operativo que viene preinstalado en todas las Macs. Esto contrasta con las PC preinstalados con Microsoft Windows, donde un vendedor proporciona el sistema operativo y múltiples vendedores crean el hardware. En ambos casos, el hardware permite el funcionamiento de otros sistemas operativos: las Mac modernas, así como las PC son capaces de soportar sistemas operativos como Linux, FreeBSD y Windows, éste último gracias al software de Apple Boot Camp o a otros softwares de virtualización como por ejemplo Parallels Desktop o VMWare Fusion. Los primeros Macintosh estaban basados en los microprocesadores de la familia Motorola 69k, de tecnología CISC.
En 1982, aparece la versión 1.1, con la que se añade soporte para disquetes de doble cara, doble densidad (320KB).
MS-DOS 3.0 (PC-DOS 3.0): 40,000 líneas de código y un equipo de 30 personas. Incluyó muchos bugs.
Ms-dOs 2
Ms-dOs 4
20,000 líneas de código soportado por un equipo de 4 personas. Mantiene compatibilidad con MS-DOS v1.0 pero se trata de un sistema operativo diferente. Se creó en marzo de 1983 para gestionar el PC-XT. Capacidad de manejo de estructuras jerárquicas en la organización de archivos (directorios y subdirectorios).
1988. Digital Research ayuda a IBM a desarrollar un DOS 4.0. Éste después es licenciado a Microsoft, quien lo utilizará posteriormente para OS/2. Microsoft crea un sistema operativo multitareas al que inicialmente denomina MS-DOS versión 4.0. Fue diseñado para el 80386, por lo que sólo cuenta con 640KB para mantener a todos los procesos y sistemas operativos. El 8086 carece de modo protegido por lo que los procesos pueden colisionar. Pensado para facilitar la transición de MS-DOS a OS/2, resultó poco útil y nunca fue liberado. Una versión diferente ocupó su lugar. Algunas copias se venden en Europa para aplicaciones especiales.
histOriAL de VersiOnes de LA dÉcAdA de 1980 Ms-dOs 1 El MS-DOS 1.0, introducido por IBM en sus PCs en 1981. MS-DOS supuso los cimientos de Windows. Se trataba de un sistema operativo basado en línea de comandos y sin una interfaz gráfica. Tras el contrato de IBM llegaron otros muchos, que hicieron que la empresa cogiera posiciones rápidamente convirtiendo su software en el más utilizado. Son épocas del 8086/8088.
Ms-dOs 3 En 1984 aparecen los IBM PC/AT: Intel 80286, floppy de 1.2MB, 1MB en RAM, 20MB en HD, capacidad de red con hardware adicional. |50| NEX IT SPECIALIST
WWW.REVISTANEX.COM
WWW.REVISTANEX.COM
HARDWARE Taylor Collyer Director de la Gerencia de Productos para la Unidad de Negocios de Comuni-
FOTO: http://www.sxc.hu/ Ilker Yavuz
caciones Unificadas
En el marco de Cisco Networkers 2008 entrevistamos a Taylor Collyer, Director de la Gerencia de Productos para la Unidad de Negocios de Comunicaciones Unificadas, quien nos planteó hacia dónde se dirige la empresa.
E
l mundo ha cambiado la forma de hacer negocios”, sostiene Taylor Collyer, Director de la Gerencia de Productos para la Unidad de Negocios de Comunicaciones Unificadas de Cisco, a quien tuvimos la posibilidad de entrevistar en el marco del evento Networkers.
Con una charla mitad en castellano mitad en inglés, el responsable de la gerencia de productos, el marketing técnico y el desarrollo del negocio de aplicaciones que ayudan a las personas a comunicarse de manera más rica y eficiente habló de forma distendida acerca de las comunicaciones unificadas que plantea Cisco y hacia dónde se dirige la empresa que en un principio era puro hardware y que actualmente está virando su camino. “En la actualidad estamos viviendo un cambio en la forma de hacer negocios, los empleados ya no son iguales, sus necesidades no son las mismas, la forma de interactuar no es la misma y todo esto conlleva a modificar la forma de hacer negocios y de pensarlos. El espacio de trabajo ahora puede ser cualquier lugar, ahora se define de acuerdo a dónde está el empleado, lo que representa un gran desafío para la gente de IT quienes deben poder asegurar un acceso seguro a la red y a los diferentes servicios. En definitiva desde Cisco estamos cambiando la visión del espacio de trabajo y estamos seguros que la colaboración es la clave del futuro: el tener todos los servicios en la misma aplicación y poder acceder a ellos”. Es decir, que Cisco, tradicional empresa ligada al hardware, comenzará |52| NEX IT SPECIALIST
a formar parte de la cloud computing porque “no creemos en la diferencia entre la infraestructura y los servicios, ya que en las empresas esto se interconecta y finalmente el end-user no se entera si el servicio viene desde la nube o desde la infraestructura, lo único que le importa es poder acceder al servicio”, subraya Collyer. Es por esto que Cisco está enfocada en tres áreas diferenciadas: •Experiencia del usuario: Se busca que todo el paquete que está dentro de las Unified Communications funcione igual, con un mismo diseño y en donde se pueda interactuar de la misma forma. “En un comienzo, por ejemplo -explica Collyer-, tanto el Word, el Excel y el PowerPoint de Microsoft no trabajaban de la misma forma y era bastante complicado para el usuario ya que cada aplicación era diferente desde el look and feel hasta la forma de acceder y administrar los contenidos; en la actualidad, en cambio, las barras de herramientas son muy parecidas, con el mismo diseño para que elusuario se acostumbre mucho más rápido y fácil. Aquí es a donde apuntamos con las Unified Communication de Cisco.
Cisco Unified Communications Release 7.0 Este sistema permite ofrecer mejoras en los ambientes de desarrollo de las aplicaciones y provee una integración más profunda con productos de escritorio de IBM y Microsoft. La movilidad extiende las condiciones de productividad a través de los espacios de trabajo. Cisco Unified Mobile Communicator soporta dispositivos que corren en Windows Mobile así como también Symbian y el sistema operativo Blackberry. Cisco Unified Communications Release 7.0 continúa disminuyendo el costo del sistema y la administración al incrementar la escalabilidad de Cisco Unified Presence a 30.000 usuarios y la de Cisco Unity a 15.000 usuarios en un único servidor, permitiendo optimizar el gerenciamiento de la red a través de un ambiente de desarrollo simple de utilizar. WWW.REVISTANEX.COM
“Estamos cambiando para ser una empresa que está en todos lados”
publicidad WWW.REVISTANEX.COM
NEX IT SPECIALIST |53|
HARDWARE Networkers 2008 Cisco Networkers 2008 se llevó a cabo durante el 11, 12 y 13 de noviembre en el Hotel Hilton donde se desarrollaron más de 40 actividades especializadas para la industria IT. Uno de los atractivos principales fueron las 2 sesiones plenarias, la primera a cargo de Howard Charney y las otras a cargo de Taylor Collyer, Director de la Gerencia de Productos para la Unidad de Negocios de Comunicaciones Unificadas, Blake P. Sallé, vicepresidente mundial de ventas para el grupo de Tecnologías Emergentes y Joek Gruškovnjak, director del Grupo de Soluciones Comerciales de Internet de Cisco que lidera el equipo en el Medio Oriente, África y Latinoamérica. Networkers contó con más de 20 sesiones técnicas y 3 Techtorials (capacitación intensiva en distintas tecnologías). Por otra parte, se presentó la exposición y muestra en vivo “Technology Showcase”, donde Cisco y sus partners exhibieron las últimas y más innovadoras tecnologías. Asimismo, durante Networkers 2008 se dictaron clínicas de diseño, 3 Foros especializados en Finanzas, Sector Público y Proveedores de Servicios respectivamente, además se organizaron reuniones con ingenieros uno a uno y se tomaron exámenes de certificación en tecnologías de redes Cisco.
Cisco WebEx Connect Es una plataforma de aplicaciones de cliente y cloud-based para tejidos corporativos. Cuenta con una cantidad de aplicaciones estándar, incluyendo mensajería instantánea empresarial, espacios para equipos de trabajo, administración de documentos, calendarios y ambientes de discusión; que pueden ser combinados con widgets desarrollados por terceras partes utilizando APIs abiertos, permitiendo a las compañías trabajar desde un espacio laboral único. Los controles administrativos extensivos soportan políticas corporativas, seguridad y requerimientos de conformidad, para permitir la colaboración entre las compañías con un alto grado de seguridad. Cisco WebEx Connect trabaja con soluciones de mensajería empresarial y el sistema Cisco Unified Communication para brindar capacidades de comunicación integradas dentro del contexto de tejidos colaborativos.
•open Standard: Ante la premisa de que las empresas van a usar todos los productos de Cisco todo el tiempo, se trabaja fuertemente desde la empresa en la interacción con otros programas y vendors. •total cost of ownership: Enfocado a la reducción de gastos ya que “es uno de los principales objetivos de toda empresa y sobretodo en este momento de crisis mundial”, explica Collyer.
Comunicados El portafolio de Colaboración de Cisco está diseñado para ayudar a las empresas a acelerar sus procesos de negocios, incrementar la productividad y mejorar la velocidad de innovación. La oferta de colaboración comprende Comunicaciones Unificadas, Cisco TelePresence y la |54| NEX IT SPECIALIST
Cisco TelePresence Expert on Demand Le permite a los clientes conectarse con expertos a través de un servicio en persona sólo con presionar un botón, ya que combina el poder de Cisco Unified Communications y Cisco Unified Contact Center con la experiencia inmersiva "en-persona" de Cisco TelePresence para transformar la forma en que las organizaciones entregan servicios de alto contacto y de puntos de venta a los clientes. El usuario puede sumar a un asistente experto directamente en una reunión con Cisco TelePresence o utilizar una terminal dedicada de Cisco TelePresence y recibir una asistencia cara a cara. Esto le brinda a las organizaciones la habilidad de escalar recursos escasos o mejores experiencias con un adecuado costo-beneficio, independientemente de la ubicación geográfica.
plataforma de aplicaciones Web 2.0, las que utilizan el valor de la red como plataforma que permite a las personas conectarse, comunicarse y colaborar desde cualquier espacio de trabajo. El portafolio de comunicaciones unificadas, video y la plataforma Web 2.0 está diseñado para integrarse con aplicaciones de negocios, con la infraestructura de IT existente y con otros servicios Web; además de permitir crear nuevas aplicaciones personalizadas y servicios basados en la red. La oferta de Colaboración incluye: Cisco Unified Communications Release 7.0, Cisco TelePresence Expert-on-Demand, la cual integra la experiencia de la TelePresencia de Cisco dentro de los centros de contacto y Cisco WebEx Connect, una plataforma de Software como Servicio que integra presencia, mensajería instantánea, reuniones Web y espacios de trabajo en equipo con aplicaciones de negocios tradicionales y Web 2.0. WWW.REVISTANEX.COM
ACTUALIZAR
NETWORKING 2DA. PARTE
Autor: Ariel m. Liguori Analista en Seguridad Informática.
3G
Entrando en la nueva era, sobrepasando
Los continuos avances en las tecnologías móviles han encontrado su objetivo al ampliar su campo de acción, para ello nuevas
herramientas surgen quebrantando los límites concebidos con las antiguas filosofías y dando inicio a una nueva era.
N
umerosas tecnologías han visto la luz tras la inmensurable necesidad de progreso de las redes celulares. Si bien el arribo de 3G marcó una clara ruptura en la ideología propuesta por los modelos anteriores, mejoras inminentes encontraron asilo en nuevos estándares, entre ellos se destacaron HSDPA (High-Speed Downlink Packet Access), también conocido como 3.5G y finalmente HSUPA o el llamado 3.75G.
Avance continuo: HSUPA HSUPa (High Speed Uplink Packet access) comienza su trayectoria en el release 6 del 3gPP (Third generation Partnership Project) teniendo como principal objetivo alcanzar tasas de 5.76 Mbps de uplink y reducir la latencia en las comunicaciones. Funcionalidades de HSUPa: • Uplink Scheduling: El mecanismo de Uplink Scheduling es de vital importancia en HSUPA, gracias a éste se controla, desde el nodo B, los recursos de “subida” que están utilizando los UEs (User Equipments) en la celda. De este modo se asegura la máxima transferencia disponible a cada UE. El mecanismo de scheduling se encuentra basado en el sistema de “permisos absolutos y relativos” (absolute and relative grants), los permisos absolutos |56| NEX IT SPECIALIST
se utilizan en la inicialización del proceso de scheduling y los relativos para realizar ajuste en las tasas de uplink de cada UE. • HaRQ (Hybrid automatic Repeat Request): Al igual que en HSDPA, HSUPA utiliza protocolos híbridos de solicitud de repetición automática, pero en este caso el Nodo B es el encargado de confirmar la transmisión de datos del UE. El Nodo B asignará potencia de manera dinámica entre los UE en cada tti (transmission time interval). • Reducción de los intervalos de transmisión: Para reducir la latencia y acelerar el proceso de scheduling HSUPA admite TTI’s de 2ms, logrando de este modo los picos de transferencia de 5.76 Mbps de uplink. Para lograr cumplir con los objetivos planteados en la 3GPPR6 HSUPA incorpora nuevos canales de transporte y físicos. El E-DCH (Enhanced Dedicated Channel) es introducido como un nuevo canal de transporte, transporta un bloque de datos por cada TTI. A nivel físico aparecen el E-DPDCH (E-DCH Dedicated Physical Data Channel) que transportará los datos de usuario del uplink, además cada UE puede transmitir hasta cuatro E-DPDCH; también se incorpora el E-DPCCH (E-DCH Dedicated Physical Control Channel) el cual transporta la información de control que precisa el Nodo B para realizar la decodificación del E-DPDCH, al igual que el E-TFCI (E-DCH Transport Format Combination Indicator)
que indica el tamaño del bloque, el número de secuencia de retransmisión y el “Happy Bit”. Además de estos cambios en los canales de uplinks, nuevos agregados aparecen para el canal de downlink. El E-HICH (E-DCH Hybrid ARQ indicador Channel) que es utilizado para confirmar la recepción de los datos provenientes del UE; el E-AGCH (E-DCH Absolute Grant Channel) el cual habilita el limite “absoluto” de los recursos de potencia que pueden ser utilizados por el UE; y el E-RGCH (E-DCH Relative Grant Channel) el cual incrementa o reduce la asignación de servicio que posee el UE.
Para ir más allá: OFDM y MIMO HSUPA aporta grandes avances a las existentes tecnologías, no obstante en los accesos B3G (Beyond Third Generation) se plantean básicamente dos objetivos: 1) Conseguir altas tasas binarias de transferencia, más de 100 Mbps en situación de movilidad y más de 1Gbps en situación estacionaria. 2) Redes en las que los equipos terminales puedan “engancharse” suavemente al trasladarse entre ellas. En base a estas necesidades dos tecnologías surgen para afrontar el desafío: OFDM y MIMO.
MIMO (Multiple-Input Multiple-Output) Los sistemas MIMO están conformados por WWW.REVISTANEX.COM
Una de las ventajas que ofrece OFDM es la robustez frente al multitrayecto, los desvanecimientos selectivos en frecuencia y frente a las interferencias de RF. múltiples entradas y múltiples salidas (como su nombre lo describe) y logran de este modo incrementar la tasa de transferencia y reducir el error en las transmisiones. Al hablar de esta tecnología no nos referimos a un nuevo avance tecnológico, sino que nos remontamos a los años 90, época en la cual fue diseñado MIMO para servir en los sistemas WLAN. La eficiencia espectral de la transmisión aumenta debido a la utilización de un sistema de comunicación inalámbrica con multiplexación espacial (Spatial Multiplexing). Las tecnologías que incorpora MIMO son básicamente: • Beamforming: Mediante el defasaje de varias antenas se logra la formación de una onda de señal reforzada, esto implica directamente
WWW.REVISTANEX.COM
Figura 1 - Canales de HSUPA
ventajas tales como: mayor ganancia de señal, menor relación de atenuación/ distancia, incremento en la direccionalidad del haz. Un requerimiento en la utilización de beamforming consiste en conocer previamente el canal a utilizar por el transmisor. • Diversidad de código: Cuando solo se puede utilizar un canal de comunicación se codifica la transmisión mediante la técnica de
espaciado en el tiempo y de las diversas señales disponibles dando lugar de este modo al código espacio- tiempo. • Spatial Multiplexing: Se centra en la realización de la multiplexación por medio de la transmisión de señales de menor BW que la original por múltiples antenas. El receptor tiene la capacidad de distinguir las distintas señales (considerando que el espaciado en tiempo
NEX IT SPECIALIST |57|
NETWORKING Transformada de Fourier La transformada Discreta de Fourier (DFT) es una de las herramientas más importantes para el análisis en el procesamiento de señales digitales. Generalmente es utilizado para calcular el espectro de frecuencias de una señal, para realizar análisis de respuestas en frecuencia de diversos sistemas y para elaborar técnicas de procesamiento de señales.
El nombre se debe al físico– matemático Jean-Baptiste Joseph Fourier, que estableció una herramienta para el análisis de funciones periódicas mediante la descomposición en una suma infinitesimal de funciones más simples (seno, coseno y constante). A ese desarrollo se lo denomina Serie de Fourier y establece un eslabón en la cadena del análisis y el desarrollo en el procesamiento de señales.
El fin de UMTS Diversos motivos dieron fin a la ideología implantada por UMTS, principalmente se relacionó con las inconsistencias en las especificaciones que brindaba el 3GPP, la presión creada por las expectativas económicas culminó en el desarrollo apresurado de los estándares; crisis en el sector y, esencialmente, la falta de demanda por parte de los usuarios, es decir que a pesar de la infinidad de nuevos horizontes que había puesto en luz la R99 (velocidades de hasta 384 Kbps que permitían entre otras cosas videoconferencia) los usuarios seguían utilizando el servicio solo para llamadas de voz y SMS. Es en este último punto donde se hará hincapié, reformulando la consigna y remitiéndose a la pregunta: ¿Cómo llegar masivamente a los usuarios? La respuesta no tarda en llegar, IMS como solución integradora.
en el que llega cada una sea el suficiente) y generar en consecuencia anchos de banda mínimos para cada una.
OFDM (Orthogonal Frequency Division Multiplexing) OFDM o Multiplexación por división de frecuencias ortogonales es un método de multiplexación que consiste en la división del canal, de frecuencia, en un número determinado de bandas de frecuencias equiespaciadas. En cada una de estas bandas se transmite una subportadora que posee una parte de la información que envía el usuario. Como el nombre enuncia, cada una de estas subportadoras es ortogonal al resto. La ortogonalidad de las subportadoras permite la traslapación en el espectro (ver figura 2) y la inexistencia de interferencia, así también |58| NEX IT SPECIALIST
Figura 2 - Espectro de señal OFDM
incrementa la eficiencia del uso del espectro ya que no se utilizan bandas de separación entre cada subportadora. Los sistemas OFDM toman los flujos entrantes y lo dividen en N flujos paralelos en los cuales cada uno posee una tasa de 1/N respecto de la original. Luego de esto cada flujo es mapeado a una determinada subportadora y combinado utilizando la IFFT (Transformada rápida inversa de Fourier), obteniendo así la señal en el dominio del tiempo a transmitir. De este modo y con la elección correcta de los parámetros del sistema (número de subportadoras, distancia entre ellas, etc.) se puede reducir notablemente, e inclusive eliminar por completo, la interferencia inter-simbólica (ISI).
IMS (IP Multimedia Subsystem) IMS es una arquitectura referencial y genérica que permite ofrecer diversidad de servicios multimedia sobre infraestructura IP. Fue especificado originariamente en las releases 5 y 6 de 3GPP. Está originada con una concepción integradora de todos los servicios actuales marcando una notable convergencia al plano IP, la norma soporta múltiples tecnologías de acceso, entre ellas GSM, GPRS, UMTS, HSDPA, Bluetooth, Wi-Max, etc. Las tecnologías IP sobre las que se basa IMS son en principio: SIP (Session Initiation Protocol) y SDP (Session Description Protocol) para el control de sesiones, IPv6 para el transporte en la red, RTP o RTCP para el control de flujo IP multimedia y DiffServ y RSVP para la gestión de la QoS extremo a extremo de la red.
Ventajas de IMS • Sesiones IP multimedia compuestas por flujos y contenidos de distintos servicios que además poseen, cada uno de ellos, un nivel determinado de QoS. • Servicio de Billing: IMS permite llevar un control de los distintos tipos de servicios que
La era “SIP” El protocolo SIP o Session Initiation Protocol fue diseñado por el IETF (Internet Engineering Task Force) como el encargado del establecimiento, modificación y terminación de las sesiones. Posee la concepción de “toolbox”, es decir, trabaja en conjunto con otras herramientas para realizar una tarea eficaz. En general se suele utilizar con SDP y RTP. Sus funciones básicas, según el RFC 3261, se basan en determinar la ubicación de los usuarios en la red; y realizar cualquiera de las ya mencionadas tareas sobre las sesiones establecidas entre usuarios.
ejecuta el usuario en cada instante, es por ésto que la tarea de Billings se simplifica y además permite realizar consideraciones especiales, por ejemplo se puede medir el tráfico/ consumo de una videoconferencia en bytes o en unidad de tiempo. • Servicios integrados: La ampliación a un nuevo escenario implica la posibilidad de la incorporación de nuevos sistemas para los usuarios, la aparición de softwares independientes, y de nuevos campos por explorar contribuye a la aparición de nuevos servicios integrados a esta nueva forma de operación. La llegada de IMS establece una nueva concepción en cuanto a tecnologías celulares se refiere, logrando separar la imagen estática que se había depositado en los dispositivos móviles, y ampliándola a un nuevo ámbito donde las limitaciones ya no serán tecnológicas sino que estarán limitadas esencialmente, e idílicamente, por las demandas de los usuarios.
Links de Interés • 3GPP - www.3gpp.org/ • ETF RFC Page - www.ietf.org/rfc.html
WWW.REVISTANEX.COM
GENERAL
e-learning 2.0 aulas sin paredes ni fronteras
Es una de las opciones que actualmente se utiliza con mayor frecuencia para atender las necesidades de educación continua o permanente. Constituye una propuesta de formación que contempla su implementación predominantemente mediante Internet, haciendo uso de los servicios y herramientas que esta tecnología provee.
FOTO: http://www.sxc.hu// Justas Cekas // Steve Woods
L
a tecnología, como conjunto de habilidades que permiten construir máquinas para adaptar el medio ambiente y satisfacer necesidades, desde siempre necesitó de las habilidades humanas de fuerza; más tarde, con el nacimiento de la imprenta, empezaron a hacerlo con la parte intelectual. Hoy el Elearning es un nuevo capítulo en la tecnología, el más reciente y llamativo de esta amplificación de la conciencia y de la educación.
habilidades, necesidades y disponibilidades de cada alumno, además de garantizar ambientes de aprendizaje colaborativos mediante el uso de herramientas de comunicación síncrona y asíncrona, potenciando el proceso de gestión basado en competencias. Actualmente, se está desarrollando de manera general a través de la Web, y cambiando en un grado suficientemente significativo como para adquirir un nombre propio: e-learning 2.0.
Tal como lo conocemos hoy, el e-learning es una modalidad que ha surgido hace alrededor de diez años. Es el centro de numerosos planes de negocio y un servicio que ofrece la mayoría de las universidades. El e-learning encuentra su origen en la educación a distancia, que en los comienzos se realizaba vía correo. Debido al desarrollo de las tecnologías y la aparición de Internet, este sistema se vio bastante favorecido, lo que permitió su utilización para las actividades educativas, dando origen al e-learning.
El primer indicio de que algo estaba cambiando fue el surgimiento de la Web 2.0, una segunda generación en la historia de la Web basada en comunidades de usuarios y una gama especial de servicios como las redes sociales, los blogs, los wikis o las folcsonomías, que fomentan la colaboración y el intercambio ligero de información entre los usuarios. Lo que estaba ocurriendo era que la mayor parte de la World Wide Web estaba adquiriendo las propiedades de las redes de comunicación. La Web en sí misma se estaba transformando desde lo que se llamaba “Web de lectura” a la “Web de lecto escritura”. Los propulsores de esta nueva y evolucionada Web comenzaron a llamarla Web 2.0. En resumidas cuentas, la Web estaba dejando de ser un medio en el cual la información se transmitía y consumía, para ser una plataforma en la cual el contenido se creaba, compartía, remezclaba, se proponía de nuevo y se hacía perdurar. Lo que la gente estaba haciendo con la Web no era simplemente leer libros, oír la radio o ver la televisión, sino conversar con un vocabulario no constituido sólo por palabras, sino también multimedia.
Si la educación a distancia es desde sus orígenes una opción para atender la formación de personas, el e-learning tiene la ventaja de que los usuarios puedan elegir sus propios horarios, y entrar a la plataforma desde cualquier lugar donde tenga acceso a una computadora y conexión a Internet. Se trata de una capacitación no presencial que, a través de plataformas tecnológicas, posibilita y flexibiliza el acceso y el tiempo en el proceso de enseñanza-aprendizaje, adecuándolos a las |60| NEX IT SPECIALIST
La evolución del aprendizaje
La emergencia de la Web 2.0 no es una revolución tecnológica, sino una revolución social. Los educadores empezaron a notar que algo diferente estaba ocurriendo a medida que empezaban a usar en el aula herramientas tales como wikis y blogs. En un corto lapso de tiempo, los blogs se usaron para diversos propósitos en educación. Una red de blogs educativos formada por miles de profesores animaba a los estudiantes a participar de ellos generando producciones propias. Los blogs suponen una forma de asignar contenido de aprendizaje muy diferente de la tradicional. Además de ser mucho menos formal, se escriben desde un punto de vista personal. La aplicación del e-learning, en consecuencia, comienza a parecerse mucho a una herramienta de blogs. Representa un nodo en una Web de contenido, conectado a otros nodos de contenido usado por otros estudiantes. Se convierte no en una aplicación corporativa o institucional, sino en un centro de aprendizaje personal, en donde el contenido se reutiliza y remezcla de acuerdo a las necesidades e intereses de los estudiantes. De hecho, se convierte no en una simple aplicación, sino en una colección de aplicaciones interoperables, un entorno más que un sistema.
E-learning 2.0 Este imparable ascenso de las tecnologías de la Web social afectó decididamente el ámbito de la formación por Internet, pasando a formar lo que se ha dado a denominar e-learning 2.0.
WWW.REVISTANEX.COM
Esta modalidad es respecto al e-Learning 1.0 una evolución natural consecuente de la nueva forma de entender el aprendizaje. La mejora fundamental está en el salto desde sistemas cerrados hasta sistemas abiertos. Sistemas flexibles, adaptables, dinámicos y conectados. No por nada ya se están dejando atrás conceptos como era de la información o del conocimiento, para empezar a conceptualizar la era de la interacción.
Ventajas del e-Learning como
En el e-Learning, con las herramientas LMS dentro del EVA (Entorno virtual de aprendizaje), se simulan muchos elementos del entorno clásico de aprendizaje, eminentemente transmisivo que muchas veces no potencian el aprendizaje en red, ni la comunicación externa, ni la socialización de la educación.
• Contenido disponible a cualquier hora y desde cualquier parte del mundo, con el solo hecho de estar conectado a Internet.
Sin embargo, el e-Learning 2.0 hace un esfuerzo para ser más social, interactivo, fomentando un aprendizaje (o autoaprendizaje) dinámico entre los entornos de educación. Al aumentar el control y la participación del alumno, el e-learning 2.0 genera oportunidades impensadas hasta el presente.
WWW.REVISTANEX.COM
metodología de aprendizaje
• Posibilidad de un ambiente que se centra en el estudiante, personalizado y diseñado a medida de las organizaciones. • No se necesita conocimiento del usuario para acceder al entrenamiento en línea. Sí se requiere de conocimientos básicos de manejo de la PC e Internet.
• No se requiere ningún software específico en el equipo del cliente para tener acceso a la plataforma de entrenamiento. • Reducción de costos en entrega, capacitación, logística de capacitación y viáticos de participantes. • Llegada a un mayor número de destinatarios: Ya que no existen limitaciones geográficas en el uso de Internet. • Flexibilidad y autonomía del tiempo docente que se capacita. • Formación sincrónica y asincrónica: ya que permite que los alumnos puedan participar en tareas o actividades en el mismo momento, independientemente del lugar en que se encuentran (sincrónico), o bien la realización de estudio y trabajo individual o colaborativo en el tiempo particular de cada alumno (asincrónico).
NEX IT SPECIALIST |61|
GENERAL
Q -
Es una herramienta para producir y ofrecer cursos que hacen uso de la computadora como principal herramienta docente, frente a la tradicional modalidad de enseñanza que utiliza tizas y pizarrón. Una plataforma de e-Learning posibilita al tutor crear y poner a disposición de los alumnos cursos que comprendan recursos de información (en formato textual o fotográfico, diagramas, audio o video, páginas Web o documentos PDF entre muchos otros formatos) así como proponer actividades interactivas a realizar por el alumno del tipo tareas enviadas por la Web, exámenes, encuestas o foros. Estas actividades podrán ser evaluadas por el personal docente del curso, generándose un ciclo de feedback entre alumno y profesor.
E-
FOTO: http://www.sxc.hu// Steve Woods // gerard79
I E- M
La metodología del E-learning está siendo transformada por la incorporación de nuevas herramientas y recursos 2.0 y 3.0, que fomentan la colaboración y la coproducción de conocimiento.
|62| NEX IT SPECIALIST
El Moodle es un sistema de gestión de cursos de distribución libre que ayuda a los educadores a crear comunidades de aprendizaje en línea. Este tipo de plataformas tecnológicas también se conocen como LmS (Learning management System). Moodle fue creado por Martin Dougiamas, quien fue el administrador de WebCT en la Universidad Tecnológica de Curtin. Basó su diseño en las ideas del constructivismo en pedagogía que afirman que el conocimiento se construye en la mente del estudiante en lugar de ser transmitido sin cambios a partir de libros o enseñanzas y en el aprendizaje colaborativo. Un profesor que opera desde este punto de vista crea
un ambiente centrado en el estudiante que le ayuda a construir ese conocimiento con base en sus habilidades y conocimientos propios en lugar de simplemente publicar y transmitir la información que se considera que los estudiantes deben conocer. En términos de arquitectura, Moodle es una aplicación Web que se ejecuta sin modificaciones en Unix, Linux, FreeBSD, Windows, Mac OS X, NetWare y otros sistemas que soportan PHP, incluyendo la mayoría de proveedores de hosting Web. Los datos son almacenados en una sola base de datos SQL: la versión 1.7 (publicada en noviembre de 2006) hace uso total de abstracción de base de datos para que los instaladores puedan elegir entre alguno de los diversos tipos de servidores de bases de datos. La versión actual de Moodle (1.9) fue publicada en Marzo de 2008. MySQL y PostgreSOL fueron las únicas opciones en Moodle 1.6.
Establecida a fines de 2004, E-learning For Kids es una fundación global sin fines de lucro dedicada al aprendizaje en Internet para chicos de entre 5 y 12 años de edad. Ofrecen cursos gratuitos de matemáticas, ciencias, literatura y uso del teclado. Además, están construyendo una comunidad para padres y maestros a fin de compartir innovaciones y reflexiones sobre la educación en la infancia. El proyecto es llevado a cabo por expertos en educación y en e-learning que conducen recursos para el contenido educativo, colaboran con otras fundaciones educativas y se acercan a asociaciones para promover conciencia entre las escuelas y los medios de comunicación. (www.e-learningforkids.org) WWW.REVISTANEX.COM
GENERAL
JIMMY WALES EN ARGENTINA Invitado por Wikimedia Argentina y por la Fundación Vía Libre, Jimmy Wales, fundador de Wikipedia y unos de los personajes más influyentes de la historia de Internet, se hizo presente en la Universidad de Belgrano para presentar la Academia de Wikipedia y, además, brindó una conferencia de prensa.
V
estido íntegramente de negro, Wales se mostró amable para responder todas las preguntas que se le hicieron, para posar para las fotos con quien se lo pidiera y transmitió una sensación de humildad que muchas veces escasea en figuras de su talla. Es que Jimmy Wales no solo es el fundador de la Wikipedia, la enciclopedia abierta más grande del mundo y el octavo sitio más visitado de la Web, sino que se trata de uno de los creadores de la llamada Web 2.0, gracias a su apuesta por la colaboración y por la democratización en el acceso y generación de los contenidos. Ante una veintena de periodistas especializados, Wales dejó frases como estas: “La idea es estar concentrado en hacer algo útil y resulta fundamental creer en la comunidad”. “Tratamos de reducir los errores al máximo posible, pero estos siempre existirán porque son parte de la condición humana y la Wikipedia está hecha por seres humanos”. “La cantidad de personas que tienen malas intenciones y buscan causar daño es mínima en comparación a quienes quieren hacer algo bueno”. “Las áreas más fuertes sin dudas son tecnología y ciencia, y en donde se necesita más trabajo es en Bellas Artes”. “Quienes colaboran en Wikipedia lo hacen por dos razones, porque saben que están aportando a una gran enciclopedia libre y porque se divierten y la pasan bien haciéndolo”.
|64| NEX IT SPECIALIST
Wales también respondió algunas preguntas de Nex IT: NEX it: cUaNDo SE EScRiBa La HiStoRia DE iNtERNEt, ¿QuÉ luGaR cREE QUE tEnDRÁ RESERvaDo JiMMY WaLES? Jimmy Wales: Sinceramente no se qué lugar tendrá Jimmy Wales en la historia de Internet. Si sé que Wikipedia inauguró una nueva forma de trabajar, alentó a la participación de la comunidad. Ha sido un emprendimiento muy exitoso, la idea de que exista una comunidad dispuesta a reunirse para crear algo útil e interesante es muy positiva y yo me siento muy orgulloso de ser parte de eso. NEX it: a PESaR DE SUS LogRoS Y PoPULaRiDaD EN DEtERMiNaDoS ÁMBItoS acaDÉMIcoS la WIKIPEDia No ES coNSiDERaDa UNa FuEntE VÁlIDa y SE lES pRoHÍBE a LoS EStUDiaNtES UtiLiZaRLa. ¿cuÁl ES Su opInIón al RESpEcto? Jimmy Wales: Decirle a los estudiantes que no deben utilizar la Wikipedia como fuente es como decirles que no pueden escuchar rock and roll. La idea es enseñarles a utilizarla de manera que les sea realmente útil como herramienta.
¿QuÉ ES
LA ACADEmIA DE WIkIPEDIA?
La Academia de Wikipedia es un evento de divulgación que pretende acercar al público en general al conocimiento del proceso de creación y desarrollo de Wikipedia, la enciclopedia de contenido libre más grande del mundo. Para ello se programó una serie de charlas de tipo tutorial sobre edición de la enciclopedia y de debate sobre el rol de Wikipedia en el mundo académico y en la sociedad del conocimiento.
WWW.REVISTANEX.COM
WWW.REVISTANEX.COM
NEX IT SPECIALIST |65|
INNOVADORES ICT No deje de ver el video de Asa Dotzler en mundonex.com
el
al
mbre que ll o h ev El a en la sangr
ibe
y la cooperac d ió r ta
n
AsaDotlzer
"La Web funciona porque miles de personas suben sus sitios y comparten sus códigos. Hay que confiar en los voluntarios. El éxito radica en la colaboración, en compartir e involucrar a los usuarios, empleados y clientes en la producción. Cuanto más se involucren, mayor será la calidad del material que produzcan y mayor será el uso que le den al producto”. Lo dice Asa Dotzler, el Director de Desarrollo de Comunidades de Firefox, el segundo navegador más importante del mundo.
|66| NEX IT SPECIALIST
WWW.REVISTANEX.COM
N
acido en Summertown, Tenessee, Estados Unidos, el 5 de junio de 1974, es mejor conocido por su labor como coordinador de la comunidad Mozilla para varios proyectos. Asa Dotlzer ha estado allí desde el principio, fue uno de los primeros miembros de Mozilla Quality Assurance (QA) y Testing Program que creció bajo su dirección a partir de unos pocos contribuyentes.
nico, Mozilla Thunderbird. “Nuestro objetivo es promover las opciones, la innovación y la competencia. Y eso es lo que hacemos desde la fundación”. Se refiere así a Mozilla, la organización sin fines de lucro que en 2004 lanzó al mercado en 41 idiomas al Firefox, el navegador que le viene complicando la vida al Internet Explorer de Microsoft y que en tres años conquistó un promedio del 16 por ciento del mercado mundial de browsers, llegando a picos de penetración del 50 por ciento. “En Argentina hay 1,5 millones de usuarios de Firefox y son más de 13 millones de usuarios Web. Tenemos una gran oportunidad de crecer.
“Son entre 100 y 300 voluntarios
que trabajan en la empresa, 10 mil
testeadores de software que buscan problemas cada noche” Por amor al arte Asa se involucró con Mozilla en 1998 cuando todavía era un estudiante de arquitectura de la Universidad de Aubur, Alabama. Estaba interesado en el software libre, pero como muchos, encontró las distribuciones de Linux demasiado abstractas. Fue el 31 de marzo cuando se enteró que el navegador Netscape había liberado su código que sintió la necesidad de involucrarse más a fondo. Y gracias a su conocimiento en navegadores Web, rápidamente encontró su nicho convirtiéndose en un técnico – voluntario dentro de la comunidad Mozilla. “El éxito de Firefox y Mozilla se lo deben a los miles de colaboradores que participan. Son entre 100 y 300 voluntarios que trabajan en la empresa cada día, 10 mil testeadores de software que buscan problemas cada noche y otros 500.000 testeadores Beta (las versiones preliminares del navegador). A esto, hay que sumarle otra decena de miles que, si se topan con un error, lo reportan”, explica. Luego de ser voluntario durante más de dos años, Asa se sumó a la organización Mozilla, y ha desempeñado un papel clave en la entrega de los productos, incluido el lanzamiento de Mozilla 1.0, la liberación del navegador Web Mozilla Firefox y el cliente de correo electró-
WWW.REVISTANEX.COM WWW.REVISTANEX.COM
Queremos aprender cómo los argentinos utilizan la Web para mejorar el Firefox y hacerles más fácil el uso de Internet”.
El boca en boca ha sido clave para el crecimiento de Firefox, “el 80 por ciento de los usuarios lo emplea porque alguien le dijo que lo use y le mostró las ventajas de hacerlo”, cuenta.
dido, el por qué de su visita al país, el estado del núcleo del proyecto y el futuro de Firefox Mozilla, entre otros puntos. La llegada a Buenos Aires de Asa no resultó una sorpresa. Mozilla tiene como objetivo que estos encuentros permitan que Firefox se adapte mejor a las necesidades de los usuarios locales, algo a lo que a fundación presta mucha atención. En su visita, una de las declaraciones más polémicas de Dotzler fue que para él los programas on line terminarán desplazando a los de escritorio. En los últimos años, la utilización de los programas como procesadores de textos u hojas de cálculos en línea creció de una manera exponencial y tienen una ventaja de poder ejecutarse sin importar el sistema operativo y desde cualquier PC del mundo conectada a Internet. Además, no requieren copiar los archivos a la computadora ya que se utilizan desde el navegador Web.
“Queremos aprender cómo los argentinos utilizan la Web para mejorar el Firefox y hacerles más fácil el uso
Asa Dotlzer es actualmente el coordinador del área de desarrollo de la Mozilla Corporation y mantiene activo un Weblog (http://weblogs. mozillazine.org/asa/) donde pone el énfasis en las noticias y el desarrollo de Mozilla. “El proyecto es una gran oportunidad para las empresas: pueden usar el modelo de Mozilla, pero en vez de mirar cómo lo hace Mozilla, miren directamente lo que hace la Web. Internet ha sido un éxito gracias a la colaboración".
Su visita a Argentina En julio de 2007 el flamante director de desarrollo de la Mozilla Corporation estuvo en Argentina y brindó dos conferencias donde habló de la historia del proyecto Mozilla, la actualización (Mozilla 3.0), el desarrollo de la comunidad, el modelo del software libre exten-
de Internet”
Estos programas on line como el popular Google Docs tienen éxito, argumenta Dotzler, porque “no discriminan por el idioma ni por la ubicación (geográfica), y facilitan a los programadores su modificación y actualización”. Estas son ventajas que no poseen los programas de escritorio. “Si tengo que apostar por una, yo apuesto por las aplicaciones en Web”, señaló. “Si tu eres una compañía como Microsoft, el gran objetivo que debes lograr es colocar cajas en la calle. ¿Cajas? Vender cajas no es divertido”, bromeó el flamante coordinador de programación Mozilla. Y continuó: “Si tu eres una compañía como Google, que invierte su tiempo en mejorar su software, cuando realizas un cambio todos tus usuarios lo obtienen inmediatamente, sin ningún costo”.
NEX NEX IT IT SPECIALIST SPECIALIST |67| |67|
5 razones para usar Firefox,
INNOVADORES ICT por Asa Dotzler
* Firefox está disponible en los 41 idiomas y en un año estará listo en 100 lenguas. * Es el navegador más seguro del mundo. Advierte cuando uno está en una Web insegura, cuando aparece un virus y sus debilidades son arregladas rápidamente. * Tiene más de 2500 opciones para personalizar el navegador al gusto del usuario. * Es mucho más fácil de usar. Ha sido desarrollado por la misma gente que lo usa y no se trata solo de expertos. * Cuando se está trabajando en el navegador y por algún motivo se bloquea o se cierra, al reabrirlo recupera la sesión que estaba empleando.
Frases
por Asa Dotzler
“No estoy en co ntra de la publ icidad, pero los popups son la cosa más molesta de la W eb y no funciona n bien como med io publicitario”.
“Podemos actualizar el 90 por ciento de nuestros usuarios en diez días. Ningún fabricante de software puede hacer eso hoy en día”.
“Antes de agregar una característica nueva, asegúrate de que las características viejas funcionen”.
“Éxito es una comunidad trabajando para mejorar en diversos aspectos”.
“El problema de la comunidad Linux es que no está del todo abierta a los no programadores”.
“El 80 por ci ento de los usuario s de Firefox lo em plean porque algu ien le dijo que lo us e y le mostró las ve ntajas de hacerlo ”. |68| NEX IT SPECIALIST
“En todo 2006 los usuarios Firefox solo estuvieron expuestos a vulnerabilidades de seguridad durante 9 días”.
“Para los ‘guys’ de Mozilla, cuyos productos son todos de software libre, ganar no es destruir a sus competidores sino tener una cantidad suficiente de usuarios que obligue a los desarrolladores Web a tenerlos en cuenta. Así, todos podremos saber cómo están construidos los sitios y podremos intercambiar información y trabajar mejor. Y el que gana es el usuario".
“La Web será indistinguible del escritorio. Es rápida y las aplicaciones de escritorio no están mejorando”.
“Flash no es la Web. No se puede ver el código y obtener el software cuesta dinero”.
WWW.REVISTANEX.COM
Sobre la
fundación
Mozilla
Es una organización sin ánimo de lucro dedicada a la creación de software libre. Tiene como misión “mantener la elección y la innovación en Internet”. Cualquier persona o compañía puede colaborar en el proyecto Mozilla ya sea aportando código, probando los productos, escribiendo documentación o participando de la forma que crea conveniente. El trabajo desinteresado de los contribuidores de Mozilla hace que sea una organización sin fines de lucro. Características del software de Mozilla Las tres características más importantes de los productos de Mozilla son: * el código abierto, * el respeto por los estándares y * la portabilidad o posibilidad para la interacción del software en múltiples plataformas.
Código abierto El código de los productos de Mozilla está liberado bajo los términos de las licencias MPL, GPL, LGPL. Es software libre y por tanto, eso implica que además de que los productos se pueden descargar gratuitamente de Internet, el código fuente está a disposición de todo el mundo y está permitida la libre redistribución con o sin modificaciones de ese código fuente por parte de cualquiera, bajo los términos de la licencia. El trabajo del proyecto Mozilla, al estar amparado por una licencia libre, se entrega sin ningún tipo de garantía de responsabilidad con el software. Existen algunas condiciones si se desea redistribuir el software identificado con la Marca Mozilla y su imagen.
Productos Alguno de sus productos desarrollados por el proyecto Mozilla son los navegadores Mozilla Application Suite, Mozilla FIREFOX, Camino, el
cliente de correo Mozilla Thunderbird y el calendario Mozilla Sunbird. También se pueden contar proyectos como Bugzilla, un sistema de notificación de fallos vía Web, Minimo, un navegador basado en Gecko para pequeños dispositivos, GtkMozEmbed, tecnología destinada a empotrar Mozilla en aplicaciones GTK, etc.
Historia El proyecto Mozilla nació en 1998, fruto de la liberación del código fuente de la serie 4x de Netscape, y actualmente cuenta con un apoyo organizativo, legal y financiero de la fundación Mozilla, organización sin fines de lucro ubicada en el estado de California, Estados Unidos. La fundación fue lanzada el 15 de julio de 2003 para permitir la continuidad del proyecto Mozilla más allá de la participación de voluntarios individuales.
Dentro de las características de la nueva versión del navegador, las más destacadas son: * Administrador de contraseñas: Recuerda la contraseña de todos los sitios sin ver ni una ventana emergente. * Marcar páginas con un clic: añade a marcadores, busca y organiza páginas Web rápida y fácilmente. * Rendimiento mejorado: lee las páginas Web más rápidamente, usando menos memoria del ordenador. * Barra de direcciones inteligente: encuentra los sitios favoritos en segundos- para un resultado instantáneo introduce un término relacionado. * Identificador de sitio Web instantáneo: evita los fraudes en línea, transacciones no seguras y falsificaciones gracias a una identificación sencilla de sitios. * Ampliación a página completa: ve cualquier parte de una página Web, tan cerca y tan legible como se quiera, en cuestión de segundos. * Apariencia nativa: navega con un Firefox que está integrado en el sistema operativo del ordenador.
Firebug la herramienta para desarrolladores WWW.REVISTANEX.COM
Firefox
3.0.3 más
rápido y más seguro
Si te interesa el desarrollo Web, la herramientas para desarrolladores de Firefox te harán la vida más fácil. El sitio Mozilla Add-ons (https://addons.mozilla.org/) ofrece muchas herramientas para optimizar el proceso de desarrollo, incluyendo Firebug para editar, depurar y monitorizar el CSS, HTML, JavaScript de cualquier página Web en directo, Trmper Data para ver y modificar las cabeceras http/HTTPS y los parámetros POST, y el inspector DOM para examinar cualquier elemento HTML o CSS con un simple click en el botón derecho.
NEX IT SPECIALIST |69|
INNOVADORES ICT
Trucos
para sacarle provecho al Firefox 3
Ctrl
+
+
Abrir una nueva pestaña vacía
Ctrl
+
T
Cerrar una pestaña
Ctrl
+
W
Reabrir una pestaña cerrada
Ctrl
+
Aumentar y reducir el tamaño de la página
Organizar etiquetas Para mantener organizados los sitos favoritos pueden asignarse etiquetas: simplemente se deberá hacer doble clic en el icono de la estrella ubicada al extremo derecho de la barra de navegación y se podrá escribir una etiqueta. De esta manera se facilita el trabajo, ya no será necesario ir a marcadores y buscar el sitio “favorito”.
Manejo de pestañas
+
T
Ir directamente a sitios favoritos
Atajos Mover el cursor hacia la barra de direcciones
Ctrl
+
L
Mover el cursor a la barra de búsqueda
Ctrl
+
K
Desplaza la página hacia abajo
Barra espciadora
Desplazar la página hacia arriba
+
Barra espciadora
Actualizar la página
Ctrl
+
R
Retroceder
Alt
+
2
Avanzar
Alt
+
1
Firefox
para
móviles El popular navegador Firefox tendrá en 2009 una versión móvil que se verá en los modelos tablets N810 y N880 de Nokia a principios del año que viene. A la hora de diseñar este browser móvil que lleva el nombre de Fennec (cuyo significado es zorro de pequeño tamaño que vive en el desierto de Sahara) partieron de la
|70| NEX IT SPECIALIST
Se pueden añadir palabras claves a los marcadores para un acceso más rápido y sencillo. Desde el catálogo puede añadirse una palabra clave corta en el campo “palabra clave” y se podrá acceder a ese marcador simplemente escribiendo esa palabra clave en la barra de direcciones.
versión 3.0 de Firefox, y le quitaron todo lo que no necesita un navegador Web para dispositivos móviles, aunque procurando lograr algo similar a lo que experimenta un usuario que utiliza Mozilla en su PC. La interfaz del programa es sencilla ya que solo dispone de los íconos para recargar la página y acceder a los favoritos además de la barra de direcciones, y en cada uno de los laterales se esconden dos barras de herramientas. En la parte izquierda está la correspondiente a las pestañas, con la que podremos crear una nueva pestaña e ir cambiando entre las diferentes pestañas abiertas, y en la parte derecha tenemos el icono para añadir la página actual a la lista de favoritos y para pasar a la página anterior o a la siguiente.
Administrar descargas Para los que descargan archivos de la Web frecuentemente ahora pueden utilizar la ventana del administrador de descargas. Se pueden pausar y reanudar descargas, y ahorrar tiempo abriendo archivos directamente desde el administrador. Si se necesita localizar una descarga antigua se puede hacer yendo a Herramientas / Descargas y usar la caja de búsqueda para encontrar el archivo. Una vez encontrado se lo puede abrir con doble clic.
WWW.REVISTANEX.COM WWW.REVISTANEX.COM
GENERAL Autor: Roberto Di’Lello Consultor Senior
LA NUEVA TECNOLOGÍA DE
VIRTUALIZACIÓN
FOTO: http://www.sxc.hu/ Whrelf Siemens
En los últimos años, la virtualización de servidores se ha vuelto un tema sumamente importante para el mundo tecnológico, debido al gran potencial y los beneficios económicos que esto conlleva. La virtualización de servidores nos permite ejecutar varios sistemas operativos —Windows, Linux, etc.— (máquinas virtuales) en una misma máquina física.
|72| NEX IT SPECIALIST
L
as máquinas virtuales pueden ejecutar distintos sistemas operativos ya sea de servidores o de equipos clientes. Puntualmente con Hyper-V, que es un feature de Windows Server 2008, nos permite ejecutar varios sistemas operativos simultáneamente en una única máquina física. En el sitio oficial del producto, Microsoft ha puesto a nuestra disposición la tabla de equivalencias donde se puede ver la versión de Windows Server 2008 que deberíamos usar según nuestras necesidades (ver figura 1). Con la virtualización podemos consolidar la cantidad de equipos en varias máquinas virtuales; esto permite tanto la reducción de hardware requerido, de energía y espacio físico para alojar estos equipos, como así también menores costos de administración. En Windows Server 2008 se encuentran todas las herramientas que necesitamos para la virtualización de servidores como un feature integral del sistema operativo, esto es, el componente denominado Hyper-V. Este componente lo podemos instalar desde la consola Server Manager, agregando el rol Hyper-V, o bajándolo desde la página oficial del producto
en Microsoft. La consola será agregada a las herramientas administrativas, y desde ellas podremos fácilmente crear y configurar nuestras máquinas virtuales (ver figura 2). Los requerimientos para este feature son: ejecutar como software de base Windows Server 2008, tener habilitado la opción de data execution prevention (DEP) y que nuestro hardware soporte hardware-assisted virtualization technology, ya sea la tecnología de Intel VT o AMD-V. Con este componente (considerado de última generación por ser basado en hypervisor) funcionando como un rol adicional, la virtualización está integrada dentro del propio sistema operativo, por lo que hace más fácil aprovechar las ventajas de esta tecnología. Esta es la principal diferencia con su antecesor, Virtual Server. El componente Hypervisor, es una capa de software entre el hardware y el sistema operativo, que permite que múltiples sistemas operativos se ejecuten al mismo tiempo maximizando la utilización del hardware por parte de las máquinas virtuales. Esto proporciona una división por particiones para cada entrono, brindando un aislamiento entre ellos, es WWW.REVISTANEX.COM
decir, entre cada partición (ver figura 3). Las ventajas principales de Hyper-V son: consolidación de equipos, continuidad de negocio, entornos de prueba y desarrollo y una infraestructura de IT dinámica. A su vez, permite combinar este feature con la suite de System Center para su gestión.
Figura 1 - Tabla de equivalencias.
Figura 2 - Consola de Administración
Figura 3 – Diagrama de arquitectura Hyper-V WWW.REVISTANEX.COM
• consolidación de equipos: Es uno de los aspectos más importantes al momento de evaluar la virtualización. Generalmente se tiende a reducir la gestión de tecnología y minimizar costos, pero sin bajar la calidad de servicio. Al utilizar la virtualización podemos disminuir la cantidad de equipos y seguir teniendo ambientes separados, es decir: tengo un solo servidor físico que contiene varias máquinas virtuales, con roles puntuales definidos, de la misma forma como si fueran equipos físicos. Obviamente, al realizar esta tarea, se produce una disminución en los gastos destinados a equipos; además de la reducción de costos asociados que esto genera (menor gasto de espacio, de consumo eléctrico, de refrigeración, etc.) generando una baja considerable del TCO (total cost of ownership), y la integración de aplicaciones de 32 y 64 bits dentro del mismo entorno (es decir, por ejemplo, en un equipo de 64 bits correr una máquina virtual de 32bits). • continuidad de negocio: Lo que Microsoft entiende como “continuidad de negocio” es la capacidad de minimizar los tiempos de inactividad, ya sean planificados o no. Esto hace referencia a cualquier lapso de tiempo en el cual nuestros equipos no prestan el servicio que tienen configurado, ya sea por inconvenientes inesperados, falla en el hardware o problemas eléctricos. La tecnología Hyper-V nos permite hacer backups en caliente y realizar una migración rápida, admitiendo el desarrollo de políticas referidas a la calidad de servicio y una respuesta mucho más ágil ante estos inconvenientes. Incluso muchos proveedores de herramientas de Backup como Symantec, están anunciando la compatibilidad de sus productos con la nueva tecnología de Hyper-V (Symantec Backup Exec for Windows Servers: http://www.symantec.com/business/products/newfeatures.jsp?pcid=pcat_ storage&pvid=57_1) Hyper-V junto con la tecnología de Clusters de Windows Server 2008 nos permite recurrir a tecnología de Disaster Recovery para los entornos de IT, utilizando capacidades de cluster sobre datacenters dispersos geográficamente. NEX IT SPECIALIST |73|
GENERAL • Entornos de prueba y desarrollo: Por medio de esta tecnología simplificamos en gran manera los ambientes de prueba y desarrollo. A través del uso de máquinas virtuales podemos generar distintos entornos y arquitecturas diferentes para cada uno de los escenarios que debemos replicar, optimizando el uso del hardware gracias a la tecnología Hyper-V. • infraestructura de it dinámica: Hyper-V, junto con la suite de herramientas de gestión a las cuales se integra (por ejemplo Microsoft System Center), permite a nuestra organización acceder al concepto de “Infraestructura Dinámica”, obedeciendo al principio de los sistemas autogestionados y de gran agilidad operativa. Como dijimos antes, con la utilización de Windows Server 2008 Hyper-V podemos aprovechar al máximo la capacidad de nuestro hardware a la hora de virtualizar entornos, independientemente del sistema operativo que necesitemos ejecutar, pudiendo a su vez administrar y gestionar recursos virtuales o físicos, empleando las mismas herramientas que manejaríamos en entornos físicos. En esta versión se ha desarrollado una nueva arquitectura de hypervisor, basada en procesadores micro-kernel de 64 bits, con lo cual puede soportar distintos dispositivos y mejor el rendimiento. Podemos ejecutar máquinas virtuales de 32 ó 64 bits, distintas plataformas Windows o Linux. A su vez, tiene la capacidad de soportar arquitecturas SMP con hasta 4 procesadores en entornos virtuales, con lo que nos permite explotar al máximo las ventajas de las aplicaciones multi-thread en VMs. Podemos además configurar nuestras maquinas virtuales para que utilicen Windows Network Load Balancing (NLB) Service para balancear la carga a través de distintos servidores.
tual, minimizando la pérdida del servicio que el equipo preste. A su vez, esto se puede potenciar aun más si utilizamos las herramientas de System Center (ver links adicionales: Virtualization with Hyper-V: Application Support) Posee una gran integración con entorno de Linux, ya testeada para las ediciones x86 y x64 de SUSE Linux Enterprise Server 10, Ubuntu desktop, etc. Estos componentes de integración permiten aprovechar desde Linux compatible con Xen todas las ventajas de la arquitectura VSP/VSC y obtener un mejor rendimiento (ver links adicionales: Virtualization with Hyper-V: Supported Guest Operating Systems). Con Hyper-V podemos obtener snapshots (imágenes instantáneas) de una máquina virtual que estemos ejecutando, con lo que podemos realizar rollbacks a estados anteriores, y tenemos una herramienta extra para ejecutar backups y procedimientos de recuperación. Asimismo, los desarrolladores pueden emplear las APIs e interfaces WMI (Windows Management Instrumentation) para crear las herramientas propias que crean convenientes según sus necesidades. Para todos aquellos que tengan máquinas virtuales en formato .vhd -formato utilizado por Virtual Server, así como una multitud de proveedores- podrán utilizar Hyper-V sin ningún inconveniente. También podremos aprovechar las ventajas de V2V de System Center Virtual Machine Manager para migrar de Virtual Server o VMware a Hyper-V o sino podemos utilizar algún software de terceros para realizar la migración de las mismas.
También podemos direccionar grandes cantidades de memoria por máquina virtual, ya que está pensado para ejecutar diversas máquinas virtuales, ya sea en entornos de pequeñas y medianas empresas como en grandes compañías. Posee el acceso a disco denominado “pass-through”, soporte para SAN y acceso a discos internos; con lo cual la gama de administrar recursos es muy superior a trabajar con simples máquinas virtuales.
Hyper-V, de la misma manera que Virtual Server 2005 y Virtual Pc 2003/2007 guarda las máquinas virtuales en un archivo con la extensión .VHD. Estos archivos contienen todos los datos del sistema operativo y las aplicaciones que tengamos instaladas en él, así como también toda la información necesaria para hacer un rollback en el caso de que esté configurada la opción “undo disk”. Este feature es sumamente importante, ya que podemos reutilizar todas las maquinas virtuales que ya tengamos implementadas, sin la necesidad de reinstalarlas; solo debemos tener en cuenta que al cambiar de hardware puede ser necesario disponer de algún driver en particular y en consecuencia tendremos que reiniciar la VM.
Uno de los nuevos features que disponemos es la posibilidad de realizar migraciones rápidas de un equipo físico hacia una máquina vir-
Como herramienta complementaria contamos con la suite System Center Virtual Machine Manager que nos permite mejorar la adminis-
|74| NEX IT SPECIALIST
tración y la utilización de nuestros servidores físicos, centralizando en una consola todas las máquinas virtuales que dispongamos. Si desean mas información sobre este producto pueden ver el link oficial de Microsoft. Este feature promete tener mucha participación en nuestro trabajo diario, ya que ofrece grandes ventajas operativas y de costos, que lo hacen importante a la hora de definir ambientes y diseñar arquitecturas.
Acerca del autor Roberto Di’Lello se desempeña como Consultor Senior en Servicios, trabajando en forma conjunta con Microsoft en proyectos relacionados con Infraestructura, Active Directory, Seguridad y Mensajería. Posee un blog técnico en el cual publica información de tecnologías Microsoft. Especializado en Tecnologías Microsoft, con más de 10 años de experiencia en el mercado, posee las certificaciones de Microsoft Certified Systems Engineer 2003/2008 (MSCE), Microsoft Certified Administrator + Messaging (MSCA +Messaging) y Microsoft Certified Technology Specialist (MCTS), Actualmente colabora activamente en comunidades dedicadas a tecnologías Microsoft, tales como GLUE y GLAD.
Links de Interés •Microsoft Hyper-V Server 2008 Web site: http://www.microsoft.com/servers/ hyper-v-server/default.mspx •Virtualization with Hyper-V: Supported Guest Operating Systems http://www. microsoft.com/windowsserver2008/en/ us/hyperv-supported-guest-os.aspx •Virtualization with Hyper-V: Application Support: http://www.microsoft.com/ windowsserver2008/en/us/hyperv-appsupport.aspx •Virtualization with Hyper-V: Community: http://www.microsoft.com/windowsserver2008/en/us/hyperv-community.aspx •System Center Virtual Machine Manager http://www.microsoft.com/systemcenter/ virtualmachinemanager/en/us/default. aspx •Windows Virtualization Team Blog: http://blogs.technet.com/virtualization/ default.aspx
WWW.REVISTANEX.COM
ADIÓS A FIREFOX 2 Los usuarios de Firefox deberán migrar hacia la versión 3 del navegador ya que a partir de diciembre la Fundación Mozilla dejará de brindar soporte para la exitosa segunda versión. A mediados de diciembre se cumplirán 6 meses del lanzamiento de Firefox 3, y ese es precisamente el tiempo estipulado por la Fundación para dejar de dar soporte a los productos viejos. Por otro lado Mozilla acaba de presentar la aplicación “Fashion your Firefox” que permite customizar el navegador a gusto del usuario de una manera muy sencilla. Por el momento esta aplicación solo se encuentra disponible en inglés.
|78| NEX IT SPECIALIST
WWW.REVISTANEX.COM
CANONICAL DESARROLLA VESIÓN DE UBUNTU PARA MÓVILES Las netbooks continúan ganando mercado e influencia y ahora Canonical ha anunciado un acuerdo con el fabricante británico de procesadores ARM para desarrollar una versión especial de Ubuntu que se adapte de manera óptima a las prestaciones de los pequeños dispositivos. El acuerdo no solo beneficiará a Ubuntu permitiéndole llegar de manera más efectiva al sector de los netbooks y de los smartphones, sino que ARM comenzará a dar el salto desde los teléfonos móviles hacia las computadoras. La nueva versión de Ubuntu estaría disponible en abril de 2009
MICROSOFT Y SUN ALCANZAN ACUERDO SOBRE BÚSQUEDAS En un nuevo intento por hacer pie en la Web, Microsoft ha alcanzado un acuerdo con su antiguo rival Sun Microsystems, con quien protagonizó fuertes disputas por problemas de patentes y de monopolio en el pasado. El acuerdo estipula que Sun incluirá en su plataforma de desarrollo Java la barra de búsquedas de Microsoft, Live Search. Según Microsoft este acuerdo es muy beneficioso para la empresa porque el 35 por ciento de las búsquedas se realizan desde la barra de direcciones del navegador.
NORUEGA APUESTA POR EL OPENOFFICE La ministra de Administración y Reforma Pública de Noruega, Heidi Grande Roeys, afirmó que su gobierno destinará cerca de 300 mil dólares al centro nacional de programas libres a fin de adaptar el software de oficina OpenOffice para utilizarlo en la administración pública. OpenOffice es una suite ofimática gratuita y de código abierto creada por Sun para presentar una alternativa al Office de Microsoft. Hace pocas semanas fue presentada la versión 3.0, la cual ofrece importantes mejoras en sus componentes, rendimiento y fiabilidad.
++++++++++++++++++++++++++++++++++++++++++++ ++++++++++++++++++++++++++++++++++++++++++++
WWW.REVISTANEX.COM
NEX IT SPECIALIST |79|
Carta
De
Lectores
Hola. Mi nombre es germán y estuve leyendo la nota de NEX #48 sobre Posicionamiento Web y quería que me recomendaran alguna herramienta para medir la competencia SEo. Estimado Germán, Existen tres excelentes herramientas para medir nuestra competencia en la optimización para motores de búsqueda (SEO). Son realmente esenciales dado que de nuestra popularidad en el ranking dependerá el aumento de tráfico en nuestro sitio y, por consiguiente, las ganancias que podamos llegar a tener. La primer herramienta de control de SEO recomendada es la Niche Watch (http://www.nichewatch.com); es una aplicación gratuita que busca los primeros diez resultados de Google para una cierta frase y de ella nos permite comparar: los backlinks al dominio en Yahoo, los backlinks a la página Web en Yahoo, el PR de Google de un dominio y su página Web, la cantidad de veces que aparece las keywords en tu sitio, páginas indexadas en Yahoo, el tamaño del anchor text en el ranking de Google. Difficulty Tool (http://www.seomoz.org/keyword-difficulty) es una aplicación solo para miembros Premium SEOmoxz. Estima el nivel de competencia revisando, entre otras cosas, la fuerza de la página, la antigüedad del dominio, los backlinks de la página y del dominio, el ranking en Alexa, el número de enlaces .edu y .gov y desde Del.icio.us. Compete.com (http://searchanalytics.compete.com/site_referrals/) es un servicio pago pero con varias búsquedas gratuitas. Busca a tus competidores directos para una cierta palabra clave y provee de información adicional de los promedios mensuales de las búsquedas e información compartida, es decir, cuánto del tráfico de sitios depende de esta palabra clave referida. Probalas y después contanos!
¡Hola! Me compré hace poco una pc en la que vino instalado Windows Vista. El problema es que no encuentro desde donde acceder a la cuenta administrador. En el XP podía verse accediendo al modo seguro, lo cual era útil si había algún problema que impedía iniciar sesión con una cuenta determinada. pero ¿cómo puede solucionarse esto en el vista? Federico
Estimado Federico: Si bien en Windows XP era muy común que un usuario estándar ejecutara el sistema operativo con la cuenta Administrador, ya que era la que se mostraba por default en la pantalla de bienvenida, esto también limitaba en lo que a administración de seguridad se refiere. Porque sin la cuenta administrador, la cuenta del usuario era la única disponible. Así, frente a un problema grave en la configuración de la cuenta, será imposible arrancar el sistema operativo, del mismo modo que si un malware de cualquier tipo limita las acciones de la cuenta actual no tendremos desde donde reparar el perfil. En Vista podremos acceder al Administrador haciendo clic en Inicio/Iniciar búsqueda y escribimos lusrmgr.msc. Una vez en la consola, seleccionamos la carpeta Usuarios y vemos todas las cuentas disponibles en el equipo. Hacemos doble clic sobre la llamada Administrador y descargamos la casilla de verificación Cuenta deshabilitada para luego presionar Aceptar.
Hola revista Nex it. Quería felicitarlos por la nota de google. Me pareció muy buena la comparación entre navegadores, la descripción de todos los productos que tiene bajo su ala el gigante google y las funciones escondidas de chorme. y aquí entra mi pregunta, ¿cómo puedo bloquear publicidad en Google chrome? Mario. Estimado Mario, Instalando Free Privacy Web Proxy y ajustando algunas cosas en Chrome, podremos bloquear toda la publicidad. A continuación, algunos pasos para hacerlo: 1- Descarga e instala Privoxy, el gratuito y podrás descargarlo desde http://www.privoxy.org/. 2- Haz clic en el icono de la herramienta Chorome en la esquina superior derecha. 3- Elegí Opciones-> Avanzadas -> Cambiar la configuración del Proxy. 4- Hacé clic en la Configuración de LAN, dentro de la solapa CONEXIONES. 5- Chequea el seteo del Proxy y en adress pon 127.0.0.1 y 8118 en el puerto. 6- Si tenes la opción, podes incluso tildar “no utilizar para conexiones locales”. 7- Hace clic en OK y reinicia Chrome Esperamos que te sirva la explicación. Un saludo.
¡NO D EJ E DE E S CR I B I R SUS CONSULTAS A REDACCI O N @REV ISTANEX.COM! |80| NEX IT SPECIALIST
WWW.REVISTANEX.COM
BREVES Buenos Aires ya tiene su distrito tecnológico Inspirado en ejemplos como el de Barcelona, España, la legislatura de la ciudad de Buenos Aires aprobó la propuesta para crear el Distrito Tecnológico de la Ciudad de Buenos Aires, con el objetivo de que las empresas que quieran desarrollar software y producir nuevas tecnologías de la información y la comunicación, obtengan importantes beneficios y facilidades por parte del gobierno, especialmente lo que se refiere a la exención de impuestos. De hecho las empresas que se muden al distrito tendrán exención del pago de ingresos brutos, de ABL y del pago de impuestos de sellos por diez años, además de que contarán con la posibilidad de diferir impuestos para ser invertidos en obras y contarán con incentivos fiscales por un plazo de diez años. Los empleados que se muden al barrio también obtendrán beneficios como la exención del pago de ABL durante 10 años y la posibilidad de obtener créditos a tasas preferenciales.
IBM y la computación cognitiva IBM junto al Ministerio de Defensa de los Estados Unidos se encuentra desarrollando una computadora cuyas respuestas podrían adaptarse a los contextos y no trabajar exclusivamente de manera automática. En el proyecto trabajan ingenieros y desarrolladores junto a neurólogos y psicólogos, y cuenta con la colaboración de nueve universidades entre ellas Stanford y la UCLA. Estas computadoras podrían ser utilizadas para el análisis de datos a gran escala o el reconocimiento de imágenes. Conscientes de que el cerebro humano es un organismo difícil de igualar, los científicos se han propuesto como objetivo a largo plazo crear un sistema con un nivel de complejidad similar al del cerebro de un gato.
Según anunció el jefe de gobierno porteño, Mauricio Macri, durante los próximos 10 años, se invertirán unos 400 millones de dólares en el emprendimiento, el cual se espera que este listo en unos 4 años. Uno de los puntos que más destacaron desde el gobierno de Macri, es el que el emprendimiento ayudará a reactivar a una zona muy relegada de la Capital como es la zona sur y generará más de 30.000 nuevos puestos de trabajo. El predio se encontrará ubicado en la zona sur de la ciudad, más precisamente en los barrios de Parque Patricios y Pompeya.
Humor por Severi
FOTO: www.sxc.hu / hidden
El e-Commerce por primera vez registra crecimiento negativo Según un informe difundido por la consultora ComScore, durante las tres primeras semanas de noviembre de 2008 los usuarios estadounidenses han realizado operaciones comerciales online por 8.200 millones de dólares, mientras que en el mismo periodo del año anterior había sido de 8.500 millones. Este descenso del 4 por ciento en las operaciones es el primero registrado en la historia del comercio electrónico, un rubro que ha mantenido tasas de crecimiento estable a la largo de su historia.
|82| NEX IT SPECIALIST
WWW.REVISTANEX.COM WWW.REVISTANEX.COM