milveinticuatro - Alexander Graham Bell

Page 1




milveinticuatro

Contenido

6

Alexander Graham Bell

12 SoftwareONE - AT

6

24 perfil del internauta uruguayo 30 entrevista: Raúl Echeberría 36 oficinas de proyectos 42 ingreso al mercado de las TI

30 24

56 50

50 pruebas unitarias en JAVA 56 CeBIT 2011 62 entrevista: Gustavo Fagundez 74 sociales

Queda prohibida la reproducción no autorizada total o parcial de los textos publicados, ilustraciones y gráficos, o similares, incluidos en esta edición. La dirección de esta publicación no se hace responsable, y no necesariamente se identifica o comparte el contenido u opiniones, en los artículos firmados; los mismos son de propiedad y responsabilidad de los propios autores. Las notas publicadas en este medio no reemplazan la debida instrucción por parte de personas idóneas. La editorial no asume responsabilidad alguna por cualquier consecuencia derivada de la fabricación funcionamiento y /o utilización de los servicios y productos que se describen, analizan o publican. Los nombres de las compañias y los productos que se mencionan pueden ser marcas registradas por sus respectivos propietarios.


Edición Alexander Graham Bell

STAFF Dirección Enrique González enrique.gonzalez@1024.com.uy Diseño y Diagramación

Estimados

Santiago Poggi arte@1024.com.uy

Desde el comienzo sabemos que llegar de forma atractiva a un público tan exigente como nuestros lectores, y mantenerse en forma, no es simple.

Fotografía photos.com - milveinticuatro

Comenzamos con una propuesta inusual, una revista impresa de tecnología, con un formato, una propuesta y un diseño diferente al que estábamos acostumbrados.

Arturo Maccio - Víctor Domínguez

También sorprendimos con los Avant Premiere que hacemos en cada lanzamiento de la revista, llegando directamente a nuestro público de TI, generando un aire diferente, y parafraseando a una señora que caminaba detrás mío con una amiga -en una feria de pocitos- a la que le decía que “una revista de computadoras invitó a mi marido y a mi… había whisky, champagne… después veías la película… nunca había ido a un evento así” esto me mostró que estamos haciendo mucho más que una revista de TI, y podemos sorprender con las acciones que realizamos, inclusive a quién no es nuestro público objetivo primario como es el caso de esta señora.

Impresión

También mostramos otras formas de llegar a nuestro público, lanzamos el sitio WEB, www.1024.com.uy, la versión digital de milveinticuatro. Al momento de leer esta editorial ya estará arriba la nueva versión. Nuestro nuevo portal WEB será la apuesta para este año, pretendemos llegar a toda la comunidad informática. No nos alcanzará con premiar a quiénes se suscriban a la revista y se hagan miembros del sitio para mantenerlos informados de los eventos destacados que ocurran en Uruguay, incluyendo a los que organicemos con la revista exclusivamente para el sector de TI. Queremos colaborar con el desarrollo personal y profesional. Por eso estamos trabajando en el nuevo portal, te invitamos a ser partícipe desde el comienzo. Pero no podemos quedarnos quietos y por eso debemos aportar algo más en cada edición, en esta oportunidad, Gustavo Fagundez nos muestra su tarea como nuevo gerente comercial de INCO; AT y SoftwareONE nos cuentan de su importante alianza; y por último entrevistamos a Raúl Echeberría, Director Ejecutivo de LACNIC, que nos relata el comienzo de esta organización tan importante para Internet que -desde la rambla de Carrasco en Uruguay- asigna las direcciones IP para el uso de la red de redes en América Latina y caribe. Te invito a leer esta edición y siéntete libre de realizar los comentarios a través del sitio web.

Saludos cordiales,

Enrique González

Gonzalo Useta

Impresora Polo

Colaboradores Alexander Graham Bell, Luis Amil, Alain Mizrahi, Raúl Echeberría, Virginia Martínez, Roberto Monzón, Renzo Repetto, Adriana Ávila, Lucía Camilloni, Diego Vallespir, Cecilia Apa, Daniel García Aspiroz, Gustavo Testa, Andre Paris, Gonzalo Sologaistoa, Guillermo Zucotti, Fernando Álvarez Noya, Gustavo Fagundez.

Contactos info@1024.com.uy comercial@1024.com.uy comentarios@1024.com.uy

www.1024.com.uy


milveinticuatro

Científico, inventor y logopeda británico. Contribuyó al desarrollo de las telecomunicaciones y la tecnología de la aviación. Sus investigaciones le llevaron a intentar conseguir la patente del teléfono en América, en 1876, aunque el aparato ya había sido desarrollado anteriormente por Antonio Meucci, siendo éste reconocido como su inventor el 11 de junio de 2002. Muchos otros inventos marcaron su vida, la construcción del hidroala y los estudios en aeronáutica. Fue uno de los fundadores y presidente de la National Geographic Society.


milveinticuatro

Alexander Graham Bell Científico, especializado en transmisión de ondas sonoras y en tecnología

N

ació en Edimburgo, Escocia, el 3 de marzo de 1847. Su padre era el profesor Alexander Melville Bell, y su madre Eliza Grace. Tuvo dos hermanos, Melville James Bell (1845-1870) y Edward Charles Bell (18481867). Al nacer le pusieron por nombre Alexander. Más tarde, suplicó a su padre que le pusiera un segundo nombre, como había hecho con sus dos hermanos. Con motivo de su undécimo cumpleaños, su padre le permitió adoptar “Graham”, debido a la gran admiración que sentía hacia un amigo canadiense de la familia llamado Alexander Graham. En privado, era conocido como “Aleck”. Su mejor amigo era Ben Herdman, un vecino cuya familia operaba un molino harinero. En una ocasión, mientras jugaban, los amigos Ben y Aleck causaron un desastre, John Herdman (padre de Ben) les regañó diciendo: “¿Por qué no hacen algo útil?”. Aleck preguntó qué era necesario hacer en el molino y le dijeron que descortezar el trigo, algo que se hacía mediante un tedioso proceso. Entonces, a la edad de 12 años, Bell construyó una máquina de descortezamiento que fue utilizada durante muchos años. En agradecimiento, John Herdman les cedió un pequeño taller para que pudieran “inventar”.

Fue matriculado en la Royal High School en Edimburgo, Escocia, que dejó a la edad de 15 años. No fue un alumno destacado en la escuela, faltaba a clases y obtenía calificaciones mediocres. Su interés principal estaba en las ciencias, especialmente la biología, y mostraba indiferencia por el resto de las materias. A la edad de 16 años, Bell se aseguró un puesto como aprendiz de profesor de locución y música en la Weston House Academy, en Escocia. Aunque él era estudiante de latín y griego, enseñaba por un puesto permanente y £10 por sesión. Asistió a la Universidad de Edimburgo y a la Universidad de Toronto, donde se gradúa.

En 1865, regresó a la Weston House como un asistente y, continuó con sus experimentos de sonido. Allí se concentró en experimentar con electricidad para transmitir sonido e instaló un cable de telégrafo desde su cuarto en Somerset College hasta otro de un amigo. A su hermano menor, Edward “Ted” le fue diagnosticándosele tuberculosis, y finalmente fallecería. Su hermano mayor, “Melly” se casó y se mudó, y en mayo de 1870, también muere por una complicación de tuberculosis, causando una crisis familiar. Los padres de Bell precipitaron una mudanza largamente planificada. En 1870, Bell, sus padres y la viuda de su hermano, embarcaron hacia Canadá. Compraron una granja en Tutelo Heights (ahora Tutela Heights), cerca de Brantford, Ontario. Su interés en el estudio de la voz humana continuó al descubrir la Six Nations Reserve al otro lado del río en Onondaga. Allí aprendió el idioma Mohawk y lo tradujo al lenguaje de señas. Diseñó un piano que podía transmitir su música a distancia por medio de la electricidad. En octubre de 1872, abrió una escuela en Boston llamada: Fisiología Vocal y Mecánicas del Habla (Vocal Physiology and Mechanics of Speech), que atrajo a un gran número de pupilos sordos. Para 1874, el trabajo con el telégrafo armónico había avanzado mucho, debido al progreso hecho en su nuevo laboratorio en Boston así como en su casa en Canadá. Mientras trabajaba ese verano en Brantford, experimentó con un “fonoautógrafo”, una máquina semejante a un bolígrafo que podía dibujar formas sobre cristal ahumado, basándose en ondas acústicas. Pensó que podría ser posible generar las corrientes eléctricas onduladas que correspondieran a las ondas de sonido. También pensó que múltiples alambres de metal a diversas frecuencias como un arpa podrían convertir las corrientes ondulatorias nuevamente en sonido. Pero él no tenía ningún modelo de trabajo para demostrar la viabilidad de estas ideas.

1075


milveinticuatro

En 1874, el tráfico de mensajes de telégrafo se ampliaba rápidamente y necesitaba encontrar una manera de enviar múltiples mensajes en una sola línea de telégrafo, para reducir costos de construir nuevas líneas. Menciona a Gardnier Greene Hubbard y Thomas Sanders que él trabajaba en un método de enviar múltiples tonos en un alambre de telégrafo y comenzaron a apoyar financieramente sus experimentos. Contrató a Thomas Watson como su ayudante. El 2 de junio de 1875, Watson desenchufó accidentalmente uno de los alambres, y Bell en el final del alambre, oyó las insinuaciones del alambre, que serían necesarias para transmitir el discurso. Eso demostró que solamente un alambre era necesario, no múltiples. El 14 de febrero de 1876 Bell estaba en Boston. Hubbard, quien pagaba los costos de las patentes, dijo a su abogado de patentes Anthony Pollok archivar el uso de Bell en la oficina de patentes de los Estados Unidos. Esto fue hecho sin el conocimiento de Bell. La patente número 174.465 fue publicada a Bell el 7 de marzo de 1876 por la oficina de patentes de los Estados Unidos la cual cubría: “El método de, y el aparato para, la transmisión de sonidos vocales u otros telegráficamente... causando ondulaciones eléctricas, similares en forma a las vibraciones del aire que acompañaba el sonido vocal u otro dicho”. Tres días después de que su patente fue publicada, Bell experimentó con un transmisor de agua, usando una mezcla de ácido y agua. La vibración del diafragma hizo a una aguja vibrar en el agua, que varió la resistencia eléctrica en el circuito. Cuando Bell articuló la famosa oración: “Mr Watson — Come here — I want to see you” (Señor Watson, venga aquí, quiero verlo) en el transmisor líquido, Watson, en un cuarto colindante, oyó las palabras claramente.

En el año de 2002 algunos “reintegradores de historia” descubrieron que el real creador de la patente fue Antonio Meucci. Continuando con sus experimentos, Bell llevó un modelo de trabajo de su teléfono a su casa. El 3 de agosto de 1876, desde la oficina de telégrafo en Mount Pleasant, Brampton, Ontario, Alexander envió un telegrama que indicaba que estaba listo. Con curiosos espectadores sirviendo de testigos en la oficina, débiles voces fueron oídas replicando al mensaje. La noche siguiente, él sorprendió a su familia y huéspedes cuando un mensaje fue recibido en la casa de Bell en Brantford, a lo largo de un alambre improvisado, encadenado a lo largo de las líneas telegráficas, de las cercas y por último siendo llevado a través de un túnel. Esta vez los huéspedes de la casa oyeron distintamente a gente leyendo y cantando en Brantford. Estas primeras transmisiones interurbanas probaron claramente que el teléfono podría trabajar sobre largas distancias. Bell y sus socios, Hubbard y Sanders, ofrecieron vender la patente a Western Union por $100.000 USD. El presidente de la Western Union los contradijo alegando que el teléfono no era nada sino un juguete. Dos años más tarde, él dijo a sus colegas que si él pudiese conseguir la patente por $25 millones de USD él la considerara un negocio. Para entonces la compañía de Bell no deseaba vender la patente. Los inversionistas de Bell se hicieron millonarios. Bell comenzó una serie de demostraciones y conferencias públicas para introducir la nueva invención a la comunidad científica así como al público en general. La Bell Telephone Company fue creada en 1877 y para 1886, más de 150.000 personas en los Estados Unidos poseían teléfonos. Los ingenieros de la compañía de Bell llevaron a cabo numerosas mejoras al teléfono, que se convirtió en uno de los productos más exitosos. En 1879, la compañía de Bell adquirió las patentes de Edison para el micrófono de carbón de la Western Union. Esto hizo el teléfono práctico para las largas distancias, al contrario del transmisor accionado por voz de Bell que requería que los usuarios gritaran en él para que se oyera en el teléfono de recepción, aún en las distancias cortas. El 25 de enero de 1915 Alexander Graham Bell envió la primera llamada telefónica transcontinental, desde el 15 de Day Street en la ciudad de Nueva York, que fue recibida por Thomas Watson en la 333 de Grant Avenue en San Francisco, California.

Prototipo de Teléfono de Alexander Graham Bell en 1876

1085


milveinticuatro

Durante 18 años, la Bell Telephone Company hace frente a 600 demandas de inventores que demandan haber inventado el teléfono, nunca perdiendo un caso. Las notas del laboratorio de Bell y las cartas a la familia eran la clave para establecer un linaje largo a sus experimentos. Una demanda fue interpuesta por el inventor italiano Antonio Meucci, quién demandó haber creado el primer modelo de trabajo de un teléfono en Italia en 1834. En 1876, Meucci llevó a Bell a la corte para establecer su prioridad. Los modelos de funcionamiento de Meucci fueron perdidos, según se informaba, por exactamente el mismo laboratorio de Western Union en donde Bell condujo sus experimentos. Meucci perdió su caso debido a la carencia de la evidencia material de sus invenciones. El trabajo de Meucci, como el de muchos otros inventores del periodo, fue basado en principios acústicos anteriores. Sin embargo, debido a los esfuerzos del miembro del Congreso Vito Fossella, la resolución 269 de la cámara de Representantes de los Estados Unidos el 11 de junio de 2002 indicó que el trabajo de Meucci en la invención del teléfono debe ser reconocido, aunque no es una decisión irrevocable. Aunque, los estudiosos modernos no reconocen las demandas de dispositivos acústicos de Meucci alegando que no concernían al desarrollo del teléfono.

The New York Times reportó: “El 9 de octubre de 1876, Alexander Graham Bell y Thomas Watson hablaron por teléfono el uno con el otro mediante un alambre estirado entre Cambridge y Boston. Esa fue la primera conversación mantenida mediante un alambre. En la tarde de ayer (25 de enero de 1915) los mismos hombres hablaron por teléfono mediante un cable de 3.400 millas entre Nueva York y San Francisco. El señor Bell se encontraba en Nueva York y su socio el señor Watson estaba en el lado opuesto del continente. Ellos se escucharon a si mismos más claramente que en la primera conversación hace 38 años”. Como a veces es común en los descubrimientos científicos, los desarrollos simultáneos pueden ocurrir, como lo evidencia el número de inventores que trabajaban en el teléfono. Los abogados de la compañía de Bell lucharon con éxito contra una miríada de los pleitos generados inicialmente alrededor de los desafíos con Elisha Gray y Amos Dolbear. En correspondencia personal con Bell, Gray y Dolbear reconocieron el trabajo anterior de Bell que debilitó considerablemente sus demandas. El 13 de enero de 1887, el gobierno de los Estados Unidos anuló la patente publicada a Bell sobre la base de fraude y la mala representación.

El valor de la patente de Bell fue reconocido a través del mundo y cuando Bell se retrasó en aplicación para la patente alemana, la firma eléctrica Siemens y Halske (S&H) instalaron un fabricante rival de los teléfonos de Bell bajo su propia patente. La compañía Siemens produjo copias casi idénticas del teléfono de Bell sin pagar derechos. Una serie de acuerdos en otros países consolidó eventual una operación global del teléfono. La tensión en Bell por sus constantes apariciones en la corte necesarias por las batallas legales, eventualmente resultaron en su dimisión de la compañía. Muchos casos eran repetitivos, y la resignación de Gray hacia Bell fue creciendo con el tiempo. El 11 de julio de 1877, algunos días después de que la Bell Telephone Company fuera establecida, Bell se casó con Mabel Hubbard (1857-1923) en Cambridge. Alexander esperó hasta estar financieramente seguro antes de casar. Aunque el teléfono pareció ser un éxito “inmediato”, no era inicialmente una empresa rentable y las principales fuentes de la renta de Bell eran de conferencias hasta después de 1897. Tendrían cuatro niños: Elisa (Elsie) May Bell (1878-1964), Marian Hubbard Bell (conocida como “Daisy”) (1880-1962) y dos hijos que murieron en su infancia.

1095


milveinticuatro

signación para el David Starr Jordan’s Committee on Eugenics (Comité de Eugenesia David Starr Jordan), bajo los auspicios de la American Breeders’ Association (Asociación de Criadores de América). Este comité extendió inequívocamente sus postulados a la especie humana. De 1912 a 1918 presidió la junta de asesores científicos de la Eugenics Record Office (Oficina de Registro de Eugenesia) asociada con el Laboratorio de Cold Spring Harbor en Nueva York. Fue el presidente honorario del Segundo Congreso Internacional de Eugenesia celebrado en Nueva York en 1921 bajo los auspicios del Museo Americano de Historia Natural. Organizaciones como estas abogaron por la aprobación de leyes que establecieran la esterilización forzosa de personas consideradas, como Bell las llamó, una “variedad defectuosa de la raza humana”. A fines de los años treinta, aproximadamente la mitad de los estados en los EE.UU. tenían leyes eugenésicas y las leyes de California fueron un modelo para leyes eugenésicas en la Alemania nazi. Premios

En 1882, Bell se naturalizó como ciudadano estadounidense. La familia de Bell mantuvo su residencia en Washington D.C., donde Bell instaló su laboratorio. Fue demandado como “hijo nativo” por Canadá, Escocia y los Estados Unidos. Junto con muchos pensadores y científicos prominentes de la época, Bell estaba relacionado con el movimiento eugenésico en los Estados Unidos. En 1881 investigó la tasa de sordera en Martha’s Vineyard, Massachusetts y el 13 de noviembre de 1883 presentó a la Academia Nacional de Ciencias su Memoir Upon the Formation of a Deaf Variety of the Human Race (Memoria sobre la formación de una variedad sorda de la raza humana) donde concluía que padres con sordera congénita tenían más probabilidades de tener hijos sordos y sugería que las parejas en que ambos fueran sordos no deberían casarse. Sin embargo, fue su afición por la cría de ganado la que condujo a su de-

En 1880, recibió el premio Volta de la Academia Francesa de Ciencias. Invirtió el dinero obtenido con este premio (50 mil francos) en el desarrollo de un nuevo proyecto, el fotófono, en colaboración con Charles Sumner Tainter. El invento intentaba transmitir el sonido utilizando un rayo de luz, un precursor de la fibra óptica. También trabajó en uno de los primeros sistemas de grabación de sonidos conocido, basado en imprimir un campo magnético para reproducir sonidos. La idea fue abandonada al no poderse construir un prototipo; sin embargo, los principios básicos encontrarían aplicaciones prácticas casi un siglo más tarde, en las cintas magnéticas y las computadoras. Recibió varias distinciones, entre ellas la Legión de honor del gobierno francés, el premio Volta, la medalla Albert de la Royal Society of Arts, la medalla Edison, y un doctorado por la Universidad de Würtzburg. Recibió 18 patentes individuales, y 12 más con sus colaboradores, entre ellas 14 por el teléfono y telégrafo, 4 por el fotófono, 1 por el fonógrafo, 9 por vehículos aéreos (incluyendo 4 de hidroplanos) y 2 por celdas de selenio. También se acredita a Bell la invención del detector de metales. Bell murió de anemia perniciosa el 2 de agosto de 1922 en su casa de Beinn Bhreagh, Nueva Escocia, a la edad de 75 años. Su esposa Mabel cuidó de él en sus últimos meses. Fue enterrado en los montes cercanos. Fuente: www.wikipedia.com

1105



milveinticuatro

entrevista

Alianza: SoftwareONE – AT

Gonzalo Sologaistoa, Business Development Director, AT Soluciones Tecnológicas Guillermo Zuccotti , Business Development Manager, SoftwareONE Uruguay

¿Qué es SoftwareONE y que cometido tiene en el mundo tecnológico actual? GZ SoftwareONE es una corporación de origen suizo, cuenta con más de 20 años de trayectoria en el mundo de la comercialización del software y para Microsoft está considerada dentro de las 5 LAR (Large Account Resellers, distribuidor de grandes cuentas) más importantes del mundo, así como el de mayor y más rápido crecimiento.

Nos destacamos como ESA (Enterprise Software Advisor, Asesor de Software Empresarial) a nivel mundial también. Representamos a centenares de marcas reconocidas a nivel mundial las que forman un completo porfolio de soluciones. Actualmente se está expandiendo en todo el mundo con especial énfasis en Asia y América Latina, además de estar presentes en 25 países y se está trabajando arduamente para lograr duplicar este número al final del 2012. Somos el único reseller global que tiene un único foco, licenciamiento de software y consultoría en gestión estratégica de activos de software “ ONE FOCUS – SOFTWARE LICENSING”

1125


milveinticuatro

¿En dónde cuenta con presencia SoftwareONE actualmente y quién esta cargo localmente? GZ En la actualidad contamos con oficinas tanto en EEUU, Mexico, Puerto Rico, Chile, Brasil, Argentina y ahora en Uruguay también. Al frente de las operaciones de SoftwareONE Uruguay SA en la posición de BDM (Business Development Manager) estoy yo con el fin de aportar toda mi experiencia en el rubro adquirida en importantes empresas nacionales e internacionales en los últimos 15 años, lo cual me permite poder desarrollar y comandar este desafió tan importante en cual la corporación tiene cifradas esperanzas. Quien dirige y supervisa Argentina y Uruguay desde el lanzamiento de ambas filiales es Ernesto Krawchik, un veterano de la industria informática, con una carrera que lo llevo desde la posición de trainer “entrenador” en IBM hasta la presidencia de Oracle para el Cono Sur, previo a una experiencia exitosa en outsourcing de servicios desde Argentina. Con estudios de física en la Universidad de Buenos Aires y un posgrado de negocios en la el Instituto de Altos Estudios Empresariales de Universidad Austral, AT es una Empresa con varios años en la Industria de IT en Uruguay. ¿Cuáles son sus principales líneas de trabajo hoy en día? GS AT está alcanzando los 24 años de actividad, consolidada actualmente como Líder en Servicios de TI. Desde hace varios años orientamos nuestro trabajo hacia organizaciones y empresas, basados en el Sistema de Calidad y la Calificación de nuestros Recursos Humanos. Dentro de este marco, y respondiendo a tu pregunta, definimos nuestro foco y orientamos nuestros recursos a brindar Servicios y Soluciones en seis líneas de trabajo: Infraestructura + Virtualización + Seguridad + Búsqueda Corporativa & Colaboración + Automatismos y Soluciones Financieras + Desarrollo de Aplicaciones. La novedad del último año es el trabajo que estamos desarrollando para aggiornar todas estas Líneas de Negocio al modelo “Cloud Computing”. Este último tema parece interesante, y realmente está siendo cada vez más recurrente el término “Cloud Computing”. ¿Cuál es la visión de AT sobre “la nube”? GS Es cierto que las referencias a “Cloud Computing” han sido muchas y muy variadas en los últimos tiempos. Todos los fabricantes y referentes de la Industria están hablando del tema, y es seguro que en todas las presentaciones aparezca alguna referencia sobre sus “soluciones” para la “nube”.

Nosotros investigamos e intercambiamos visiones al respecto con quienes creemos son los líderes de este paradigma, como IBM, Microsoft, VMware, Google y Symantec, por mencionar algunos. Y luego de entender de que se trata y como impactará en los negocios, entendemos que es uno de esos quiebres en la forma de ver y hacer las cosas que cada 10 años aparecen, como el e-business lo fue en su época. Para resumirlo en pocas palabras, vemos Cloud Computing como el camino para “construir IT como Servicio”, de forma elástica, on-demand y ubicua. Para nuestros Clientes, será el camino para lograr sus objetivos de negocio u organizacionales, impulsados por la Tecnología como diferenciador. ¿Y cuál es el posicionamiento de AT en este sentido? GS Somos quienes mejor podemos entender los requerimientos de las Empresas y Organizaciones y evaluar juntos cuales de las Soluciones deben implementarse “on-premise” y cuales en el modelo “Cloud Computing”, ya sea en nube privada, pública o hibrida. Somo “Advisors” o Consultores en el proceso de definir cuan “Cloud-aware” son las aplicaciones y como afecta el nuevo modelo en cada caso. No todo es mejor en la nube, ni todo es mejor “on-premise”. Lo entendemos, lo estudiamos y presentamos fortalezas y debilidades para cada realidad. Vemos que tanto SoftwareONE como AT se han fijado grandes desafíos para este 2011. En particular SoftwareONE, ¿qué objetivos desea desarrollar y alcanzar en Uruguay? GZ La llegada de SoftwareONE se da en un contexto en el cual el mercado tecnológico está en un crecimiento constante y se espera que en el 2011 no sea la excepción. La idea de la compañía no es diversificar sino focalizarse y trabajar en alianzas con los socios locales. Debido a esto es que en todas las regiones donde SoftwareONE cuenta con su presencia, apostamos a convertirnos en el reseller de software líder del país, apreciado por clientes, partners y fabricantes. De este modo es que estamos ya trabajando desde Diciembre en Uruguay con el fin de aportar toda nuestra experiencia y de esta forma cambiar la forma de vender el software en nuestro mercado. La misión de SoftwareONE es que las compañías puedan tener el máximo retorno de las inversiones en su activo más estratégico que es el software ¿Cómo se relaciona y aporta AT a estos objetivos? GS En AT valoramos las Alianzas como herramienta para brindar mejores soluciones al Cliente. Y para concretarlas evaluamos valores y objetivos comunes. Desde esa perspectiva es que

1135


milveinticuatro

entrevista

surge la Alianza con SoftwareONE en Uruguay, integrando por un lado el expertise y foco que aporta SWone en cuanto a la gestión del software, y por otro la experiencia y calidad que brinda AT a nivel de Servicios. Cada uno focalizado en sus fortalezas y trabajando juntos, logrando sinergias para beneficio del Cliente. “Soluciones integrando Software + Servicios”, Esa es la propuesta de valor para Empresas y Organizaciones en Uruguay, y creemos que esta Alianza permite lograrlo.

NE tiene como objetivo brindar a los Clientes una Solución integral en todo lo relativo a sus activos de Software. Cada uno focalizado en su expertise, generando sinergia para entregar al Cliente el mejor servicio y el mayor valor para sus activos. Eso es lo que permite brindar un diferencial único en Uruguay.

¿Cuál es el valor agregado que ofrece SWO que lo diferencia de sus competidores?

GZ El software es quizá el único activo verdaderamente estratégico que adquieren hoy en día las empresas y organizaciones. Sin embargo las empresas no compran ni manejan este activo con especialistas sino con generalistas por lo que nuestro aporte a la causa es cambiar esta regla siendo un especialista en la gestión de activos de software. La filosofía con la cual trabajamos es la que apunta a transformar la manera en que las compañías manejan sus activos, desde el planeamiento estratégico hasta el aprovechamiento de dichos activos pasando por la adquisición y la administración de los contratos. Esta práctica con el tiempo se irá transformando en una revolución. SoftwareONE y sus socios del programa VARAssist vienen a poner el mundo de adquisición de software nuevamente parado sobre sus pies.

GZ La razón por la cual somos respetados como expertos es porque donde el resto ve complejidades, nosotros vemos oportunidades para aprovechar al máximo los activos de software de la empresa debido a nuestro enfoque exclusivo en el licenciamiento de software, el cliente sabe que tiene exactamente lo que necesita. Esto nos permite ofrecerle a nuestros clientes un expertise único en materia de gestión estratégica de activos y como mencionaba anteriormente, un excelente y distinguido programa de Partners denominado VARAssist, por el cual nuestros clientes reciben todo el valor de una red de expertos; SoftwareONE en el licenciamiento, nuestros Partners en cada rubro de implementación, desarrollo, mantenimiento, entrenamiento y consultoría de las múltiples tecnologías que ofrecemos y NO soluciones empaquetadas y de bajo valor agregado ofrecida por personal poco especializado. SoftwareONE ofrece el mejor “blend” de la industria en cada país. ¿Y cuál es el diferencial de AT desde esta nueva perspectiva? GS En Uruguay AT es reconocido por los Servicios de Calidad que brinda. El haber desarrollado esta Alianza con SoftwareO-

¿Por qué usted cree que SoftwareONE representa un nuevo paradigma en la venta de software, que se viene haciendo hace décadas por reconocidas empresas?

Finalmente, ¿qué debemos esperar a partir de esta Alianza? GS Algo simple. Las Empresas y Organizaciones en Uruguay contarán con una Solución en licenciamiento y servicios que conjuga lo mejor de los dos mundos. Podrán sentirse respaldados y asesorados por Socios de Confianza al momento de definir su estrategia en licenciamiento y concretar los objetivos que se trazaron con el mejor Servicio. Eso es lo que implica esta alianza y para eso estamos trabajando desde hace un buen tiempo.

1145



PARQUE TECNOLÓGICO Y DE EVENTOS


CENTRO CENTRO CENTRO CENTRO CENTRO

DE DE DE DE DE

DESARROLLO EMPRESAS TECNOLÓGICAS (CDET) DESARROLLO DEL CONOCIMIENTO (CDC) INCUBACIÓN DE EMPRESAS, “INGENIO” REUNIONES Y EVENTOS (CRE) DIFUSIÓN DE CIENCIA Y TECNOLOGÍA “ESPACIO CIENCIA”


El Parque Tecnológico y de Eventos del LATU tiene su origen en la necesidad de dotar al país de centros específicos con el objetivo de aportar a la generación de conocimiento de base tecnológica en áreas multidisciplinarias. Estos sectores integran su accionar con los centros de conocimiento, de modo de generar sinergias entre ambos actores, siendo los fundamentos de su actividad la innovación, la promoción y gestión de transferencia de tecnología. El Parque Tecnológico se encuadra dentro de los lineamientos de la misión del Instituto, debiendo, dentro de su ámbito de acción, “Impulsar el desarrollo sustentable del país y su inserción internacional a través de la innovación y transferencia de soluciones de valor en servicios analíticos, metrológicos, tecnológicos,…”, aplicando estrategias que potencien las mismas. La puesta en marcha del Parque Tecnológico y de Eventos, implicó inicialmente la realización de obras de infraestructura que se tradujeron en la construcción de tres edificios de dos mil

metros cuadrados cada uno, así como la adecuación de instalaciones que hasta ese momento utilizaba el Parque de Exposiciones, constituyendo la Fase 1 de su implantación. En especial, las instalaciones dedicadas a Centro de Reuniones y Exposiciones que fueron remodeladas, atienden las demandas internas y externas de eventos del Parque. La etapa de diseño, implementación y puesta en operativa de la Fase 1 se encuentra cumplida, encontrándose actualmente en curso la implementación y ejecución de la segunda fase. Está previsto culminar esta segunda etapa en 2011 con 7.000 m2 en diferentes módulos, para continuar integrando un mix de nuevas entidades privadas de pequeño, mediano y gran porte al Centro de Desarrollo de Empresas Tecnológicas, así como el redimensionamiento de la Incubadora de Empresas “Ingenio” y la ejecución de edificios para albergar algunas tecnicaturas de nivel terciario de la UTU.


El Parque se ha organizado en varios centros cada uno con sus propia misión y objetivos, pero actuando en forma coordinada a través de un Comité Técnico. Estos centros son: • Centro de Desarrollo Empresas Tecnológicas (CDET) • Centro de Desarrollo del Conocimiento (CDC) • Centro de Incubación de Empresas, “Ingenio”, • Centro de Reuniones y Eventos (CRE), y • Centro de difusión de ciencia y tecnología “Espacio Ciencia” Esto permitirá consolidar y optimizar los servicios brindados, así como alimentar la sinergia entre los diversos sectores involucrados en el Parque y el ambiente exterior, mediante acciones, actividades y eventos específicos. El Centro de Desarrollo de Empresas Tecnológicas se encuentra actualmente integrado por pequeños emprendimientos de egresados de la Incubadora “Ingenio”, conjuntamente con grandes y medianas empresas, especializados en desarrollo de software y comunicación digital. El Parque Tecnológico y de Eventos del LATU, posicionado para ser referente en su rubro, ha integrado a sus instalaciones y acceso a la totalidad de servicios prestados, al Plan Ceibal, con 2000m2 de instalaciones exclusivas para su funcionamiento. En relación al Centro de Desarrollo del Conocimiento, resulta destacable el desarrollo alcanzado y el éxito en la obtención de sus objetivos de capacitar recursos humanos para empresas de tecnologías de la información y tecnologías en general.

La Incubadora de Empresas “Ingenio” ha presentado un crecimiento sostenido, por lo cual está previsto en la Fase 2, su instalación en un edificio de mayor tamaño, 1500m2, que duplicará su capacidad de incubación física, y será dotada con diferentes salas de reuniones. El Centro de Reuniones y Eventos, cuya Sala de Reuniones ha sido recientemente incorporada, como resultado de una demanda insatisfecha en Montevideo de salas de gran porte, ha desarrollado actividades entre 2009 al 2011 que ya representan un crecimiento del 50% frente a lo realizado en el años anteriores. Espacio Ciencia es un Centro Interactivo de Difusión de Ciencia y Tecnología que permite a sus visitantes estimular la imaginación, la creatividad y el espíritu crítico, constituyendo un recurso no formal para el aprendizaje de la ciencia y la tecnología en nuestro país. Se encuentra integrado al Parque Tecnológico y de Eventos con sinergias internas y externas, sobre la base de mas de un millón y medio de visitantes desde su creación. De esta forma el complejo edilicio y de actividades que componen el Parque Tecnológico y de Eventos del LATU, continúa su evolución en forma sostenida cumpliendo con el objetivo de constituir un aporte al país, en respaldo a las Políticas Públicas de fomentar y difundir las acciones relacionadas con la innovación, y las de promover y facilitar los emprendimientos tecnológicos, con fuerte foco en la exportación de sus productos al mundo.

Por dicho Centro ya han recibido formación más de 9.000 personas, las cuales quedaron en condiciones de empleabilidad para los sectores específicos demandantes de las capacitaciones. En esta línea se ha avanzado en un acuerdo con la Universidad del Trabajo del Uruguay (UTU), tendiente a impartir cursos de las carreras de tecnólogos en química e informática, y de las nuevas tecnicaturas en telecomunicaciones y audiovisuales, a partir del próximo año.

Av. Italia 6201 - CP: 11500 - Montevideo, Uruguay atencionalcliente@latu.org.uy www.latu.org.uy


milveinticuatro

Acordarnos de Santa Bárbara cuando truena Esta es una frase muy conocida, de esas que todos usamos y en este caso la mayoría de las veces bien. La utilizamos cuando ocurre una desgracia previsible y nos damos cuenta que se había hecho poco o casi nada para prevenirla.

T

odos estamos expuestos a este problema y como en los últimos tiempos, tomé contacto con un par de hechos aislados, sin ninguna relación pero que trajeron esta frase a mi mente, me pareció oportuno como presidente de una organización que agrupa informáticos, compartir alguna reflexión al respecto. Uno de los usos de esta frase en el ambiente de las TICs es cuando salta una violación de seguridad importante y nos acordamos de todas las medidas y acciones que nos propusimos cuando tomo estado público la anterior y vemos que tal vez no cumplimos con todas ellas (o acaso con ninguna). Nos sentimos en un lugar seguro, hasta que Santa Bárbara nos vuelve a avisar cuando truena recordándonos que estamos expuestos. Claro está que es muy difícil aprender con la experiencia ajena, sobre todo si es lejana y no conocemos los detalles (porque en general nunca se publican). Pero los hechos que me trajeron la frase a la mente se pueden simplificar en tres puntos. 1 - El tema de seguridad que está en el centro de las ideas para tema de las próximas Jiap es también eje de varios proyectos de AsIAP. 2 - Además tuve oportunidad de participar en una presentación sobre la tragedia del Valiente 3 - El escándalo de Wikileaks, que me recordó otros dos escándalos de nivel internacional relacionados con seguridad informática, como el de los correos por el calentamiento global y el ataque a Estonia realizado por hackers de Rusia. Y claro, nos acordamos de Santa Bárbara cuando truena. ¿Cuántas medidas pensamos en tomar cuando todos los servicios de Estonia cayeron por el ataque que dejó inoperante a un país entero?. ¿Cuántas formas de “proteger” nuestros correos se nos ocurrieron cuando la publicación de los correos entre los científicos que nos alertaban sobre el calentamiento global y resulto que

en privado mantenían conversaciones sobre “maquillaje de información” para que su presentación fuera más efectiva?. Tal vez pocos leyeron los correos y los interpretaron, sin embargo la noticia y algunos contenidos (los más molestos) dieron la vuelta al mundo a través de las agencias de noticias. En este mundo, que cada vez se hace más dependiente de las tecnologías de la información y comunicaciones, la información es un valor estratégico que debemos proteger. Si consideramos que en todas las guerras lo primero que se ataca son los mecanismos de comunicación para aislar al enemigo, en las guerras comerciales, se ataca la imagen de las empresas. ¿Qué propaganda peor nos pueden hacer que poner en evidencia que no podemos ni siquiera cuidar nuestra información crítica?. Imagínense esta situación en un Banco que pretende cuidar nuestro dinero, o en una aseguradora, o en el propio 911 que debe cuidar nuestra seguridad y no pudo resolver un ataque telefónico. Ni hablemos de la seguridad nacional de USA, donde se terminan filtrando más de 250.000 mensajes confidenciales que debían estar “súper” protegidos. Y además el responsable de protegerlos, también tuvo noticias de los eventos anteriores y terminó cayendo en un ataque similar al hackeo de los correos sobre el calentamiento global. Desde hace ya bastante tiempo, el uso de las TICs se convirtió en una nueva arma, tanto para la guerra comercial como para la guerra propiamente dicha. El valor de esta arma esta dado por la información estratégica que circula en los correos, nombres de espías, planes de acción, la vidriera de su sitio Web. El uso de las TICs para la guerra no es nada nuevo, gran parte del desarrollo de la criptografía fue impulsado desde la necesidad bélica de trasmitir mensajes a través de medios no seguros. Recuerden la maquina “enigma“, utilizada en la segunda guerra mundial con gran éxito por los alemanes, hasta que los aliados descifraron los códigos.

1205


milveinticuatro

En el caso de Wikileaks la única forma de “robar” y distribuir estos mensajes es a través de las TICs, imagínense un individuo tratando de transportar esto en papel. O el tiempo que le llevaría si lo hicieran al estilo de James Bond, fotografiando los documentos. Como dijimos antes, los detalles tal vez no los conozcamos nunca, si fue un ataque externo, o interno. Las estadísticas marcan que hay un 80% de probabilidad que sea un funcionario descontento o convencido de una causa. La cuestión es que este tema nos debe hacer reflexionar y por sobre todo tomar nuestras medidas. ¿O nos acordaremos de Santa Bárbara la próxima vez que truene?. Cada vez que una noticia de estas da la vuelta al mundo nos quita el argumento “no se me ocurrió que esto podía pasar” no importa cuál es la información que manejemos, toda la información puede ser valiosa para la competencia o simplemente puede destruir la imagen que tantos años y dinero le costó construir a la empresa en que trabajamos. Este artículo no pretende dar las 7 recetas básicas para evitar los problemas de seguridad. Todos sabemos que la magia no existe y quiénes son los reyes magos. Sin embargo, trata de poner en negro sobre blanco que los riesgos existen y muchas veces no los vemos, y cuando los vemos tal vez no disponemos de presupuesto para tomar algunas medidas que nos resguarden, aunque sea un poco. Porque mañana podemos ser nosotros los que salgamos en el diario, con los sueldos de nuestros funcionarios, o las pasividades más abultadas del país, o con los movimientos de dinero realizados en los momentos más críticos. Antes una caja fuerte y una destructora de documentos (o una estufa a leña) nos ponían a salvo de los incidentes con la información, hoy muchos tienen acceso a información reservada, la pueden copiar, y todos sabemos que el único equipo seguro es el que está apagado, desconectado de la red y dentro de la caja fuerte.

1215


milveinticuatro Si antes podíamos invertir para resguardar el papel que es mucho más fácil de proteger, hoy debemos invertir mucho más en resguardar la información y los documentos reservados de nuestra empresa. Nos obliga la ley de protección de datos personales respecto de la información que tenemos la responsabilidad de custodiar, pero más nos obliga la necesidad de supervivencia de la empresa para la que trabajamos. Comencemos a trabajar hoy, la próxima vez que truene Santa Bárbara puede explotar en nuestras manos. Un último pensamiento, al individuo que le robaron los correos, tanto de Wikileaks como del calentamiento global, alguien le habrá preguntado, “¿Hemos hecho todo lo posible tener a buen resguardo esta información?”, “¿no podíamos haberla encriptado o tomado otras medidas?”, la única respuesta razonable del informático seria no tenía los medios, aumentar el nivel de seguridad costaba mucho dinero y todos conocemos la respuesta: “¿quién le pidió que ahorrara?”. “Lo que si le pedimos es que hiciera bien su trabajo ya le había pasado a otros y Ud. no se preparó para esta situación”. En AsIAP nos preocupan estos temas porque pueden afectar a nuestros socios y colegas, por ello hemos querido compartir esta reflexión para que cada informático responsable de información sensible tome sus precauciones. Nos interesa colaborar con el informático y los problemas que hoy lo preocupan. En las próximas Jornadas Informáticas JIAP abordaremos la problemática de seguridad desde varios ángulos, los esperamos el 17, 18 y 19 de agosto.

El artículo que salió en este número, lo redacte hace ya unos meses en el periodo de vacaciones de verano y no tenía noticias del algunos detalles del tema de WikiLeaks, de todas formas adelantábamos que lo más probable es que fuese un empleado descontento o convencido de una causa. Y dimos en el clavo, el soldado raso Bradley Manning, de 23 años, aparentemente fue el que filtro esta información. Según El país de Madrid, Manning se manifiesta como una persona profundamente decepcionada con su vida y con su país, alguien con ganas de cambiar el mundo y de ser reconocido por ello. Un funcionario “descontento” con la organización y con su vida, que tenia acceso a información clasificada y contaba con los medios para copiarla, no tenia puertos USB (tal vez por seguridad), pero contaba con una grabadora de DVD con la que copio todos estos correos y también aquel famoso video del helicóptero que disparaba a periodistas. Alistado en el Ejército de Tierra desde 2007, formado como analista de inteligencia, Manning fue destinado en octubre de 2009 a la Segunda Brigada de Combate de la Décima División de Montaña, en la base de operaciones Hammer, al este de Bagdad. Tenía acceso a SIPRNet, una red secreta del Departamento de Defensa, y JWICS, otra red utilizada conjuntamente por Defensa y el Departamento de Estado para transmitir información clasificada.

Bibliografía web http://www.meteored.com/ram/725/meteorologia-popular-%E2%80%9Cacordarse-de-santa-barbara-cuando-truena%E2%80%9D/ http://www.facebook.com/topic.php?uid=37272373017&topic=5018 http://www.ordenadores-y-portatiles.com/ataque-hacker.html http://www.kriptopolis.org/node/4851 http://www.kriptopolis.org/conclusiones-ciberataques-a-estonia http://es-la.facebook.com/topic.php?uid=123307594349745&topic=68 http://despiertateya.blogspot.com/2009/11/hackers-desarticulan-el-timo-del.html http://www.libertaddigital.com/ciencia/el-watergate-climatico-la-farsa-del-calentamiento-global-al-descubierto-1276376962/ http://pijamasurf.com/2009/11/climategate-hacker-expone-el-fraude-del-calentamiento-global-antropogenico/ http://www.hispanidad.com/noticia.aspx?ID=132642 http://wikileaks.org/ (está dada de baja) http://noticias.terra.com.pe/internacional/wikileaks-actor-estatal-puede-estar-detras-de-ciberataques-segunabogado,f597be17769ac210VgnVCM10000098f154d0RCRD.html http://www.prensa-latina.cu/index.php?option=com_content&task=view&id=243622&Itemid=1 http://www.lagaceta.com.ar/nota/411113/Mundo/que-delato-al-informante-Wikileaks-amenazado-internet.html

Luis Amil Presidente AsIAP

1225


milveinticuatro

Haga usted mismo la presentación!!!

Lend Screen

Respaldo y garantía total con 25 años de experiencia www.roddi.com.uy Zabala 1376 | tel: 915 2784 | mafedal@adinet.com.uy


milveinticuatro

El perfil del Internauta uruguayo Desde 2001, Grupo RADAR realiza un estudio relacionado con Internet y el uso de las tecnologías informáticas.

E

l 3 de mayo de 2011, Alain Mizrahi, director de Grupo RADAR, presentó en el auditorio de la Torre de las Telecomunicaciones los resultados del estudio anual que realiza desde 2001. Previamente, abrió el evento la Presidenta de ANTEL, Ing. Carolina Cosse, y expusieron también las otras tres empresas e instituciones que patrocinaron la investigación en 2010: Virginia Marotta, Directora de Wunderman; Kevin Blanchard, Responsable de Mercado Libre Uruguay; y Gustavo Graña, Jefe del departamento de evaluación y monitoreo del Plan Ceibal.

Existe al menos una computadora en el 69% de los hogares uruguayos. Entre 2001 y 2010 la penetración de PCs en hogares creció un 85% en Montevideo1 y un 215% en el Interior. Solo en el último año ese crecimiento fue de 7% en Montevideo y un 11% en el Interior. Actualmente, la penetración de PC es casi total en los hogares de NSE2 Alto, y de un 49% en los de NSE Bajo. Cabe señalar que luego de haber crecido muy significativamente entre 2008 y 2009, la penetración de PC en el NSE Bajo se estancó (el Plan

Penetración de PC en hogares ¿Hay alguna computadora en su hogar, incluyendo XO? (*) (base: 1799)

1245


milveinticuatro

Ceibal alcanzó su “techo”) mientras que sigue creciendo la en el NSE Medio (se siguen adquiriendo otras PC además de las XO). Sigue creciendo aceleradamente el número de hogares con portables (notebooks y netbooks), particularmente en Montevideo y en los hogares de NSE más alto: entre todos los hogares que tienen PC, 3 de cada 10 tienen una portable; y 3 de cada 4 en el NSE Alto. El parque actual de portables sería de aproximadamente 530.000 (+47% sobre 2009, +150% sobre 2008). Entre quienes afirman que comprarán una computadora en los próximos meses, el 52% dice que será una portable (era de solo 41% un año antes, 31% dos años antes y 24% tres años antes). La intención de compra de PC es casi idéntica en los hogares con XO y en la media de los hogares, luego de haber sido significativamente mayor durante toda la implementación del Plan Ceibal. El “efecto multiplicador”, en ese sentido al menos, parece haber llegado a su techo. Aunque hay que tener en cuenta que más de 2/3 de los hogares ya está equipado con al menos una computadora!

Existen actualmente unos 1.600.000 usuarios de Internet en el Uruguay, incluyendo todas las edades y zonas geográficas (+10% en relación a 2009, +19% en relación a 2008). El crecimiento más significativo se dio en los niños de 6 a 11 años: en 2008 un 55% de los escolares era usuario de Internet, y en 2010 pasó al 87%. Asimismo, hay un crecimiento muy importante de la penetración de Internet en los hogares de NSE bajo (de 21% a 41% en dos años). 56% de los usuarios de Internet están en Montevideo (eran el 73% en 2001). 61% de los usuarios de internet son menores de 30 años, y 40% son menores de 20 años. 13% son mayores de 50 años. 5% son de NSE alto, 66% son de NSE medio, 29% son de NSE bajo. Esto demuestra la rápida “democratización” de Internet en los últimos años“, ya que en 2001 solo el 6% de los usuarios era de NSE bajo. 51% de los usuarios son mujeres (casi la misma proporción que la población total). En 2001 eran solo el 45%.

Montevideo

Interior

Composición de los hogares con PC según el tipo de PC que poseen ¿De qué tipo es/son la/s computadora/s que hay en su hogar? (base: 1237 hogares con PC)

1255


milveinticuatro

El lugar de conexión sigue la tendencia que se venía observando desde hacía un par de años: sigue creciendo fuertemente el número de usuarios que se conecta desde el hogar (impulsado por la expansión del ADSL y más aun de Internet Móvil), y decrece la conexión desde los cybers. No obstante el cyber sigue teniendo una incidencia importante en el NSE bajo (casi la misma que la conexión desde el hogar).

Entre los usuarios de Internet que se conectan desde su casa, la conexión por modem convencional a través de su línea telefónica ya es casi marginal (3%). Un 66% se conecta por ADSL y un 33% por Banda Ancha Móvil (muchos hogares tienen ambas). La banda ancha móvil logra su mayor penetración en los hogares de NSE bajo. Del total de personas que se declaran usuarias de Internet, existe aún un 17% que no se conectó ni una vez en la última semana. Ese porcentaje se mantuvo estable en los últimos tres años. En el otro extremo, un 11% se conectó más de 20 horas. El tiempo promedio de conexión es de 8.2 horas por usuario y creció más de un 50% en dos años, con lo cual internet se instala definitivamente como un serio competidor de los medios tradicionales como la radio y la televisión. Los altos usuarios – más de 10 horas de uso semanales - son unas 340.000 personas, se conectan en promedio 3 horas y me-

dia por día y consumen dos tercios del total de horas de los uruguayos. Un 17% de los usuarios sigue sin usar casilla de correo, muy probablemente por falta de interés. Hotmail sigue siendo el servidor preferido (82% de los usuarios tiene una casilla en ese servidor), seguido por Gmail (18%) y Adinet (10%). Los usos de Internet siguen diversificándose año a año. El e-mail sigue siendo el uso más mencionado (75%), seguido por buscar información sobre temas de interés (65%), y chatear (63%). El uso de redes sociales pasa a estar en 4º lugar con 61% (estaba en el 8º en 2009), y le siguen bajar música (58%), leer noticias sobre temas de actualidad (49%), buscar información sobre productos y servicios (44%), tareas de estudio (41%), Youtube (41%) y tareas laborales (35%). El crecimiento de Facebook se analiza en capítulo aparte. Aumentó significativamente la notoriedad de la publicidad uruguaya en Internet: 65% de los internautas afirma que viene aumentando contra 47% un año atrás y 33% dos años atrás. Las compras a través de Internet siguen creciendo muy significativamente año a año: el número de personas que compraron alguna vez por la Web aumentó un 46% en un año y un 150% en dos años. Unas 400.000 personas compraron alguna vez por Internet y un 90% de éstas lo hicieron también en el último año.

Casillas de correo ¿Cuántas casillas de correo electrónico utiliza efectivamenteindependientemente de cuántas tiene abiertas? (base: 1050 usuarios)

1265


milveinticuatro

Un 84% de los que compraron lo hicieron por Mercado Libre, y un 24% en otros sitios, usando tarjeta de crédito. Los artículos comprados pasaron de ser libros, discos y ropa en 2001-2002, a accesorios de PC, electrodomésticos, computadoras, celulares, muebles, software, viajes y un sinnúmero de otros rubros. Google es definitivamente el buscador “universal”: un 67% de los usuarios de internet lo utiliza “habitualmente” y otro 22% “a veces”. Solo un 3% no sabe lo que es. Resulta interesante que solo un 14% de los usuarios de Google se queda solo con las primeras respuestas, un 25% con los resultados de la primera página, un 15% pasa a la segunda página y un 47% va más allá de la segunda página.

El Plan Ceibal hizo ingresar una computadora a una importante cantidad de hogares que no tenían, muy especialmente en los NSE más bajos. Existe al menos una XO en un 29% de todos los hogares de NSE bajo. 4 de cada 10 hogares con PC tiene una del Plan Ceibal, y en uno cada seis es la única computadora del hogar (y en un 35% de los hogares de NSE bajo).

Un 35% de los usuarios de Internet ha leído o escuchado algún medio digital en la última semana (unas 560.000 personas). En 2009 habían sido un 43%, pero la medición estuvo probablemente distorsionada pues el trabajo fue realizado entre las dos vueltas de las elecciones nacionales.. El impacto del Plan Ceibal

El Plan Ceibal tiene un doble efecto multiplicador: 1) hizo que muchos hogares – especialmente de NSE medio – se equiparan con otro tipo de computadoras a partir del ingreso de las XO en la casa; 2) en un 25% de los hogares con XO existe al menos un adulto que antes del Plan Ceibal no era usuario de Internet y ahora lo es (unas 75.000 personas).

En el NSE Bajo, el 59% de los hogares con PC tiene una del Plan Ceibal, y en un 35% es la única PC que hay. El 87% de los niños de 6 a 11 años es actualmente usuario de Internet (era un 55% hace tan solo tres años).

Redes Sociales ¿Con qué frecuencia usa las redes sociales? (base: 647 usuarios de redes sociales)

1275


milveinticuatro

El Plan Ceibal contribuyó fuertemente a la “democratización” de Internet: en 2001 solo el 6% de los usuarios eran de NSE bajo, hoy son el 29%; en 2001 solo un 27% de los usuarios eran del Interior, hoy son el 44%.

El crecimiento explosivo de Facebook Las redes sociales son el uso de internet que más ha crecido en los últimos dos años: en 2008 existían unos 255.000 usuarios de redes sociales, en 2009 se pasó a 550.000 y en 2010 se está arañando el millón. Un 80% de los usuarios de internet de 12 a 19 años es usuario de redes sociales, así como un 71% de los de 20 a29 años. Un 98% de los usuarios de redes sociales usa Facebook, un 9% usa Twitter y un 3% Sonico. En 2008 no era mencionado por nadie como uso principal de internet, en 2009 fue mencionado por un 7% y en 2010 por un 21%, siendo el uso más mencionado en primer lugar y desplazando al e-mail. Entre los 12-19, el 41% lo menciona como el uso principal de internet. Un 43% de los usuarios de redes sociales entran todos los días y otro 30% cada dos o tres días. El 64% de los usuarios de Facebook chatea, el 50% comenta el estado de sus amigos, un 50% sube fotos, un 37% escribe comentarios sobre sí mismo, un 30% se une a grupos, un 28% participa en juegos o tests, un 25% se hace fan de páginas, un 25% crea eventos o confirma su asistencia a otros, un 8% cliquea en anuncios publicitarios (casi 80.000 personas), y un 7% escribe comentarios en el muro de marcas comerciales.

Al 49% de los usuarios de internet le parece bien que las empresas promocionen productos y servicios a través de Facebook, y solo a un 4% le parece mal. Ficha técnica La muestra total fue de 1799 personas, y es representativa de toda la población mayor de 12 años, residente en todo el país. Esto representa un universo total de 2.622.000 personas, repartidas un 51% en Montevideo y zona metropolitana, y un 49% en el Interior. Esta muestra permite un margen de error máximo de ±2.3 para un nivel de confianza del 95% cuando se trabaja sobre la muestra total (1799 casos). La muestra efectiva de usuarios de Internet fue de 1050 casos. Todas las encuestas fueron realizadas cara a cara en los hogares de los entrevistados, durante el mes de diciembre de 2010. El muestreo fue polietápico: se sortearon 61 localidades, y dentro de las mismas se sortearon segmentos censales y manzanas. Dentro de cada manzana sorteada se procedió a un muestreo sistemático de hogares. El cuestionario fue elaborado tomando como base los ya aplicados desde 2001, los cuales se complementaron con nuevos temas sugeridos por las instituciones que patrocinaron el estudio. El estudio fue patrocinado por Antel, Mercado Libre, Plan Ceibal y Wunderman.

1285

Fuente: www.gruporadar.com.uy



milveinticuatro

“Un día me imaginé a mi mismo con 80 años pasando revista de mi vida. Entonces me di cuenta de que no me arrepentiría de haber renunciado a mis beneficios en Wall Street, pero me dolería no haber participado en el auge de Internet.” Jeff Bezos (Fundador de Amazon.com) Informático / investigador / consultor Director Ejecutivo de LACNIC Presidente del directorio de Internet Society. Presidente de Number Resource Organization Nació el 27 de julio de 1964 en Montevideo. Casado, cuatro hijos. Nos cuenta de LACNIC, del Registro de Direcciones de Internet para América Latina y Caribe, sus orígenes en el mundo de TI y cómo aparece Internet en su vida. Un referente de Internet.

Raúl Echeberría

1305



milveinticuatro

Entrevista Las empresas que dan servicio de acceso a Internet en toda la región nos piden direcciones IP, Lacnic tiene un pool de direcciones y evaluamos las solicitudes para asignárselas.

Raúl Echeberría DirectorEjecutivo de LACNIC

1325


milveinticuatro

¿Sabes lo que es LACNIC? Lacnic es una organización que administra en América Latina y Caribe las direcciones IP, que son identificadores únicos y se asigna a cada dispositivo conectado a Internet en el mundo. Éstos registros son finitos, y existe una organización en cada una de las cinco región en el mundo que administra esas direcciones. Cuando vos te conectas con un ADSL de tu casa, tu proveedor te esta asignando un numero IP. Afortunadamente vos no tienes que saber como está funcionando eso, y se hace de manera automática, pero tu proveedor si necesita tener esas direcciones para poder asignarlas. Las empresas que dan servicio de acceso a Internet en toda la región nos piden esas direcciones, Lacnic tiene un pool de direcciones y evaluamos las solicitudes que recibimos y en base a ciertos criterios evaluamos si esa organización debe recibir números IP y cuántos. Telefónica de Perú, CANTV de Venezuela, Telecom de Argentina son algunos de los 1.500 clientes en toda la región, es un modelo de autorregulación, entonces esas organizaciones cuando reciben nuestros servicios, automáticamente se convierten en nuestros asociados, o sea, nuestros clientes son los mismos que nuestros mandantes, y por lo tanto participan de la vida institucional, elecciones, directorio, participan de las asambleas, toman decisiones. Las organizaciones que se benefician de esta actividad también son las mismas que son dueños de la organización. Uno de los aspectos interesantes de LACNIC es que cuando recibimos solicitudes de direcciones IP, evaluamos en base a un conjunto de criterios que nosotros llamamos “políticas”, lo interesante es que nosotros no definimos esas políticas, sino que las define la comunidad, en el sentido más abierto de la expresión, cualquier persona puede suscribirse a la lista donde se discuten estas cosas, participan de las reuniones, no es necesario asistir,

se puede acceder de forma remota, y es la propia comunidad la que toma decisiones sobre cuales son los criterios que nosotros debemos utilizar para evaluar esas solicitudes de direcciones IP, eso hace de Lacnic una experiencia interesante. ¿Cuándo comenzaste con LACNIC? Bueno, un grupo, de los que éramos pioneros en Internet en América Latina en los 90, vimos que el mundo estaba dividido, en ese momento en 3 regiones, a los efectos de la administración de las direcciones IP. Una de esas era “Las Américas” y ese servicio era prestado por una organización colega que esta en Estados unidos que se llama ARIN. Ya en 1997 empezó a discutirse a nivel regional, entre un grupo de gente que estaba mas vinculada en el tema de Internet, éramos pocos y nos conocíamos bastante, teníamos una organización que nos nucleaba, y comenzamos a discutir la posibilidad de crear una organización para dar este servicio en la región de América Latina y el Caribe, pero además de cumplir una tarea burocrática que pensábamos que lo podíamos hacer mejor, al estar más involucrados por pertenecer a la comunidad, podíamos dar el servicio de una manera más apropiada y al mismo momento crear una organización que sea un catalizador en el desarrollo de Internet. Entonces, creamos esa organización, desde el año 97 al 99 estábamos un poco discutiendo generalidades de cómo debería ser esta organización, en el 99 nos sentamos en una mesa con un conjunto de organizaciones que era muy representativa, en ese momento, con todos los intereses vinculado con Internet en la región y ahí comenzamos a trabajar en el proyecto. Teníamos una especie de directorio creado de esa organización, del cual yo era el presidente y en el 2000 y 2001 comenzamos en el proceso de transición de creación de LACNIC, y el año 2002 cuando se convirtió en una realidad, el directorio me propuso que fuera el director ejecutivo, el año próximo cumpliremos 10 años y para que tengas una idea de magnitudes, pasaremos de tener un presupuesto de 150.000 dólares en el 2002 a 3:500.000 de dólares en el 2011.

1335


milveinticuatro

¿Ésta es la única oficina? Esto es LACNIC, desde acá, desde la rambla de Montevideo damos el servicio, Virtual y físicamente a América Latina y parte del Caribe, esta es la única oficina, por ejemplo, si Verizon de República Dominicana, necesita direcciones IP, nos solicita a nosotros a esta oficina. En algunos estudios que se han hecho a fin del 2010, quedó muy claro que tenemos una imagen muy positiva, respetada y considerada como una organización muy influyente en los temas de Internet y políticas públicas. ¿IPv4 e IPv6 ? Nosotros desde el 2004 estamos invirtiendo mucho dinero en tareas de promoción de IP versión 6, Hemos capacitado a miles de personas en toda la región, cursos virtuales, portales de apoyo, en este momento lo que se terminó fue el pool central de direcciones de IPV4, el pool des-

de el cual las 5 organizaciones regionales tomamos direcciones cuando necesitamos. En este momento, cada organización tiene todavía su propio pool, su propio stock, en America Latina, estimamos que va a dar hasta el 2014, creo que es una proyección muy optimista, porque a medida que se va consumiendo ese pool, la velocidad de consumo aumenta. Supongo que una apreciación muy realista es que tendremos hasta mediados de 2013, eso es una aclaración para que digamos que no hay direcciones IPv4 cuando en realidad si hay. Decía, desde el 2004, estamos invirtiendo mucho dinero en la promoción de IPv6, creo que hemos hecho una contribución muy importante en la generación de capacidades en la región, pero hay una razón muy clara por la que no se adopta IPv6 de forma masiva, y es que todavía hay IPv4, pero ahora las empresas, estamos en un año que es clave para la transición IPv6, estamos viviendo una aceleración con la noticia de la finalización del pool de IPv4 ha causado una aceleración en este proceso y creo que en el 2011, vamos a ver una aceleración en adopción del IPv6 mayor del que había hasta ahora.

1345


milveinticuatro

Uruguay, cumple con las generalidades, está un poco más adelante que otros países de la región, si bien es algo que todavía no es algo que está difundido, por ejemplo nosotros tenemos servicios de conectividad IPv6 en la oficina, cualquier cliente que quiera tenerlo, es un tema de influir en los proveedores y listo, no está rezagado del tema. ¿Tienes IPV6 en tu casa? No, en casa tengo un ADSL como muchos. ¿Hay bromas con que sos el dueño de Internet? A veces explicar lo que uno hace es un poco complicado. Ahora en 2011, en nivel de penetración de Internet en Uruguay es muy alto, entonces la gente está más familiarizada, al menos con algunos conceptos básicos que permiten explicar un poco más mi tarea. En el 2003, tratar de explicar en qué trabajaba era un poco complejo a veces, siempre me reía porque mis hijos, cuando iban a la escuela y les preguntaban que hacía su papá estaban en aprietos al tratar de explicarlo. Tengo 4 hijos, uno de ellos trabaja en Lacnic y está siguiendo por los mismos caminos. ¿Cómo arrancaste en informática? A veces me gusta mostrar un tema que es incremental, no es que de un día a otro es elegido Chair de la Internet Society, eso permite mostrar que a veces las aspiraciones de las personas está limitada por lo que creen que es posible para ellas y no se dan cuenta que hay muchas cosas que son posibles. Probablemente Forlan nunca pensó en jugar en el Atlético de Madrid, pero lo que hizo fue tratar de jugar mejor y ser mejor en lo que hacía y eso lo llevó por un camino. Steve Jobs en una presentación famosa en la Universidad de Stanford, hablaba de los puntos que se conectan, uno mira hacia atrás y ve claramente cómo se unen los puntos en la vida que cada uno ha trazado, el tema es poder avanzar hacia terrenos que de repente no son muy seguros, pero con la confianza que esos puntos en un futuro se van a conectar, y cuando los mires después y los vas a ver conectados. Eso es importante que cada uno en su actividad trate de pensar que puede hacer más. ¿Posicionar a LACNIC en Uruguay fue un tema complicado? ¿No hay muchas organizaciones destacadas, en la región, que podían competir con esa intención?

Había condiciones dadas para que LACNIC estuviera instalada acá, de la misma forma que hay otras organizaciones destacadas que están instaladas en Uruguay por las características del país. Un país estable, donde se pueden manejar fondo de forma fácil, todos nuestros fondos vienen del exterior y vuelven sin complicaciones. Tenemos exoneraciones tributarias, hay buen capital humano. Uruguay, tienen un estatuto bastante peculiar que permite el reconocimiento de organizaciones como ésta, que son organizaciones internacionales no gubernamentales. En un marco jurídico que no es muy común, pero que nos da las condiciones necesarias para estar instalados en Uruguay y no en otro país. ¿Cómo ves a Uruguay? Agesic fue una medida muy acertada, es una agencia que trabaja muy bien y que de forma silenciosa ha contribuido a crear políticas públicas de apoyo al desarrollo de la sociedad de la información. Hoy tenemos una penetración en Internet que debe estar sobre el 50%, que es alta para América Latina, alta para el nivel mundial, y que todavía está atrás de los otros países más desarrollados. El plan ceibal, es una cosa muy exitosa y que contribuyó mucho. Sus repercusiones son mucho más que darle Internet a los escolares o liceales, genera un entorno en sus casas, en el entorno de los muchachos y va generando la capacidad de sacar ventaja de la tecnología. Una persona que nunca usó Internet pero su hijo viene con un laptop y le muestra lo que hace, y seguramente su propio hijo le dé alguna ideas de lo que puede hacer y comienza a usar la computadora de su hijo y después se da cuenta que necesita una computadora para hacer sus cosas, creo que eso ha pasado mucho. El Plan Ceibal ha tenido un impacto muy grande y homogéneo en todo el país, eso es muy bueno. También es común decir que podemos tener mejores condiciones de acceso, más ancho de banda, por supuesto que todo eso es verdad, y a veces es complejo, por ejemplo nosotros en LACNIC tenemos nuestros datacenters fuera de Uruguay, en San Pablo (Brasil), porque tenemos condiciones de acceso mucho mejores que las de acá, a veces el problema no es solo el precio sino acceder a ciertos niveles de ancho de banda.

1355


milveinticuatro Nuestro datacenter tiene dos enlaces de un Gigabit y uno de 255 Megas y, tener esa capacidad de conexión acá es muy complejo, más allá del valor. Pero también en esa área se están tomando medidas, yo soy optimista en ese sentido, creo que a veces las autoridades deben ser más ambiciosas, creo que se ha hecho un buen trabajo, estamos en el buen camino, la creación de la AGESIC es una excelente iniciativa, el Plan Ceibal ha hecho una contribución al desarrollo de Internet de nivel fantástico, pero creo que en término de conectividad y capacidades que tenemos... habría que ser mas ambicioso. ¿Te imaginabas, cuando arrancaste con LACNIC que esto iba a ser posible? Si, Este año esperamos iniciar las obras de ampliación, no ha sido fácil vencer la burocracia para tener el permiso de construcción. Y este edificio nos queda chico. Y si la pregunta es si cuando comenzamos con LACNIC me imaginaba esto la respuesta es sí, la verdad es que cuando hicimos los planes de negocio a mediano y largo plazo es muy parecido a lo que realmente ha pasado. Tal vez, te contestaría dos cosas, no me imaginaba la repercusión que tendríamos a nivel regional, internacional o global y lo otro que no me imaginaba es si hubiera sido un poco antes, cuando comencé a trabajar con el tema de Internet que íbamos a llegar a esto, ahí si, la respuesta era no. En el 91 yo comencé a trabajar en el Instituto Nacional de Investigaciones Agropecuaria INIA, un par de años después comenzamos a desarrollar Internet allí, y trabajaba mucho con un colega, un agrónomo que se llama Bruno Gianfranco, y ahí sí trabajábamos con la intuición que era algo muy importante, que iba a ser importante, inclusive cuando a veces era difícil convencer al entorno porque trabajábamos en algo que no era muy tangible, que no tenía impacto.

Ingeniería de la Universidad Católica, los dos eran tipos orientados a las redes y veían el potencial, entonces, si bien cuando yo entré no estaba sobre la mesa el desarrollo de la Internet pero estaban dadas las condiciones y ahí fue cuando comencé a trabajar, ir a reuniones internacionales, a talleres, creo que para mucha gente en ese momento lo que estábamos haciendo era un juego. Recuerdo, en febrero del 95 fuimos a un congreso internacional con Bruno Gianfranco, a hacer una presentación sobre Internet en Uruguay, en el Hotel Internacional de Miami, en ese momento teníamos que llevar los acetatos, recuerdo que recién habíamos comprado una impresora color a chorro de tinta en INIA y ahí imprimimos nuestras diapositivas para llevar, si eso lo cuentas a los chiquilines seguro que piensan que es de la época de los dinosaurios, y solamente hace poco más de 15 años. Ahí llegamos, hicimos la presentación y fue la primera vez que hicimos un contacto directo con el uso masivo de Internet, me impactó que había comerciales en la TV que ya incluían la dirección Web, y vi unas presentaciones en ese congreso muy interesantes una sobre “Pizza HUT” que tenían una sistema de venta de pizza por Internet y “delivery”, y me acuerdo que quedé impresionado por la cobertura que se le hacía en un sitio de Internet al caso de “OJ Simpson”. Acá ya habían sitios Web, pero no tenían esa masividad, con propagandas en TV que pusieran la Web, sabías que existía pero nadie las promocionaba. Y la anécdota es que esa vez es la primera que participaba de un congreso internacional de Internet en el año 95, y ahora ya llevo algunas más...

¿Cómo fueron tus orígenes en la tecnología? Yo tenía un perfil, desde el liceo, muy orientado a lo científico, típico estudiante que le gusta las matemáticas, cuando tenía 16 años, empecé a trabajar en la Unidad Coronaria Móvil como telefonista, cuando recién se creó. Y un año después, compraron la primer computadora y ahí comencé a trabajar en computación, era todo una habitación, una computadora que tenía mucho menos memoria que mi teléfono, la capacidad de discos duros que eran de cinco megabytes que se ponían y sacaban con unas manijas; después trabajé en otros lugares hasta que entré a trabajar en INIA y fue dónde encontré el caldo y un entorno apropiado para desarrollar estas cosas. Mis jefes eran muy permisivos, apoyaban el trabajo en estas áreas, porque ellos compartían esa intuición, esa visión. Yo tenía dos jefes en ese momento, un agrónomo Gustavo Ferreira y el Ingeniero Paganini que ahora es el decano de la Facultad de

1365



milveinticuatro

Las Oficinas de Proyectos (PMO) ÂżPor quĂŠ generan opiniones tan diversas?

1385


milveinticuatro

E

s frecuente leer sobre recomendaciones para que las Organizaciones implanten una Oficina de Gestión de Proyectos (PMO) como forma de unificar la metodología utilizada y para hacer seguimiento de los proyectos a través de indicadores clave. En general, fundamentan esto en la necesidad de la Alta Dirección de seleccionar adecuadamente qué proyectos realizar y de poder tomar decisiones acertadas en función de información cierta y actualizada. Por otra parte, también nos encontramos con opiniones en contra de las PMO, cuestionando su utilidad y a veces mencionando mayores costos y mayor papeleo. Nosotros entendemos que, a pesar de seguir las recomendaciones mencionadas en primer lugar, no es suficiente con poner tal oficina a funcionar para que una PMO se constituya en un vehículo de mejora. Si determinados factores son librados al azar, una PMO sólo sería un engranaje más de un sistema burocrático que, pasado algún tiempo, la Organización se alegraría de eliminar. A continuación presentamos los factores más importantes que, a nuestro criterio, deben ser tomados en cuenta para que una PMO que inicia sus actividades contribuya positivamente con la Organización en la que está inserta. Calidad del personal El núcleo del personal seleccionado para integrar una PMO recién creada debe estar constituido por individuos con experiencia en gestión de proyectos y una conducta proactiva. Una PMO debe ganarse su lugar en la Organización mostrando resultados, para lo que es fundamental comenzar de a poco y sólo abarcar más cuando ya se consolidaron los logros obtenidos. Es así que el trabajo que la Oficina realiza debe ir cambiando en el tiempo. La PMO debe reinventarse permanentemente. Para lograr esto, el entender lo que necesita y siente el personal asignado a proyectos es fundamental para generar valor. El tener una conducta proactiva es requerido para mantener el ritmo, tomando la iniciativa y asumiendo la responsabilidad de hacer que las cosas sucedan.

Cantidad del personal La cantidad de personas asignadas a trabaja en una PMO debe mantener una relación con los servicios, productos y responsabilidades que la Organización espera. Una PMO que se inicia, frecuentemente lo hace con poco personal. La Organización difícilmente asignará más recursos hasta no ver los resultados. La credibilidad de la Oficina es fundamental para poder funcionar. Los servicios y productos que la PMO se comprometa a entregar deben ser cuidadosamente limitados a su capacidad de producción. Sólo cuando esta capacidad de producción pueda crecer, la Oficina podrá comprometerse a más. Apoyo de la Dirección Una PMO no puede realizar su trabajo sin un apoyo fuerte de la Alta Dirección de la Organización. El insumo básico sobre el que trabaja una Oficina de Proyectos es la información que deben aportar los involucrados en los proyectos en curso. El trabajo en proyectos suele ser muy demandante de esfuerzo de por sí, por lo que la carga adicional que implican los pedidos de la PMO no es vista con simpatía, por lo menos, hasta que no demuestre su valor. Sin el apoyo de la Alta Dirección, la PMO no tendrá el poder para exigir a los distintos actores la entrega de información. Sin información, la PMO no podrá contribuir a la toma de decisiones ni a la mejora de la gestión. Sin información tampoco podrá medir la eficiencia de las técnicas de gestión de proyectos en uso, por lo que no será posible asegurar una unificación de la metodología ni la propuesta de mejoras. Definición formal de roles y responsabilidades Los roles y responsabilidades de una PMO deben ser declarados explícitamente por la Dirección y comunicados formalmente a la Organización. Como dijimos, el rol de la PMO es naturalmente cambiante en el tiempo. Es natural un cierto grado de incertidumbre en el personal de la Oficina sobre qué o cuánto hacer en cada momento. El rol inicial suele ser el de administración, generando y distribuyendo informes de estado y manteniendo una metodología común.

1395


milveinticuatro

Con frecuencia, este rol se transforma en uno más proactivo, incorporando tareas de análisis y solución de los problemas de los proyectos, aseguramiento de la capacitación de los equipos de trabajo y participación en la planificación estratégica de su ámbito de acción. Finalmente, si la PMO es exitosa y llegó a un grado de madurez mayor, participará con personal propio en los proyectos para la toma de decisiones clave durante la ejecución, brindará servicios de soporte técnico para el diseño, evaluación y gestión de proyectos y participará del proceso de planificación estratégica de la Organización. En cada momento el rol de la PMO debe ser conocido y aceptado para que su tarea no sea vista como inmiscuirse adonde no fue llamada. Esto sólo se logra con una definición explícita y comunicada. Posición en el organigrama La PMO necesita una posición jerárquica definida en el organigrama de la Organización, dependiente del principal beneficiado con el valor que se genera. El estereotipo más común de una PMO en las mentes de las demás personas en una organización, es el de un grupo que les exige que le envíen mucha documentación y que les envía documentos de métodos de trabajo y sugerencias. En resumen, un grupo cuya existencia incrementa la carga laboral. Aun con un rol definido y comunicado, una PMO por sí misma suele no tener la autoridad necesaria para asegurar que los demás en la Organización le den su lugar. El vincular a la PMO a quien se beneficia con sus resultados, si estos son efectivos, le da a la PMO el poder de ese beneficiario. En la evolución del rol de la PMO es natural que su posición en el organigrama vaya cambiando hasta que, si funciona adecuadamente, dependa de la Alta Dirección. Implantación de cambios Si del trabajo de una PMO surge la necesidad de realizar cambios, estos deben hacerse en tiempo y forma. Dependiendo del grado de madurez de una PMO, puede surgir de su trabajo la necesidad de hacer cambios, ya sea con el objetivo de uniformizar una forma de trabajo, de cambiar la asignación de recursos a los proyectos o de afectar la continuidad de ciertas iniciativas.

La resistencia al cambio que tienen las personas, suele influir para no ejecutar los cambios requeridos o por lo menos demorarlos lo más posible. Como lo habitual es que el trabajo en proyectos sea muy demandante en esfuerzo, hacer un cambio en un proyecto en curso será naturalmente resistido. Dependiendo de la cultura de la Organización es frecuente permitir que determinados proyectos funcionen de una forma y otros de otra. Esto generalmente causa que la información generada para la toma de decisiones sea contradictoria, parcial o construida sobre la base de supuestos, lo que compromete su utilidad. Definiciones estratégicas de la Organización La alineación de las iniciativas y proyectos con las definiciones de estrategia de la Organización son la base para que la información que genera la PMO tenga utilidad. En algunas organizaciones, las iniciativas y proyectos son una consecuencia del conocimiento y la experiencia de quienes dirigen dependencias claves. Así, no necesariamente los proyectos resultantes individualmente contribuyen a los objetivos organizacionales ni su conjunto cubre todos los objetivos que la Organización se propuso. Uno de los valores de una PMO es contribuir a la alineación entre trabajo y objetivos generando indicadores del cumplimiento de esos objetivos. Para ello es fundamental que éstos hayan sido concebidos tomando en cuenta el conocimiento existente en la Organización y que hayan sido comunicados a tiempo y en la forma que la cultura organizacional requiere. Lo que sabemos hasta ahora Para aquellos que trabajan en proyectos, el que se implante una PMO implica, por lo menos, hacer cambios en los procedimientos y generar información para externos. Aquí la resistencia natural que todos tenemos al cambio, impone un primer escollo. El trabajo del personal de la PMO se inicia dirigido a lograr modestos resultados. Que, con el tiempo, la Oficina pueda evolucionar y proveer más y mejores servicios depende de factores como los descritos en este documento y de muchos otros dependientes de la propia PMO creada y de la Organización que la aloja. Eso depende fundamentalmente de nosotros mismos. “Al fin y al cabo, somos lo que hacemos para cambiar lo que somos” Eduardo Galeano

Virginia Martínez Ing. Civil, especialista en Dirección y Formulación de Proyectos

1405

Roberto Monzón Ing. Electrónico

www.rumboconsultores.com info@rumboconsultores.com



milveinticuatro

Ingreso al mercado de las TI… Muchos profesionales del medio han adherido formando pequeñas empresas para resolver una necesidad muy particular del mercado.

E

l ingreso al mercado laboral nunca ha sido tarea fácil, hacen su ingreso quienes comienzan sus primeras armas como profesionales, también colegas que han cesado su actividad temporalmente y vuelven a trabajar. Pero ya sea la primera vez, o al volver a ingresar al mercado laboral y más específicamente en las TI (Tecnologías de la información) surge un interrogante principal y se trata de qué tipo de actividad deseo, puedo y quiero realizar. Permítanme comentarles brevemente que hace aproximadamente veinte años atrás, dicha opción era muy simple, era ser empleado en alguna de las empresas de renombre en el mercado nacional y listo, no había más opciones a no ser que se contara con un muy importante capital para comenzar una empresa. En la actualidad, esta elección se torna en principio un tanto más complicada, pero todo depende de lo que se busque, que es una de las primeras preguntas que deberíamos hacernos. Empleado, Free-Lancer o Emprendedor? Al optar por ser empleado comienza todo un proceso, en donde debemos buscar las ofertas de empleo y sobre todo saber dónde buscarlas. También podemos utilizar nuestros vínculos profesionales y/o personales, o publicar nuestro Curriculum en alguna de las consultoras que captan profesionales del medio y los ofrecen a las empresas del mercado nacional o internacional, todo sea para obtener esa primer entrevista en donde comenzará nuestro arduo camino hacia conseguir el puesto ofrecido. Porqué alguien querría ser empleado en una empresa de TI o en su sector de TI? Una posible respuesta es que se desea tener una relativa estabilidad, y en este punto tenemos claramente dos posiciones que la mayoría de las veces parecen antagonizar, éstas posiciones son ser empleado público o privado. Sin necesidad de entrar en el debate de que es ser empleado público o privado lo cierto es que se le transmite al empleado la sensación de seguridad, de que él solamente debe ocuparse de las funciones para las cuales fue contratado y nada más. Tam-

bién depende del tamaño de la empresa donde comiencen o retomen sus actividades ya que la percepción de seguridad es directamente proporcional al tamaño y giro de la empresa. Aquí y sin ninguna duda las que encabezan la lista son las empresas públicas, pero esto puede estar cambiando ya que los tipos de contrato que el estado uruguayo está aplicando podría hacer que ser empleado público no resulte tan atractivo como hace un tiempo atrás. Las empresas privadas más concretamente en las PyMES sus empleados quizás no tengan la misma sensación de estabilidad que en las empresas de mayor porte o incluso las que tienen presencia internacional (multinacionales). Pero por el contrario las Pymes o pequeñas empresas tienen mayor capacidad que las grandes organizaciones de adaptarse a los cambios, de realizarlos e implementarlos de manera más rápida y sobre todo los costos y/o inversión para la transformación de la empresa es mucho menor. En los ambientes más pequeños las inter relaciones humanas son más próximas y se dan en un ambiente más desarticulado y pueden soportar las presiones del día a día ya que todos están conectados con todos. En empresas de mediano y gran porte que operan a nivel nacional hay varios niveles de jerarquías y no todos se conocen con todos, últimamente se ha puesto de moda que las grandes empresas de TI tratan de “achatar” está pirámide pues les está siendo muy costoso el mantener estas estructuras y sobre todo en el giro de éstas organizaciones se encuentran (TI), donde la comunicación debe fluir lo más rápido posible. Es donde comenzamos a realizar el balance entre lo seguro y lo que realmente queremos hacer, porque puede ser que trabajar seguro en una empresa no resulte el gancho necesario para captar profesionales. Pero en otras empresas justamente buscan cambiar este paradigma y buscan profesionales que apuesten a la creatividad e innovación contante, también es cierto que el índice de rotación del personal es superior.

1425


milveinticuatro

No es nada nuevo el término de Free-Lancer en el área de las TI, pero tiene un dejo de independizarme de todos y de todo, pero nada más alejado de la realidad, es más son profesionales que cuando optan por esta opción de empleo están muy seguros de sí mismos, pero asumen un riesgo muy grande ya que nada les garantiza su fuente laboral proyectándose a cinco años mínimo (toda un eternidad en el área de las TI), es una paradoja en sí que siendo muy seguros opten por esta opción de empleo la cual no brinda a priori garantías, ya que el trabajo es contratado, a término y con derechos y garantías más débiles que si el profesional fuera empleado en alguna firma de plaza. También podemos tener algunas categorías pero las podemos agrupar dentro de las dos siguientes: Free-Lancer Full-Time y Free-Lancer Part-Time. El primero (Full-Time) ya lo hemos venido analizando, pero el segundo generalmente se trata de profesionales que trabajan en horario de oficina pero en ocasiones ya sea porque precisan más efectivo o solamente probarse a ellos mismos toman trabajo adicional en esta modalidad de Free-Lancer Part-Time. Esta modalidad de trabajo (Free-Lancer) se masificó gracias a internet y al teletrabajo ya que muchos profesionales locales y me consta trabajan para el exterior y cada vez más seguido. No es de extrañarse que escuchemos que no hay suficientes profesionales de TI en plaza, y si a esto le sumamos que muchos son tentados por trabajos en el exterior o para el exterior, vemos que la cantidad de profesionales se diezma rápidamente ya que somos un mercado muy chico pero con un gran nivel cultural. Aprovechando el comentario anterior quiero hacer mención a lo que podríamos llamar de leyenda urbana, no por lo que se dice sino por lo que se asume, quien no escuchó más de una vez - “La desocupación en el área de las TI es 0 y todavía faltan más profesionales”, es aquí luego de leer la frase anterior que surge el concepto erróneo de pensar que en el sector de las TI,

1435


milveinticuatro

quienes ocupan dichos puestos gozan de una excelente o muy buena retribución monetaria. Nada más lejos de la realidad (remitirse a la página WEB del MTSS y ver los sueldos estipulados por ley), ésta apreciación no es una opinión política sino que totalmente objetiva. Y como se dice habitualmente “hay de todo en todos lados”, hay empresas en el ramo de TI donde sus empleados gozan de una remuneración acorde a las funciones que se realiza y si se tratan de profesionales, éstos son pagados como tales. Emprendedores, quien no ha oído hablar mucho últimamente del término emprendedor y de todas sus derivaciones tanto en español como en inglés? Y por cierto es una opción muy válida a la cual muchos profesionales del medio han adherido formando pequeñas empresas para resolver una necesidad muy particular del mercado y que luego estos emprendimientos han comenzado a crecer de a poco pero de manera constante y finalizan con la conformación de una empresa. El emprendedor o los emprendedores que muchas veces se asocian con un fin específico, sacan sus energías de sus ganas de llevar a cabo sus ideas ya que por algún motivo no lo pudieron hacer en la empresa a la que pertenecían o que al recién salir de facultad, de una formación terciaria y/o de una tecnicatura no encuentran su cabida en el mercado más formal (en las empresas) pero no desean trabajar para otros como Free-Lancer, así que deciden trabajar para sí mismos en la aplicación de sus ideas y con sus reglas. Así que no se aflijan si eligen alguna de las tres opciones presentadas y no resulta ser lo que esperaban, o no se sienten a gusto, no hay problema, pueden realizar el cambio en cualquier momento, solo se necesita hacer el “click adecuado” en la mente de cada uno y buscar lo que realmente nos gratifique, aunque como siempre debemos considerar otros tantos factores. Dependiendo de la época de la vida en que nos encontremos, la situación sentimental y la necesidad de auto realización, esta decisión puede llegar a ser más o menos difícil.

1445

Ing. Fernando E. Alvarez Noya CCDA, CCNA, CNE, MCSE falvarez.uy@gmail.com



milveinticuatro

Te juego por la ficha… Pero como empezó todo eso? Quiénes fueron los pioneros? Y por qué hoy ya casi no se ven salones arcade?

E

staba pensando en los Arcades, se acuerdan? También les decíamos Maquinitas aunque decirle maquinita a una bestia de 1 metro y pico de ancho por 2 de alto no es muy correcto. Y lo estaba haciendo con cierta nostalgia, ya que esa época me toco muy de cerca porque mi viejo era ingeniero de uno de las empresas mas grandes de maquinitas de america del sur, SACOA, quizá alguno la recuerde… Creo que a todo niño le gusta ir al trabajo de su padre, pero en mi caso la alegría era aun mayor, imagínense, mientras mi madre y mi padre tomaban algo en la confitería a mi me daban el llavero de todas las maquinas!!!! Eso estaba prohibido, perder el llavero equivalía a perder el trabajo, pero bueno, soy hijo único. Recorrer el salón donde habían alrededor de 250 juegos era como estar en el paraíso,. Luego mi padre decidio tener su propia empresa de arcades y yo ya no tenia acceso a ese paraíso del niño, en cambio tenia siempre alguna maquina en casa para mi uso personal y una estantería llena de plaquetas por si me aburria mucho del mismo juego, el proceso de cambio de juego era similar al cambio de cartuchos del family, claro estos cartuchos median 30 x 40 cm y pesaban cerca de 2 kilos, en la casa de mi viejo aun quedan algunos de estos fociles. Recuerdo en una ocasión tener una Pole position que fue uno de los primeros simuladores de formula uno con cabina en la cocina de mi casa, porque era el lugar que quedaba mas cerca de la puerta de salida y se armo ahí. Sin duda era muy popular entre mis amistades… Pero como empezó todo eso ? Quiénes fueron los pioneros ? Y por qué hoy ya casi no se ven salones arcade? Primero que nada veamos cual es la definición de Arcade, según nuestros amigos de la Wikipedia: “Arcade o maquinita es el término genérico de las máquinas recreativas de videojuegos disponibles en lugares públicos de diversión, centros comerciales, restaurantes, bares, o salones recreativos especializados. Son similares a los pinballs y a las

tragamonedas o máquinas tragaperras de los casinos, pero debido a que no son juegos de azar ni de apuestas –ya que se basan en la destreza del jugador– por lo general no tienen las limitaciones legales de éstas.” Perfecto, entonces si nos guiamos por esta definición podríamos decir que el primer Arcade nació alrededor de 1971 y se llamó Galaxy Game fue diseñado por Bill Pitts y Hugh Tuck, la máquina costo unos u$s 20,000, y las partidas se cobraban entre 10 centavos una y 25 centavos tres, aun no se había diseñado el sistema de fichas o monedas y era una persona quien habilitaba las partidas. El juego se instaló en la Universidad de Stanford y permaneció unos años en el campus formando colas de más de una hora para jugar hasta que en mayo de 1979 fue retirado, hoy descansa en el Museo de las Computadoras de California. Cuenta la leyenda que un joven ingeniero llamado Nolan Bushnell quedo impactado al ver esta máquina y junto con su amigo Ted Dabney se propusieron comercializar este nuevo tipo de sistemas de entretenimiento fue así que luego de varios meses de trabajo y de la mano de Nutting Associates (empresa que costeo los gastos) nació Computer Space , primer Arcade desarrollado con fines comerciales, tenía ciertas mejoras a nivel tecnológico sobre su predecesora, siendo una de ellas fundamental, esta máquina contaba con depósito de coin, es decir, ya se podía jugar poniendo una moneda!!!! http://www.taringa.net/posts/info/8361358/maquinas-arcade_historia-y-evolucion.html Tuvo un relativo éxito comercial aunque no el esperado debido a un sistema de control muy confuso, se manejaba con cuatro pulsadores aún no habían visto la luz los joysticks o “palancas” como las conocemos la mayoría de nosotros . Cuadro de comandos de Computer Space, la mosca va de regalo y no estaba incluida en todas las versiones. A pesar de todo, con el dinero obtenido y habiendo aprendido de los errores de diseño Nolan Bushnell y Ted Dabney abrieron su propia empresa y se pusieron manos a la obra para crear

1465


milveinticuatro

un nuevo video juego, un año mas tarde (1972) una empresa desconocida irrumpiría en el aun casi inexistente mercado de los video juegos, esta empresa se llamaría Atari y bajo su auspicio vería la luz Pong un juego muy sencillo similar al tenis se tienen dos jugadores que controlan una barra vertical la cuál le pega a un punto móvil que se mueve entre las barras verticales, sus gráficos eran muy rústicos pero poseía algo que lo hacia entretenido, lo que con el correr de los años seria denominado “jugabilidad”, su principal virtud: cualquiera podía controlarlo fácilmente a diferencia de su antecesor y esto generaba diversión desde el primer momento de comenzar a jugar. Debido a los costos de producción y al poco capital disponible no se construyó a gran escala, la idea era construir una y ver si comercialmente era rentable. Este primera máquina fue colocada en una estación de servicio cerca de las “oficinas” de Atari (la casa de Nolan), se instaló un Jueves el Sábado cuando Nolan volvió a ver qué tal había ido, la máquina ya no funcionaba frustrado al ver que había durado tan poco la abrió para repararla e imaginen su sorpresa al ver que el “problema” era que estaba completamente llena de monedas!!!!. El éxito del PONG fue enorme, popularizó los videojuegos y asentó definitivamente a las máquinas arcade como un modelo de negocio rentable. También iniciaría el mercado de sistemas de videojuegos domésticos, pero eso es otra historia.

Tank (1974) y Gunfight (1975) En 1974, Atari y Kee Games sacarían Tank, el primer arcade que almacenaba gráficos en chips de memoria rom. Tank, todo un clásico. Un año más tarde, en 1975 lanzarían Gunfight, el primer juego japonés licenciado para EEUU y en el que Midway (como verán,

1475


milveinticuatro

un nuevo jugador en el mercado de Arcades) rediseñaría la máquina incluyendo por vez primera un microprocesador el Intel 8080 cuya sorprendentes especificaciones eran algo asi como ser de 8 bits y correr a 2 MHz . El juego consistía en una lucha entre dos vaqueros. Que me vienen con Call of duty!!!! Breakout (1976) El Breakout nació como una versión del PONG adaptada a un solo jugador. El concepto del juego era sencillo y consistía en romper bloques golpeándolos con una pelota teniendo cuidado de que la misma no se escapara por la parte inferior de la pantalla (El tátara abuelo del Arkanoid!!!). Nolan Bushnell tenía claro que el juego sería un éxito, sin embargo se encontró en la etapa de desarrollo con un gran problema. En el diseño realizado por Al Alcorn (ingeniero de Atari), el circuito integrado que debía mover el juego requería 75 chips (los demás juegos utilizaban unos 50) y cada chip extra que precisasen supondría un costo de u$s 100.000, lo cual hacía inviable el desarrollo de la máquina. En la búsqueda de una solución, Nolan Bushnell y Al Alcorn propondrían un desafío a sus empleados acompañado de una buena recompensa económica. Entre estos empleados se encontraba un tal Steve Jobs, le propuso a su amigo Steve Wozniak el reto con la promesa de la mitad de la recompensa. Wozniak aceptó y en tan solo 72 horas redujo los chips del circuito a 25 y Jobs cobró el dinero. A la hora de repartir el premio Jobs se quedó con 5350$ y sólo le dio a Wozniak 350$. Años más tarde Wozniak se enteraría de la jugarreta que le hizo su mejor amigo, confesando que le había dolido el engaño. Jobs por su parte se excusaría diciendo que el dinero lo invirtió en la compañía que fundaron, Apple.

Atari finalmente no usaría el diseño de Wozniak y se las apañaría de otro modo para fabricar las máquinas. Steve Wozniak dijo que no lo usaron ya que ningún ingeniero de la compañía logró entender su diseño, y que él había fabricado su propio Breakout y no apreciaba diferencias con el de Atari. Night Driver (1976) En el año 1976 Atari también lanzaría el arcade Night Driver, que se convertiría en el primer juego de conducción en primera persona. El objetivo era conducir sin salirse de la carretera que estaba marcada por las luces reflectantes de los lados. Debido a la limitación en los recursos tecnológicos, el coche amarillo que se puede observar en las capturas de pantalla no está dibujado por la máquina si no que es simplemente un sticker pegado al vidrio de la pantalla. Parece fácil, pero manejar algo asi era realmente complicado!!!! La Edad de Oro de las Máquinas Arcade (1979-1984) Con el Space Invaders daría comienzo la Edad de Oro de las Máquinas Arcade. Un periodo en el que los nuevos avances informáticos darían lugar a gráficos más realistas y mejores sonidos. Y estos avances serían aprovechados por parte de las desarrolladores para realizar una serie de clásicos que sentarían las bases para todos los juegos posteriores inaugurando géneros que prevalecen hoy en día. La popularidad de los arcades crecería exponencialmente en este periodo y un montón de establecimientos incorporarían una recreativa como forma de ganar ingresos extra.

1485

Renzo Repetto Administrador de redes renzoreppeto@gmail.com


SHARP lanza QUATTRON la tecnologia del quarto pixel - La diferencia hay que verla

Sharp nuevamente demuestra que es lider en el desarrollo de tecnologia, sorprendiendonos con QUATTRON, el cuarto pixel en TVS LCD LED. Por primera vez, el pixel amarillo ha sido agregado al tradicional RGB, hoy en SHARP, hablamos de RGB + Y. Nos sorprendemos con una gama de colores nunca antes vista, brillantes color oro, azules caribe y amarillos puros. Sharp redfine la forma de ver en paneles LCD de LED. Y no hablamos solamente de anexar un cuarto pixel, sino que ha ello le agregmos un diseño estetico de vanguardia, y su nuevo panel X-Gen que reduce el ingreso de luz.

Esto alcanza tambien beneficios en el contraste, porque los aparatos con tecnologia QUATTRON, permiten el pasaje de un 20% más de luz, generando imagenes más brillantes, más vivas con colores mas intensos. El color amarillo tiene propiedades transmisoras por lo cual es menos necesaria la retroiluminacion del panel. El contraste entonces y el ahorro de energia son obtenidos por el alineamiento diferenciado del panel de cristal líquido. El panel responde a los rayos ultravioletas, cambiando la dirección de ellos y realineándolos con las moléculas de cristal líquido.

Tradicionalmente la tecnologia RGB ( pixeles rojo verde blue, que se mezclan para formar los colores ) se topan con la dificultad de formar colores como amarillo, cian y magenta. Con la tecnologia QUATTRON, Sharp agrega un cuarto pixel, el marillo, con la cual la gama de colores que recrea crece exponencialmente, llegando al trillon de colores. Esto nos da finalmente imagenes cada vez más reales.

En televisores 3D, la tecnología Quattron reduce la incidencia de crostalk blurs, o sea, el efecto de duplicación que algunas veces hace con que imágenes 3D parezcan borrosas e indefinidas, y actualmente Romis Nelimar esta ingresado en este sistema formatos de hasta 70 pulgadas, a los precios más competitivos de plaza. Con esto Sharp vuelve a sorprendernos, siendo fiel a su agresivo slogan de “crear productos que otros quieren imitar“, en Uruguay con el respaldo de Romis Nelimar.


milveinticuatro

Pruebas Unitarias en Java Cubrimiento de código con Clover Combinar distintos tipos de técnicas permite aumentar la efectividad en la detección de defectos en el software.

U

n camino defectuoso en un código fuente, o incluso un defecto en una única sentencia, puede causar una tragedia irreparable al ejecutarse. Conocer qué partes del código son ejecutadas por las pruebas de software ayuda a evitar un problema cuando el sistema se encuentre en producción. Por suerte, desde hace un tiempo, existen herramientas automatizadas capaces de brindarnos información acerca del código que ha sido probado. En la primer parte de este artículo, publicado en el último número del año pasado de esta revista, presentamos conceptos básicos de las pruebas unitarias y los drivers JUnit y TestNG. En esta segunda parte trataremos el cubrimiento de código a nivel unitario y presentaremos la herramienta Clover . Combinar distintos tipos de técnicas permite aumentar la efectividad en la detección de defectos en el software. Revisiones personales, inspecciones, pruebas de caja negra y pruebas de caja blanca son combinadas para construir productos cercanos a cero defecto. Las técnicas de caja blanca se basan en la estructura del código fuente para definir los casos de prueba. Distintas técnicas se enfocan en distintas estructuras del código. Por ejemplo, la técnica cubrimiento de sentencias se basa en obtener un conjunto de casos de prueba que logre ejecutar todas las sentencias del código bajo prueba. Utilizan una medida que se llama cubrimiento de código, que indica el porcentaje del código que cubrió la prueba. El cubrimiento de código es dependiente de la técnica específica que se esté utilizando. Por ejemplo, cubrimiento de sentencias indica el porcentaje de sentencias ejecutadas durante las pruebas, y trayectorias linealmente independientes indica

el porcentaje de trayectorias cubiertas del total de trayectorias que son linealmente independientes. Es un tema de investigación actual el intentar conocer la relación costo-beneficio de estas técnicas. Por lo tanto, no es trivial ni la elección de una de estas técnicas ni la selección de una estrategia completa de pruebas unitarias. Herramienta de cubrimiento – Clover Clover es una herramienta que mide el cubrimiento de sentencias y de decisión alcanzado por un conjunto de casos de prueba. Esta herramienta se puede utilizar de forma integrada tanto con JUnit como con TestNG. Brinda asistencia al desarrollador de software para lograr cumplir con el cubrimiento de decisión durante las pruebas. Por ejemplo, colorea las sentencias para indicar el cubrimiento obtenido. A su vez, genera reportes que ayudan a determinar a nivel global el cubrimiento obtenido, permitiendo saber de forma rápida cuáles de las clases que no han sido probadas en profundidad tienen mayor probabilidad de contener defectos. La herramienta es sencilla de utilizar y cuenta con una interfaz gráfica amigable. Un ejemplo sencillo El siguiente ejemplo servirá tanto para presentar el cubrimiento de decisión usando la herramienta Clover, como para introducir el cubrimiento de trayectorias linealmente independientes y la herramienta Coview en la parte 3 de este artículo. En la Figura 1 se muestra el método merge. Este recibe dos arreglos de números enteros ordenados de menor a mayor. El método “toma” los elementos de los dos arreglos y devuelve otro arreglo con esos elementos ordenados de menor a mayor.

1505


milveinticuatro

La Figura 2-a presenta un caso de prueba en el cual los elementos del primer arreglo son todos menores que los del segundo arreglo. La Figura 2-b presenta otro caso de prueba en donde los elementos de los arreglos pasados se deben intercalar. Ambos casos estĂĄn codificados en JUnit y conforman el conjunto de casos de prueba de nuestro ejemplo.

Figura 2-a – Caso de prueba testmerge1

Figura 2-b – Caso de prueba testmerge2

1515


milveinticuatro

Ejecución usando Clover Ejecutando únicamente el caso de prueba testmerge1 se obtiene un cubrimiento de decisión del 75%. En el método merge se tienen 4 decisiones: un while, un if y dos for. Cada una de estas decisiones puede tomar tanto el valor false como el valor true. El caso testmerge1 en su ejecución logra que el while así como el segundo for tomen tanto el valor true como el false. Sin embargo, el if y el primer for toman solamente true y false respectivamente. Es decir, 6 de las 8 posibilidades de las 4 decisiones son ejecutadas, y esto representa el 75%. Clover pinta las sentencias ejecutadas para ayudar a visualizar cuál es el código que falta cubrir. El color verde indica que la sentencia fue ejecutada y su resultado coincide con el esperado. El color rojo (en realidad rosa) indica que la sentencia no fue ejecutada en las pruebas. Las decisiones son pintadas de color verde cuando se han ejecutado con sus dos valores de verdad y no son pintadas en caso contrario. Estos colores brindan una rápida visualización sobre el código aún no cubierto por las pruebas. La Figura 3 presenta el código pintado por Clover luego de ejecutar el caso de prueba testmerge1. Se pueden ver fácilmente las sentencias no ejecutadas y las decisiones que sólo fueron cubiertas parcialmente (if y primer for). Continuando con el ejemplo ejecutamos el segundo caso de prueba: testmerge2. Con esto se pretende cumplir con el criterio de decisión. Al ejecutar este segundo caso de prueba utilizando Clover ciertas líneas de código quedan coloreadas con amarillo. Clover usa este color para mostrar sentencias que solamente fueron ejecutadas por casos de prueba que fallan. Es decir, casos de prueba cuyos resultados esperados son diferentes a los resultados realmente obtenidos. De todas formas, siempre es conveniente observar los resultados de JUnit o TestNG antes de corroborar el cubrimiento de código; solamente cuando los casos de prueba no fallan es interesante observar el cubrimiento. El código luego de ejecutados ambos casos de prueba se presenta en la Figura 4. El defecto que provoca la falla del caso de prueba testmerge2 se encuentra en la línea a continuación del else. La sentencia c[k] = a[j]; debe ser cambiada por c[k] = b[j]; Luego de corregido este defecto se vuelven a correr los casos de prueba y todo el código queda pintado de verde. ¡El código ha sido cubierto al 100% del criterio de decisión!

1525

Figura 3 – Cubrimiento luego de testmerge1

Figura 4 – Cubrimiento luego de ambos casos


milveinticuatro

El buen uso del cubrimiento de código El cubrimiento de código nos brinda una idea clara de las porciones de código ejecutadas. Sin embargo, no es razonable basarse solamente en estas pruebas. Una estrategia razonable es la aplicación de revisiones personales antes de comenzar las pruebas; de esta manera la calidad del producto aumentará. También es recomendable pensar primero en pruebas de caja negra que cubran las distintas funcionalidades de la componente, clase o método a probar. Luego de ejecutadas estas pruebas y corregidos los defectos, se puede proceder a examinar el cubrimiento de código. Si el código no fue cubierto como se definió en la estrategia se generarán nuevos casos de prueba para lograr ese cubrimiento. Esta estrategia de verificación unitaria (revisiones personales, pruebas de caja negra, pruebas de caja blanca) brindará un producto de mayor calidad que una estrategia que solamente se basa en un tipo de técnica.

Adriana Ávila Lucía Camilloni Diego Vallespir Cecilia Apa Grupo de Ingeniería de Software, UdelaR gris@fing.edu.uy

1535


2010Š Gonzak

milveinticuatro

si este es tu negocio nunca vas a estar en

milveinticuatro

1525

comercial@1024.com.uy



milveinticuatro

CeBIT 2011 Es fantástico pasarse a IP, eso no se discute, pero hay que analizar varios aspectos…

L

a feria CeBIT de Hannover, Alemania, “Centrum für Büro und Informationstechnik” (Centro para Oficina y Tecnologías de la Información), se ha convertido desde 1986 a la fecha en la feria de la industria digital más grande del mundo, donde participan más de 4.200 empresas de más de 70 países, y a la cual asisten en 5 días unas 500.000 personas de todo el mundo. Luis Amil y yo tuvimos la oportunidad de asistir junto a Carlos Fernández de INFOLAND, y debo decir que fue una experiencia excelente. Buscando una palabra que resuma lo que es la feria inmediatamente pensé en “GIGANTESCA”. Seguramente el mapa de la feria no hace justicia a lo que son los 496.000 m2 de espacios interiores, 58.000 m2 de espacios abiertos, 27 halls y pabellones (unos 20 habilitados para esta feria) que componen el “Deutsche Messe”, el centro de exhibiciones más grande del mundo.

En todos los pabellones habían lugares para comer y también en las calles externas, desde carritos hasta restaurantes un poco más elaborados, todos llenos de gente, incluso los externos a pesar del frío.

A la noche fue muy disfrutable un restaurante interno a donde acudían cientos de personas, con un ambiente típicamente bavario, mozas vestidas en trajes típicos, música en vivo con una banda que hacía unos covers fantásticos y que animaba la cena generando un ambiente muy agradable y de fiesta. Las 4 plataformas en las que se organizó la feria se dividieron en:

CeBIT Pro Dirigido a tomadores de decisiones de alto nivel de la industria, comercio y oficios calificados, así como a contratistas y profesionales independientes, muestra soluciones innovadoras para todos los sectores de negocio. CeBIT Lab Se plantea como la interface directa entre las ideas y la aplicación comercial, donde las visiones se transforman en prototipos. Se puede ver el resultado de importantes investigaciones. CeBIT Life En esta plataforma se muestra el impacto de las soluciones tecnológicas innovadoras aplicadas a la vida privada y laboral, y cómo para ello convergen las distintas tecnologías. CeBIT Gov Este sector está enfocado en el rol vital de los sistemas de TI en la modernización de la administración pública y de gobierno, y además en nuevas tecnologías para médicos, hospitales y farmacias.

1565


milveinticuatro

Nuestro “centro de operaciones” fue el stand de “AL-INVEST”, el cual da apoyo a la internacionalización de las Pymes de América Latina, y donde estaban presentes algunas empresas uruguayas haciendo contactos de negocio. A través de ellos estuvimos presentes en el lanzamiento de CeBIT Brasil 2011 a realizarse en Porto Alegre, y si bien lógicamente será de menores dimensiones va a estar muy interesante, y Brasil parece un lugar ideal para hacerlo. En cuanto a todo lo que vimos que fue muchísimo, voy a resumir aquellas cosas que me quedaron más en la memoria por varios motivos.

a estar mucho más masificadas de lo que pensábamos. Por supuesto que en cámaras profesionales se encontraban también las de alta gama y costo. Banca y seguridad. Uno de los pabellones más grandes estaba dedicado a estos temas. Me llamó la atención que aún esté presente fuertemente el manejo de efectivo, con máquinas de todos los portes y funcionalidades para el manejo de billetes y monedas, contando, clasificando, empaquetando, detectando, partes de autómatas, etc., etc.

Sistemas experimentales Pudimos experimentar un sistema que con una “camarita” y una pantalla, una vez ejecutados unos segundos de calibración siguiendo con los ojos una mancha que se movía en la pantalla, se podía entre otras cosas jugar a dispararle a asteroides que se movían a mucha velocidad simplemente mirando cada objetivo. El seguimiento del movimiento de ojos me llamó la atención por la precisión y velocidad de reacción. Obviamente vimos una aplicación comercial de la solución aplicada a góndolas de supermercados, donde se podía ver todo el recorrido del movimiento de los ojos sobre los productos exhibidos. La solución aún es un poco cara como toda nueva tecnología. “Invasión” de tabletas Fue impactante ver la enorme cantidad de tabletas, especialmente chinas y coreanas aunque también por supuesto están las marcas conocidas, de todos los tipos y tamaños, lanzadas a competir en precio contra i-pad y la mayoría de ellas con Windows 7, lo que hace que podamos usar nuestras aplicaciones cotidianas, y también por supuesto la presencia de Android. Acompañaban por supuesto accesorios para todo, incluyendo mochilas y fundas con celdas solares para cargar las tabletas mientras están guardadas. Tres dimensiones. El 3D estaba en todos y por todos lados, televisores, juegos, notebooks, etc., pero lo que más me impresionó porque no lo había visto en persona fueron los televisores 3D sin lentes, tecnología que no es tan “lógica” como con lentes y que lo hace mucho más natural y fortalece a mi criterio la adopción masiva. El efecto era muy real. También por supuesto estaban las cámaras 3D y me llamó mucho la atención ver en funcionamiento cámaras 3D pequeñas, filmando a los que pasábamos, de un porte y seguramente costo que hacen pensar que en breve van

Esperaba un impulso fuerte a la reducción del efectivo en favor de las transacciones electrónicas, que si bien estaban muy presentes aún pesa mucho el efectivo, supongo que porque la demanda continúa fuertemente y hay que proveer soluciones para manejarlo reduciendo costos y riesgos. Green Si bien no había un pabellón dedicado al tema eficiencia energética y cuidado del medio ambiente, sí estaba presente en la mayoría de las ofertas tecnológicas como un punto fuerte y competitivo. Accesorios Los que quieras y los que nunca imaginaste que podrías querer o que existan y que cuando los ves terminás con una sonrisa y con un “mirá qué bueno esto…”. Lo habitual Por supuesto que estaban muy presentes los temas habituales como Cloud Computing, Virtualización, data centers, telecomunicaciones, seguridad, etc., etc.

1575


Curiosidades - Uruguayez: En un stand chino de e-books (tipo “Kindle”), le comenté a la chica que nos atendió, y con cara de “quién te conoce”, que no conocíamos la marca, a lo que me respondió que tienen el 80% del mercado chino, dejándome de boca cerrada. - Turquía: Otro de los pabellones más grandes estaba completamente dedicado a empresas turcas, con tecnologías muy fuertes y con infinidad de aplicaciones de hardware y software, de punta a punta, lo que nos llamó mucho la atención ya que no sabíamos del peso de Turquía en materia de empresas de tecnología, ignorancia de uno nomás y algo de subestimación por desconocimiento. - Evento mundial de videojuegos: Nos encontramos con una competencia mundial en vivo, con muchos jugadores “top”, seguido por muchísimas personas, pantallas gigantes, comentaristas, hinchada, etc., cuyas dimensiones nos sorprendieron, y por supuesto que la gente joven del evento estaba toda ahí. - Área de diseños innovadores: Pudimos ver prototipos y ojear catálogos con diseños de artículos de todo tipo y para los más variados usos (hogar, oficina, etc.), muy originales y algunos hasta medio locos. - Teclado virtual. Pudimos probar lo que hemos visto como ppts futuristas, el teclado que en realidad es una imagen proyectada sobre la mesa por un pequeño dispositivo y que con un sensor captura el movimiento de nuestros dedos para que funcione

como un teclado real. Utilidad práctica?, no sé pero está bueno probarlo… - Automóviles: Estaban las marcas Mc. Laren Mercedes, Porsche y Ferrari (el F1 de Alonso) entre otras, mostrando cómo usan la tecnología para su producción. En algunos pudimos sentarnos adentro, y algunos tuvieron la suerte de ser copilotos en el Mc. Laren picando y girando como un trompo quemando cubiertas. - Presencias y ausencias. Vimos presencia muy fuerte de algunas empresas conocidas, también de grandes desconocidas por nosotros, y también la ausencia de grandes conocidos que en general siempre marcan presencia. Conclusión El evento es de esos que vale la pena haber ido alguna vez en la vida, que como siempre abre bastante la mente, muestra tendencias y permite traer ideas para aplicar en nuestro trabajo. El tiempo no da para mirar ni siquiera rápido todo lo que hay, por lo que hay que planificar las visitas y seleccionar lo que sea de nuestro interés, dejando margen para cosas inesperadas y curiosidades de todo tipo. Se camina mucho, y en lugar de cargarnos con folletos, en su mayoría optamos por sacar más de 1500 fotos de empresas, sitios web, artículos, etc., para luego revisar tranquilos.

Daniel García Aspiroz Gerente de IT del BROU

1585



milveinticuatro

En el ojo de la tormenta Los que tenemos a nuestro cargo el área de infraestructura informática estamos expuestos a estar en el ojo de la tormenta debido a los múltiples factores que inciden en la calidad y continuidad del servicio.

L

as tendencias actuales apuntan a la informática como parte fundamental del negocio. A nivel del Estado Uruguayo se están haciendo esfuerzos desde hace ya unos años para el establecimiento del Gobierno Electrónico. Por otro lado, algunas empresas privadas y otras mixtas, consideran a los sectores informáticos como áreas de apoyo y dentro de ellas, las relega al último peldaño. El hecho es que la informática se ha popularizado tanto que el cuerpo directriz de estas empresas no captan la importancia del mantenimiento de la calidad de los servicios informáticos. Hace más de 30 años que estoy en el ramo, desempeñándome en las diferentes áreas, programación, análisis, diseño de sistemas, redes, infraestructura. De a poco fui adquiriendo conocimientos de diferentes maneras, pero lo que más valoro es el aprendizaje obtenido a partir de las experiencias propias y ajenas, de los más experientes, y de los no tanto también. En todo este tiempo llegué a una conclusión, lo más difícil de las tareas que debemos realizar es la administración de recursos. Debido a que nuestra ocupación se confunde la mayoría de las veces como asociada a cosas sencillas, que obedecen a recetas que cualquier persona puede bajar de Internet es que se nos dificulta la tarea de convencer a los que “ponen la plata” sobre la importancia de adquirir determinada tecnología o asignar los recursos humanos adecuados para cualquier proyecto. Todos los usuarios, sin excepción, llegan a sus lugares de trabajo cada día, se sientan frente al PC que tiene asignado y espera a estar conectado para comenzar con su rutina. Leer el correo electrónico, abrir la aplicación administrativa que le corresponda y así cada día. Lo que pocos conocen es la cantidad de procesos involucrados en esas tareas tan “simples” y tan lógicamente disponibles siempre. Hasta que en algún momento ocurre el desastre: el correo no abre!; la aplicación anda muy lenta!; no encuentro los archivos en los que ayer estuve trabajando!. Lo que es peor, los que toman las decisiones sobre la disponibilidad de dinero y personal calificado, están dentro de ese grupo demandante.

Durante años he tenido la responsabilidad de asignación y mantenimiento de la infraestructura informática. La gran lucha a sostener se da en dos frentes, el económico y el humano. El más duro es siempre el humano, porque el Gerente de Tecnología (normalmente un técnico acreditado en el ramo informático) y los responsables de los departamentos de informática, están conscientes de la importancia de satisfacer las necesidades de personal, pero quienes toman la decisión final no. Hace algún tiempo se implantó en la gente la idea que un informático es un técnico que prácticamente es autodidacta. Si bien no puedo negar que hay mucho de cierto en ello, es suficiente para jugar en casa, pero para enfrentar las situaciones que se presentan a diario es necesaria una capacitación formal además de ser necesaria para aprovechar al máximo el potencial de los técnicos, sobre todo si son jóvenes. Este concepto, acompañado de la idea que las empresas deben centrar sus esfuerzos tanto humanos como económicos en el o los rubros que hacen “su negocio” dejando entre las áreas de apoyo a las de informática, hacen que debamos compensar la falta de recursos con esfuerzo extra e imaginación. Todo esto desemboca en que todo debe andar, porque es lo lógico. Nadie concibe una empresa, ni siquiera un servicio que no esté montado sobre una infraestructura informática, por lo tanto, se da por descontado que cualquier servicio cuenta con el soporte informático necesario. Y no sólo debe ser el necesario, sino que debe estar siempre disponible. ¿Quién podía pensar hasta hace uno o dos meses que una muy prestigiosa empresa financiera de plaza quedara sin capacidad de servicio durante dos o tres días? Esto nos lleva a la reflexión que, sin importar la capacidad de inversión de la empresa, la interrupción de servicios está siempre latente y que el peso de mantener el nivel servicio recae sobre la gente. Estos incidentes deberían abrir la mente de los que toman decisiones para darse cuenta de la importancia de los recursos humanos en el mantenimiento de la calidad y la continuidad de los servicios, ya que no alcanza con tener los mejores equipos y el mejor soporte de terceros, lo

1605


milveinticuatro

importante es contar con el personal adecuado y el involucramiento de la gente que trabaja para la Institución. Involucramiento, un concepto que en algunas empresas se ha

desvalorizado tanto que ya se ha perdido de vista. En alguna reunión que he participado, se manejó que está bien que los técnicos jóvenes abandonen la Institución en pos de una mejora en lo personal y profesional. Yo creo que está bien, pero es un error de estrategia. A pesar de que hay quienes sostienen que estamos en una época en la que la juventud busca su camino y no se arraiga en una empresa, debe ser un desafío a encarar el tratar de mantener a los técnicos valiosos. Muchas veces esa es una conclusión simplista, usada para disfrazar deficiencias en la gestión del capital humano. La gente valiosa debe ser protegida, no sólo por medio de una retribución salarial acorde y de capacitación que si bien es útil para el técnico que la recibe, se convierte en un capital para la empresa, sino que se debe buscar mecanismos de hacer sentir a esos técnicos que realmente

son importantes para la Institución, y no sólo una herramienta más que puede ser sustituida por cualquier otra en caso de irse, lo cual es falso. Los que debemos lidiar con una alta rotación a nivel de técnicos capacitados sabemos lo que implica pasar por el proceso de selección de nuevo personal, el tiempo que le debemos dedicar al proceso, los riesgos que corremos de elegir una persona que no encaje con el staff permanente, el tiempo que debemos dedicar en entrenamiento. Todo esto no aparece en ningún estado contable o informe de gestión pero no por eso deja de ser cierto. ¿2 + 2 son siempre 4? Los que tenemos a nuestro cargo el área de infraestructura informática estamos expuestos a estar en el ojo de la tormenta debido a los múltiples factores que inciden en la calidad y continuidad del servicio. Por esto es que sabemos valorar el verdadero capital que es nuestra gente. Está en nosotros infundir el sentimiento de pertenencia y lograr el compromiso y el involucramiento de ellos porque, en definitiva, somos los que debemos estar para montar y mantener la calidad y continuidad de los servicios más allá de las fallas del equipamiento que soporte dichos servicios y el que esté destinado a soportar las contingencias. La vocación de servicio es una de las cualidades primordiales de los técnicos de infraestructura, sin ella, es imposible sobrellevar los cambios tecnológicos y las consecuencias de las interrupciones de los servicios. Los que toman las decisiones de las inversiones tanto en equipamiento como en personal consideran que “ya está”, los esfuerzos presupuestales para satisfacer las necesidades de las áreas informáticas en cuanto a equipamiento, fueron realizados, por lo tanto todo debe andar bien, y es ahí cuando 2 + 2 no son 4 y el capital humano adquiere su verdadera dimensión. A pesar de todos los esfuerzos en mantener la tecnología actualizada, finalmente es la gente la que saca las castañas del fuego.

Gustavo Testa Jefe de Administración de Redes de LATU

1615


milveinticuatro

entrevista

Gustavo Fagundez Nuevo Gerente Comercial de Interamericana de C贸mputos, INCO.

Gustavo Fag煤ndez, Gerente Comercial de INCO

1625


milveinticuatro

Interesante responsabilidad la de liderar el área comercial de INCO. ¿Cómo te lleva la tarea?

¿Y cómo son los planes de trabajo, dónde estará puesto el foco?

La Gerencia Comercial de INCO es un gran desafío personal y profesionalmente hablando, esto suena a un lugar común, lo cual no quita que sea válido. Hace ya 4 meses que he desembarcado en INCO; por lo que pasada la etapa de recopilación y análisis de datos, estamos actualmente trabajando, conjuntamente con las Gerencias y la Dirección sobre una serie de cambios estratégicos que realmente nos tienen con un gran entusiasmo y nos hacen mirar hacia el futuro con optimismo.

Como te he adelantado, el foco estará dado en varias áreas:

¿Cómo se ve desde dentro una empresa con la trayectoria y el prestigio de INCO? INCO cumple en este año, 33 años de actividad en nuestro mercado. Sin lugar a dudas, un tercio de siglo es un período de tiempo más que significativo en la vida de cualquier empresa y es sinónimo de robustez, perseverancia y compromiso con nuestros clientes y la sociedad en su conjunto. Mi llegada a INCO, está fuertemente ligada a los cambios estratégicos que mencionaba anteriormente. Veo a la Empresa, fuerte y en una etapa de plena reconversión y franca expansión de sus actividades y negocios. ¿Cómo se enfoca el futuro?, ¿cómo es la apuesta a largo plazo? Con gran optimismo, ya que de darse todo tal como lo prevemos, estaremos entrando en una nueva etapa en INCO, con productos y servicios diseñados para enfrentar el nuevo paradigma formulado por la computación en la nube; sin que esto implique dejar de atender lo que es tradicional, pero con un agregado de valor cada vez mayor sobre nuestros servicios.

- Cloud Computing; a través de un enfoque multiconceptual: A través de nuestro Departamento de Ingeniería, con Servicios de Consultoría, Diseño e Implementación de soluciones multiplataforma para virtualización de servidores, storages y escritorios; y realizando también, si fuera el caso, el aprovisionamiento del hardware y software necesario. O tal como lo presentamos en nuestro evento Tecnología de Punta, realizado en el hotel Conrad de Punta del Este en octubre pasado, con una oferta muy interesante y conveniente de Infraestructura como Servicio (IaaS – Infrastructure as a Service), con servidores, unidades de storage y equipamiento de comunicaciones, localizados en Montevideo y en el NAP de las Américas en Miami, FL, USA, con un altísimo nivel de redundancia y disponibilidad. - Servicios de Valor Agregado, los cuales son varios, y estamos actualmente con diferente grado de avance. Estos servicios que apuntan la gestión de la infraestructura física y virtual. La proliferación de tecnologías, y la cada vez mayor virtualización de servicios, requieren cada vez más esfuerzos de gestión. Te puedo adelantar que estamos trabajando en una batería de servicios que permitirán abatir costos de administración, y de gestión de recursos tales como energía, acondicionamiento térmico, etc . Estamos convencidos que esta será una propuesta muy conveniente que hoy no se dispone en nuestro mercado; la cual estaremos comunicando en breve.

1635


milveinticuatro

entrevista

¿Cuáles son las fortalezas que has detectado en INCO para explotar? Creo que tenemos varias fortalezas que actuando en forma combinada configuran nuestra ventaja competitiva: - El Staff técnico de primerísimo nivel, fue realmente algo que me sorprendió muy gratamente, no solo por su grado de especialización en variadas áreas tales como: Servidores de Serie x. Servidores Power (Series p e i), AIX, Linux, Windows, virtualización multiplataforma, Centros de Datos, ITIL, sino por su composición en cuanto a la cantidad de personas. Esto sin dudas es una de nuestras mayores fortalezas que no hemos sabido trasmitir al mercado. - Los socios de negocio. Donde IBM es un pilar fundamental y con quien tenemos un altísimo grado de interacción e identificación; pero no solo se agota en esto importantísimo socio, también somos socios de negocio de BMC con soluciones ampliamente difundidas para diferentes áreas, VMware, Lenovo, Microsoft entre otros. - Un servicio técnico premiado, con la capacidad de brindar cobertura en todo el país, en modalidad 24x7. Somos Centro de Servicios Autorizado de Lenovo y IBM; habiendo sido galardonado por IBM en Reconocimiento IBM por Excelencia en el Servicio al Cliente, como Premier Service Partner. - La capacidad de comprensión de las necesidades del negocio de nuestros clientes por parte de nuestros Ejecutivos Comerciales, lo cual nos permite siempre llegar a los mismos con la respuesta adecuada y una propuesta que se caracteriza por su flexibilidad.

1645



milveinticuatro

Uruguay, aún más físico que virtual Nos falta perder el miedo a la virtualización, y conocer todas las funcionalidades que los productos existentes nos pueden ofrecer.

U

ruguay es uno de los países de la región que aún se encuentra muy poco desarrollado dentro del campo de la virtualización. Este dato me llevo a reflexionar sobre cuáles son los motivos por los que nos encontramos en esta posición. En mi opinión son tres los factores que nos detienen: falta de inversión en tecnología por parte de las empresas, falta de un correcto asesoramiento por parte de los proveedores de servicios para encarar los proyectos y por último el miedo lógico que nos provoca el desconocimiento de cómo se logra todo lo que la virtualización nos promete. En estos años, en los que me he visto inmerso en el mundo de la virtualización, me he topado con diferentes situaciones un tanto paradójicas referidas a las diferencias que se realizan en ocasiones entre el mundo físico y el virtual. Me he cuestionado innumerables veces sobre ellas; ¿Por qué se dan? ¿Qué las motivará? ¿Cómo llegamos a tenerlas planteadas en los centro de cómputos? Los invito a conocer algunas de esas cuestiones, las cuales quizás algunas de ellas son las causantes de estos resultados obtenidos a nivel regional.

Todos conocemos a esta altura las ventajas que nos brinda la virtualización, ahorro energético, facilidad para el manejo de los servidores, estabilidad, entre otros; pero porque a la hora de aprovechar estas cualidades, lo hacemos sin una correcta planificación de crecimiento o sin protegerla adecuadamente? Siempre que nos enfrentamos a un nuevo proyecto de virtualizacion, debemos saber que aunque nuestro centro de cómputos sea pequeño o no tengamos planeado crecer mucho, el paso al mundo virtual se encargara de modificar esta tendencia. Lo fácil que es proporcionar una nueva máquina virtual, el no necesitar comprar hardware para montar un nuevo servicio y la división de los servicios que antes teníamos todos funcionando sobre el mismo servidor, son alguno de los factores que incentivan dicho crecimiento. Pero, porque permitimos que nuestras infraestructuras virtuales crezcan hasta que comienzan los problemas de performance? Porque no nos adelantamos a estos inconvenientes monitoreando dicho crecimiento? El conocer hasta dónde puede llegar nuestra infraestructura virtual, se transforma en un dato estratégico para evitar problemas, pero no todos los administradores están preocupados por conocer estos datos.

Cuadro que gana, no se toca Todo proyecto virtual comienza por la consolidación de nuestros servidores físicos, sobre un servidor de gran porte, preparado para alojar dichos servicios. Con la cantidad de herramientas que existen para realizar este tipo de migraciones, las cuales nos virtualizan nuestros servicios con solamente un par de clicks, garantizan los aplausos a la hora de implementar un proyecto de virtualización. Ahora, porque una vez que tenemos todos nuestros servicios corriendo sobre nuestro hipervisor, ese servidor pasa a ser un cuco, el cual no se actualiza nunca más, no se protege correctamente y no se le presta la atención necesaria?. No debería ser justamente al revés? El crecimiento desmedido una amenaza silenciosa

Para lograr conocer estos datos, no alcanza con conocer el consumo de memoria o procesamiento que estamos teniendo, sino que debemos también estar muy atentos a otros factores entre los que podemos destacar el acceso a disco y la red que tienen nuestros servidores. Son estos dos valores, los más complicados de controlar sin utilizar herramientas que nos ayuden en esa difícil tarea y debido a esta dificultad son también los que más problemas nos terminan provocando. Arreglar problemas provocados por un crecimiento no controlado de nuestro ambiente virtual, seguro significara que cuando queramos arreglar esta situación, las tareas que debamos ejecutar nos consuman muchísimo más tiempo del que nos hubiese llevado si conociéramos las limitaciones de nuestra infraestructura. Que yo recuerde, en el mundo físico se compraban los servidores pensando en el

1665


milveinticuatro

servicio que ahí iba a correr y siempre se intentaba estar holgado de recursos para poder funcionar. Estoy totalmente de acuerdo en que era más fácil identificar un problema de performance sobre un servidor físico, dado que en muchos casos no había muchos factores para investigar, pero porque en el mundo virtual pretendemos exprimir nuestro hardware hasta tener un problema? Un buen backup, nos permite dormir tranquilos siempre Tanto en el mundo físico como en el mundo virtual, el contar con un buen backup de nuestros servidores y datos es lo que nos permite dormir tranquilos. Si nosotros decidimos trasladar y consolidar nuestros servicios más críticos a nuestra infraestructura virtual, deberíamos tomar aún más resguardos. Pero porque cuando nos planteamos un proyecto de virtualización, las herramientas de backup son parte de lo que dejamos para más adelante? La respuesta más común es pensar que como se tiene el backup de los datos, con eso alcanza para dormir tranquilos. Muchas veces tanto en el mundo físico como en el virtual, se demora más tiempo volviendo a configurar el sistema operativo y las aplicaciones que ahí corrían, que en restaurar los datos. Imagínense si continuando con este razonamiento, nos encontramos que en una infraestructura virtual podemos perder muchos sistemas operativos al mismo tiempo. Es suficiente realmente contar nada más que con un backup de nuestros datos? Laboratorios que nos retrasan en el trayecto al mundo virtual Muchas de las empresas que aún no han virtualizado sus servicios más críticos, no lo han hecho porque a la hora de probar las soluciones de virtualización no han logrado la performance esperada. El causal de este resultado, puede radicar en haber recibido un mal asesoramiento técnico en el momento de comenzar el proyecto o en un laboratorio de pruebas, el cual no estaba preparado correctamente.

Como yo suelo decir, hay muchas cosas que podemos esperar de la virtualización, pero no esperemos que sea mágica. Si queremos que una máquina virtual se comporte similar a un servidor físico de gran porte dedicado, debemos proporcionarle los recursos adecuados. Es imposible pretender comparar la performance de un servicio montado sobre un RAID 1 armado con discos locales en un servidor dedicado para este servicio, con un servicio montado sobre un RAID 5, en el cual corren otras máquinas virtuales sobre un servidor de igual porte. La performance que obtendremos en ambos casos tendrá importantes diferencias que pueden provocar que nuestra conclusión de cómo funciona la virtualización sea errónea. Hoy en día, con el desarrollo que tienen los hipervisores, casi no existen servicios los cuales no se puedan virtualizar. Normalmente los servicios que no se pueden traspasar al mundo virtual son aquellos que dependen de un hardware específico, el cual no está soportado por los hipervisores. En muchos casos, lo que nos lleva a recibir una mala impresión de la virtualización, pasa por no consultar las buenas prácticas de implementación sugeridas para el servicio que estamos tratando de trasladar al mundo virtual. Eso provoca errores en la configuración de la máquina virtual y también errores en la manera de instalar nuestro servicio, los cuales terminan provocando una merma en la performance. Si antes para implementar cualquier servicio en nuestros servidores físicos chequeábamos que configuraciones eran necesarias de tener, porque no lo hacemos en el mundo virtual? Comprar mucho, para usar lo mínimo, una buena estrategia para hacer fracasar un proyecto Muchas veces, teniendo en cuenta que en las empresas de nuestro país cuesta conseguir fondos que impulsen un proyecto de virtualización, el éxito de un proyecto se encuentra en la

1675


milveinticuatro

correcta utilización de los recursos, los cuales disminuyan los costos del proyecto para que sean más viables y que se puedan ir implementando por etapas. Si a la hora de evaluar un proyecto de virtualización nosotros evaluamos las licencias más caras, aunque no las vayamos a utilizar en su totalidad, y tratamos de adquirir mucho hardware para estar sumamente cubiertos, los costos de dicho proyecto pueden hacer que el mismo nunca sea considerado. Pero la solución para reducir costos no pasa por comenzar a sacar del proyecto el backup, la contingencia o comprar el hardware justo para que después nada funcione. La solución está en analizar que recursos son los que realmente necesitamos tener disponibles para la solución y reutilizar todos los recursos que podamos. Siempre, después de un proyecto de virtualización, lo que debería sobrar es hardware de los servicios que fuimos virtualizando. Tratemos de evaluar en forma proactiva, cuáles de estos recursos podemos utilizar y así disminuir costos del proyecto. También tratemos de adecuar la compra de licencias a nuestras necesidades iniciales y no tratemos de comprar funcionalidades que no vayamos a utilizar por el momento. Siempre vamos a tener tiempo para crecer.

Conclusión En el último año, Uruguay ha crecido en cuanto a proyectos de virtualización que se han realizado, y ya casi no encontramos centro de cómputos sin por lo menos un laboratorio de máquinas virtuales montado. Pero aún nos falta perderle mucho el miedo a la virtualización y conocer todas las funcionalidades que los productos existentes nos pueden ofrecer. Sin dudas que este año volveremos a crecer, debido interés cada vez más marcado de las empresas en ir por este camino. Solo basta con asesorarse correctamente y con dejar de exigirle lo imposible a los ambientes virtuales, para poder variar las estadísticas.

Andre Paris Especialista en virtualización andre.paris.sica@gmail.com skype: andre.paris



milveinticuatro

Apostamos a la calidad Uruguay es un fuerte exportador de software. Para mantenernos competitivos es necesario apostar a la calidad. En breve, marcará la diferencia.

E

n los dos primeros artículos de esta serie presentamos la importancia de la calidad de software y resultados empíricos obtenidos con el uso del Personal Software Process (PSP) y al Team Software Process (TSP). Este tercer artículo presenta el PSP basándose en el reporte técnico “The Personal Software Process” de Humphrey [1]. La creación del PSP surge de una inquietud de Humphrey. En uno de sus libros comenta lo siguiente: “Aunque el Capability Maturity Model (CMM) [luego CMMI] fue y continúa siendo altamente exitoso, pronto vi problemas. […] Me di cuenta de que hasta que no cambiáramos las prácticas de los propios profesionales, nunca se podría alcanzar una verdadera capacidad de proceso en la ingeniería de software .” [2] Entonces, Humphrey crea el PSP teniendo como objetivo fundamental mejorar la calidad del trabajo individual de cada ingeniero; objetivo que logró con creces. Principios del PSP El PSP está basado en los siguientes principios: - Cada ingeniero es diferente; para ser más efectivos los ingenieros deben planificar su trabajo y deben basar sus planes en sus propios datos personales. - Los ingenieros deben usar procesos bien definidos y medidos, de forma de mejorar consistentemente su rendimiento. - Para lograr desarrollar productos de calidad los ingenieros deben sentirse personalmente responsables de la calidad de sus productos. Los productos superiores no son producidos por casualidad, los ingenieros deben esforzarse para realizar trabajos de calidad. - Cuesta menos encontrar y corregir defectos tempranamente que tardíamente. - Es más eficiente prevenir los defectos que encontrarlos y corregirlos, - La forma correcta termina siendo siempre la forma más rápida y barata de realizar un trabajo.

La estructura del PSP El PSP es un proceso de software para el individuo, y es, como dice su nombre, personal. El proceso comienza en la fase de planificación, que tiene como entrada los requerimientos del módulo de software a desarrollar, y culmina con la fase de postmortem (luego de finalizadas las pruebas unitarias). En la Figura 1 se presenta la estructura del proceso.

Figura 1 – Proceso PSP

El PSP se divide en fases, cada una de ellas tiene un propósito específico y una guía (script) que indica los pasos que se deben realizar al ejecutarla. Las fases son: planificación, diseño, revisión de diseño, codificación, revisión de código, compilación, test (pruebas unitarias) y postmortem. El PSP también provee formularios donde se ingresan (o registran) tanto los datos de la planificación como los datos de lo que realmente sucede durante el desarrollo; como por ejemplo el tiempo planificado y el tiempo realmente utilizado en cada fase.

1705


milveinticuatro

Durante la fase de postmortem se registran datos finales (como por ejemplo el tamaño del módulo que se ha construido) y se analizan los datos recolectados durante todo el proceso. Estimación de tamaño y esfuerzo En la fase de planificación se realiza un diseño conceptual basado en los requerimientos del módulo a desarrollar. El diseño conceptual se utiliza para estimar el tamaño del producto, y a partir de este se estiman los recursos (esfuerzo) y el cronograma del desarrollo. El proceso de planificación utilizado en el PSP se presenta en la Figura 2.

Figura 2 – Estimación con PROBE

Para planificar, el PSP utiliza el método PROxy Based Estimating (PROBE). Este método utiliza datos históricos de tamaño de módulos para obtener el tamaño estimado del módulo que se va a desarrollar. Para obtener el tamaño estimado se utiliza el modelo conceptual y el método de regresión lineal. Una vez que se tiene el tamaño estimado del módulo, se estima el tiempo necesario para desarrollarlo (estimación de esfuerzo a nivel personal).

Para esto se utilizan datos históricos de la productividad personal (tamaño/tiempo), y nuevamente se usa el método de regresión lineal sobre estos datos. Como última etapa en la planificación se arma el cronograma de desarrollo. Para esto basta con considerar el tiempo disponible en cada semana y el tiempo estimado de desarrollo. Toda la planificación es soportada por herramientas de software que hacen liviana la tarea. Al culminar la planificación en PSP se tiene una estimación del tamaño del producto, del tiempo total de desarrollo, del tiempo requerido en cada fase y del cronograma para realizar el proyecto. Además, utilizando datos históricos se estima, de forma automática, la cantidad de defectos que se van a inyectar y a remover durante el desarrollo. Los errores de estimación en PSP, tanto en tamaño como en esfuerzo, fueron presentados en la edición anterior, disponible en www.1024.com.uy. En el mismo se mostró la increíble mejora que logran los ingenieros en sus estimaciones a medida que transcurren los ejercicios del curso de PSP. Recolección de datos en PSP Durante la ejecución del proceso el desarrollador recolecta diversos datos. Estos datos sirven para realizar el seguimiento personal del proceso y para realizar mejores estimaciones en futuros proyectos. Para esto, el PSP provee distintos formularios; los mismos se encuentran en la herramienta de soporte al proceso. Los principales registros durante el desarrollo son los de tiempo y defectos. Para cada fase se registra el tiempo total dedicado a la fase. Esto se puede hacer simplemente iniciando y deteniendo un cronómetro provisto por la herramienta de soporte. También se registra cada uno de los defectos que se detectan en las distintas fases. Para cada uno se ingresan pocos datos, entre ellos la descripción del defecto.

1715


milveinticuatro

Estas descripciones sirven luego para mejorar las revisiones de diseño y de código de futuros proyectos. Al finalizar el desarrollo del módulo se contará con el tamaño real del mismo. Este tamaño será registrado y servirá de base para tener mejores estimaciones en un futuro. Gestión de la calidad Uno de los principios del PSP, y fundamental en cuanto a la calidad, es que los ingenieros deben ser responsables de la calidad de los módulos que producen. Para lograr el compromiso del ingeniero el PSP propone que sea este quien planifique y gestione su propio trabajo. Para lograr productos de calidad el PSP se basa no solo en remover los defectos de forma temprana sino también en prevenir la inyección de los mismos. Para remover tempranamente los defectos se proponen las fases de revisión de diseño y de revisión de código. Conociendo los defectos en los que incurre, el ingeniero crea checklists a partir de sus propios defectos, logrando con esto realizar revisiones de diseño y de código de forma eficiente y efectiva. De esta manera se llega a la fase de test con menos defectos y será mucho menos costosa la ejecución de dicha fase. Para prevenir la inyección de defectos el PSP propone dos formas. Ocurre naturalmente que al estar registrando continuamente los defectos en los que uno incurre estos se comiencen a evitar. Como segunda forma, el PSP propone realizar el diseño del módulo de forma completa; para esto el PSP provee un método y una notación específica. Cuando se elabora un diseño completo, la fase de codificación del PSP requiere menos dedicación de tiempo. Empíricamente se ha probado que la inyección de defectos por hora es mucho mayor en la fase de codificación que en diseño. Entonces, trasladando tiempo de desarrollo desde la codificación hacia el diseño se previenen defectos y se obtienen productos de mejor calidad a menor costo.

PSP y TSP “Uno de los problemas principales en cualquier campo de la ingeniería es lograr que los ingenieros usen consistentemente los métodos que les han sido enseñados. En el PSP estos métodos son: seguir un proceso definido, planificar el trabajo, recolectar datos y usar esos datos para analizar y mejorar el proceso. Si bien esto parece simple desde la teoría, no lo es en la práctica. Debido a este problema, el foco principal al momento de introducir el PSP en una organización es el proveer un ambiente de trabajo adecuado que soporte las prácticas del mismo. Esta es la razón que tuvo el SEI para crear el Team Software Process.” [1] En el próximo número presentaremos brevemente el TSP. Conclusiones La calidad es la prioridad más importante en el desarrollo de software. Mejorar los procesos permite mejorar la calidad del producto. Mejorar la calidad permite controlar mejor los procesos (ya que estos no dependen del testing de software y por lo tanto son más predecibles), reducir costos y acortar cronogramas. El software de calidad es desarrollado por personas disciplinadas y motivadas. El PSP y el TSP brindan el marco necesario para esto. La estrategia principal que utiliza el PSP para construir software de calidad es tanto la prevención de defectos como la eliminación de defectos de forma temprana. Para esto propone: un proceso definido, realizar diseños completos, revisar el diseño, revisar el código y gestionar la calidad durante todo el proceso mediante medidas objetivas. Los resultados del uso del proceso están documentados y son extraordinarios. Uruguay en este momento es un fuerte exportador de software. Para lograr mantener esta posición hay que ser competitivo. En este sentido, la apuesta a la calidad marcará la diferencia. Los países de la región se mueven rápido y sobre alguno de ellos en breve nos preguntaremos: ¿Cómo lo están haciendo? [3, 4]

Bibliografía 1. Humphrey, Watts S. The Personal Software Process. Software Engeneering Institute, 2000. CMU/SEI-2000-TR-022. 2. Humphrey, Watts S. Winning with Software: An Executive Strategy. Addison-Wesley Professional, 2001. 3. Humphrey, Watts S. y Carleton, Anita. How Mexico is Doing it. News@ SEI, http://www.sei.cmu.edu/library/abstracts/news-at-sei/wattsnew. cfm, August 2008. 4. Nichols, William y Salazar Rafael. Deploying TSP on a National Scale: An Experience Report from Pilot Projects in Mexico. Software Engeneering Institute, 2009. CMU/SEI-2009-TR-011.

Diego Vallespir Profesor de Facultad de Ingeniería, UdelaR TSP-Uruguay – Grupo de Ingeniería de Software dvallesp@fing.edu.uy



Sociales CeBIT 2011 -

Hannover, Alemania

Fiesta milveinticuatro milveinticuatro InterJiap

Manduka

Avant Premiere “Sanctum 3D”, MovieCenter

Punta del Este, Maldonado

Lanzamiento JIAP Montevideo

After office AT Marzo 2011 Anixter Inauguración Facultad de Ingeniería UDELAR


CeBIT 2011

Hannover, Alemania 14

19

23

15

20

24

16

21

25

17

22

26

18

C

ebIT de Alemania, la principal feria de la industria de la tecnología informática y de comunicación (ICT siglas en inglés) de Europa, fue inaugurada de manera conjunta por la canciller alemana Angela Merkel y por el presidente del gobierno español José Luis Rodríguez

Zapatero. Lo invitamos a leer el artículo de Daniel García Aspiroz, comentando su visita a una de las ferias de tecnología más grande del mundo.


1

6

10

2

7

11

3

8

12

4

9

13

5


Fiesta milveinticuatro - Manduka Lanzamiento edición Thomas Alva Edison

14

19

23

15

20

24

16

21

25

17

22

26

18

E

sta vez fue en pleno carrasco, en dónde “Manduka” recibió a amigos y auspiciantes del emprendimiento que está mostrando una nueva forma de comentar la tecnología en Uruguay, milveinticuatro. Los invitados disfrutaron los tragos y el buffete acompañados por la musicalización del DJ Javier Misa, con la calidad que están acostumbrados en cada evento que organiza la revista.


1

6

10

2

7

11

3

8

12

4

9

13

5

9

13


“SANCTUM 3D”, Avant Premiere, Moviecenter Lanzamiento edición Thomas Alva Edison

1

6

10

2

7

11

3

8

12

4

9

13

5

E

l nombre de James Cameron como productor es el gran atractivo de esta película, en el que un grupo de expertos buzos financiado por un excéntrico multimillonario amante de los deportes de aventura se sumerge en una cueva submarina de Papua, Nueva Guinea, que jamás ha sido explorada. El grupo quedará atrapado bajo tierra y tendrán que poner a prueba su valor y su coraje para sobrevivir y encontrar una salida. Una película dramática, que acompañada por espectaculares imágenes en 3D, algunas de las que no serán olvidadas fácilmente por quienes asistieron al Avant Premiere en el que milveinticuatro invitó a amigos, colaboradores y auspiciantes.”


InterJiap

Hotel Amsterdam - Punta del Este, Maldonado

L

as INTERJIAP son un evento de capacitación en Tecnologías de la Información y las Comunicaciones, de acceso libre y gratuito, de tres días de duración, que se realizan en el interior del país.

Las INTERJIAP 2011 se desarrollaron del 6 al 8 de abril, en el Hotel Amsterdam de Punta del Este, Maldonado. Este año el tema central del evento fue “Sistemas Flexibles para ambientes cambiantes”

Lanzamiento JIAP y Reconocimientos Montevideo

A

sIAP realizó el lanzamiento de las JIAP, evento anual de capacitación en Tecnologías de la Información y las Comunicaciones, de acceso libre y gratuito.

Se realizará del 17 al 19 de agosto de 2011, en el Centro de Conferencias de la Intendencia Municipal de Montevideo. En la oportunidad del lanzamiento, AsIAP reconoció a empresas y organizaciones colaboradoras, entre las que se encontraba milveinticuatro.


After Office AT Marzo 2011

1

6

10

2

7

11

3

8

12

4

9

13

5

E

l martes 29 de Marzo AT organiz贸 un after office en sus reformadas oficinas de la calle Canelones. En la oportunidad asistieron socios de negocio, clientes y amigos creando un ambiente c谩lido y distendido. Te invitamos a leer la nota en la que AT hace referencia a su alianza con SoftwareONE empresa Suiza especializada en la comercializaci贸n en licencias de software.


Anixter Inauguración de sede en Uruguay

E

l jueves 7 de abril, en el Hotel NH Columbia de Montevideo, se realizó el evento que inauguró la nueva y única sede de Anixter en Uruguay. Reuniendo a potenciales clientes, canales y amigos, esta empresa internacional presentó su propuesta como distribuidor global.

Facultad de Ingeniería UDELAR

S

PIN Uruguay, el martes 12 de abril, realizó una actividad en la Facultad de Ingeniería de la UDELAR, apostando al intercambio y difusión de experiencias sobre Ingeniería y Mejora de Procesos de Software.

Se contó con la presencia del Dr. William Nichols, un prestigioso investigador del equipo del TSP (Team Software Process) del SEI (Software Engineering Institute) de la Universidad de Carnegie Mellon, EEUU.




Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.