milveinticuatro - Blaise Pascal

Page 1




milveinticuatro

Contenido

6

Blaise Pascal

14 más allá de capa cero 20 informática en salud

6

32 pruebas en Java 36 entrevista: José Clastornik 45 usos informáticos

36

70

45 50

50 no más (nubes) pálidas 56 E3 70 el enemigo en casa 74 sociales

Queda prohibida la reproducción no autorizada total o parcial de los textos publicados, ilustraciones y gráficos, o similares, incluidos en esta edición. La dirección de esta publicación no se hace responsable, y no necesariamente se identifica o comparte el contenido u opiniones, en los artículos firmados; los mismos son de propiedad y responsabilidad de los propios autores. Las notas publicadas en este medio no reemplazan la debida instrucción por parte de personas idóneas. La editorial no asume responsabilidad alguna por cualquier consecuencia derivada de la fabricación funcionamiento y /o utilización de los servicios y productos que se describen, analizan o publican. Los nombres de las compañias y los productos que se mencionan pueden ser marcas registradas por sus respectivos propietarios.


STAFF

Edición Blaise Pascal

Dirección Enrique González enrique.gonzalez@1024.com.uy Diseño y Diagramación

Estimados

Santiago Poggi arte@1024.com.uy

Edición tras edición, pretendo transmitir la intención de colaborar con la comunidad tecnológica en un sentido amplio. Por ejemplo, hemos realizado muchos eventos tratando de cumplir con ese objetivo, por suerte, nuestros auspiciantes han entendido la propuesta y mantienen su apuesta en milveinticuatro. Pero lo realizado hasta el momento no alcanza, si queremos hacer algo más que un intento debemos aprender de la innovación que nos comenta en la entrevista central José Clastornik, director ejecutivo de AGESIC, o los amigos de Python UY con el evento que organizaron. Por eso estamos lanzando otra propuesta diferente y formal, la realización de foros periódicos que muestren diversas opiniones técnicas y que ayuden a formarse la suya propia en base al intercambio de ideas que propondremos en los próximos desayunos de trabajo. Esta actividad pretende ser diferente en sí, una entidad como milveinticuatro debe permanecer neutral ante las marcas o modelos, sólo se ofrecerá tecnología, expuesta por profesionales con visiones diferentes. Si crees que te puede interesar participar de esta actividad, te invitamos a que nos lo hagas saber con un simple correo o desde el portal web de milveinticuatro, www.1024.com.uy Pero hablemos específicamente de esta edición, en la que destacados colaboradores aportan su visión de la paradójica incomunicación por exceso de medios que nos brinda la tecnología, pasando por la propuesta en el que el control paterno, y el soporte familiar, son irreemplazables para las tecnologías a la que tienen acceso nuestros hijos; y opiniones como la del incorrecto uso de los recursos informáticos, o los indicadores que solicita la alta gerencia… no todo es medible… o si?, estas son algunas de las propuestas con las que milveinticuatro colabora con la opinión general, que directa o indirectamente nos relaciona como integrantes de la comunidad tecnológica. Por último, se dice que las editoriales solo las lee el editor, si es así realmente las disfruto mucho, sino, me gustaría saber tu opinión, seguro sabes cómo hacerla llegar… eso sólo se puede decir en una revista de ésta temática, no es así?

Fotografía photos.com - milveinticuatro Arturo Maccio - Víctor Domínguez Gonzalo Useta - Damián Montans Comunicación Florencia San Martín florencia.sanmartin@1024.com.uy Comercial Ricardo Usher ricardo.usher@1024.com.uy

Colaboradores Eduardo Gómez, Gonzalo Acuña, Fernando Alvarez, Andre Paris, Diego Vallespir, Gustavo Testa, Renzo Repetto, Blaise Pascal, José Clastornik, Juan Jackson, Carolina Puentes, Álvaro Margolis, Franco Simini, Fernando Marotta, Gonzalo Sologaistoa, Carmen Bogado, Aníbal Bértoli

Contactos info@1024.com.uy comercial@1024.com.uy comentarios@1024.com.uy

www.1024.com.uy Saludos cordiales,

Enrique González


milveinticuatro

Matemático, físico, filósofo católico y escritor. Sus contribuciones a las matemáticas y las ciencias naturales incluyen el diseño y construcción de calculadoras mecánicas, aportes a la Teoría de la probabilidad, investigaciones sobre los fluidos y la aclaración de conceptos tales como la presión y el vacío. Después de una experiencia religiosa profunda en 1654, Pascal abandonó las matemáticas y la física para dedicarse a la filosofía y a la teología.


milveinticuatro

Blaise Pascal El lenguaje de programación Pascal fue llamado así en honor a Blaise Pascal y fue desarrollado por el profesor suizo Niklaus Wirth entre los años 1968 y 1969.

B

laise Pascal nació el 19 de junio de 1623, en el seno de una familia noble en Clermont (hoy en día ClermontFerrand) en la zona de Auvernia, del Macizo Central francés. Su padre, Étienne Pascal era un magistrado de alto rango, que se desempeñaba como juez vicepresidente del tribunal de impuestos de Auvernia en Clermont. Su madre, Antoinette Begon provenía de una familia burguesa de comerciantes acomodados que también aspiraba a la Noblesse de robe. Blaise Pascal tenía dos hermanas, Gilberte y Jaqueline. Al nacer Jaqueline, su hermana dos años menor, la madre no logró recuperarse de aquel parto complicado y el puerperio, de modo que Pascal perdió su madre a la temprana edad de tres años. Algún tiempo después, Étienne Pascal se trasladó con su familia a París, llevando también a una niñera que estaba a cargo del cuidado de sus tres hijos. Blaise tenía para entonces ocho años y el objetivo de su padre era abrirle en la capital francesa mayores posibilidades que las existentes en la provincia para su educación y despliegue de capacidades. Para todos los hijos, pero particularmente para Blaise, quien llamaba mucho la atención por su capacidad intelectual superdotada. Su hermama Gilberte Pascal escribirá en la biografía: ...al morir mi madre en 1626, cuando mi hermano no tenía más que tres años, mi padre, al quedarse solo, se entregó con mayor dedicación al cuidado de la familia; y como Blaise era su único hijo varón, esta cualidad y las demás que en él observó [las grandes pruebas de inteligencia que observó en él] le llenó hasta tal punto de afecto paternal que decidió no encargar a nadie la tarea de su educación y tomó la resolución de instruirle él mismo, como en efecto hizo, pues mi hermano no tuvo nunca otro maestro que mi padre... En Ruan, en 1642, Pascal inventó para él la “rueda de pascal” o Pascalina, considerada como una de las calculadoras más antiguas. Inicialmente solo permitía realizar adiciones, pero en el

curso de los diez años siguientes recibió permanentes mejoras, siendo finalmente capaz de realizar restas. Pascal la hizo patentar, pero no se cumplieron sus expectativas de hacerse rico comercializando su invento por medio de una pequeña empresa de su propiedad. Las máquinas, trabajosamente confeccionadas una a una y a mano, eran demasiado caras como para poder venderse en volúmenes mayores y solo llegó a fabricar cincuenta, de las que subsisten nueve. En 1646, durante la convalecencia del padre después de un accidente, la familia, entró en contacto con las enseñanzas del obispo reformista holandés Jansenio. El padre, el hijo y las hijas se hicieron devotos, y Pascal, quien sufría fenómenos de parálisis en las piernas con permanentes dolores, interpretó su enfermedad como signo divino y empezó a llevar una vida ascética (ascetismo es la doctrina filosófica y religiosa que busca purificar el espíritu por medio de la negación de los placeres materiales). Nunca consideró que su devoción fuera un obstáculo para seguirse dedicando a sus estudios en ciencias naturales y matemáticas. Así, por ejemplo, ya en 1646 repitió con éxito los ensayos que Evangelista Torricelli había realizado en 1643 para demostrar la existencia del vacío, la que hasta entonces se había considerado como imposible, publicando en 1647 sus resultados en el “Tratado sobre el vacío”. En 1647 volvió a vivir con Jacqueline y con su padre, en París, donde continuó con sus investigaciones. Sus ideas no fueron bien recibidas por numerosos teólogos e investigadores, entre ellos Descartes con el que se reunió repetidas veces en París. Por ello a partir de entonces formuló sus especulaciones sobre el vacío y el éter de una forma más indirecta, particularmente en un tratado sobre la presión atmosférica, demostrando su dependencia de la altura del lugar en cuestión, por medio de experimentos que hizo realizar a su cuñado Périer en el Puy de Dome en 1648. También en 1648, en otro tratado, fundamentó la “ley de los vasos comunicantes”.

2076


milveinticuatro

Pascalina, considerada como una de las calculadoras más antiguas.

Cuando, en la primavera de 1649, los desórdenes de la Fronda dificultaron la vida en París, los Pascal se refugiaron hasta otoño de 1650 en casa de los Périer en Auvergne.

demostración por inducción matemática, el Traité des ordres numériques acerca de los órdenes de los números y Combinaisons sobre combinaciones de números.

En 1651 murió Pascal padre. Ahora, Pascal por primera vez dependía nada más que de sí mismo. Ya que, si bien no era rico, sí tenía una situación acomodada y era noble, comenzó a frecuentar la sociedad de París, trabando amistad con el joven Duc de Roannez, con el que compartía el interés por la filosofía. Éste lo llevó de viaje en 1652, junto a algunos de sus amigos librepensadores, entre ellos Chevalier de Méré, oportunidad en la que a Pascal se lo introdujo a la filosofía moderna, aprendiendo además el arte de las conversaciones sociales. Gracias al hecho de que frecuentaba el salón esteta de Madame de Sablé, se compenetró también de las “bellas letras” de su época. Incluso llegó brevemente a pensar en comprar un cargo y en casarse.

En otoño de 1654, Pascal sufrió un trastorno depresivo y se mudó a otro barrio para alejarse de sus amigos mundanos. Sin embargo siguió trabajando en cuestiones matemáticas y otros asuntos científicos. El 23 de noviembre, posiblemente después de un accidente con su carroza del que no existen testimonios fidedignos, tuvo una experiencia religiosa de renacimiento que intentó registrar esa misma noche en una hoja de papel que aún se conserva, el así llamado Mémorial.

En 1653 escribió un tratado sobre la presión atmosférica, en el que por primera vez en la historia de la ciencia se hace una descripción completa de la hidrostática. Junto a sus nuevos conocidos, Pascal también realizaba discusiones acerca de ganar en los juegos de azar. Esto lo llevó en 1653 a dedicarse a la teoría de la probabilidad, impulsándola en 1654 a través de su intercambio epistolar con el juez de Toulouse y destacado matemático Pierre de Fermat. Principalmente analizaron juegos de dados. Al mismo tiempo, Pascal se ocupó de otros problemas matemáticos, publicando diversas obras en 1654: el Traité du triangle arithmétique acerca del llamado triángulo de Pascal y los coeficientes binomiales, en el que también por primera vez formuló explícitamente el principio de la

Después se retiró por completo de la sociedad parisina para dedicarse por completo a su devoción. Sus únicas relaciones humanas pasaron a ser los “ermitaños” jansenistas; se trataba de sabios y teólogos que se habían establecido en el entorno del convento Port-Royal des Champs y a los que visitaba con frecuencia. Alrededor de 1655 desarrolló aquí el diálogo legendario con su nuevo confesor A. Le Maître de Sacy (Conversation avec M. de Saci sur Épictète et Montaigne), en el que - entre los dos polos del escepticismo de Montaigne y la ética estoica de Epicteto ya ofrece un esbozo de la antropología, que posteriormente desarrollaría en los Pensées. La sanación, ocurrida en 1656, de su sobrina Marguerite Périer, que después de visitar Port Royal se había curado de un abceso en el ojo, contribuyó más a fortalecer la fe de Pascal. Al mismo tiempo, en docto diálogo con los solitaires, especialmente con Antoine Arnauld y Pierre Nicole, empezó a redactar escritos de motivación religiosa y teológica.

2086


milveinticuatro

ciclode alrededor del eje de las x. Después de haber hallado la solución él mismo, organizó una competencia sobre el problema, lo que le significó recibir numerosas propuestas (insuficientes) así como desarrollar una intensa polémica con un descontento. En 1659 apareció su escrito Traité des sinus des quarts de cercle (Tratado de los senos de los cuadrantes circulares). Cuando Gottfried Leibniz leyó esta obra en 1673 en París, recibió de ella un impulso decisivo para desarrollar el cálculo infinitesimal considerando el razonamiento específico por parte de Pascal, que Leibniz empleó de manera más general, interpretando el círculo de Pascal como círculo de curvatura en determinados puntos de una función o curva cualquiera. Leibniz dice que en ello había visto una luz que el propio autor no vio. De allí se origina el concepto de triángulo característico. Su salud deteriorada empeoró cada vez más rápido en esos años, probablemente a consecuencia de su modo de vida extremadamente ascético, que lo debilitaba más. Por ejemplo, en 1659, no pudo trabajar durante numerosas semanas. A pesar de ello, en ese año fue miembro de un comité que trataba de poner en marcha una nueva traducción de la Biblia. En 1660 pasó varios meses de convalecencia en un palacete perteneciente a su hermana mayor y a su cuñado cerca de Clermont. Bocetos de los equipos experimentales de Pascal demostrando los principios de la presión hidrostática.

En 1658 empezó a trabajar de manera más sistemática en una gran apologética de la religión cristiana. Con este fin se había hecho las primeras notas en 1656. Sus lineamientos principales se pueden encontrar en el escrito redactado en 1657 pero no terminado Écrits sur la grâce (Escritos sobre la Gracia), en el que explica la forma jansenista de la noción de gracia de San Agustín como término medio entre la noción casi fatalista de predestinación del calvinismo y la noción optimista de gracia de los jesuitas, asignándole a la libre voluntad del hombre el decidir sobre su salvación. Porque para Pascal rige: «Aquel que nos creó sin nuestro concurso, no puede salvarnos sin nuestra participación». Aparte de su trabajo en los Pensées, volvió a emprender también estudios matemáticos. Así, en 1658, calculó la superficie bajo la cicloide con los métodos de Cavalieri, así como el volumen del sólido de rotación que resulta de una rotación de la

A principios de 1662, junto a su amigo Roannez, fundó una empresa de “Las carrozas de cincuenta centavos”, marcando el comienzo del transporte público local en París. En agosto enfermó gravemente, hizo vender sus enseres domésticos donándolos para fines de caridad y murió, a la edad de solo 39 años, un año después de la muerte de su hermana Jacqueline, en casa de los Périer en París. A consecuencia de su temprano deceso, Pascal no pudo terminar la gran Apologética que tenía planeada. Solo dejó notas y fragmentos, alrededor de 1000 papeles en unos 60 fajos, que en 1670 fueron la base para la publicación por amigos jensenistas de una edición titulada “Pensamientos sobre la religión y otros temas”. En una época en la que ya se insistía en la separación de la fe y el saber, Pascal representó, en su vida y en su obra, el principio de la unidad de todo el ser. Hasta el día de hoy, a Pascal se le considera un locuaz apologista del cristianismo y defensor de una profunda ética cristiana. Fuente: www.wikipedia.com

2096


milveinticuatro

Apostando en grande DjangoCon US es el mayor evento a nivel mundial para la comunidad Django.

2106


milveinticuatro

E

s habitual escuchar que una empresa uruguaya está desarrollando para empresas del exterior. Pero no es común escuchar que alguien está apostando en esa dirección.

Hay varias formas, y no pretendo hacer un listado de todas ellas, pero hay una que es muy válida y es la de asistir a eventos en el exterior, y en ese sentido hay algo que lo supera: auspiciar un evento internacional como la ”DjangoCon US”, al lado de grandes como Google o Mozilla.

Por eso desde milveinticuatro queremos felicitar a Tryolabs (http://www.tryolabs.com), una empresa incubada en el Ingenio de LATU (http://www.ingenio.org.uy), especializada en tecnologías Python/Django, dedicada al desarrollo de aplicaciones de Internet complejas con componentes de Inteligencia Artificial. Desarrolla plataformas de Internet que integran tecnologías de Data Mining, aprendizaje automático, clasificación automática de texto y Web Scraping. A menos de dos años de su forma-

ción, Tryolabs cuenta con casos de éxito en lugares como Dubai, Canadá, San Francisco, Los Ángeles y Silicon Valley. Para quienes no están familiarizados, DjangoCon US (http:// djangocon.us) es el mayor evento a nivel mundial para la comunidad Django el cual tendrá lugar entre el 6 y 11 de Setiembre en Portand, Estados Unidos. Django es un Framework de última generación para desarrollo de aplicaciones Web basado en el lenguaje de programación Python, ampliamente adoptado por empresas como Google y organizaciones como la NASA.

Esta conferencia representa una ocasión ideal para conocerse, intercambiar ideas y trabajos, y establecer conexiones en la escena emprendedora y empresarial de EEUU. Reconocemos la iniciativa de auspiciar un evento de estas características a Tryolabs, esperamos que muchas otras lo tomen como un ejemplo a seguir, intentando ampliar mercados e insertarse de mejor forma en su comunidad.

Enrique González

2116


milveinticuatro

Haciendo más con menos e-Government Outsourcing Una alternativa posible es diseñar un enfoque de e-Government mediante asociaciones con privados.

C

uando los ciudadanos utilizan aplicaciones de gobierno en línea, los organismos gubernamentales pueden ofrecer más servicios a menor costo, al menos así es en teoría. En realidad, las implicancias financieras del gobierno electrónico suelen ser mucho más complejas de lo que parecen. Disponer de servicios en línea podría ahorrar dinero al Estado e incluso generar flujos alternativos de ingreso, pero también puede conducirlo a incurrir en nuevos costos. En Uruguay la receta parece repetirse una y otra vez, un organismo estatal obtiene los fondos para solventar el desarrollo de un sistema de e-Government pero a la hora de tomar la calculadora y hacer las cuentas se saltea un par de rubros que inciden directamente en el éxito (o fracaso) del proyecto. En general, el macaneo está en que la sustentabilidad no es evaluada. Obtengo el dinero, una empresa desarrolla el software, está en mi centro de cómputos… … ¿y ahora quién lo mantiene?, ups mi personal no está capacitado, ¿cómo doy soporte a los usuarios?, ¿estas modificaciones quién las hace? La felicidad por la obtención de fondos para el desarrollo se convierte en preocupación ante la necesidad de pagar por servicios adicionales, muchas veces a costos elevados, viendo como el proyecto se tambalea y pierde el empuje inicial. Muy bien, ¿pero las iniciativas de gobierno electrónico no generan ahorro?, ¿Qué pasa si reinvertimos lo ahorrado? Comenzando por la última, en el Estado no es fácil pasar dinero de una “bolsa” a la otra, es decir, si se ahorra en un rubro no necesariamente esto puede ser reinvertido en otro. En cuanto a generar ahorro, mientras que las agencias de gobierno han comenzado a ofrecer servicios en línea muchas han fracasado en ahorrar dinero porque, entre otros factores, no realizan las modificaciones de personal administrativo asociadas al cambio (empleados destinados a atender público). En general los funcionarios asumen nuevas responsabilidades y no se ve la reducción drástica en costos que uno esperaría como respuesta a la eficiencia de las tecnologías de la información.

Quitando dramatismo al asunto, cabe aclarar que esta generalización puede ser injusta ya que Uruguay cuenta con numerosos casos de éxito en materia de gobierno electrónico y su rumbo en este campo es sumamente promisorio. Dicho esto, también es verdad que si bien el país adopta rápidamente las tendencias en gobierno electrónico, las formas en que el Estado se relaciona con el sector privado, en particular en este rubro, pueden no ser las más adecuadas y acordes a los tiempos que corren. La realidad indica que en el sector público los capitales no abundan, tampoco los recursos humanos especializados. En ese escenario la planificación a mediano y largo plazo se hace difícil y asegurar el éxito de un proyecto de gobierno electrónico aún más. ¿Entonces qué hacemos? ¿Donde está la fórmula mágica? No la hay, ¿pero qué si existiera una forma de auto-sustentar los servicios de gobierno en línea? La cuestión está en que, a grandes rasgos, el Estado compra un sistema de software de la misma forma en la que adquiere ruedas para un auto o pintura para mejorar la fachada de una dependencia. Así como se incorpora la tecnología al servicio del sector público es lógico pensar que se debería aggiornar la vía de adquisición e incorporar modelos de negocio acordes al siglo XXI. Una alternativa posible es diseñar un enfoque de e-Government mediante asociaciones con privados, auto-sustentable basado en transacciones, que ayude al gobierno a construir soluciones sin tantas limitantes económicas. Ajá… … ¿y en español eso que es? Básicamente bajo ese enfoque un gobierno (local o nacional) cobra una pequeña suma (al ciudadano) por transacción para proveer servicios en línea con valor agregado, principalmente dirigidos a grandes volúmenes de usuarios. Este modelo de financiamiento alienta al sector privado a construir y difundir su oferta de servicios de e-Government permitiendo a los distintos organismos estatales, independientemente de sus recursos económicos, ofrecer una mejor atención a su público a través de aplicaciones en línea.

2126


milveinticuatro

La sumatoria de los pequeños “impuestos” recaudados por transacción provee la base de financiación para el plan de gobierno electrónico del organismo en cuestión. Un alto porcentaje de las cuotas transaccionales son reinvertidas por la empresa privada en la infraestructura y personal técnico para construir, administrar y mejorar las iniciativas de e-Government. El organismo estatal puede incluso negociar que un porcentaje de esa suma quede en sus arcas, generando un nuevo flujo de ingreso. En esta clase de “medio ambiente” el sector privado cubre los costos del desarrollo, mantenimiento y mejora de los servicios de gobierno electrónico, incluso publicitándolos en nombre del organismo estatal. Como el socio privado solo ve un retorno económico cuando los servicios son usados, existe un fuerte incentivo a efectuar enérgicas campañas de marketing para promover la disponibilidad de los servicios. La contraparte gubernamental realiza el seguimiento de la aplicación y es parte clave en la toma de decisiones, aprobando por ejemplo el costo por transacción. El Estado mantiene la propiedad de toda la información.

¿Usted como ciudadano qué preferiría, pagar al menos 2 boletos y perder su tiempo deambulando por las eternas filas de una oficina pública o realizar el trámite desde su hogar por un costo sensiblemente bajo? El Estado uruguayo debe alcanzar a sus ciudadanos en donde viven y trabajan, en vez de esperar que ellos se movilicen a las oficinas estatales. Ese camino está siendo recorrido hoy y de muy buena manera, quizás “hacer más con menos” pueda acelerar el paso.

Ing. Sebastián Ressi PMP, MPM


milveinticuatro

Mรกs allรก de Capa Cero Sin involucramiento paterno, tampoco hay seguridad en el mundo virtual.

2146


milveinticuatro

H

ace unos cuantos años, me gustaba pasarme las tardes de lluvia jugando al Doom. Me calzaba los auriculares, con Metallica o AC/DC al mango, y gastaba horas a los balazos. Con 20 años, había pantallas que, dentro de ese microclima, hasta me producían miedo real. Hace unos pocos meses, allá por Melilla, vi a dos botijas preciosos, alumnos de escuela rural, destripando monstruos con su Ceibalita, en el mismo Doom que yo jugaba 15 años atrás. Da para pensar muchas cosas. Por ejemplo, que los niños de hoy en día están mucho más acostumbrados a esa violencia, y que matar a un bicho a cañonazos les parece muy natural. O que un aparato pensado para revolucionar la formación de los niños, puede ser una puerta a un mundo prohibido. Hace unos días, me consultaron sobre la seguridad de las Ceibalitas. No conozco demasiado sobre el tema, la verdad. Entonces probé con una, y me conecté a Internet. Entré a sitios pornográficos como por un tubo. Claro, es una computadora más, con su tarjeta de red inalámbrica, y fuera de la Escuela, no parece que provea control de navegación alguno. Pero sea un Ceibalita, o el desktop de casa, o la laptop de papá, la cuestión del buen uso de la computadora y el acceso a Internet, es un problema paterno. El mismo dilema de hace 50 o 2000 años… el de los límites. Y los límites son acto de amor. Requieren que nos involucremos, que pasemos tiempo con nuestros hijos, que sepamos “en qué están”, y nos animemos a ser adultos responsables, a aconsejar y enseñar. En definitiva, si aproximadamente el 30% del contenido de Internet es “indebido”(porno, drogas, venta de armar, mal entretenimiento, apuestas, etc.), y los chicos pasan cada vez más tiempo frente a la compu, ¿es posible que ignoremos los riesgos a los que se enfrentan? Las mismas redes sociales que para ellos son un gran entretenimiento, pueden transformarse en una herramienta genial para los degenerados, gracias al anonimato del contacto en Internet.

Así, la Capa 0 (cero) del Modelo de Defensa en Profundidad de nuestros gurises, son sus padres. Los que educan, enseñan los valores de la seguridad familiar, ponen reglas para el uso de la computadora, y las cumplen también. Porque sin involucramiento paterno, tampoco hay seguridad en el mundo virtual. Y con eso basta? No, ni de cerca. Y acá viene el otro problema. Porque no es suficiente poner reglas, hay que hacerlas cumplir. Un padre puede enseñar a un hijo a cruzar la calle, pero no puede cruzarla siempre con él. Claro que no es tan difícil poner una regla del tipo “Después de las 22 horas no se puede usar más la computadora”. Seguramente el padre estará ahí para exigirlo. Ahora, ¿cómo podemos hacer cumplir una regla del tipo “nunca aceptes a un desconocido como contacto de MSN”? ¿Complicado, no? Porque habrá padres, y les aseguro que los hay, y muchos, que no saben ni por dónde empezar a prender la compu de sus hijos. ¿Cómo evaluar y poner límites sobre el uso de una tecnología que desconozco por completo? Sólo conociendo los riesgos, y cómo aplicar en la práctica los límites, podemos ayudar de verdad. Ahora, más allá de Capa Cero, existen una cantidad de aplicaciones y servicios en Internet que pueden ayudar a todos los padres a conocer y gestionar los riesgos. Quisiera enfocarme particularmente en navegaprotegido.org. Se trata de un sitio web que, en nuestro idioma y en forma muy simple, nos enseña para que aprendamos, y mucho mejor, nos enseña a enseñar. Nos proporciona videos y lectura para compartir en familia, con un formato bien moderno. Nos ayuda a orientar a niños y adolescentes, y a proteger a nuestro equipo y nuestros negocios.

2156


milveinticuatro

Como si esto fuera poco, nos muestra cómo podemos descargar programas gratuitos y configurarlos para filtrar el contenido web, de manera de que los gurises sólo puedan acceder a las páginas que nosotros les habilitemos, o elegir y autorizar contactos en MSN, y mucho más. Para educar y hacer cumplir las reglas, www.navegaprotegido. org es mi primer lugar en Internet. Al final, dentro de una computador, dentro de la red, uno puede ser muchos. Podemos jugar a ser Dioses, o magos, y hacernos pasar por otras personas. Podemos hacerlo para el bien, o para el mal. Es un mundo libertario, anárquico, con muy pocas reglas. Afortunadamente, diría yo. Pero a tanta libertad, tanta seguridad.

Ahora salgo a la calle y veo, en el kiosco de la esquina, unas cuantas revistas porno que ya ni bolsita negra traen. De noche, prendo la tele y en la platea de Showmatch, la hija escolar de Mamá Gato porta un cartel que dice “Fuerza mami, te amamos”, y nos emocionamos antes de que comience el Axé, con la toma ginecológica, y la pantalla ardiendo frente a un montón de menores de edad, en el estudio, y en su casa. Yo agarro el control remoto y pongo History o Discovery. Y también decido qué quiero que mi familia consuma en Internet. De eso también se trata la libertad.

Juan Jackson MCSE, MCSA, MCITP, MCTS, MCT, CCNA

2166



milveinticuatro

¿Confort o Servicio? ¿Por qué cuando se piensa en Aire Aconcionado se piensa en el confort humano?

E

l Aire Acondicionado es cuestión del confort de las personas o también una necesidad cada vez más imperiosa para “mantener operativos” nuestros datos y la vida útil de los equipos??

Todavía ocurre que al momento que se piensa en un equipo para una sala de servidores sólo se sabe comparar con equipos de acondicionamiento de confort, es tan raro considerar que los requiermientos de los equipos pueden ser diferentes ? Lo dicen todos los manuales, los mismos que deberíamos leer antes de ponerlo en funcionamiento, inclusive antes de adquirirlo, para considerar que el equipamiento que tenemos instalado y funcionando es compatible con el acondicionador. Siempre, y seguro que es por deformación profesional, se parte de la base que si es compatible es porque corre con windows o linux, en MAC o PC, pero nunca si los requirmientos de alimentación electrica o de ambiente son los adecuados.

¿Por qué los servidores deben estar acondicionados los 365 días del año ? Los servidores son los encargados de procesar y almacenar datos, ejecutan programas y proveen servicios de base de datos para otros servicios, para otras computadoras y programas o sea leen, graban, procesan información constantemente y a velocidades inimaginables. Hoy en día, es impensable no tener: telefonía, chat, correo, juegos, videos, tarjetas de créditos, ubicación de personas y objetos, intervenciones quirurjicas, etc ...etc.. Cada vez son mas demandados y somos más exigentes en el servicio directo -o asociado- que nos brindan las empresas; y no me olvido que atrás está el centro de cómputos con su CPD, y éste está acondicionado como corresponde ?

Debido a la cantidad y velocidad de datos procesados es que los componentes “disipan calor”, a su vez los equipos y sistemas informáticos se van compactando y reduciendo pero con mayor tecnología, donde para que dichos elementos no fallen o se cuelguen o - peor - se pierdan programas es absolutamente necesario mantenerlos en ambientes adecuados y el aire del ambiente resulta una de las variables más críticas a considerar tanto su Temperatura como la Humedad Relativa. Todos sabemos lo que es la Temperatura, y hasta podemos apostar qué temperatura hay en este momento y acertar, pero Humedad relativa ?? Sabemos lo que significa? La humedad relativa es una medida del contenido de humedad del aire y, en esta forma, es útil como indicador relacionado con la evaporación, transpiración o si esta lloviendo o no. No obstante, los valores de humedad relativa tienen la desventaja de que dependen fuertemente de la temperatura del momento. La temperatura elevada atenta contra la vida útil de los componentes electrónicos, incluso con daños irreparables en las CPU donde los mismos se irán incrementando en función de la temperatura y del tiempo que han estado expuestos, una alta humedad relativa se traduce en corrosión que no la vemos pero seguro dañará pistas y otros componentes. Por otro lado la baja humedad se traduce en electricidad estática y facilitará la formación de la misma a partir del movimiento de personas y objetos en la Sala. Hablamos British Standards o ISOs, de Protocolos de Seguridad, de Estandares de Operación de los centros de cómputos o procesamiento de datos y sus ambientes críticos, donde son incluso requisitos de Certificación de los mismos. Y no en vano todas las recomendaciones que hacen estos modelos sugieren un adecuado control de la temperatura y la humedad.

2186


milveinticuatro

En principio se habla de bandas aceptables con mayor tolerancia para luego pasar si a las definitivas y recomendadas. La temperatura donde se alojan los servidores debe estar ente 21 a 23 ºC, y se ha establecido como norma internacional 22,3 ºC como valor a mantener durante todo el año. Los niveles de humedad relativa se consideraban entre 40 y 70 %, donde la recomendación estaría dada por los valores 45 +/- 5 % para evitar favorecer las cargas estáticas. Cada Responsable de Centro de Cómputos tendrá en cuenta su negocio informático o proceso y de ahí se estudiarán las alternativas de acondicionamiento térmico acorde y eficiente a su Sala de Servidores de manera de asegurarse durante todo el año la condición ideal para sus que sus equipos no generen una “falla previsible, o generen una enfermedad terminable”.

Aníbal Bártoli Refrigeración y Aire Acondicionado

2196


milveinticuatro

La inform谩tica en Salud La conectividad de los hospitales y la informatizaci贸n de las historias cl铆nicas reducen los costos y mejoran la calidad de la atenci贸n recibida por los usuarios.

2206


milveinticuatro

L

a formación y actualización de los profesionales que se desempeñan en el área de la Informática en Salud (profesionales de la salud, informáticos, etc.) es urgente e imprescindible para la mejora de los servicios médicos de nuestro país. En este sentido se encuentra trabajando el Centro de Posgrados y Actualización Profesional en Informática (CPAP) de la Facultad de Ingeniería de la Universidad de la República. El 4 de mayo de 2011 la Agencia de Gobierno Electrónico y Sociedad de la Información de Uruguay (AGESIC), organismo dependiente de la Presidencia de la República, anunció la Agenda Digital 2011-2015 en el contexto de un congreso multitudinario, inaugurado por el Presidente de la República denominado “1er evento internacional de gobierno electrónico: Hacia un estado integrado”. La Salud de la población es una de las seis áreas de acción incluidas en la Agenda Digital bajo el título Tecnologías de la Información y Comunicaciones (TIC) para la mejora de la calidad de los servicios médicos. El documento expresa: “Las TIC se constituyen cada vez más en habilitadores para la gestión de la salud, logrando mayores niveles de cobertura, seguridad en la gestión y mejor calidad de los servicios. Permiten focalizarse en los sectores más vulnerables y son instrumentos fundamentales para favorecer la desconcentración y descentralización territorial con una excelente relación costo-beneficio en la atención y análisis del estado sanitario de la población”. Y más adelante refiere: “La conectividad de los hospitales y la informatización de las historias clínicas reducen los costos y mejoran la calidad de la atención recibida por los usuarios. Asimismo, la telemedicina y la integración a redes regionales de medicina son claves para el avance en este campo” [1].

Para lograr las metas propuestas, un paso fundamental es contar con recursos humanos calificados que lideren los proyectos de informatización en las Instituciones de Salud. Para esto, la Universidad de la República, en cooperación con la AGESIC, está organizando actividades formativas universitarias. Diploma de Especialización en Informática en Salud Esta especialización tiene como objetivo formar recursos humanos altamente calificados en Informática en Salud y está orientada a profesionales de la salud, de la informática y de la administración. El comienzo de esta nueva especialización está previsto para 2012. Curso: Seminario de Informática en Salud A partir del 2 de setiembre de 2011 se desarrollará el curso de actualización profesional y posgrado “Seminario de Informática en Salud” que contará con destacados expertos nacionales y regionales. Para facilitar la participación de profesionales de todo el país tendrá una frecuencia quincenal y un campus virtual. Por más información sobre el curso o sobre la especialización puede contactarse con el CPAP al teléfono 2711 42 44 int. 101 o mediante mail a cpap@fing.edu.uy.

Referencias seleccionadas: [1] Agenda Digital de Uruguay 2011-2015: http://www.agesic.gub.uy/ innovaportal/v/1443/1/agesic/mapa_de_ruta:_agenda_digital_uruguay_2011-2015.html [2] Decreto del Poder Ejecutivo: Disposiciones relativas a la Historia Clínica Electrónica única de cada persona: http://www.presidencia.gub.uy/ decretos/2003093001.htm [3] Programa eLAC coordinado por CEPAL: http://www.cepal.org/ elac2015/

Esta Agenda Digital 2011-2015 evidencia la continuidad a una política de Estado de Uruguay en materia de Informática en Salud, iniciada tempranamente y reafirmada sobre logros tales como la normativa legal de avanzada para la región sobre Historia Clínica Electrónica [2], al igual que el apoyo explícito para la creación y funcionamiento de la Sociedad de Estándares en Información en Salud (SUEIIDISS). Asimismo, es coherente con las iniciativas impulsadas por otros países latinoamericanos coordinadas por la CEPAL, en las cuales nuestro país tiene un papel destacado [3].

2216

Álvaro Margolis Franco Simini Facultad de Ingeniería Universidad de la República


milveinticuatro

Beneficios de invertir en la capacitación Invertir en entrenamiento significa alimentar nuestro activo más valioso.

E

n tiempos de fuerte crecimiento económico, las fuentes de trabajo calificadas tienden a escasear. La movilidad de nuestros colaboradores es alta, y el head hunting se convierte en una práctica común en un mercado poco acostumbrado a los cambios. Así, también crece la competencia por los negocios, y es sabido que nuestras oportunidades de éxito se multiplican cuando la calificación técnica de nuestros expertos también crece. Hoy, más que nunca, invertir en entrenamiento significa alimentar nuestro activo más valioso, reteniendo el conocimiento y las buenas prácticas de nuestros colaboradores. Ahora, es bien sabido que los sueldos, aun los de los más calificados, tienen un techo. Tratar de contener la movilidad mediante aumentos permanentes, es una solución de corto plazo. Siempre va a haber alguien, alguna empresa, que ofrezca mejores condiciones salariales, y quiera contar con los mejores. Hemos hablado con muchos empresarios de TI, y estamos en contacto permanente con cientos de técnicos. Sabemos que, además del salario, las oportunidades de crecimiento, el desarrollo personal y el ambiente de trabajo, son factores motivacionales fundamentales para evitar la movilidad del personal. No hay nada, ningún elemento motivacional, que sea comparable a la extraordinariamente efectiva capacitación. Nada hace sentir a las personas más valoradas y potenciadas, como el entrenamiento. Crece su confianza y su capacidad, mejora su rendimiento y su identificación con la empresa, y los hace sentir importantes dentro del entorno organizacional. Es bien conocido, que empresas muy importantes de nuestro mercado, que “pagan poco”, tienen un suceso singular a la hora de retener a la gente. Su éxito se basa en el entrenamiento. Su gente es capacitada permanentemente, se la premia por certificarse, ¡e incluso su sueldo depende de ello! Como si fuera poco, las exoneraciones impositivas que obtienen las empresas que capacitan, ayudan a maximizar la inversión.

En última instancia, no sólo resulta la capacitación un motivador y fidelizador extraordinario, sino que el monto invertido es menor al aumento de sueldos. Y su retorno, la retención de nuestros valores, es excepcional. Qué tipo de capacitación están buscando las empresas? Una personalizada, adaptable, diferente a los entrenamientos “dentro de una caja” tradicionales. El entrenamiento magistral no sirve más. El instructor que se para y recita el manual, nos hace perder tiempo, y nos cuesta demasiado. ¡Por supuesto que el rol del instructor sigue siendo fundamental! Pero lo es en la medida de que pueda poner ejemplos de la realidad. De que él mismo haya implementado y mantenido esas tecnologías, y mantenga un contacto permanente con el mundo real. Los contenidos deben ser negociados con la empresa, buscando una relación óptima entre lo que el entrenado puede aprender para, por ejemplo, certificarse, y lo que precisa aprender realmente para el día a día de su trabajo. Además, el aula también cambió. El curso de TI moderno debe ser mucho más parecido a un laboratorio, un ambiente representativo de aquel de producción, donde se haga traspaso de conocimiento. Donde se piloteen las tecnologías, mucho más que hacer simples ejercicios.

Las empresas siguen interesadas en certificar a sus técnicos? Si, y cada vez más. A fin de cuentas, la certificación es una demostración cabal de conocimiento. Sin embargo, no siempre los cursos para “aprender” sirven para “salvar exámenes”. Hay certificaciones, cómo las oficiales de Microsoft, Cisco o Linux, por ejemplo, que bien valen una preparación específica, más allá del entrenamiento a medida. Ayudar a preparar exámenes es un brillante valor agregado para cualquier empresa de capacitación.

2226


milveinticuatro

Juan Jackson Director AcadĂŠmico Celular: +598-99-826098 msn: juajac@hotmail.com VisĂ­tenos en www.atsuy.com

2236


milveinticuatro

¿Para qué quiero seguro? A veces nos gusta pensar en los procedimientos de respaldo como el seguro del auto, tal vez nunca lo usemos pero el día que lo necesitemos deberá funcionar como esperamos.

A

fortunadamente trabajamos en un sector con desempleo cero en donde podemos encontrar especialistas que se dedican a las más diversas tareas. Desde desarrollar software, implantar y configurar soluciones parametrizables, bases de datos, integrar tecnologías, networking, soporte de hardware, administración de servidores y muchas otras que usted seguramente conocerá. Si como nosotros, tiene que lidiar a diario con servidores y distintos sistemas operativos, alguna que otra base de datos y otro tipo de soluciones que corren de manera centralizada, seguramente una actividad que forma parte de su datacenter, es mantener su rutina de respaldos o al menos chequear que se realiza correctamente y siempre tenerlos a mano, ya que nunca se sabe cuando los deba utilizar. Estamos de acuerdo que uno de los activos relevantes a nivel de empresas y organizaciones, es la información que éstas manejan o que al menos puedan manejar, sea del tipo que sea, cualquiera sea el rubro. Precisamente por esto es que a la hora de tener un alto grado de disponibilidad de datos, se torna vital no solo tener un buen almacenamiento y procesamiento de los mismos, sino contar con una buena política de respaldos y recuperación. Casi tan importante como gestionar esa información es mantenerla vigente o al menos disponible para cuando así se requiera. Si a usted debe decidir la compra de una solución de respaldos, su decisión estará basada en cuánto dinero está dispuesto a gastar dependiendo de la criticidad de la información a almacenar. Desde una solución implementada por un Banco Suizo el cual deberá cubrir “todos” los riesgos, pasando por un sistema empresarial de mediano porte con muchas funcionalidades que deberá gestionar unidades de cinta (de varios terabytes) y robots automatizados, hasta los procedimientos “caseros” que realiza el administrador de la red, o de los servidores de acuerdo a su experiencia y gusto personal. De todas formas el costo global de implementar esto puede llegar a ser en vano si un administrador no está detrás. No debemos dejar de lado el factor

humano. Quién alguna vez, no echó mano al uso de comandos básicos como dd, tar, rsync, dump o cpio, usados desde las épocas de UNIX hasta programas como WinZip o WinRAR para respaldar información que consideramos vital. Es evidente que los respaldos de información son algo más relacionado con la disciplina, el órden y el método en los procedimientos que solo con la tecnología que se utilice y el costo empleado. De acuerdo a nuestra experiencia, sabemos que son tareas muy rutinarias y tediosas y que generalmente no generan marketing… le aseguramos que nunca vimos a nadie que le dieran un aumento por hacer bien los respaldos, pero creemos que con aquello que es tan automatizado corremos el riesgo de no prestarle atención y muchas veces descuidarlo totalmente, con el peligro que esto conlleva. Sin querer ponernos “la camiseta del software libre”, un detalle no menor a considerar es la importancia del uso de formatos de respaldo y compresión abiertos, ya que el día en que la unidad de cinta se rompe o el software de respaldo deja de funcionar por alguna razón, podemos usar las cintas para llenar alguna piñata en el cumpleaños de algún sobrinito. Simplemente por el hecho que al respaldar en formatos propietarios es necesario, para recuperar la información tener un sistema similar de hardware y software al empleado. Y la consecuencia de esto en el mejor de los casos, termina siendo un buen número de respaldos inservibles, además del tiempo perdido. Entre el universo de soluciones empresariales de respaldo de alto nivel y los procedimientos “artesanales” usando comandos dentro de scripts que todos conocemos, hay mucho trecho, pero creemos que podemos recomendar una buena solución de respaldo basado (cuando no) en software open source, la cual a la fecha nos sigue dando buenos dividendos y se adapta a las prácticas que solemos usar. Como característica principal, la misma realiza el almacenamiento a disco. Una tendencia que se está viendo cada vez más con la oferta de discos de gran capacidad y bajo costo existentes en el mercado.

2246


milveinticuatro

1394


milveinticuatro El mencionado software es BackupPC (http://backuppc.sourceforge.net/), el mismo se encuentra en varias distribuciones Linux, estando actualmente en su versión estable 3.2.0. Es un sistema de respaldo y recuperación, desarrollado en Perl, de fácil instalación y mantenimiento. Como especificaciones técnicas, podemos mencionar: -Accesibilidad bajo una interfaz http/cgi de fácil administración, desde la cual se gestionan reportes de logs (a través de gráficas de espacio usado y tablas de errores o advertencias), disponibilidad de equipos y usuarios, además de la configuración de todos los aspectos relacionados con el respaldo y la recuperación de los datos. La misma es soportada en varios idiomas, por ejemplo Inglés, Francés, Alemán, Español, Italiano, Chino entre otros. -Permite también respaldar una infinidad de plataformas, como ejemplo, Unix, Linux, WinXX, MacOSX PCs, a través del uso de distintos protocolos. Pudiendo respaldar tanto servidores como equipos de escritorio, así como portátiles y equipamiento que se conecta de forma intermitente a la red. -El mismo interactúa bajo estándares abiertos tanto de transmisión como de compresión de archivos. Tal es el caso de la utilización de Samba, rsync y/o tar (sobre ssh/rsh/nfs) entre otras combinaciones, esta flexibilidad, nos permite la no dependencia de un cliente de software en el equipamiento a respaldar, así también como obtener un alto grado de compresión, el cual redunda en un ahorro significativo de espacio en disco. -En cuanto a seguridad se refiere, utiliza el paradigma de clave pública y privada logrando una transferencia segura entre cliente y servidor, a través del intercambio de claves utilizando el protocolo SSH. -También dispone de un servicio de notificación al usuario sobre la actividad de los respaldos programados. Como ítem a considerar, dentro de las denominadas “buenas prácticas”, (repetimos un concepto vertido anteriormente, por simple experiencia) es aconsejable realizar cada cierto tiempo un respaldo manual guiado por el administrador, a los efectos de obtener una respuesta certera sobre lo que esta pasando realmente en su sistema, con el fin de evitar un “verdadero mal rato”. -Incluye varios tipos de respaldos: completo, incremental (de varios niveles), y parcial. Los podemos realizar tanto de forma calendarizada y automática como manual a demanda del administrador. - Al recuperar podemos retornar la información directamente al origen o usar distintos formatos (zip o tar) para bajarlo a tercer equipo pudiendo procesar la información en forma local.

En este punto, comprenderá que no intentamos convencerlo de utilizar BackupPC, sino nombrar alguna de sus principales características que consideramos pueden ser de utilidad para algún que otro administrador de servidores y a la vez remarcar ciertas prácticas que con los años nos han dado resultado. A veces nos gusta pensar en los procedimientos de respaldo como el seguro del auto, tal vez nunca lo usemos pero el día que lo necesitemos deberá funcionar como esperamos. Por eso nos pareció conveniente rememorar a través de nuestra experiencia laboral, una frase bastante conocida, aplicable a casi todo el ámbito informático ¿para qué quiero seguro? Si bien la respuesta es personal y depende de la experiencia de cada uno, el significado termina siendo siempre el mismo, estar a cubierto de las eventualidades. Lista de software backup de Wikipedia: http://en.wikipedia.org/wiki/List_of_backup_software

A/P Eduardo Gómez Administrador de Servidores e Infraestructura egomez.rey@gmail.com

A/P Gonzalo Acuña Administrador de Servidores e Infraestructura gacu@montevideo.com.uy

2266



milveinticuatro

Arcade, días de gloria Para que se hagan una idea de la dimensión y explosión del fenómeno, en Japón las máquinas causaron escasez de monedas y se vieron en la obligación de reducir la cantidad de monedas necesarias para jugar.

E

sto es particularmente cierto al comparar ese pasado con lo que son los salones de juego hoy en día:*Lugar en los balnearios a donde los papas envían a los nenes para que no jodan durante la hora de la siesta. *Antro urbano de planchas que aún no conocen el CounterStrike. *Lugar por defecto donde los japonenses tienen sus primeras citas, en su país de origen, porque que yo sepa en Uruguay estos prefieren mantenerse en raras manadas masculinas o abrir cibercafés, si, el famoso cyberchino es de japoneses, lamento reventarles la ilusión… Y si algo se vuelve obsoleto pasa a ser utilizado por veraneantes o gente sin recursos. Si se ponen a pensarlo, pasó lo mismo con los caballos, con el ludo y con la paleta.

Arcades, la edad de oro Pero en los días de las camperas con hombreras; las vinchas coloridas, las camisetas de Duran Duran… Cuando Michael Jackson todavía era negro y Julia Moller estaba exactamente igual que ahora; Los Arcade eran el único lugar para probar tus verdaderas habilidades como Gamer. Y fue en esa época vio la luz un clásico de todos los tiempos … Space invaders (1978) Diseñado por Toshihiro Nishikado en 1978 para Taito, Space Invaders supondría una revolución tanto en las máquinas arcade como en los sistemas de entretenimiento doméstico. En un principio, Space Invaders iba a ser un videojuego bélico, sin embargo la idea se rechazó dada la dificultad de animar a los tanques y aviones, y dado lo poco ético que le parecía a Toshihiro el disparar a soldados. Buscó entonces inspiración en el libro “La Guerra de los Mundos” y así creó el “matamarcianos” por excelencia. El juego introducía una nueva forma de jugar basada en pun-

tos, un aumento progresivo de la dificultad, y un marcador de máxima puntuación que registraba las iniciales, recordemos que anteriormente no se conservaban las puntuaciones, al apagarse las maquinas estás se borraban básicamente se dieron cuenta de poner una pila para conservar los datos de la memoria. Todo unido incentivaba a los jugadores a superarse a sí mismos y a los demás. Para que se hagan una idea de la dimensión y explosión del fenómeno, en Japón las máquinas causaron escasez de monedas y los salones recreativos se vieron en la obligación de reducir la cantidad de monedas necesarias para jugar. Esta medida no fue suficiente y el gobierno se vio obligado a producir cuatro veces más monedas de 100 yens de las que había en la calle. Tambien fue migrada al sistema casero, ósea para los Atari 2600 de la época, su versión también fue un gran impacto comercial. Y este fue el principio del fin… Asteroids (1979) En 1979 estaban de moda los matamarcianos debido a la “fiebre” creada por Space Invaders. La mayoría de compañías competían entre ellas por sacar el mejor clon del juego de Taito y gracias a esta rivalidad surgieron joyas como el Asteroids. El juego fue diseñado por Ed Logg, se utilizó la gráfica monocromática capaz de lograr objetos móviles rápidos (comparados con los gráficos crudos del píxel de su tiempo). Se convirtió en la venta más grande de los juegos de su tiempo. Y con uds. El legendario Pacman !!! (1980) El nombre original de Pacman es Puck-man (que en japonés significa comer). Al entrar en Estados Unidos procedente de Japón y de la mano de Midway, su nombre fue cambiado debido a las similitudes de las palabras “Puck” y “Fuck”. Fue el primer Arcade en ser difundido y aceptado mundialmente. Aunque hoy en día no impresiona mucho, para su época era una divertida propuesta, lo suficientemente neutra como para ser jugado por

2286


milveinticuatro

2296


milveinticuatro

cualquier tribu urbana. Este popular videojuego es también un icono de la llegada de los juegos a color que todos conocemos… (si, niñas y niños, los primeros videojuegos eran todos monocromáticos). Incluso muchos años después de su aparición, el Pac Man era de lo primero que tenías que dominar si eras un asiduo en los salones de juego y querías dejar de ser un renacuajo sin importancia. Debido a su gran éxito se crearon algunas versiones de pacman: Ms. Pac-Man, Pac-Man Plus, Super Pac-Man, Mr & Mrs. PacMan, Baby Pac-Man, Jr. Pac-Man, Professor Pac-Man, Pac & Pal, Pac-Land, Pac-Mania, Pac- Attack, Pac-Man 2, Pac-In-Time, PacMan VR, Pac-Man Ghost Zone y unas 10 o 20 mas… Battlezone, Atari Inc.( 1980) Battlezone fue el primer video juego que ofrecía un ambiente TRIDIMENSIONAL verdaderamente interactivo. Tenía visualización de vectores en 2-colores (Rojo y Verde). Las fuerzas armadas de Estados Unidos quedaron impresionadas por el juego, tal que comisionaron a Atari para que les creara especialmente un juego modificado. Luego se aumentaron las versiones para el uso militar.

Donkey Kong (1981) En el año 1981 Nintendo lanzó el Donkey Kong. En el juego controlabamos a Jumpman, un personaje que evolucionaría hasta transformarse en Mario, y nuestro objetivo sería salvar a Pauline de las manos del gorila gigante Donkey Kong. El juego fue el primer trabajo de diseño encargado a Shigeru Miyamoto por petición de Hiroshi Yamauchi (presidente de Nintendo). El proyecto formaba parte de una serie de intentos por parte de la compañía nipona para introducirse en el mercado americano. ¡Y vaya si lo consiguieron!. Este juego estaba inspirado en la película King Kong y en el arcade Popeye, y sería uno de los primeros exponentes del género plataformas. Pole Position (1982) Namco lanzaba en 1982 el Pole Position, un juego de carreras que contaba con unos gráficos impresionantes y super-realistas (por lo menos en aquél entonces). El jugador tenía que luchar por conseguir un tiempo de clasificación bueno y así poder competir en el campeonato Fuji Racetrack. Este juego sentaría las bases para los juegos de carreras posteriores. El resto de la década de los 80´s surgieron algunos juegos que pasaron sin pena ni gloria, hasta que en los 90 surgen los primeros juegos de pelea, pero eso lo dejamos para otro articulo!!!

Renzo Repetto Administrador de redes renzorepetto@gmail.com

2306



milveinticuatro

Pruebas Unitarias en Java CodeCover es una herramienta de cubrimiento de código que brinda información acerca de distintos tipos de cubrimiento.

E

n el número anterior de esta revista vimos cómo realizar pruebas unitarias utilizando Clover como herramienta de cobertura de código. Clover brinda información sobre el cubrimiento de sentencias y de decisión pero no acerca de cómo han sido cubiertos los ciclos (while, for, do-while) del método bajo prueba. Los ciclos son una fuente importante de fallas en los programas y por este motivo hay que construirlos, revisarlos y probarlos con cuidado. En este artículo presentaremos el cubrimiento de ciclos y la herramienta CodeCover que da soporte al mismo.

Cubrimiento de ciclos Los distintos criterios de cubrimiento de ciclos definen la forma en la cuál deben ser ejecutados los ciclos al momento de realizar las pruebas. Para cierta ejecución un ciclo puede no ser ejecutado, ser ejecutado una única vez o ejecutarse varias veces. Estos son los casos que el criterio de ciclos exige sean ejercitados durante las pruebas. Cabe aclarar que, para ciclos del tipo do-while, se excluye el caso de no ejecución ya que el mismo es imposible. Por ejemplo, un método que realiza una búsqueda de un elemento en un arreglo podría contener un while que recorre el arreglo hasta que el mismo se termina o hasta que el elemento ha sido encontrado: while (index < arreglo.length && !encontrado) { Los tres casos exigidos por el criterio de cubrimiento de ciclos se pueden cumplir de la siguiente manera: No ejecutar el ciclo – El caso de prueba a utilizar es que el arreglo sea vacío Ejecutar una única vez el ciclo - Se pueden usar dos casos distintos: un arreglo con un único elemento que no es el buscado o un arreglo cuyo primer elemento es el buscado. Ejecutar más de una vez el ciclo – También se pueden usar dos casos distintos: un arreglo que contiene al elemento buscado pero que no está en la primera posición o un arreglo que no contiene al elemento buscado y sea de largo mayor a 1.

Entonces, para este ejemplo, son al menos necesarios tres casos de prueba para lograr cumplir con el criterio de cubrimiento de ciclos. Existen distintos tipos de cubrimientos de ciclos y estos se diferencian en cómo cada uno exige cubrir los ciclos llamados anidados. Un ciclo es anidado cuando se encuentra dentro de otro ciclo. Los ciclos anidados y su cubrimiento quedan por fuera del alcance de este artículo.

Medición del cubrimiento de ciclos con CodeCover CodeCover es una herramienta de cubrimiento de código que brinda información acerca de distintos tipos de cubrimiento, uno de estos es el cubrimiento de ciclos. Para cada ciclo de un método de una clase en Java, CodeCover definirá distintos ítems candidatos. Estos se corresponden con las distintas posibilidades ya analizadas de los ciclos: no se ejecuta el ciclo ninguna vez, se ejecuta una única vez y se repite varias veces. El porcentaje total de cubrimiento luego de ejecutado un conjunto de casos de prueba se calcula dividiendo el número de ítems candidatos cubiertos entre la cantidad total de ítems candidatos. Para visualizar de forma sencilla el cubrimiento logrado luego de ejecutadas las pruebas CodeCover resalta el código con diferentes colores. Cada ciclo del código es pintado indicando si todos, alguno o ninguno de los ítems candidatos que contiene fueron cubiertos. Esto es útil para la identificación de casos de prueba faltantes para cumplir con el cubrimiento. Se utiliza el color verde para indicar que todos los ítems del ciclo fueron cubiertos, el amarillo para cubrimiento parcial (al menos un ítem fue cubierto pero no todos) y el rojo si ninguno de los ítems fue cubierto. En los casos en los que el cubrimiento de cierto ciclo no es total (color amarillo), es posible consultar el detalle de los ítems candidatos que no fueron cubiertos por el conjunto de casos de prueba.

2326


milveinticuatro

Esta información sirve para construir nuevos casos de prueba que lleven a cumplir con el 100% del cubrimiento. Un ejemplo sencillo En la Figura 1 se presenta el método merge; mismo método que usamos como ejemplo en el artículo anterior (partiendo de la versión corregida). Este recibe dos arreglos de números enteros ordenados de menor a mayor. El método “toma” los elementos de los dos arreglos y devuelve otro arreglo con esos elementos ordenados de menor a mayor. Ejecución usando CodeCover Utilizamos con CodeClover los mismos casos de prueba que se presentaron en el artículo anterior. La Figura 3.a presenta un caso de prueba en el cual los elementos del primer arreglo son todos menores que los del segundo arreglo. La Figura 3.b presenta otro caso de prueba en donde los elementos de los arreglos pasados se deben intercalar. Ambos casos están codificados en JUnit y conforman el conjunto de casos de prueba de nuestro ejemplo. El método merge contiene 3 ciclos (1 while y 2 for) que determinan 9 ítems candidatos. Nos referiremos a los ítems candidatos como Cero, Uno y Muchos para los casos en que el ciclo no es ejecutado, es ejecutado una vez y es ejecutado varias veces, respectivamente.

Figura 1 – Método merge

Al ejecutar los dos casos de prueba se obtiene un cubrimiento del 55,6%. Este corresponde a la ejecución de 5 de los 9 ítems. En la Figura 2 se muestra el código resaltado correspondiente a la ejecución de estos casos usando CodeCover. Se observa que los ciclos (while y for) dentro del método están pintados con amarillo; esto indica que todos los ciclos tienen únicamente un cubrimiento parcial de los ítems candidatos. Figura 2 – Cubrimiento CodeCover

2336


milveinticuatro el último elemento del arreglo b (En caso que b sea vacío, cualquier arreglo con al menos 2 elementos sirve para el arreglo a). Esto provoca salir del while sin haber ordenado dichos elementos en el arreglo c y por ende, se recorrerá al menos 2 veces el primer for.

Figura 3.a – Caso de prueba testmerge1

Figura 3.b – Caso de prueba testmerge2

Ítem Uno del segundo for – Caso de prueba en el cual el arreglo b tiene en su última posición un elemento mayor que el de la última posición del arreglo a (en caso que el arreglo a sea vacío. b puede ser cualquier arreglo con un único elemento). Además, en caso de tener más de 1 elemento, el elemento en la penúltima posición de b debe ser más chico que el de la última posición de a. Un caso así provoca salir del while con un único elemento por ordenar en el arreglo c, ese elemento es el último de b y por ende se recorrerá el segundo for una única vez. Para cumplir con el 100% del cubrimiento es necesario agregar casos de prueba que satisfagan los tipos de casos descritos. Los casos presentados en la figura 4 cumplen con este requerimiento. Entonces, estos casos, ejecutados en conjunto con los dos anteriores, logran cubrir los 9 ítems candidatos definidos por CodeCover, logrando el 100% del cubrimiento de ciclos. ¡Al ejecutar los cuatro casos de prueba CodeCover indica con el color verde sobre el while y los 2 for que el cubrimiento ha sido alcanzado de forma satisfactoria!

El while ha sido solamente cubierto en el ítem Muchos. Para el primer for se han cubierto los ítems Cero y Uno. En cambio, para el segundo for los ítems cubiertos son Cero y Muchos. Esto indica que para cumplir con el cubrimiento de ciclos son necesarios casos de prueba en los cuales los ítems Cero y Uno del while, Muchos del primer for y el ítem Uno del segundo for sean ejecutados. El siguiente paso para lograr el 100% del cubrimiento es analizar el tipo de casos de prueba que se necesita para cumplir con cada uno de los ítems que no han sido cubiertos. Ítem Cero del While – Caso de prueba en el cual al menos uno de los dos arreglos sea vacío. De esta forma la decisión se hace falsa y no se ingresa nunca al while. Ítem Uno del While – Caso de prueba en el cual a[0] es menor a b[0] y el arreglo a es de largo igual a 1; obviamente el arreglo b tiene que ser al menos de largo 1. El caso inverso también sirve. Esto provoca que se ingrese una única vez al while. Ítem Muchos del primer for – Caso de prueba en el cual el arreglo a tiene al final al menos 2 elementos que son mayores que

Figura 4 – Casos de prueba agregados

Carmen Bogado Diego Vallespir Grupo de Ingeniería de Software, UdelaR gris@fing.edu.uy

2346



milveinticuatro

“La innovación es lo que distingue al Líder de sus seguidores.” Steve Jobs

Entró en la tecnología cuando al volver de la universidad se le ocurrió conocer más de algo que comenzaba… Internet. Desde IBM, después los “dot com” y llegando al Proyecto Mercurio, ahora Director Ejecutivo de AGESIC.

José Clastornik

2366



milveinticuatro

Entrevista “…estaba con técnicas de uso de la computadoras para los cálculos de estructura, y me quise acercar a IBM porque había una cosa que se llamaba Internet…”

José Clastornik, Director ejecutivo de Agesic

2386


milveinticuatro

¿Qué es AGESIC? Es una oficina técnica dependiente de Presidencia de la República, cuya responsabilidad es orientar, formular y asegurar el cumplimento de las políticas de uso de las Tecnologías de la Información (TI) en el Estado, desarrollar el Gobierno Electrónico, además de promocionar, en un marco más amplio, la Sociedad de la Información. Lo primero que es importante entender es qué es Gobierno Electrónico.

En la administración del ex Presidente Tabaré Vázquez se conformó un grupo de asesores –yo no estaba en esa época-, que realizó un análisis de lo que había en ese momento y rescató determinados proyectos, pero concluyó que no había una institucionalidad que los sustentara. En consecuencia propuso la creación de una institución, cuyo cometido es proyectar y dar sustentabilidad a los proyectos, con una visión transversal a todo el Estado. ¿Que resultados, son los que se pueden destacar hasta el momento?

Gobierno Electrónico La tecnología en la información es un instrumento que te habilita a cambiar las cosas. En ella vos tenés un habilitador para innovar, desde la creación de las ideas, la gestión del conocimiento compartido y el acceso de la información para la creatividad, hasta lo que es la implantación de esas ideas, pasando por todos los paradigmas nuevos de la tecnología de la información. Gobierno electrónico arranca ahí Las Tecnologías de la Información son un instrumento importante de cambio, que potencia la innovación en todo su ciclo: desde la creación de las ideas, la gestión del conocimiento compartido y el acceso a información para estimular la creatividad, hasta la propia implantación de esas ideas. Gobierno Electrónico comienza ahí. En el marco de la relación entre el ciudadano y la administración, se está innovando a través de los usos de la tecnología. Ésta es aprovechada para facilitar la disponibilidad de más información, más trámites y nuevas formas de interacción para la ciudadanía, lo que redunda, en mayor eficiencia y eficacia, en mayor transparencia y calidad democrática. ¿AGESIC fue una innovación, cómo arranca, cuál fue el pensamiento inicial?

Hay varias cosas. Algunas veces cuento que cuando tenés una hoja de ruta conocida por todo el mundo es muy simple, es como jugar a la batalla naval e ir hundiendo los barcos. Entonces el avance de AGESIC visto desde afuera o visto desde los que conocen el checklist es muy fácil, tomamos el checklist y comenzamos a completarlo. Un primer aspecto es entender lo que implica innovar en el relacionamiento entre la ciudadanía y la Administración Pública. Cuando querés innovar en serio vas a encontrar que hay cosas bastante profundas que se tienen que cambiar. Uno puede tomar proyectos sectoriales y decir “voy a implementar tal trámite o tal servicio”, y con ese enfoque se puede innovar de una forma incrementada y acotada, agregando valor en lo que refiere a la prestación de servicios a la ciudadanía, haciendo disponible ese trámite o esa información puntual. Ahora si querés verlo de una forma más global, para realmente mejorar el relacionamiento de la ciudadanía con el Estado, una de las primeras cosas que uno piensa es, por ejemplo, que no quiere que el ciudadano sea el “mensajero del Estado”. Es decir, es necesario evitar que la Administración te pida una partida o una determinada constancia, información que el Estado ya tiene en su poder y que el propio Estado se encarga de expedir. Para innovar aspectos como éste, que resulten de alto impacto para el ciudadano, antes tenés que corregir otro tipo de relación que es la del Estado con sí mismo.

2396


milveinticuatro

Para eso, empezás a trabajar con interoperabilidad, es decir que los distintos organismos compartan la información, pero no se puede lograr interoperabilidad sin confianza, por lo tanto, previamente hay que generar los mecanismos que garanticen un manejo seguro de la información, proteger los datos personales, en definitiva, establecer todo un marco para que la acumulación de información se lleve a cabo en una forma controlada. Otro punto es cómo generar capacidades en los organismos para que sus proyectos sean sustentables.

Por ejemplo para hacer operativa la Ley de Documento y Firma Electrónica, necesitás una infraestructura de claves públicas (PKI) operativa y una unidad que lo regule. No se trata solo de sacar la ley, es necesario generar la institucionalidad que la regule y generar la infraestructura. Dicha infraestructura, a su vez, debe ser compatible con el MERCOSUR. En esto se ha trabajado en conjunto en un proyecto con todos los países del bloque. ¿Con el MERCOSUR cómo estamos?

No se trata solo de sacar adelante un proyecto, sino que después es necesario responsabilizarse para que esos procesos sigan y responder por ellos. Ahora bien, es necesario hacerse este tipo de preguntas para que tengan sentido las respuestas que forman el checklist del que hablábamos antes. Se aprobó un nuevo marco legal que incluye varias leyes y decretos sobre Protección de Datos Personales, Seguridad de la Información, Documento y Firma Electrónica, Intercambio de Información, la creación de un Centro de Respuesta a Incidentes Informáticos, además tener una infraestructura tecnológica que lo acompaña.

Siempre se tiene un líder en cada tema. Por ejemplo Brasil lo es en Firma Digital y Comercio Electrónico a nivel del Mercosur. El proyecto MERCOSUR Digital pretende que los 4 países del bloque estemos al mismo nivel de avance. Cuando comenzamos, en Protección de datos Personales el referente era España, en Acceso a la Información pública era México. Nosotros tuvimos la suerte que todos esos países que lideran a nivel internacional nos ayudaran, nos tutorearan, y nos dieran apoyo. Ahora podemos decir que ya estamos en niveles

2406


milveinticuatro

similares: nos solicitan a nosotros y estamos dando nuestro apoyo a países de América Latina. Por contarte algo acerca de cómo estamos a nivel internacional, en lo que es Acceso a la Información Pública, en regulación, lideran México, Chile, y Uruguay. En Protección de Datos Argentina, Uruguay y México. Chile está ahora por sacar su ley de Protección de Datos. ¿Por qué cacho? ¿Por qué es tan fuerte el sobrenombre? Hay varias historias, surgió porque somos muchos José en mi familia y “pepe” lo tenía otro, lo asumí y nunca renuncié a eso. Quizás te choque su utilización en ámbitos más formales, siempre cuento que cuando trabajaba en IBM tenía la costumbre -como acá- de irme tarde, y por lo general el único que quedaba era el sereno o el portero del edificio y nunca sabía bien cómo llamarme, me decía “señor Cacho” porque no sabía cómo manejar la lógica del respeto y del sobrenombre. ¿Cómo entra Clastornik, un ingeniero civil, en tecnología? Como ingeniero civil, fui a hacer un master a Israel de cálculo Como Ingeniero Civil fui a hacer un máster a Israel de cálculo numérico de estructuras. Cuando volví estaba trabajando en la Facultad con técnicas de uso de las computadoras para los cálculos de estructura y me quise acercar a IBM porque había una cosa que se llamaba Internet que me iba a permitir seguir haciendo las investigaciones con los investigadores que estaban en Israel. Toqué la puerta con esa excusa y quedé adentro. Así de sencillo. Yo no estaba en el área de la computación, estaba en el área de Ingeniería Civil. En IBM, en aquel momento, la persona que me entrevistó me dijo: “hace 9 años que no entra nadie”. Pero sostuve que si bien era ajeno a la industria me gustaba todo el tema de la computación. Había otros temas, como las aplicaciones tipo CAD, o CAD CAM, sobre los que ya me había puesto a hacer cursos y ya sabía que había Workstations que se estaban por lanzar. Al principio empezás poniendo el curriculum sin pensar demasiado y un día tenés que tomar la decisión porque saliste seleccionado y así fue que comencé en esta nueva carrera. Ya fuera de IBM, vino mi etapa de “dot com”, surgió trabajar en el Portal Mercurio, y ejecutar muchos de los proyectos de Gobierno Electrónico que ANTEL promovió. Supongo que fue eso lo que quizás llamó la atención para que hoy yo esté en este puesto, uniendo los puntos de mi historia.

2416


milveinticuatro

AGESIC es la “Agencia para el Desarrollo del Gobierno de Gestión Electrónica y la Sociedad de la Información y del Conocimiento”. Es un organismo que depende de la Presidencia de la República (unidad ejecutora 010 dentro del inciso 02). Funciona con autonomía técnica. Tiene como objetivo procurar la mejora de los servicios al ciudadano, utilizando las posibilidades que brindan las Tecnologías de la Información y las Comunicaciones (TIC). Entre sus actividades permanentes se encuentran:

- Definir y difundir la normativa informática, fiscalizando su cumplimiento. - Analizar las tendencias tecnológicas. - Desarrollar proyectos en Tecnologías de la Información y las Comunicaciones. - Asesorar en materia informática a las instituciones públicas del Estado. - Capacitar y difundir en materia de Gobierno Electrónico, apoyando a la transformación y transparencia del Estado.

2426



milveinticuatro

Incorrecto uso de los recursos informáticos en las empresas Será porque … vimos siempre a las computadoras como algo más orientado al ocio que al trabajo?

P

or dónde comenzar? A sí, no por los recursos informáticos subutilizados, ni tampoco por los mal utilizados, entonces? Por aquellos recursos informáticos incorrectamente utilizados.

Para ubicarnos en situación, como nos quedamos por dentro cuando vemos un caño roto o canilla y se está desperdiciando litros y litros de agua potable? No muy bien verdad? Y si somos conscientes de que existen lugares donde para obtener un litro de agua no muy potable hay que caminar leguas, cómo nos seguimos sintiendo? En el párrafo anterior se recurrió a un ejemplo que intenta graficar sin lugar a duda que es lo que ocurre cuando un recurso que tiene costos y no es infinito se dilapida o se usa incorrectamente, pero no por falta de conocimiento, sino que a veces todo lo contrario, abusamos en ocasiones de un conocimiento que pudiéramos tildar de oportunista para nuestra autosatisfacción y de una manera muy mezquina. Sí, si no lo adivinaron aún, les cuento que sufrí en carne propia ésta situación causada por algunos usuarios cuando era administrador de servidores, y más tarde tuve algún contratiempo al ser consultor pero esta vez en los clientes. Cuando fui administrador de servidores y/o servicios de Networking siempre ocurría que por la sirvegüenzada de unos pocos (dos o tres) teníamos que pagar el resto de los demás que hacíamos un uso consecuente de los recursos informáticos. Ilustrando mejor, llamamos recursos informáticos a todo elemento informático que es puesto a disposición del usuario para que éste pueda realizar sus tareas cotidianas (facturar dentro del sistema contable, acceso a su correo electrónico, acceso a internet para la búsqueda y/o descarga de información relacionada con su trabajo).

2446


milveinticuatro

Un ejemplo claro y muy ilustrativo es cuando se bloquea el uso del Messenger en el trabajo porque unos pocos abusan de ésta herramienta. Quién no escuchó a un Gerente decir “se prenden a chatear con el Messenger y se olvidan de que están en horario de trabajo”. Quién no ha encontrado bloqueado el acceso al Facebook porque otra vez unos pocos hacían un uso excesivo y a la vez abusivo del mismo, en sus lugares de trabajo o a los que concurren a realizar una visita, ya sea técnica o de consultoría? Porqué ocurren éstos abusos? O mejor dicho, este mal uso de las herramientas informáticas? Será porque algunos de nosotros (los más viejos) vimos siempre a las computadoras como algo más orientado al ocio que al trabajo? Pero y si somos profesionales que necesitamos de los recursos informáticos aun así no podemos cambiar esa percepción? Pero y que pasa con las nuevas generaciones, que de alguna u otra manera ya se han criado desde chicos con una computadora en sus hogares viendo a su padre o madre utilizándola para el trabajo, cuál es entonces lo que motiva al mal uso de los recursos informáticos? Otro uso incorrecto es no solamente el aprovechar que tenemos Internet y convertir a la empresa o el ámbito donde estamos en un gran “cyber-café”. Muchas veces hacemos de los recursos informáticos una “extensión” de nuestro pen-drive, y sobre todo de información muy sensible para el usuario que lo utiliza. En mi experiencia profesional he sido testigo de usuarios que guardan sus archivos personales en los recursos informáticos de la empresa. Por qué hacen esto? La respuesta es sorprendente, “Como los datos se respaldan todos los días, aproveché y los

2456


milveinticuatro

2466


milveinticuatro

traje para que los guarden ustedes” imaginen la sorpresa para quien administra éstos recursos un día llegar y encontrarse con esta información que no corresponde alojada en los recursos informáticos de la empresa… que hacer? Borrarlo? Notificar al superior inmediato? Hablar con el responsable que colocó esa información allí? Sin duda es un generador de conflictos, y volviendo al principio, por mal usar los recursos informáticos. Un poco atado al párrafo anterior, debo confesar mi sorpresa cuando se encuentran datos como tareas profesionales que un usuario brinda por ser profesional a otra empresa (no es muy ético que digamos, pero en fin), fotos imperdibles de los cumpleaños de los hijos, esta información que nunca debería perderse se guarda en la empresa y no en el hogar de uno porque quiere tener los archivos a salvo! Gran paradoja, que le ocurriría al usuario si un día viene y por políticas de la empresa todos esos contenidos son borrados de una? Luego un poco más simpático y quizás no tan irresponsable, pero que de tanto en tanto es recurrente, son aquellas fotos de la reunión de trabajo, el cumpleaños de fulano o sultana, que como no se tiene un ámbito claramente definido y necesitan sí o sí ser compartidas para que todos las puedan ver, que mejor que utilizar los recursos informáticos de la organización… si otra vez estamos como al principio. Que ocurre con el correo? Si, con las famosas cadenas, que ya desde años son populares por estos lados, actualmente se encuentran ampliamente difundidas en las redes celulares transmitidas a través de mensajes de texto (SMS). En este sentido hay duras posiciones ya que si bien el correo electrónico del usuario es personal, pero solamente cuando el dominio del correo se encuentra en proveedores que brindan dicho servicio como ser: Adinet, GMail, HotMail, Yahoo, etc…

Pero no cuando el dominio de correo es el de la empresa donde trabajo, en realidad el propietario de la casilla de correo que utilizamos en la empresa es propiedad de la empresa. Y es fácil de entender si hacemos un paralelo con la famosa engrampadora, si bien tanto el útil como las grampas son otorgadas por la empresa pero nadie nos revisa que papeles engrampamos verdad? Pero quizás le llame la atención en suministros si todos los días pedimos una caja de grampas no? No será entonces que esta conducta es ya algo inherente al ser humano? Que al ser los recursos informáticos cada día más personalizados y casi que “hechos” a medida del usuario, como si de un traje de vestir se tratara, es que los hacemos de nuestra propiedad? Entonces si tenemos acceso a Internet, porque limitarnos a las páginas que tratan específicamente de nuestro trabajo y porque no extendernos y utilizar el acceso a Internet para ver noticias de deportes, juegos en línea, etc. Y si estamos guardando nuestros archivos de trabajo en algún lugar de la red, porque no nuestros archivos personales, y no solamente documentos, sino fotos, archivos de música y otros? Que nos pasa con el correo de la empresa, enviamos correos a nuestros clientes, a nuestros proveedores y también a nuestros compañeros verdad. Pero esto no termina acá porque ya que estamos le enviamos correos personales a nuestros familiares, amigos, etc. Que es lo que ocurre a consecuencia de éstos abusos, algo muy sencillo, se restringe el libre acceso a los recursos informáticos involucrados, de una se cancelan esos servicios o se invierte una importante suma de dinero por parte de la empresa para regular entre otros éstos mal usos de los recursos informáticos.

2476


milveinticuatro

Pero pasa algo más grave, que no se soluciona con la implementación de un sistema que lo controle y lo restrinja. Lo más importante que se pierde al manifestarse éstas consultas es la confianza. Si la confianza del empleador para sus empleados, la confianza entre los empleados y también se pierde la confianza de los empleados para con el empleador.

El empleado pierde la confianza con el empleador, viene casi de la mano del párrafo anterior, ya que al observar el empleado que en la empresa no hay un control ya sea explícito o tácito de cómo usar los recursos informáticos, percibe que no está en una empresa seria y que allí es tierra de nadie, lo cual puede ser muy desmotivante para cierto tipo de empleados.

Trataré de explicar el párrafo anterior. Porque el empleador pierde la confianza en los empleados? Es muy sencillo, al pagarles por hora de trabajo, el empleador percibe que el tiempo por el cual perciben un salario produciendo un determinado bien o servicio lo mal gastan haciendo un incorrecto uso de los recursos informáticos (sólo estamos analizando el aspecto que involucra el mal uso de los recursos informáticos – para no perder el foco).

Resumiendo, se entienden los diferentes ribetes al realizar un mal uso de los recursos informáticos, no solamente le impacta al área de TI, ni siquiera al Gerente de TI, es algo que repercute a lo largo de toda la organización de manera horizontal, ya que las organizaciones están formadas de personas y como se ha venido explicando hay diversos motivos que mueven a las personas a tentarse y/o hacer un mal uso de los recursos informáticos. Es un problema que no tiene una solución sencilla, sino que hay que atacarlo desde diferentes ángulos, el de los sistemas (contralor), el psicológico (comportamientos, capacitación), ético (entregar nuestro trabajo a tiempo y que el mismo tenga la calidad esperada).

Porque se pierde la confianza entre los empleados? Sin importar a priori los cargos en los que se desempeñen, un empleado puede sentirse menos que otro porque observa que su par en vez de realizar el trabajo que debe con los recursos informáticos que tiene a disposición como él, éste no lo cumple, es más quizás es testigo que cuando el jefe le pregunta al respecto de alguna demora o retraso injustificado, éste le replica que está muy atareado, y ni hablemos si luego de oír esto el jefe le saca tareas y se las asigna al empleado que si hace un uso correcto de los recursos informáticos, complicada la situación verdad?

Finalizamos sacándole la culpa a las herramientas ofrecidas como recursos informáticos, porque no tienen consciencia, quienes si tienen consciencia son las personas que los utilizan a diario, y sólo de las personas depende en que el uso sea o no el correcto.

2486

Ing. Fernando E. Alvarez Noya CCDA, CCNA, CNE, MCSE falvarez.uy@gmail.com



milveinticuatro

No más (nubes) Pálidas Partamos de una base: el estado de madurez de la VIRTUALIZACIÓN y las COMUNICACIONES configuran los pilares para avanzar.

¿Encaramos o “por ahora no”? Posiblemente unos cuantos de nosotros hayamos leído a Enrique Baliño respecto a las actitudes con que deberíamos encarar objetivos y problemas, en particular gracias a su libro “No más Pálidas”; buena lectura para pensar y discutir con nuestros colegas. [1] A la luz de lo que Baliño plantea, me propuse encarar este artículo sobre “Cloud Computing” o “Computación en la Nube”, aplicando algunas de sus reflexiones. En particular me interesó el planteo de focalizar nuestras energías en lo que llama “problemas que podemos resolver”, diferenciando por otro lado la categoría de problemas que no está a nuestro alcance solucionar, y que por lo tanto se convierten en “problemas a manejar”. No hay duda que esta última categoría de problemas existen, hay que considerarlos y tenerlos presentes para “manejarlos”, tal como se plantea en el libro. Ejemplos como “en Uruguay hay problemas de Banda Ancha” o “la dificultad es que aquí no tenemos escala” o “ el inconveniente es que Amazon no está en Uruguay”.

¿Y cuáles serían los temas que SI DEBEMOS solucionar dedicando nuestras energías? Y por gusto utilizo la palabra “debemos”. No es que “podamos” solucionarlos. Es que debemos encontrar una solución porque los Clientes (y la Dirección) nos lo solicitan. Trabajamos día a día con ellos brindando Servicios Profesionales y acompañando el desarrollo de sus Proyectos a través de la Virtualización y la mejor gestión de Procesos. Simplemente por ahora no aplica la Nube en sus planes de TI. Pero resulta que Empresas, Organizaciones y Profesionales, que requieren encontrar Soluciones y encarar Proyectos a corto plazo, nos solicitan evaluar la aplicabilidad del paradigma de “Cloud Computing”. Naturalmente requieren el mismo Profesionalismo y rigurosidad que los demás. Debemos trabajar junto a ellos para concretar “Iniciativas del negocio” o “Proyectos de la organización”. El análisis debe considerar soluciones “OnPremise”, “Cloud” e “Hibridas” para luego elegir el modelo que mejor se adapte a CADA Proyecto en particular. Nube: Todo, poquito o nada

Pero, ¿Cuáles serían los problemas alrededor de “Cloud Computing” que NO podemos resolver y por lo tanto quedarían en la lista de “a tener en cuenta”?. Bromeando con amigos y colegas siempre llegamos a una conclusión: Uruguay es el mejor País del mundo para confeccionar esta lista. Sería extensa, profesional e irreprochable. Yo agrego que podría convertirse en: “la lista perfecta de problemas para no avanzar en Cloud Computing”. Taxativa, rigurosa, implacable. En definitiva, “The Cloud Computing top 100 warnings” [2] Dejando de lado esta broma, sin duda hay empresas que por motivos realmente valederos están trabajando en otras direcciones y NO están considerando “Cloud Computing”.

Pensemos entonces: ¿Hay en nuestra empresa algún “driver del negocio” que requiera “ELASTICIDAD se Servicios de IT”? ¿Algún Proyecto de la organización está centrado en la BAJA DE COSTOS operativos maximizando los recursos existentes? ¿Quizás alguien planteó MEJORAR DRÁSTICAMENTE LA GESTIÓN y los tiempos que insume disponer de la infraestructura (Servidores, Storage, comunicaciones, Sistemas, aplicaciones, Seguridad, networking, etc.)? ¿Alguien preocupado por el “Time-to-Market” de las iniciativas de la Compañía y la respuesta de IT?

[1] “No+Pálidas:Cuatro Actitudes para el Éxito”. Enrique Baliño y Carlos Pacheco. Xn Consultores Publishing. [2] Busqué la lista en Google y no está confeccionada aún… bien dicen que lo perfecto es enemigo de lo bueno.

2506


milveinticuatro

En resumen: ¿Será que alguien parece estar convencido (como si fuera así de fácil) que IT es un Servicio que podría consumirse como el agua o la electricidad, sin considerar en donde se produce, como se distribuye y que infraestructura se precisa para utilizarlo? Quizás así piense la Dirección, las Gerencias, los Usuarios… y los Clientes!!! El modelo “Cloud Computing”, con sus capas de especialización IaaS (Infrastructure as a Service) , PaaS (Platform as a Service) y SaaS (Software as a Service); y sus variantes Public Cloud, Private Cloud & Hybrid Cloud parece ser un modelo maduro y con la visión adecuada para analizarlo y estudiar su aplicabilidad a los temas que DEBEMOS resolver. En nuestra experiencia, casi nunca la Nube es “todo”. Difícilmente en una Empresa podemos aplicar en forma general y en todos sus escenarios este modelo. No suele ser unánime concluir “esta Empresa debe ir hacia la nube”. Así como la virtualización es una realidad y se aplica a muchos escenarios pero no en todos, las soluciones en Nube deben ser selectivas a los Sistemas y sus atributos. Justamente en eso trabajamos desde hace un tiempo. Evaluando junto al Cliente cuales son las iniciativas del negocio (o los proyectos o como cada uno lo denomine) que debemos resolver y que a priori requieren desafíos tales como la ELASTICIDAD, el CONTROL DE COSTOS, la AGILIDAD Y ABSTRACCIÓN DE LA INFRAESTRUCTURA. Requerimientos para brindar IT AS A SERVICE con SLAs francamente mejores que hasta ahora. Si estas palabras están sonando en sus Proyectos, Cloud Computing tiene chances de ser una buena solución. Todo, un poquito o nada. Habrá que evaluarlo.

En particular, propongo a los Clientes trabajar en un ambiente de Workshop integrado con varios perfiles, y en los cuales analizamos los Proyectos, sus objetivos y sus atributos. CADA aplicación y solución de negocios tendrá sus ventajas y desventajas respecto al modelo. Cada sistema se ubicará en el camino de “MI nube” (la de cada Empresa) con mayor o menor incidencia. Cada Solución será en mayor o menor medida “cloud-aware”. Y en base a este diagnóstico (entendámoslo como un proceso de Consultoría o Advisoring que brindamos respecto a los Proyectos y la Nube), ubicaremos cada Solución en una escala respecto a escenarios “On-premise”, “Nube Privada” o “Nube Hibrida” (la Nube Pública no está en consideración por el ancho de banda ;-) El mix más adecuado y la integración entre estos escenarios será la mejor solución y en base a estas directivas, se avanzará en “el camino hacia la nube” con análisis, diseño, implementación y control, como en cualquier Proyecto. Será entonces todo, poquito o nada dependiendo de cada Solución. Algunas serán mejores en un modelo de nube y otras no. Cloud Computing aquí y ahora. La Nube Privada. En definitiva la Consultoría permite analizar qué Soluciones son más adecuadas para un ambiente de Cloud, y deben hacerse en forma personalizada para cada Organización. Se trata de construir “MI nube”. Los ejemplos son muy variados y específicos de cada Industria u Organización así que intentaré presentar un escenario en el que podamos reconocernos. Concentremos inicialmente energías en la “NUBE PRIVADA”, gestión propia de la empresa, de sus recursos y el acceso de Clientes previamente definido.

2516


milveinticuatro

Partamos de una base: el estado de madurez de la VIRTUALIZACIÓN y las COMUNICACIONES configuran los pilares para avanzar. Son los elementos básicos, necesarios pero no suficientes. Asumamos entonces que contamos con experiencia e infraestructura adecuada de virtualización y comunicaciones en nuestra Empresa. Posiblemente trabajemos con conexiones LAN y eventualmente WAN gestionadas y monitoreadas por nosotros. Las comunicaciones y la virtualización son nuestras y tenemos el know-how para brindar un buen servicio sobre estas plataformas. El desafío será evaluar los Servicios que tendrían un impacto cualitativo si incorporamos “auto-aprovisionamiento y catálogo de Servicios”, “costeo y control de recursos por unidades operativas”, “estandarización y automatización”, “consumo y management centralizado de servicios de IT”, etc. Conclusión El planteo entonces no es ignorar problemas. Se trata de trabajar con metodología y profesionalismo analizando las Soluciones que DEBEMOS encarar y cual es el nivel de madurez de nuestra organización para su aplicación en un modelo de Cloud Privada. Mapear cuan “Cloud-aware” es cada Iniciativa y en base a eso desarrollar el Proyecto. Será complejo y desafiante como siempre (¿los otros Proyectos son simples y aburridos?), pero estaremos avanzando claramente hacia una visión de “IT as a Service” que parece ser un buen camino. Y como dijo el Maestro Tabarez, el éxito es el camino, no el destino final.

Gonzalo Sologaistoa Business Development Director en AT Soluciones Tecnológicas. Trabaja con foco en el desarrollo de Proyectos de Cloud Computing.

2526


milveinticuatro

Haga usted mismo la presentación!!!

Lend Screen

Respaldo y garantía total con 25 años de experiencia www.roddi.com.uy Zabala 1376 | tel: 915 2784 | mafedal@adinet.com.uy


milveinticuatro

SoftwareONE Las compañías gastan mayores cantidades de dinero en software y pocas veces se toman el tiempo necesario para manejar estos activos.

E

l software se está convirtiendo rápidamente en uno de los activos más importantes de las empresas. Cada día las compañías gastan mayores cantidades de dinero en software y pocas veces se toman el tiempo necesario para manejar estos activos como lo hacen con los activos físicos. Al igual que los activos tradicionales, el software posee su propio ciclo de vida compuesto por adquisición, implementación, transición y retiro. Para cualquier empresa que desea minimizar el riesgo y maximizar la eficiencia, son necesarios procesos estructurados y procedimientos para el Manejo de Activos de Software. SAM no es sólo cumplir con la utilización de licencias para estar alineados con las normas legales vigentes sino también una eficiente gestión del software que permita disponer de una mejor visibilidad de lo que se posee y optimizar costos. Con esta gestión se pueden detectar que software está sobrelicenciado y cuál sublicenciado, de qué manera se puede reutilizar licencias y comprar sólo lo que se utiliza. SoftwareONE, una empresa focalizada en el licenciamiento ofrece una variedad de servicios relacionados con esta práctica, desde lo que llaman un SAM Standard donde se le entrega al cliente un reporte de gap analysis con una consultoría de optimización de la gestión de activo de software hasta la implementación de la metodología con la definición de procesos, roles y responsabilidades. La herramienta utilizada por SoftwareONE brinda un amplio número de reportes que pueden ser utilizados por los responsables de la administración de software para tomar decisiones más acertadas y delinear estrategias acordes a las necesidades de la compañía. La herramienta utilizada por SoftwareONE posee varias características que combinadas la hacen única dentro de las herramientas de su tipo:

1 Normalización de los nombres de proveedores de las aplicaciones instaladas. 2 Herramienta multimarca: detecta todo tipo de marca de proveedores de software. 3 Detección de que Software instalado necesita licenciamiento y cuál no. 4 Parametrización de que Software no debe ser instalado y posterior detección de las máquinas que lo tienen instalado si así fuese. 5 Amplia gama de reportes por aplicación, computadora y usuario. 6 Uso y medición de las aplicaciones por computadora y usuario. 7 Detección de aplicaciones y sus componentes para poder comprender de manera más precisa cada instalación. 8 Administración de licencias y acuerdos de manera electrónica centralizada. 9 Con esta herramienta se puede detectar software que tienes sobre licenciado permitiendo ahorrar costos al optimizar la utilización de tus licencias. 10 Si bien la herramienta se focaliza en el software, también realiza inventario de hardware lo que la convierte en una herramienta completa.-

Guillermo Zuccotti Business Development Manager SoftwareONE guillermo.zuccotti@softwareone.com www.softwareone.com

2546



milveinticuatro

E3, Las Vegas, no todo es juego‌ LatinoamÊrica, modesto mercado para la industria de los video juegos, un hecho que a los jugadores nos cuesta caro.

2566


milveinticuatro

E

n el pasado mes de junio, Los Angeles volvió a cubrirse de gamers para recibir al E3 Es increíble como este gran evento logra cambiar toda una ciudad por unos días para transformarla en la cuna de los video juegos. Desde el momento en que aterrizas en el aeropuerto, te preguntan cuál es el motivo de tu viaje y respondes “voy al E3”, ver que el oficial que te atiende está más que al tanto del evento, te da la pauta de como toma toda la ciudad dicha conferencia. ¿Por qué digo esto?, porque un evento de videojuegos no es algo de lo que todo el mundo esté al tanto, es más seguramente la mayoría de las personas no sepan que es el E3. Una vez en la ciudad, miraras para donde miraras se veían, hoteles lleno de gamers, edificios tapizados con pancartas que publicitaban juegos y en las calles del centro de Los Angeles no quedaba casi gente que no caminara orgullosa con su acreditación para el E3 colgando de sus cuellos. La mayoría de las personas que llegan eran periodistas amantes de los videojuegos. Y si bien el evento comenzaba un martes, desde el domingo ya la ciudad había comenzado a cambiar esperando las conferencias de prensa del lunes. Una agenda apretada El lunes fue el día dedicado a la prensa, donde las compañías más importantes de la industria de los videojuegos brindaron sus respectivas conferencias. Como ya es costumbre, Microsoft tuvo la dura tarea de abrir el ciclo de conferencias. La prestigiosa compañía de Redmond optó por el Galen Center, un imponente estadio de basquetbol universitario, para dar a conocer sus novedades. El primero en salir a la cancha fue el esperado Call of Duty Modern Warfare 3 el cual tendremos disponible para adquirir recién desde el 8 de noviembre. Un título el cual me sorprendió fue Tomb Raider; el realismo que han logrado inyectarle a la desgastada zaga de Lara Croft, me dejo impactado. Entre los excelentes efectos de sonido que logran meterte dentro del videojuego y una historia que promete engancharnos hasta el final, hacen que este título sea una de las grandes promesas para el 2012. Durante el resto de la conferencia Microsoft nos mostró cuál será su estrategia de cara al futuro demostrando

2576


milveinticuatro que su consola Xbox ya no sería simplemente dedicada a los videojuegos, sino un centro de entretenimiento YouTube, Bing y Xbox Live TV son algunas de las incorporaciones que tendrá el Xbox para fines de este año. Si a eso le sumamos la comentada compra de Skype y anunció que su siguiente sistema operativo Windows 8 vendrá preparado para iniciar sesiones de Xbox Live, vaya que tendremos cosas para esperar de la integración que logrará nuestra consola para el 2012. Pero cuando muchos esperabamos escuchar y ver, de primera mano, cuál iba a ser el siguiente paso de Kinect, Microsoft decepcionó. Solo algunos destellos del juego Kinect Sport 2, y la integración aún muy precaria de Kinect con títulos en su mayoría orientados a niños fue todo lo que se presentó. Ya cercano al medio día, se dio por culminado el evento y todos salimos corriendo para poder así llegar al resto de las conferencias pautadas para el lunes. El segundo en aparecer fue EA y luego fue el turno de Ubisoft que cumplía 25 años. Pero el cierre de Sony fue sin dudas lo mejor del día. La compañía Japonesa fue indudablemente la que más invirtió en su lanzamiento y en recibir a la prensa. Se logró destacar claramente del resto al realizar una conferencia casi toda en 3D. Los grandes momentos de esta conferencia fueron la presentación de su nueva consola portátil Playstation Vita y los avances mostrados por Sony en el uso del 3D. El martes apareció Nintendo, el otro gigante Japonés. En una muy sobria conferencia brindada en el Nokia Theater, que quedó chico para la cantidad de invitados que se encontraban presentes, Nintendo presentó su nueva consola Wii U. Cuando pudimos ver en funcionamiento esta nueva consola, recién ahí entendimos que Wii U no era un componente más del famoso Wii, sino su sucesor. Igualmente nos quedamos con las ganas, fue muy poco lo que se pudo testear en el evento; además tendremos que esperar hasta el 2012 para poder contar con esta nueva propuesta que nos hace Nintendo.

Pasa en todas las familias, inclusive en E3… Esto demostró Sony en su conferencia de prensa cuando provocó uno de los bloopers del evento. Durante la presentación del nuevo juego NBA, apareció sobre el escenario el famoso basquetbolista Kobe Bryant, quien fue invitado por Sony para testear en vivo la nueva versión del juego. Pero se ve que Kobee no había practicado antes de salir a la cancha y paso algunos minutos de tensión como si estuviera jugando una final. Como no podía ser de otra forma, eligió a Los Lakers como su equipo tocándole Miami Heats como rival. Al comenzar el encuentro virtual fueron muy cómicos los momentos en los que el verdadero Kobe manejaba y erraba tiros utilizando a su doble virtual. Pasaron varios minutos con el tanteador 2 a 2 hasta que la computadora dejó por dos veces mal parado al basquetbolista encestando 2 triples casi consecutivos. En ese momento se terminó la demostración, Kobe con una gran sonrisa y seguro muchos nervios dijo, “esto en verdad no es nada real”. El sur no existe… La organización del evento fue, como en las ediciones anteriores, muy buena; pero no puedo decir lo mismo de las compañías expositoras. Si seremos chicos en esta industria de los videojuegos que en algunos stands, ni siquiera tenían en cuenta a los visitantes de Latinoamérica. Esto último fue algo con lo que tuvimos que luchar en repetidas ocasiones debiendo explicar varias veces donde quedaba Uruguay. Pero superadas las acreditaciones en cada una de las islas que cada firma tenía armada, era fácil armarse un calendario para poder testear todos los juegos y nuevos dispositivos que allí de exponían. Hubo dos grandes ganadores en el evento de este año, Bioshock Infinite y BattleField 3. Entre estos dos juegos se llevaron los seis galardones más importantes del evento haciendo que se destaquen los mismos sobre grandes títulos como son Mass Effect 3, As-


milveinticuatro sasing Creed, Hitman y Call Of Duty, entre otros. Durante el evento pudimos dialogar con varios ingenieros responsables de la creación de estos títulos, pudiendo intercambiar opiniones y acercarles una visión rioplatense respecto a cómo vemos dichos títulos. Una de las presentaciones que más disfruté fué con uno de los creadores del Pro Evolution 2012. Durante la charla, pude darle mi opinión sobre como el mejoramiento en los gráficos, sumado al realismo que se les intento introducir a las versiones 2010 y 2011 habían hecho perder el dinamismo del juego y que -a causa de esos cambios- en estas latitudes se seguía jugando al PES 2009. Ante nuestra consulta el ingeniero nos contestó que en Europa, Asia y América del Norte habían tenido una muy buena recepción por parte de los jugadores y que lamentablemente no creía que por América Latina vayan a despegarse mucho de este rumbo. Donde será el E3 2013? Por suerte el tiempo fue suficiente para poder recorrer todos los stands y lograr informarnos de las nuevas tendencias y lanzamientos para el 2012. Ya está confirmado que el evento se volverá a realizar en Los Angeles del 5 al 7 de junio. Puede también que el 2012 sea el último año en que el evento se realice en esta ciudad dado que se termina el contrato que el evento mantiene con Los Angeles y ESA la entidad que organiza el evento está abierta a escuchar nuevas ofertas de otras ciudades para organizar dicho evento. Como contábamos al principio un evento que arrastra casi 50.000 mil personas modifica el normal accionar de cualquier ciudad y estoy seguro que después de ver el éxito que tiene año a año el evento varias localidades querrán hacerse del mismo. Tendremos que esperar a que finalice el evento del año próximo para que se devele el misterio

AndreParis. Megaweb andre.paris@megaweb.com.uy


milveinticuatro

Más pruebas con JAVA CoView determina los caminos linealmente independientes y los presenta en el ambiente de desarrollo coloreando el código.

E

n el artículo anterior utilizamos la herramienta CodeCover para conocer el cubrimiento alcanzado por un conjunto de casos de prueba a nivel de ciclos en el código. Este cubrimiento no brinda información sobre los caminos del código que se lograron recorrer al ejecutar las pruebas. En este artículo presentamos el cubrimiento de Caminos Linealmente Independientes (CLI), sin entrar en detalles teóricos, y la herramienta CoView, que presenta visualmente cuáles de estos caminos fueron ejecutados durante las pruebas.

Un ejemplo sencillo Como ejemplo utilizamos el método merge que fue presentado en los artículos anteriores. En la Figura 1 se presenta el grafo de flujo de control de dicho método y se enumeran las “zonas” en la que está dividido el mismo; esto indica que el método tiene una complejidad ciclomática igual a 6. La zona numerada como 6 es la externa.

Caminos linealmente independientes Un camino representa un flujo de ejecución desde el comienzo de un método (o programa) hasta su fin. Los posibles caminos dependen de las bifurcaciones existentes en el código (if, while, for, etc.) que dirigen el flujo de ejecución hacia “un lado u otro”. Un método con N decisiones (if por ejemplo) y sin ciclos (loops) tiene potencialmente 2^N caminos. Si además tiene ciclos los caminos podrían ser infinitos. Desde el punto de vista del cubrimiento de código esta cantidad de caminos es normalmente imposible de cubrir o demasiado costosa. Durante las pruebas, una forma de acotar la cantidad de caminos a cubrir es usar el criterio de CLI. El conjunto de CLI es el conjunto con menor cantidad de caminos que puede generar cualquier otro camino del método mediante combinación lineal de los mismos (esto es derivado del álgebra lineal). Es por este motivo que el criterio es interesante desde el punto de vista de las pruebas unitarias. Definir formalmente el conjunto de CLI queda fuera de este artículo. Una forma de conocer la cantidad de CLI de un método es contar la cantidad de “zonas” en las cuales está dividido el grafo de flujo de control (grafo que indica los posibles caminos de un método). A este número se le llama la complejidad ciclomática del método. Figura 1 – Grafo de flujo de control del método merge

2606


milveinticuatro

El grafo de flujo de control presenta al while del método merge dividido en dos (W1 y W2) donde cada W es una de las condiciones del while (W1 es i<a.length y W2 es j<b.length). F1 corresponde al primer for del código y F2 al segundo. Normalmente las bifurcaciones se representan con un rombo como aparece en la figura. Las sentencias secuenciales se representan con un rectángulo. ¿Cómo se determinan los caminos linealmente independientes? Como vimos, la complejidad ciclomática indica la cantidad de caminos necesarios para obtener el conjunto de CLI pero no cuáles son esos caminos. Existen distintos métodos para obtener este conjunto, algunos son más complejos que otros. Solamente vamos a presentar el método utilizado por la herramienta CoView. El método utilizado por CoView es el siguiente: 1. El primer camino a agregar al conjunto de CLI es el camino cuyas condiciones son todas True. Por ejemplo, con 5 condiciones como en nuestro ejemplo se representa este camino como el camino TTTTT. 2. Los otros caminos se derivan simplemente cambiando cada uno de esos valores en True por un valor en False. En nuestro caso son 5 caminos más. El conjunto de CLI que deriva CoView en nuestro ejemplo es el siguiente {TTTTT, FTTTT, TFTTT, TTFTT, TTTFT, TTTTF}. Analizando el conjunto de CLI con CoView CoView determina los caminos linealmente independientes y los presenta en el ambiente de desarrollo coloreando el código. Dado un camino, las condiciones que se hacen True en ese camino son pintadas de verde y las que se hacen False de rojo. Las sentencias que no son condiciones se pintan de gris si son ejecutadas en el camino y si no son ejecutadas quedan en blanco.

La figura 2 contiene a la izquierda la forma en la cual CoView presenta el camino TTTTT y a la derecha el camino TTTFT. Ambas imágenes son usando CoView en el ambiente de desarrollo Eclipse.

public int[] mergearrays( int[ ] a, int [ ] b) { int i= 0; int j = 0; int k = 0; int c[] = new int[a.length + b.length]; while( i < a.length && j < b.length ){ if( a[i] < b[j]){ c[k]=a[i]; k++; i++; } else{ c[k]=b[j]; k++; j++; } } for (int iter=i;iter<a.length;iter++){ c[k]=a[iter]; k++; } for (int iter=j;iter<b.length;iter++){ c[k]=b[iter]; k++; } return c; }

2616


milveinticuatro

public int[] mergearrays( int[ ] a, int [ ] b) { int i= 0; int j = 0; int k = 0; int c[] = new int[a.length + b.length]; while( i < a.length && j < b.length ){ if( a[i] < b[j]){ c[k]=a[i]; k++; i++; } else{ c[k]=b[j]; k++; j++; } } for (int iter=i;iter<a.length;iter++){ c[k]=a[iter]; k++; } for (int iter=j;iter<b.length;iter++){ c[k]=b[iter]; k++; } return c; }

Figura 2 – Dos caminos del conjunto de CLI que determina CoView Ejecución usando CoView Utilizamos los mismos cuatro casos de prueba que utilizamos en el artículo anterior de forma de probar el método merge. Al ejecutar estos casos de prueba CoView indica que solamente 1 de los 6 caminos del conjunto CLI ha sido ejecutado. Dado este resultado, y con el objetivo de alcanzar un cubrimiento del 100%, corresponde generar casos de prueba para cubrir los caminos del conjunto CLI que no se han cubierto. Para generar estos casos de prueba analizamos los 6 caminos generados por CoView. Surge de este análisis que varios de estos caminos no son ejecutables. Es decir, que ningún caso de prueba durante su ejecución puede recorrer el grafo de flujo de control como lo indica el camino.

Como ejemplo tomemos el primer camino de la Figura 2 (TTTTT). Este camino indica que se entra al while con i<a.length y con j<b.length (el camino indica que el while se hace true). Luego, para cumplir con el camino, a[i] debe ser menor a b[j] (el if se hace true). Al retornar a la decisión del while no se tiene que ejecutar el cuerpo por lo que alguna de las dos condiciones es falsa; entonces, o i no es menor a a.length o j no es menor a b.length. Esto indica que al menos uno de los dos for del final no podrá ser ejecutado. De esta forma se muestra que el camino TTTTT no puede ser ejecutado con ningún caso de prueba ya que nunca va a suceder que ambos for ejecuten su cuerpo. Analizando caminos no ejecutables Como el conjunto de CLI determinado por CoView contiene caminos no ejecutables no se podrá obtener el 100% de cubrimiento. Sin embargo, no cumplir con el cubrimiento se transforma en una preocupación secundaria. ¿Por qué en el código hay caminos no ejecutables? ¿Existe alguna forma de solucionarlo? En nuestro próximo artículo presentaremos un nuevo algoritmo para merge que resuelve el problema de tener tantos caminos no ejecutables y estudiaremos el cubrimiento alcanzado con diversos criterios, incluyendo el criterio de CLI. En este artículo vimos como usando el cubrimiento de CLI llegamos a detectar que el método merge tiene varios caminos no ejecutables. El descubrir caminos no ejecutables es un buen motivo para pensar una nueva solución algorítmica. Como final debemos dejar en claro dos cosas. Primero, la utilización del criterio CLI no es necesaria para el análisis de caminos no ejecutables de un algoritmo; esta se puede hacer simplemente analizando el grafo de flujo de control directamente. Segundo, no siempre se puede conseguir un algoritmo sin caminos no ejecutables.

2626

Diego Vallespir Fernando Marotta Grupo de Ingeniería de Software, UdelaR gris@fing.edu.uy



milveinticuatro

Indicadores y otras hierbas Debemos establecer los indicadores que permitan que la alta dirección se haga una idea de qué tan bien gestionamos nuestros procesos.

E

n muchas organizaciones, la Dirección se apoya en el cuerpo gerencial como corresponde, pero lamentablemente a veces ocurre que, en pos de la cristalinidad, se busca establecer métricas y se asigna a departamentos administrativos o de alta confianza como auditorías internas, la responsabilidad de establecer parámetros de funcionamiento que resultan poco efectivos en las áreas informáticas, sobre todo en las áreas que son responsables de la infraestructura informática. Medir, controlar, revisar, ajustar y volver a medir. Todo debe ser medible, o lo que es peor, lo que no se puede medir, no existe. Este es el negocio de las consultoras y de los departamentos de auditoría interna. Auditorías externas e internas con poderes más allá del bien y del mal. Con la capacidad de emitir juicios que pueden ser consagratorios o lapidarios. Son, o pretenden ser, los ojos de la alta dirección sobre los procesos de la empresa. Una verdadera Gestapo que tiene como fin lo del inicio, medir, controlar, revisar, ajustar y volver a medir.

Lo bueno es que debemos establecer los indicadores que permitan que la alta dirección se haga una idea de qué tan bien gestionamos nuestros procesos y pueda entender las necesidades para el mantenimiento del nivel de servicio. De esta forma nos volvemos “visibles” sin necesidad que ocurra algún incidente. Lo malo es, que debemos hacerlo nosotros, con nuestros recursos, con los mismos que contamos para gestionar esos procesos. Lo peor es, que deben ser convincentes para técnicos que están capacitados para traducir en números toda la empresa, incluyendo a la gente, que somos los gestores de esos procesos, de los cuales tienen poca o ninguna idea. Qué, cómo, cuándo y por qué medir? En muchas ocasiones hemos tratado de convencer a las áreas de auditoría interna lo dificultoso que resulta medir lo que ha-

cemos. Nuestra área de influencia es tan vasta, que es prácticamente imposible de normalizar. Podemos sí, como no, escribir procedimientos para determinadas operativas, documentar controles y medir el tiempo que demoramos en satisfacer los requerimientos de los usuarios. Pero, ¿es eso lo que justifica nuestra existencia en la Organización? A veces me siento como si estuviera vendiendo un seguro de vida. Por más que explico la importancia de lo que hacemos, los auditores quieren que lo pasemos a números. A nadie le importa el costo que pueda tener una mala decisión. Ni siquiera sirven la encuestas internas ya que seguramente no sean “objetivas”. Otro requisito, la objetividad. En realidad los procesos los definimos nosotros, nos los observan en algunos puntos o no, los corregimos y le ponemos un medidor. Parece que ya está. El problema reside en la insistencia en tratar los departamentos de informática como si fueran departamentos administrativos o de mantenimiento. Esto es un error. Y esto no debe tomarse como un menosprecio. Respeto a los técnicos administrativos y de mantenimiento, cuya importancia no es menor, pero a parte de no ser tema de este artículo, no me considero una persona capaz de hacer un análisis serio de su situación en una organización. Los procesos en los que está involucrado cualquier área de infraestructura y soporte de usuarios van desde lo más simple como abrir un archivo en la red hasta lo más complejo como gestionar los servicios que permiten que ese archivo esté disponible. Debido a esa gran variedad de procesos es que se hace muy difícil establecer medidas objetivas. ¿Es correcto concluir que la gestión es buena porque brindamos la respuesta en el tiempo estipulado o prometido?. La respuesta evidente es NO. ¿Cómo medimos entonces la gestión de un área de infraestructura y soporte?. Buscando en Internet alguna pista, nos encontramos con una monografía publicada en http://www.monografias.com/trabajos12/fichagr/fichagr.shtml:

2646


milveinticuatro

2656


milveinticuatro

“Pero, ¿Qué es la Auditoría Informática?. No existen definiciones oficiales sobre la misma, y algunas de las que aparecen en libros o se dan en cursos y seminarios tienen la influencia y criterio personal de su autor, no obstante, a continuación mencionamos las que consideramos más importantes:

De estas definiciones concluimos y coincidimos que si bien el tiempo de respuesta es importante, no es el indicador por excelencia. Creo que es uno de los pocos que se puede medir.

Una definición podría ser la siguiente: “Se entiende por Auditoría Informática una serie de exámenes periódicos o esporádicos de un sistema informático cuya finalidad es analizar y evaluar la planificación, el control, la eficacia, la seguridad, la economía y la adecuación de la infraestructura informática de la empresa”. Ramos González propone la siguiente definición: “La Auditoría Informática comprende la revisión y la evaluación independiente y objetiva, por parte de personas independientes y teóricamente competentes del entorno informático de una entidad, abarcando todo o algunas de sus áreas, los estándares y procedimientos en vigor, su idoneidad y el cumplimiento de éstos, de los objetivos fijados, los contratos y las normas legales aplicables, el grado de satisfacción de usuarios y directivos, los controles existentes y el análisis de riesgos”.

Estos son las etapas que relacionan el negocio con el gobierno de TI. Este concepto se maneja tanto a nivel de ITIL como de COBIT. Es claro lo que debe ser auditado. Más allá del cumplimiento de porcentajes y márgenes de aceptación, están los procesos establecidos por estándares de TI. ¿Los auditores los conocen?

Para Fernando Catacora Carpio, Especialista en Sistemas de Información Gerencial y profesor de esta cátedra en la Universidad Católica Andrés Bello de Caracas, Venezuela “La Auditoría Informática es aquella que tiene como objetivo principal la evaluación de los controles internos en el área de PED (Procesamiento Electrónico de Datos). Otra definición nos indica que la Auditoría Informática es aquella que tiene como objetivos evaluar los controles de la función informática, analizar la eficiencia de los sistemas, verificar el cumplimiento de las políticas y procedimientos de la empresa en este ámbito y revisar que los recursos materiales y humanos de esta área se utilicen eficientemente. El auditor informático debe velar por la correcta utilización de los recursos que la empresa dispone para lograr un eficiente y eficaz Sistema de Información.”

Planificar, implantar, dar soporte, evaluar y volver a planificar

Muchas veces no. Y de nuevo entramos en la importancia de contar con el personal adecuado en calidad y en cantidad. Pero claro, eso implica sumergirnos en temas más escabrosos, que hacen a la forma que es manejado el Capital Humano y la visión de la Alta Dirección de las necesidades planteadas por las áreas de infraestructura y soporte. Más fácil es ponerle número a alguna cosa y concentrarse en el cumplimiento de los porcentajes. Luego de muchas idas y venidas, establecimos algunos indicadores de gestión. Como bien nos enseñaron, son indicadores sobre lo medible, con métodos de medición objetivos. Yo les aseguro que podemos estar al 100% en esos indicadores y la gestión ser un desastre.

2666

Gustavo Testa Administrador de redes



milveinticuatro

si este es tu negocio nunca vas a estar en

milveinticuatro comercial@1024.com.uy



milveinticuatro

¿El enemigo en casa? La tecnología es fabulosa, pero en el seno de la familia y de las parejas es la precursora de falta de comunicación.

L

a informática y los medios de comunicación hoy por hoy ocupan casi todas las áreas del ámbito humano, si bien es cierto que vinieron para instalarse en la sociedad, habría que replantearse cuál es el uso que le damos y el costo que hay que pagar para hacer rutina de ellos. Puede ser una herramienta sumamente útil y de hecho lo es. El hombre moderno utiliza la tecnología para generar cambios y progresos que oscilan entre beneficios personales, científicos y sociales. Pero, ¿qué pasa cuando este beneficio juega un papel amenazador en la vida personal? Hoy en día son muy pocas las casas que no cuentan con una computadora o con un celular, estos medios pasaron a ser un integrante más de la familia, que como toda máquina tiene ventajas y desventajas, dependiendo del buen o el mal uso que se le dé. ¿De qué hablo cuando hablo de mal uso? Son muchos los pacientes que consultan por falta de comunicación; ya sea con los padres, con los hijos o con la pareja. Muchos se preguntaran como puede ser esto cierto, viviendo en la era de la comunicación y de un mundo tan globalizado. La clave de esta falta de lógica reside en el tipo de comunicación que opera en los vínculos humanos. Obviamente que hay hoy más comunicación que hace uno o dos siglos atrás (en segundos puedo saber lo que pasa en Japón, que está pensando un amigo o que va a cenar mi vecina que vive en España, con solo un click) el problema no es la comunicación, sino el tipo de comunicación y cómo repercute el mismo en el psiquismo humano. El ser humano tiene muchas maneras de comunicación y de vincularse con otro. A través de la palabra, de los gestos, de lo sensorial, de lo corporal, de lo visual, de lo olfativo y también a través de lo virtual. La permutación de la comunicación senso-

rial hacia la virtual exclusivamente, es la clave para entender la falta de comunicación. La PC y los medios de comunicación en general, permitieron cambiar la lógica de tiempo y espacio. Pero pueden oficiar de aliados o de enemigos en el seno de nuestro hogar. Son aliados, porque nos permiten comunicarnos con el mundo y con otros seres que están en otro lugar del globo, pero son enemigos con los integrantes que conviven dentro de la casa, si se utilizan con dependencia y como única forma de comunicación Es decir, hoy en día hablamos mucho y no decimos nada, escuchamos mucho y no oímos nada, miramos mucho y no vemos nada. La masividad de información a la que uno está expuesto las 24hs horas del día no permite dedicar tiempo real a escuchar, sentir, hablar con el cuerpo y no con una máquina. Casi todo el tiempo dedicado a la familia, amigos o pareja hoy por hoy, está contaminado por algún tipo de tecnología (celular, computadora, televisión, etc.) Si uno hace una autocrítica y reflexiona de cuánto tiempo dedica a hablar cara a cara sin ninguna tecnología a mano, se daría cuenta que no existe o es casi nula esta situación. A esto me refiero cuando hablo (digo) que no falta comunicación, sino el tipo y la calidad de comunicación es lo que está fallando en el vínculo humano. Desde un “te amo” hasta un anuncio de renuncia puede ser mandada por mail, o por sms. En lo que estamos fallando es en el remplazo comunicacional del presencial corporal al virtual tecnológico (refiriéndome específicamente en el ámbito privado) En todos los espacios del hombre lo que está faltando es la comunicación corporal, visual, verbal real. La tecnología puede facilitar y de hecho lo hace y mucho, de las puertas para afuera del hogar. A la interna del mismo parece ser que opera de manera contraria.

2706


milveinticuatro

2716


milveinticuatro

Son muchas las quejas que existen entre parejas porque uno o ambos integrantes viven con la computadora prendida y sufren una dependencia tal que hasta se comunican por chat dentro de la casa de un ambiente a otro para preguntarse qué hay de comer. Se levantan y chequean mails con una pantalla, en el trabajo usan todo el día una pantalla, llegan a la casa y siguen con un monitor. Terminan viviendo y conviviendo con una pantalla, donde la comunicación cara a cara se limita al saludo con el portero, con la vecina, con el o los compañeros del trabajo y cuando se llega a casa con el saludo inicial de “hola llegué”. Uno se siente comunicado, porque estuvo conectado virtualmente con más de mil personas en todo el día, pero cuando llega a su casa se comunica lo mínimo indispensable, porque estuvo atorado de palabras, mensajes, frases, órdenes y fórmulas virtuales. Lo interesante del asunto, es que a su vez, su hijo llego del colegio y se encerró en su cuarto a navegar por comunicación virtual, su pareja en el living mirando televisión, y usted como para no ser la excepción entra en la misma lógica y prende la máquina. Llegan a consulta padres que no conocen a sus hijos, aunque vivan con ellos. No saben que hacen porque cada uno esta prendido a un sistema tecnológico que los separa. Llegan parejas que no conocen los gustos de cada uno porque no comparten momentos de solo hablar, sin que haya algún celular, televisor prendido o una PC por la vuelta, llamando y desvirtuando la atención. Cualquiera diría que este tipo de situación que planteé anteriormente es exagerada y que no es tan real, pero para su decepción es la realidad de casi la mayoría de hombres y mujeres que hoy por hoy están inmersos en la era de la comunicación.

La tecnología es fabulosa, pero en el seno de la familia y de las parejas es la precursora de falta de comunicación. Con esto no quiero decir que no se debiera usar la tecnología como forma de comunicarse, quiero exaltar que en los vínculos humanos repercute de manera disímil la comunicación virtual que la comunicación personal cara a cara. En el psiquismo se imprime de otra manera la comunicación a través de una palabra (acompañada de una mirada, un gesto o del contacto) Sensaciones y contextos que la computadora o el celular todavía no han podido llegar a equiparar. Si bien puedo hablar y mirar no puedo sentir, percibir y tocar. Otro dato no menor, en la comunicación virtual que descomunica es en relación a las expresiones. A través del uso del chat o del sms uno puede hablar, pero no puede entender en profundidad la acentuación y a veces la efusividad o la intención de lo que se escribe o lee, más allá del uso de signos de exclamación. Es un ejemplo de esto, los malos entendidos virtuales. A veces es más importante cómo se dice algo que lo que se dice en sí mismo. El problema reside en que los contenidos de las charlas con tinte emocional y personal fueron sustituidos por contenidos triviales, impulsados por lo laboral o por los medios de comunicación. La tecnología y la informática vinieron para instalarse y para quedarse, pero intentemos darle la bienvenida como huésped positivo, generador de cambios fructíferos en la vida del hombre y no como un integrante enemigo a nuestra casa.

Lic. Carolina Puentes Licenciada en psicología. Sexóloga clínica 099 38 02 33

2726



Sociales E3 -

Las Vegas

Jiap 2011 -

Intendencia de Montevideo

Playa Valley II Segurinfo -

La Paloma

Hotel Raddisson Victoria Plaza

Cigras 2011 Torre de los profesionales

Python Day - LATU sala de actos


E3

Las Vegas, 2011 14

19

23

15

20

24

16

21

25

17

22

26

18

E

lectronic Entertainment Expo, sin dudas el “evento del año” en la industria de los videojuegos. Los gamers de todo el mundo esperan esta fecha como los niños esperan navidad.

Durante estos días se conocen cuáles serán los juegos y consolas que marcarán tendencia, principalmente en las fiestas de diciembre. En el artículo que encontrarás en esta edición, André Paris te cuenta cómo se vivieron las jornadas en Las Vegas.


1

6

11

2

7

11

3

8

12

4

9

13

5


Jiap 2011

Intendencia de Montevideo 14

19

23

15

20

24

16

21

25

17

22

26

18

N

uevamente, la Asociación de Informáticos del Uruguay – AsIAP – organizó las Jornadas Informáticas JIAP 2011.

Como es habitual, pudimos disfrutar de las varias conferencias de profesionales del medio tecnológico. Si te perdiste alguna conferencia, te invitamos a vivirlas en el sitio de la asociación, www.asiap.org, dónde se encuentran todas las charlas y fotos del evento.


Playa Valley II La Paloma, 2011 1

6

10

2

7

11

3

8

12

4

9

13

5

N

os llevamos una grata sorpresa al asistir a Playa Valley, un evento organizado por la gente de Pinky, www.pinky.com.uy.

Realmente sorprendieron con la propuesta que - según comentaban los asistentes - fue mejor que la primera edición. El balneario creó el entorno ideal para que oradores y asistentes pudiéramos compartir un fin de semana de camaradería. Estamos esperando con ansias el tercer encuentro.


Segurinfo

Hotel Radisson Victoria Plaza, 2011 1

6

10

2

7

11

3

8

12

4

9

13

5

S

e está convirtiendo en un clásico, el evento organizado que la gente de “Usuaria Argentina”.

Al igual que la edición anterior, milveinticuatro estuvo presente con una propuesta original a la que todos los asistentes al evento se acercaron a compartir y competir entre ellos. Si estás en relacionado con el tema de seguridad, esperamos que no te pierdas la próxima edición, mantente informado.


Cigras 2011 Torre de los profesionales 1

6

10

2

7

11

3

8

12

4

9

13

5

U

n evento que sorprendió a todos por igual, a los asistentes por la calidad de oradores nacionales o internacionales que se acercaron, a los organizadores por el poder de convocatoria de un evento que casi triplicaron las expectativas iniciales, teniendo que cambiar el lugar del evento y encontrando en la Sala de Actos del LATU un sitio ideal y con la calidad que el evento requería. Y por último a milveinticuatro, por el profesionalismo de los nuevos profesionales de TI que pudieron exponer sus ideas y proyectos, y a los organizadores, a Marcello, Federico, Raúl, Yesica y Martín mis sinceras felicitaciones.


Python Day

LATU, Sala de Actos, 2011 1

6

10

2

7

11

3

8

12

4

9

13

5

U

n evento que sorprendió a todos por igual, a los asistentes por la calidad de oradores nacionales o internacionales que se acercaron, a los organizadores por el poder de convocatoria de un evento que casi triplicaron las expectativas iniciales, teniendo que cambiar el lugar del evento y encontrando en la Sala de Actos del LATU un sitio ideal y con la calidad que el evento requería. Y por último a milveinticuatro, por el profesionalismo de los nuevos profesionales de TI que pudieron exponer sus ideas y proyectos, y a los organizadores, a Marcello, Federico, Raúl, Yesica y Martín mis sinceras felicitaciones.





Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.