milveinticuatro - Isaac Newton

Page 1




milveinticuatro

Contenido

6

Isaac Newton

12 privacidad visual de la información 20 entrevista: Roddi

6

24 haciendo ruta 32 entrevista: Gonzalo De Azpitarte 42 caso de éxito: Raúl Lamas

32

12

62 24

52 caso de éxito: Daniel García 62 E3 66 el juego de seducir... 74 sociales

Queda prohibida la reproducción no autorizada total o parcial de los textos publicados, ilustraciones y gráficos, o similares, incluidos en esta edición. La dirección de esta publicación no se hace responsable, y no necesariamente se identifica o comparte el contenido u opiniones, en los artículos firmados; los mismos son de propiedad y responsabilidad de los propios autores. Las notas publicadas en este medio no reemplazan la debida instrucción por parte de personas idóneas. La editorial no asume responsabilidad alguna por cualquier consecuencia derivada de la fabricación funcionamiento y /o utilización de los servicios y productos que se describen, analizan o publican. Los nombres de las compañias y los productos que se mencionan pueden ser marcas registradas por sus respectivos propietarios.


Edición Isaac Newton En esta, la cuarta edición de milveinticuatro, desde nuestro modesto punto de vista, hemos recorrido mucho camino. Se nos han abierto muchas puertas, llegamos –edición tras edición- a mucha gente con una revista que apuesta flagrante a la calidad en cada página. Hicimos emocionar a muchos seguidores con las Avant Premier exclusivas, logrando reunir a toda la comunidad informática en un ambiente distendido y ameno, promoviendo la interacción, hoy herramienta de negocios fundamental. Logrando en este camino recorrido, posicionarnos como la mejor revista uruguaya de tecnología, pero siempre, totalmente consientes de que todo esto hubiese sido imposible sin el apoyo de nuestros anunciantes, colaboradores y principalmente todos uds. En esta ocasión, tomamos a Isaac Newton como referente, y en su primera ley o ley de la inercia encontramos una referencia a citar: “Todo cuerpo permanecerá en su estado de reposo o movimiento uniforme y rectilíneo a no ser que sea obligado por fuerzas impresas a cambiar su estado” Al recorrer esta edición, podrán encontrar los diversos enfoques que toman algunas organizaciones y empresas para no permanecer en reposo como menciona la ley de Newton, tratando de romper con ese movimiento uniforme y destacarse del resto. Pudimos asistir y participar en varios eventos, cada uno con un enfoque diferente, INCO e IBM en Punta del Este en una propuesta diferente en cuanto al público y con una calidad a destacar, enfocándose en referentes informáticos a nivel nacional e internacional, Cigras de ISACA con una visión dirigida a la seguridad, Jiap de AsIAP, referente total, con 19 años de antigüedad. Techday de Zonamerica con una interesante apuesta de futuro en un enfoque newbie, el evento de Genexus mostrando junto con sus socios de negocio nuevos productos; y por último un evento internacional para los fanáticos de los juegos: E3 con nuevas tendencias orientada a “gamers”. En varios de estos eventos, en mayor o menor medida se trataron temas como virtualización o Mobile, y es por eso que nos contactamos con referentes vinculados con áreas dónde estos temas pegan fuerte. Abitab sugiriendo virtualización, y BROU con una solución para Mobile, invitándonos a seguir su ejemplo. Con un poco de innovación, otro de visión, mirando al futuro, sumado a otros detalles es que estos referentes nos muestran su propuesta, su forma de no quedarse estancados y apostar a mejorar la calidad y servicio. Isaac Newton fue un adelantado, alguien que peleó por sus ideas, de diferente forma pero con la idea de la apuesta de futuro nos encontramos con alguien que hace muchos años también eligió por un rumbo que a priori no era el más fácil, ahora dirige el rumbo desde la presidencia de IBM Uruguay, nuestro entrevistado principal Gonzalo De Azpitarte. Esperamos disfruten esta edición, y como siempre les deseamos el mejor de los éxitos. Saludos cordiales,

Enrique González

Gabriel Varela

STAFF Dirección Gabriel Varela

gabriel.varela@1024.com.uy

Enrique González enrique.gonzalez@1024.com.uy Diseño y Diagramación Santiago Poggi arte@1024.com.uy Fotografía photos.com - milveinticuatro Arturo Maccio - Víctor Domínguez Impresión Impresora Polo

Colaboradores Eduardo Gómez, Gonzalo Acuña, Gabriel Madoz, Fernando Alvarez, Pablo Miño, Angel Zieleniec, Maxwell Banks, Isaac Newton, Luis Amil, Andre Paris, Carolina Villalba, Diego Vallespir, Agustín Bensusan, Lucas Etcheverry, Felipe Llodrá, Agustín Petinari, Fernando Cristino, Gastón Salaberry.

Comercial comercial@1024.com.uy 094 430555 099 690048

comentarios@1024.com.uy

www.1024.com.uy


milveinticuatro

ISAAC NEWTON es el más grande de los astrónomos ingleses; se destacó también como físico y matemático. Fue un genio al cual debemos el descubrimiento de la ley de gravitación universal, que es una de las piedras angulares de la ciencia moderna. Fue uno de los inventores del cálculo diferencial e integral. Estableció las leyes de la mecánica clásica, y partiendo de la ley de gravitación universal. Construyó el primer telescopio de reflexión. Sus obras más importantes publicadas son la Optica, en la que explica sus teorías sobre la luz, y la obra monumental Philosophiae Naturalis Principia Mathematica, en la cual expone los fundamentos matemáticos del universo.


milveinticuatro

Isaac Newton Físico, filósofo, teólogo, inventor, alquimista y matemático inglés, describió la ley de gravitación universal y estableció las bases de la mecánica clásica mediante las leyes que llevan su nombre.

N

ació el 4 de enero de 1643 en Woolsthorpe, Lincolnshire, Inglaterra, hijo de Isaac Newton y Hannah Ayscough, dos campesinos puritanos. No llegó a conocer a su padre, pues había muerto en octubre de 1642. Cuando su madre volvió a casarse, lo dejó a cargo de su abuela, con quien vivió hasta la muerte de su padrastro en 1653. Realizó sus estudios en The King’s School, Grantham. A los dieciocho años ingresó en la Universidad de Cambridge para continuar sus estudios. Se graduó en el Trinity College como un estudiante mediocre debido a su formación principalmente autodidacta.

En 1693 sufrió una gran crisis psicológica, causante de largos periodos en los que permaneció aislado. En esta época sufrió depresión y arranques de paranoia. Algunos historiadores creen que la crisis fue causada por la ruptura de su relación con su discípulo Nicolás Fatio de Duillier; la mayoría, sin embargo, opina que en esta época se había envenenado al hacer sus experimentos alquímicos. Después de escribir los Principia abandonó Cambridge mudándose a Londres donde ocupó diferentes puestos públicos de prestigio siendo nombrado Preboste del Rey, magistrado de Charterhouse y director de la Casa de Moneda.

En 1663 conoció a Isaac Barrow, quien le dio clase como su primer profesor Lucasiano de matemática.

Retirado con su familia durante los años 1665-1666, conoció un período muy intenso de descubrimientos, entre los que destaca la ley del inverso del cuadrado de la gravitación, su desarrollo de las bases de la mecánica clásica, la formalización del método de fluxiones y la generalización del teorema del binomio, poniendo además de manifiesto la naturaleza física de los colores. Sin embargo, guardaría silencio durante mucho tiempo sobre sus descubrimientos ante el temor a las críticas y el robo de sus ideas. En 1667 reanudó sus estudios en Cambridge.

En esta época la geometría y la óptica ya tenían un papel esencial en su vida. Fue en este momento en que su fama comenzó a crecer ya que inició una correspondencia con la Royal Society. Newton les envió algunos de sus descubrimientos y un telescopio que suscitó un gran interés de los miembros de la Sociedad, aunque también las críticas de algunos de sus miembros, principalmente Robert Hooke. Esto fue el comienzo de una de las muchas disputas que tuvo en su carrera científica. Se considera que fue agresivo ante sus contrincantes –principalmente- Hooke, Leibniz y, en lo religioso, la Iglesia de Roma. Como presidente de la Royal Society, fue descrito como un dictador cruel, vengativo y busca-pleitos. Sin embargo, fue una carta de Hooke, en la que éste comentaba sus ideas intuitivas acerca de la gravedad, la que hizo que iniciara de lleno sus estudios sobre la mecánica y la gravedad. Newton resolvió el problema con el que Hooke no había podido y sus resultados los escribió en lo que muchos científicos creen que es el libro más importante de la historia de la ciencia, el Philosophiae naturalis principia mathematica.

De 1667 a 1669 emprendió investigaciones sobre óptica y fue elegido fellow del Trinity College. En 1669 envió a Luis Zeus, su “Analysis per aequationes número terminorum infinitos”. Para Newton, este manuscrito representa la introducción a un potente método general, que desarrollaría más tarde: su cálculo diferencial e integral. Newton había descubierto los principios de su cálculo diferencial e integral hacia 1665-1666 y, durante el decenio siguiente, elaboró al menos tres enfoques diferentes de su nuevo análisis. Newton y Leibniz protagonizaron una agria polémica sobre la autoría del desarrollo de esta rama de la matemática. Los his-

1073


milveinticuatro

toriadores de la ciencia consideran que ambos desarrollaron el cálculo independientemente, si bien la notación de Leibniz era mejor y la formulación de Newton se aplicaba mejor a problemas prácticos. Después de 1666, abandonó sus trabajos matemáticos sintiéndose interesado cada vez más por el estudio de la naturaleza y la creación de sus Principia.

Entre 1670 y 1672 trabajó intensamente en problemas relacionados con la óptica y la naturaleza de la luz. Demostró que la luz blanca estaba formada por una banda de colores (rojo, naranja, amarillo, verde, cian, azul y violeta) que podían separarse por medio de un prisma. Como consecuencia de estos trabajos concluyó que cualquier telescopio refractor sufriría de un tipo de aberración conocida en la actualidad como aberración cromática que consiste en la dispersión de la luz en diferentes colores al atravesar una lente. Para evitar este problema inventó un telescopio reflector (conocido como telescopio newtoniano). Sus experimentos sobre la naturaleza de la luz le llevaron a formular su teoría general sobre la misma que, según él, está formada por corpúsculos y se propaga en línea recta y no por medio de ondas. El libro en que expuso esta teoría fue severamente criticado por la mayor parte de sus contemporáneos, y provocaron su retiró a la soledad de su estudio en Cambridge. En 1704 escribió su obra más importante sobre óptica, Opticks, en la que exponía sus teorías anteriores y la naturaleza corpuscular de la luz, así como un estudio detallado sobre fenómenos como la refracción, la reflexión y la dispersión de la luz. Aunque sus ideas acerca de la naturaleza corpuscular de la luz pronto fueron desacreditadas en favor de la teoría ondulatoria, los científicos actuales han llegado a la conclusión que la luz tiene una naturaleza dual: es onda y corpúsculo al mismo tiempo. Esta es la base en la cual se apoya toda la mecánica cuántica.

La ley de gravitación universal Bernard Cohen afirma que “El momento culminante de la Revolución científica fue el descubrimiento realizado por Isaac Newton de la ley de la gravitación universal.” Con una simple ley, dio a entender los fenómenos físicos más importantes del universo observable, explicando las tres leyes de Kepler.

Portada de “Philosophiae naturalis principia mathematica” Considerada la obra científica más importante jamás publicada

En 1684 informó que había resuelto el problema de la fuerza inversamente proporcional al cuadrado de la distancia. Redactó estos cálculos en el tratado De Motu y los desarrolló en el libro Philosophiae naturalis principia mathematica.

1083



milveinticuatro

La ley de gravitación universal nació en 1685 como culminación de una serie de estudios y trabajos iniciados mucho antes. La gravitación universal es mucho más que una fuerza dirigida hacia el Sol. Es también un efecto de los planetas sobre el Sol y sobre todos los objetos del Universo. Intuyó que a partir de su tercera ley de la dinámica que si un objeto atrae a un segundo objeto, este segundo también atrae al primero con la misma fuerza. Se percató que el movimiento de los cuerpos celestes no podía ser regular. Afirmó: “los planetas ni se mueven exactamente en elipses, ni giran dos veces según la misma órbita”. Las leyes de la Dinámica Artículo principal: Leyes de Newton Otro de los temas tratados en los Principia fueron las tres leyes de la Dinámica o Leyes de Newton, en las que explicaba el movimiento de los cuerpos así como sus efectos y causas. Éstas son: réplica del telescopio de Newton

La primera ley de Newton o ley de la inercia “Todo cuerpo permanecerá en su estado de reposo o movimiento uniforme y rectilíneo a no ser que sea obligado por fuerzas impresas a cambiar su estado” En esta ley, Newton afirma que un cuerpo sobre el que no actúan fuerzas extrañas (o las que actúan se anulan entre sí) permanecerá en reposo o moviéndose a velocidad constante. Esta idea, que ya había sido enunciada por Descartes y Galileo, suponía romper con la física aristotélica, según la cual un cuerpo sólo se mantenía en movimiento mientras actuara una fuerza sobre él.

Esta ley explica las condiciones necesarias para modificar el estado de movimiento o reposo de un cuerpo. Estas modificaciones sólo tienen lugar si se produce una interacción entre dos cuerpos, entrando o no en contacto (por ejemplo, la gravedad actúa sin que haya contacto físico). Según la segunda ley, las interacciones producen variaciones en el momento lineal, a razón de

La tercera ley de Newton o ley de acción-reacción “Con toda acción ocurre siempre una reacción igual y contraria; las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en sentidos opuestos”

La segunda ley de Newton o ley de la interacción y la fuerza “El cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime”

Esta ley se refleja constantemente en la naturaleza: la sensación de dolor que se siente al golpear una mesa, puesto que la mesa ejerce una fuerza sobre ti con la misma intensidad; el impulso

1103


milveinticuatro

que consigue un nadador al ejercer una fuerza sobre el borde de la piscina, siendo la fuerza que le impulsa la reacción a la fuerza que él ha ejercido previamente...

Alquimia Newton dedicó muchos esfuerzos al estudio de la alquimia. Escribió más de un millón de palabras sobre este tema, algo que tardó en saberse ya que la alquimia era ilegal en aquella época. Como alquimista, Newton firmó sus trabajos como Jeova Sanctus Unus, que se interpreta como un lema anti-trinitario: Jehová único santo, siendo además un anagrama del nombre latinizado de Isaac Newton, Isaacus Neuutonus - Ieova Sanctus Unus. Muchos historiadores consideran su uso de remedios alquímicos como la fuente de numerosos envenenamientos que le produjeron crisis nerviosas durante gran parte de su vida. Vivió, sin embargo, 84 años.

Cuando regresó a Cambridge inició su correspondencia con el filósofo John Locke. Tuvo la confianza de confesarle sus opiniones acerca de la Trinidad y Locke le incitó a que continuara con sus manuscritos teológicos. Entre sus obras teológicas, algunas de las más conocidas son An Historical Account of Two Notable Corruption of Scriptures, Chronology of Ancient Kingdoms Atended y Observations upon the Prophecies.

Últimos años Los últimos años de su vida se vieron ensombrecidos por acusaciones mutuas con Leibniz de plagio, secretos disimulados en criptogramas, cartas anónimas, tratados inéditos, y muchos más, que sólo terminaron con la muerte de Leibniz en 1716. Padeció durante sus últimos años diversos problemas renales, incluyendo atroces cólicos nefríticos, sufriendo uno de los cuales moriría -tras muchas horas de delirio- la noche del 31 de marzo de 1727 (calendario gregoriano). Fue enterrado en la abadía de Westminster junto a los grandes hombres de Inglaterra.

Teología Newton fue profundamente religioso toda su vida. Dedicó más tiempo al estudio de la Biblia que al de la ciencia. Un análisis de todo lo que escribió Newton revela que de unas 3.600.000 palabras solo 1.000.000 se dedicaron a las ciencias, mientras que unas 1.400.000 tuvieron que ver con teología. Newton era arrianista y creía en un único Dios, Dios Padre. En cuanto a los trinitarios, creía que habían cometido un fraude a las Sagradas Escrituras y acusó a la Iglesia de Roma de ser la bestia del Apocalipsis. Por estos motivos se entiende por qué eligió firmar sus más secretos manuscritos alquímicos como Jehová Sanctus Unus: Jehová Único Dios. Relacionó sus estudios teológicos con los alquímicos y creía que Moisés había sido un alquimista. Su ideología antitrinitaria le causó problemas, ya que estudiaba en el Trinity College en donde estaba obligado a sostener la doctrina de la Trinidad. Viajó a Londres para pedirle al rey Carlos II que lo dispensara de tomar las órdenes sagradas y su solicitud le fue concedida. Fuente: www.wikipedia.com

1113


milveinticuatro

Privacidad visual de la información Cualquier enfoque profundo para salvaguardar datos debe incluir la protección de datos que se muestra en una pantalla.

Q

ue el gobierno sea quien resguarde el derecho a la protección de datos personales es una expectativa básica por parte de los ciudadanos, como así también una herramienta de vital importancia a fin de crear las condiciones adecuadas para que pueda desarrollarse con prosperidad la Sociedad de la Información y la posición competitiva de un país en el concierto internacional.

y el cifrado de datos en el propio dispositivo, es igualmente importante proteger a estos dispositivos de la vista de personas no autorizadas mientras se usan en espacios públicos.

Durante los últimos años, la ola de nuevas normas de seguridad y los ataques cada vez más sofisticados, han puesto en relieve la necesidad de proteger los datos sensibles y clasificados en todo momento, mientras se almacenan, transmiten y visualizan. Gran parte de este esfuerzo de protección se ha centrado en las áreas de almacenamiento de datos y transmisión, sin considerar la protección visual, es decir, la protección de los datos que se muestran en una pantalla, para que sólo sea vista por la persona que se encuentra frente a la información y evitar que sea vista por otras personas.

- La creciente digitalización de la información sensible: La demanda de acceso en tiempo real a la información orientada a las decisiones en la seguridad, socorristas médicos, controles policiales y otras áreas importantes de gobierno han acelerado la digitalización de la información sensible. Si bien se han hecho esfuerzos para mejorar los controles de acceso de esta información, se ha incrementado el riesgo de que el incumplimiento de la protección de datos se produzca visualmente mientras se muestra y se utiliza dicha información.

Algunos controles de seguridad de los datos se han adoptado ampliamente por los distintos gobiernos alrededor del mundo durante los últimos años, como la encriptación completa de disco para laptos y el uso de túneles encriptación para transmitir la información (SSL, VPN etc.) Estas tecnologías ayudan a proteger el almacenamiento y transmisión de datos. Sin embargo, todavía hay un riesgo significativo de exposición cada vez que los datos sensibles se está mostrando en una laptop, monitor de escritorio o dispositivo móvil. Estos dispositivos deberían ser protegidos de la consulta no autorizada utilizando los controles como los filtros de privacidad. Esta protección visual es esencial cuando se trabaja en un lugar público y en un espacio de manejo de información crítica de ser resguardada, como un banco, instituciones de salud, entre otros. La explosion de teléfonos inteligentes y otros dispositivos móviles, con acceso a información sensible y clasificada, han alcanzo niveles importantes en área de gobierno, salud, bancos, hoteles, entre otros. Si bien si invierte mucho tiempo y energía en asegurar la infraestructura de red detrás de estos dispositivos

La necesidad de proteger los datos de la vulnerabilidad visual se ha incrementado dramáticamente en los últimos años, considerando:

- Conocimiento de los ciudadanos sobre el derecho a la protección de sus datos personales: La normativa vigente en la varios países reconoce y explicita el derecho a la privacidad y protección de datos personales como un derecho fundamental, ofreciendo herramientas claras de denuncia a las personas que tienen razones para creer que sus datos fueron expuestos o usados por terceras partes no autorizadas. Una vía de pérdida de datos que hay que proteger es la información que se muestra en las pantallas de las personas que manejan bases de datos registradas. - Facilidad de capturar la información de la pantalla: La capacidad de capturar información de una pantalla en forma discreta con un teléfono con cámara ha aumentado considerablemente. De hecho, según una encuesta reciente, más del 60% de los hogares de EE.UU. tienen ahora al menos un teléfono con cámara. Ello significa que la utilización de un teléfono con cámara en un lugar público para captar imágenes de una pantalla en forma discreta facilita significativamente el robo de información. Este crecimiento en el acceso a los avances tecnológicos ha hecho

1123



milveinticuatro

Para más información visite: http://www.3Mprivacyfilter.com

que la defensa de la información sensible o clasificada que se muestra en las pantallas sea un elemento esencial de protección de datos. En general, agregar controles de seguridad por lo general implica la reducción del uso, rendimiento y/o eficiencia. Por el contrario, los filtros de privacidad ayudan a reducir el riesgo de manera continua de miradas intrusas. Además, ayudan a los organismos y empresas a brindar una mayor flexibilidad a la posición de las PCs y la forma en que permiten a los empleados a trabajar fuera de los espacios protegidos. Cualquier enfoque profundo para salvaguardar datos debe incluir la protección de datos que se muestra en una pantalla. Los

atacantes ponen sistemáticamente de manifiesto su capacidad de innovar para recopilar información. La información clasificada en poder de organismos públicos y empresas es un objetivo prioritario. La adición de filtros de privacidad es un accesorio crítico para proteger los datos de observadores no autorizados. Los filtros de privacidad, como los de 3M, efectivamente bloquean la vista exterior y puede ayudar a las agencias gubernamentales, empresas y responsables del manejo de bases de datos registradas a reducir el riesgo de exponer los datos sensibles que se han confiado. 3M es líder en protección de la privacidad, ofreciendo una amplia gama de productos de filtro de privacidad que protegen a las laptos, PCs, teléfonos móviles y otros dispositivos electrónicos.

1143



milveinticuatro

Seguro no pasa nada, es sólo un click Si tomas riesgos, podrías fallar. Pero si no tomas riesgos, seguramente fallarás. El riesgo mayor de todos es no hacer nada. Roberto Goizueta (1932-1997, Director General de Coca-Cola Company)

L

a Administración del Riesgo Empresarial (Enterprise Risk Management-ERM) es el proceso en el que una organización administra el amplio espectro de los riesgos a los cuales está expuesto de acuerdo al nivel de riesgo al cual están dispuestos a exponerse según sus objetivos estratégicos. En TI, la evaluación de riesgos y vulnerabilidades ayuda a identificar y evaluar los riesgos operativos, poniendo énfasis en los activos físicos y lógicos. En algunos casos, cuando aparece un riesgo no cubierto debidamente, se debe recurrir a profesionales de TI, generalmente éstos técnicos cuentan con una basta experiencia que los hace superhéroes cuando vienen a darnos una mano o a apagar un incendio, los años los hicieron casi invencibles y por eso, quiénes mejor que ellos para ayudarnos con esta pregunta.

¿Los profesionales de empresas uruguayas se preocupan por los riesgos asociados a la tecnología? Y actúan en consecuencia?

1163


milveinticuatro

Lic. Gabriel Pablo Madoz MCSE, MCSA, Cisco IP TS, Trend CSE, GSE, CNA

P

ara los que trabajamos en informática y mas aún en seguridad ha sido un tema histórico concientizar a los administradores de red de nuestros clientes, que dentro y más allá del perímetro de sus empresas existe un mundo latente de amenazas que en cuestión de segundos pueden dejar inoperable a toda una organización. Hace ya varios años hasta a nosotros nos costaba dimensionar mentalmente el significado de esto; ataques de denegación de servicio, robo de información confidencial e inclusive millones de amenazas liberadas por SEGUNDO….es a lo que nos enfrentamos día a día.

Por eso la recomendación que damos en particular desde la empresa que trabajo es que la seguridad debe estar dada a todo nivel y eso significa desde configurar apropiadamente dispositivos de red hasta la educación a los usuarios finales y que no pase como sigue sucediendo que investigando una infección en la red de un cliente nos topamos por ej con la secretaría de la empresa que nos pide que no cerremos la ventana de una aplicación p2p que alguien de “onda” le instaló en su equipo para descargar música.

Generalmente las empresas no están preparadas para estos desafíos, es todavía difícil encontrar divisiones dedicadas exclusivamente a la seguridad informática y menos contar con Administradores que tengan la esta disciplina como uno de sus tareas prioritarias. Esto se arrastra desde el pasado donde más de una vez los comentarios que nos llegaban eran: “A mi esto nunca me va a pasar…” o algo del estilo “yo tengo antivirus en los pcs y estoy cubierto de TODO”, desconociendo absolutamente que pueden haber brechas de seguridad desde el Gateway hasta la falta del último parche que liberó Microsoft. Hoy por hoy estamos tomando más conciencia de la importancia que tienen estos temas pero lamentablemente a partir de hechos terribles como ser por ej una de las epidemias mayores a nivel mundial como fue el caso del “worm_downad” con todas sus variantes o del “conficker” que barrió literalmente servidores y pcs en grandes compañías llegando a tener que formatearlos y ese hecho incluyó también a nuestro país.

1173


milveinticuatro

Ing. Fernando E. Alvarez Noya CCDA, CCNA, CNE, MCSE

E

n mi trayectoria como soporte y al recomendar soluciones a clientes he sufrido un cambio en como percibía los riesgos al principio de mi carrera profesional. Al principio riesgos era sinónimo de algo malo, peligroso e innombrable, con el devenir de los tiempos y también quizás al haber ido ganando experiencia podría decir que los riesgos y yo somos muy amigos, casi íntimos. La razón es que yo veo ahora a los riesgos como oportunidades de mejora de las soluciones, también como oportunidades de negocio, es más muchas veces adoctrino a mis clientes para que tomen esta misma percepción de los riesgos. Que he ganado a través de los años al comenzar a encarar los riesgos de esta manera? Pues mucho más de lo que habría sucedido si viera a los riesgos como algo muy negativo y devastador. Al no ser algo que ya me aterrorice, los puedo nombrar, los puedo categorizar e incluso los puedo escribir en una propuesta haciéndosela llegar al cliente y que el cliente se encuentre no solamente satisfecho sino que comparta mi visión y por sobre todo que sea mi socio en el negocio para mitigar o desvanecer dichos riesgos, establecemos una relación de mutua confianza y el balance al final es positivo con saldo a favor para ambos, nunca mejor aplicada la frase “ganar – ganar”! Así que los invito a todos a tomar este riesgo (valga la redundancia) y se atrevan a comenzar a realizar el ejercicio de verlos con otros ojos y aprovecharlos al máximo, ya lo dijo Antoine Lavoiser “nada se destruye, todo se transforma”. Pues entonces no destruyamos los riesgos, es algo que siempre va a estar presente así que la tarea sería imposible, pero sí transformarlos en algo que nos otorgue valor, algo que podamos ofrecer a nuestros clientes y de esta manera no solamente tendremos un conocimiento más cabal de nuestras soluciones sino que comenzaremos a crecer profesionalmente hacia niveles que quizás antes no vislumbrábamos. Ya lo saben, si quieren tomar el riesgo pueden encontrarme en LinkedIn


milveinticuatro

Pablo Miño CISSP & CEH

P

or mi trabajo tomo contacto con muchas personas y la verdad es que hay de todo un poco, el espectro comienza en el incrédulo y va hasta el paranoico. Algunos profesionales tienen el pensamiento “¿Y a mí quién me va a atacar?”. Recientemente escuché de un caso en el que pensando de esta forma no se tomaron las medidas de seguridad apropiadas para el servidor de correos electrónicos y fue usado como trampolín para lanzar un ataque de Spam desde Asia. El resultado fue de terror, el dominio atrapado en varias listas negras, sin poder hacer uso legítimo de su principal herramienta de trabajo, y el negocio casi detenido. En este caso no se consideró seriamente los riesgos asociado al correo electrónico. La seguridad de la información se basa en tres pilares: Confidencialidad, Integridad y Disponibilidad. Un ataque puede ser a cualquiera de los tres, ya sea desde adentro o desde fuera. En el caso anterior no se trataba de un hacker tratando de acceder a información sensible de la empresa sino que se comprometió la disponibilidad de un servicio crítico para el negocio. Otros profesionales tienen un pensamiento del tipo “tengo casco, no me van a matar” pero lo que no saben es que están en la playa de Normandía en el día D. Muchas veces se piensa que con el antivirus basta o con el firewall alcanza, y la realidad dista mucho de eso. Las amenazas están presentes en todas las dimensiones del negocio y debe haber controles en todas ellas, incluso es mejor que haya dos o más controles encadenados, haciendo más dificil que se produzcan incidentes. Toda tecnología que se necesite implementar en la empresa introduce un nuevo vector de ataque y basta con descuidar sólo uno para que toda la empresa sea vulnerable. Con respecto a los controles de seguridad, es cierto que el antivirus es necesario y que el firewall no debe faltar en la red pero lo que más hace falta es que se administren con cuidado, con criterio y que se apliquen buenas prácticas y si se encuentran con dudas es mejor consultar a un especialista, es como con nuestros hijos, nadie le da un medicamento a su hijo si tiene dudas. Pero no todo es malo ya que existen profesionales con mucha conciencia y que trabajan proactivamente en sus empresas para prevenir hasta el menor de los problemas, muchos de estos profesionales, con sus necesidades e inquietudes, forman la fuerza motriz del mercado.


milveinticuatro

entrevista

Roddi, seriedad y responsabilidad Comenz贸 con una oficina m贸vil en un Chevette en 1984, y con una permanencia ininterrumpida en el mercado tecnol贸gico, cubriendo requerimientos de software, hardware y soluciones de multimedia en grandes empresas.

Nelson Otero, Director de la empresa Roddi

1203


milveinticuatro

¿Cómo fueron los comienzos de la empresa? Nuestra empresa se inicia en el año 1984, nos trasladábamos en un Chevette que hacia de oficina móvil y reparto de cientos de cintas impresoras y diskettes que por aquellos años era lo que más se vendía, y a raíz de que no había buen servicio en ese rubro decidimos instalarnos en la que fue nuestra primer oficina con atención al público en la calle Zabala.. Recuerdo que hasta comíamos en el auto dado que era demasiado el trabajo para una estructura tan pequeña. Todavía tengo en la memoria los diskettes de 8” 32 sectores single side o double side , después los de 5 ¼ ds dd, y ds hd . ¿Representaban alguna marca? No representábamos ninguna marca en especial, si desarrollamos con una empresa amiga la soldadura electrónica de las cintas para impresoras matrices que fue todo un invento ! Antes se hacia una costura que daba más problemas que soluciones. Diskettes Athana y 3m eran los que vendíamos y con el correr de los años nos quedamos con el stock de 3m Uruguay en medios magnéticos y pasamos a ser el representante oficial en ese rubro. En el año 1995 pasamos a ser representantes de la marca “Proxima” de proyectores, tarea que desarrollamos hasta estos días con éxito importante. Una anécdota que recuerdo es con un cliente que nos compro un proyector “Proxima”, de los primeros cañones, con el peso de un verdadero cañón, con la valija incluida rondaba los 20 kilos y este amigo lo paseó durante un viaje a Francia y quedo muerto por el peso que llevaba, a su regreso le ofrecí uno nuevo que pesaba 2 kilos…te imaginas lo que me dijo !!! Ahora es otra cosa, el tema de los proyectores mejoró en todo sentido. Realmente la tecnología avanzó, y ya tenemos proyectores con excelente potencia, calidad de imagen y portabilidad a costos accesibles.

Además el negocio ha cambiado, hay proyectores que caben en la palma de una mano, que pesan pocos gramos y con una interesante autonomía. ¿Y el comienzo con las computadoras personales? En materia de pcs comenzamos en una época donde un computadora Epson Equity I estaba en el entorno de U$S 3.000, aquellas famosas computadoras que comenzaron por el 85, con tecnología de INTEL 8088, con una o dos disqueteras 5 ¼, con video CGA y pantalla verde. En aquel momento, Epson que ya tenía experiencia en las impresoras de punto comenzaba con las computadoras personales. Para la época eran espectaculares y si tenías dos disqueteras, wow. Después vinieron las 80x86 y tener un mega de memoria RAM ya eras de otro mundo. Pero parece mentira que desde esa época aún se usan las impresoras matriciales como la Epson LX810, la FX286 o MX100 que son de carro ancho. ¿Hay muchas impresoras de aquella época? Si, quedan muchas, algunas vendidas por nosotros, otras no, pero todavía les hacemos el mantenimiento y siguen funcionando como el primer día. Y eso con las impresoras, pero las computadoras de aquella época todavía funcionan, tenemos las que usábamos en la oficina y si las enchufás… andan !! Pero tienen una marca de PC… Nuestra marca de PC es “LEND” registrada hace casi 20 años, hoy se venden diversas configuraciones a gusto del cliente, pero en lo que hacemos hincapié es en que cada venta de equipo cuenta con un asesoramiento por parte de nuestros vendedores y técnicos y además el respaldo de tantos años donde la permanencia nos da un plus a favor.

1213


milveinticuatro

Pero una fortaleza es el tema multimedia Si, hoy uno de los puntos importantes de nuestra empresa es el desarrollo y diseño de salas multimedia , tenemos una lista muy importante de clientes estatales y privados que avalan nuestro servicio. Es muy fácil para un retail vender o despachar una caja y en ese sentido nosotros brindamos un servicio pre venta de demostración del producto y post venta de respaldo y garantía, debemos ser los únicos que cuenta con equipos de back up si se rompe el adquirido por un cliente. No todas son iguales, hay que definir modelos de equipos para cada situación, así como mediciones de distancias , alturas y demás para lograr una calidad de visión y otro tanto con el audio donde el sonido debe llegar a cubrir todo el ámbito sin distorsiones y con buena fidelidad..

Estamos contentos con el lugar que ocupamos en el mercado, tenemos una antigüedad respetable en un rubro que día a día surge más competencia y desaparece en un corto plazo. Un valor que reconocen nuestros clientes es la responsabilidad y seriedad que tiene la empresa; y la permanencia con el pasar del tiempo. Esto es lo que muchas veces critico a proveedores del rubro, la poca diferenciación que tienen para quienes mostramos constancia en el rubro, y -de cierta forma- haciéndonos vulnerables en negocios enfrentándonos con nuevas empresas gaviotas sin antecedentes y que desaparecen al menor reclamo o problema. Esas empresas que supuestamente vienen para quedarse y desaparecen en corto plazo, falta de seriedad que termina quemando la plaza. En 25 años de trayectoria hay para contar mucho más, espero no haberlos aburrido y en próximos números estaremos con más anécdotas. Hasta pronto!!

Cubrimos las aspiraciones de un amplio espectro de clientes, como estatales, corporativo y particulares, como yo digo siempre… la mejor propaganda es el boca a boca… uno te recomienda a alguien para adquirir equipamiento, y este si queda conforme a otro y así sucesivamente. También vendemos televisores de papel ! Un día pasa un amigo y ve una retro proyección y me pregunta cuánto sale ese papel… ese papel especial… nooo es un papel común y corriente blanco... la virtud es del proyector que permite proyectar en un papel con muy buena calidad.

¿Y cómo es el departamento técnico? Nuestro departamento técnico cuenta con personal que se preparó y recibió cursos de capacitación de proyectores Proxima en Estados Unidos, Epson Argentina y Chile, y HP en Argentina…y a nivel local estamos siempre agiornándonos con los últimos avances tecnológicos tanto en hardware como software. Reparamos todo tipo de impresoras láser y chorro de tinta, matriciales, notebook, equipos de mesa, proyectores, etc.

1223



milveinticuatro

Haciendo Ruta Al final descubrimos que podía ser algo tan sencillo como unir dos redes con cierta capacidad de acción, personalizada hasta donde las bondades del kernel utilizado nos lo permitieran.

S

i bien el título del artículo nos parece familiar a todos, a nivel informático, la tarea de hacer un router usando el paquete iproute no es una actividad muy popular por lo que pudimos notar al interactuar con distintos colegas del medio o simplemente muchos administradores no se molestan con este tipo de complicaciones. Por tal motivo no tuvimos la suerte de encontrarnos con la persona indicada que nos evite la famosa curva de aprendizaje a la hora de implementar un router en Linux. Al final descubrimos que podía ser algo tan sencillo como unir dos redes con cierta capacidad de acción, personalizada hasta donde las bondades del kernel utilizado nos lo permitieran. Un administrador de sistemas o técnico en un Data Center, se preguntará para que, si solo basta con equilibrar los requerimientos a un costo razonable y tenemos una “cajita” que nos resuelve el problema y listo. En nuestro caso, el tema fue un poco más allá, cuando la cajita en cuestión empieza a aumentar de precio acorde a la solución que precisamos implementar, encontrando que la misma ya no resulta tan accesible o tenemos que amoldar nuestros requerimientos a ella para llegar a un punto intermedio en donde una parte es la que nos sirve y el resto lo solucionamos aleatoriamente. Por tal motivo “bajamos a tierra” las tablas de ruteo, incluimos en la misma bolsa “algo” de seguridad, un poco de calidad de servicio y obtuvimos como resultado uno de esos tantos “fierritos” que nos mantiene personalmente contentos a la hora de hablar de ellos. Si bien una vez familiarizados con la herramienta (léase el paquete iproute) las capacidades de la misma dan una movilidad realmente asombrosa, sobre todo a la hora de segmentar la red, seleccionando grupos de usuarios acordes a prioridades o privilegios definidos, realizar un minucioso control de tráfico con cierta prioridad dependiendo del servicio utilizado, etc. Realmente las facilidades de iproute fueron las que nos llevaron a escribir este artículo.

Ahora un caso de uso A modo de ejemplo y como suponemos que todo es mayormente sustentable con un caso extraído de la realidad, vamos a describir uno de los que experimentamos hace tiempo. El mismo data de la época donde tuvieron auge los cibercafés, si, tampoco escapamos al “negocio de moda”, por tal motivo nos embarcamos en un ciber con el adicional de agencia de telefonía (al igual que la época de los videoclubes), lo cual para esa época era toda una “pegada” (de haberlo sabido antes. . .). Y bien, fieles a nuestros orígenes (con las disculpas de MS-DOS), de mantener una solución de software libre, decidimos implementar el mismo completamente bajo plataforma GNU/Linux. Por tal motivo el escenario con el que contábamos, eran unos doce PIII, con no más de 512 MB de RAM, un proxy un poco más potente y un servicio de ADSL con IP dinámica. A nivel de cliente, (por más que nos cuesta un poco reconocerlo) debemos decir que respecto a las bondades del OpenOffice y el automontado de dispositivos, la experiencia no fue del todo la esperada, por tal motivo recurrimos a software propietario, las razones, deben ser por un simple tema de costumbre y sobre todo para no tomar de rehén al público que buscaba una simple conexión barata . Ahora, a nivel de servidor, debemos resaltar que logramos implementar una solución bastante robusta la cual daba al servicio de ADSL un valor agregado a la hora de descargar videos y música, sin alterar el normal funcionamiento del resto de los usuarios de internet, ¿cómo logramos esto?, simplemente “ marcando” paquetes y “tocando” tablas de ruteo. Picando código Supongamos que tenemos disponible un servicio P2P (Peer-ToPeer), donde básicamente catalogamos este tipo de programas (o al menos los de mayor uso), a los efectos de tener un control sobre el consumo de ancho de banda total. La idea fue marcar de una manera todo el tráfico conocido y el resto de otra. A esta última marca aplicarle cota superior e inferior para enlen-

1243


tecer así el consumo. Si bien para algunos puede parecer un tanto “arbitrario” a la hora de controlar la red, a los efectos de disponer de un “justo” ancho de banda para cada equipo, fue todo un éxito. A continuación explicamos a grandes rasgos un esquema de solución empleada.

# Luego marcamos los paquetes utilizando la tabla mangle de iptables. /sbin/iptables -t mangle -A FORWARD -s 10.0.0.0/24 -p tcp --dport $GRUPOP1 -j MARK --set-mark 1

#Comenzamos definiendo algunas variables # Puertos básicos o bien conocidos. GRUPOP1=22:1024 # Puertos usados por el servicio P2P. GRUPOP2=X:X # Ancho de banda máximo de la conexión a Internet para cada grupo, por ejemplo siendo totalmente arbitrarios definimos. BANDA_MAX=3072kbps BANDA_10_MIN=80kbps BANDA_10_MAX=1300kbps BANDA_20_MIN=10kbps BANDA_20_MAX=50kbps

# Para el caso de los P2P /sbin/iptables -t mangle -A FORWARD -s 10.0.0.0/24 –dport $GRUPO2 -j MARK --set-mark 2

# Definimos la banda principal root, soporte de nuestra estructura. /sbin/tc qdisc add dev eth0 root handle 1: htb # Definimos banda hija de root a los efectos de asociarlas a la primera. /sbin/tc class add dev eth0 parent 1: classid 1:1 htb rate $BANDA_MAX ceil $BANDA_MAX # Luego definimos 1 banda para cada tipo de tráfico. # Ejemplo banda 10 para los servicios principales (web, correo, etc). /sbin/tc class add dev eth0 parent 1:1 classid 1:10 htb rate $BANDA_10_MIN ceil $BANDA_MAX # Ejemplo banda 20 para el resto de los servicios (P2P). /sbin/tc class add dev eth0 parent 1:1 classid 1:20 htb rate $BANDA_20_MIN ceil $BANDA_20_MAX prio 1

# Y por último resta asociar las marcas de tráfico con las bandas anteriormente creadas donde al “matchear”, aplicará los valores Máximos y Mínimos de disponibilidad en la red, definidos anteriormente. /sbin/tc filter add dev eth0 protocol ip parent 1: handle 1 fw classid 1:10 # Por ejemplo, los paquetes que se marcan con 2 se asignan a la banda 20. /sbin/tc filter add dev eth0 protocol ip parent 1: handle 2 fw classid 1:20 # Fin de nuestro script. Nota, a la solución se le podría aplicar algunas clases como htb, sfq (ver sitios de referencia más abajo) a los efectos de repartir las peticiones recibidas y agregarle algo de QoS. También a nuestro “router” podemos definirle tablas de ruteo específicas y dirigir el tráfico por varias interfaces, agregarle seguridad a nivel de filtrado de contenido, listas de control a nivel del proxy y todos los condimentos que un router de gama comercial alta pueda aportar a nuestro centro de cómputos, manteniendo así un “equipito” con cierto grado de inteligencia customizado a nuestro gusto.

1253


milveinticuatro

Convengamos que la utilización de estos servicios P2P (ej: Ares), a través del puerto 80, merece una inspección de paquetes mucho más incisiva a la hora de realizar el filtrado, pero perfectamente alcanzable adicionando algún paquete mas, a los efectos de controlar y preservar nuestro tan preciado ancho de banda.

de los acontecimientos entendemos que pasó la prueba con creces) y algo de tiempo a emplear en cuanto a planificación y diseño. De manera tal que usted mismo las haga jugar a favor o en contra y decida si realmente no es una buena solución totalmente redituable y sobre todo utilizable dentro del ámbito informático.

Evaluación final A modo de conclusión final, luego de haber llegado a este punto del artículo, no intentamos “vender” por así decirlo una solución de estas para ser usada en todos los puntos que su empresa lo requiera, pero si dejamos a su criterio variables tales como costo del equipamiento empleado, grado de personalización acorde a los requerimientos, curva de aprendizaje de su administrador de servidores, confiabilidad en cuanto a marcas, sobre todo a nivel de hardware (el resto GNU/Linux a esta altura

Si le interesó el tema, puede visitar los siguientes sitios, donde le permitirán sin moverse de su equipo, empezar a hacer ruta con esta maravillosa herramienta.

A/P Eduardo Gómez Servidores e Infraestructura - Ministerio de Defensa Nacional Área de Servidores - Plan Ceibal A/P Gonzalo Acuña Servidores e Infraestructura - Ministerio de Defensa Nacional Área de Servidores - Plan Ceibal

1263



milveinticuatro

Los peligros no intencionales de la Tecnología Las últimas creaciones de la tecnología están generando problemas de salud, debido fundamentalmente a su utilización incontrolada o a efectos insuficientemente estudiados.

E

n la antigüedad se sacrificaban algunos individuos, con el fin de lograr el bien común de la sociedad, obtener lluvias, una buena cosecha, el triunfo en una guerra. En el siglo 21 sacrificamos seres humanos en el altar de la tecnología. El ejemplo más claro es el automóvil. Un invento cuya primera víctima documentada por accidente de tránsito fue Bridget Driscoll, de 44 años, que murió atropellada en 1896 en Londres. El vehículo circulaba a 12 Km/h. Actualmente se habla de unas 1.200.000 muertes anuales, siendo la principal causa de muerte en jóvenes. Si algún maya o asirio hubiera sacrificado éste enorme porcentaje de su población activa, en busca de alguna cosecha favorable (y no para un mero transporte), los hubiéramos tildado de la sociedad más cruel de la historia. Otra invención cuyos efectos estuvieron muy lejos de las intenciones de su inventor por su devastadora e imprevista consecuencia fué la máquina desmotadora de algodón de 1793 que fue la que impulsó la esclavitud en los Estados Unidos. Mención aparte merecen los accidentes nucleares, como el caso de Chernobyl, en la categoría de desastres tecnológicos con su cuota de víctimas. Las bombas atómicas y toda la tecnología de la guerra y el armamento las dejamos afuera por su carácter intencional.

El S.U.N. fué inventado por el uruguayo Carlos Caggiani en 1962 quien vendió la patente en 1964 y posteriormente desarrolló sus actividades y otras invenciones en el campo de la medicina y la aviación en el exterior. Consta fundamentalmente de una resistencia de cromo-niquel, que evita la contaminación del agua, que se coloca directamente dentro del liquido para luego ser conectado a la corriente eléctrica. La tensión está en contacto directo con el agua, razón por la cual fue prohibido en éste año 2010. Si comparamos al SUN, que no cuenta con un registro de víctimas fatales salvo el caso no confirmado de un bebé y una bañera, con el automóvil cuyo número de muertes comprobadas es inmenso, la dualidad de criterios es sorprendente. Riesgos emergentes El pasado 28 de Abril en el marco del día mundial de la seguridad y la salud en el trabajo, la OIT (Organización Internacional del Trabajo) emitió el documento “Riesgos emergentes y nuevos modelos de prevención en un mundo de trabajo en transformación”. Se mencionan los importantes avances tecnológicos de los últimos años y su incidencia en la seguridad y salud en el trabajo, entre ellas la nanotecnología y la biotecnología. Siempre ha existido una gran brecha entre el desarrollo de una nueva tecnología y el estudio de sus efectos en la salud, generalmente emprendido tras hechos consumados.

Una víctima moderna en el bando de la tecnología Enfermedades Tecnológicas En épocas oscuras como la edad media, la tecnología fue la víctima constante. Recientemente nos encontramos con un nuevo caso, el S.U.N (Soy Una Novedad) el calentador de agua para el mate de amplia utilización en nuestro país, que fue recientemente prohibido.

Las últimas creaciones de la tecnología están generando problemas de salud, debido fundamentalmente a su utilización incontrolada o a efectos insuficientemente estudiados. Dentro de las llamadas Enfermedades Tecnológicas encontramos

1283


milveinticuatro

los problemas de visión, los trastornos musculoesqueléticos de muñecas, dedos, hombros, antebrazos y cuello debidos a posturas en sillas, uso del teclado y del mouse y dolores de espalda por uso de laptop. También encontramos nuevas enfermedades como el Síndrome de la vibración fantasma, sentir vibraciones del celular cuando no las hubo, la Hidradenitis palmar de PlayStation, un problema dermatológico que se asocia al juego excesivo, el Insomnio Adolescente y la Wiiitis, provocada por los movimientos que exigen las nuevas consolas. Ya en 1981 el “space invaders” provocaba lesión de muñeca. Más controversiales, son los efectos en la salud de campos y ondas electromagnéticas, como las microondas emitidas por antenas y celulares, la transmisión de ondas de radio y los campos magnéticos de todo tipo de equipos. Aún no está dicha la última palabra. No se trata de propiciar la tecnofobia, sino la tecnofilia responsable. Los desarrolladores, los propietarios de las patentes e incluso los usuarios deben estar atentos a los peligros latentes para la salud.

Angel Zieleniec Ing.Quím/Tec.Prev azieleni@adinet.com.uy


milveinticuatro

Apostó al cambio, nos contó con emoción mientras recordaba la decisión que tomó hace mas de 20 años, “trabajar en IBM era lo máximo” y por eso apostó ganando menos que en su anterior trabajo. Futbolero fanático a causa de sus hijos, los mismos que no quisieron seguir sus pasos en el área de tecnología. Y te invita a tomar un “café con Gonzalo” para poder conversar distendidamente de la empresa. Punta del Este creo el entorno perfecto para conversar y presentarles a Gonzalo De Azpitarte, Presidente de IBM Uruguay.

Gonzalo De Azpitarte

1303



milveinticuatro

Entrevista En IBM Uruguay estamos todo el tiempo buscando soluciones innovadoras para nuestros clientes

Gonzalo De Azpitarte, Presidente de IBM Uruguay

1323


milveinticuatro

Usted ingresó a IBM en 1988, pero sus comienzos hablan de NCR, como ingeniero ¿Fue fácil el cambio? ¿Qué recuerdos tiene de esa época? Para todo estudiante o persona que se desempeñara en el área de sistemas, en aquel tiempo (y hacemos lo imposible para que siga siendo así al día de hoy); trabajar en IBM era lo máximo. Realmente, recuerdo aquellos días como un tiempo de fuertes decisiones, aposté por IBM, y me fue bien, empecé desde abajo, percibiendo un sueldo menor al que ganaba en NCR y también con un cargo de menor jerarquía; a pesar de que estaba casado y con uno de mis hijos ya nacido; en aquel momento creí tomar la mejor decisión, hoy estoy seguro que no me equivoqué. Siendo Ud. Referente en una organización líder en tecnología ¿En su casa, se siguen sus pasos? Bueno, la verdad, ninguno de mis 3 hijos se oriento para esta área; en cierta manera, tal vez por culpa mía, dado que desde que asumí como Gerente General les hice saber que mientras yo estuviera al frente de IBM, las puertas de esta gran compañía permanecerían cerradas para ellos. Bien, sus hijos no siguen sus pasos tecnológicos, pero como todo uruguayo, el fútbol es una pasión ¿Ahí lo siguen? Sí, ahí sí estamos juntos. Si bien siempre fui hincha del fútbol, podría decir que por “culpa” de los chicos, me hice un poco más fanático. La verdad vamos bastante al estadio, e incluso fuimos a ver a nuestro cuadro en el exterior del país en más de una oportunidad. No quisiera decir cuales son los colores que nos identifican, pero esta puede ser una pista interesante … tengo la suerte de compartir un palco en el estadio de mi cuadro con un muy lindo grupo de amigos de Floresta, al cual vamos con nuestros hijos y pasamos muy bien.

Participa activamente en DESEM, Niños con Alas, por nombrar algunas… ¿Responsabilidad Social? En general todos en IBM trabajamos mucho para mejorar nuestra comunidad. Este tipo de iniciativas son sumamente incentivadas por la compañía mediante el programa On Demand Community. Este programa busca incentivar a los empleados a trabajar voluntariamente en diferentes organizaciones sin fines de lucro aportando sus conocimientos durante cierto periodo. Cuando se cumple esto, adicionalmente IBM dona a esa institución plata o equipamiento, según la necesidad de la misma. En particular yo participo en DESEM hace ya mucho tiempo, y desde hace 3 años estoy como presidente. En Niños con Alas, me solicitaron que “diera una mano” en la directiva por un par de años, y la verdad no pude decir que no porque me parece también una obra espectacular. ¿Participa también en la Cámara de Comercio Uruguay – USA? Sí, en la Cámara también participo, pero solo desde que me nombraron Gerente General de IBM y en este caso es con un fin mas comercial. IBM tuvo serios problemas de los que supo salir airoso ¿Le dejó algún aprendizaje, ahora como Gerente? Desde el punto de vista estratégico, nos dejó la tarea de ser una empresa cada vez mas orientada a brindar mayor valor agregado a los clientes, incluso dejando atrás en algunos casos las areas de negocio de tipo mas “comodity”; esto implica un importante desafio que requiere una permanente capacitación, especialización en industria, mejores prácticas, etc. para entender y poder asesorar cada vez mejor a nuestros clientes. Desde el punto de vista de actitud de los IBMistas, quizás nos ayudó a ser mucho más humildes de lo que éramos en tiempos anteriores.

1333


milveinticuatro

Me parece muy bueno que un referente de tecnología lo sea también para jóvenes emprendedores, pero, si yo trabajara en IBM ¿Qué oportunidades tengo de conversar o intercambiar ideas con usted? En IBM la puerta de la oficina de cada uno de los gerentes siempre se encuentra abierta para escuchar o resolver cualquier inquietud, y la mía no es una excepción en ese sentido. Adicionalmente, me gusta recorrer los distintos edificios en los que trabajan distintos compañeros de IBM y hablo mucho con ellos de variados temas. A lo largo de su historia, IBM tuvo varios gerentes destacados ¿Tiene Ud. Un estilo propio o cree que sigue el camino de alguno de sus antecesores? No creo seguir el camino de ninguno en particular, pero sí intenté aprender de cada uno de ellos, así como de otros compañeros que trabajaron en IBM; al igual que hoy en día sigo intentando aprender de todos los que trabajamos en IBM. ¿Cómo es trabajar en una empresa multinacional, líder en tecnología, innovadora y precursora? En lo personal, lo disfruto mucho, porque es un desafío constante. En IBM Uruguay estamos todo el tiempo buscando soluciones innovadoras para nuestros clientes; contando además con la ventaja de poder ver cómo fue resuelta cierta problemática por alguno de nuestros más de 400.000 compañeros de trabajo a nivel mundial, en alguno de los más de 170 países en los que se encuentra presente IBM. Estando tan cerca de organizaciones que apoyan el emprendimiento de jóvenes y considerando los cambios tecnológicos ¿Cómo ve el futuro informático en Uruguay? El futuro será tan bueno como nosotros mismos queramos. Las oportunidades en este mundo globalizado son infinitas, y en Uruguay estamos hoy posicionados como para competir con cualquier tipo de soluciones, en cualquier mercado.

Existe a su vez una iniciativa propuesta por los empleados y llevada a cabo desde el pasado año, denominada “Café con Gonzalo”; en la cual, cualquier empleado de la compañía tiene la oportunidad de anotarse solo o en grupo de no mas de 3 o 4 personas, para tomar un café conmigo, para charlar de inquietudes que tenga, temas de la compañía o de la actualidad, en un ambiente sumamente distendido.

Acaba de realizarse uno de los eventos más importantes de tecnología en Uruguay, que reflexión tiene? Este evento que se ha venido realizando cada dos años, es ya un hito de la industria para nuestros clientes, que son invitados a participar de charlas a cargo de expositores de primer nivel y en un entorno privilegiado como el Hotel Conrad. Son 400 personas que durante 2 días y medio comparten con especialistas de IBM e invitados especiales lo último en tecnología, su aplicación para el negocio específico de nuestros clientes y la visión que IBM y sus Asociados de Negocios tienen de cómo maximizar y proteger la inversión de los que confían en nuestra marca. Representa un esfuerzo significativo tanto de IBM como de nuestro mayorista y organizador, Interamericana de Cómputos, pero que hacemos con la convicción de que nuestros clientes merecen que nos esforcemos y ojalá superemos en cada nueva edición.

1343




Conrad Hotel

E

l 30, 31 de Agosto y 1 de Setiembre se desarrolló en el Hotel Conrad de Punta del Este el evento con que IBM presentó “Tecnologías de Punta 2010”

Pero IBM Uruguay no estaba solo, canales de negocio como INCO, Netwan, Geocom, IGV, iCal y Psline acompañaron, invitados extranjeros -amigos y colegas de los canales locales-, sumados a destacados clientes de la marca fueron quienes -prácticamente- colmaron las instalaciones. Qué se puede esperar de un evento realizado en un hotel 5 estrellas, ubicado en nuestro principal balneario, organizado por una marca líder a nivel mundial y tratando tecnologías de punta. Como si eso no fuera suficiente, disertantes internacionales de nivel de excelencia. Con puntualidad inglesa, las charlas, las presentaciones, los casos de éxito se fueron presentando uno tras otro. “Pronto”, la financiera uruguaya, presentó su caso de éxito, más tarde, Citrix, VMWare, Terremar, entre otros, presentaron la tecnología existente en sus productos. La sorpresa no quedaba ahí, si hasta ahora no estábamos convencidos del nivel del evento… listo, Cata de whisky, vino, y para los abstemios, aceite. En la primera noche, como acompañamiento de la cena, disfrutamos un recomendable Stand Up de Maxi De la Cruz, que

entre carcajada y carcajada nos enteramos de muchas cosas… es hijo de Cacho Bochinche, toda una novedad ! Al día siguiente, las charlas con la misma puntualidad, los cortes con la misma excelencia y ya todos sabíamos lo que pasaría en la noche, después de la cena… El Cuarteto de Nos, con Roberto Musso al frente quien hizo mover a más de uno, y una puesta en escena envidiable por cualquier concertista. Sin duda, las imágenes son elocuentes. La locura y fascinación generada en la velada fue muestra de la camaradería que se generó en esos tres días. Pero al día siguiente seguían las presentaciones y más tarde, con un aplauso general se realizó el cierre del evento. Sin duda, y aunque somos una revista de tecnología, es mas fácil describir y contar con imágenes los momentos distendidos que se sucedieron en el evento, pero el nivel alcanzado en las charlas, y conferencias completaron lo esperado en algunos párrafos atrás, a nuestra humilde opinión los organizadores salvaron la prueba con puntaje ideal, supieron aprovechar cada momento sin cometer excesos, jugando con los tiempos de manera justa, equilibrando los momentos de capacitación con los de distención. Hacemos llegar con esta nota, las felicitaciones a los organizadores. Después de todo, el primer correo de preparación del evento ya lo avisaba, ambiente distendido y vestimenta informal, realmente cumplieron.


D

egustaciones

A INCO no le faltaron ideas originales, además de las buenas conferencias que tomaron la virtualización como eje, mostró que puede olvidarse por un momento de la tecnología virtual pero no de la calidad real, degustación de whisky, vinos y aceites fue la forma a la que recurrió para un corte en las presentaciones, antes de la cena del primer día.


E

spectáculos

El Stand Up de Maxi de la Cruz, hizo desternillar a más de uno de los asistentes, en el espectáculo que se presentó luego de la primera cena en el Conrad Punta del Este organizado por INCO. Para la segunda noche, Roberto Musso y su “Cuarteto de Nos” presentó los clásicos temas a sus colegas informáticos, logrando hacer bailar a todos sin distinción.


1

6

11

2

7

12

3

8

13

4

9

14

5

10

15


16

21

24

17

22

25

18

23

26

19

24

27

20

T

ecnología de Virtualización fue el hilo conductor en el evento de Punta del Este.

Conferencias internacionales, presentaciones de socios de negocio y casos de éxito, como el de PRONTO presentado en el evento o de ABITAB en milveinticuatro. Referentes tecnológicos de empresas públicas y privadas asistieron a la cita de capacitación y promoción.


milveinticuatro

Virtualización con alta disponibilidad Los criterios del por qué llegar a la virtualización es variado. Raúl Lamas, Gerente de Tecnología de ABITAB nos da su opinión.

Raúl Lamas, Gerente de tecnología de ABITAB

1423


Cuánto tiempo hace que su organización se encuentra involucrada en el tema de virtualización? ABITAB comenzó a evaluar alternativas de Virtualización en 2008. En una primera etapa analizamos las alternativas de mercado y optamos por un hypervisor. En una segunda etapa, considerando que la virtualización sería una tecnología clave en la empresa, desarrollamos una instalación piloto, con el objetivo de capacitar el equipo de técnicos y adecuar nuestros procesos. Esta instalación piloto consolidó 10 servidores de contingencia. En la tercera etapa, concretamos la virtualización de 42 servidores del core, especialmente servidores de aplicación.

fue mayor en los ambientes de testing y capacitación. Para estos últimos empleamos servidores físicos diferentes que los del ambiente de producción aunque se comparte el recurso de la SAN a nivel de Fiber Channel. 3 Impacto en los mecanismos de Contingencia dentro del proceso de continuidad de negocio. En el caso de servidores no clusterizados, manteníamos un esquema de redundancia 1+1. En función de la Alta disponibilidad de los equipos que utilizamos para la virtualización y la instalación replicada en dos CPDs, adecuamos el concepto de spare a encender máquinas virtuales predefinidas.

¿Cuáles son las principales ventajas de las soluciones de virtualización para su realidad? Antes de analizar las ventajas, podría ser interesante contextualizarlas en alcance de la virtualización en ABITAB. Utilizamos estrategias de virtualización con mecanismos de Alta Disponibilidad que en caso de perder una máquina virtual en un CPD, la levantan automáticamente en otro. Para ello reestructuramos el networking de ambos CPD, para simplificar los problemas de enrutamiento y políticas de acceso. Aún no utilizamos el movimiento de máquinas virtuales “en caliente”. En este escenario encontramos ventajas básicamente en tres aspectos: 1 Optimización del Uso de recursos de Infraestructura. Hardware, Energía, Acondicionamiento térmico, Espacio físico y Cableado. Consolidamos 42 servidores completos en dos servidores y dos SANs. A modo de ejemplo, la optimización en el uso de la memoria física en los equipos mejoró sustancialmente. Con los equipos físicos se mantenía una estrategia de plataforma única para todos los servidores de aplicación a efectos de simplificar la adquisición e instalación. Con los equipos virtuales, hemos avanzado en la optimización de los dimensionamiento de memoria según el cluster al que pertenece cada servidor de aplicación 2 Optimización de la administración y proceso de ABM de Servidores. En el proceso de Alta, Baja y Modificación de servidores, se redujo sensiblemente el tiempo de instalación y de aplicación de las políticas estándar en la organización. Si bien el impacto evidente se da en el ambiente de producción, en nuestro caso

La figura anterior muestra un diagrama de la arquitectura de virtualización, detallando la topología de anillo implementada a nivel de FC. Esto nos permite aprovechar al máximo las prestaciones de la virtualización en casos de contingencias con el equipamiento ya sea en caso de pérdida de alguno de los servidores reales o una de las SAN completas. En qué etapa de desarrollo considera que se encuentra la virtualización en el ámbito empresarial uruguayo? En general, se encuentra en una etapa inicial. Conocemos casos de migración de servidores, pero estimo que aún resta mucho por hacer en cuanto a: La gestión de la infraestructura virtualizada Adecuar los procesos de gobierno de TI y cumplimiento Adecuar los procesos de seguridad a las soluciones virtualizadas

1433


milveinticuatro

Fue difícil convencer a la dirección de su organización de enfrentar la virtualización en un negocio tan crítico? En absoluto, en el caso de nuestra empresa la dirección tiene un liderazgo muy fuerte en cuanto a mejorar la eficiencia de los procesos de la organización y visualizan a la tecnología como un componente esencial del negocio, por lo que están dadas las condiciones para aprovechar esta y otras oportunidades en la evolución de las TICs Cree que las crisis económicas benefician este tipo de tecnologías? Por qué? Es inevitable que en las crisis se acentúe la preocupación por los costos y con esto haya un espacio extra para los cambios que disminuyan los costos operativos. Debemos también tener en cuenta que la crisis una vez superada, requerirá que el negocio sea capaz de volver a crecer con el ritmo que demande el mercado, lo que refuerza el atractivo de aplicación de la virtualización en estas circunstancias. Considera que al hablar de virtualización, la seguridad es un tema a tener en cuenta al momento de avanzar en estas tecnologías? Es una excelente pregunta, deberíamos aprovechar la madurez adquirida por las organizaciones en la gestión de seguridad para no olvidar tenerla en cuenta desde la concepción inicial del proyecto de virtualización. Esta afirmación reiterada, en este

ámbito y otros como el desarrollo de software, mantiene plena vigencia. Descuidar la seguridad podría relativizar las ventajas de la virtualización si la empresa tuviera dificultades en el cumplimiento de sus obligaciones normativas o no se pudieran desarrollar los procesos de control y auditoría de seguridad de la información. En nuestro caso hemos virtualizado en un mismo equipo, solamente servidores de una misma zona de seguridad, a efectos de impactar lo menos posible en las políticas de acceso y de control de las operaciones. Estamos investigando la oportunidad de incorporar servicios de seguridad, que en el ambiente virtualizado serían más sencillos de operar que aplicados en cada servidor físico individualmente. Por ejemplo la instalación de servicios de HIDS o HIPS consolidados a nivel del hypervisor. Considera con un posible inconveniente la facilidad para el crecimiento de esta tecnología? No, si se encara profesionalmente y aplicando las buenas prácticas de gestión que la experiencia y la academia nos enseñan a la hora de incorporar nuevas propuestas en las TIC. Algo similar ocurre con las alternativas y ofertas de “clud computing” que encontramos a diario en las publicaciones técnicas. Es necesario tamizar esa información con las premisas del negocio en cuanto al control de sus activos de información clave e identificar las verdaderas oportunidades de mejora. Acaba de asistir a un evento en punta del este, en la que oradores internacionales presentaron diversos enfoques de la virtualización, cree que aún es una tendencia o que es algo definitivo? Entiendo que es algo definitivo, ya hace algunos años que no se trata simplemente de un nuevo hype del marketing tecnológico. En el caso de la virtualización tenemos verdaderas oportunidades y que seguramente mejorarán en el futuro con la mejora, por ejemplo, de los esquemas comerciales de licenciamiento del software.

Raúl Lamas, Yuri Ovsiencov, Pablo Geymonat de ABITAB Oscar Robledo de INCO

1443


milveinticuatro

1152


milveinticuatro

Mobile en la empresa Apple, fabrico no sólo un teléfono móvil, … fabricó una computadora de bolsillo.

C

orría el año 2007, cuando la compañía de la manzana, Apple, de origen estadounidense lanzó el primer dispositivo móvil iPhone en conjunto con AT&T, un carrier móvil con más de 90 millones de clientes en USA; pero No fue hasta mediados del 2008 que Apple lanzó la tienda virtual, el Apple Store; este nuevo concepto de tienda on-line, permite descargar aplicaciones directamente en el móvil de una forma fácil e intuitiva. En poco más de 6 meses, la tienda online de Apple ya contaba con 1MM de descargas (mil millones…) y existían en el mundo cerca de 16 millones de móviles vendidos y activados. Pero la pregunta que nos debemos hacer es, habiendo sido diseñado y fabricado por una compañía que hasta entonces se dedicaba a la fabricación de computadoras y reproductores musicales, porqué entonces un teléfono móvil con menos de dos años de vida causó tal impacto en la industria móvil? La respuesta: LAS APLICACIONES. Apple, fabrico no sólo un teléfono móvil, sino que fabricó un dispositivo que permite instalar de forma muy sencilla y rápida, cualquier aplicativo que se encuentre en la tienda on-line y/o aplicaciones de terceros hechas a medida. Literalmente, fabricó una computadora de bolsillo, que revolucionó la industria móvil, al punto que Nokia, RIM (Blackberry) y el mismo Google, comenzaron a delinear una estrategia para imitar este diseño y forma para seguir en carrera en el mercado móvil. Desde sus inicios Apple se posicionó como una empresa de culto, apuntando a sectores que estaban dispuestos a pagar un precio adicional por tener un equipo con un diseño innovador y un software no convencional. El iPhone fue así esperado durante días por fanáticos que acamparon fuera de las principales tiendas a lo largo de Norteamérica. Para algunos Uruguayos, la única forma de conseguirlo era comprar uno estando de viaje y luego pagar alguna módica suma para que algún conocedor haga la famosa maniobra del desbloqueo o “JailBreak” (término en inglés que significa escapar de una prisión).

Así comenzó una guerra de dispositivos, entre aquellos usuarios de perfil corporativo que históricamente utilizaban el Blackberry debido a su integración nativa con el mail y aquel usuario más casual, que comenzó a defender el iPhone como la próxima herramienta de productividad. Sin duda que esta guerra de preferencias y marcas está siendo librada fuertemente por los fabricantes, provocando que RIM lanzara un dispositivo con pantalla táctil, pero sin abandonar el teclado que sigue siendo el argumento más usado por los defensores de Blackberry. Por otra parte, Google adquirió el emprendimiento Android (un sistema operativo para móviles) con el objetivo de liberarlo y lanzarlo a la arena de batalla entre los distintos fabricantes. Así se volvió en el sistema operativo por excelencia de los principales competidores del iPhone (HTC, Samsung, Motorola) Pero aquí no termina la historia. Antes que se seque la tinta de las primeras victorias del iPhone, Apple lanza un segundo producto revolucionario: el iPad. Este producto destinado a revolucionar el mercado de los lectores digitales con una pantalla táctil y el mismo sistema operativo que el iPhone hizo temblar también el mercado de los netbooks (laptops de muy pequeñas dimensiones) y de las tablets (equipos portables con la pantalla táctil). El iPad revolucionó la industria de las publicaciones, haciendo que se replantee el negocio de diarios como el New York times, o el Wall Street Journal, obligándolos a lanzar versiones digitales optimizadas para este formato. No sin darles por esto una nueva fuente de ingresos por conceptos de publicidad. Convirtiéndose en otro objeto deseado por los adictos a la tecnología, este dispositivo logró venderse a una velocidad que superó todos los pronósticos, marcando otro record en las ventas para la compañía de la manzana.

1463


milveinticuatro

Sin duda una de las grandes ventajas del iPad es que fue lanzada al mercado soportando cualquier aplicación que había sido desarrollada para el iPhone. Esto hizo que las posibilidades de uso sean ilimitadas. Inmediatamente comenzaron a surgir los desarrollos exclusivos de iPad teniendo más foco en aplicaciones de productividad como Keynote o Pages, aplicaciones de Apple que compiten con las herramientas de oficina de Microsoft. Apple lanzó distintas campañas de promoción e incluso comenzó a competir fuertemente con Google, cuando prohibió el uso de AdMob (plataforma de publicidad móvil) para lanzar su plataforma de publicidad denominada iAd apostando fuertemente a nuevas tecnologías que permitirían una mejor experiencia de usuario. Como entonces es que el iPhone ha revolucionado distintas industrias? Por ejemplo, con integración nativa a Microsoft Exchange, la posibilidad de conexiones seguras y la infinidad de aplicaciones que permiten realizar las más diversas funciones de forma optimizada para una pantalla táctil.

Por otra parte el sector de la publicidad encontró una nueva pantalla donde acercarse al consumidor. Una pantalla que antes no permitía espacio más que para un mensaje de texto y tal vez una pequeña imagen. Hoy en día, esta pantalla se utiliza para ver videos, descargar imágenes, navegar por Internet. De la misma manera organizaciones como Un techo para mi país encontraron en el iPhone un nuevo canal de comunicación para concientizar a los jóvenes de su labor. Encontramos también desde aplicaciones para reservar mesas en restaurantes, tiendas de ropa que permiten ver las últimas colecciones hasta aplicaciones que permiten que la fuerza de ventas facture, reserve y envíe los productos desde la puerta del mismo cliente.

Apple lista varios ejemplos, desde una compañía distribuidora de automóviles, que con aplicaciones desarrolladas a medida hacen el seguimiento de las ventas en tiempo real ya que sus vendedores cuentan con un iPhone.

La distribución de aplicaciones es variada. Hoy en día, la mayor cantidad de aplicaciones son libros, seguidos de cerca por los juegos y el entretenimiento. Sin duda que el sector juegos es aquel que tiene mayor actividad y aquel en donde ha habido grandes apuestas por compañías como Electronic Arts y Blizzard (creadores los juegos más famosos de deportes y de rol). Sin duda que las posibilidades son ilimitadas. Más aún considerando que prácticamente todos los dispositivos iPhone cuentan con un acelerómetro (detección de movimientos), sistemas de posicionamiento geográfico (GPS) y acceso a Internet, otra gran apuesta que Apple consiguió al ofrecer estos dispositivos sólo a través de proveedores exclusivos.

Hay ejemplos de laboratorios médicos, donde además de compartir agendas, calendarios y archivos en más de 140 países y 100.000 empleados, han desarrollado una aplicación para que los pacientes lleven registros de la vacunas administradas. Otro ejemplo puede ser el de firmas de abogados, que tienen su base de clientes, leyes, archivos y casos en su móvil, permitiendo hacer su trabajo de una manera eficiente y rápida.

La lista es interminable, pero el concepto es el mismo. No tenemos un celular, tenemos una computadora de bolsillo. Esto hace que comencemos a pensar en como sacarle el provecho a esta nueva herramienta que esta siempre encendida y siempre conectada. En el próximo artículo vamos a hablar de cómo además de revolucionar empresas, ha revolucionado el negocio de la voz y los datos de móviles.

Ing. Felipe Llodrá fllodra@doitdevelopers.com Do IT developers.

1473


milveinticuatro

La revolución de lo inmediato, con seguridad Todo esto generó una capa de optimización de datos, y seguridad que permitió ser adquirida por altos ejecutivos de grandes empresas, brindando confianza en el manejo de los datos.

E

staba mostrándole detalles sobre este articulo, y me llega un mail del editor de la revista para ver cuando se lo envío.

La respuesta surgió de inmediato... “estoy trabajando en ello y en el correr del día te lo mando”. La respuesta llego a su mail, y al poco rato me indicó que lo había leído. En principio parece una acción natural sin nada que destacar, pero lo interesante de esto es que estaba en la rambla de Kibon, sintiendo la brisa de la playa con mi familia, sin dispositivos molestos que impidan estar tranquilos... Y seguimos pensando que es algo natural, pues los que trabajamos en tecnología estamos acostumbrados a estas cosas... Aunque luego pensamos con un poquito mas de esfuerzo y no nos vemos hace 10 años contestando desde la rambla con un celular con teclado completo, y a precios accesibles. Pero si vamos tras la tecnología hay mas cosas que destacar, estamos utilizando un dispositivo con alta seguridad donde la información se envía fuertemente encriptada sin por eso perder un ápice de usabilidad ni velocidad en trasmisión..... Si, estamos hablando de Blackberry, una tecnología que revolucionó el mundo hace unos años como lo hizo internet en su momento, y que en nuestros tiempos tiene adeptos muy variadas, que van desde presidentes como Obama y Chavez a nuestra estrella Diego Forlan.

Pero en países como el nuestro el principal impacto de poder recibir y redactar email de manera sencilla no fue el gran fuerte de Blackberry ya que llegó cuando ya existían soluciones, aunque ninguna con la tecnología PUSH Mail que traía (y trae) Blackberry Un poquito de historia de RIM, empresa creadora de BlackBerry nos da algunas pautas sobre su éxito anterior y actual.

RIM es una empresa Canadiense que desde sus orígenes en 1984 se focalizó en tecnología inalámbrica, creando varios dispositivos para muchos propósitos, incluyendo en esa variedad un pager bidireccional. De esos dispositivos evolucionaron al RIM 950, en 1998 el cual manejaba email, calendario y contactos, entre otras cosas y sincronizaba los datos en tiempo real, utilizando las redes celulares, pero solo para datos. Fueron avanzando en el tiempo con nuevos dispositivos, nuevas prestaciones, construyendo desde el inicio un sistema completo, el cual incluye: Dispositivos, Sistema Operativo, Servidores para sincronizar en las empresas contra sus herramientas de colaboración (MS Exchange, IBM Notes y Novell Groupwise) y Servidores en los Carriers celulares que comunican los móviles con la infraestructura global Blackberry. Todo esto generó una capa de optimización de datos, y seguridad que permitió ser adquirida por altos ejecutivos de grandes empresas, brindando confianza en el manejo de los datos. Volviendo al presente, siguiendo con infraestructura, tenemos dos tipos de servicios para conectarnos a la misma, y es mediante servicios “profesionales” o independientes donde surgen los servidores BIS (Blackberry Internet Service) que permiten sincronizar con servidores de correo IMAP, POP, o WebAccess (para Exchange y otros) y maneja sincronizando con tecnología Push (es decir los mensajes llegan al celular cuando entran al servidor y no es necesario cada tantos minutos chequear si hay algo en el server. Ademas BIS permite utilizar internet para infinidad de tareas, como puede ser leer noticias, navegar, utilizar mapas, escuchar podcasts o cualquiera de las tecnologías disponibles en la actualidad para smartphones. El servidor BES es el diferencial de RIM y es el servidor que se instala en la empresa final (cliente) otorgándole control al centro de cómputos sobre los dispositivos entregados por la empresa. Se toma la seguridad de manejar y administrar los celulares

1483


milveinticuatro

con políticas, que van desde navegar por internet utilizando los proxy de la empresa con sus políticas asociadas, acceder a la red interna para utilizar aplicaciones WEB o desarrolladas a medida, controlar si pueden instalar aplicaciones, distribuir aplicaciones en forma remota, borrar y bloquear el dispositivo en forma remota, habilitar llamadas a diferentes números telefónicos, y por supuesto, muchas cosas mas como sincronizar sus herramientas de colaboración incluyendo mensajería instantánea, correo, agenda y calendario corporativo. Debido a las características anteriores y a los altos costos de equipos y servicios, por años Blackberry creció en el público corporativo, pero gracias a la competencia de los últimos años, a realizado nuevos dispositivos para competir en mercados de consumo final con precios bastante bajos en comparación a la competencia..

La característica común a todos los modelos es la facilidad de uso, larga duración de batería y seguridad y adecuación de hardware a cada necesidad. Donde sigo: Si quiere saber mas sobre los mismos, no tiene mas que pasar por la página oficial y ver lo que ofrecen, si sabe algo de ingles, lo mejor es elegir USA ya que la página es mucho mejor que la de nuestro país. Si tiene MS Exchange u otro servidor de correo corporativo puede ver el software en el mismo sitio y aprender mas sobre Blackberry Enterprise Server y si quiere tener noticias locales, puede visitar el sitio www.blackberry.com.uy

En Venezuela por ejemplo Blackberry cuenta con mas del 60 % del publico liceal, con dispositivos económicos que les permiten estar siempre conectados entre sus compañeros e internet, utilizando Tweeter, Facebook, mensajerías varias (MSN, GTalk, Y!) y herramientas privadas de Blackberry como Blackberry Messenger y redes sociales exclusivas para Blackberry. La seguridad es otro de los puntos fuertes de Blackberry, ya que toda su información viaja a y desde los celulares a los servidores instalados en cada Carrier, que brinda soporte de infraestructura, encriptado y de ahí asegura la encriptación para viajar por la infraestructura Blackberry hasta los servidores BES (en las empresas) o BIS (en los carriers).

Primeros modelos de BlackBerry

Llegando a la parte mas “humana” nos encontramos con un sistema operativo muy intuitivo que ha mejorado con el correr de los años, aprovechando de incluir los nuevos conocimientos de la experiencia adquirida, las nuevas tecnologías y las demandas del mercado. De todo esto es que contamos con una amplia gama de dispositivos que van desde low entry con teclado, wifi, y cámara, hasta alta gama con pantallas touch, teclado, trackpad, excelente resolución, camara, 3G, wifi, gps, bluetooth y otra cantidad de prestaciones apuntando a usuarios similares de iPhone o alta gama de Android.

1493

BlackBerry STORM

Maxwell Banks maxwell@interclip.com


milveinticuatro

¿Fui bien asesorado al desarrollar mi sitio web en Internet? El éxito de su proyecto on-line dependerá en gran parte de su imagen

L

a tarea de crear un sitio web no es para tomar a la ligera si se desea hacer de forma profesional, le ofrecemos una guía de tópicos a tener en cuenta a la hora de desarrollar su empresa en Internet.

La importancia del diseño y la comunicación. La imagen que un usuario recibe de su empresa en Internet, es la que proporciona su sitio web, el éxito de su proyecto on-line dependerá en gran parte de su imagen ya que la confianza que generará el usuario esta muy vinculada con las emociones de seguridad transmitidas por su proyecto web. Un diseño de sitio web no sólo ha de ser visualmente agradable, ordenado, de rápida descarga y compatible con todos los navegadores de Internet, sino también es sumamente importante que comunique bien las ideas, exponiendo de forma clara y directa la información, haciendo énfasis en la usabilidad. Auto gestión de su proyecto. Hoy en día, a la hora de crear un proyecto de Internet, es esencial contar con una buena plataforma de auto gestión web, es decir, que usted y su equipo de trabajo puedan actualizar los contenidos de su sitio web a través de una herramienta de fácil manejo con la cual bajará costos y ganará tiempo. Es importante que la plataforma que elija tenga posibilidades de fácil expansión, previendo el futuro crecimiento de su proyecto en Internet.

Correcta optimización de su sitio para los buscadores de Internet. Su proyecto en Internet estará abierto las 24 horas del día los 365 días de año, pero si nadie sabe que su sitio web existe, nadie va a acceder, por eso es fundamental figurar en los buscadores de Internet y no solamente por el nombre comercial de su empresa, éste es solo el comienzo. Por otra parte, no basta solo con figurar, ya que por lo general se estará compitiendo con millones de otras páginas que también se encuentran indexadas en los buscadores, una correcta optimización de su proyecto web para los buscadores es una de las principales claves en las que deberá hacer énfasis si desea obtener un buen posicionamiento y obtener una mayor cantidad de visitas a su sitio web. Alojamiento estable y seguro El contar con una buena plataforma de alojamiento para su proyecto es tal vez uno de los puntos más importantes a tomar en cuenta antes de publicar el mismo, deberá asegurarse de contratar una empresa con respaldo que pueda brindarle un servicio rápido, estable, que respalde periódicamente su información y con normas de seguridad que le garanticen que el servidor que aloje su sitio web, estará protegido para prevenir los frecuentes ataques de terceros. Esperamos que ésta guía le sea de utilidad a la hora de pensar en desarrollar o replantear su proyecto en Internet.

El equipo de Sublime Solutions.



milveinticuatro

Mobile: Mucho más que tendencias El Banco República desde hace un par de años ha dado un golpe de timón en el tema tecnológico. Daniel García Azpiroz nos cuenta del tema Mobile

1523

Daniel García Azpiroz Gerente de Tecnología del BROU


milveinticuatro

Como responsable de tecnología del BROU, la tendencia Mobile o su tecnología, es todavía una novedad en Uruguay? Creo que sí pero quizás no por la tecnología en sí misma (que está disponible en muchas formas) sino porque aún se ha incorporado muy poco o con funcionalidades limitadas, y donde se ha incorporado se viene adoptando muy lentamente. En nuestro caso tenemos en forma gratuita para nuestros clientes una aplicación Mobile que permite no solamente consultas sino transaccionar (pago de tarjetas de crédito, transferencias, recarga de tarjetas de pago, compra de títulos y acciones, etc.) desde cualquier sitio, incluso desde el exterior, las 24 horas y prácticamente con cualquier celular sin necesidad de contratos, pero la adopción está creciendo a un ritmo menor al que desearíamos considerando que ofrecemos funcionalidades que nadie más tiene en la actualidad en la banca. Seguimos siendo muy conservadores para este tipo de avance tecnológico? Indudablemente que sí, y no solamente los usuarios sino creo que también las empresas y la aplicación o reconocimiento de la legislación vigente. A mi juicio es necesario que las empresas vayan generando aplicaciones que otorguen funcionalidades con valor para sus clientes, comenzando desde las más sencillas para promoverlo como medio masivo y seguro desmitificando el tema, hasta los más complejos que permite una interfase con lógicas limitaciones. Esto hay que acompañarlo con campañas de difusión y beneficios por el uso de esta tecnología frente a medios tradicionales mucho más costosos. Una vez que se vaya adoptando de esta forma estoy convencido de que la presión por el uso va a venir por el lado de los usuarios para que se convierta en el medio de pago y autorizaciones normal para transacciones usuales, sustituyendo gradualmente al efectivo. En cuanto a la legislación está bastante más avanzada de lo que se cree tanto para Mobile como para Internet (Ley 18600 por ejemplo y su decreto reglamentario que estaría por emitirse), pero lógicamente hay jueces o abogados que aún tienen cierto recelo con los medios electrónicos de validación de identida-

des, lo que se potencia con una cultura fuertemente arraigada. Igualmente considero que es una tendencia irreversible por todos los motivos que estamos expresando y que hay que ponerle foco e ir sorteando posibles trabas. Tengamos en cuenta que la “Generación X” que son los adolescentes de hoy serán nuestros clientes en el plazo que nos lleve implantar y consolidar estas tecnologías, o se pasarán a quienes las tengan… En Uruguay, la aplicación de esta tecnología con el nivel de avance que posee es de vanguardia, Fue difícil convencer a la alta gerencia de la implementación de esta tecnología? En particular en el Banco República la alta dirección está convencida que la tecnología es un diferencial imprescindible para dar productos y servicios de calidad, por lo que no sólo la apoyó sino que la impulsó fuertemente y la va a continuar promoviendo. El Banco República desde hace un par de años ha dado un golpe de timón en el tema tecnológico que creemos que se nota, y proyectos como éste y el nuevo sitio de Internet son ejemplos visibles de ello. Eso no es posible sin el apoyo de la dirección. Este tipo de inversiones redunda en beneficios directos a los ciudadanos y que el BROU haya hecho punta en este nivel nos enorgullece a todos. Hay que tener en cuenta además que la transferencia de transacciones a canales de menor costo como Mobile termina produciendo un importante retorno de la inversión. Cuánto hace que se comenzó a analizar la incorporación “Mobile” con los servicios que tiene la organización? La incorporación de banca Mobile en producción en el Banco República fue en Agosto del 2009, y la decisión de hacerlo fue un par de años antes en el marco del cambio del viejo sitio de Internet por un proyecto integral multicanal que comenzó en el 2008. La idea entonces fue implementar una solución de bus de servicios financieros multicanal que incluyera en principio Internet, Mobile, Terminales de autoservicio y autoconsulta, Terminales Securizadas, Call Center, dejando abierta la incorporación de más canales.

1533


Por qué cree que esta tecnología se ve beneficiada? Los motivos son muchísimos y para ambos lados, usuarios y proveedores de servicios. Desde el punto de vista del usuario el celular se ha convertido casi en parte de nuestro cuerpo, cuando salimos de casa podemos olvidarnos de muchas cosas pero si dejamos el celular o bien volvemos a buscarlo o andamos todo el día con la “abstinencia” y sensación de estar incomunicados, de que puede estar pasando algo y no estar enterados, etc. Esto, acompañado por el hecho de que prácticamente cada ciudadano tiene uno, sin importar ya el nivel socioeconómico, lo hace un medio ideal de inclusión tecnológica (potenciado por la masificación de los “smartphones”) y en nuestro caso inclusión financiera o bancarización, para operar, transaccionar y disminuir el riesgo del uso del efectivo, acortar distancias, evitar colas y esperas, ampliar horarios de servicio con un “on line” permanente y optimizar el uso del tiempo en nuestra vida.

nalidades, ambientes y configuraciones de los sistemas operativos de los teléfonos móviles en beneficio de que no sea un problema para los usuarios y proveedores de aplicaciones. Usted, por su tarea le corresponde visitar otros países con otro nivel de madurez en tecnología Mobile, en que nivel se encuentra su organización? En cuanto a tecnología nos encontramos al nivel de los países desarrollados y hoy para nosotros no es una limitante. Entiendo que lo que nos falta es continuar incorporándole más funcionalidades e impulsar una mayor adopción, tema que también ocupa a empresas del exterior. Tenemos que escuchar más a nuestros clientes y ver ejemplos en la región y el mundo de servicios incorporados exitosamente. Y Uruguay como país que apuesta a la tecnología?

Para las empresas y para el gobierno los medios electrónicos son elementos de mayor provisión de servicios, bancarización, inclusión (especialmente de usuarios jóvenes), y prevención de evasión entre otros. A su vez significan un importante ahorro en los costos que significa una atención personalizada, manejo y transporte de efectivo, mantenimiento de sucursales en lugares muchas veces no rentables, seguridad, etc.

El Uruguay está apostando a la tecnología, primero lo hizo a través del esfuerzo y riesgo asumido por iniciativas privadas durante años y creo que de un tiempo a esta parte el Estado ha dado mensajes y disparado acciones concretas (no solamente el Plan Ceibal) de impulso a la tecnología. El país ha continuado invirtiendo mucho en tecnología, incluso en los momentos de crisis internacional, y considero que estamos a un buen nivel.

En particular Mobile presenta muchas modalidades que se pueden ajustar a las distintas necesidades o posibilidades de inversión, desde operativas simples y asincrónicas a través de sms, acceso a información, hasta transacciones complejas. Hay que entender que Mobile no es Internet y aprovechar al máximo las posibilidades de cada uno.

El tema a “romper” en medios electrónicos como Mobile es el cultural, cosa que le cuesta menos a sociedades como la norteamericana e incluso a la brasilera que seguramente “explote” más rápidamente que el resto de Sudamérica.

Existen aún dificultades que presente la tecnología?

Afortunadamente siempre falta mucho por recorrer. Las empresas locales han ido generando las capacidades de propuesta y respuesta a las necesidades tecnológicas, y se han ido especializando en las diferentes tecnologías, asociándose con los fabricantes y adquiriendo experiencia local. Se ven muchas inversiones en ese sentido.

Una dificultad que enfrentamos todos actualmente es la falta de estandarización de los celulares para la ejecución de aplicaciones (incluso hay algún smartphone muy conocido que no ejecuta java por ejemplo), y el tema de que el típico “setup” de las aplicaciones no tiene permisos para modificar configuraciones como se hace en los PCs. Hoy debemos de tener en cuenta que aparecen marcas y modelos de celulares de todo tipo y procedencia y a una velocidad incontrolable. Tarde o temprano habrá que estandarizar funcio-

Y las empresas locales? Cree que todavía falta mucho por recorrer?

Podemos ver empresas locales muy exitosas a nivel local, regional y algunas mundial, aprovechando las ventajas de la globalización. Rara vez hemos tenido que buscar capacidades o tecnologías en el exterior porque no se encuentren por lo menos asociadas a un proveedor local.

1543



milveinticuatro

Acronis : Soluciones de Respaldo y Restauración para alta disponibilidad LicenciasOriginales, pone foco en el desarrollo de canales para la distribución de Acronis en Uruguay.

A

cronis es un proveedor global de software de gestión de almacenamiento que permite a las organizaciones y a los usuarios individuales mover, gestionar y mantener los activos digitales. Acronis comercializa soluciones innovadoras para recuperación, permite a los usuarios mantener la continuidad del negocio y reducir el tiempo de caída de los sistemas. Los productos de software de Acronis están disponibles en 13 idiomas y se venden en más de 180 países. Uno de sus productos mas vendidos es Acronis True Image Enterprise Server le permite crear una imagen exacta del disco duro del servidor, incluyendo el sistema operativo, aplicaciones, configuraciones y efectuar copias de seguridad de las bases de datos estratégicas para su empresa. Tras un fallo del sistema, Acronis True Image Enterprise Server le permite realizar una restauración completa del sistema, una restauración desde cero o sólo una restauración de carpetas y archivos individuales en pocos minutos. La restauración completa del sistema puede ser realizada a un sistema existente, a un sistema con diferente hardware o a una máquina virtual. El Acronis True Image Enterprise Server incluye numerosos componentes que ofrecen gran flexibilidad para el personal de los departamentos de informática de empresas; la Consola de Gestión, el Backup Server y el Group Server. Estos componentes le permiten gestionar completamente todas las copias de seguridad y las tareas de restauración incluyendo la instalación del producto, las copias de seguridad, la recuperación, la optimización de los recursos de almacenamiento y una visión del estado del sistema remoto por toda su red, incrementando la productividad de su departamento de informática y reduciendo costes.

Basado en la tecnología exclusiva de Acronis Drive Snapshot, Acronis True Image Enterprise Server le permite crear una imagen de copia del disco del servidor sin interrumpir las operaciones del servidor, proporcionando una disponibilidad permanente. Características Principales - Programación avanzada de copia de seguridad. Especifique marcos de tiempo, frecuencia e intervalos para cada tipo de datos y cada tipo de máquina. Ajuste los parámetros para admitir diversas prioridades de copia de seguridad, sea para bases de datos que cambian rápidamente o almacenes de datos relativamente estáticos. - Instantáneas de disco activas con soporte de bases de datos y aplicaciones de servidor. Acronis Backup & Recovery 10 toma una ‘instantánea’ del disco utilizando las tecnologías patentadas de imágenes de disco de Acronis’, lo que elimina la necesidad de desconectar un servidor para realizar una copia de seguridad. - Restauraciones totalmente fiables con validación mejorada de archivos comprimidos. La validación mejorada de archivos comprimidos confirma que las copias de seguridad son completas y que se podrán recuperar tanto el servidor como los datos. - Recupera un sistema entero o un solo archivo o carpeta Las recuperaciones basadas en imágenes de Acronis le dan la granularidad de recuperación que necesita y le permiten volver a la actividad empresarial rápidamente. Los sistemas operativos, las aplicaciones y todos los datos pueden recuperarse por completo en cuestión de minutos, en lugar de horas o días.

1563


- Una tecnología de cifrado avanzada garantiza la seguridad de los datos Proporciona la protección de datos adicional que necesita con los algoritmos facilitados que son estándar en el sector o sus propias variantes personalizadas. - Una tecnología de copia de seguridad de servidor optimizada y basada en imágenes maximiza el rendimiento de la copia de seguridad Basado en las tecnologías patentadas de imágenes de disco y restauración desde cero, Acronis Backup & Recovery 10 captura una imagen de un disco y consolida los datos en un único archivo comprimido. Varios premios y certificados, como en la revista InfoSecurity “Finalista en los 2009 Outstanding Awards (Mejor producto de almacenamiento del mundo) por Acronis True Image 11 Home.” Acronis proporciona la protección de alta disponibilidad más exhaustiva, fiable y económica para los servidores en varias plataformas, entornos virtuales, bases de datos, servidores de correo y estaciones de trabajo de su empresa.


milveinticuatro

¿Más tecnología = más descentralización? La tecnología genera una sensación de proximidad, nos permite tener mucha información al alcance de la mano y esto facilita la toma de decisiones centralizadas… es un proceso, es una actividad contínua y requiere de soporte de la organización para tener éxito. Introducción En esta serie de artículos, nos hemos propuesto derribar mitos y paradigmas sobre las TIC que dificultan el desarrollo de nuestra profesión. Son solo mitos, pero en la medida que están instalados en la cabeza de los que toman las decisiones, se justifica el análisis. Estos artículos, tratan de mostrar que la realidad no es tan simple, a través de otras visiones que nos permitan descubrir lo que el mito no nos permite ver. Estos mitos tienden a simplificar tanto la realidad, que algunos sostienen la idea que los problemas en el desarrollo y uso de sistemas se solucionan simplemente agregando más infraestructura en TICS. Sin embargo, con solo incorporar infraestructura tecnológica no se solucionan los problemas, en el mejor de los casos se mejora la situación. Cada vez más la tecnología se acerca al “negocio” (por ello el tema de este año de las JIAP) pero también, cada vez más el “negocio” debe adecuarse a la nueva realidad tecnológica para hacer un uso eficiente de las nuevas tecnologías. En esta segunda entrega analizaremos el mito que asegura que “el aplicar tecnología en una organización o negocio, aumenta o al menos favorece la descentralización En una primer mirada el mito parece real, por supuesto como todos los mitos, dado que al incorporar puestos de trabajo en localidades apartadas, pareciera que se está descentralizando. ¿Qué es la descentralización? Puede haber muchas definiciones de descentralización, pero seleccionamos dos en particular, Según la Real academia Española: “Descentralización: Acción y efecto de descentralizar. Sistema político que propende a descentralizar. Descentralizar: Transferir a diversas corporaciones u oficios parte de la autoridad que antes ejercía el gobierno supremo del estado”

Según Wikipedia: “La Descentralización consiste en el traspaso del poder y toma de decisión hacia núcleos periféricos de una organización. Supone transferir el poder de un gobierno central hacia autoridades que no le están jerárquicamente subordinadas.” No sorprende que ninguna de las dos definiciones nombre a las TICS. Ambas se refieren al poder político ya sea del Estado o de una empresa, y apuntan a la cúpula donde se toman las decisiones y no a las herramientas que se utilizan para desarrollar la operativa. Sin entrar en la discusión de cuanta descentralización es adecuada, puesto que siempre habrá algunas decisiones que se deben tomar en los bordes y otras que se deben tomar por la cabeza de la organización, el grado de descentralización dependerá del modelo que se quiera aplicar, la cantidad de niveles, el estilo de delegación, el número de mandos medios etc. Un poco de historia Las organizaciones sociales comenzaron esencialmente descentralizadas, sin necesidad de grandes estructuras burocráticas que requiriesen la toma de decisiones centralizadas. Sin desconocer que dentro de una tribu existía una jerarquía notoria, nos referimos a organizaciones más complejas que las tribales, que agruparan estos clanes y les generaran comportamientos homogéneos al conjunto de tribus. Con el correr del tiempo la evolución de la humanidad fue creando organizaciones y sistemas de gobierno más complejos (y deben entenderse como más complejos porque trataban de abarcar un mayor número de personas y servicios), se generaron actividades comerciales que, de a poco pero a largo plazo, fueron implantando modelos centralizados en el cual las decisiones las tomaba el Faraón, el emperador o el rey. La evolución de la humanidad genero sistemas complejos de gobierno, en los cuales, existe cierto grado de centralización y cierto grado de descentralización.

1583


milveinticuatro

Lo que queremos analizar es si existe una relación entre la aplicación de los avances tecnológicos y el grado de centralización/ descentralización.

zado o federal, y nos quedamos separados o tal vez fragmentados, con problemas de límites entre hermanosª. Y en estos años, ¿qué pasó?

Veamos un ejemplo: Remontándonos a un pasado lejano, que nos permite liberar el pensamiento y razonar libremente, en la época Colonial, las comunicaciones entre el Rey de España y el Virrey del Río de la Plata requerían un viaje en barco a través del Océano Atlántico. El nivel de descentralización estaba basado en la tecnología que se disponía en ese momento, -precarias embarcaciones en las que el viaje demoraba cerca de un año para ir y volverº, por lo cual necesariamente muchas decisiones del día a día forzosamente debían tomarse en forma descentralizada, ya que no era posible esperar al viaje de ida y vuelta a España para consultar al Rey o a su corte. Ahora pensemos en un pequeño avance de la tecnología, viajar mucho más rápido, 4 ó 5 meses en lugar de un año. En esta hipótesis, en lugar de favorecer la descentralización generando mayores espacios de decisión para los virreyes, los acotarían, restringiendo la libertad de decisión que tenían (mayor centralización). Exagerando, si en aquel momento hubiesen existido los teléfonos, tal vez no hubiesen sido necesarios los virreyes, alcanzaría con un gobernador u otro cargo de menor importancia. En América Latina, tenemos más de 500 años de cultura centralizada, que pesan notoriamente en nuestra vida cotidiana, desde la época de la conquista, cuando se aplicó la centralización producida por un régimen monárquico. Cuando se fracturó esta centralización (la guerra en Europa, deja acéfalos a los gobiernos lejanos), se produjeron las independencias o separaciones. Recordemos que en este proceso se perdió la unidad de Latinoamérica. Precisamente por eso, la única forma de tomar nuestras propias decisiones era ser independientes del resto. En aquel momento no se logró construir un modelo descentrali-

Lentamente la tecnología fue reduciendo el concepto de “distancia”, primero viajando más rápido (la máquina de vapor y luego el motor a explosión) luego con las comunicaciones (telégrafo y teléfono) y finalmente las TIC (computadoras, celulares, internet). La tecnología genera una sensación de proximidad, nos permite tener mucha información al alcance de la mano y esto facilita la toma de decisiones centralizadas. Sólo la voluntad expresa de descentralizar puede contrarrestar este escenario, puesto que la descentralización ocurre cuando las decisiones se toman en los extremos y no en el centro del poder, independientemente del medio que se utilice para trasmitir estas decisiones. ¿Por qué nace el mito? El mito nace y toma fuerza porque las primeras aplicaciones de tecnología en grandes empresas u organismos del Estado, se basaron en procesos por lotes, que necesariamente debían ser centralizados y diferidos en el tiempo. La aplicación de esta tecnología obligaba a sistemas centralizados, basados en formularios, que luego eran procesados en masa. Se genera así una versión centralizada de los procesos. Cuando la tecnología permite extender los mostradores, primero a través de la LAN y de la WAN después y finalmente a través de Internet, el desarrollo de las TICS acerca los trámites al ciudadano y el mito cobra fuerza. Este acercamiento de los servicios al ciudadano o a la periferia de la organización, mejora el modelo de atención. Pero si no se trasladan espacios de decisión no se está descentralizando, en todo caso se está sucursalizando (si me permiten el término) y muchas veces este modelo agudiza la centralización. Se tiende a confundir la posibilidad de hacer a distancia, con tomar las decisiones a distancia.

ºJuan Díaz de Solís parte de San Lúcar (España) el 8 de octubre de 1515 y llega al Río de la Plata en febrero de 1516, utilizando 4 meses para llegar de España al Rio de la Plata, con lo cual un viaje redondo demoraría entre 10 y 12 meses. ªBasta recordar el modelo federal que soñaba Artigas y porque peleaba contra la visión centralizadora de Buenos Aires, para entender a que nos referimos,

1593


milveinticuatro

Pero si no es con más tecnología, ¿cómo se hace? La mayoría de los procesos administrativos (sobre todo en los organismos del Estado), se definieron con las TIC en un estado rudimentario y no se actualizaron sistemáticamente acompañando la evolución tecnológica, ni la evolución de las teorías de administración moderna. Las TIC se utilizaron así para automatizar los procesos, muchas veces ineficientes, sin alterarlos. De este modo, poco a poco nos fuimos acostumbrando a procesos muy centralizados, con decisiones automáticas, sin la participación del usuario( funcionario o cliente). Como la descentralización depende del lugar donde se toman las decisiones no es resultado de la tecnología utilizada, sino de la definición política, son los procesos y no las herramientas que los implementan los que definen quiénes y dónde se toman las decisiones. Para descentralizar hay que hacer una reingeniería de procesos, en la cual las “reglas del negocio” permitan (u obliguen a) que se tomen las decisiones en el borde del proceso, por el usuario. En conclusión En los orígenes, la aplicación de tecnología impedía la descentralización. Hoy la tecnología permite aumentar el nivel de descentralización. Sin embargo, la aplicación de tecnologías modernas no es sinónimo de descentralización, más aun, podría generar un modelo más centralizado. Hoy un simple agente telefónico, nos puede atender en forma muy personalizada, y hasta realizar algunos trámites simples, utilizando tecnologías tipo CRM, pero solo realizará los trámites que tenga permitidos. Para muchos otros es imprescindible concurrir en persona y presentar una vez más documentos que ellos deberían conocer (o por lo menos tener acceso a ellos). En pocos casos, se atiende el punto de vista del ciudadano y se valora su tiempo como debería. La tecnología no es el obstáculo, y puede ser la herramienta que facilite la implantación de las políticas descentralizadoras, pero debe acompañar el desarrollo institucional e implementar los procesos definidos por la empresa. El agregar más tecnología, y más comunicaciones, aunque a primera vista parezca favorecer un proceso de descentralización –tal cual propone el mito- , en realidad contribuye a generar un modelo más centralizado que el anterior, reduce los espacios para las decisiones autónomas y concentra el poder. La descentralización sólo es posible si existe la voluntad política de ceder parte del poder y si se definen procedimientos descentralizados. De lo contrario se ejecutarán actividades tan lejos y tan rápido como queramos, pero la autonomía de los locales lejanos será cada vez menor.

1603

Luis Amil Presidente de AsIAP


milveinticuatro

Haga usted mismo la presentación!!!

Lend Screen

Respaldo y garantía total con 25 años de experiencia www.roddi.com.uy Zabala 1376 | tel: 915 2784 | mafedal@adinet.com.uy


milveinticuatro

Hacer negocios jugandoE3, Electronic Entertainment Expo 2010 Tecnologías de interactividad con el usuario, están tendiendo a que prescindamos de dispositivos que nos permitan manejar nuestros personajes.

C

on el marco espectacular que brinda una ciudad cosmopolita como Los Ángeles, se desarrolló como viene sucediendo desde 1995, uno de los tres eventos referidos al entretenimiento, más importantes del mundo. Todo el mundo habla de lo increíbles que son las ferias de tecnología en estados unidos, pero sin conocer muchas, estoy convencido que esta está entre las más increíbles. Como no podía ser de otra manera, un ómnibus increíble, nos paso a buscar por la puerta del hotel para llevarnos al evento. No fue necesario llegar al evento para ya quedar sorprendido con un par de limousine, un Lamborghini, varios Porsches y muchísimos Lotus circulando normalmente por las calles. Ya en la puerta del evento, únicamente con estar parado ahí, se podía asegurar que dentro era imposible pasarla mal.

Un millón de dólares puestos por la empresa Virgin en una caja fuerte de cristal en plena vereda, carteles de los mejores juegos por toda la fachada del Convention Center y el estadio de los Lakers enfrente son algunos ejemplos de lo que se podía ver en la puerta. Luego de pasar por el papeleo de la acreditación, girando la cabeza y luego de caminar un par de pasos, pude ver que era un sueño hecho realidad. Fue como retroceder en el tiempo, a cuando siendo un niño, los nervios no te dejaban dormir esperando a ver que nos dejaban los reyes magos. Desde hacía meses, tenía planificado como debía recorrer la feria para optimizar los tiempos, pero durante las primeras cuatro horas, fue imposible lograr seguir dicho plan. Todo llamaba la atención, la cantidad de gente que había, las inmensas pantallas colocadas en cada uno de los stands con las presentaciones de los juegos y lo involucrados que estaban todos los expositores, para hacerte sentir dentro del juego. Durante ese rato, no podía dejar de sacarle fotos a todo. Era como que necesitaba sacar fotos, para poder expresar lo que estaba sintiendo y viendo en ese momento. Pero finalmente, luego de

esas primeras horas tuve que ordenarme para lograr aprovechar al máximo los tres días del evento. Como lo logre? No me quedo otra que sentarme en la plaza de comidas, almorzar y repasar un poco lo planificado. Para recorrer la feria, me había puesto 4 objetivos. Tenía que probar el proyecto de Microsoft finamente denominado Kineticks, no podía irme sin también probar Move, el proyecto de Sony para playstation 3, era imposible no probar las nuevas versiones de clásicos como Mortal Kombat, Donkey Kong, entre otros y como irse del evento sin ver el Nintendo 3ds con todo lo que se había hablado de el previo al evento. Luego de cumplir con esas cuatro visitas obligadas, les puedo contar que el mundo de los videojuegos está dando un giro radical. Porque un giro radical?, porque las nuevas tecnologías de interactividad con el usuario, están tendiendo a que prescindamos de dispositivos que nos permitan manejar nuestros personajes. Pero no solo eso, están utilizando tecnologías como las teles 3d, para que cada jugador tenga su propia pantalla a la hora de jugar, evitando las pantallas divididas. Estos son algunas de las novedades que les aseguro harán en poco tiempo tengamos que volver a aprender a jugar. El mercado de los dispositivos y accesorios para jugar. Porque casi no existe en nuestro país? Una de las cosas que nos sorprendió, es la cantidad de empresas y capitales, que giran en torno al diseño de accesorios y dispositivos para mejorar nuestra experiencia de juego. Desde fabricantes de comida la cual poseía el complemento vitamínico necesario para que no tengamos que dejar de jugar para ir a comer y aparte no engrasaba los dedos para no manchar nuestros controles, hasta réplicas exactas de volantes de Lamborghini que costaban 130 dólares o butacas de auto de carreras similares a las que se pueden encontrar en las ya

1623


poco comunes maquinitas de barrio, las cuales rondaban los 1000 dólares, marcaban la gran cantidad y variedad de opciones presentadas. Lo que más me impacto, fue una bola similar al famoso globo de la muerte que había en los circos, en la cual el jugador una vez dentro de ella y utilizando un casco de visión 360 grados junto con un arma de asalto muy realista, simulaba perfectamente una guerra virtual, en la que nosotros podíamos avanzar y correr dentro de la pelota tal como si estuviéramos corriendo por nuestras vidas en el campo de batalla. Viendo todas estas ideas y teniendo en consideración las diferencias entre los mercados, únicamente me queda reflexionar, porqué en nuestro país es tan difícil encontrar empresas que nos provean de estos accesorios?. Con todos los gamers que hay en nuestro país y la creatividad que nos caracteriza, no podemos presentar nuevos dispositivos nosotros también?. Videojuegos, volviendo a los orígenes que los hicieron grandes Las grandes compañías de videojuegos, apostaron este año a reavivar sus mejores títulos volviendo en algunos casos a sus orígenes. Mortal Kombat, por ejemplo abandono los movimientos en tres dimensiones, para volver al clásico 2d, EA eligió para el siguiente Need for Speed, volver a las persecuciones con vehículos policiales y así podríamos seguir durante toda la nota poniendo ejemplos. También títulos como NBA Jam y Sonic volvieron a aparecer en escena y van a dar que hablar. El que realmente sorprendió a todos, fue Nintendo que aposto a reavivar un clásico como fue el Donkey Kong Country, logrando un excelente resultado. Recuerden que la vuelta de estos clásicos va a dar que hablar. Andre Paris Director de Megaweb www.megaweb.com.uy andre.paris@megaweb.com.uy

1633


milveinticuatro

ProControl – Cuando lo difícil se hace fácil Sabe usted quienes navegan, a qué accede y cuándo accede en cada momento, por Internet en su empresa?, quiénes chatean?

P

uede restringir el acceso a páginas web por contenidos? (pornografía, violencia, drogas, etc.), generar completos informes de uso: quién se conecta, cuanto tiempo, cuando hay más tráfico, etc.

Quienes están a cargo del control en el uso de estos recursos en cualquier tipo de empresa y porque no en el hogar, saben que además de la enorme cantidad de beneficios que esto trae para la operativa diaria (chat con clientes o proveedores, envío de documentos/facturas, búsqueda de información, etc) se generan muchas veces, problemas bastante importantes y difícil de controlar. ProControl es una herramienta ideal para controlar y monitorear su red en tiempo real, sin necesidad de recurrir a un tercero para saber qué está ocurriendo en su empresa. Adaptable a cualquier Empresa y esquema. ProControl monitorea: -

Navegación por Internet Correo Electrónico Chat Consumo de Red Inventario de Equipos

Cualidades destacadas: Transparente: Se instala sin necesidad de modificar ningún equipo o servidor. Esta herramienta se ubica entre la red local y la salida a Internet, requiere de un equipo dedicado Monitoreo En Tiempo Real, Entérese al momento qué esta ocurriendo en su red. Preguntas como: por dónde navegan sus usuarios? que correos se envían o reciben? que equipo esta “enlenteciendo” la Red? Todas pueden ser respondidas con un simple click en tiempo real. Control Total, de manera simple se puede controlar, permitiendo o restringiendo el acceso de los usuarios a los recursos de Internet. - Los sitios a los que se puede acceder - Qué usuarios pueden chatear, o con quién lo pueden hacer - Equipos que pueden navegar por Internet. Administración Simple, Con unos simples clicks se configura y obtiene el resultado requerido. Se administra desde cualquier navegador web (Internet Explorer, Firefox, etc). No requiere ningún software cliente. Puede ser operado por usuarios con pocos conocimientos técnicos. Independiente, monitorea y controla, cualquier tipo de dispositivo: PC, notebook, celular; cualquier sistema operativo: Windows, Linux, Mac, etc. Además, ProControl, empieza a generar información y reportes inmediatamente que se instala. Es un desarrollo nacional, dedicado y enfocado específicamente para controlar la red, a diferencia de otros productos extranjeros, Precontrol está enfocado para cubrir los requerimientos de la realidad uruguaya.

1643

Alejandro Martinez Jorge Nantez Protech: Av 8 de Octubre 2355 - 402 3518 www.protech.com.uy info@protech.com.uy



milveinticuatro

El juego de seducir y no pasar a la acción ¿Por qué sucede?

A

unque se relaciona más con lo femenino los varones también juegan estos juegos de seducción, de conquista y retirada una y otra vez. Por lo general se observa más en personas adolescentes y jóvenes, aunque puede suceder a todas las edades. La idea sería coquetear pero como un juego, no como una manera de acercarse y pasar a la acción. Una especie de provocación, casi virtual, como si el seducido fuera usado para alimentar la autoestima al recibir admiración, atención, deseo, del otro pero no acción o por lo menos no es lo que se busca frecuentemente.

Miran, hacen alarde de sus encantos o herramientas de seducción, venden un producto que no se puede comprar. Si lo vemos del lado femenino podríamos hablar de un testeo de poderes, lucha de los géneros. Hoy las mujeres están apoderándose de muchas áreas y luchando por la equidad en espacios perdidos por la influencia de la cultura machista. Aparentemente estas conductas podrían ser parte de las que conforma una nueva manera de relacionarse en el juego sexual. La sexualidad trasciende el coito, la seducción y el coqueteo son parte de la sexualidad, allí empieza, y muchas veces termina, un “acto sexual” que tiene más la forma de una fantasía que de una realidad. Podríamos decir que es como un training, como decía, una manera de testear los limites propios y del otro. Como en toda

prueba hay un riesgo y estas conductas ponen en riesgo ya que no siempre el receptor de esta seducción actúa pasivamente ante ello. Pero no solo lo hacen las mujeres, varones también lo hacen, heterosexuales y homosexuales. Como decíamos es un juego de lucha de poderes, ver quien “aguanta” quien es más deseado. Ahora pensando en esto, diría que lo podríamos ver similar a lo que pasa en Internet. Los juegos sexuales por Internet son una expresión de esto. A través de el chat u otras herramientas, varones y mujeres en todas las combinaciones posibles, se seducen, se estimulan, buscan generar la atracción en el otro, el deseo y muchos llegan a altos grados eróticos con comunicaciones muy explicitas, y la mayoría de ellos o tienen interés de llegar a un contacto real con quien se relaciona. En muchos casos el anonimato o el no riesgo de exponerse parecen elevar el disfrute del juego. Los varones también fueron víctimas al igual que la mujer de la cultura machista que los condenó a ambos a roles prefijos que debían cumplir. En esta doctrina se dibujaron lo que se entendía como femenino y lo masculino y quien no actuara así quedaba en un lugar en el que podría cuestionarse su género. Hoy lentamente vamos viendo cambios en los roles de género y lo que se entiende como masculino y femenino. Hoy muchos varón, queda en casa mientras la mujer sale a trabajar, cuidan a los chicos, ganan menos que las mujeres, se encargan de las tareas junto con sus mujeres, y también lloran si son abandonados, se deprimen, se dejan seducir, etc. por Ps. Sex. Carolina Villalba www.sexualidadplena.com 2403 2127

1663



milveinticuatro

TSP/PSP en Uruguay Luego de este análisis uno se puede preguntar: ¿Si las inspecciones y revisiones son tan efectivas y tan poco costosas, por qué normalmente no se hacen?

Esta es la primera parte de un conjunto de artículos (seis) que presentan al Personal Software Process (PSP) y al Team Software Process (TSP). También en estos se presentará al equipo TSP Uruguay del Instituto de Computación, UdelaR, a la red “Software and System Process Improvement Network” (SPIN) y al nodo SPIN Uruguay. Como avanzaremos lentamente por estos temas, y usted puede estar ansioso por conocer el TSP/PSP, qué son los SPIN y qué es el equipo TSP Uruguay, le dejo estos enlaces que rápidamente le darán una idea de cada tema: - Breve introducción al PSP: http://www.sei.cmu.edu/reports/00tr022.pdf - Breve introducción al TSP: http://www.sei.cmu.edu/reports/00tr023.pdf - SPIN: http://www.sei.cmu.edu/spin/ - Grupo de Ingeniería de Software, UdelaR: http://www.fing.edu.uy/inco/grupos/gris/ Este primer artículo trata sobre calidad de software, sin entrar en definiciones, estándares y otras cosas que podrían resultar algo aburridas. La calidad es un aspecto central en TSP/PSP y por eso comenzamos este conjunto de artículos de esta manera. Los tres principios de la gestión de software según Humphrey Watts Humphrey es, sin lugar a dudas, el gurú de la Calidad de Software. Sus ideas, plasmadas en diversos libros y artículos, fueron la base para el desarrollo de CMM (hoy CMMI). Hablar de los aportes de Humphrey a la Ingeniería de Software llevaría más espacio del que dispongo. Pero, dado nuestro tema, simplemente voy a agregar que es quien desarrolló tanto el PSP como el TSP y que actualmente trabaja en el equipo TSP del Software Engineering Institute (SEI) de la Universidad de Carnegie Mellon.

En el libro “Winning with Software: An executive strategy” (1), Humphrey presenta tres principios fundamentales para la gestión de negocios de software. Dos de ellos son: 1 La calidad es la prioridad más importante. 2 Software de calidad es desarrollado por personas disciplinadas y motivadas. El tercer principio, que Humphrey lo presenta como el primero, puede parecer extraño a primera vista: “Reconocer que se está en el negocio del software”. Hoy en día la mayoría de los negocios dependen fuertemente de una u otra manera del software. Si ese es su caso, entonces usted está en el negocio del software. Si las demoras en el desarrollo o entrega de software afectan su negocio, si la calidad de algún producto de software también lo afecta, si debido a fallos en el software usted no puede entregar sus productos o servicios, entonces usted está en el negocio del software. En el libro citado anteriormente, Humphrey cuenta que un vicepresidente de Citibank una vez le dijo: “Somos un negocio de software enmascarado como un banco.” ¿Reconoció que su negocio es (también) el negocio de software? Si la respuesta es afirmativa entonces debemos considerar los otros dos principios. Una breve discusión sobre el primer principio se presenta a continuación. El segundo principio se presentará en los próximos artículos de esta serie. Calidad de Software Para fijar ideas y poder desarrollar un ejemplo, supondremos que el desarrollo de software se realiza en las etapas presentadas en la figura 1. Algunas de estas pueden llamar la atención pero en general representan las etapas más comúnmente encontradas en la industria de desarrollo de software. La figura no presenta ningún proceso de software en particular; estas etapas se pueden encontrar en el desarrollo en cascada, iterativo e incremental, en espiral, por fases, etc.

1683


milveinticuatro

Figura 1 – Etapas del desarrollo de software

Cada una de estas etapas debe apuntar a construir un producto de calidad. Tanto las etapas de construcción como las etapas de verificación de dicha construcción (revisiones, inspecciones y pruebas). Lamentablemente, en la industria de desarrollo de software es común que varias de estas etapas no sean realizadas. Las que normalmente se descartan son las revisiones y las inspecciones de todos los productos construidos durante el desarrollo (requerimientos, diseño, código, etc.). Existe una creencia no fundada de que dichas actividades retrasan el proyecto y no aportan a la calidad del producto final. Ninguna de estas dos afirmaciones es cierta. Fagan en 1976 presentaba las inspecciones como medio para reducir los defectos en el desarrollo de software (2). Luego Humphrey mostraría la efectividad de las revisiones individuales (3). Aplicando estos métodos se obtienen productos de calidad en menor tiempo y en menor costo. Existe una inmensa cantidad de resultados empíricos acerca de la efectividad y el costo de estas técnicas, pero ahora no es el momento de detenernos en esto.

Hace muchos años atrás se hablaba del code and fix. Método que hace alusión a “pasar a” programar rápidamente sin realizar diseños y luego “pasar a” las pruebas de sistema sin realizar revisiones, inspecciones ni pruebas unitarias. Codificar, probar y corregir; una y otra vez, parche tras parche. Esta práctica se creyó suprimida a partir de la adopción de procesos de desarrollos de software. Pero esta creencia tampoco es verdad. El code and fix sigue tan presente como antes. Muchos procesos de desarrollo centran la verificación de los productos de bajo nivel (diseño y código) en la realización de pruebas unitarias. Sin embargo, si no se realiza un diseño detallado de bajo nivel y si no se realizan ni inspecciones ni revisiones tanto del diseño como del código, estamos nuevamente presentes ante el famoso code and fix. La diferencia con el “antiguo” code and fix es que no se espera remover defectos en la prueba de sistemas sino que se intentan remover un poco antes: en la prueba unitaria. Codificar, realizar pruebas unitarias, corregir. Code and fix, un poco diferente y moderno, incluso en ocasiones con pruebas unitarias automatizadas, pero de todas formas… code and fix.

1693


milveinticuatro

Menos defectos en el producto final… Analicemos la calidad durante el desarrollo de software mediante un ejemplo. Para simplificar consideraremos sólo las etapas de codificación en adelante. Las etapas de verificación (compilación, revisión, inspección y pruebas) finalizan cuando se han removido los defectos que se logran encontrar en esa etapa. Esto quiere decir que un producto que pasa por una de estas etapas queda con menos defectos que con los que ingresó. El porcentaje de defectos que se logran remover en promedio en cada una de estas etapas es conocido como la efectividad de la etapa. Diversos estudios realizados indican que la efectividad de la compilación y de las pruebas, sean estas unitarias, de integración o de sistemas, ronda el 50%. Esto es lo mismo que decir que en cada una de esas etapas se logra remover la mitad de defectos que contiene el producto. La figura 2 muestra un programa que entra a la etapa de pruebas unitarias con 4 defectos y sale de ella con 2.

También existen diversos estudios acerca de la efectividad de las revisiones y de las inspecciones. Los datos indican que estas técnicas remueven en promedio el 70% de los defectos. Esto es una diferencia sustancial con la compilación y las pruebas. Estas efectividades se mantienen o mejoran cuando las técnicas son combinadas, es decir, cuando se aplica, una tras otra, distintas técnicas de verificación. En la actualidad muchas empresas de desarrollo y mantenimiento de software aún no utilizan ni revisiones ni inspecciones. Capers Jones analiza datos de diversas empresas de desarrollo de software y encuentra que el número remanente de defectos ronda los 7,5 defectos cada mil líneas de código (defectos/ KLoc) en empresas que no cuentan con ningún nivel del Capability Maturity Model Integration (CMMI) (4). Agregando al proceso de desarrollo las etapas de revisión y de inspección, las empresas pueden desarrollar productos con aproximadamente 1,05 defectos/KLoc (4). Esta diferencia es sustancial respecto a la práctica más común. Datos de uso en la industria del TSP indican que los defectos remanentes en los productos rondan los 0,06 defectos/KLoc. La primera vez que conocí estos datos quedé totalmente sorprendido, luego aprendí cómo es que el TSP logra estos números casi mágicos. De este número y otros números hablaremos en la segunda parte de esta serie de artículos. La figura 3 muestra la calidad del producto final según los tres casos mencionados.

Figura 2 – Efectividad de las pruebas unitarias

1703


Figura 3 – Defectos remanentes en el producto final

Primera conclusión: realizar inspecciones y revisiones reduce significativamente la cantidad de defectos remanentes en el producto final. Aplicar el TSP reduce en dos órdenes de magnitud la cantidad de defectos remanentes. … y a menor costo Aún falta responder acerca del costo. Vamos a definir el costo como la cantidad de horas que le lleva al equipo de desarrollo implementar el producto. La comparación que vamos a realizar es entre la estrategia normalmente usada (que llamaremos estrategia A) y la estrategia con revisiones e inspecciones (que llamaremos estrategia B). Dejaremos TSP fuera de este ejemplo. El análisis de costos, si bien es sencillo, es un tanto largo y no aporta mucho entrar en detalles. Es importante notar que las diferencias de costos entre ambas estrategias están dadas por dos factores. Uno es el costo asociado a realizar las inspecciones y las revisiones. El otro está asociado al tiempo que lleva remover los defectos en cada etapa. Como ejemplo usaremos un producto de 100.000 locs. Un producto de esta cantidad de líneas de código termina con 750 defectos si se usa la estrategia A y con 105 defectos si se usa la estrategia B.

El tiempo de corrección de un defecto varía según en qué etapa se encuentre el defecto. Según datos de diversas empresas de desarrollo de software los tiempos promedio de corrección de un defecto rondan los: 3 minutos en revisión, 25 minutos en inspección, 32 minutos en pruebas unitarias y 1.400 minutos en pruebas de sistema. Simplemente daremos una idea del costo de corregir defectos durante la prueba de sistema en cada una de las estrategias. La estrategia A remueve 750 defectos durante las pruebas de sistema (50% de efectividad de las pruebas de sistema). Cada defecto se corrige en 1.400 minutos, esto hace un total de 17.500 horas. Una única persona, trabajando sin parar 40 horas semanales las 52 semanas del año tardaría 8,4 años en remover los defectos del producto durante las pruebas de sistema. La estrategia con inspecciones y revisiones remueve durante las pruebas de sistema 105 defectos. Esto hace un total de 2.450 horas. Una persona tardaría 1,2 años en finalizar las pruebas de sistema. Sumando los costos de las inspecciones y revisiones igual la estrategia B consume extremadamente menos horas que la estrategia A.

1713


Segunda conclusión: en el desarrollo de software la calidad no cuesta, sino que paga. El costo de la calidad se discutirá con mayor profundidad en la tercera entrega de esta serie. Luego de este análisis uno se puede preguntar: ¿Si las inspecciones y revisiones son tan efectivas y tan poco costosas, por qué normalmente no se hacen? Humphrey indica que esto se debe a que para realizar buenas revisiones e inspecciones se requiere disciplina y entrenamiento especial, y normalmente, los desarrolladores no están entrenados en estos métodos y por lo tanto no creen que estos los ayuden (1). Mark Paulk contesta una pregunta más general sobre PSP de esta manera: “Desafortunadamente, muchas de las mejores prácticas de la ingeniería de software no son tan ampliamente adoptadas como la evidencia recomienda” (5). Calidad y cronograma Una preocupación constante de la gerencia, y es bueno que así lo sea, es el cronograma. ¿Podremos entregar el producto a tiempo? La calidad del producto de software es lo que más afecta el cronograma. El trabajo de calidad se puede predecir, cada etapa tiene un tiempo estimado y se conoce con cuántos defectos remanentes pasa el producto a la siguiente etapa. Esto no sucede así en el desarrollo de mala calidad. Los proyectos que no gestionan la calidad probablemente no la obtengan, entonces, en esos casos, los proyectos terminarán siendo gestionados por los defectos de los productos desarrollados (1). Cuando los gerentes y los desarrolladores no están entrenados en métodos de calidad los proyectos de desarrollo pasan rápidamente a las pruebas de sistema. Al llegar a estas todo es incierto, se sabe que se está en la etapa de pruebas de sistema pero no se sabe cuándo se va a salir de ella. Los defectos han tomado el control del proyecto y el cronograma probablemente no se cumpla.

Referencias: 1. Humphrey, Watts S. Winning with Software: An Executive Strategy. : Addison-Wesley Professional, 2001. 2. Design and Code Inspections to Reduce Errors in Program Development. Fagan, Michael E. : IBM Systems Journal, 1976, Vol. 15, págs. 182-211. 3. Humphrey, Watts S. A Discipline for Software Engineering. : AddisonWesley Professional, 1995.

En este artículo presentamos de forma breve la importancia de la calidad para un proyecto de software. Proyectos que usan de forma correcta métodos como las revisiones e inspecciones logran obtener productos finales con al menos un orden de magnitud menos de defectos. Además, estos productos se desarrollarán con un menor costo.

4. Capers, Jones. Software Assessments, Benchmarks, and Best Practices. : Addison-Wesley Professional, 2000.

Si usted está de acuerdo en que la calidad es la prioridad más importante entonces el segundo paso es saber cómo obtenerla. Los siguientes artículos de esta serie presentarán una forma, probada y medida, de obtener productos de calidad, cumpliendo con el cronograma y los costos establecidos.

Diego Vallespir Profesor de Facultad de Ingeniería, UdelaR TSP Uruguay - Grupo de Ingeniería de Software dvallesp@fing.edu.uy

5. The Impact of Process Discipline on Personal Software Quality and Productivity. Paulk, Mark C. : Software Quality Professional, 2010, Vol. 12, págs. 15-19.

1723



Sociales Fiesta milveinticuatro JIAP

Che Montevideo

Intendencia Municipal de Montevideo

Techday

Zonamerica

CIGRAS Torre de los profesionales

Gnexus XXGX

Hotel Victoria Plaza

“Recuerdame�, Avant Premiere milveinticuatro



1

6

10

2

7

11

3

8

12

4

9

13

5 1 Che Montevideo 2 Fernanda Martínez, Gisella Dittamo, Andrea Fleurquin (Unicom) 3 Luis Amil (BPS), Daniel García Azpiroz (BROU), Laura Dominguez (Bunge Uruguay), Felipe Sotuyo (ISACA), Enilda Santana de García 4 Mariano Koci (Grupo Led) y Promotora, en el VIP de Cerveza Paulaner 5 Clara Perez (AOC), Enrique González (milveinticuatro) 6 Sergio Canals (Intcomex), Marcos Navarro y Gustavo Testa (LATU) 7 Marcelo Tiscordio (MacroSeguridad) y Sra, Mariano Koci (Grupo Led) 8 Anfitrionas del evento de milveinticuatro en Che Montevideo 9 Nelson Otero y Troupe de RODDI 10 Nelson Otero y colaboradoras de RODDI 11 Buffet 12 Stand de Jack Daniel’s 13 Sylvia Tosar (Parlamento), Clara Perez (AOC), Luis Amil (BPS)


Fiesta milveinticuatro - Che Montevideo Lanzamiento edición Nikola Tesla

14

19

23

15

20

24

16

21

25

17

22

26

18

14 Banners de AOC y milveinticuatro en la entrada a VIP AOC 15 Alfredo Benzano (Licencias Originales), Jorge Gabito (Clinica Gabito Mira), Gabriel Varela (milveinticuatro) 16 Mariano Koci (Grupo Led), Marcelo Tiscordio (Grupo Led) 17 Carolina Neme, Laura Dominguez (Bunge), Damian Montans (LATU), Elke Enss (LATU), Monica Neme, Guillermo Sanchez (DeLarrobla y Asoc) 18 Luis Amil (BPS), Carlos Fernandez (Infoland), Daniel Garcia y Sra. (BROU) 19 DJ. Javier Misa 20 Gabriel Gonzalez (Incotel), Gabriel Diaz (Netwan), Clara Perez (AOC) 21 Alejandro Martinez (Protech), Clientes invitados de Protech, Jorge Nantes (Protech) 22 Buffet 23 Alberto Kesman y Juan Carlos Scelsa con colaboradoras de RODDI 24 Carolina Neme, Damián Montans (LATU), Laura Dominguez (Bunge Uruguay) 25 Lucía Durañona (POPaD), Alfredo Benzano (Licencias Originales), Gabriel Gonzalez (Incotel), Paola Laveglia (POPaD) 26 Clara Perez (AOC), Sergio Canals (Intcomex)


JIAP

Intendencia Municipal de Montevideo 1

6

10

2

7

11

3

8

12

4

9

13

5

Del 11 al 13 de Agosto de 2010, AsIAP -Asociación de Informáticos-, organizó en la IMM la 19ª edición de JIAP, con casi 60 conferencias de diversos rubros. 1 Gustavo Perdomo (IM Cerro Largo) 2 Agustin Petinari (milveinticuatro), Graciela Berio (UTU), Enrique Gonzalez (milveinticuatro), Enrique Castro (UTU), Andre Paris (megaweb) 3 Gustavo Perdomo (IMCL), Daniel García (BROU), Carlos Beiro (AsIAP), Marcos Carámbula (Intendente de Canelones), Sergio Botana (Intendente de Cerro Largo) 4 Stand milveinticuatro 5 Luis Amil (AsIAP), Tabaré Vázquez 6 Tabaré Vázquez, Miguel Brechner (CEIBAL) 7 Carlos Roldán (casinos), Nicolás Jodal (Artech), Miguel Galán (BROU), Jorge Veloso (AsIAP), Humberto Nazzari (AsIAP) 8 Nicolas Jodal (Artech) 9 Publico 10 Andres Navarro (Sonda) 12 Publico en conferencia 13 Luis Amil (AsIAP), Daniel García (BROU), Fernando Caloia (BROU)


Techday

Zonamérica

C

on un enfoque moderno y de mentalidad abierta, Zonamérica se presentó en la comunidad informática con su TechDay.

La propuesta tuvo buena adhesión del público, no solamente de las informáticos del entorno sino con el agregado de estudiantes que conocieron a un Jacksonville de puertas abiertas. Felicitamos la organización y la iniciativa, y esperamos con ansias la próxima edición.


CIGRAS

Torre de los profesionales 1

6

10

2

7

11

3

8

12

4

9

13

5

El 29 y 30 de Julio de 2010, en la Torre de los Profesiones, ISACA organizó CiGRAS, un evento dedicado a la seguridad informática. 1 Guillermo Freire (Antel), Pablo Miño (A. Castro) 2 Rafael Méndez (Bevsa), Mariano Morano (Novell), Sylvia Tosar (Parlamento) 3 Evelyn Anton (ISACA), Santiago Paz (Agesic) 4 Santiago Paz (Agesic), Felipe Sotuyo (ISACA), Horacio Nehmeth (Agesic) 5 Equipo CIGRAS 6 Juan Jackson (Microsoft) 7 Leonardo Berro (S. Advisor), Sergio Weiske (CBM Integra), Roberto Ambrosoni (ORT) 8 Pablo Miño, Leandro Bustos, Osvaldo Pais (A. Castro) 9 Anibal Calco (CBM Integra), Cristina Ledesma (ISACA), Sergio Weiske (CBM Integra), Alejandro Viola (Blue Coat) 10 Raúl Castellano (CYBSEC), Aureo Monteiro (Pelissari), César Ganduglia (ISACA) 11 Fernando Calloia (BROU) 12 Rossana Genochio, Cristina Zerpa (Agesic) 13 Público asistente


Gnexus XXGX

Hotel Victoria Plaza 1

6

10

2

7

11

3

8

12

4

9

13

5

E

n el Hotel Victoria Plaza, del 13 al 15 de setiembre y con un impresionante soporte de audiovisual, Genexus presentó su “XX Meeting” en la 20ª edición.

Sin lugar a dudas, un evento internacional en todo sentido, en calidad y cantidad de conferencistas, y público en general; ambos de variadas nacionalidades. El evento de Breogán Gonda y Nicolás Jodal fue transmitido online para el mundo.


“Recuerdame”, Avant Premiere, Moviecenter Lanzamiento edición Nikola Tesla 1

6

10

13

2

7

11

3

8 11

4

5

9

12

U

na vez más, milveinticuatro y sus auspiciantes, invitaron a un Avant Premiere en MovieCenter de Montevideo Shopping de la película “Recuérdame”.

Agradecemos el reconocimiento de quiénes colmaron las instalaciones y de quiénes prefirieron acompañarnos en la degustación de Chocolate de Arcor, Champagne Freixenet y Whiskey Jack Daniel´s. Esperamos contar con ustedes en nuestra próxima convocatoria, haciéndonos llegar su interés en suscripciones@1024.com.uy




Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.