Revista Mundo Contact Junio 2015

Page 1

N煤mero 131-2015

LA REVISTA ESPECIALIZADA EN TIC

La revoluci贸n del Cloud Computing 16

El nuevo panorama en Anal铆tica y Business Intelligence [Pag. 4] Los retos en el despliegue de Ciudades Inteligentes [Pag. 12 La Virtualizaci贸n, una herramienta al alcance de todos [Pag. 22] 5 errores al implementar un Data Center Definido por Software [Pag. 28]


Editorial El Cómputo en la Nube cambia la concepción y las prácticas de las TIC en un plano histórico Tal vez una de las principales características del cómputo en la nube es el enorme espectro de beneficios que aporta y el alcance de su aplicación en prácticamente todos los entornos organizacionales y de los mercados. Este sistema informático sustentado en Internet retribuye beneficios económicos al transferir al proveedor de servicios hospedados la adquisición, implementación y desarrollo de tecnología y pagar sólo el consumo de los servicios utilizados, además de abatir el costo de capacitación y mantenimiento de una planta de especialistas, además de beneficiarse con el escalamiento en infraestructura, procesamiento y almacenamiento. Gracias al cómputo en la nube, ahora las organizaciones medianas y pequeñas pueden operar en un plano de competitividad en el uso de la tecnología con las grandes organizaciones. Otro atributo de gran trascendencia es la capacidad de tener acceso a las bases de datos y aplicaciones corporativas desde cualquier dispositivo de cómputo, lo cual da lugar a otro fenómeno histórico como lo es la movilidad desde cualquier lugar y momento. Aún más, las organizaciones pueden concentrar sus recursos capacidades y talentos en las estrategias, tácticas procedimientos que tienen un impacto directo en su continuidad y permanencia, delegando a otras entidades la integración, implantación y actualización de sus requerimientos tecnológicos. El escepticismo manifiesto o latente de algunas organizaciones respecto a la seguridad de los datos y procesos no ha sido impedimento para que en México el 62% de los grandes corporativos utilicen en alguna medida las versiones del cómputo en la nube y que la proyección para 2015 sea un crecimiento del 32%. No obstante, la seguridad sigue siendo un factor decisivo en la adopción de soluciones en la nube, por lo que las empresas proveedoras de estos servicios, junto con la Unión Europea, se empeñan en lograr niveles de seguridad cada vez mayores en las estructuras y funcionalidades del computo en la nube. En nuestra presente revista ampliamos y profundizamos este tema con análisis y entrevistas a especialistas en este tópico.

El Consejo Editorial



El nuevo panora y Business I


ama en Anal铆tica Intelligence

Una pol铆tica de gobierno de datos orientada a tener una buena informaci贸n incluye a toda la empresa en su consecuci贸n.


Entrevista con John Manning, Director Técnico de Information Builders en Latinoamérica, España y Portugal. ¿Cómo se definen las prioridades para asignar un orden de importancia para la obtención y explotación de la información dentro de las empresas? El tratamiento de la información, en cualquier empresa, debe seguir los siguientes pasos: Recolección de los datos: En primer lugar, cualquier compañía que desee emprender una correcta estrategia de datos ha de evaluar si puede recuperar la inversión relativa a capturar y almacenar toda la información de la que dispone. A veces es más recomendable evitar aquel tipo de información cuyo costo de evaluación es demasiado alto. Pero cuando da con los datos que busca, deberá empezar a recolectarlos. No obstante, hay que ir más allá de los datos en sí y adentrarse también en los metadatos, ya sea el sistema y el tiempo de creación, el canal por el que se han distribuido, los sentimientos que se reflejan en el texto, etc. Nuestras soluciones de integración iWay ayudan a recolectar cada modelo de información, ya sea para su utilización en tiempo real o para propósitos históricos. Hablamos tanto de datos no estructurados, como posts procedentes de blogs o comentarios en redes sociales; datos cuyo origen está en la nube, ya sea de servicios web o de queries; datos estructurados provenientes de ERPs, CRMs, plataformas legacy y otros sistemas; o datos sensoriales relativos a procesos RFID o escaneos UPC. Limpieza y correlación de los datos: Antes de emplear los grandes volúmenes de datos, se hace necesario limpiarlos. Y resulta ineficaz hacerlo si están siendo empleados en ese momento o si ya han sido almacenados en vastos almacenes de datos. Lo más apropiado es limpiarlos allá donde se encuentran: ya sea en el punto donde las transacciones fluyen a través de los sistemas; en el campo del sitio web donde el usuario hace clic; o allá donde el RSS feed te dice que ya hay disponible una nueva entrada del blog que sigues. Existen soluciones de integridad que incluyen una herramienta de cualificación de datos que ayuda a crear un ‘cortafuegos de calidad de la información’, y que garantiza la calidad del dato antes de que éste se propague a otras áreas de la empresa. Como resultado se obtienen mejores procesos operacionales, una inteligencia de negocio más óptima y –a la vez que el dato se traslada hacia el reino del Big Data- una analítica de los grandes volúmenes de datos mejor gestionada y correlacionada. Además, estas soluciones también proveen tecnología de gestión de datos maestros (MDM o master data management, por sus siglas en inglés), que permite correlacionar información dispar desde distintos tipos de sistemas –y que puede ser supervisada por administradores de datos que incluso pueden gestionar datos desde los dispositivos móviles.


Empleo de los datos: business intelligence, analítica y rastreo: La mayoría de las compañías no tienen problemas a la hora de recolectar datos. De hecho, suelen tener más información de la que pueden utilizar. A pesar de que las tecnologías de inteligencia de negocio (BI), analítica y búsqueda de datos empresariales se hallan bastante maduras, la mayoría de la gente emplea muchas horas a la semana buscando la información que necesitan. Para sacar partido de grandes volúmenes de información, las empresas deben darle poder a sus usuarios de una manera sencilla y accesible. Por ejemplo, proporcionar a sus profesionales de atención al cliente herramientas de valoración predictiva que les permitan saber qué ofertas tienen más posibilidades de resultar existosas. También deben facilitarles aplicaciones sofisticadas de visualización que les ayuden a analizar patrones entre millones de puntos de datos; o bien, suministrar al director de marketing un cuadro de mando que le permita valorar los sentimientos que están despertando en las redes sociales los nuevos productos que acaban de lanzar. Si los datos de una empresa adquieren un volumen de dimensiones considerables, esa organización necesitará ayuda para encontrar la información o la analítica que deriva de ella. Por ello habrá de contar con un motor de búsqueda, como es el caso de Magnify Search Engine, que se encuentre plenamente familiarizado con los datos estructurados y no estructurados, y con los links a los informes y análisis existentes.

¿Cómo se construye un modelo para obtener información que actualmente resulta múltiple, difusa y ‘propietaria’ dentro de las organizaciones? Los procesos para generar una cultura de los datos dentro de las organizaciones no es algo realmente sencillo. Todo el mundo comprende y acepta la importancia de la información dentro de las entidades y que ésta debe ser fiable. El problema viene cuando se trata de imponer modelos de datos verdaderos dentro de las empresas, puesto que hay choques culturales y de poder. Muchas veces se cree que la cuestión de los datos es solamente responsabilidad del área de TI, y no es así. Una política de gobierno de datos orientada a tener una buena información incluye a toda la empresa en su consecución, es decir, tanto a TI como a los departamentos


de negocio responsables de los datos de su dominio. Estos procesos deben estar liderados desde la dirección para que la involucración de todas las partes resulte eficaz.

¿Qué opinas de establecer una figura corporativa dentro de las organizaciones, responsable de gestionar la obtención y explotación de los datos, y en general de la información? Un gobierno de datos que se presuponga exitoso deberá arrancar con una estrategia de gestión de la información sólida y bien definida, y descansar sobre una solución fiable de gestión de la calidad de los datos. La clave estriba en crear equipos de ‘data stewards’, compuestos por profesionales técnicos y usuarios de negocio, pero liderados por un profesional con un perfil no técnico, que preserve la calidad de cualquier nuevo dato. Aunque el ‘data steward’ capitanee el plan futuro de gestión de calidad de los datos, también resulta fundamental contar con una solución completa que ayude en estas tareas. Este tipo de tecnología permitirá que la estrategia sea más efectiva, al hacer posible que el ‘data steward’ pueda perfilar, transformar y estandarizar la información, al tiempo que la enriquece al incluir cualquier dato perdido.

¿Cómo percibes la respuesta de la industria ante la creciente inseguridad y ataques a la privacidad de los datos? La industria se toma muy en serio todo lo que tiene que ver con la seguridad de los datos. Es un proceso continuo, pues cada día aparecen nuevos riesgos y las organizaciones deben estar preparadas para evitarlos. Además, no solo la industria se encarga de ello, sino que los Gobiernos también ostentan su cuota de responsabilidad a la hora de implantar leyes que protejan los datos privados de personas y entidades.

¿Cuál es la propuesta de Information Builders dentro del concepto empresarial de la tercera plataforma (Nube, Big Data, Analíticos, Movilidad y Social Business)? Information Builders da cabida con su tecnología a todas las áreas que demandan las tendencias que conforman la tercera plataforma: En lo relativo a la nube, consideramos clave la evolución del software hacia el modelo en la nube o de pago por uso. El SaaS sigue creciendo a un ritmo espectacular, en comparación a la venta de licencias. Concretamente, el Business Intelligence como Servicio (Business Intelligence as a Service o BIaaS) extrae el máximo partido de este modelo tecnológico y ofrece una serie de ventajas realmente atractivas para el cliente, dependiendo de sus necesidades en materia de infraestructura: menor inversión, nuevo modelo de pago, sin


instalación, menor riesgo, todo incluido, en cualquier máquina, con cualquier sistema operativo, libertad y disponibilidad global, y actualizaciones livianas y constantes. Estamos intensificando nuestra apuesta por el universo del Software como Servicio (SaaS) a través de una serie de socios tecnológicos que están optimizando sus procesos y fortaleciendo sus negocios gracias a la implementación de la plataforma de BI WebFOCUS en sus soluciones SaaS. Entre ellos se encuentra Unisys, que está ofreciendo a la industria soluciones en modo SaaS desde hace más de una década; así como otras organizaciones de la talla de Blue Ocean Consulting, Chrome River Technologies, Emergency Medicine Business Intelligence (EMBI), Mercurial y Varolii. Si hablamos de Big Data, estamos ayudando a nuestros clientes a sacar partido del potencial del Big Data a través de sus soluciones de analítica avanzada. Conforme las compañías se enfrentan cada día a mayores volúmenes de datos tanto estructurados como desestructurados, hemos sabido evolucionar nuestra propuesta tecnológica para ofrecer a los clientes un acceso en tiempo real a la información, independientemente de su tamaño, forma o fuente de la que proceda. Hemos introducido nuevas tecnologías para simplificar el análisis de grandes volúmenes de datos en torno a tres áreas clave: analítica de las redes sociales, analítica basada en motores de búsqueda y visualizaciones de datos. Además de estas avanzadas capacidades de análisis, contamos con un abanico de soluciones de integración de Big Data y gestión de la información. Gracias a este arsenal tecnológico, las organizaciones podrán afrontar sin limitaciones los nuevos requerimientos en materia de computación y los retos derivados de los grandes volúmenes de datos, extrayendo el máximo valor de la inversión que han realizado en materia de información. En lo relativo a la analítica, y como ya hemos apuntado anteriormente, debemos remarcar que estmos empleando cada vez con más asiduidad las soluciones de analítica predictiva para mejorar las estrategias de toma de decisiones e incrementar los ingresos. Sin embargo, para sacar realmente partido de los beneficios de la analítica predictiva es necesario que las compañías cuenten con una plataforma unificada que posibilite diversas rutinas: acceso nativo a sus diferentes fuentes de datos; capacidad para preparar y manipular los datos y poder descubrir los patrones que explican los comportamientos del consumidor; y, sobre todo, integración de los resultados previstos dentro de las aplicaciones creadas para el usuario final. Históricamente las empresas han batallado para tratar de obtener este tipo de visión integral de sus datos. Por lo tanto, hemos hecho énfasis en esta demanda de la industria a través de WebFOCUS RStat, un completo entorno donde se integra el BI y la analítica predictiva. Esta solución cubre la brecha existente entre los datos históricos de una organización y sus operaciones de negocio con vistas al futuro, garantizando que la analítica predictiva forme parte de cada reporte, y permitiendo a los usuarios una toma de decisiones con base


en previsiones precisas y validadas relativas a futuros acontecimientos o a una serie de condiciones específicas. En lo concerniente a movilidad, aunque la tecnología de business intelligence móvil ya está disponible en el mercado desde hace tiempo, y las compañías reconocen la importancia de dar a los usuarios móviles la capacidad de acceder e interactuar con la información mientras están fuera de la oficina, numerosas empresas todavía se plantean dudas a la hora de embarcarse en un proyecto de estas características. Existen muchos mitos infundados que implican que el BI móvil es muy complejo de implementar y utilizar, muy limitado en materia de funcionalidad, y/o demasiado caro con respecto al valor que aporta. Nuestra plataforma WebFOCUS echa por tierra todos estos mitos. En realidad, las compañías que escojan la solución adecuada, con las capacidades apropiadas, podrán hacer realidad un bajo TCO y un rápido ROI, a la vez que dotan a sus usuarios móviles con la capacidad de acceder e interactuar con la información corporativa completa y oportuna –en cualquier momento y lugar–, y desde cualquier smartphone o tablet. Al contrario de las herramientas de BI móvil que sólo ofrecen poco más que un simple acceso a los datos básicos, nuestra solución pone a disposición de cualquier dispositivo móvil poderosas funciones como la generación guiada de informes personalizados, la analítica avanzada, el procesado para la salvaguarda de cambios y transacciones, y el BI en tiempo real. Con una arquitectura cliente mínima basada en el navegador, que se apoya 100% en tecnologías web para poder ofrecer aplicaciones móviles, las organizaciones pueden ampliar el número de aplicaciones con rapidez y el contenido disponible en los dispositivos móviles sin cambiar la arquitectura subyacente. Y, por último, en lo que tiene que ver con el social business, consideramos que uno de los aspectos que no deben faltar cuando una empresa se propone desarrollar una estrategia de redes sociales es cómo analizar el ingente volumen de información que esos canales generan, y hacerlo adecuadamente. Hay muchas empresas que actualmente desarrollan análisis de la actividad en las redes sociales, pero se quedan ahí, lo entienden como un mundo independiente. Para nosotros es importante entender el análisis de las redes sociales dentro de un todo en la empresa, es decir, no sólo analizar la actividad per se, sino considerar cómo afecta, por ejemplo, a las ventas o a la gestión de la relación con los clientes (CRM). Realmente las redes sociales nos ofrecen más indicadores de los que podemos incluir en nuestros análisis actuales dentro de la empresa. Las herramientas de business intelligence se encuentran muy maduras y ya permiten realizar cualquier tipo de análisis de datos de redes sociales, como el sentimiento, la influencia, el networking, etc.


Lo que veremos en un futuro cercano es la aparición de nuevas representaciones gráficas de los datos recogidos en estos medios. Si hablamos de acciones concretas, puedo decir que nuestras herramientas de análisis de redes sociales están permitiendo, por ejemplo, sacar conclusiones sobre la correlación de la actividad en redes sociales con las ventas producidas por una nueva campaña; sobre la imagen que se tiene de una marca en concreto; o sobre si tiene reflejo en las reclamaciones las llamadas que se reciben en el call center.


Los retos en el de de Ciudades Inteli

Las urbes deben habilitar nuevos servicios que mejoren la calidad de vida a la poblaci贸n, brindar mayor seguridad y permitir a sus habitantes generar y manejar nuevos ingresos.


espliegue igentes


Para abordar y mejorar la seguridad como parte de una iniciativa de Ciudad Inteligente, muchos dispositivos -como cámaras, sensores, accesorios personales, etc.-, necesitan ser instalados y utilizados. Todos ellos requieren conectividad en el borde de la infraestructura de red. Por supuesto, los proveedores de tecnologías inalámbricas desempeñarán un papel clave, pero muchos requerirán conectividad a la infraestructura de la ciudad. Incluso, los dispositivos conectados al proveedor probablemente tendrán que conectarse de forma segura a una infraestructura analítica común. Todos estos dispositivos periféricos forman parte del llamado Internet de las cosas (IOT) o Internet de Todo (OIE). El verdadero desafío es cómo conectar de forma segura todos estos dispositivos periféricos a la red de la ciudad y conectar de manera segura aquellos que funcionan a través de un proveedor o infraestructura de terceros. Esto significa que será necesaria más agilidad para añadir decenas de miles de dispositivos a una red que en el pasado requería múltiples redes físicas para escalar, sin comprometer la seguridad. Todo, incluyendo IOT, seguridad, escalabilidad y confiabilidad deben evaluarse seriamente. ¿Cuál es el punto de la implementación de IOT si no pueden escalar, si no es segura ni confiable? En definitiva, todo converge en la necesidad de una arquitectura de próxima generación para atender las necesidades de las Ciudades Inteligentes. No se puede permanecer con una arquitectura de cliente/ servidor de 20 o 25 años de antigüedad, ya que esta arquitectura podría permitir que los hackers ganen visibilidad al instante de toda la red. Ante esto, se requieren soluciones que provean una arquitectura de matriz de próxima generación basada en el transporte de Ethernet optimizado para servicios IP, independientemente de su metodología de conectividad. Este enfoque deja literalmente toda la red invisible a los hackers. Una tecnología de estas características es capaz de soportar hasta 15,000 cámaras funcionando sobre una única infraestructura convergente con un protocolo, experimentando 500ms o mejores tiempos de recuperación. Este es el tipo de cambio de infraestructura que requieren las Ciudades Inteligentes para salvar vidas, mejorar la experiencia de sus residentes y permitir nuevos servicios de los cuales la comunidad se beneficie.

La seguridad también es prioritaria La ciberseguridad para los gobiernos ahora y en el futuro previsible es prioridad. De hecho, muchos encargados de TI están reconsiderando el apoyo empresarial de BYOD y de SDN, en donde la arquitectura de código abierto está siendo promovida y se espera que ayude a impulsar la agilidad de los negocios. Desde un punto de vista de seguridad más fundamental, los gobiernos y las empresas se encuentran muy preocupados de que alguien pueda penetrar sus redes corporativas y sus bienes, exponiendo su propiedad intelectual y, por supuesto, información de ciudadanos y clientes. Por lo tanto, buscar soluciones que reduzcan la capacidad de los hackers para obtener acceso y visibilidad de su infraestructura de IP y topología es prioridad para los tomadores de decisión de los sectores público y privado. Existen soluciones que pueden ayudar a resolver esta situación, sin embargo, necesitan un cambio de mentalidad y una transición de arquitectura legada. Los clientes necesitan abrir sus mentes urgentemente y evaluar rápidamente la oferta existente. La clave para una solución viable es acoger un ecosistema tecnológico que permita atender a estas necesidades.


Desde un punto de vista técnico, las ciudades tienen que pasar a un modelo de arquitectura diferente para soportar servicios ‘Smart-X’. Hasta ahora se ha aprovechado adecuadamente el modelo tradicional, pero en los últimos 25 años ha aumentado su complejidad y ha hecho de la confiabilidad un reto enorme, debido a protocolos complejos necesarios para atender todas las necesidades de los negocios. Ningún proveedor puede hacerlo por cuenta propia, lo que refuerza la necesidad de una arquitectura abierta de regímenes de propiedad. La buena noticia es que existen soluciones; la mala noticia es que si las empresas privadas y públicas siguen buscando entre los mismos proveedores que construyeron sus redes hace 20 años proclamando que pueden hacerlo todo, su enfoque fallará. Por tanto, se recomienda considerar una arquitectura abierta y aún controlada con responsabilidad de los expertos de tecnología, lo que proporcionará piezas al rompecabezas, lo que es claramente complejo y desafiante. Las Ciudades Inteligentes van más allá de habilitar los servicios de WiFi. Hay una nueva tendencia tomando forma, mientras que el WiFi es sin duda uno de los servicios, parte de la mayoría de las iniciativas de Ciudades Inteligentes están agregando videovigilancia y análisis a gran escala, lo que es bastante difícil cuando se utiliza una infraestructura obsoleta. A medida que los gobiernos se provean de todas estas nuevas capacidades y servicios para las Ciudades Inteligentes, tendrán que revisar su infraestructura para poder escalar y satisfacer las necesidades de análisis en tiempo real. También tendrían que considerar la adición de tecnología de sensores para atender necesidades diversas que contribuyan a hacer más segura la ciudad. Por ejemplo, si la ciudad utiliza el gas natural, probablemente quieran implementar sensores para detectar el flujo de fugas de gas potenciales en toda la ciudad, de modo que les permita reaccionar rápidamente ante un problema potencial. Los gobiernos podrían aprovechar la analítica de videovigilancia para dar seguimiento de una forma inteligente a vehículos de respuesta a emergencias y controlar las luces reduciendo el tiempo al destino y el potencial de accidentes. Otras de las preocupaciones en muchas ciudades alrededor del mundo son las luces de la calle, debido a que representan una fuente de energía desperdiciada. Pero éstas pueden ser controladas remotamente durante toda la noche, dependiendo de la intensidad del tráfico, aprovechando el análisis en tiempo real. Esto puede lograrse fácilmente reduciendo el consumo de energía eléctrica sin comprometer la seguridad de los residentes o visitantes. El concepto de Ciudades Inteligentes se trata de habilitar nuevos servicios para brindar mejor calidad de vida a la población. Se trata de brindar mayor seguridad a las ciudades, de ofrecer nuevos servicios permitiendo a los consumidores generar y manejar nuevos ingresos o en algunos casos proporcionar una mejor experiencia a los visitantes y turistas. Si los residentes se sienten seguros, obtienen los mejores servicios y sienten que su ciudad está a la vanguardia, serán más felices y comprometidos con el bienestar de su ciudad. La gente tiene muchas opciones para elegir su lugar de residencia, sin embargo actualmente, muchas personas se preguntan si realmente quieren vivir en una ciudad no comprometida con el mejoramiento de la calidad de vida de la población. Por Jean Turgeon, Vicepresidente y Jefe de Tecnología de Arquitectura de Software Definido (SDA) en Avaya


La revolución del Cloud Computing 1 de cada 3 empresas en México ha invertido en nube pública, privada o híbrida, pues ésta brinda la posibilidad de acceder a servicios TIC de forma flexible, escalable y a un precio ajustado al consumo real. Por Laura Sarmiento



Cloud Computing es una herramienta tecnológica que permite a las empresas administrar y hospedar su información en Internet, además de ofrecer numerosos recursos on demand y aplicaciones que reducen los costos de operación en beneficio de las compañías de todo el mundo. Uno de los mayores beneficios que ofrece este servicio es la virtualización de los centros de datos, que pueden operar de manera automatizada, sin la necesidad de la presencia de una persona física y ser gestionados en cualquier momento y tiempo. En el caso de México, se estima que el ahorro al adoptar la nube equivale a 0.31% del PIB nacional, 0.23% corresponde al ahorro en el sector privado y 0.08% al ahorro en el sector público. La computación en la nube o cloud computing tendrá un crecimiento anual compuesto de aquí al 2018 de 55%. Según IDC, la Nube en Infraestructura como Servicio (IaaS, por sus siglas en inglés) alcanza los 98 millones de dólares; la Nube en Plataforma como Servicio (PaaS), 45 millones de dólares; y la Nube en Software como Servicio (SaaS), 115 millones de dólares. Si bien se tiene un crecimiento alto, aún es limitado, ya que sólo una de cada tres empresas en México ha invertido en nube pública, privada o híbrida. Estas empresas encuentran en el cloud computing la posibilidad de acceder a servicios TIC de forma flexible, escalable y a un precio ajustado al consumo real. De acuerdo con un estudio realizado por la consultora Market Research Media, el cloud computing generará 270,000 millones de dólares en 2020, por lo que empresas como Google, Amazon, IBM, Oracle y Apple han adoptado este sistema como parte del servicio brindado a sus consumidores a través de los cuales, con sólo estar conectados a Internet, los usuarios tienen la posibilidad de utilizarlos.

Niveles y segmentos de adopción en México • • • • •

En México, 62% de los corporativos usan cloud empresarial Del segmento medio, 45% recurren a estas plataformas Sólo el 2% de las microempresas adoptan soluciones en la nube El consumo de soluciones cloud aumento 23% en 2014 Se proyecta un incremento de 32% durante 2015 *The CIU, enero 2015

Juan Manuel Pérez, gerente de producto de centro de datos en Westcon, afirmó que este año se espera una inversión de alrededor de 220 millones de dólares en plataformas de


cómputo en la nube. El sector gobierno se reactivará debido a iniciativas como la integración de sistemas contables automatizados en todas las dependencias, donde tan sólo el 30% cuentan con una plataforma de este tipo, es decir, se trata de un mercado con alto potencial. También se facilitará la infraestructura para que las propias empresas desarrollen su nube privada y desde ahí habiliten los servicios que requieren para su operación diaria, lo que dará paso a modelos híbridos, donde se agregan algunos servicios de proveedores externos. Bárbara Aguilera gerente de Marketing para Soluciones de Nube de IBM México, señala que la nube no es sólo virtualización, sino que se trata de una herramienta que ayuda a la transformación del negocio, ya que permite a las startups (empresas emergentes) crecer y ser flexibles, lo cual las obliga a tener una infraestructura tecnológica fuerte. La nube es una necesidad para seguir avanzando, ‘sin embargo, no siempre saben qué les conviene subir, si deben hacerlo a una nube pública, a una privada o a una híbrida’. Aguilera señala que IBM tiene programas dirigidos a este tipo de organizaciones, y para participar es necesario que sean empresas ya consolidadas, pero que no tengan más de tres años de operación. El apoyo va desde el acompañamiento tecnológico, licencias de software gratis e incluso una aportación económica, que puede ser de mil o 10 mil dólares al mes. ‘Al ayudar a este tipo de empresas a iniciar un camino en el cómputo en la nube se obtiene la certeza de que cuando dejen de ser startups, nuestros productos y servicios seguirán siendo parte de su transformación e incorporación al mercado’. Cabe apuntar que IBM y SAP se aliaron para que las empresas puedan acelerar su capacidad para realizar operaciones críticas en el entorno de la nube. Rosa Casillas, Directora de Cloud en IBM México, destaca que esta plataforma de nube empresarial segura, abierta e híbrida permitirá a los clientes de SAP en México respaldar nuevas formas de trabajo en una era definida por los términos Big Data, Móvil y Social. Luis Fernando Cassaigne, Consultor Técnico Senior de EMC (Enterprise Hybrid Cloud), subraya el ‘poder de la conjunción Y’”, debido a que los líderes de tecnología no se


dejan atrapar y exigen un estrato híbrido, como la opción más racional y rentable para la modernización de la infraestructura de datos. ‘La tercera vía lleva a las compañías a optar por las nubes híbridas y los proveedores debemos dar ofertas incluyentes. Hay recursos que consumen espacio de discos y energía, que se utilizan sólo en el momento de implementarse la solución o cuando se realizan cambios. Estos activos de desarrollo de aplicaciones pueden estar en un espacio de nube pública, al igual que algunos sistemas de calidad de la plataforma. Al tiempo que las funciones medulares para la operación –producción, finanzas y procesos financieros— residirían en la nube privada’. En marzo pasado, IDC y Oracle dieron a conocer el desarrollo de la herramienta Cloud Benchmark Assessment, que permitirá que profesionales de áreas como Tecnología, Marketing, Finanzas, Recursos Humanos y Customer Experience analicen cómo las empresas y sus áreas están preparadas para la adopción del Cloud Computing. Esta evaluación se divide en diferentes etapas con el fin de destacar los procesos de las empresas en la adopción de diferentes soluciones en la nube, además de la conexión entre áreas, niveles de automatización, y de preguntas específicas para diagnosticar el grado de madurez de la infraestructura de TI en la empresa. Mientras este estudio se realiza, Accenture y Oracle se unieron para enfrentar el mercado y desarrollar soluciones de clase empresarial en la nube preintegradas y simplificar la migración.

Barreras para implementar servicios cloud en la empresa Cabe señalar que el aspecto cultural es la principal barrera que enfrentan los CIO a la hora de impulsar los servicios cloud al interior de sus organizaciones, ya que muchas empresas se niegan a dejar sus datos y procesos de negocio en manos de terceros ante el temor de sufrir incidencias que escapen a su propia gestión o problemas de rendimiento y caídas que puedan experimentar estos servicios. En este sentido, las empresa sproveedoras de los servicios cloud en conjunto con la Unión Europea trabajan para brindar certidumbre. CA Labs (división de investigación de CA Technologies) participa en un consorcio europeo del Programa Horizon 2020, para investigar sobre seguridad y afrontar los desafíos en entornos multicloud. El objetivo del consorcio es investigar y desarrollar distintas tecnologías para facilitar el diseño, la monitorización y la gestión de la seguridad en la nube para aplicaciones multicloud (que utilizan simultáneamente múltiples servicios cloud proporcionados por distintos proveedores).


Las innovaciones y descubrimientos que resulten de este programa Horizon 2020, así como la investigación realizada por CA Labs, ayudarán a reducir esa preocupación, gracias a la creación de un marco de seguridad para aplicaciones distribuidas en múltiples recursos cloud. El consorcio inició el programa de investigación formalmente en enero de 2015 y tendrá una duración de tres años. Esta iniciativa es financiada por Innovation Union, con un presupuesto de 3.5 millones de euros para asegurar la competitividad global. El Cloud Computing revoluciona el mundo, sin embargo, se deben tener en cuenta los pros y contras de la adopción de esta tendencia tecnológica; analice el mercado y a las empresas que ofrecen estos servicios; evalúe las características que le ofrecen, compare y escoja la que más beneficios y garantías le ofrezca, además debe tomar en cuenta la solidez de su proveedor para resguardar los datos y tener acceso a los servicios en todo momento.


La Virtua una herramienta a

Esta soluci贸n tecnol贸gica permite el correcto aprovechamiento de los recursos de TI y se adapta a cualquier tipo y tama帽o de empresa.


alizaci贸n, al alcance de todos


Hasta hace pocos años, la Virtualización era una tendencia tecnológica a la que los grandes analistas como Gartner e IDC pronosticaban un gran futuro, sin embargo, muy pocas empresas alcanzaban a visualizar el verdadero impacto que estas soluciones tecnológicas tendrían en sus negocios. Es más, algunas de ellas ni siquiera alcanzaban a comprender en qué consistía exactamente esta herramienta y mucho menos su potencial para contribuir a la eficiencia y productividad de las organizaciones. Para algunas empresas, simple y sencillamente era algo que sonaba muy ‘bonito’, pero también muy costoso y complicado de implementar. Hoy, sin embargo, la Virtualización se ha convertido en una tecnología que ha demostrado resultados positivos y tangibles para las empresas. Y si bien es cierto que la mayoría de las que la han implementado son empresas de gran tamaño, también es cierto que las pequeñas y medianas empresas han decidido no quedarse atrás y subirse a este tren, cuyo viaje ofrece grandes beneficios. La Virtualización es una herramienta tecnológica que permite el correcto aprovechamiento de los recursos de TI y que se adapta a cualquier tipo y tamaño de empresas. En la actualidad, se utiliza como una de las estrategias para consolidar y optimizar recursos. IDC afirma que el mercado mexicano de virtualización es uno de los más maduros y consolidados en Latinoamérica. Además, de acuerdo con una encuesta (Prioridades de TI 2014) de la compañía de publicaciones de tecnología TechTarget, 58% de las empresas en América Latina desarrollan proyectos de Virtualización. Es claro que, hasta ahora, la reducción de costos ha sido el motivo fundamental que ha dado impulso a la Virtualización; no obstante, existen otros beneficios que las empresas podrían obtener al implementar estas soluciones tecnológicas. A continuación se exponen 4 razones para no quedarse atrás y aprovechar los beneficios de la Virtualización.

1.- Mejora en la continuidad del negocio Las contingencias son situaciones que nadie puede prever, simplemente se presentan; en consecuencia, hay que estar preparados para actuar de la mejor manera posible y evitar un daño mayor. ¿Ha pensado en la posibilidad de que ciertos desastres naturales llegaran a afectar las operaciones de su negocio? Situaciones como estas o fallas en elementos de la infraestructura de cómputo pueden afectar a cualquier negocio o compañía, y pueden traer, entre otras consecuencias, pérdida de clientes y de ganancias, sin contar la mala reputación de la que podría ser objeto la marca, además de posibles multas por parte de autoridades regulatorias.


En opinión de Mauricio Zajbert, PSO Director México & NOLA de VMware, la Virtualización crea un entorno altamente disponible que garantiza el acceso a las aplicaciones en todo momento. Si uno de los servidores falla, todas las máquinas virtuales se pueden reiniciar de manera automática en otra máquina, sin tiempo fuera de servicio ni pérdida de datos. Además, la Virtualización proporciona la base para la planificación y la preparación correspondientes a la recuperación ante desastres. Según una encuesta de VMware, la continuidad del negocio es una de las inquietudes principales de las empresas que adoptan un entorno de TI virtualizado; y 66% de las que fueron encuestadas experimentaron una mejora en esta área tras implementar la Virtualización.

2.- Simplificación de la administración de TI Sin duda que uno de los grandes desafíos de la administración de TI es la simplificación de la infraestructura tecnológica de manera que pueda responder eficientemente a los requerimientos del negocio. Y es que el mantenimiento de servidores en un entorno físico de TI requiere de mucho tiempo. La mayoría de los departamentos de TI pasan al menos la mitad de su tiempo realizando tareas administrativas de rutina, como agregar y administrar cargas de trabajo de nuevos servidores, agregar nuevos empleados o desarrollar y lanzar nuevas aplicaciones. Hoy, esto ya no tiene que ser una pesadilla para los departamentos de TI, pues muchos gerentes de informática han comenzado a darse cuenta de que la Virtualización puede optimizar esta labor y conducir a una administración más eficiente de la infraestructura tecnológica. Zajbert señala que ‘las herramientas de administración de la Virtualización de proveedores líderes incluyen capacidades de automatización inteligentes. Estas herramientas eliminan la necesidad de que los empleados de TI realicen el mantenimiento de rutina manualmente y resuelvan problemas en varias máquinas físicas. Estas herramientas también pueden detectar y resolver, de manera anticipada, estos problemas sin intervención’. Datos de VMware señalan que de las empresas que han implementado la Virtualización, el 73% ha reportado reducciones significativas en el tiempo dedicado a tareas administrativas de rutina.

3.- Capacidad de reasignar recursos de TI a fines más estratégicos Otro de los desafíos que enfrentan las organizaciones en México, es incrementar la productividad laboral. Muchos negocios en la actualidad han recurrido a las tecnologías de


información y comunicación para hacer frente a este reto; muchas de ellas han conseguido mejoras significativas que les han permitido ser más eficientes y hacer crecer el negocio. ¿Qué sucede con la Virtualización? Desde luego que esta tecnología también puede hacer mucho a favor de la productividad laboral, sobre todo hablando del desempeño de quienes integran el departamento de TI. Mauricio Zajbert afirma que ‘la Virtualización libera el tiempo de los empleados de TI para tareas más importantes debido a que permite la automatización de diversas tareas que previamente necesitaban realizarse manualmente. La productividad de los empleados es el factor principal que impulsa el retorno de la inversión (ROI) en entornos virtualizados’. Una encuesta arrojó que 66% de los gerentes de TI detectaron mejoras operacionales con la Virtualización relacionadas con una mayor eficiencia en el respaldo y la administración.

4.- Mejora en la capacidad de respuesta del negocio Las ventajas y beneficios de cierta tecnología no causan impacto en nada ni en nadie al menos que se consideren desde una perspectiva de negocio. Hoy, las compañías tienen que sobrevivir en medio de un entorno de negocios complicado, donde la competencia es más agresiva, el consumidor muy demandante y las autoridades regulatorias cada vez más exigentes. Ante ello, los negocios tienen que ser más ágiles para adaptarse a las condiciones cambiantes del entorno de negocio y seguir estando en la preferencia del mercado. En esto, sin lugar a dudas, ha sido esencial el rol de tecnologías como la Virtualización, que han servido de respaldo para que las compañías allanen el camino para alcanzar sus objetivos de negocio. ¿Cómo ayuda la Virtualización? Zajbert indica que ‘la capacidad de respuesta del negocio es una capacidad esencial para las empresas de todos los tamaños. La virtualización crea una infraestructura dinámica que ayuda a los negocios a reaccionar más rápido ante cambios en entornos altamente competitivos. También ayuda a asegurar que las aplicaciones permanezcan disponibles y con un alto rendimiento sin importar las exigencias a las que se las somete’. Hoy, gracias a la Virtualización, una empresa tiene la capacidad de seguir operando las 24 horas del día y los 365 días del año, obteniendo importantes beneficios adicionales. No hay que quedarse con la idea de que sólo genera ahorro de costos; hay que ir más allá y atreverse a descubrir todo el potencial de la Virtualización.



5 errores al implementar un Data Center Definido por Software El éxito de la implementación de un SDDC y sus consecuentes beneficios para el negocio requiere alinear la tecnología con los procesos de negocio, y éstos con las personas.



En los últimos años, las Tecnologías de Información y Comunicación (TIC) han demostrado su potencial para elevar la eficiencia, la productividad, la competitividad y a elevar los ingresos de los negocios. Muchas compañías han encontrado en las soluciones tecnológicas un aliado importante para llevar a cabo, de forma exitosa, su estrategia de negocios. Uno de los grandes retos que las organizaciones deben enfrentar es ajustar su modelo de negocio a la nueva dinámica del entorno empresarial, pues de lo contrario se quedarían rezagadas en el camino, hasta desaparecer. Es aquí donde las TIC juegan un papel importante, pues éstas han surgido y han sido adaptadas para dar respuesta a los nuevos requerimientos del negocio. Las TIC brindan aplicaciones y servicios rápidamente escalables que permiten a las empresas dejar atrás las limitaciones de sus anticuadas arquitecturas y agilizan los negocios con soluciones más eficientes. Una de estas tecnologías son las Aplicaciones e Infraestructura Definidas por Software (Software-Defined Applications and Infrastructure). La firma analista Gartner ubica a estas herramientas en el Top 10 de las Tendencias Tecnológicas Estratégicas para 2015. Según la consultora, ‘la programación ágil de cualquier cosa, desde aplicaciones hasta infraestructura básica es esencial para permitir a las organizaciones brindar la flexibilidad requerida para hacer que operen los negocios digitales. Software-Defined Networking, Storage, Data Centers y Seguridad están madurando’.

SDDC, una nueva visión para la arquitectura de infraestructura En años recientes, los departamentos de TI han tenido que lidiar con la complejidad, ya que la implementación de las diversas tecnologías que buscan dar respuesta a nuevos requerimientos del negocio, han dado como resultado Centros de Datos complejos, con configuraciones estáticas, esfuerzos de virtualización incompletos y múltiples silos que se requieren gestionar. Como respuesta a esto, se generó un nuevo tipo de arquitectura que hoy se conoce como Software-Defined Data Center - SDDC (Centro de Datos Definido por Software), un espacio ‘virtual’ -a diferencia de un espacio físico común para albergar un Centro de Datos- en el que las empresas pueden mantener y operar la infraestructura tecnológica que utilizan para administrar sus procesos empresariales. SDDC es una plataforma de fácil administración y altamente automatizada que abarca todas las aplicaciones para una rápida implementación en los Centros de Datos, las nubes y los dispositivos móviles; y que satisface rápidamente las nuevas demandas del negocio, sin poner en riesgo la agilidad, la eficacia, el control ni la posibilidad de elección. José García, Especialista en Gestión de Infraestructura de Cloud en VMware, señala que ‘una arquitectura del Centro de Datos Definido por el Software ayuda a las empresas a obtener resultados de TI distintivos para generar mayor seguridad y disponibilidad, entrega


de servicios más rápida y costos más bajos. Gracias a un SDDC, las organizaciones de TI obtienen capacidades únicas que contribuyen a que respondan a las solicitudes del negocio de forma rápida y rentable’.

La mejor forma de implementar un SDDC Las ventajas y beneficios de contar con un SDDC que permita gestionar toda la infraestructura tecnológica de una organización deben ser consideradas tanto a nivel de TI como del negocio. Sin embargo, su ejecución no es algo tan sencillo, pues se necesitará una nueva estrategia para implementar procesos, tecnologías, conjuntos de habilidades e incluso estructuras organizacionales de TI. El SDDC es una arquitectura abierta que afecta la manera en que operan las Tecnologías de la Información actualmente. Y, como tal, la organización de TI debe crear un plan mediante el que se utilicen las inversiones en personas, procesos y tecnología ya realizadas para ofrecer aplicaciones heredadas y nuevas, al mismo tiempo que se cumplen las responsabilidades de TI fundamentales. Para apoyar a las organizaciones a lograr una buena implementación de un SDDC, a continuación se enlistan los 5 errores comunes que se llegan a cometer y cómo solucionarlos. 1.- Problemas para desarrollar una visión y estrategia claras. A veces, las organizaciones implementan soluciones sin establecer las expectativas correctas y una dirección clara para el programa. Por ello, es necesario que el CIO utilice todos los recursos disponibles dentro de la organización de TI para crear una visión y una estrategia alineada con las necesidades del negocio y, mediante ellas, identificar las diferentes áreas que deben analizarse para garantizar la adopción exitosa de un SDDC. Se recomienda llevar a cabo una evaluación completa que incluya las áreas de personas, procesos y tecnología; y que puede ser mediante un análisis FODA. 2.- Tiempo limitado para revisar y comprender las políticas actuales. Muchas políticas dentro de la organización de TI pueden impedir el avance en la implementación de un SDDC; en esos casos, la organización debe realizar una revisión detallada de las políticas actuales que rigen los negocios y las operaciones de TI diarias. Cuando estos problemas se identifican desde el principio, los líderes de TI pueden comenzar las negociaciones con las líneas de negocio, ya sea para cambiar sus políticas o para crear alternativas que permitan que la solución ofrezca el valor esperado. 3.- Falta de madurez con respecto a los procesos de administración del servicio de la organización de TI. Un SDDC redefine la infraestructura de TI y permite que la organización combine la tecnología con una nueva manera de operar para estar más orientada al servicio y más enfocada en proporcionar valor al negocio. Por ello, se debe establecer un proceso de administración de servicio desarrollado para respaldar esta transformación. Se recomienda


garantizar que se identifique la propiedad para cada proceso, con indicadores de rendimiento clave (KPI, Key Performance Indicators) y métricas mensurables establecidas, y mantener al equipo de TI involucrado a medida que se desarrollan nuevos procesos. 4.- La administración de la nueva solución como una adaptación al entorno actual. Muchas organizaciones de TI adoptan una nueva tecnología o solución sólo para intentar adaptarla a su modelo operacional actual, lo cual es un grave error, pues las organizaciones deben evaluar sus requisitos actuales y determinar si serán necesarios para las nuevas soluciones. Por ello, se recomienda comenzar de una manera ágil, minimizar los obstáculos, reducir los procesos complejos, automatizar el sistema tanto como sea posible, identificar nuevos roles de manera clara, implementar informes básicos y establecer políticas de cambio estrictas. 5.- No hay evaluación de las capacidades de la organización de TI ni plan para llenar las brechas del conjunto de habilidades. El recurso más importante para la organización de TI es su gente, así que la administración no tendrá éxito en sus implementaciones si su personal no está capacitado y no puede operar, mantener y mejorar la nueva solución. La organización de TI debe evaluar primero el conjunto de habilidades actuales; luego, trabajar con los recursos internos o los proveedores para determinar la manera en que la organización debe evolucionar para lograr el estado deseado. Una vez que se haya identificado esa brecha, el equipo de administración de TI puede desarrollar un plan de habilitación para comenzar a solucionarla. El éxito de la implementación de un SDDC y sus consecuentes beneficios para el negocio, requieren, como sucede con otras soluciones tecnológicas, alinear la tecnología con los procesos de negocio, y éstos con las personas. No es tarea sencilla, pero no hay duda de que cualquier organización puede lograrlo. Hoy es tiempo de decidirse y dar el primer paso hacia la simplicidad y la agilidad.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.