Reimagine el servidor como un acelerador de curva de crecimiento. Si tiene Intel®, tiene soluciones poderosas. Servidores en rack y en torre HPE ProLiant Gen9 con el procesador Intel® Xeon® con financiación flexible y capacidad a demanda. Los negocios actuales exigen un TI ágil que proporcione innovación rápidamente con eficacia final. Nuestro enfoque de cómputo redefine la economía del centro de datos con rendimiento informático 4 veces superior y1 2 veces mayor cómputo por vatio.2 Y gracias a la financiación flexible y la capacidad a demanda, podrá mejorar su flujo de caja y presupuesto para acelerar su crecimiento. Ahorre hasta 70% al comienzo y 15% durante cuatro años en comparación con las compras en efectivo.3 ¡No lo piense ni un minuto más! Obtenga el informe técnico, Modernización de la infraestructura de TI para mejorar los negocios en hpe.com/info/modernizeIT
contacte a uno de nuestros representante de ventas en: egleadqualification@hp.com o comuniquese al: 01 800 5182 827
Adquiere esta solución por medio de Arrendamiento Operativo con HPE Financial Services con rentas mensuales fijas en pesos de 12 a 36 meses, aprovechando al máximo el ciclo de vida útil del activo y mejora tu flujo de caja.*
* Todo cliente nuevo está sujeto a estudio de crédito. 1 Rendimiento de HPE SmartCache medido con un controlador equivalente en un entorno controlado. Ingenieros de HPE Smart Storage, Houston, Texas, el 18 de mayo de 2014, publicado en la página wiki interna de SmartCache. 2Rendimiento de SSD Smart Path efectuado con un controlador equivalente en un ambiente controlado con y sin la opción Smart Path habilitada. Ingenieros de HPE Smart Storage, Houston, Texas, el 18 de abril de 2014, publicado en la página wiki interna de Smart Array. 3Análisis de HPE Financial Services, cálculo mediante el cual se compara una solución financiera a valor de mercado a 4 años, a las tarifas actuales, con la compra en efectivo. Sujeto a aprobación de crédito y suscripción de la documentación estándar de HPEFSC. Es posible que no todos los clientes sean aptos para participar del programa. © Copyright 2016 Hewlett Packard Enterprise Development LP. Intel, el logotipo de Intel, Xeon y Xeon Inside son marcas registradas o marcas comerciales registradas de Intel Corporation en los EE. UU. y/o en otros países.
DATACENTERS PORTADA
38 10
IT Manager
portada 10 Data center recargado
Más que un conjunto de fierros y cables, el centro de datos se ha convertido en una herramienta clave para la competitividad.
14 ¿Cuál Ubicación Escoger?
Elevar los niveles de continuidad y mitigar el riesgo son factores que se combinan con flexibilidad y reducción de costos a la hora de seleccionar la ubicación del centro de datos.
18 Redefiniendo el Data Center
Ha surgido un nuevo paradigma del centro de datos, donde las funciones de storage, procesamiento, networking y virtualización vienen empaquetadas en un appliance. ¿Ya lo conoce?
20 Dinamizador de los Negocios
El datacenter no puede considerarse como un asunto de carácter técnico, sino como una herramienta estratégica de alto nivel. 4
IT Manager
21 ALMACENAMIENTO
Por estos días hay un cúmulo de tecnologías novedosas que cambiará radicalmente la forma en que se almacena la información del datacenter.
22 SERVIDORES
Uno de los desafíos recurrentes en la agenda del CIO es que las organizaciones están exigiendo de las TI un mayor desempeño y eficiencia.
23 Conectividad
Las conectividad y la comunicación son elementos indispensables para el datacenter, al habilitar la disponibilidad de los recursos TI en toda la organización.
24 Refrigeración
La industria de refrigeración a nivel mundial está implementando nuevas formas de proponer soluciones inteligentes que ayuden a reducir el consumo eléctrico y lograr mayor eficiencia.
25 Respaldo
Las UPS actúan como interfaz entre
la fuente de alimentación principal y los equipos para proveer energía de emergencia cuando sucede un apagón.
26 Energía
Los centros de datos son la ‘oveja negra’ de la organización. Sin embargo, hay grandes oportunidades para que se conviertan en un activo estratégico.
it TRENDS 38 El Vinilo Volvió Para Quedarse
El romanticismo de los usuarios llevó a las disqueras a producir de nuevo vinilos. Mejor sonido, amor a las carátulas o la colección. Lo cierto es que ya no se trata de una moda hipster pasajera.
42 SOFTWARE DE TALLA MUNDIAL
El mercado es cada vez más consciente de la importancia de las tecnologías de la información para los procesos del negocio.
EDITORIAL
PRESIDENTE / EDITOR Luis Rodan lrodan@gerente.com DIRECTOR EDITORIAL Narciso De la Hoz Gómez ndelahoz@gerente.com COLABORADORES Orlando Gómez Camacho Lorena Alvarado Leonardo Gómez Wilson Pérez DISEÑO GRAFICO Vilma Sánchez Delgado vilsanchez@gmail.com DIRECCION COMERCIAL Alicia Rocha arocha@gerente.com
IT Manager es una publicación de IT Media SAS Dirección: Carrera 16 No. 96-64 Oficina 614 Bogotá, D.C., Colombia Carrera 16 #96-64, Edf. Oficenter. Santafé de Bogotá, Colombia. Telfs.: (571) 636.9136 / (571) 636.9681 Fax: (571) 636.96.38 / (571) 636.96.48 El contenido de esta revista no refleja necesariamente la posición del Editor.
SERVICIO DE SUSCRIPCIONES E-mail: suscol@gerente.com Teléfono. (91) 6369136 - Fax: (91) 6369638 - 48 Bogotá: (91) 6369136 - Fax: 6369638 - 48
6
IT Manager
Viaje al corazón de la nube
H
asta hace algunos años, el centro de datos estaba conformado por un conjunto de fierros y cables costosos, difíciles de administrar y de mantener. Pero a medida que se consolida la tendencia en la industria de TI de ofrecer soluciones a la medida de las empresas, casi que de “plug and play”, en vez de cajas, la situación ha experimentado un giro de 180 grados. Gracias a la computación en la nube, hoy las empresas no tienen que comprar y mantener por su cuenta un centro de datos, sino que pueden, por ejemplo, alquilarlo mediante una suscripción mensual que está al alcance tanto de las grandes compañías como de una Pyme, con lo cual la tecnología se convierte en un poderoso nivelador para empresas de todos los tamaños. “Además de evitarse grandes dolores de cabeza en mantenimiento, operaciones y soporte, ya no tienen que preocuparse porque los equipos se vuelvan obsoletos o haya que aplicar parches o actualizaciones al software o al sistema operativo”, explica uno de los expertos que consultamos en esta edición que hemos titulado Data Center Recargado, para subrayar la importancia de esta especie de organismo que dirige y procesa la información crucial de
las organizaciones y que sirve para mantenerlas competitivas. Pero, cualquiera sea el modelo elegido (on premise o “in house”, tecerizado o en la nube), es importante evaluar aspectos como el nivel de confiabilidad y eficiencia, así como el grado de experiencia en operación de misión crítica del proveedor. En efecto, tal como lo explican los expertos consultados, hasta hace unos años los centros de datos estaban en las propias organizaciones, pero con la llegada de la nube comenzaron a ser tercerizados como un servicio y los telcos se han convertido incluso en jugadores claves de este mercado. “Dependiendo del tipo de compañía, la construcción de un datacenter provee mayor control sobre la instalación y operaciones y permite aprovechar mejor el espacio existente” agregan los expertos al subrayat que “el arrendamiento es una opción atractiva que corta de un tajo los gastos en refrigeración y consumo de energía a niveles que nunca se podrán obtener con un centro de datos on-premise”.
Narciso De la Hoz G ndelahoz@gerente.com
IT NEWS “Carlos Vives En Vivo en Bogotá” está disponible en Apple Music
El artista samario acaba de convertirse en el primer latinoamericano que llega a Apple Music en la sección de videos. Se trata del concierto con el que cerró su gira 2015 y que desde el pasado 11 de marzo se encuentra disponible como el primer episodio de “Carlos Vives en Vivo en Bogotá”. La producción cuenta con la participación de artistas invitados como Maluma, Fanny Lu, Chocquibtown, Fonse-
América Móvil, Partner del Año 2016
8
IT Manager
ca, Cholo Valderrama, Herencia de Timbiquí y Michel Telo. ”En Vivo en Bogotá” es una experiencia donde todos mis fans pueden unirse a mí tras bastidores, caminando por las calles de Colombia, hablando con todos los involucrados en este hermoso espectáculo y simplemente conociendo más sobre mí y lo que me motiva como artista y ser humano”, dijo Vives.
Por ofrecer a sus clientes empresariales soluciones innovadoras en tecnología, América Móvil recibió el premio LATAM Partner del Año 2016 en las categorías de Cloud Provider y Architectural Excellence: Security, por parte de Cisco Systems. En el marco del Partner Summit 2016, en San Diego, California, la multilatina mexicana fue destacada por ofrecer al mercado empresarial soluciones de última generación que contribuyen a mejorar la eficiencia de sus negocios, sus procesos de atención a clientes y proveedores, así como sus servicios y su rentabilidad. En Colombia, Claro recibió el distintivo Solution Innovation Partner of the Year, mientras que en México, Telmex obtuvo los reconocimientos como Public Sector Partner of the Year, Cloud Provider and Managed Services Partner of the Year y Architectural Excellence: Security.
Subastada la extensión .Shop
Continúa la asignación de nuevas terminaciones de Internet, que llegan para complementar el histórico .COM. En esta ocasión el turno fue para la extensión .SHOP, adjudicada a la empresa japonesa GMO Registry por US$41.5 millones, y en el mercado ya están disponibles terminaciones como .GURU, .FUTBOL, .NEWS, .SOCIAL, y cientos más. Según Gerardo Aristizábal, Gerente de MI.COM.CO, el registrador Oficial de Dominios para Colombia: “Los operadores esperan que haya una adopción generalizada de nuevas terminaciones que poco a poco socave la omnipresencia de las páginas .COM. Ante esta expectativa hay mucha gente dispuesta a pagar mucho dinero por una nueva extensión, esperando que represente un gran botín en los próximos años.” En Colombia, a través de MI.COM.CO, ya hay más de 50 nuevas extensiones incluyendo: .FUTBOL, .GURU, .CLUB, .XYZ, .NEWS, LEGAL, DIGITAL, .MARKETING, entre decenas de otros dominios.
IT Manager
9
DATACENTERs PORTADA
10
IT Manager
La era de los centros de datos supercargados ha llegado. Conozca cómo aprovechar las nuevas tecnologías para elevar la eficiencia operativa, disminuir los costos y apalancar el crecimiento.
“Parece
extraño pensar que hasta hace pocos años, el departamento de TI era considerado un simple proveedor del negocio”. Con esta contundente frase, la investigadora de mercados Frost & Sullivan explica(2) el nuevo rol que desempeña la tecnología y los centros de datos al preparar a las organizaciones para que sean realmente disruptoras. Aunque suenen fuertes, estas palabras tienen todo el sentido del mundo, ya que por años el área de tecnología, a excepción de los bancos y las telcos, nunca fue considerada como clave en las organizaciones. Por fortuna, la situación ha cambiado al punto de que los centros de datos se convirtieron en una herramienta estratégicas capaz de hacer evolucionar a los negocios hasta límites nunca antes logrados con otras tecnologías. Hoy por hoy la tecnología “es reconocida como un factor habilitador los objetivos del negocio incluyendo el crecimiento en ingresos, la expansión del mercado y la satisfacción del cliente”, aclara Linda Stadtmueller, Vicepresidenta de Computación Cloud de la misma consultora, para quien los líderes de TI tienen que preparar a sus organizaciones para la próxima generación de innovaciones en el datacenter. Esto se logra abordando una serie de factores comunes de forma tal que el datacenter se robustezca hacia un modelo flexible, seguro y funcional, y además se comporte como una entidad eficiente en costos e integrada a los procesos de la organización.
GESTIÓN DE INFRAESTRUCTURA Uno de estos elementos consiste en implementar capacidades para la Gestión de Infraestructura en el Centro de Datos (conocida con el acrónimo DCIM), con la cual “se obtiene una visión para integrar sistemas típicamente dispares y segregados”, como lo explica el Gerente de Ingeniería de Panduit Marco Antonio Damián. “En una misma pantalla es posible consolidar información sobre
cómo los cambios y adiciones de nuevos servicios pueden impactar la energía y el medio ambiente, así como los espacios y trayectorias del datacenter”. En una línea semejante opina Ferlein González Aguilar, Presidente de UPSistemas, un integrador colombiano especialista en infraestructura, que por estos días le apuesta al enfoque de ‘Continuidad de los Negocios’. Para este ingeniero electrónico, el monitoreo en tiempo real “es la mejor forma de conocer el estado del datacenter para planear y gestionar los cambios con suficiente anticipación”.
EN LA ERA DE LA OPTICALIZACIÓN Una de las tendencias que más fuerza está tomando en los últimos años es llevar la fibra óptica desde el datacenter directamente hasta el escritorio de los usuarios. Esa ‘opticalización’ ha generado un sinnúmero de iniciativas para que la tristemente celebre ‘ultima milla’ sea completada con soluciones ópticas, que mejoran el ancho de banda y la velocidad y además permiten unificar las demás redes para que actúen en sincronía con las topologías metropolitanas –que también están basadas en fibra óptica. ”La tendencia de opticalizar los servicios que llegan al escritorio es creciente”, dice el Ingeniero de Sistemas de Furukawa Flávio Marques. “Los operadores están comenzando a completar la última milla con soluciones ópticas que se integran fácilmente a las topologías urbanas y rompen la frontera invisible que separaba el datacenter de los escritorios”. Para lograrlo, Furukawa incrementará el 30% de su capacidad productiva mediante la ampliación de sus tres plantas de fabricación ubicadas en Sao Pablo (Brasil), Palmira (Colombia) y Berazategui (Argentina). Este espaldarazo a las soluciones de fibra óptica representan una inversión de US$9.5 millones, con los cuales pasará de producir 1.200 kilómetros de cable mensual a 1.560 kilómetros antes de finalizar 2016.
IT Manager
11
DATACENTERs
Jonathan Castro Baquero, Brand Manager Enterprise Business Group de Lenovo, afirma que la venta consultiva reemplazó a la tradicional, para brindar un panorama más amplio de los negocios.
José Vicente Serrano,. Director Corporativo de Empresas de Claro, plantea que las operadoras y telcos son el integrador natural de los datacenter en outsourcing.
Flávio Marques, Ingeniero de Sistemas de Furukawa. ”La tendencia de opticalizar los servicios que llegan al escritorio es creciente”.
12
IT Manager
Es tal la fe que Furukawa le pone a este negocio, que su vicepresidente comercial Hiroyuki Doi cree que su empresa estará para afrontar la gran demanda de telcos, compañías de energía, redes privadas y utilities en la región Latinoamericana que están listas para usar la fibra óptica en lugar del cobre.
DEFINIDOS POR SOFTWARE Continuando con los factores disruptores, hay una tendencia fuerte relacionada con que los centros de datos sean definidos por software. En ellos, la infraestructura (procesamiento, almacenamiento y seguridad) se virtualiza para ofrecerla ‘como servicio’; de esta forma, el control de cada uno de los recursos puede gestionarse mediante un software inteligente basado en políticas predefinidas y con muy poca intervención manual. Por estos días, varios fabricantes de hardware se han aliado con firmas de virtualización para proveer centros de datos definidos por software. Lenovo es una de ellas. Su adquisición del negocio de servidores x86 a IBM por US$2.3 mil millones cerrado en septiembre de 2015 y posteriormente sus alianzas con VMware y Juniper Networks, le abrió las puertas para ingresar de lleno a los mercados de SDDC y de infraestructura convergente e hiperconvergente, respectivamente. Es de anotar que los centros de datos definidos por software operan como si fueran un ‘director de orquesta’ que coordina los recursos y asegura que las aplicaciones y servicios cumplan con la capacidad, disponibilidad y eficiencia que requieren los negocios.
AUGE DE LA TERCERIZACIÓN Un tema recurrente en la modernización del datacenter es la computación cloud. Gracias a ella, las organizaciones han comenzado a descargar en terceros una variedad de tareas digitales que incluyen el almacenamiento, las redes, el procesamiento, e incluso la seguridad. Aquí surge el concepto del datacenter en outsourcing, mediante el cual las empresas reducen los costos de invertir en infraestructura física. “Además de evitarse grandes dolores de cabeza en mantenimiento, operaciones y soporte, las organizaciones ya no tienen que capacitar a su personal en los subsistemas de refrigeración, conectividad, respaldo, energía o seguridad”, indica Dairo Ortiz, Gerente Regional de Producto para Latinoamérica de BT, una compañía de servicios de telecomunicaciones. “Y menos deben preocuparse porque los equipos se vuelvan obsoletos o haya que aplicar parches o actualizaciones al software o al sistema operativo”, prosigue, “ya que todo esto queda cubierto con un contrato mensual que ejecuta el proveedor de servicios. “También desaparece el soporte técnico tradicional, que ahora se presta como un servicio tercerizado”, opina Jonathan Castro Baquero, Brand Manager Enterprise Business Group de Lenovo, quien además afirma que la venta consultiva reemplazó a la venta tradicional, “para brindar un panorama más
Ferlein González Aguilar, presidente de UPSistemas. “El monitoreo en tiempo real es la mejor forma de conocer el estado del datacenter para planear y gestionar los cambios con anticipación”.
amplio de los negocios en función de las estrategias globales y a largo plazo, sin ningún interés en marcas de soluciones, modelos, ni referencias de equipos”. Ahora bien, la tercerización del centro de datos es algo que no puede entregársele de buenas a primeras a cualquier proveedor, ya que existen ciertos criterios a tener en cuenta. Sobre este tema, José Vicente Serrano, Director Corporativo de Empresas de Claro, baraja la siguiente hipótesis: “las operadoras y telcos son el integrador natural de los datacenter en outsourcing”, dice. Para confirmarlo, indica que “ellas proveen todas las piezas del rompecabezas, ya que la mayoría son propietarias de la red de comunicaciones, de los centros de datos y de los cables submarinos”. Por ello, los carriers “están en plena capacidad y disposición para construir las soluciones a la medida que requieren las empresas integración de equipos, servicios, telecomunicaciones fijas y móviles, así como consultoría especializada, todo con un único punto de contacto”, puntualiza. Para Felipe Gómez Jaramillo, Director Regional Datacenter, Security & Outsourcing de Level 3, “el mejor camino que puede tomar un director de TI es la tercerización”. Como experto en redes matiza su discurso indicando que mediante este método “es posible aprovechar las economías de escala que tienen los operadores a fin de mejorar los costos de mantenimiento, operación y renovación tecnológica, garantizando el upgrade tecnológico. Las empresas estarán siempre a la vanguardia”, concluye.
PersonalSoft ahora es Partner de Mulesoft, LÍDER en esquemas de integración.
Nos unimos para ofrecer alternativas como:
ESB, IPAAS, APIs de integración. Nuestras líneas de servicio: Personal Especializado
Desarrollo de Software
Administración de Aplicaciones
Consultoría
Integración
17 años en el mercado Valorados CMMI nivel 5
FUENTE 1.How the Right Infrastructure Can Prepare Your Data Center for Business Disruptors. Frost & Sullivan. http://h20195.www2.hp.com/V2/ GetDocument.aspx?docname=4AA6-2190ENW
www.personalsoft.com IT Manager
13
DATACENTERs portada
Elevar los niveles de continuidad y mitigar el riesgo son factores que se combinan con flexibilidad y reducción de costos a la hora de seleccionar la ubicación del centro de datos.
Datacenter:
¿Cuál Ubicación Escoger? A
medida que la transformación digital obliga a las empresas a crecer rápidamente, los departamentos de TI enfrentan el reto de operar con menores costos, máxima flexibilidad y menores cargas operativas. Este escenario no es ajeno al centro de datos, ya que –sin importar el tamaño de la organización- es necesario determinar en qué ubicación debería estar: in-house, hospedado, en la nube, o una mezcla de todos. Sin importar si se trata de aplicaciones de misión crítica, gestión de operaciones o simplemente almacenamiento de datos,
14
IT Manager
las necesidades de infraestructura varían de una empresa a otra. Es así como algunas compañías buscan que el datacenter les brinde, por ejemplo, más espacio de almacenamiento; otras requieren mayor poder de procesamiento para nuevas aplicaciones. Mientras que algunas buscan proteger a toda costa la información crítica del negocio.
¿REMODELAR/CONSTRUIR? Por su naturaleza, los datacenter propios (conocidos en inglés como ‘on-premise’) son ideales para organizaciones que no
quieren perder el control de sus datos. Estas incluyen a los bancos, entidades del gobierno, utilities, instituciones del sector defensa y empresas con gran músculo financiero que prefieren gestionar directamente sus activos de TI sin la influencia de un tercero. La ubicación in-house “brinda grandes ventajas en cuanto a la seguridad especifica de la organización y flexibilidad en la gestión”, declara Carlos Hamon, Senior System Engineer de EMC. En cuanto a las desventajas, “están los altos costos, si la organización no es eficiente en su gestión”.
Por ‘altos costos’, el ejecutivo se refiere a los gastos mensuales que deben erogar las empresas por concepto de espacio físico y factura de energía eléctrica, además del mantenimiento, repuestos y gestión con personal especializado. Dependiendo del tipo de empresa, la construcción de un datacenter provee mayor control sobre la instalación y operaciones y permite aprovechar mejor el espacio existente. Según datos de la consultora Forrester(1), el costo estimado de construcción es de US$200 por pié cuadrado y, si se requiere fibra óptica, la implementación puede costar más de US$10.000 por milla solo para conectar la instalación con el mundo exterior. Si se decide por una ampliación o una remodelación “es importante que comprenda que realizar la transición de una configuración de hardware existente a una nueva generación de tecnología puede ser desafiante, en particular cuando tanto los sistemas antiguo y nuevo tienen que coexistir durante el periodo de prueba de la nueva aplicación y migración de datos”, matiza de manera técnica Felipe Gómez Jaramillo, Director Regional de Seguridad y Outsourcing de Level 3 Communications. “Como la tecnología tiende a renovarse más a menudo que las instalaciones (los recursos de computación se renuevan cada tres a cinco años, mientras que las instalaciones se renuevan cada 10 a 20 años), para las organizaciones con instalaciones fijas introducir nuevas tecnologías puede resultarles difícil”, prosigue el ejecutivo de Level 3.
¿ARRENDAR/TERCERIZAR? El arrendamiento es una opción atractiva que corta de un tajo los
gastos en refrigeración y consumo de energía a niveles que nunca se podrán obtener con un centro de datos on-premise. Un motivo para utilizar data centers externos –y que a menudo no se tiene en cuenta- es el beneficio financiero de arrendar espacio en lugar de construir y ser propietario de una instalación privada. A este respecto, Gómez Jaramillo vuelve al ruedo: “los elevados costos, los prolongados ciclos de planificación, el consumo del escaso capital financiero (Capex) y los gastos de las operaciones continuas de un centro privado de datos, pueden fácilmente exceder el costo de arrendar espacio sobre una base flexible, recurrente y de fácil crecimiento”. El ejecutivo, comenta que otras razones son la expansión geográfica, la administración de las cargas pico y el almacenamiento seguro de los datos. “La flexibilidad en la adición de recursos computacionales es clave para la planificación a largo plazo, y puede resultar desafiante cuando las aplicaciones de software deben adaptarse constantemente para cumplir con los nuevos requerimientos del negocio y adaptarse a las arquitecturas tecnológicas en permanente evolución”, prosigue. Para muchas organizaciones resulta más eficiente y rentable ubicar servidores centralizados dentro de un data center de alta confiabilidad, que diseñar y construir sus propias instalaciones. “Sin embargo, el costo de los servicios adicionales puede ser alto sino se tiene contemplados en las tarifas negociadas en el contrato base”, recalca Carlos Hamon. Ahora bien, si la organización tiene restricciones relacionadas
con la latencia, es importante que “busque un datacenter externo gestionado por operadoras que provean enlaces dedicados entre las oficinas y el centro de datos tercerizado o en collocation”, proclama el Gerente General para Latinoamérica de Algar Tech Carlos Mauricio Ferreira. “En caso contrario, ya es posible hospedar casi todo el datacenter en la nube, lo que elimina las barreras geográficas”.
La decisión sobre dónde ubicar el datacenter no puede tomarse a la ligera, ya que no solo se está poniendo en riesgo la seguridad de la información, sino de paso la sostenibilidad de la empresa.
COLLOCATION Y ALOJAMIENTO Los centros de datos en collocation son cada vez más utilizados para hospedar aplicaciones en servidores de email y web que se valen de opciones en la nube como Software como Servicio (SaaS), Plataforma como Servicio (PaaS) e Infraestructura como Servicio (IaaS). “Estos modelos permiten que múltiples empresas compartan los servicios de telecomunicaciones e instalaciones redundantes, mientras los equipos están ‘colocados’ en un espacio externo proporcionado por un proveedor de servicios”, indica un reporte de
IT Manager
15
DATACENTERs
Carlos Hamon, EMC. “En la nube los costos iniciales son muy bajos y hay oportunidad de crecimiento”.
Carlos Mauricio Ferreira, Algar Tech. “Hay que observar la adherencia a la legislación fiscal del país donde se opera”.
Siemon(2). En un centro de datos alojado, un ‘inquilino’ arrienda pies o metros cuadrados de espacio y servicios, incluyendo seguridad, instalaciones (energía y refrigeración), telecomunicaciones y sistemas de respaldo tales como UPS y generadores. Es aquí donde el inquilino utiliza sus propios recursos para mantener y gestionar la infraestructura colocada externamente. “Mientras que algunas empresas optan por construir operar y mantener sus propios centros de datos, hay un gran segmento de compañías que aprovechan las instalaciones alojadas/externalizadas”, prosigue el informe de Siemon. Por ejemplo, las firmas globales pueden tener una instalación principal en sus propios edificios y –a medida que crecen en otros países- utilizar datacenter alojados y gestionados por terceros de manera provisional hasta que el costo de construir un centro de datos nuevo se justifique. De forma similar, las empresas medianas y pequeñas que tengan dificultades para atraer y mantener personal con talento en TI, pueden apoyarse utilizando datacenters externalizados. Es así como “la línea divisoria entre los sitios de colocación y alojados es cada vez más borrosa ya que los operadores están comenzando a ofrecer servicios combinados basados en las necesidades del cliente”, continúa el reporte.
LLEVARLO A LA NUBE
Dairo Ortiz, BT. “Debe estar construido a través de implementaciones on-premise y tipo cloud”.
16
IT Manager
A medida que más y más empresas transforman su centro de datos hacia nubes gestionadas o ambientes hospedados, existen consideraciones a corto y largo plazo que deben tenerse en cuenta a la hora de seleccionar la ubicación del datacenter. En la mayoría
de escenarios cloud, una empresa alquila espacio, ancho de banda y potencia de procesamiento bajo demanda con un proveedor que le brinda un conjunto de herramientas para interactuar con el hardware instalado externamente. Las ofertas en la nube pueden estar tanto en instalaciones gestionadas, en collocation o en edificios propiedad del proveedor; también pueden residir en centros de datos corporativos privados o como una combinación híbrida entre nubes privadas (propiedad de la organización) y nubes públicas (en una instalación cloud). Google Cloud Computing y Amazon Web Services –por ejemplo- son servicios de computación cloud que surten las necesidades de almacenamiento y procesamiento ‘como servicio’; si un cliente requiere aprovisionar un nuevo servidor, este dispositivo ya existe en las instalaciones del proveedor y está listo para usarse a distancia. El cliente puede entonces utilizarlo por un período de tiempo y el proveedor factura por su uso. “Esto permite que las empresas obtengan recursos inmediatos sin tener que construir redes ni costosas infraestructuras que soporten picos y cargas máximas”, prosigue el análisis de Siemon. “Con la nube se obtienen grandes beneficios ya que los costos iniciales pueden ser muy bajos y brindan gran flexibilidad y variedad para el crecimiento de nuevos servicios”, dice Carlos Hamon. Ahora bien, hay que prestar atención, “ya que –en algunos casos- los valores recurrentes pueden ser mayores a tener una infraestructura propia y además algunas organizaciones no pueden utilizar servicios en la nube debido a regulaciones y requerimientos de seguridad.”
Algo semejante opina Ferreira, para quien “es importante observar la adherencia a la legislación fiscal del país donde se opera, porque en algunos lugares pueden incidir impuestos diferentes que pesan en el bolsillo del cliente”.
¿CUÁL ESCOGER? Hasta hace menos de cinco años, el centro de datos promedio residía adentro de las organizaciones; sin embargo, la computación cloud hizo que el montón de ‘fierros’ acumulados en un piso entero del edificio fueran externalizados como un servicio para que las empresas dejaran de comprarlos y mantenerlos por su propia cuenta. Tal vez, la solución más precisa para ubicar el datacenter es la
que propone Dairo Ortiz, Director Senior de IT & Centros de Datos de BT Global Services: “debe estar construido a través de soluciones hibridas que hagan uso de implementaciones on-premise y tipo cloud”. La decisión sobre donde ubicar el datacenter no puede tomarse a la ligera, ya que no solo se está poniendo en riesgo la seguridad de la información, sino de paso la sostenibilidad de la empresa. Sin importar los tipos de ubicación, hay cuatro factores fundamentales que Usted no puede pasar por alto: la misión crítica, las necesidades estratégicas del negocio, la seguridad de los datos y los costos globales. Estos elementos conforman la ecuación
El arrendamiento es una opción atractiva que corta de un tajo los gastos en refrigeración y consumo de energía a niveles que nunca se podrán obtener con un centro de datos on-premise. general para lograr óptimos niveles de continuidad y mitigación del riesgo, que son –en últimasla razón de ser del datacenter. FUENTES 1. Build Or Buy? The Economics Of Data Center Facilities. Forrester. 2. Hosted, Outsourced, and Cloud Data Centers. Strategies and Considerations for Co-Location Tenants. Siemon.
IT Manager
17
DATACENTERs portada
Redefiniendo
el Centro de Datos
Ha surgido un nuevo paradigma del centro de datos, donde las funciones de storage, procesamiento, networking y virtualización vienen empaquetadas en un appliance. ¿Ya lo conoce? Orlando Gómez Camacho 18
IT Manager
No
son pocos los directores de datacenter que alguna vez se han sentido como verdaderos ‘magos digitales’ al momento de orquestar toda suerte de sistemas operativos, dispositivos de almacenamiento, servidores, protocolos de red y otros dispositivos para que funcionen en un ambiente pacífico y sin ningún traumatismo evidente. Si en algún momento se ha sentido así, es porque realmente Usted ha hecho su trabajo con esfuerzo y dedicación. Sin embargo, en un mundo donde la conectividad entre los diferentes se vuelve cada vez más complicada, tratar de mantener en comunicación todas las piezas del rompecabezas en que se han convertido los datacenter es un asunto titánico que va más allá de las capacidades humanas. Acaso, ¿No sería mejor tener todas estas funciones empaquetadas en producto listo para usar? Suena genial, ¿cierto? La respuesta puede venir de la infraestructura hiperconvergente, un concepto que surgió hace apenas cuatro años y que –teóricamente- puede ser la panacea que los IT managers estaban esperando. Y digo ‘teóricamente’, ya que, al ser una tecnología tan reciente- está en proceso de maduración y aún le quedan años –sino décadas- de prueba y error.
TODO EN UN SOLO APPLIANCE Para la mayoría de CIOs, el término ‘infraestructura hiperconvergente’ puede sonar a pleonasmo. La verdad tienen razón, ya que además de agregarle ‘superioridad’ y ‘abundancia’ a la infraestructura, la característica de ‘hiper’ habla de sumarle mayor escala al datacenter para que cumpla las funciones de procesamiento, almacenamiento, networking y virtualización, todo en un mismo conjunto. Como resultado de esta unión, la infraestructura se entrega como una unidad de hardware y software en completo funcionamiento, todo empaquetado en un mismo software dentro de un appliance. ¿Será verdad tanta belleza? Para averiguarlo, le pregunté a Fernando Rodríguez Martínez, Gerente Desarrollo de Alianzas Virtualización y Data Center de Cisco, cuáles son los riesgos que se corren al adoptar una tecnología tan inmadura y poco probada como esta: “La Hiperconvergencia se introdujo al mercado hace algún tiempo para aprovechar al máximo los beneficios económicos del almacenamiento definido por software (SDS)”, declara. “Y como los primeros fabricantes de soluciones se enfocaron en llegar rápido al mercado, lo hicieron con una oferta basada en la ‘simplicidad’”. Rodríguez Martínez es justo al decir que si bien este enfoque fue válido en su momento, dejó varios interrogantes abiertos por la forma en que se abordó la solución: “hoy, los clientes se dan cuenta de que una solución de hiperconvergencia no es solo un appliance y pare de contar, sino que tiene que encajar en toda la arquitectura y estrategia del centro de datos”. Por ello, es importante fijarse en algunos aspectos clave además de la simplicidad, que siempre será un valor inherente a las plataformas de hiperconvergencia, entre ellos evitar nuevos silos de gestión en el datacenter, conocer cuál será el modelo de crecimiento según la carga de trabajo, obtener una solución cuyo sistema de archivos sea también distribuido, y entender como será la solución de extremo a extremo.
MERCADO EN FRANCO CRECIMIENTO Gartner espera que el mercado de infraestructura hiperconvergente ascienda hasta US$5.000 millones en 2019 incluyendo arquitecturas de referencia, infraestructura integrada y stacks de hardware integrados. “Debido a que la industria de hiperconvergencia no existía hasta antes de 2012, todavía tiene una gran cantidad de maduración por delante”, opina Andrew Butler, analista de Gartner. Para este ejecutivo, se trata del último paso en la búsqueda de lograr que la infraestructura no solo sea flexible de gestionar, sino además que ‘ponga en orden’ definitivamente al centro de datos. Entre los intentos
anteriores por lograr esta unificación se puede citar a las redes SAN, los servidores blade y los sistemas integrados, que son utilizados ampliamente por muchas organizaciones. Mientras algunos fabricantes de sistemas hiperconvergentes entregan arquitecturas de referencia mediante un enfoque de ‘traiga su propio hardware’, otras como Nutanix, HPE y SimpliVity, EMC, VMware y la misma Cisco, crean soluciones basadas en un stack de software propio compatible con hardware de terceros.
CON TODO EL POTENCIAL A pesar de ser una tecnología que está en sus inicios, la infraestructura hiperconvergente tiene todo el potencial para posicionarse como una solución seria y eficiente a los principales problemas del datacenter: por una parte, la reducción de la complejidad, al eliminar un gran porcentaje de cables La infraestructura y ‘fierros’; y por otra, optimizar el presupuesto, en se entrega como una especial por que recorta dramáticamente los cosunidad de hardware y tos operativos y de capital software en completo que desangran a los centros de datos. funcionamiento, todo Los principales ahorros provienen de la efiempaquetado en un ciencia en la operación extremo a extremo que entregue la solución mismo software dentro incluida el área de networking y otros factores que de un appliance. pueden impactar el costo total de propiedad, como por ejemplo la optimización y compresión de datos. “Hemos visto que algunos clientes pueden tener ahorros hasta de un 30% de ahorros sobre el costo total de propiedad”, prosigue Fernando Rodríguez, quien resalta que puede haber una optimización de más del 80% en el consumo del almacenamiento. Gracias a una solución hiperconvergente, el personal de TI ya no tiene que estar gestionando cada uno de los componentes individuales, sino que se dedica a administrar algo conocido como ‘unidades de infraestructura’ que operan de forma semejante a bloques preensamblados que conforman un conjunto integrado. De esta forma, a medida que la organización crece, los recursos hiperconvergentes crecen también de manera escalonada con gran flexibilidad para satisfacer las necesidades del negocio. Puede verse como una solución ‘a la medida del crecimiento’, con la cual solo se compra lo que se vaya a utilizar.
IT Manager
19
DATACENTERs Tendencias
Dinamizador de los Negocios A pesar de sus altos costos y complejidad, el mercado de centros de datos sigue creciendo a nivel mundial. La necesidad de adaptarse a las continuas innovaciones generadas por el explosivo crecimiento de los datos ha dado lugar a nuevos paradigmas en procesamiento, almacenamiento y conectividad.
20
IT Manager
Debido
a que en las organizaciones actuales la presión por incrementar la eficiencia y ser más productivos está recayendo sobre los directores de tecnología, el datacenter se ha convertido en la piedra angular capaz de dinamizar los negocios. Sin embargo, la continua necesidad de agregar nuevas capacidades de cómputo y al mismo tiempo reducir los costos, ha direccionado su futuro. A este fenómeno hay que sumarle la expansión continua de las empresas, que las obliga a acomodar mayores recursos, especialmente en sistemas de almacenamiento y procesamiento, dado el alto volumen de datos proveniente de aplicaciones de Big Data y próximamente de la Internet de las Cosas. Con la avalancha de datos, aumentan los riesgos. Es donde la seguridad pasa a un primer plano al pro-
veer control y monitoreo continuo para asegurar los datos, minimizar el riesgo y garantizar el cumplimiento de medidas regulatorias. De forma paralela, la reducción de costos por consumo de energía, espacio físico y mantenimiento sigue trasnochando a los CIOs, quienes se empeñan en transformar el datacenter para que deje de consumir tantos recursos. En este sentido, la gestión de infraestructuras (DCIM), así como la intervención a los sistemas de refrigeración, energía y respaldo soportan el mayor peso para sacar adelante a las organizaciones en materia de eficiencia y ahorro de costos. Los centros de datos ya dejaron de verse como un conjunto de fierros conectados entre sí que devoran recursos a lo loco y ocupan enormes espacios físicos en la empresa. Son organismos vivos capaces de transformar a las organizaciones para alcanzar los objetivos con agilidad y control, manteniendo además el ritmo y la continuidad del negocio como ninguna otra tecnología lo había logrado hasta ahora. Es así como los distintos subsistemas que lo componen (descritos en las siguientes siete páginas) juegan un papel preponderante que marca el éxito o el fracaso empresarial. Por ello, el datacenter no puede considerarse de carácter técnico, sino como una herramienta estratégica de alto nivel.
Almacenamiento La industria del almacenamiento está que hierve. Por estos días hay un cúmulo de tecnologías novedosas que cambiará radicalmente la forma en que se almacena la información del datacenter.
Para
ningún IT manager es un secreto que tarde o temprano su organización deberá enfrentar el desafío de lidiar con inmensas cantidades de información proveniente del Big Data. Además de los datos que producen las aplicaciones empresariales, el reto consiste no solo en almacenar más cantidades de información, sino en hacerlo con mayor desempeño, eficiencia y ahorro en costos.
ALL-FLASH ARRAYS El disco duro como método de almacenamiento en caliente ha muerto. Fue reemplazado por unidades flash –conocidas en inglés como ‘flash arrays’- que multiplican por 10 la capacidad a una fracción del costo, elevando el desempeño de manera excepcional. Según HPE, un centro de datos All-Flash puede reducir los presupuestos en un tercio y a la vez mejorar la agilidad en los negocios ya que brinda mayor consolidación que el almacenamiento basado en discos mecánicos tradicionales.
ALMACENAMIENTO DEFINIDO POR SOFTWARE Sin importar el tipo de almacenamiento (SAN, NAS, DAS o por objetos), el almacenamiento definido por software (SDS) brinda la gestión, el aprovisionamiento, el monitoreo y la gestión de fallas. Se trata de un tipo de virtualización que aplica el concepto de abstracción del hardware para habilitar una gestión del almacenamiento unificada por software y además habilita a los administradores a reali-
zar tareas claves tales como la clonación, el respaldo y la recuperación de datos.
NUBES HÍBRIDAS MULTI-VENDOR Consideradas como un nuevo ecosistema, las nubes híbridas –una combinación de nubes privadas y públicas- permiten altos niveles de elasticidad y reducen los costos de TI en el centro de datos. Se trata de un modelo de nube más flexible y rentable que combina lo mejor de dos mundos: las tareas del departamento TI y las capacidades de los proveedores externos. Además de asignar de manera instantánea recursos de cómputo adicionales para satisfacer las exigencias temporales, las nubes híbridas permiten aprovisionar los recursos por demanda en donde los costos de infraestructura, instalaciones y energía pasan a un modelo de ‘pague por uso’, algo a todas luces conveniente para los centros de datos actuales. Otras tendencias del almacenamiento en datacenters son la infraestructura hiperconvergente (explicada en detalle en esta edición de IT Manager), los contenedores Dockers (máquinas virtuales ligeras para empaquetar entornis y aplicaciones distribuidas) y el almacenamiento basado en objetos. Finalmente, recuerde que la agilidad –considerada como la necesidad de adaptarse rápidamente al cambiante panorama de TI- permitirá que su centro de datos adquiera capacidades competitivas suficientes para aprovechar los servicios cloud, adoptar infraestructuras hiperconvergentes y estar preparado para el Internet de las Cosas.
IT Manager
21
DATACENTERs Tendencias Tendencias
Servidores Uno de los desafíos recurrentes en la agenda del CIO es que las organizaciones están exigiendo de las TI -como nunca antes- un mayor desempeño y eficiencia en costos, especialmente en procesamiento y almacenamiento.
La
presión de hacer más cosas con menos presupuesto y el hecho de procesar grandes cantidades de información de manera segura y eficiente ha puesto en alerta a los departamentos de TI para hacer que sus servidores estén actualizados y respondan a las necesidades del negocio. En este contexto, las tendencias más relevantes tienen que ver con la seguridad de la información, la consolidación y la supercomputación.
VIRTUALIZACION Y CONSOLIDACIÓN La consolidación de servidores propende por hacer uso eficiente de los recursos a fin de reducir el número total de servidores que una organización necesita. La idea es eliminar la proliferación de servidores subutilizados dedicados a tareas específicas que consumen espacio, energía y recursos de gestión. Debido a que muchos servidores solo ejecutan un 20% de su capacidad, la consolidación mediante una plataforma de virtualización tiene bastante sentido. Según VMware, la consolidación permite reducir los gastos operacionales y de hardware hasta en un 50%, y en un 80% los gastos de energía; esto se traduce en un ahorro de US$3.000 por año por cada carga de trabajo de servidor virtualizado.
SEGURIDAD “La seguridad siempre ha sido un tema crucial de las empresas”, precisa Siddhesh Naik, Director de Enterprise 22
IT Manager
Business Group India de Lenovo. Sin embargo, “en los últimos meses se ha convertido en un asunto estratégico íntimamente relacionado con el core del negocio, especialmente porque los usuarios y empleados exigen acceso a la información en cualquier momento, desde cualquier lugar y utilizando cualquier dispositivo.” A esta circunstancia hay que agregar el sinnúmero de amenazas que pueden echar abajo la reputación de una marca en un abrir y cerrar de ojos. Es por ello que las organizaciones requieren hoy más que nunca mantener una estrategia proactiva e integral de seguridad que permita ser productivos e ir con la confianza necesaria para lograr con agilidad los objetivos del negocio.
HIGH-PERFORMANCE COMPUTING (HPC) “En 2016 y 2017 la computación de alto desempeño generará mayores inversiones que en 2015”, prosigue el ejecutivo de Lenovo. Este tipo de supercomputación se está empleando a nivel mundial para ayudar en áreas como la predicción del clima, el diseño de vehículos, la construcción de aeronaves, y en la edificación de obras civiles (rascacielos, puentes de gran altura e infraestructuras). El cómputo de alto rendimiento también generará enormes beneficios a la sociedad especialmente como apoyo al descubrimiento de nuevos fármacos que salven vidas, ubicación y extracción de nuevas formas de abastecimiento energético y –finalmente- en la habilitación y puesta en marcha de ciudades inteligentes.
Conectividad Los ataques selectivos infiltran la seguridad empresarial para robar información sensible con técnicas que muchas veces resultan imperceptibles.
Con
la utilización masiva de la virtualización, la computación cloud y la movilidad, el centro de datos debe ser capaz de operar con total independencia sin importar cual sea el proveedor de conectividad. Para lograrlo, hay algunas tendencias que deben abordarse:
MONITOREO Y GESTIÓN Por años, los datacenter han tenido equipos de trabajo independientes para los subsistemas de procesamiento, respaldo, energía, almacenamiento y comunicación, que –aunque cobijados con un mismo objetivosiguen trabajando con sus propias métricas e indicadores y en ocasiones sus propias bases de conocimiento. “La mejor forma de agrupar y alinear sistemas típicamente dispares y segregados en una única infraestruc-
tura física del centro de datos es mediante sistemas de monitoreo y gestión integrales”, proclama el Gerente de Ingeniería Técnica de Panduit, Marco Damián. “Esto permite a los equipos de trabajo tener visiones comunes para atender los indicadores individuales y habilita a la organización a perseguir metas tales como tener la suficiente capacidad de procesamiento, seguridad informática, almacenamiento y alta disponibilidad, entre otras, que en últimas permiten reducir costos Opex y Capex desde las perspectivas de enfriamiento, energía, espacio y seguridad”.
ACCESO AL DATACENTER El acceso al centro de datos es el método como los usuarios se conectan para aprovechar los recursos allí alojados, incluyendo el acceso desde el escritorio y redes inalámbricas desde diversos dispositivos (laptop, terminales de punto de venta, cámaras IP y smartphones, entre otros). “En la actualidad, la cantidad de dispositivos que tiene acceso a la información es cada vez mayor, por lo que no podemos seguir pensando en crear carreteras con mínimos recursos para las necesidades actuales”, continúa
Damián. “Por ello, debemos pensar en una carretera que tenga capacidad para los siguientes 15 años como mínimo”.
TRANSPORTE DESDE EL CENTRO DE DATOS El reto es lograr la interoperabilidad con tecnologías actuales, pero al mismo tiempo, generar una fácil transición a mayores velocidades para que la información fluya hacia los usuarios con total transparencia. “La idea es conectar por fibra óptica las redes que soporten las velocidad actuales”, prosigue el ejecutivo de Panduit. “Pero que –con un simple cambio- podamos migrar la carretera a 40 y 100 Gigabytes”.
NEUTRALIDAD Con un centro de datos ‘independiente’, “las empresas pueden elegir libremente a los proveedores de infraestructura, conectividad y gestión de aplicaciones que mejor se adapten a sus necesidades”, recalca un informe de Interxion. Este escenario permite crear comunidades cloud, de hosting, de infraestructura y de red, así como de integradores de sistemas que colaboran y hacen negocios entre sí y con sus clientes, en condiciones de libre mercado. IT Manager
23
DATACENTERs Tendencias
Refrigeración A medida que la demanda de computación de alto desempeño crece por cuenta de aplicaciones intensivas de procesamiento como el Big Data, la computación cloud y la Internet de las Cosas, el consumo de energía proveniente de los equipos de refrigeración también se eleva.
Es
por ello que la industria de refrigeración a nivel mundial está implementando nuevas formas de proponer soluciones inteligentes que ayuden a reducir el consumo eléctrico y lograr mayor eficiencia.
REFRIGERACIÓN LÍQUIDA El uso de líquido en lugar de aire para enfriar los equipos es una tendencia creciente que puede reducir drásticamente los costos de operación del datacenter. “Debido a que la refrigeración líquida es pasiva, requiere bastante menos energía para funcionar”, asegura Peter Hopton, CEO de Iceotope, un proveedor de soluciones de enfriamiento líquido. 24
IT Manager
El directivo indica que cuando se sumergen los procesadores en líquido “no es necesario preocuparse por mantener los servidores en una atmósfera exclusiva, ya que no se corre el riesgo de que se vean afectados por factores externos como el polvo o el humo”. Así las cosas, en unos años veremos datacenters ubicados prácticamente en cualquier lugar.
“Aislar, redireccionar y reciclar el aire es la clave de la eficiencia”, subraya Guillermo Varón, Gerente de Ingeniería de UPSistemas. “La optimización del flujo de aire elimina los puntos e calor, recupera la capacidad infrautilizada y reduce o atrasa la inversión del datacenter, además de contribuir en mejor forma al medio ambiente”.
CONFINAMIENTO DE PASILLOS
GESTIÓN TECNOLÓGICA
Los sistemas de confinamiento de pasillos (también conocidos como ‘contención de pasillo’) combinan elementos de puertas ventanas y cielorrasos deslizantes para separar el aire caliente del frio, lo cual no solo aumenta la eficiencia técnica del sistema de enfriamiento, sino que además ahorran energía. Se trata de un sistema de contención independiente que admite armarios de distintos tamaños y se puede instalar y desinstalar sin alterar el resto de la estructura. “Los sistemas de contención de pasillo pueden actualizar un Brownflied (centro de datos existentes) o un Greenfield (datacenter nuevo)”, dice un informe de Panduit. “Al no tener partes móviles, una solución como esta resulta más eficiente que las opciones de aire forzado.”
Una reciente investigación de Emerson Network Power descubrió que el 38% del consumo energético global del datacenter proviene del aire acondicionado, mientras que un 10% se asocia a los equipos de procesamiento, almacenamiento y redes. “No basta con instalar en equipos de alta precisión”, dice José Joaquín Castillo, Especialista de Servicios de Airea Acondicionado de Emerson, sino de “gestionar con inteligencia las condiciones climáticas”. Mediante un enfoque de gerenciamiento tecnológico, los IT managers pueden comunicarse con su entorno para gestionar y controlar en tiempo real los perfiles de temperatura, aire frío y humedad, lo cual se traduce en ahorros hasta del 30%.
Respaldo Las UPS actúan como interfaz entre la fuente de alimentación principal y los equipos para proveer energía de emergencia cuando sucede un apagón. Las tendencias giran entorno a la gestión inteligente de baterías, tecnología dual-bus y a la tecnología Flywheel. Conózcalas.
Debido
a que los equipos que hacen parte del datacenter utilizan procesadores que operan a frecuencias de varios mega o giga hercios para realizar millones o incluso billones de operaciones por segundo, cualquier alteración en el suministro eléctrico –así sea de unos pocos milisegundos- puede afectar las operaciones básicas. Esto da lugar al mal funcionamiento del hardware y pérdida de datos con consecuencias costosas, incluyendo pérdida de reputación, de ventas y baja en la producción. Por ello, muchas cargas –conocidas como ‘sensibles’- requieren que el suministro de energía que esté protegido contra las perturbaciones.
GESTIÓN INTELIGENTE DE BATERÍAS Ya que el funcionamiento de la batería es determinante para la disponibilidad de la UPS, ha surgido el enfoque de gestionar inteligentemente la batería para proteger su vida útil. Es así como la tendencia es incorporar sistemas de administración que aumentan el desempeño, la duración y la confiabilidad de las baterías mediante la carga inteligente y de precisión. Para lograrlo, se valen de algoritmos que además de proteger contra sobrecargas, recomiendan la fecha de reemplazo de la batería e informan específicamente cuáles baterías deben reemplazarse. También detectan automáticamente cuando se agregan paquetes de baterías adicionales y recargan la batería con compensación de temperatura.
DUAL-BUS Ideales para aplicaciones de misión crítica, las UPS con tecnología dual-bus brindan un mantenimien-
to continuo para ofrecer disponibilidad total de la fuente de alimentación, con transferencia automática e instantánea entre la carga crítica del sistema y las salidas de dos sistemas independientes de potencia. Esto significa que si falla el principal, el conmutador automáticamente transfiere las cargas a la segunda UPS.
UPS GIRATORIA (FLYWHEEL) El nuevo concepto de UPS giratoria –más conocida como Flywheel o volante de inercia- promete revolucionar el mercado de energía ininterrumpida, ya que no requiere baterías sino que funciona haciendo girar a alta velocidad una rueda metálica mediante energía eléctrica. La idea detrás de este adelante técnico es utilizar la energía en forma de inercia que se acumula en un disco al girar continuamente. Con este mecanismo, es posible mantener el suministro de energía durante 15 segundos, tiempo suficiente para permitir que los generadores auxiliares enciendan y alcancen su máxima capacidad de potencia para generación sin sufrir mayor estrés durante el proceso de arranque. Las UPS de última tecnología pueden reducir drásticamente los costos y el impacto ambiental, y de paso, retrasar el tiempo en que el hardware deba ser reparado o cambiado por fallas de energía. IT Manager
25
DATACENTERs Tendencias
Energía Los centros de datos son la ‘oveja negra’ de la organización. Se les suele tildar de derrochadores de energía y de espacio, además de ser costosos de operar y mantener. Sin embargo, hay grandes oportunidades para que se conviertan en un activo estratégico.
Sin
importar el tipo de implementación que utilicen los centros de datos, las organizaciones deben realizar ingentes esfuerzos y considerables inversiones para su renovación, especialmente en el área de gestión de la energía. Las presiones son muchas e incluyen factores como el ahorro operativo, la continuidad del servicio y la reducción de la huella ambiental. Veamos:
EFICIENCIA ENERGÉTICA Tal vez la tendencia más importante es lograr la eficiencia energética ante el incremento del consumo, que –según Bicsi- se ha elevado de dos a tres veces en los últimos dos años. “Hasta 2009, los costos energéticos se convirtieron en el costo operativo más alto (después de la mano de obra) en el 70% de las implementaciones de centros de datos a nivel mundial”, según una investigación realizada por Gartner.
CONTINUIDAD DEL SERVICIO En una economía como la industrial de los años 40 y 50, la energía era importante para proteger los equipos; posteriormente -durante la economía digital que duró hasta finales del siglo pasado- su concepto cambió para proteger la pérdida de datos. Sin embargo, en las primeras décadas de este siglo, se utiliza para proteger la continuidad de los servicios que una organización presta.
ENERGÍA SOLAR En los últimos dos años, la industria de sistemas fotovoltáicos (PV) ha volcado sus esperanzas en aprovisionar a los datacenter con módulos policristalinos instalados en los techos de las organizaciones. Por ejemplo, Algar Tech –con su filial Alsol Energías Renováveis- dio un paso en la 26
IT Manager
dirección correcta al reducir los costos de energía en un 16% en su centro de datos, una cifra que habla muy bien del tipo de ahorros que pueden obtener las organizaciones al utilizar al sol como fuente de energía.
GREEN IT Según Telefónica, el 1% del consumo eléctrico mundial se concentra en los centros datos, mientras que las emisiones de dióxido de carbono de todo el sector tecnológico equivalen al 2% de las emisiones globales, algo a todas luces sorprendente, ya que erróneamente se cree que las tecnologías traen más beneficios que desventajas. Ante esta realidad, se ha propuesto el término ‘Green IT’ para incentivar el uso eficiente de los recursos tecnológicos de forma tal que se minimice su impacto ambiental. Se trata de un conjunto de buenas prácticas aplicadas al datacenter que propenden por impulsar la virtualización, la computación cloud y la computación distribuida, entre otras. A nivel global, las organizaciones comienzan a tener un enfoque más integral y consciente con la naturaleza a la hora de energizar los centros de datos. Factores como el ahorro en costos, la reducción de la huella de carbono y la gestión inteligente componen la mezcla correcta para direccionar con eficiencia las nuevas implementaciones de energía en los datacenter de hoy.
SciTech Media Skills
Change
AGENCIA
Inspiration
NEGOCIOS Televisión y YouTube Lunes, martes, miércoles y jueves 11:00 pm Youtube.com/negociosentm negociosentm
@negociosentm
Historias de Negocios
Altamente Inspiradoras
InspirAcción Formación
Libros Colección Ediciones especiales Eventos
Conferencias Workshops Outdoor Training
Reputación Consultoría Free Press Digital Branding
Teléfonos: Fijo (4) 448 5652 - Móvil 317 637 8418 Centro Comercial Rio Sur Local 322 Carrera 43A Nro 6 Sur - 26 Milla de Oro Medellín - Colombia
www.agenciastm.com
IT TRENDS Celulares Inteligentes
¿Dónde Estamos y para Dónde Vamos? Según la consultora IDC, en 2015 se despacharon 1.432 millones de smartphones, más de 131 millones de unidades que las entregadas en 2014. Los usuarios cambian su teléfono inteligente cada 2 años, aproximadamente, pero ¿qué ofrecen los fabricantes y cuál es la tendencia?
C
on miles de millones de teléfonos móviles en el mundo, los fabricantes invierten horas y horas en investigación y desarrollo para entregar al usuario lo que está buscando y, de esta manera, vender más. Al comienzo de la telefonía móvil lo importante era que el equipo tuviera una buena señal y permitiera el recibir y realizar llamadas fácilmente, con buena cobertura y sonido de buena definición. Con el tiempo la pantalla comenzó a incorporar colores, la capacidad de almacenamiento aumentó y algunos juegos, que hoy son vistos como prehistóricos, le entregaban una nueva función al equipo. Con la llegada de Internet, los teléfonos móviles pasaron a ser inteligentes, con
28
IT Manager
mayores capacidades de procesamiento, almacenamiento y nuevas funcionalidades. Hoy existen equipos con 4 GB de RAM, cifra muy similar a la ofrecida por la mayoría de los computadores portátiles disponibles en el mercado, cámaras de 16 y más pixeles, algo que es usual encontrar en cámaras digitales, y un espacio de almacenamiento que puede llegar a los 200 GB, por medio de una memoria externa. A continuación, las tendencias de los teléfonos inteligentes para 2016.
Mayor capacidad de procesamiento El procesador es el cerebro de un equipo, es el encargado de que las aplicaciones funcionen rápidamente, que el equipo no se “trabe” y que las gráficas puedan ejecu-
tarse de manera correcta, en el momento justo y que la experiencia sea a mejor. Fabricantes de procesadores para computadores personales y portátiles vieron en este mercado una gran oportunidad para su negocio; Qualcomm, NVIDIA e Intel ya tienen diminutos modelos que, al incorporarse en los smartphones, los convierten en máquinas que no tienen nada que envidiarle a un PC. Los núcleos del procesador también han avanzado y los últimos equipos presentados este año tienen 4 y hasta 8 unidades, lo que disminuye el bloqueo del equipo por una sobre carga de uso y, por ejemplo, algunas marcas entregan uno de estos núcleos, de manera exclusiva, a la cámara, lo que permite mayor velocidad para tomar las fotografías.
Baterías de más miliamperios
Cámaras más potentes
La duración de la batería es uno de los dolores de cabeza más comunes en los usuarios de smartphones. Muchos se preguntan el por qué con los primeros teléfonos móviles la batería duraba varios días y la respuesta radica en que el uso de estos equipos era el más básico, recibir y realizar llamadas, enviar y leer mensajes de texto y almacenar algunos contactos. EL Nokia 1101, uno de los teléfonos móviles más vendidos en el mundo, tenía una batería de 800 miliamperios por hora (mAh). Su pantalla era monocromática, con resolución de 96x65 puntos y almacenaba 50 contactos. Un equipo actual tiene almacenamiento interno de hasta 64 GB, pantalla con resolución de 2,560 x 1,440 pixeles y 4 GB de RAM. Lo anterior exige más energía para iluminar su pantalla y ejecutar las diferentes aplicaciones que utiliza, por lo que aumenta la cantidad de miliamperios de los equipos. El promedio está entre 1.700 y 3.500 mAh, pero recientemente un fabricante presentó un equipo con 4.000 mAh, con lo que prometen hasta 2 días de batería.
Diferentes estudios dicen que la cámara es el segundo atributo de un equipo que más consultan los usuarios cuando van a adquirir un teléfono móvil. Al comienzo existían cámaras de 2 megapixeles (MP) y hoy existen algunas de más de 20. La cámara frontal también ha evolucionado, al punto que algunos equipos tienen una con 8 MP, lo que permite tomar imágenes que no tienen nada que envidiar a las tomadas con la cámara trasera. La calidad no solo radica en la cantidad de megapíxeles de una cámara, sino al software que tiene el equipo, sus filtros y la posibilidad de manipular, manualmente, sus funciones, como la apertura del diafragma o el ISO, entre otras. El flash también ha evolucionado, ahora los fabricantes incluyen un LED que permite iluminar el entorno y facilitan la toma de fotografías, especialmente en la noche.
Pantallas con mayor resolución La pantalla es tal vez uno de los factores que más impulsan la decisión de compra por parte de los usuarios. El tamaño preferido por las personas, según estudio de Strategy Analytics, es de 5.3 pulgadas. Sin embargo, si perciben que un equipo es fino, por su diseño, están dispuestos a invertir en un equipo de 6 pulgadas. Los últimos lanzamientos vienen con pantallas de 16 millones de colores, en AMOLED o IPC, con resolución de 1440 x 2560 pixeles y sensibles al tacto. La tecnología 4K también hace parte de algunos modelos, lo que permite una mejor resolución y colores más nítidos, lo que aumenta la experiencia del usuario.
Lo que viene Hoy los equipos son muy similares entre sí. Sus características, funciones y diseño utilizan una misma base; son rectangulares, con bordes curvos, pantalla que ocupa la mayor parte de su estructura frontal y cámaras con buena resolución. Las innovaciones parecen estar estancadas, han pasado varios meses sin que una característica del teléfono móvil rompa el esquema. En 2016 veremos baterías de mayor duración, mejores cámaras que, junto a su resolución, permitirán hacer más tomas, con mayores opciones y la posibilidad de compartirlas rápidamente. Los procesadores no tienen muchas opciones para disminuir aún más de tamaño ya que físicamente no tienen para donde acortar más, sin embargo, tendrán más capacidad, mayor rendimiento y serán parte fundamental para el ahorro energético. IT Manager
29
MARKETPL ACE
SECCIÓN PUBLICITARIA ESPECIAL
Andicom 2016 En su versión 31, el Congreso Internacional de TIC ANDICOM, explora la coyuntura por la que Colombia atraviesa y las oportunidades que surgen en un nuevo escenario. analizará los hechos económicos, sociales, productivos y de la industria TIC que estarán marcando el 2016 y 2017. En esta coyuntura, entendida como un conjunto de hechos que demarcan una situación, la tecnología se convierte en un factor diferencial en la productividad y el desarrollo social y económico del país, el cual transita hacia nuevos escenarios de inclusión socio-económica. Bajo el eje temático ‘Las TIC: Oportunidades frente a la coyuntura’, el evento organizado por el Centro de Investigación y Desarrollo en Tecnologías de la Información y las Comunicaciones – CINTEL, explora las distintas vertientes de la industria TIC en tendencias tecnológicas e impacto social, pronósticos, modelos disruptivos de negocio, política y regulación, así como historias de éxito e iniciativas especiales de impulso de nuevos talentos y emprendimientos.
el congreso
• Día 1: ‘OPORTUNIDADES FRENTE A LOS HECHOS PRODUCTIVOS’: La cuarta revolución industrial marca uno de los principales hechos que transforman la productividad a nivel global. En este primer día se explorarán las oportunidades que se originan a partir de la transformación digital de los modelos productivos y de negocio. Seguridad Digital, Big Data y Analítica para la productividad; soluciones tecnológicas empresariales, modelos de negocio disruptivos basados en tecnología, e igualmente los Millenials, como centro para el diseño de productos y servicios, serán los temas a abordar en este día
• Día 2: ‘OPORTUNIDADES FRENTE A LOS HECHOS SOCIALES Y DE LA INDUSTRIA TIC’ En 2016 - 2017 se desarrollarán importantes fenómenos para la industria TIC que generarán oportunidades que deben ser aprovechadas a tiempo: los Planes de Ordenamiento Territorial - POT y el despliegue de infraestructura de comunicaciones, subastas de espectro y dividendo digital, consolidación y despliegue de tendencias como IoT, Werables, 3D printing, TV y contenidos. Alternativamente, expertos nacionales e internacionales expondrán las oportunidades originadas por los más recientes cambios sociales en la región, en cuanto a innovación social basada en TIC, la inclusión social a través de la inclusión digital y los modelos de negocio inclusivos para la base de la pirámide.
• Día 3: ‘OPORTUNIDADES FRENTE A LOS HECHOS ECONÓMICOS’: Para dar cierre a ANDICOM 2016 y contextualizar la viabilidad de las oportunidades presentadas durante los días previos, se analizarán los hitos que marcan las economías Latinoamericanas en 2016 y sus proyecciones a 2017. La evolución de la crisis económica y las TIC como herramienta para su superación, reforma tributaria en Colombia y el paradigma de la Economía Digital serán parte de las conclusiones del congreso.
ANDICOM es organizado por CINTEL, entidad que cumple 25 años liderando y gestionando proyectos TIC a través de procesos de investigación aplicada para el sector público y privado, promoviendo la adopción y uso de las TIC como factor de éxito. En su versión anterior el evento reunió a más de 2.500 participantes de alto nivel de 27 países, tomadores de decisiones, influenciadores y compradores de 800 organizaciones públicas y privadas que identificaron oportunidades de valor entorno a más de 60 speed meeting de demanda. Además contó con una agenda académica de más de 100 conferencistas y panelistas nacionales e internacionales lo que hizo propicio el networking entre los asistentes. 30
IT Manager
IT TRENDS Redes Sociales
años de Vida
en 140 Caracteres Se cumple la primera década de Twitter, una red social que ha luchado por mantenerse y que aún permanece. A continuación 10 hitos de la red. 32
IT Manager
L
a vida en 140 caracteres no es fácil de contar pero son millones de personas las que eligen esta alternativa para difundir sus pensamientos. Varios la definen como un megáfono, donde se puede gritar y millones de personas podrán conocer lo que se dice. La misión de la empresa es “ofrecer a todo el mundo la posibilidad de generar y compartir ideas e información al instante y sin obstáculos”. En
Colombia, según Latamclick, más de 4 millones de personas la utilizan. Twitter es una red social que no la ha tenido fácil, más de 1.500 millones de cuentas han sido creadas pero a final de 2015 solo 320 millones de usuarios estaban activos, de los cuales 13% envían un mensaje diario. Sus finanzas también han tenido un duro reto y es el de cómo monetizar los 140 caracteres, de una manera no invasiva que les permita sostener el negocio.
En 2013, con 7 años de vida, Twitter comienza a cotizar en la bolsa (TWTR) y su acción comienza con un valor cercano a los 26 dólares, para llegar a un tope de $70. Sin embargo los números no fueron siempre positivos, viene en picada y, finalizando marzo, el precio está en 15.91 dólares. A continuación presentamos 10 importantes datos de la red social, la cual tiene, seguramente, millones de momentos importantes para cada persona.
1 Nace la red social
Un simple mensaje que decía Just setting up my twttr (“Acabo de crear mi Twitter”) enviado por Jack Dorsey, uno de los creadores de la red social y quien hoy ejerce como Presidente de la empresa, fue el comienzo de 10 años de historia. Vale la pena aclarar que al comienzo, el nombre de la compañía no tenía ninguna vocal. El señor Dorsey tiene hoy 3.5 millones de seguidores y aquel tuit lleva 64.724 me gusta y 85.727 personas lo retuitearon. Una cifra muy baja si se tiene en cuenta que fue el que dio comienzo a una comunidad formada por millones de personas. Hoy las palabras tuitear y tuit, que hacen referencia a alguna acción realizada en la red social, están incluidas en el diccionario de la Real Academia Española.
2 Comienza el uso del
#Hashtag
Chris Messina, quien es hoy líder del desarrollo de experiencias en Uber fue uno de los precursores de Twitter y propuso el uso del signo numeral para agrupar eventos e identificarlos en el mar de mensajes de la plataforma. Si bien la propuesta fue escrita en agosto de 2007, hasta el 2009 Twitter incluyó un vínculo automático cuando identificaba que se estaba usando el #Hashtag. Un año después la red social presentó los trending topics en su página principal y el uso del signo se masificó. Hoy, el hashtag es utilizado por la mayoría de las redes sociales, incluida Facebook, Instagram
y Tinder, por mencionar solo algunas y en 2012, según la Sociedad Americana del Dialecto, fue la palabra más popular en Estados Unidos.
gen que se volvió rápidamente en tendencia y quedó grabada en la historia de la red social y de la compañía.
5
3
Twitter como espacio para las protestas mundiales
Antes del anuncio oficial por la victoria en las elecciones de Estados Unidos de 2012, el Presidente de Norteamérica mostraba en una foto, abrazando a su esposa, que permanecía en la casa blanca por otros cuatro años. Four more years (cuatro años más) decía su tuit que tiene 785.502 retuits y 365.380 me gusta y que era el de más menciones de la historia de Twitter, hasta que la selfie que hablaremos a continuación apareció. El hoy Presidente de Estados Unidos, @BarackObama, tiene 71,8 millones de seguidores en Twitter.
El detonante para la protesta social de Túnez se dio cuando la policía confiscó la mercancía de un humilde vendedor, el cual, en señal de protesta, compró gasolina y se inmoló en medio de las miradas. Al ser un megáfono abierto, los habitantes de Túnez vieron en la red social un amplificador para sus protestas y otros países de la región conocieron lo que estaba pasando en la nación vecina. La consecuencia, se unieron a las mismas y nace la llamada primavera árabe. En Egipto, el Gobierno del entonces Presidente Hosni Mubarak, comienza a tambalear, siendo las redes sociales uno de los factores detonantes debido a la masificación que por el mundo tenían los mensajes que los habitantes del país enviaban. Las protestas más recordadas, aparte de las anteriormente mencionadas, son las realizadas en España, llamadas 15M y las que aún se hacen en Nigeria, para que el grupo armado Boko Haram libere a casi 1.000 niñas secuestradas, para lo cual los usuarios utilizan el hashtag #BringBackOurGirls.
Barack Obama anuncia su reelección
4
Una selfie recibe más de 3.3 millones de retuits Durante la ceremonia de los Oscar de 2014, la actriz Ellen DeGeneres reunió un grupo de importantes actores para tomarse una selfie. En la imagen aparecen figuras de la talla de Meryl Streep, Kevin Spacey, Jennifer Lawrence, Julia Roberts, Brad Pitt, Angelina Jolie y Liza Minelli, entre otros y es el tuit más retuiteado de la historia: más de 3.3 millones de veces. Dicen que una empresa coreana, fabricante de teléfonos móviles, pagó cerca de 20 millones de dólares para la realización de la misma, en la cual aparecía el último Smartphone de la marca. Verdad o no, más de 40 millones de personas vieron la ima-
6
Primer tuit enviado desde el espacio El astronauta americano, Mike Massimin (@ Astro_Mike) contó al mundo que ya estaba en la órbita de la tierra y envió el primer tuit desde el espacio diciendo: IT Manager
33
IT TRENDS Desde la órbita: el lanzamiento fue increíble! Me siento bien, trabajando duro y disfrutando de la magnífica vista. La aventura de mi vida ha comenzado. Por increíble que parezca, el mensaje tiene solo 940 me gusta y 265 retuits. Una cifra bastante baja para el momento histórico. Más aún si se tiene en cuenta que el astronauta tiene 1.3 millones de seguidores.
7
El papa Francisco llega a Twitter En marzo de 2012, el Papa Francisco llega a Twitter con diferentes cuentas para que sus seguidores conozcan más sobre sus actividades. La cuenta en español, @Pontifex_es cuenta 11,4 millones de seguidores, la que está en inglés, @Pontifex tiene 8,9 millones de seguidores, en italiano, @ Pontifex_it tiene 3,4 millones de seguidores y la ver-
sión en portugués, @Pontifex_ pt es seguida por 1,9 millones de personas. En total, la cuenta está disponible en casi 10 idiomas y son seguidas por cientos de miles de personas.
8
Twitter, el mejor medio para que los famosos se comuniquen Ser una personalidad reconocida en el mundo no es fácil. Todos los admiradores quieren conocer el minuto a minuto de sus actividades, qué están haciendo, cómo están vestidos y hasta qué comen. Varias personalidades ven en la red social el espacio perfecto para comunicarse con su público. Ashton Kutcher (@aplusk) fue el primero en alcanzar el millón de seguidores; hoy tiene 17,5 millones de seguidores pero está bastante lejos de los que lideran este listado.
Twitter en cifras Ya vimos como la red social lucha para sobrevivir en el mundo de las redes sociales, donde Facebook e Instagram dominan lo referente a ingresos en pauta y son los que más usuarios tienen. Sin embargo, las cifras de Twitter son bastante llamativas; con los enlaces que se insertan en tuits, más de 1.000 millones de visitas únicas generan a sitios web. Además tiene 320 millones de usuarios activos cada mes, de los cuales 80% están en entornos móviles. Como compañía emplea 3.900 personas de 35 países, de los cuales 40% ocupan posiciones técnicas. Resta esperar el futuro de esta red social que sigue entregando mucho contenido para los millones de usuarios que tiene alrededor del mundo y es el canal favorito de políticos, deportistas, artistas y famosos para comentar su minuto a minuto.
34
IT Manager
Katy Perry (@katyperry) tiene 84 millones de seguidores, le sigue Justin Bieber (@justinbieber), con 77 millones y Rihanna (@rihanna), con 57 millones de seguidores. De los colombianos, @shakira cuenta con 37,4 millones de seguidores, @jamesdrodriguez tiene 9,4 millones, Juan Manuel Santos (@JuanManSantos) y Álvaro Uribe (@AlvaroUribeVel) tienen 4,3 millones de seguidores cada uno.
9
Twitter es una gran compañía para los eventos El uso del hashtag nace para agrupar información referente a un evento, lo que demuestra la importancia que para Twitter las actividades tienen. Es por esto que durante el mundial de 2014 se enviaron 618.725 tuits por minuto, convirtiéndose en el momento en que más mensajes se escribieron. Lo anterior fue durante el partido entre Alemania y Argentina, en el cual el equipo teutón ganó la copa del mundo, el 13 de julio de 2014.
10
Leonardo Di Caprio gana el Oscar y Twitter es testigo de la alegría de sus admiradores Después de varios años de ser nominado para recibir la estatua de los Oscar como mejor actor y tras una larga espera, en febrero de 2016, el actor americano recibe el galardón y el respaldo de sus admiradores no se hace esperar. Más de 440.000 tuits por minuto se generaron para difundir la noticia y, de esta manera, superar la ya mencionada imagen de la actriz Ellen DeGeneres, que tenía el record de más retuits en un minuto, con 255.000.
IT TRENDS comercio
Fiebre de Productos
Offline
Justo cuando parecía que todo se volcaba al almacenamiento en la nube y a la dependencia extrema de la batería y de la memoria de los celulares, surgen ideas de productos sorprendentes que se basan en todo lo contrario: en el estado offline. Leonardo Gómez Jiménez
E
36
n esta tercera entrega de productos innovadores, elegimos cinco desarrollos que recién salen al mercado tras la financiación colaborativa o crowdfunding.
IT Manager
1.
GRABADOR DE LLAMADAS
Si el iPhone no es capaz de grabar una llamada, este discreto estuche lo hace. El JIC fue inventado en agosto de 2014 por un grupo de creativos en Israel que necesitaban grabar sus constantes llamadas al servicio al cliente de su proveedor de internet. En enero se lanzó el plan de crowdfunding y superó en un mes 171% del monto esperado para producción. Los compradores de prevent obtendrán por 45 dólares los primeros JIC a partir de mayo. Este estuche incluye una memoria SD de 2GB que graba hasta 20 horas de conversaciones. En la parte posterior del teléfono está el botón que inicia a grabar de inmediato y allí mismo está el altavoz para escucharlo grabado. No requiere conexión a internet ni consumo de batería ni de memoria del teléfono ya que todo opera por separado. Está disponible solo para iPhone 6 y viene en cinco colores. La principal ventaja es que funciona como estuche o “case” del iPhone así que nadie se enterará de qué se trata. Graba cualquier tipo de sonido, no solo conversaciones así que con solo oprimir el botón empieza a grabar, una ayuda indispensable para capturar audios instantáneos que no dan espera a buscar la aplicación de grabadora del teléfono.
2.
MEMORIA EXTERNA PARA IPHONE
En el mundo utópico que Steve Jobs creó, sus computadores no requieren unidad de CD ni DVD, tienen pocas entradas USB, los iPhone almacenan todo en iCloud tras la cuota mensual que pagan los millones de usuarios, a los iPads no se les puede introducir contenido externo vía USB, los usuarios comparten archivos vía AirDrop y la única manera de sincronizar un celular con un PC es usando iTunes. El iKlips es una especie de memoria USB capaz de trasladar archivos de un iPhone a un iPad, o de un Mac a un iPod conectando y desconectando la unidad como una memoria tradicional. La aplicación tiene un sistema de privacidad con contraseña en caso de que el usuario quiere restringir ciertos contenidos al momento de compartir. Funciona con 3D Touch en su visualización. Viene en capacidades de 32, 64, 128 y 256 GB y en cuatro colores, desde 79 hasta 359 dólares respectivamente el combo de dos unidades.
3.
REPRODUCTOR DE SPOTIFY
5.
RELOJ CON MEMORIA
Es como retroceder 10 años en plena fiebre de los reproductores mp3. Mighty es la creación de un grupo de desarrolladores en Estados Unidos que querían disfrutar de las ventajas de la música en streaming que ofrece Spotify pero sin necesidad de usar el celular. Tiene un diseño y tamaño similar al iPod Shuffle. Se conecta vía WiFi y Bluetooth al celular y permite sincronizar la música offline de la cuenta premium de Spotify del usuario para que pueda escucharla sin necesidad de conexión a internet y sin tener que llevar el celular. El equipo vuelve a los principios básicos de botones físicos sin pantalla táctil, lo que asegura mayor duración en la batería. De momento solo opera con Spotify pero en una segunda fase será compatible con otros sistemas de música en streaming. El producto ya está en preventa en 79 dólares.
4.
BIBLIOTECA DIGITAL OFFLINE
Aunque parezca básico el concepto y evoque la idea de las primeras enciclopedias multimedia de los años 90 tipo Encarta, la biblioteca Rachel es una solución para llevar contenidos educativos a cualquier lugar sin conexión a internet. Aunque la tecnología permite llevar cualquier tipo de contenidos, la iniciativa se ha utilizado para llevar educación inicialmente a zonas apartadas de África donde los estudiantes no tenían acceso a internet y ahora una reciente versión en español se está llevando a regiones apartadas de Guatemala. Se trata de un “Raspberry Pi”, un pequeño computador al que se le inserta una memoria con los contenidos multimedia que se quieran difundir, y una antena para compartir la señal inalámbrica con computadores y teléfonos inteligentes que estén en el área. De esta manera los estudiantes pueden acceder a la información desde el propio dispositivo simulando una conexión a internet. Hoy cuando difícilmente se encuentran contenidos digitales offline y conectarse a internet cuesta dinero, llevar al menos un aparato de estos a cada escuela que no tenga señal de internet, contribuye la democratización de la educación.
Lo novedoso del reloj digital “ReVault” es que puede almacenar información del celular para acceder a ella sin conexión a internet desde cualquier otro dispositivo ya que sirve también para compartir. Cualquier contenido nuevo que se genere en el teléfono, se almacena automáticamente en el reloj, así un video que se capture en un celular puede de inmediato ser reproducido en una tableta por ejemplo sin ocupar memoria del teléfono ni de la tableta. Viene con capacidades de 32 y 128 GB por 199 y 299 dólares respectivamente, con posibilidad de portarlo en el antebrazo como reloj de pulso o para colgarlo al cuello como una joya. Es compatible con iOS, Android, Windows y Linux.
IT Manager
37
IT TRENDS Música
CASO 7
En esta séptima entrega, IT Manager analiza cómo la música en formato físico está resurgiendo mientras la digital sigue siendo la que más ingresos genera. En ediciones anteriores, los protagonistas fueron los mercados de la música, los clasificados, los libros, las videotiendas, las agencias de viajes y la educación.
El Vinilo Volvió Para Quedarse
El romanticismo de los usuarios llevó a las disqueras a producir de nuevo vinilos. Mejor sonido, amor a las carátulas o a la colección... lo cierto es que ya no se trata de una moda hipster pasajera, pues hasta Diomedes Díaz ha sido reeditado en LP. Leonardo Gómez Jiménez 38
IT Manager
M
ientras las tradicionales tiendas de discos estaban en declive, cerrando puntos de venta y prácticamente regalando sus últimas unidades de acetatos para acabar ese inventario, en otros ambientes ajenos a la música resurgía esa pasión por lo discos. El despertar del lado romántico de la música revalida la idea de escuchar un álbum completo, cogerlo, ser conscientes de la duración del Lado A y tomarse la molestia de levantarse para de nuevo cogerlo y voltearlo hacia el Lado B. Es apreciar la carátula, el papel, las fotografías mientras se escucha
el disco. Es escuchar no canciones independientes de diversos artistas y géneros al azar como lo ofrece internet sino dedicarse a un artista sin interrupciones y escucharlo en un formato que ofrece una calidad diferente, puede que mejor o peor a la digital. El gerente de producto Anglo de Sony Music Colombia, Alejandro Mejía, cuenta que esa moda curiosamente no fue impulsada por las disqueras sino que otros ambientes la han traído a escena como los fabricantes de tornamesas, las tiendas de moda, las ferias de diseño y las mismas boutiques especializadas en vinilo. Al ver la tendencia, las principales casas disqueras casi obligadas impulsadas por esa demanda han lanzado sus últimos álbumes también en vinilo y han renovado su catálogo. Lo que empezó como una nostalgia de unos pocos aficionados se ha ido convirtiendo en un mercado que aunque sigue siendo de nicho, va creciendo cada vez con más tiendas y más productos. Según cifras de IFPI, la Federación Internacional de Productores Fonográficos, en 2014 las ventas de música en formato físico totalizaron 46% del total donde ya el vinilo alcanza 2%. La sorpresa es que solo en ese año la venta de acetatos creció 54%. Gracias a la música electrónica, los vinilos nunca han dejado de venderse en Europa ya que son el suministro de los DJ, particularmente en Alemania e Inglaterra, donde además ha resurgido la impresión de álbumes de nuevos artistas. En Latinoamérica Argentina lidera el mercado pues siempre ha sido fuerte en ventas de formatos físicos seguido de México por el tamaño de mercado, indica Mejía. Al principio se pensaba que en esta nueva etapa sólo se consumirían masivamente álbumes icónicos y aclamados por la crítica en inglés. El primero exitoso fue el Random Access Memories de Daft Punk, lanzado en Mayo de 2013 y luego vinieron artistas como Johnny Cash, Elvis Presley, Bob Dylan y The Clash. “Sólo le apostábamos a álbumes de este corte, que se venden bien sí o sí, pero con el tiempo nos dimos cuenta de que además de Anglo adulto y alternativo, un grupo contemporáneo como One Direction también se vende bien”. Al mismo tiempo descubrieron que la afición al vinilo no era asunto exclusivo del anglo así que Sony lanzó con éxito álbumes tropicales de Romeo Santos y el primer colombiano Carlos Vives. En 2014 Sony Music Colombia lanzó el LP “Equilibrio” de Santiago Cruz y recientemente, se reeditó también a Diomedes Díaz con sus “20 Grandes Éxitos” y “El mismo” de ChocQuibTown. Pronto, viene “Caja de Música” de Monsieur Periné. “No hay factores que influencien o no qué discos salen en vinilo. Hay mercado para todos los géneros
por lo que no sería raro que en un futuro no muy lejano, todos los lanzamientos, además del formato digital estén también en vinilo”, concluye.
El arte del disco Julián Correcha es el propietario de RPM Records, una boutique de vinilos en Bogotá. Durante un viaje a Europa en 2011, descubrió cómo la escena de este formato estaba creciendo con tiendas especializadas. Desde ese momento le surgió la idea de abrir su propia tienda en Colombia y empezó a buscar contactos con distribuidores y productores del viejo continente. La boutique está abierta desde octubre de 2014 y como se trata de rendir culto, no es solamente una tienda sino un espacio donde los amantes del disco pueden tomarse un café mientras comparten sus gustos y muestran sus colecciones de vinilos a otros melómanos. Hoy también se consiguen acetatos en Colombia en tiendas como La Tornamesa, Tango Discos y en grandes superficies. Correcha considera que el vinilo puede llegar a superar las ventas del CD ya que este último compite con las descargas digitales mientras que el acetato ofrece una experiencia de sonido y de compra completamente diferente. Muchas colecciones de LP incluyen una clave de descarga digital para que el usuario tenga ambas opciones: la facilidad de la portabilidad y el encanto del vinilo. Hay artistas que se expresan no solo en su música sino desde el arte de las carátulas, algo que se perdió con el CD, por eso quienes adquieren un LP además de saborear el sonido original, se acercan de nuevo al arte de los impresos, de las fotos, de las hojas extras con las letras de las canciones y mejor aún si se trata de un álbum doble con más espacio para publicar fotos. Para este empresario, la edición en vinilo de “In Rainbows” de Radiohead de 2007, fue clave para despertar el apetito por este formato. “Es similar a lo que ocurre con los libros que a quienes IT Manager
39
IT TRENDS Carlos Reyes lleva 25 años en el ambiente musical en Colombia en bandas de rock y blues. Considera que hay tecnologías que deslumbran al llegar pero luego, cuando el usuario se ve saturado quiere retornar a los antiguos sistemas.
de verdad les gustan, los prefieren en papel. Los amantes de la música se dieron cuenta de que habían perdido ese placer de tener un objeto tangible. Con los discos duros ocurre que la gente tiene 500 gigas de música y no sabe en realidad lo que tiene, mientras que con el disco, se es más consciente de lo que se tiene, de lo que se escucha”.
Jugando con el formato Más allá de simplemente escuchar música en otro formato, algunos artistas aprovechan los juegos que permite esta tecnología para hacer más atractivos sus álbumes. Jack White lanzó en 2014 su álbum “Lazaretto” con varias particularidades imposibles de encontrar en un formato digital. El Lado A tiene un holograma y además se reproduce a la inversa, de adentro hacia afuera, es decir que la aguja inicia en el centro y va avanzando en surcos hasta llegar al extremo exterior del disco. Incluye algunas canciones en 33 revoluciones, otras en 45 y una oculta en 78, además de temas inéditos que no están en las versiones digitales. White compara el momento mágico de quedarse viendo la aguja dando vueltas en los surcos de los discos, con ver cómo se prende una fogata. Y esto es justamente lo que más sorprende a las nuevas generaciones que no conocían esta tecnología. El rapero Jay Z en el álbum “Magna Carta” incluye una postal escondida dentro de la carátula que además es en sí misma un formato reproducible con una canción. A eso se suman quienes deciden imprimir los vinilos en colores, lo que los hace más atractivos.
El mercado En Colombia un LP de nuevas ediciones cuesta entre 90.000 y 200.000 pesos y un usado según su estado entre 10.000 y 50.000 pesos. Lo cierto es que en la medida en que el público aumenta, los precios también. Correcha importa directamente las unidades y el precio se ha visto impactado por el alza del dólar sobre todo porque se trata de pocas unidades. Sin embargo las ventas no se han caído a pesar de que los precios se han duplicado pues es una audiencia fiel y coleccionista, explica. El perfil típico de compradores son hombres entre 30 y 40 años con alto poder adquisitivo que quieren ampliar sus colecciones. También hay aficionados mayores y curiosamente jóvenes de 20 años amantes de la moda vintage y de tendencias hipster. En la tienda se venden también tornamesas que oscilan entre 500.000 y 1,3 millones de pesos, además de agujas para tocadiscos antiguos y accesorios para limpieza.
La tecnología Carlos Reyes lleva 25 años en el ambiente musical en Colom40
IT Manager
bia en bandas de rock y blues. Considera que hay tecno- Esto se puede eliminar en logías que deslumbran al llegar pero luego, cuando el una grabación digital incluusuario se ve saturado quiere retornar a los antiguos siste- so si se escucha en un vinilo. mas. Y con la música ha ocurrido no solo con los vinilos Sin embargo los puristas del sino con la escena. En la década pasada los discos eran un sonido prefieren escuchar el estorbo e incluso los bares y restaurantes reemplazaron acetato con esa característica las bandas en vivo por DJ que resultan más económicos que la hace única. Las grabaciones de salón o y con menos logística por tratarse solo de una persona. Pero hoy también está renaciendo la cultura de la música en vivo, tipo “Buena Vista Social en vivo. Incluso luego de que el reguetón demostrara que Club” ganan relevancia en formato ni siquiera es necesario cantar porque la letra se construye vinilo porque se escuchan en su ambiendigitalmente, hoy el público está volviendo a valorar una te y su volumen natural. En una remasterización digital se pueden reducir ruidos, comprimir archivoz en vivo y a capella, analiza el músico. En Colombia cerró la última imprenta de acetatos vos y aumentar el volumen de manera artificial, algo finales de los 90 en Medellín (Sonolux) y ahora hay que los amantes del vinilo no quieren en este formato. rumores de que alguna compañía está recalibrando La potencia de las grabaciones se lograba de manera máquinas antiguas para volver a producir, pero parece orgánica hasta los 80s pero a partir de los 90s, se evique todavía no hay un mercado tan grande que amerite dencia un volumen más alto en las grabaciones gracias a la remasterización. esa inversión. En Argentina y Brasil Así como los sonidos acústicos se en cambio ya se imprimen de nuevo. Más allá de han rescatado con las bandas en vivo En los últimos discos de los 90s simplemente escuchar en recintos pequeños, ese mismo se sacrificaba cantidad por calidad encanto de lo acústico se rescata en para competir con lo digital y se música en otro los acetatos, explica. “El vinilo es el incluían más canciones en cada cara. VIP de la experiencia musical”. Esto va en detrimento de la calidad formato, algunos Y así como hay reediciones de del sonido porque los surcos se artistas aprovechan vinilos de hace 30 años, también hay reducen y la posibilidad de que la reediciones de álbumes de hace 20 aguja salte es mayor y por lo tanto los juegos que permite años que fueron concebidos en CD que el disco se raye. Los discos de esta tecnología para y hoy están en vinilo. Este proceso 45 revoluciones son más costosos inverso lo vivió el mismo Reyes con y suenan mejor y más fuerte. La hacer más atractivos el álbum “Millenium” (1996) de la velocidad ayuda a que la aguja no banda colombiana de metal “Agony” detecte rayones. sus álbumes. en la que era bajista, que reeditó un Los vinilos fabricados en Colombia nunca fueron de buena calidad, dice Reyes. Un disco álbum doble en 2015 por iniciativa de un seguidor que de Madonna de los 80s hecho en Colombia era muy trabaja en una disquera en Francia. El sonido acústico se pierde cuando por ejemplo delgado y fácil de romper y la contracarátula era impresa a una sola tinta mientras que el mismo disco nortea- a cada platillo y tambor de una batería se le pone un mericano tenía un grosor de 180 gramos e impresión de micrófono en la tecnología digital. Para sentir la verdadera “calentura de señal”, la captura del sonido debe carátula a full color. Hoy eso sería impensable ya que se trata de objetos estar en formato analógico. Por eso algunos artistas de arte y de colección que necesariamente tienen que están adquiriendo viejas consolas de grabación para ser de 180 gramos bien resistentes y carátula de alta volver a grabar allí con sonidos puros y orgánicos. Reyes explica que lo analógico también está regreresolución. Se estima que la impresión de 500 copias de discos sando desde los elementos del propio músico. él tiene un amplificador de tubo para su guitarra, una tecnoen acetato de 180 gramos cuesta 4.000 euros logía que estaba en desuso así como los televisores y los radios de tubo pero que desde hace 10 años se El sonido Antes de la tecnología digital, la música se grababa encuentra de nuevo en el mercado gracias a que ofrece en cinta, donde siempre quedaba un ruido de fondo. un sonido más nítido. IT Manager
41
IT MANAGEMENT PRODUCTS Perspectivas
¿Software de
talla mundial?
El mercado es cada vez más consciente de la importancia de las tecnologías de la información como una solución para los procesos del negocio.
E
l Gobierno nacional sabe de este cambio cultural en las organizaciones, por lo que el potencial de crecimiento va en aumento y también el apoyo de las organizaciones públicas. El Ministerio TIC tiene una estrategia de Dirección de Políticas y Desarrollo TI, llamada Fiti, cuyo propósito es contribuir a la transformación de la industria de TI en un sector competitivo a través
42
IT Manager
de la dinamización de diferentes líneas de acción que conforman un modelo integral y sistémico. Además de que sea un sector de talla mundial. La directora del proyecto es Lina María Taborda y describe la importancia del software “como un impulsor para que las empresas ingresen a una era digital y logren fomentar la demanda de los productos tecnológicos en un círculo virtuoso generador de
valor agregado y de progreso”. “La industria TI, entre 2003 y 2014, creció 5 veces su tamaño. Adicionalmente, ha tenido una expansión del 29% en sus exportaciones entre 2012 y 2014, según cifras de Procolombia. Los servicios de la industria TI pasaron de vender 2,6 billones de pesos en el 2010 a 5,9 billones en 2013: creció más del doble en tres años. De acuerdo con datos de la Federación Colombiana de la Industria del Software (Fedesoft), el crecimiento de ese segmento de la industria ha sido del 13 por ciento anual”, añade la ejecutiva, que es posiblemente, la principal gestora del cambio en la estrategia del desarrollo de software en Colombia. El negocio es grande y las oportunidades aún más. El éxito está en que la política nacional continúe siendo un referente para el resto del mundo y en que sigan creciendo los negocios.
La clave es la especialización Es usual escuchar al Ministro TIC, David Luna, decir que la industria de software del país es cada vez más especializada y que es un sector de talla mundial, lo que confirma el fuerte respaldo del Gobierno a la estrategia. Para lograrlo es fundamental la especialización, una tendencia mundial debido a que el desarrollo a la medida es visto como commodity. Para entender el concepto de especialización acudimos al Gerente de la Escuela de Negocios, Jorge Aguilera, quien la define de la siguiente manera: “La especialización permite a la compañía competir por diferenciación, ser el más experto en un tema y el know how se convierte en un gran diferencial frente a otras empresas dedicadas a lo mismo”. Es decir, tener demasiado conocimiento y una amplia experiencia para satisfacer las necesidades de un tema, producto o servicio en especial, amplían los conceptos y genera mejores soluciones, más enfocadas, con mayor impacto y mejores resultados. Jorge Aguilera, uno de los tres colombianos con doctorado en comunicación organizacional, conoce muy bien las tres ventajas de la especialización para una empresa: • La compañía se convierte en un referente prácticamente único en el tema, lo que genera un excelente posicionamiento, al punto que • Llega a construir un nicho propio y puede • Competir por calidad y nunca por precio El CEO del Cluster CreaTIC de Cauca, Wilfred Fabián Rivera, dice que nuestra industria apenas inicia y uno
de los pecados empresariales cuando se comienza es el deseo de apuntarle a todo y dispersar esfuerzos y recursos. Con la especialización se concentran los mencionados recursos y se optimizan para la organización. “Además se fomenta el crecimiento de la industria como un ecosistema, dado que permite a distintas regiones especializarse en diversos temas”. Para lograr dicha especialización, el MINTIC, en alianza con COLCIENCIAS, implementa constantemente instrumentos que motiven a las industrias a especializarse y, hasta el momento, han impulsado “tres convocatorias orientadas al desarrollo de soluciones informáticas con aplicabilidad en los sectores de Salud, Gobierno y Turismo, con una inversión de más de $10.000 millones de pesos, buscando que los actores del mercado, en conjunto con la academia, participen en el desarrollo de productos y servicios TI innovadores, con vocación comercial y que resuelvan necesidades específicas”, añade Lina Taborda.
El reto está en el conocimiento Es común escuchar en el departamento comercial de la empresa, que el objetivo de la compañía es vender, vender y vender. Y tal vez tienen razón, pero para ser más exitosos han de capacitarse constantemente y convertir la gestión del conocimiento en uno de sus pilares, lo cual traerá más información y experiencia que, sumadas a la interacción con el cliente, le permitirán tener soluciones más adaptadas a la realidad empresarial del país. Muchos pensarán que al especializarse pueden disminuir sus negocios ya que se enfocarán en uno en específico, bien sea producto o servicio. Sin embargo, la realidad es otra, con la especialización se obtiene el posicionamiento mencionado por Jorge Aguilera, lo que genera más recordación y por ende, más oportunidades comerciales. En palabras de Lina Taborda, la ventaja de que las empresas TI puedan especializarse en un sector productivo es que existen muchas más posibilidades de tener todo un conocimiento específico de un segmento de mercado e identificar la dinámica de ese sector, y cómo se pueden abordar sus necesidades de ese sector desde el desarrollo de software y la prestación de servicios TI. Con esta estrategia el Gobierno ha logrado triplicar las ventas de empresas desarrolladoras de software, lo que facilita el proceso de compras realizado por el gerente de TI, ya que conoce el experto del tema y ahorra tiempo escuchando propuestas que al final no están pensadas para su negocio.
IT Manager
43
IT MANAGEMENT PRODUCTS Análisis
La Paradoja de las
Telco VS. Contenido
Competidores silenciosos que ofrecen servicios similares han puesto en jaque a las empresas de telecomunicaciones. Blindar la oferta de servicios, realizar alianzas con proveedores de contenido y explorar nuevos modelos de negocio, los retos. Wilson Pérez Vélez
E
n los últimos años mientras las empresas de telecomunicaciones se dedicaban a capturar el uso de sus servicios como el triple play, por ejemplo; otros de forma hábil se expandían por el mundo como sus rivales en telefonía y demás servicios como integración empresarial y personal,
44
IT Manager
todo desde un browser. Así, gigantes como Facebook que compra Whatsapp en el 2014 por 19.000 millones de dólares; Microsoft que adquiere a Skype por 8.500 millones de dólares; o Google que con su suite de herramientas gratuitas de video llamada, telefonía, aplicativos y demás, cambian todo el modelo no solo de
negocio sino de oferta, que en últimas beneficia a los clientes. La visión desde afuera de este fenómeno permite observar una dinámica no solo en la oferta de nuevos servicios de las empresas de telecomunicaciones, sino en la forma que se busca llegar a la gran consigan de: Yo te llevo más por menos.
Para Juan Pablo Villegas, gerente general de Citrix en Colombia, lo que se evidencia es un choque de trenes en este sentido: mientras al dueño del aplicativo o contenido no le importa por cual red se entrega al cliente, el telco ve su red como una gran inversión en la que necesita migrar a nuevas línea de servicio, en especial en el ambiente corporativo.
Datos in house En este sentido la empresa colombiana necesita de todos los bandos: telcos, soluciones y contenidos. Hoy la diversidad de servicios se distribuye en varias direcciones de forma interna y externa. “Si se analiza la cantidad de datos y en donde están residiendo, la mayoría de los datos residen en silos locales en el mundo empresarial. Hay muchas soluciones aun mas grandes que no están en el datacenter o la nube. Así por ejemplo una empresa tiene sistemas ERP, CRM, gestión de nomina y activos, así como mercadeo y mucho mas, aun dentro y esto en el reaccionar para toma de decisiones va a ir cambiando”, explica Alberto Gross, CEO de CLAdirect, empresa especializada en virtualización. Para el experto, toda empresa que está prestando servicios de comunicación, está bien influenciada por tendencias como nubes híbridas y demás. No hay una empresa telco que no esté ajena a esto. La pregunta es: ¿qué tan proactivos van a ser ellos en hacer las inversiones necesarias para habilitar esas nuevas formas de interactuar y relacionarse?
Movilidad, pieza clave La tendencia de la movilidad también juega un papel importante. Según cifras del Departamento Nacional de Planeación (DNP) en Colombia se pierde el 2% del PIB al año por efecto de los trancones, un colombiano pro-
medio pasa el equivalente a 20 días al año (480 horas) dentro de en un bus. Por ello, los telcos deben enfocarse en aprender sus ventajas competitivas que son las de analizar todo el flujo de información que pasa por sus redes. Así las cosas la visión externa de este fenómeno se puede resumir en dos grandes preocupaciones analiza el Gerente de Citrix en Colombia. “Hay una preocupación en lo corporativo de generar mayor dinámica alrededor de la entrega de sus aplicaciones corporativas basado en dos tendencias de movilidad -especialmente en fuerzas de ventas-, y la de usar herramientas virtualizadas para mejorar la toma de decisiones frente a sus clientes sin tener que migrar una cantidad de aplicaciones internas. Y la segunda preocupación es la tendencia de las empresas de atender a sus clientes de manera directa como terecerizada en tiempo real”, añade.
Renacimiento digital En conclusión las telco, los proveedores de contenido nos han llevado a descurbirinos como la primera generación del renacimiento digital. “Estamos aprendiendo a cómo comportarnos. Por ejemplo: pasamos a tener un celular todo el día y poner información en una red social que por defecto es pública. Así mismo pasará en todo el ecosistema. Van a existir errores y daños colaterales, pero creo que los beneficios sobrepasarán enormemente a los daños a los cuales vamos a estar expuestos ciudadanos, empresas de contenido y telecomunicaciones”, agrega Alberto Gross de CLAdirect. En el ambiente queda revelada una dinámica en la que se está gestando una gran sombrilla de generador de contenido. Por ejemplo: una empresa como Netflix se va a través de grandes productoras y canales para que -a través de alianzas- entregue nuevos contenidos, con impactos
publicitarios además sobre toda una región abarcando economías de escalas nunca antes vistas. Para los expertos consultados la empresas de telecomunicaciones deben pensar que pese a entrar en este mercado, su visión será la de facilitar a sus clientes la entrega de esos contenidos y no la de exponerse a competir con grandes generadores de ese contenido.
Correlación entre soluciones Aunque no van a poder apostar en todo. Si van a tener una ventaja competitiva pues al abrirse a nuevas ofertas en servicios estas estarán enfocadas a lograr una correlación de servicios que corren en un datacenter, una cloud, en conjunto con un aplicativo interno de una compañía, agrega el ingeniero de ventas de soluciones d Citrix para la región NOLA, Damian Prieto. El experto agrega que un operador queda en medio de un coctel de servicios de diferentes proveedores y necesita el pegamento que los cohesione. “Los telcos tienen que empezar a adecuar su operación a un modelo flexible, dinámico, y que se ajuste a la demanda. Así evolucionan de ser una línea telefónica a una empresa que crece y decrece con el negocio de sus clientes”, añade. El nuevo concepto está enfocado a un cambio de paradigma en el que la aplicación manda sobre la red y ya no es la red la que determina como la aplicación se desempeña. Antes se tenían muchos problemas: la red se saturó, o se cayó; se pierde información o cierta aplicación no corre. Con la capa media se determina como se comportan los servicios. Así los retos y oportunidades de las empresas de telecomunicaciones están signadas por aspectos tecnológicos, inversiones acertadas, análisis de sus ventajas y generación de confianza para cohesionar todo en uno solo contenidos y servicios.
IT Manager
45
COLUMNA
Nube de Control José Ignacio Claros V, Grupo i2t - Universidad Icesi
El nivel
de sofisticación de las soluciones en la nube cada vez aumenta más. Lejos están los días en que se la veía como algo especial, como una opción para ahorrar en infraestructura, respaldar datos o simplemente para reunir y procesar oportunamente datos “de campo”. Y no es que hoy estos valores hayan desaparecido, sino que han dejado de ser una novedad para convertirse en parte de la solución ordinaria en las grandes y pequeñas empresas. La mezcla de dos conceptos tecnológicos, la computación en la nube y el uso de plataformas transaccionales alojadas en ella, está marcando una gran diferencia. Hoy, gracias a ambos usamos la nube de manera natural, para cosas tan cotidianas como pagar la cuenta de energía eléctrica en un supermercado, interactuar con amigos en las redes sociales, ver una película o escuchar una canción. Negocios como el del software como servicio [SaaS], una de las maneras más comunes de adquirir y usar aplicaciones hoy, son una realidad gracias a ella. Pero, por supuesto, la idea no es hablar de las bondades de computación en la nube y el uso de SaaS con las que todos estamos familiarizados, sino presentar una tendencia que poco a poco va ganando adeptos: su aplicación en actividades de control industrial, en combinación con el uso de dispositivos de captura automática de información, potentes middlewares y tecnología de big data. ¿Cómo es el asunto? En términos informáticos, una planta industrial puede ser lo más parecido a una colcha de retazos... con la habilidades de comuni-
46
IT Manager
cación propias de una torre de Babel. Cada proceso o cada área tiene sus propios dispositivos y procedimientos de control, muy bien diseñados, muy especializados, capaces de brindar información de muy buena calidad para la toma de decisiones, pero por lo general, incapaces de interactuar con información de similar calidad que surge de otras áreas o procesos en formatos distintos (a veces incompatibles), que impiden –o al menos dificultan–tener un panorama completo de la operación. Por lo anterior, automatizar la captura de datos de los procesos industriales es solo el primer paso; se necesita que los datos capturados se trasmitan a algo –un middleware– capaz de leerlos, procesarlos y ponerlos en un idioma común, de tal manera que sea posible su “interacción” con los datos que proceden de las demás fuentes de información (incluso, con data no producida en el proceso industrial) y, a partir de ello, usando tecnologías de Big Data, se generen nuevos datos, que no hablen solo de la operación, sino que muestren patrones e interacciones y reflejen un panorama más integral de la operación; datos que no solo aporten a la toma de decisiones de control cotidianas, sino al modelado de procesos que optimicen la operación. Al menos dos empresas, una basada en la India, otra en Colombia, ya ofrecen soluciones muy eficientes que van en esta dirección; la hindú, más focalizada en el desarrollo de un poderoso middleware y en el uso de tecnología de Big Data; la colombiana, incluyendo además el desarrollo de dispositivos que automatizan la captura de datos. Y vendrán más!