Octubre

Page 1

1


2



Directorio Editor Responsable Arturo Trejo arturo.trejo@editorial-albatros.com

OCTUBRE 2013 3

El nacimiento de un Data Center en México

6

Centro de Datos. ¡Sistemas de enfriamiento más eficientes de acuerdo a sus necesidades!

8

Reporteros E. Alfonso Escudero redaccion4@editorial-albatros.com

El origen de la Norma ICREA. A diez años 2003-2013

10

Victoria González redaccion6@editorial-albatros.com

Herramientas Inteligentes para gestionar y optimizar Centros de Datos

11

Responsable Web Magdalena Cruz redaccion2@editorial-albatros.com

Inversión millonaria para expansión de Centros de Datos en México

14

redIT amplia cobertura de red de telecomunicaciones

15

Aplicaciones que fortalecen el cableado estructurado

16

¡Seis pasos que su organización debe seguir para confiar en Big Data

18

Medir, calcular y mejorar la eficiencia del Centro de Datos

20

Vulnerabilidades en la infraestructura de tecnologías de la información y telecomunicaciones

Contabilidad CP Cristina Gutiérrez

22

Diseño, uso y ahorro de energía en las salas de cómputo. Estudios de energía en CPD

Publicidad 5648 8061

24

La norma mexicana NMX-AA-164-SCFI-2012

Suscripción 5650 9151

25

Confesiones sobre la nube. ¿Cómo emplear el Big Data?

Contacto informes@editorial-albatros.com

26

Planeación de un Data Center para una universidad e institutos de investigación científica

29

Principios que impulsan el desarrollo del Cloud. Kloud Camp 2013

31

Tecnología Hot Swap de TL asegura continuidad de energía en Centro de Datos

Jefe de Información Julio César Sánchez redaccion1@editorial-albatros.com

Boletín Electrónico Alejandro Álvarez alejandro.alvarez@editorial-albatros.com Diseño Editorial y Formación Tania Navarro informes@editorial-albatros.com Suscripciones y Eventos Angélica López angelijatj@editorial-albatros.com

instalacionesrv.com Instalaciones, Revista de Ingeniería es una publicación mensual editada por Editorial Albatros, S.A. de C.V. Cafetal 537, Col. Granjas México, C.P. 08400, Del. Iztacalco, México D.F. Número de Certificado de Licitud de Título: 10265; Número de Licitud de autor: 04-1999-010718412300-102. Los artículos firmados son responsabilidad del autor. Se autoriza la reproducción de artículos, siempre y cuando se cite la fiente.

instalacionesrv.com


El Nacimiento de un Data Center en México

Primera parte El siguiente reportaje pretende acercar al público lector y al usuario final, el cómo nace, desarrolla y opera; desde el hecho de expresar “vamos a hacer un Data Center” hasta la utilización de sus servicios, como pueden ser la nube, virtualización, telecomunicaciones, etc., transitando por la parte de conceptualización, normatividad, tramitología, arquitectura, ingenierías, construcción, operación y mantenimiento de un Centro de Datos, los protagonistas en campo, la inauguración. Así, aquí la primera entrega y algunos de sus protagonistas. Ficha Objetivo: DC Querétaro de Alestra Espacio Final: 3,250 m2 Diseño conceptual: PMI Sistema: UPS Fabricante: Mitsubishi Distribuidor: SECOVI Sistema: Aire Acondicionado Fabricante: Schenider Sistema: Generadores Disel Fabricante: Cummins Distribuidor: Alesso Sistema: Subestaciones Fabricante: Arazabal Coordinador de Ingenierías, Proyecto y Obra: Ing. Héctor Sánchez Madera Ingeniería Civil: Ing. Eduardo Torres Hernández. Ingeniería Electromecánica: Ing. Francisco Islas. Gestión para la supervisión e implementación de ingenierías: Ing. Eduardo Lerma Rojas. La posición geográfica es esencial para la conformación de un Centro de Datos. Redundancia y capacidad de carga del terreno, son aspectos que, en un principio, deben ser tomados en cuenta como ejes fundamentales. Guadalajara, Aguascalientes,

incluso Monterrey, según especialistas del sector, son estados clave en la República Mexicana, aptos para el desarrollo de un Data Center. No obstante, al margen de las ventajas competitivas que pueden encontrarse en dichas zonas, compañías nacionales e internacionales, debido a la infraestructura que Comisión Federal de Electricidad (CFE) posee en Querétaro, han identificado este territorio como un lugar estratégico para la construcción de sus Centros de Datos. “Una de las razones por las que decidimos establecernos en Querétaro, fue por que la infraestructura de CFE del estado cuenta con varias subestaciones que provienen de diferentes fuentes de generación. En la etapa inicial del proyecto, contaremos con dos acometidas de 7 MVA´s”, comentó el Ing. Héctor Sánchez Madera, Gerente de Ingeniería e Implementación de uno de los Centro de Datos que sin duda revolucionará el concepto de “bunker” en este tipo de instalaciones.

Obra Civil y Estructura “Se nos pidió hacer un Data Center modular. Por lo cual, lo primero que hicimos fue implementar módulos de 500 m2. En la primera fase del proyecto contamos con 1,250 m2 de piso blanco y un sitio telecom de 250 m2. El proyecto inicialmente nació así: 1,250 m2 con 2,000 m2 adicionales para crecimiento. Esos 2,000 m2 restantes permanecerán como obra gris, y serán activados cuando lo requiera el crecimiento”, agregó el responsable de la construcción del Data Center en Querétaro.

TIC y Centro de Datos

¿Desaparece el mito del “Bunker” sobre el Data Center? La innovación en infraestructura de Alestra y la garantía de productos y Servicios TIC y Nube.

Seleccionar el terreno para la conformación del Sitio de Cómputo es una de las actividades que los ingenieros deben asumir por un tiempo prudente. El scouting, en este punto, resulta esencial pues, de este modo, va a permitir comparar particularidades entre un terreno y otro. Elegir el sitio ideal, por su parte, es una labor que tiene que estar respalda con análisis preliminares ya que, de esta manera, se aseguran las condiciones del entorno para hacer del Data Center la construcción exitosa en procesos operativos. “En un análisis preliminar, la capacidad de carga del terreno fue de 25 toneladas por m2. Sin embargo, con un estudio profundo, encontramos mantos de rocas que doblaron esta capacidad. En otras palabras, las cargas de cimentación mejoraron. Luego entonces, partimos de allí, sin omitir contra trabes de cimentación en todo el terreno, y una losa de concreto de 25 cm, con concreto de alta resistencia de 350. Adicionalmente, el automatizado que empleamos nos dio mejor garantía en la calidad de los cimientos”, dijo el Ing. Eduardo Torres Hernández. “El sistema es a base de concreto, columnas y trabes portantes; asimismo, llevamos Vigas Doble T en toda la sección transversal, un capa de concreto promedio en comprensión de 7 cm. De esta manera se hizo la modulación y, ahora, prácticamente hemos terminado la obra fuerte de la estructura. En este momento nos encontramos en obras menores, tales como: obras externas, instalaciones hidráulicas, y hemos comenzado con las instalaciones electromecánicas en el sótano”, agregó el Especialista en Obra Civil y Estructuras.

5


TIC y Centro de Datos

Instalaciones Electromecánicas y Ahorro de Energía

Gestión, Supervisión e Implementación de Ingenierías

La eficiencia energética es un valor que los Centros de Datos buscan como elemento sustentable. Hacer eficiente la energía eléctrica en el Data Center reduce gastos en la factura, y contrarresta el impacto de la huella de carbono en el medio ambiente. De ahí la importancia que tiene la selección de equipos eléctricos que serán instalados en el complejo.

No obstante, previo a la conformación de un proyecto con una inversión importante, hay trámites que atender ante el gobierno y otras instancias. Los retos se suman uno tras otro. Los involucrados en el diseño, construcción, mantenimiento del Data Center, siempre tienen retos que resolver, para garantizar que los procesos operativos puedan establecerse, y logren hacerlo adecuadamente.

“Para solucionar el tema de refrigeración, primero se tomó en cuenta la carga térmica del sitio. Una vez hecho esto, se establecieron redundancias requeridas, para, posteriormente, especificar los modelos de equipos en capacidad y sistema operativo pues, aprovecharemos lo mejor de la tecnología disponible y que tengan la mayor eficiencia energética, de modo que seamos congruentes con el Data Center Verde”, comentó el Ing. Francisco Islas, Especialista en A/A y UPS.

“Los grandes retos han sido tener a tiempo la información requerida por el municipio y el Estado. Hemos encontrado desafíos en tener las ingenierías a tiempo y hacer las entregas. A las instancias del gobierno, desde un principio, les comentamos sobre la construcción del Centro de Datos; esa fue una de las iniciativas que realizamos para que se nos facilitaran los trámites de alguna manera”, dijo el Ing. Eduardo Lerma Rojas. “Hicimos una presentación ante el Gobierno del Estado, les platicamos del proyecto y, posteriormente, de manera particular, hicimos visitas al municipio, les conversamos más sobre el tema: qué es lo que traíamos, cuál era el alcance del proyecto, etc., para que supieran sobre la capacidad de Alestra y los beneficios que la construcción del Data Center se llevará a Querétaro”, concluyó el Supervisor de Ingeniería e Implementación.

“El sistema de aire acondicionado es un método híbrido: por un lado, es agua helada, y el mismo equipo cuenta con serpentín de expansión directa. A su vez, buscamos que los equipos de expansión directa fueran lo más eficientes con distintos compresores que se conectan todos en red, de tal forma que, aun en condición de respaldo, en el peor de los casos, tengamos un sistema eficiente. El de agua helada es más eficiente que el de expansión eléctrica, pero buscamos un esquema en el que podamos tener una tercer redundancia. Es decir, el primer sistema que nos genera el agua helada es el sistema de absorción. En caso de tener falla en estos sistemas contamos con chillers de tornillo. De la misma manera, si éstos presentan fallas, entonces intervendrán los sistemas de expansión directa de los equipos de aire acondicionado.”

6

Esté al pendiente de nuestra segunda parte… Por: Arturo Trejo y Julio César Sánchez



CENTROS DE DATOS: ¡Sistemas de enfriamiento más eficientes de acuerdo a sus necesidades! Aire Acondicionado

Los gabinetes de los Centros de Datos modernos experimentan grandes pérdidas en forma de calor que deben ser disipados y, por lo tanto, exigen soluciones novedosas y más eficientes para lograr este objetivo. Cuando se combina con un pasillo confinado de RITTAL, un tradicional sistema CRAC es capaz de disipar pérdidas de calor -de bajas a medias-. Sin embargo, esta opción no es adecuada para sistemas de alta capacidad. En dichos ambientes, RITTAL recomienda el uso del LIQUID COOLING PACKAGE (LCP). Esta solución está disponible en un número de diferentes variantes, haciéndola adecuada para un amplio rango de aplicaciones. Con salidas útiles de refrigeración de hasta 55 kW (soluciones con agua helada), es también muy potente y capaz de disipar grandes pérdidas de calor. El LCP CW (Chilled Water) está conectado a las líneas de energía y agua, y opcionalmente a un cable de datos para conectar a una red de trabajo. El agua fría para refrigerar el aire caliente es proporcionada por un chiller. El LCP puede ser monitoreado y parametrizado de forma remota a través de una PC, y el protocolo integral SNMP significa que también puede ser incorporado en un paquete de software de gestión. Una pantalla táctil opcional muestra el estado actual, y permite que los parámetros se establezcan directamente en la unidad. Este LCP se maneja en la versión Inline, que tiene la misma función que un sistema CRAC pero más eficiente. Refrigera el aire desde el medio ambiente y lo avienta al pasillo entre las dos filas de los gabinetes. Por lo tanto, el LCP Inline se coloca entre los gabinetes. No refrigera el piso falso, el aire fresco llega directamente al pasillo frío… donde realmente se necesita.

8


Por igual, tenemos una solución para sistemas pequeños; conscientes de que una solución de alta densidad de refrigeración con chillers estaría sobredimensionada para sistemas muy pequeños y gabinetes individuales, por ello, nació el concepto de LCP DX (Expansión Directa) que ofrece una excelente alternativa para las aplicaciones más pequeñas, con una capacidad de hasta 12kW. Esta variante utiliza el refrigerante “R410a” en lugar de agua. A diferencia de otras alternativas, dicho refrigerante cuenta con un nivel muy alto de eficiencia energética y apoya el uso de una unidad de condensador. Los condensadores tienen dimensiones más pequeñas que los chillers y tienen menos exigencias de infraestructura.

La familia de LCP’s de Rittal es muy flexible, y su diseño modular permite la adaptación de la salida de refrigeración para adaptarse a los requisitos de enfriamiento que Usted necesita. Las expansiones de los Centros de Datos son logradas de forma rápida y fácil con los LCPs. A altas temperaturas de entrada, un LCP todavía logra un alto rendimiento de refrigeración útil, por lo que puede aumentar la proporción indirecta de la refrigeración libre. Esto reduce la cantidad de energía consumida para la refrigeración. El uso de ventiladores EC (electrónica conmutada) y un controlador hace los LCPs particularmente energéticamente eficientes. Nuestros ventiladores moderan su velocidad de acuerdo a la demanda que el equipo requiera en el momento y a la temperatura ambiente en el momento.

Aire Acondicionado

También existe la variante de LCP Plus la cual también se coloca junto a los gabinetes, pero en lugar de enviar el aire hacia el pasillo, lo remite directamente hacia los gabinetes. Climatizan uno o dos gabinetes en lugar de todo el aire del ambiente. Para este fin, un circuito separado de aire se mantiene entre el LCP y el gabinete, el cual solo enfría los servidores de uno o dos gabinetes. La protección de la operación está facilitada por el uso de un LCP T3+. Dos circuitos independientes aseguran redundancia en el suministro de la refrigeración del agua y energía eléctrico.

Los conceptos de enfriamiento de RITTAL son sinónimo de minimización de costos de operación y la maximización de la seguridad de su inversión. De punta a punta, esto crea un valor agregado significativo. Rittal: Más rápido – Mejor – Global

9


Construcción

El Origen de la Norma ICREA A diez años 2003-2013 La Norma “ICREA-Std-131-2013”, presentada recientemente en México, es un compendio de recomendaciones y mejores prácticas consensadas entre varios países y un grupo de expertos en CPD’s, (Centro de Procesamientos de Datos) que define la forma de construir un Centro de Datos de acuerdo con los niveles de confiabilidad y seguridad deseados. Sin embargo, para llegar a este punto de adopción y reconocimiento en el mercado mundial, en Instalaciones, Revista de Ingeniería, nos preguntamos: ¿Qué originó la elaboración de los parámetros establecidos en la norma? El responsable del International Computer Room Experts Association (ICREA) nos habló al respecto:

“Siendo contratista e Ingeniero de Proyecto, participé en diversos concursos. En estos eventos hacía propuestas profesionales, y competía con gente que, con proyectos de menor calidad, ganaban. Luego entonces, pronto llegué a la conclusión de que no contábamos en el mercado con una referencia para la construcción profesional de Centros de Cómputo”, comentó el Ing. Eduardo Rocha. “No habían estándares a los que el cliente pudiese recurrir, de modo que pidiese a los participantes, interesados en la conformación de un Centro de Datos, lineamientos específicos. Así, decidimos –varios especialistas y tu servidor- hacer una referencia sencilla, la primera edición de la norma ICREA; y, a partir de ese momento, todos contábamos con una guía para poder gestionar un Centro de Cómputo nivel uno o un Data Center nivel cinco.”

“El país completo cambió con la Norma ICREA, pues no había forma de decir quiero un Centro de Datos, sino quiero un Centro de Datos de tal nivel. Entonces ya había un criterio, contábamos con una referencia”, apuntó el Presidente Internacional del ICREA. “Asimismo, el mercado internacional comenzó a cambiar con los estándares propuestos. Y, ahora, lo concursos pueden ser calificados con bases firmes.” “Antes del 2003, el mercado era una anarquía. Sin embargo, de esa fecha a la actualidad, una vez establecida la norma, se ha vuelto un punto de certeza para diseñadores, pues saben que el cliente no les va a exigir más de lo que ellos están cotizando. La norma es una seguridad para todos, y por esta razón se ha convertido en referencia a nivel mundial”, concluyó. Por: Julio César Sánchez

10


11


TIC y Centro de Datos

Herramientas Inteligentes para Gestionar y Optimizar Centros de Datos Ahora que ya tiene su Centro de Datos implementado y con las últimas tecnologías, se ha preguntado ¿Cómo hacerlo más óptimo y eficiente? Pues bien, esta interrogante tiene tanto de ancho como de largo. Recordemos que la optimización de recursos gira en torno a varios aspectos relacionados con el entorno del Data Center, que pueden ir desde el control de flujo del aire hasta la gestión de distribución de energía. Debido a que un mal diseño contribuye a que aumenten los costos de refrigeración en el Centro de Datos, algunos fabricantes de infraestructura han desarrollado soluciones para evaluación térmica que utilizan patrones de flujo de aire para señalar los puntos calientes en una gráfica a color; de esta forma, los administradores mantienen una clara visibilidad de la eficiencia del Data Center más allá del consumo de energía. Es al implementar estos controles que uno se da cuenta que la pérdida de eficacia de enfriamiento puede provenir o bien de la pérdida de aire en los gabinetes, de obstrucciones en el flujo de aire, o de la mala separación del aire caliente del frío. Para enfrentar estos problemas, existen soluciones de pasillos fríos que pueden mejorar el flujo de aire y la eficiencia de enfriamiento hasta en un 10%1. De igual forma, la contención de pasillos fríos puede reducir la energía del ventilador de un 20% a un 25% y brindar un 20% de ahorro energético en refrigeración. Otro factor a optimizar es la gestión de distribución de energía; mediante el uso de herramientas de monitoreo inteligente, las empresas pueden ahorrar dinero en costos de electricidad y de paso aumentar la optimización del consumo energético. Esto puede lograrse mediante un mapeo de las instalaciones que identifique cada activo y proceso operativo y priorice la energía y características térmicas de la instalación para gestionar eficientemente facturas, contratos de leasing, licencias y renovaciones. El uso de tecnologías de gestión puede darle una visión extendida de su Centro de Datos basada en cuadros de mando e informes predefinidos, con registros de control de cambios y documentación adicional que puede combinarse con dispositivos inteligentes para aumentar la funcionalidad. Al implementar herramientas inteligentes para distribución de energía, las empresas pueden, además, crear representaciones visuales de las métricas operacionales utilizando diagramas y medido-

12

res. Esta funcionalidad proporciona una visión inmediata de los signos vitales del Data Center, incluyendo activos (equipos de red), conectividad, espacio y energía. Tener un Centro de Datos en óptimo funcionamiento y que además esté en capacidad de soportar nuevas tecnologías como Big Data y computación en la Nube requiere de herramientas especializadas en gestión de energía y flujo del aire que permita documentar todos los procesos, activos, movimientos, adiciones y cambios, además de entregar una visibilidad completa sobre el consumo de energía, temperatura y humedad de los equipos. Debe también ser capaz de brindar información precisa sobre espacio y conectividad para asegurar que usuarios y accesos están en concordancia con los requisitos regulatorios. Solo así será posible que los administradores de TI comprendan dónde están localizadas sus demandas actuales de energía y cuáles son los mejores caminos para optimizar sus recursos. Analista de Gartner Dave Cappuccio. Por: Neil Corradine, Vicepresidente de Ventas para Latinoamérica, Panduit 1


Inversión Millonaria para Expansión de Centro de Datos en México

El crecimiento de los Centros de Datos a nivel mundial es un acontecimiento que ha ido aumentando en los últimos años. Cada vez son más empresas las que se han sumado a esta evolución tecnológica, con el objetivo de mejorar las oportunidades de negocio y extender sus alcances a nuevos territorios. Tal es el caso de Cartesian Capital Group y Digital Realty, firmas internacionales que, conjuntamente, han decidido invertir 72 millones de dólares en redIT, propiciando, así, en esta última, la oportunidad de continuar creciendo tanto la infraestructura de Data Center, como las redes de conectividad de fibra óptica, y posicionar sus servicios de seguridad y servicios administrados en México y el sureste de Estados Unidos. “Cartesian Capital Group es un fondo de inversión que maneja más de dos billones de dólares en su cartera, y está interesado específicamente en el segmento de tecnología en el mercado mexicano. Luego entonces, ha encontrado en nosotros una oportunidad de inversión, pues hemos mantenido por 15 años una estabilidad en nuestras operaciones y un crecimiento sostenido”, comentó Carlos Osuna, en entrevista para Instalaciones, Revista de Ingeniería. “Digital Realty es el operador del Centro de Datos más importante de Estados Unidos, con presencia a nivel mundial. Lo que a este corporativo le interesa es conocer el mercado Latinoamericano. De modo que ha decidido invertir en redIT para posicionarse en una da las ciudades

más importantes de la región que es la Ciudad de México. Nosotros al asociarnos con Digital no solamente estamos teniendo la relación desde el punto de vista estratégico, sino también acceso a cómo operan más de 100 propiedades de Centros de Datos en todo el mundo. Lo que nos hace más competitivos en el mercado”, agregó el Responsable de la Unidad de Negocio. redIT.DataPark, inaugurado recientemente en Tultitlán, Estado de México, con una inversión inicial de 30 millones de dólares, tiene gran oportunidad de crecimiento con el presupuesto obtenido. Desde su inauguración, dos pods habían sido conformados en el lugar y, con la inversión actual, se podrá concluir un tercer Centro de Datos próximamente. El objetivo estructural del redIT.DataPark, de acuerdo a Carlos Osuna, es la conformación de ocho pods, que serán completados para el 2016. Entre los retos que la firma enfrenta, con la reciente inversión, se encuentran: Mejorar el PUE: La relación de lo que se requiere en kilowatt para mantener una máquina encendida, lo que se necesita para enfriarla.

terciarizar un servicio con la gente que se dedica a esto, y que los propios clientes se enfoquen a sus negocios.

Negocios

redIT.DataPark, inaugurado recientemente en Tultitlán, Estado de México, con una inversión inicial de 30 millones de dólares

Identificar las necesidades de cada industria. Ante cualquier inversión, recurrir a las mejores prácticas, es una parte fundamental. Es decir, previo a la conformación de un Centro de Datos, es indispensable un diseño planeado detalladamente por ingenieros capacitados, tomando en consideración estándares o normas conocidas en el mercado, de modo que el Data Center esté equipado con tecnología que, durante los procesos de operación, haga uso eficiente de la energía eléctrica. Como caso de éxito, a propósito de la eficiencia energética, “el redIt. DataPark en el Estado de México, se ubica estratégicamente en una zona donde es posible estar más del 45% del tiempo empleando el aire del ambiente exterior (Free Cooling). Esto genera eficiencia de la relación entre 1.3 y 1.5 a plena capacidad, optimizando así nuestros procesos operativos”, concluyó. Por: Julio César Sánchez

Mejorar costos de operación: El enfoque debe centrarse en optimizar costos, ser más eficientes en el tema de construcción de los siguientes pods. Hacerle notar a los clientes el modelo de propiedad: Es más rentable

13


14

Negocios



TIC y Centro de Datos

redIT Amplia Cobertura de Red en Telecomunicaciones Con el objetivo de crecer su infraestructura de conectividad, la compañía especializada en proveeduría de servicios administrados de TI y telecomunicaciones, dio a conocer que durante este año invertirá más de 12 millones de dólares para ampliar 540 kilómetros (kms) adicionales de su red de fibra óptica alrededor de las principales ciudades del país, así como la capacidad de red de Larga Distancia y capilaridad de sus redes Metropolitanas. Esta inversión tiene como propósito ampliar la oferta de servicios de conectividad a nivel nacional para aquellos operadores de telecomunicaciones, Centros de Datos, empresas y entidades de gobierno que demandan más y mejor infraestructura que les permita comunicarse e intercambiar información en tiempo real a nivel nacional e internacional. El crecimiento de dicha infraestructura, coincide con el desarrollo que ha mostrado el país en este sector pues, de acuerdo con el Índice de Producción del Sector de Telecomunicaciones (ITEL) de la Secretaría de Comunicaciones y Transportes (SCT), el mercado de las telecomunicaciones en México, durante 2012, tuvo el mayor incremento acumulado en los últimos cuatro años al registrar un 13.4 %, lo cual representa un área de oportunidad para expandir la gama de servicios de redIT. La ampliación de esta infraestructura traerá diversos beneficios a corporaciones localizadas en el país y Estados Unidos. Tan sólo en San Diego y Tijuana existen 400 empresas que podrían obtener una reducción de entre 10 y 15% en las tarifas de conectividad en el cruce fronterizo así como obtener un único punto de contacto. La compañía señaló que el crecimiento de su red de telecomunicaciones se dará de la siguiente manera: las redes metropolitanas en Guadalajara, México, Monterrey y Tijuana tendrán una ampliación de más del 22 % y se instalará infraestructura nueva en las ciudades de Querétaro y Toluca. “Los Centros de Datos constituyen la plataforma sobre la cual montamos los servicios de conectividad, servicios administrados, de Nube, Internet, y este es el mensaje

16

que queremos dar al mercado: Nuestra oferta de valor es la integración”, comentó Cynthia Pulido, en entrevista para Instalaciones, Revista de Ingeniería. “La competencia en el mercado siempre será buena, pues ésta es un estímulo que cualquier compañía recibe para continuar mejorando, innovando, para ser mejor. La oferta, de este modo, continúa activa”, agregó la Directora de Preventa. “En redIT estamos listos para hacer una oferta de valor, una oferta integrada, donde puedan contar con una plataforma de Centros de Datos de primer mundo, con un equipo de recursos humanos listos y capacitados al 100 % para hacer que las tecnologías que hoy existen de Hardware y Software realmente entreguen un valor para todos sus clientes y usuarios finales”, concluyó. Plan de Crecimiento de redes metropolitanas de redIT en 2013 Ciudad Red Actual Crecimiento Total México 650 kms 100 kms 750 kms Monterrey 230 kms 70 kms 300 kms Guadalajara 200 kms 30 kms 230 kms Querétaro 0 kms 160 kms 160 kms Tijuana 85 kms 60 kms 145 kms Toluca 0 kms 120 kms 120 kms Total 1,165 kms 540 kms 1,705 kms


Aplicaciones que Fortalecen el Cableado Estructurado

“En los últimos años, la creciente demanda en Tecnologías de Información y Telecomunicaciones (TIC), nos ha dado la pauta para enfocar nuestras estrategias a desarrollar soluciones patentadas por nosotros mismos, y darle pie a la conformación de Centros de Datos; todo esto, sin descuidar las redes empresariales ya que, tanto en cobre como en fibra óptica, continuamos desarrollando tecnologías complementarias a dicho tema”, comentó Fernando Barrera, en entrevista para Instalaciones, Revista de Ingeniería. De acuerdo con el BU Sales Manager para TE Connectivity México: Cloud y Virtualización son términos que seguirán fortaleciendo tanto al cableado estructurado como a la fibra óptica, con más aplicaciones corriendo en ambas. De modo que, por la evolución del cableado, la compañía desarrolla tecnologías que corren a frecuencias más veloces que las que están actualmente con categoría 6 o 6a, hablando de más de 1000-1500 MHz en el mismo cableado estructurado de cobre, o en fibra óptica para correr a velocidades de 40 o incluso 100 G.

TIC y Centro de Datos

Cloud y Virtualización son términos que seguirán fortaleciendo tanto al cableado estructurado como a la fibra óptica.

“El tema Centro de Datos lo abordamos con tecnologías que cumplen requerimientos que se tienen por estándares. En la compañía, por ejemplo, contamos con soluciones que cubren con lo especificado por la norma EIA TIA e incluso por la norma ISO. De este modo, buscamos satisfacer lo que el cliente quiere, es decir, soluciones fáciles de instalar, con funciones de alto desempeño; robustas, que no ocupen tanto espacio y sean eficientes energéticamente, tomando en consideración que el 30% del consumo de energía en un edificio, se debe a la energía empleada en el Centro de Datos”, agregó. En cuanto a organizadores, la firma cuenta con soluciones que, además de ser funcionales, y cumplir con requerimientos básicos, están diseñados para ser estéticos. Todo esto en temas relacionados a racks y organizadores verticales y horizontales. Con respecto al cobre y fibra óptica, comentó Fernando Barrera, se espera que ambas soluciones convivan conjuntamente, pues no se trata de una guerra entre cobre y fibra, o entre éstas y redes inalámbricas, pues las últimas son un complemento más del cableado estructurado. “México, en la actualidad, cuenta con la infraestructura necesaria para instalar fibra óptica en hogares y oficinas. La limitante que pudiese tener el tema de la fibra al escritorio, como comúnmente se le llama, no es otro más que el personal humano. Pues al hablar de fibra óptica, hablamos de un canal frágil, robusto en el transporte de datos, que debe ser manejado con mucho cuidado, para no romperse, y asegurar que no se generen problemas en las instalaciones”, concluyó. Ing. Fernando Barrera, BU Sales Manager para TE Connectivity México Por: Redacción de Instalaciones, Revista de Ingeniería

17


Software y Tecnología

Seis Pasos que su Organización debe seguir para confiar en Big Data Cuando el análisis de grandes volúmenes de datos (Big Data) aparece, genera distintos tipos de problemas de confianza en el mundo corporativo

Hoy en día las grandes corporaciones en el mundo enfrentan un panorama lleno de situaciones que generan conflictos, como las economías que tratan de mantenerse en pie. Sin embargo, cuando el análisis de grandes volúmenes de datos (Big Data) aparece, genera distintos tipos de problemas de confianza en el mundo corporativo. Con Big Data, por ejemplo, el mayor obstáculo no radica en lograr el éxito, sino en hacer que la gente crea y confíe en este servicio, en lo que puede hacer con los datos. El propio dato tiene en sí mismo un valor intrínseco. Lo que aporta más importancia a los negocios son las correlaciones realizadas para dar una idea, una perspectiva y un significado a determinada información. No obstante, no es fácil que la gente crea –y confíe– en los conocimientos extraídos de los modelos basados en Big Data ¿Confiamos en nuestra experiencia, en nuestra intuición o confiamos en los datos? Aun cuando las correlaciones de datos demuestren un aumento en la eficacia de ventas, los líderes de las líneas de negocios pueden no creer en lo que ven en un primer momento. Es por eso que la construcción de la confianza en Big Data es tan importante. Las personas no querrán dejar de lado sus procesos de toma de decisiones basado en un nivel instintivo que han venido utilizando durante años, hasta que estén convencidas que los Big Data funcionan. Es por eso que demostrar el valor de esta herramienta podría generar más de un proyecto exitoso. Ganarse la confianza es algo que no sucede de la noche a la mañana. El proceso puede ser lento y requiere tacto al interactuar con empresarios líderes, más aún cuando estamos pisando sus territorios. En firma, a través de procesos internos, hemos identificado seis pasos para ganar confianza en nuestras iniciativas de Big Data: Entender el negocio y los datos: puede parecer obvio, pero la realización de proyectos que frecuentemente presentan cierta complejidad y requieren de profundos análisis de inmersión de alguna línea de negocios demanda sentarse con las personas clave para entender qué hacen, cómo interactúa con el resto de la empresa

18

y cuáles son los desafíos que enfrenta, ¿qué le impide el progreso? ¿Qué les frena ser más eficientes? Necesitará un pensador de procesos de negocios para esto, alguien que haga las preguntas correctas y que tenga una buena comprensión de datos disponibles. Determinar los problemas y cómo los datos pueden ayudar: la forma para esto es empezar a conectar los puntos entre problemas de negocios y datos disponibles. ¿Será que estos datos ayudarán a resolver el problema? En este momento, es posible que ya se haya dado cuenta del tipo de datos que están faltando. ¿Y será que puede acceder a los mismos? Una advertencia: la gente tiende a pensar en grandes volúmenes de datos como en las redes sociales y en la Internet de las Cosas (IoT, por sus siglas en inglés). Y pueden creer que necesitan buscar inmediatamente fuera de la empresa para extraer ese tipo de datos y a veces es necesario, pero la integración de datos externos añade complejidad y diría que hay una cantidad significativa de valor sin utilizar en los datos dentro de la propia empresa. El punto es comenzar por ahí y determinar si captar datos externos es necesario o útil. Establezca expectativas razonables –alejarse si es necesario–: asegúrese que la empresa entienda que por cada problema resuelto del negocio, pueden haber tres o cuatro sin resolver. Hemos pasado un par de meses en algunos proyectos que han producido poco o nulo valor significativo. Si los proyectos no están generando los resultados que está buscando, tiene que estar dispuesto a dejarlos de lado y estar atento a las próximas oportunidades. Traiga a los Big Data mientras vive en el viejo mundo: aborde los proyectos de Big Data en paralelo con los métodos tradicionales. Los líderes empresariales no desistirán de los procesos y tecnologías familiares y tampoco dirán: “Muy bien, ahora confiaré en Big Data”. Tendrá que demostrárselo mientras aún operan dentro de sus parámetros de toma de decisiones. Sea flexible: el análisis de Big Data en el cual está inmerso es una exploración de géneros. Puede descubrir cierta importancia en áreas inesperadas, esto implica ser flexible con la metodología y las herramientas. Las herramientas para Big Data se encuentran en las primeras etapas de desarrollo. Reconozca que el conjunto de éstas para Big Data no será el mismo dentro de un año. Tiene que ser flexible en su implementación y actualización, haciendo inversiones en tecnologías de acuerdo a la necesidad. También puede que necesite buscar experiencia en diferentes tipos de análisis a medida que continúa trabajando para encontrar la importancia en Big


Data y demostrar este valor para los negocios de nuevas maneras.

Generar confianza en las ideas de Big Data lleva tiempo, es un proceso que puede durar hasta seis meses, en el cual apenas se puede demostrar el primer caso de negocio. Pero una vez que algunas iniciativas estén funcionando, la empresa estará más abierta para Big Data deseando incluirla para resolver más desafíos clave. No sólo los negocios cambiarán, en este proceso también TI lo hará. A medida que los departamentos de TI adopten iniciativas de Big Data que tengan resultados empresariales, estos se transformarán en un aliado estratégico para la empresa, un aliado que se ha ganado la confianza.

Software y Tecnología

Mantenga su objetivo en mente: a veces el proceso podrá parecer pesado y es en estos momentos donde se tiene que mantener el enfoque en los resultados. El Big Data está en sus primeras etapas de madurez, donde los métodos y herramientas para tener un análisis más fácil y eficaz aún no están totalmente listos. Sin embargo, en la compañía aprovechamos el Big Data y los análisis predictivos para alcanzar una reducción de 25% en el tiempo y en la validación del diseño del chip, lo que aumenta la velocidad para el lanzamiento en el mercado de nuevos chips. Resultados como este transforman todo el proceso en un esfuerzo que vale la pena.

Por: María Gabriela Gallardo, Gerente de Marketing de Negocios de Intel para América Latina

19


Eléctrico

Medir, Calcular y Mejorar la Eficiencia del Centro de Datos Introducción La Eficacia del Uso de Energía o PUE, por sus siglas en inglés (Power Usage Effectiveness), se ha convertido en la métrica preferida de la industria para medir la eficiencia energética de la infraestructura para Centros de Datos. Fue desarrollada por la Asociación Green Grid, un consorcio abierto sin fines de lucro, compuesto por usuarios finales, diseñadores de políticas, proveedores de tecnología, arquitectos de las instalaciones, y las empresas de servicios públicos que trabajan para mejorar la eficiencia de los recursos de tecnología de la información y de los Centros de Datos en todo el mundo.

¿Por qué una mayor eficiencia energética? Porque la energía y el enfriamiento del Centro de Datos son dos de los mayores problemas que enfrentan las organizaciones de TI hoy en día, y las empresas en crecimiento necesitan una manera de controlar estos costos al tiempo que permitan una futura expansión. Con Centros de Datos más eficientes, las organizaciones de TI pueden gestionar mejor un aumento de computación, red, y demandas de almacenamiento, reducir los costos de energía, y reducir el costo total de propiedad (TCO), todo sin dejar de ser competitivo y capaz de satisfacer las necesidades futuras del negocio.

¿Qué es pue?

PUE mide la relación entre la energía total consumida por la infraestructura del Centro de Datos y la energía consumida por los equipos informáticos. PUE = Energía Total de Infraestructura / Energía de Equipos TI La Energía Total de Infraestructura se define como la energía total requerida para operar exclusivamente el Centro de Datos, incluyendo los equipos de TI. La Energía de Equipos de TI se define como la energía consumida por el equipo que se utiliza para gestionar, procesar, almacenar, o enrutar datos dentro del espacio de cómputo.

Componentes para calcular el pue

•Energía de equipos TI incluye la energía asociada con todo el equipamiento TI (equipo de cómputo, almacenamiento, y red) junto con equipo suplementario (interruptores KVM, monitores, estaciones de trabajo y laptops utilizados para monitorear o controlar el Centro de Datos). •Energía Total de Infraestructura incluye toda la energía de equipos TI descrita en el punto anterior, adicional a todo lo que soporta al equipamiento TI utilizando energía, como:

20

Componentes de suministro de energía, incluyendo sistemas UPS, generadores, Transformadores, PDU, baterías, etc. Componentes del sistema de enfriamiento, como chillers, torres de enfriamiento, bombas, CRAH, CRAC, y unidades manejadoras de aire de expansión directa (DX) Otras cargas, como iluminación, etc.

Mediciones para calcular el pue Mediciones de energía reales deberán recolectarse con el fin de que el PUE tenga alguna correlación con un Centro de Datos operacional. La Energía Total de la Infraestructura se mide en o cerca del medidor del proveedor de energía, con el fin de reflejar con precisión la energía entrando al Centro de Datos. Esta medición debe representar la energía total utilizada para alimentar todos los equipos eléctricos, mecánicos, de enfriamiento, control, seguridad, iluminación, gestión y acondicionamiento del Centro de Datos. La Energía del Equipo TI debe medirse después de todas las instalaciones de conversión de energía, de conmutación, y de acondicionamiento y antes de que la energía sea utiliza por el propio equipo de TI. El punto de medición más probable es en la salida de las PDU de la sala de ordenadores. Esta medición debe representar la energía total suministrada a los bastidores de equipos informáticos en el Centro de Datos.

¿Para qué sirve el pue?

El PUE provee una manera de determinar: Oportunidades para mejorar la eficiencia operativa de un Centro de Datos.


La métrica PUE provee una herramienta útil para evaluar el consumo de energía y la eficiencia de los equipos de infraestructura que soportan al equipo de TI en el Centro de Datos, de manera que los operadores de Centros de Datos puedan utilizar los resultados para dirigir y reducir el consumo de energía relacionado con la infraestructura de soporte dentro de sus facilidades.

Valores de pue PUE puede variar desde 1.0 (donde toda la energía es consumida únicamente por el equipo de TI) hasta infinito. Así, un PUE = 2.0 significa que el equipo TI está consumiendo un 50% de la energía total entregada al Centro de Datos. Ya que las pérdidas de distribución de energía y el consumo de energía del equipo de enfriamiento siempre tomarán valores positivos, el PUE nunca puede ser menor a 1.0. Idealmente, un valor de PUE de 1.0 indicaría un 100% de eficiencia. De acuerdo al Uptime Institute, el Centro de Datos promedio tiene un PUE de 2.5, lo que significa que por cada 2.5 Watts de energía en el medidor, únicamente 1 Watt está realmente siendo utilizado para cumplir con las necesidades corporativas de computación. El Uptime Institute estima que la mayoría de los Centros de Datos pueden lograr valores PUE de 1.6 o menores.

Conclusiones Un PUE mejor (inferior) puede ser engañoso, ya que puede ser resultado de ineficiencias en la potencia consumida por los equipos informáticos, lo que simplemente aumenta el denominador de la ecuación. De igual manera, es posible implementar medidas que reduzcan el consumo de energía del equipo de TI y sin embargo aumentan en realidad el PUE. Por otro lado, si la energía total suministrada a un Centro de Datos no se ajusta adecuadamente para que coincida con una baja en la energía consumida por el equipo de TI, la métrica PUE puede subir. Por esta razón es importante recordar el reducir el consumo de energía de los subcomponentes de la infraestructura.

Eléctrico

Cómo se compara con otros Centros de Datos Si los operadores del Centro de Datos están mejorando los diseños y procesos con el tiempo. Oportunidades para re-utilizar la energía para equipo adicional de TI Un diseño meta u objetivo para nuevos Centros de Datos

El objetivo es aumentar la eficiencia en nuestro Centro de Datos, reducir el uso de energía. Claramente, el PUE se convierte en una guía más útil una vez que se ha implementado la eficiencia en el desempeño de los equipos informáticos. Entonces, se podrá atacar el numerador de la ecuación y exprimir las ineficiencias de la infraestructura. Para lograr un PUE ideal debemos enfocarnos en ambos componentes de la ecuación. La eficiencia en equipos de TI siempre debe de ir acompañada de equipos de infraestructura igualmente más eficientes: Equipos con factor de potencia cercano a 1, en donde cada kVA suministrado equivale a 1 kW consumido. Equipos con menor generación de distorsión armónica y por ende menor generación de pérdidas y calor. Equipos diseñados con menos componentes con el fin de consumir menos energía, generar menos calor, y ocupar un menor espacio. Equipos con mejor desempeño utilizando menos energía. Ejemplo: CoreSite Realty Corporation, gestionando seis Centros de Datos de un total de más de 152,400 m2, ha logrado mantener un PUE promedio de 1.3 desde el 2010, utilizando UPS que aportan un PUE de 1.03 gracias a su tecnología avanzada. http://www.missioncriticalmagazine.com/articles/83491-coresite-chooses-mitsubishi-electric-power-products-ups-for-data-center Para mayor información sobre el PUE consultar la información proporcionada en el sitio de The Green Grid (www.thegreengrid.org) Referencias PUETM: A Comprehensive Examination of the Metric – The Green Grid Ing. Enrique Arizpe Gerente de Ingeniería de Secovi

21


Seguridad

Vulnerabilidades en la Infraestructura de Tecnologías de Información y Telecomunicaciones Tengo blindado mi perímetro, mi Data Center… pero el tema es que los ataques de este estilo vienen desde máquinas internas de la red Cuando nos hemos referido a amenazas cibernéticas, y hemos hablado sobre ellas, pensábamos que éstas sólo estaban conformadas por virus o cosas que atacan una infraestructura. No obstante, con el crecimiento de las Tecnologías de Información y Telecomunicaciones (TIC), las amenazas cibernéticas han sido diseñadas a modo de ataques dirigidos contra: la infraestructura de un país, gobiernos, sistemas informáticos o instituciones privadas. Cada uno tiene un motivador diferente, Juan Pablo Castro, habló más al respecto en entrevista para Instalaciones, Revista de Ingeniería: “En cuanto a infraestructura de un país se refiere, el delincuente podría tener la intención de dejarla fuera de línea, para provocar un incidente de alto impacto en el servicio de transporte o en la red energética, por mencionar algunos ejemplos. Los ataques contra sistemas de información del gobierno, tienen que ver con el robo de información, con motivos políticos, aspectos de carácter económico, entre otros. Con las empresas privadas, los ataques cibernéticos están relacionados con el robo de Propiedad Intelectual, que proporciona, a quien obtiene esta información, la posibilidad de ganar dinero al vender los datos alcanzados, a alguien que pueda conseguir con ellos ventaja competitiva en el mercado.” Los embates cibernéticos tienen que ver principalmente con ataques dirigidos o agresiones de negación de servicio. Un ataque dirigido, como bien lo dice, no es un ataque en masa, como las epidemias de virus, comunes en el pasado, sino el diseño específico de una acometida, para irrumpir estratégicamente en una institución.

22

Los ataques dirigidos cuentan con un componente de entrada que tiene que ver directamente con el tema de vulnerabilidades de los sistemas. Actualmente, lo que vemos, es que en los sistemas de producción y altamente críticos, ya sean de gobiernos o de industria privada, los servidores que brindan esos servicios en la infraestructura del Centro de Datos, poseen gran cantidad de deficiencias, específicamente porque es difícil mantenerse al día con el siclo de parches, y cerrar esas vulnerabilidades. Para evitar ser víctima de estas amenazas cibernéticas: “la primera recomendación, es que tengan la posibilidad de mantener sus sistemas al día con los parches y obtener sistemas alternos que permitan blindar a los servidores de ataques externos e internos. La mayor parte de estos ataques vienen desde adentro. Uno podría decir, tengo blindado mi perímetro, mi Data Center… pero el tema, es que los ataques de este estilo vienen desde máquinas internas de la red, y esto no quiere decir que sea una persona de adentro de la organización; puede ser alguien de allí, claro; pero muchas veces es una máquina secuestrada dentro de la compañía, o bien, un grupo de máquinas que ataca a los servidores internos. Entonces normalmente las defensas están focalizadas en el perímetro y, hoy en día, de lo que tenemos que darnos cuenta es que las defensas también deben estar enfocadas hacia la red interna, y saber cómo mitigar estos ataques desde esta red”, comentó el Director de Tecnología de Trend Micro México. “El segundo punto tiene que ver con implementar tecnologías de monitoreo continuo, para ver todo lo que se está sucediendo: cuáles son los archivos que circulan por la red, poder detenerlos y analizarlos en el momento. No esperar a mandarlos al laboratorio para analizarlos,


por ejemplo. En otras palabras, debemos tener la capacidad de analizarlas en sitio y, finalmente, obtener inteligencia sobre lo que esta amenaza está intentando hacer.” El 90% de este tipo de ataques, llegan a las empresas a través de correos de phishing dirigidos, es decir, los ataques son diseñados para una sola persona, con un documento PDF adjunto, contario al phishing normal a una página, conformado por correos masivos. Los PDFs explotan vulnerabilidades internas del lector del Adobe Reader o de java. Documentos peligrosos, que para detenerlos a nivel de correo electrónico hay que implementar nuevas capas de protección de correo. Estas son las principales medidas que nos pueden dar la posibilidad de empezar a detener o detectar tempranamente este tipo de ataques. Algunos analistas del mercado dicen que debemos estar conscientes en que las amenazas, de una u otra forma, terminarán ingresando a la empresa, al gobierno o en el lugar donde estemos trabajando, sin embargo, lo importante es detectarlas lo antes posible. “En México, el porcentaje de ataques contra la infraestructura es del 40%, y la cifra continuará creciendo porque hay un motivador importante, como lo es el crecimiento de las TIC y la posición estratégica que el país está obteniendo a nivel mundial”, concluyó. Por: Julio César Sánchez

23


Sustentabilidad

Diseño, Uso y Ahorro de Energía en las Salas de Cómputo. Estudios de Energía en CPD

de esta manera se contiene el aire para hacerlo llegar solamente donde se requiere y con ello obtener una mayor eficiencia al consumir menos energía en el Sistema de Aire Acondicionado.

Estudios recientes han demostrado que del 100% de la energía que consume un Centros de Cómputo, este consumo se distribuye de la siguiente manera: 52% corresponde a equipos de cómputo, 38% aires acondicionados, 5% UPS, 3% transformadores de subestación, 1% PDU y 1% alumbrados.

El ahorro y cuidado del medio ambiente es llevado a cabo también por los fabricantes de sistemas de enfriamiento con el objetivo de gastar menos energía diseñando tecnologías con mayor eficiencia donde el aire exterior cobra mayor importancia en lo que ahora conocemos como “Free Cooling”, dejando atrás al Gas Refrigerante, que es uno de los sistemas de compresión que más energía consume. Un claro ejemplo de estas acciones la llevan a cabo los grandes Centros de Cómputo de las Redes Sociales, quienes cada vez adquieren una mayor conciencia construyendo sus Centros de Datos en lugares fríos o posiblemente cerca de un río o presa, y de esta manera, contar con la energía generada por ellos mismos, dando origen y presencia al denominado “Free Cooling”.

Dichos análisis han derivado en poner una atención inminente en los Aires Acondicionados, iniciando así una nueva era en los sistemas de enfriamiento, cuyo objetivo ahora centra su objetivo en ser más eficientes. Si bien es cierto que con el advenimiento de los sistemas Blade para equipos de cómputo y telecomunicaciones se han logrado métodos, técnicas y mejores prácticas, cada vez más veloces y con mayor capacidad para procesar y transmitir información; logrando que esta tecnología se pueda instalar en racks o gabinetes, la cantidad de calor aumenta al igual que el consumo de energía. Esta situación genera que el sistema de enfriamiento requiera de un incremento de capacidad en la circulación del aire ya que ésta debe ser de manera horizontal y no vertical, como lo requerían antes los sistemas tipo torre. Es decir, en el flujo horizontal el Equipo de Aire Acondicionado enfría solo equipos de Cómputo y no la sala completa, luego entonces, la temperatura que entrega el equipo de enfriamiento puede ser más alta, por ejemplo: el aire que se debía enfriar a una temperatura de 11° Celsius su propósito era que el aire que recibían los equipos fuera de 14 o 15° y, una vez alcanzada esa temperatura, regresara al equipo a 20° C. Así, estas temperaturas tan bajas hacen que la Humedad, en forma de vapor contenida en el aire, se Condense en el serpentín evaporador y cambie a estado líquido, como lo conocemos comúnmente, generando un desperdicio de uno de nuestros recursos naturales como lo es el agua.

Tipos de Enfriamiento En cambio, en la actualidad, con los sistemas de enfriamiento directos al equipo y con la tecnología de nuevos procesadores, la temperatura no tiene que ser tan fría, oscila entre los 22 a 25 o hasta 28 ° Celsius, generando un ahorro del vital líquido. Otro factor determinante es el acomodo de servidores en racks y, a su vez, en filas de pasillos fríos y calientes,

24



Sustentabilidad

La Norma Mexicana NMX-AA-164-SCFI-2012 Edificación Sustentable.- Criterios y Requerimientos Ambientales Mínimos El impacto en los Centros de Datos

La presente norma mexicana es de aplicación voluntaria para todas las edificaciones que se ubiquen dentro del territorio nacional, públicas o privadas, destinadas en su totalidad o en uso mixto a diferentes actividades de índole habitacional, comercial, de servicios o industrial.

El 4 de septiembre de 2013 se publicó en el DOF el aviso de vigencia de la NMX-AA-164-SCFI-2013 Edificación Sustentable. Resultado de un esfuerzo conjunto, que sin duda marcará un parte aguas en las prácticas de edificación de nuestro país.

Aplica a las edificaciones y sus obras exteriores. Ya sea individuales o en conjuntos de edificios, nuevas o existentes, sobre uno o varios predios, en arrendamiento o propias. Además de aplicar a una o varias de las etapas del ciclo de vida de la edificación.

La norma entrará en vigencia a los 60 días a partir de esta fecha, tiempo en que se trabajará en la estrategia de implementación que posibilite crear las condiciones para su observancia a nivel nacional. He aquí un breve fragmento.

Son responsables del cumplimiento de la presente norma mexicana las personas físicas o morales propietarias de las edificaciones, o sus representantes legales.

Esta norma mexicana parte de la observancia de la normatividad vigente, estableciendo estándares más estrictos, además de referirse a aspectos no previstos por éstas que surgen de una conceptualización integral de los múltiples e interrelacionados impactos ambientales, directos e indirectos más relevantes asociados al ciclo de vida de la edificación. Contiene un procedimiento de evaluación para evitar la discrecionalidad y la competencia desleal y la base para establecer acuerdos de reconocimiento mutuo que en su momento permitirán hacerla compatible con estándares internacionales. Podrá ser utilizada como referencia para programas de regulación, auto-regulación, certificación, reconocimientos y auditorías ambientales en el ámbito federal y local, para la protección y orientación a los consumidores respecto a la calidad de la edificación y para resoluciones de controversias de carácter civil, mercantil o administrativo.

1 OBJETIVO Esta norma mexicana especifica los criterios y requerimientos ambientales mínimos de una edificación sustentable para contribuir en la mitigación de impactos ambientales y el aprovechamiento sustentable de los recursos naturales, sin descuidar los aspectos socioeconómicos que aseguran su viabilidad, habitabilidad e integración al entorno urbano y natural.

26

2 CAMPO DE APLICACIÓN

Por: Ing. Roberto Sánchez


Confesiones sobre la Nube: ¿Cómo Emplear el Big Data?

Marcos Nehme

Technical Director LATAM & Caribbean–RSA, The Security Division, EMC.

Sustentabilidad

La seguridad es el elemento clave de una infraestructura tecnológica confiable. Un posicionamiento efectivo de la información y su análisis permitirán el modelo de seguridad basado en el riesgo y guiado por inteligencia y contexto. Todos estos conceptos son requeridos para defender a empresas hiper extendidas contra crecientes amenazas y adversarios. Big Data produce una visión integral del riesgo para priorizar las actividades y controles. Provee un contexto para verificar la confiabilidad de la identidad de los usuarios y transacciones, y empodera a los profesionales con potentes herramientas de análisis para detectar, investigar y, en última instancia, predecir ataques avanzados.

Mario Domínguez

Regional Center of Excellence, SAP Database and Technology En la actualidad, la variedad, velocidad y volumen de información se duplican casi cada 18 meses. Hoy ya no es suficiente con gestionar en tiempo real las transacciones diarias de un negocio (finanzas, ventas, producción), también se requiere capacidad para obtener nueva información de fuentes como las redes sociales. Tener a su alcance tecnologías para Big Data será una ventaja competitiva para su negocio.

Ramón Ruiz

Director de Operaciones, Wingu Networks Los servicios para empresas en Cloud hoy en día son una realidad. Esta nueva tendencia va muy ligada a la versatilidad y bajos costos que ofrece este paradigma. Sin embargo, es importante ser consciente de que la información va a estar en cierta medida fuera de nuestro círculo de protección y es por esto que la seguridad es un tema de vital importancia.

27


Construcción

Planeación de un Data Center para una Universidad e Institutos de Investigación Científica Hoy en día el mercado de los centros de datos ha entrado en México en una etapa de crecimiento importante, hemos ya pasado la “infancia” de nuestro industria y estamos en plena “adolescencia”, a diferencia de los mercados de Estados Unidos o Europa donde es ya una industria perfectamente consolidada y con necesidades, tendencias y protagonistas muy bien definidos. El mercado del Data Center en México apunta a un desarrollo claro, las normas de referencia de la industria están listas (como las NMX de CDAD, recientemente terminada y en proceso de publicación y promulgación), sin embargo, cuando nos acercamos a hablar de Centros de Datos como una necesidad de todos los mercados, encontramos en el segmento de las universidades un enfoque distinto de el que tiene la industria privada, la razón es sencilla de identificar. En las Universidades, el camino de los servicios no está regido por las necesidades del “negocio”, en éstas la educación es un servicio público, presidido por las políticas gubernamentales de educación. Sin embargo, a pesar de dicha situación las metodología de planeación perteneciente a un proyecto de Centro de Datos puede seguir básicamente los mismo pases que aquellos que proseguimos para un proyecto de la iniciativa privada.

La planeación del Data Center en una Universidad Definición de consideraciones básicas de TI En el caso de las universidades, los elementos que guiarán el proyecto en su proceso de diseño se enfocarán en algunas de sus necesidades particulares, tales como: servicios de control escolar, procesos administrativos internos, proyectos de investigación científica, vinculación académica nacional o internacional, servicios de educación a distancia y servicios externos, entre otras actividades; esto nos llevará a las aplicaciones requeridas que debe cubrir el Centro de Datos. Entonces se tendrá que hacer un análisis de estos procesos para clasificarlos y ponderar su prioridad en términos de criticidad, capacidad (consumos de energía que requerirían sus procesos) y perspectivas de crecimiento a futuro.

28

Así, por ejemplo, supongamos un caso particular, si tenemos equipos del Instituto de Geología de la UNAM, que estuvieran monitoreando el comportamiento del volcán Popocatépetl, es definitivo que el sistema deberá estar disponible en todo momento, para emitir una posible alarma, pues como sabemos el volcán es impredecible en su comportamiento. Por otra parte, las actividades de control escolar pueden ser calendarizadas de acuerdo a los tiempo que sigue el calendario escolar, en esos términos, la criticidad del servicio es menor en dicho caso. Desarrollo Conceptual El siguiente paso será entonces determinar los lineamientos generales tecnológicos que soportarán los procesos de TI determinados en la etapa anterior, los cuales, fungirán como marcos de referencia para el diseño conceptual. Algunos de los aspectos que involucra esta etapa se relacionan con los consumos de energía que podrían haber, densidades de potencia, capacidad de enfriamiento requerida, ubicación física que tendrá el Centro de Datos y, por supuesto, el costo objetivo del proyecto. Asimismo, esto determinará los niveles de escalabilidad deseada para el proyecto en cada una de las infraestructuras del Centro de Datos, para adecuarlo a los flujos presupuestales. Necesidades y limitaciones particulares Una vez definido el concepto general del proyecto se procede a trabajar en la definición de necesidades particulares del proyecto, aquí la voz del usuario (o doliente del proyecto) es fundamental, definiremos qué es lo que el usuario desea que el DC le ofrezca en términos de capacidad, aplicaciones, continuidad de operación y disponibilidad de la información, capacidad de procesamiento, etc. Estos datos se deberán cruzar con las limitaciones existentes, tales como, ubicación fija, que el usuario no puede cambiar, tamaño del espacio, limitaciones presupuestales, entre otras. En este sentido, el beneficiario muchas veces vera que algunos de sus deseos, no son posibles. En este punto el sentido del pragmatismo es fundamental para un buen diseño.

Especificaciones particulares

Una vez terminada esta etapa procedemos a desarrollar las especificaciones particulares , que pueden estar relacionadas ya con los estándares de la industria, tales como la TIA-942, el estándar BICSI-002 o la NMXCDAD. Por ejemplo, la Norma Mexicana de Centros de Datos de Alto Desempeño (en proceso de publicación) establece los lineamientos que debe cumplir un Centro de Datos en espacios tan pequeños como 12 m.


29


Construcción

En este punto también definiremos la distribución general que tendrá el Centro de Datos (plan de piso), determinaremos algunos aspectos tecnológicos, tales como: cablear con cobre o con fibra óptica, tipos de escalabilidad requerida, entre otras.

Fig. 2 Proceso de planeación de un proyecto de CD para una Universidad.

En esta etapa habrá sido crucial entender claramente las necesidades de usuarios y especificaciones particulares. Diseño Detallado La ultima etapa del desarrollo del DC Universitario será ya el detalle particular, en esta etapa definiremos marcas y fabricantes involucrados, tipo de agente en el sistema de protección contra incendio, si usaremos alimentación eléctrica mediante cableado tradicional o usaremos electroductos, tecnologías de gabinetes, soluciones particulares de los sistemas de control de acceso, entre otras. Otro de los elementos que determinaremos, serán detalles tales como: planes de trabajo, programas de adquisición, calendarios de avances, entre otros. Fig. 1 Ejemplo de diseño de Centro de Datos para un Centro de Investigación

Conclusiones Este proceso en cinco pasos es el que se sigue en términos generales para cualquier Data Center, sin embargo, en el caso de una Universidad sus procesos particulares son los que marcaran las principales diferencias y, en ese sentido, el resultado final del proyecto deberá estar alineado con políticas y planes educativos que sigue la Universidad. Por lo que en cada una de las etapas se deberán involucrar diferentes stackeholders, desde directivos y autoridades universitarias, en las primeras etapas, hasta especialistas técnicos y fabricantes. En este sentido, un consultor especializado podrá guiar el proceso y coordinar la participación de cada uno de los responsables de cada etapa del proyecto. Por: Marco T. Munguía, Consultor especializado en Infraestructura para Centros de Datos, Ingeniero en Comunicaciones y Electrónica, ESIME IPN, 1988, certificado como RCDD por BICSI desde 2002, presidente de BICSI México 2006-2007, Vicepresidente del sector de STI del IMEI 2011-2012, miembro del grupo de trabajo para el desarrollo de la Norma Mexicana de Centros de Datos de Alto Desempeño. mtmunguiab@prodigy.net.mx Referencias; APC 2007 WP 142, NMX CDAD-2013.

30


Cinco puntos que impulsan el desarrollo del Cloud en el mercado Las empresas e instituciones progresistas ven a la tecnología y a la Nube como poderoso agente de cambio, indispensable para satisfacer las demandas de sus clientes cada vez más rápida y eficientemente, con servicios accesibles y personalizados. Al frente de este cambio monumental está el Cloud Computing. Así, comentó Sergio Rosengaus, “las empresas tendrán que enfocarse en la Nube, para modernizar no sólo sus tecnologías de información, sino el negocio entero.” En el marco del Kloud Camp 2013, llevado a cabo recientemente en la Ciudad de México, ante más de 1,000 profesionales de TI y expertos nacionales e internacionales de instituciones y empresas de la industria, el Co-Fundador & Director General de KIO Networks, compartió estos cinco puntos que impulsan el desarrollo del Cloud en el mercado:

la relación entre riesgo e inversión al limitar la pérdida, abriéndole paso al éxito ilimitado.

Negocios

Principios que Impulsan el Desarrollo del Cloud. Kloud Camp 2013

Las condiciones actuales de la “Tormenta Perfecta”: Teletrabajo – Aldea Global. Cualquier Edad – Incremento de promedio de vida. Trabajo Continuo – Total Disponibilidad. Trabajo Completo – La complejidad nos rodea. El “Mito” de la seguridad: Cuando hay cambios mayores, ya sea económico o social, pareciera que hay un “Mito” central que debiese desaparecer. En el caso del Cloud, el tema central es “exorcizar” lo correspondiente a nuestra seguridad personal y/o empresarial, de modo que esté más comprometida que nunca. Asimismo, el representante de la firma, hizo hincapié en puntos trascendentales, tales como: Derivadas de la Innovación, Bases para Desarrollo en el Cloud y Errores Comunes al Construir Proyectos Cloud:

La penetración de Internet e inversiones mundiales en educación están creando una fábrica global de innovación, sembrando al mundo nuevas ideas y oportunidades de colaboración. La continua optimización del costo del cómputo y el crecimiento continuo del valor de información en el Cloud sobre nuestro comportamiento en la red. Un empresario puede escalar su proyecto en tiempo real, en lugar de intentar predecir el éxito de su servicio; esto modifica significativamente

31


Cuatro Derivadas de la Innovación Derivada

1ra Derivada

2da Derivada

3ra Derivada

4ta Derivada

Simple, Tecnología Innovadora, Ciclo Largo de Adopción, Amigable a Modelos de Negocio y a Expectativas del Consumidor.

Combina Muchas Primeras Derivadas, Introduce Nuevos Modelos de Negocio, Se Percibe como Amenaza a los Modelos Establecidos, Tiene Poco o Ningún Precedente en el Mercado y los Estándares Empiezan a Surgir.

Basada en la Información, Muy Cercana a la 2da Derivada, Explota Mejor los Modelos de Negocios, Genera Innovadores “Copy-Cat” y Empieza la Amenaza a los Modelos Anteriores Establecidos.

Funcionalidades Basadas en la Experiencia, Empieza a Agregar Complejidad, Cambia la Experiencia del Usuario Dramáticamente, Inicia Nuevos Modelos de Negocio Creando Nuevas Industrias o Nuevos Segmentos de la Industria.

Impacto en el Cloud

Reduce el Ciclo de Adopción, Provee Plataforma de Bajo Costo/ Riesgo para la Introducción de Tecnología. Ej: Virtualización Cómputo

Crea Mayores Niveles de Colaboración entre Desarrolladores y el Mercado, Identifica Tendencias e Influencias, Provee Retroalimentación del Mercado en Tiempo Real. Ej: 2dos Virtualizadores/ Virtualización de Otros Componentes.

Reduce el Tiempo para la Creación de Nuevos Modelos de Negocio y Estándares, Incrementa la Diversidad y Competitividad, Permite a Jugadores Pequeños Mantener Participación en el Mercado. Ej: Surgen Cloud Providers (AWS, PaaS, Video Clouds…)

Crea Capacidades Derivadas de la Experiencia, Identifica Comportamientos, Permite Mayores Niveles de Complejidad en el Cloud. Ej: Surgen Ecosistemas Completos de Infraestructura/Servicios.

Negocios

Características

Bases para Desarrollo en el Cloud Empieza rápido, posteriormente acelera. Construye para “escalar” o mejor no construyas. Construirlo “bien” significa ahorrar mucho dinero. Asume que el cambio constante es la constante. Optimiza el valor en dinero del tiempo, para posteriormente obtener el valor del dinero en el tiempo. Errores Comunes al Construir Proyectos Cloud No diseñar para “elasticidad.” No integrar capacidades específicas de performance. No integrar capacidades para “probar” las capacidades. Construir en lugar de utilizar cosas que ya existen en Cloud como servicios. Pensar que usar Cloud significa no contar con organizaciones de tecnología. No convertir “Cloud Computing” un “Core Competency.” Por: Julio César Sánchez

32


“La tecnología Hot Swap que ofrecemos en No Breaks (UPS) y en sus soluciones de Distribución del suministro eléctrico (PDU), son importantes para mantener la continuidad de la operación de los equipos en Centros de Datos, lo que se conoce como Business Continuity”, señaló Miguel Monterrosas, Director de Soporte Técnico de Tripp Lite. “Esta tecnología, permite que el suministro eléctrico no se vea interrumpido durante algún proceso de mantenimiento (por ejemplo, en el caso de intercambio de baterías) o cambio del equipo, gracias a que se puede colocar en modo Bypass para que el servidor u otros equipos protegidos no interrumpan su funcionamiento por falta de energía. Ya que los equipos están fabricados con carcasa de plástico y separados del resto de los componentes, con lo que el personal técnico evita sufrir alguna descarga eléctrica”, puntualizó Monterrosas. Para nosotros es importante mantener la continuidad de la energía a través de diferentes opciones, ya sea con equipos que provean redundancia (para respaldo de equipos) o por esta solución (para realizar cambios de equipo o mantenimiento sin interrumpir su operación), según las necesidades del cliente; “el objetivo es no tener fallas y minimizar el riesgo en las empresas. Su uso en la aplicación de operaciones de misión crítica como mantener la comunicación en la infraestructura de telecomunicaciones o en caso de Cloud Computing tener con entera disponibilidad los datos de red”, aclaró Monterrosas.

Contamos con UPS (No Breaks) pequeños que incluyen estos conceptos de disponibilidad, Redundancia, N+1, es decir, cuentan con módulos de potencia de respaldo, tecnología Bypass interna y automática ante la posibilidad de falla del UPS; así como sistema Hot Swap en equipos de 5 kVA a 20 kVA, para intercambio de unidad o intercambio del modulo de potencia y batería, sin apagar la carga conectada a él (tienen interconstruido este módulo según el modelo del UPS). Agregó Monterrosas que “hoy día cuentan con soluciones para Hot Swap en equipos pequeños de 3 kVA, 2 kVA y hasta 1 kVA; así como en las nuevas líneas de PDU con tecnología ATS (Sistemas Automáticos de Transferencia) que conecta dispositivos dentro del site que tengan una fuente de poder o dos suministros separados de energía, pero también permiten hacer Hot Swap con UPS de otros fabricantes”.

Eléctrico

Tecnología Hot Swap de TL asegura continuidad de energía en Centro de Datos

Monterrosas recomendó que para la instalación de equipos con esta tecnología, en Centros de Datos, es necesario contar con capacitación ya que en primer lugar se debe realizar un estudio de energía del lugar y así determinar qué equipo utilizar según el tipo de carga y por el reinicio del sistema en el sentido de no perder continuidad de la operación. Finalmente, en este tipo de soluciones es importante el monitoreo así como la disponibilidad del equipo en momento crítico, de manera que sea posible transmitir alertas por red y recibirlas en sistemas centralizados de monitoreo o correo electrónico al celular. Monterrosas, concluyó que “es importante contar en un Centro de Datos o site con gabinetes y/o racks que permitan la organización de dispositivos como: UPS con tecnología Online o doble conversión, Sistema de bypass interno (para evitar caída de la carga conectada al UPS), Sistema de bypass externo (que permita el cambio del UPS sin desconectar la carga), PDUs (Unidades de distribución de energía), KVM (Switches centralizados de servidores), Servidores de Consola (Controladores centralizados de switches, routers y conmutadores), Sistemas de ventilación y refrigeración, y finalmente, organizadores de cables de energía y de datos”.

33



35


36


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.