Los avances en tecnologías de conectividad física El incremento de la potencia de computo de los procesadores de hoy, implica un lógico incremento en los interfaces de red ,SAN y otros que tienen la función de manejar los periféricos mínimos en un sistema. Esto implica que el nivel físico, encargado de soportar todos los 6 restantes niveles del estándar OSI, lo debamos elegir cada vez más confiable y a prueba de futuro por el gran salto que ha estado dando la capacidad de transmisión por lo menos cada 5 años. En Julio pasado durante las reuniones de TIA de la última semana, el subcomité de cableado TR-42.7 aceptó adicionar el concepto de desempeño ISO/IEC Class II, para su proyecto pendiente de ANSI/TIA568-C.2-1 Categoría 8 que se tiene programado para salida en el 2015 con aplicación en centros de datos. Clase II es el nombre de la nueva clasificación de cableado de ISO/IEC que va a ser construido a partir de elementos completamente blindados (cables y hardware de conexión). Las especificaciones de la clase II y de la categoría 8.2, están enfocadas en soportar la aplicación 40-BASE-T en una distancia mínima de 30m y están bajo desarrollo por el grupo de trabajo ISO/IEC JTC 1/SC 25/WG3. Los componentes de Categoría 8.2 serán una extensión basada en los componentes de la existente categoría 7A. Aceptando la propuesta de adicionar el criterio de performance clase II y estableciendo el grupo de acción para trabajar en estos límites, TIA está mostrando que las organizaciones de desarrollo de estándares de Norte América están listas para acoger los sistemas de cableado “fully-shielded” (completamente blindados). Este es un paso fuerte y positivo hacia la armonía global para tener disponible un conjunto completo de soluciones de cableado estructurado para soluciones de infraestructura de IT. El ancho de banda, que crece por requerimientos de los usuarios, ya esta exigiendo operación de los servidores en los centros de datos mínimo a 10 GB/seg , hemos vivido un crecimiento vertiginoso en los niveles de transmisión que podemos ver de forma importante desde el quinquenio del 85 cuando se trabajaba a nivel de usuario a velocidades de 1 Mb/seg luego en el 90 cuando se impone el Ethernet a 10 Mb/seg y se crece en 95 a 100 MB/seg para convertirse en 1000 MB/seg ( 1 GB) en el año 2000. Aquí comienza el desarrollo de la tecnología de 10 GB/seg para los grandes datacenter manejando ese flujo de datos por medio de fibra óptica lo cual ofreció grandes beneficios para el crecimiento de la tecnología en general y los servicios para todo usuario de IT. Ahora llego el momento de la aplicación masiva de la misma tecnología pero sobre cables de cobre que hacen que este paso, de fibra a cobre, en canales de menos de 100 metros; sea al menos cuatro veces más económica.
Según la firma de investigación de tecnología Crehan Research la gran inflexión creciente se dará entre el 2013 y los siguientes tres años esperándose que transcurrido 2014, el número de adaptadores para servidores de 10Gb sobrepase el de 1GB. Por tanto la infraestructura de conectividad, para esta tecnología que es muy sensible al precio, exigirá una buena selección del medio utilizado que en su mayoría será cableado de cobre de alto rendimiento el cual debe tener buen performance en cualquier ambiente y poder enfrentar el reto que implica su instalación en sitios expuestos a variaciones de temperatura, ruido electromagnético y convivencia con muchos otros servicios inherentes a los espacios para servicios de procesamiento de datos. Los equipos servidores en el nivel de acceso que en un tiempo fueron consolidados para disminuir su cantidad y luego fueron virtualizados para ganar optimización de los mismos , ahora deben trabajar con las tecnologías “cloud” en las cuales se verá un crecimiento de las soluciones personales y/o privadas que conformaran un mejor servicio cuando se llevan a compartir con las Cloud publicas formando una solución hibrida que requiere buena respuesta en velocidad de transferencia de grandes archivos. Si estábamos hablando de servidores que deben comunicarse a 10 Gb/seg, la segunda capa de agregación al menos debe ser capaz de manejar transferencias de 40 Gb/seg lo que significa que el año lo debemos comenzar con la preparación de nuestras redes de fibra óptica internas en los centros de datos y bakbone para que tengan esta capacidad con soluciones “Listas para 40Gb o 100 Gb” que están conformadas por conectores especiales de mínimo 12 hilos de tecnología MPO/MTP teniendo en cuenta que si actualmente la conexión es a 10 Gb o 1 GB, sean instalados los adaptadores que ofrecen flexibilidad para seleccionar la solución requerida en el canal de interconexión.
Debido a que también esta conexión de 40 GB es muy sensitiva al costo, los desarrolladores de tecnología como la TIA que emite las normas para Estados Unidos y la ISO que hace las normas aplicables a nivel mundial, están trabajando en la conformación de estándares para cableado en cobre que pueda manejar la mencionada velocidad de transferencia. El objetivo es tener listos los primeros “draft” o borradores públicos finalizando el 2013 . Las categorías o calificaciones para los elementos de un canal de datos, hasta ahora publicadas por la ISO van desde la Categoría 3 hasta la 7A y la TIA las tiene publicadas solamente hasta la 6A. El pasado Octubre la TIA decidió darle el nombre de Categoría 8 a su nueva solución cuyas características de performance planteadas están entre los valores de la categoría 6A y la categoría 7A actuales. Aun quedan muchas decisiones por tomar pero el objetivo de las dos instituciones es tener soluciones que cubran esta gran necesidad de la interconexión a grandes volúmenes de datos que nos hacen hablar ahora de Gigas, Teras, Petas, multiplicando cada vez la cantidad de unidades de información por 1.000. A la fecha el mayor sistema de cableado es el compuesto por elementos de categoría 7A a 1000 Mhz 100 mts.
El incremento de la información necesaria para vivir en sociedad y el creciente número de dispositivos móviles ha hecho que los datos se deban manejar con mas seguridad y mayor administración. Un concepto que se impone será el de “Big Data” que implica dejar de almacenar todos los datos en un único sistema, define la creación de multiples sistemas administrables de manera lógica para que su contenido sea manejado con mayor eficiencia con resultados mas rápidos lo que también implica compartir información entre dispositivos SAN o NAS con Switchs y servidores veloces requiriendo así una infraestructura de cableado de fibra o cobre que interconecte los equipos en “grilla” o “Malla” conformando una topología especial donde el concepto “Any to All” o “capacidad de interconectar cualquier equipo con cualquier otro” ayudara a lograr que la búsqueda de un dispositivo sea ágil y segura. Se espera que continúe con la centralización de grandes volúmenes de datos y es aquí donde el diseño de los Datacenter requiere de decisiones acertadas para poder conseguir mayor densidad en poco espacio utilizando gabinetes especiales que me permitan el total aprovechamiento de su capacidad medida en unidades de rack esto puede aumentar la potencia por rack lo que inspiro a los diseñadores a lanzar soluciones especiales de enfriamiento entre las cuales se retomaran los sistemas a base de agua aprovechando que esta es 3.000 veces más eficiente que el aire para esa labor. Se impondrá también la medición de la Eficiencia en la Utilización de la Energía ( PUE) por medio de software especializados como el DCIM “Gerenciamiento de infraestructura de datacenter” que interpretaran los datos de los equipos de soporte incluyendo distribuidores de potencia (PDU) inteligentes a instalar en cada Rack.
Nelson Farfán RCDD Bicsi, CCRE Miembro comités TIA 42 e ISO WG25