Libro redes de area amplia

Page 1

U N V E R S D A D N A C O N A D E O R D E S T E UN NIIIV VE ER RS SIIID DA AD DN NA AC CIIIO ON NA ALLL D DE ELLL N NO OR RD DE ES ST TE E FFAAACCCUUULLLTTTAAAD D D E N C A S N A T U R A E S Y G R M E N S U R A DD DE EC CIIIEEEN NC CIIIA AS SE EXXXAAACCCTTTAAASSS YYY N NA AT TU UR RA ALLLE ES SY YA AG GR RIIIM ME EN NS SU UR RA A

TTRRAABBAAJJOO FFIINNAALL DDEE A APPLLIICCAACCIIÓÓNN ““R A”” – PLLIIA ÁRREEAA A AM MP –W REEDDEESS DDEE Á WA AN NSS

A AUUTTOORR: P PRROOGGRRAAM MAAD DO OR RU UNNIIVVEERRSSIITTAARRIIOO R RIICCAARRDDOO D DAANNIIEELL G GOONNZZÁÁLLEEZZ PPRRRO O E S O R O O R D N A D O R G R M E N S O R O R M A N N OFFFE ES SO OR RC CO OO OR RD DIIIN NA AD DO OR R:: A AG GR RIIIM ME EN NS SO OR RC CAAASSSTTTO OR RH HEEERRRRRRM MA AN NN N PPRRRO O E S O R N T A D O R O O S É O OFFFE ES SO OR RO ORRRIIIEEEN NT TA AD DO OR R:: E EXXXPPPEEERRRTTTO O JJO OS SÉ ÉA A.. CCAAARRRBBBAAALLLLLLO O

LLLIIICCCEEEN S N C A U R A N M A S NC CIIIA ATTTU UR RA A EEEN NS SIIISSSTTTEEEM MA AS S P C P O V N C A D O R R N S OV VIIIN NC CIIIA AD DEEE C CO OR RR RIIIEEEN NTTTEEES S PRRRO R A R N N A ARRRGGGEEEN NTTTIIIN NA A REEEPPPUUUBBBLLLIIICCCAAAA


IINNTTRROODDUUCCCCIIÓÓNN DDEELL A AUUTTOORR En un principio, en toda organización pequeña o mediana, las tareas de networking resultan “bastantes fáciles”. El futuro diseñador / administrador de red tendrá a lo sumo que diseñar e instalar una red de área local (LAN) para que los usuarios compartan sus recursos dentro de una misma área de cobertura (un edificio por ejemplo). Pero a medida que pasa el tiempo irán apareciendo factores que harán que el administrador de red (hasta ahora LAN) no tenga una vida tan fácil. Por ejemplo, supongamos que la empresa creció, tiene sucursales, y los usuarios quieren recuperar documentos de los clientes o de otras sucursales. Entonces, se enseña a los usuarios como conectarse a una computadora remota y a transferir archivos. La tarea esta cumplida. Pronto los usuarios quieren, también, tener acceso a impresoras remotas y, muy poco después acceso a todos los recursos de las LANs remotas (en las sucursales), es decir las aplicaciones y los dispositivos compartidos. Después de un tiempo, toda la organización quiere estar conectada como si estuviera en la misma red local. Es decir “todos quieren estar conectados a todo el que tenga una computadora” (en forma rápida y transparente). Para colmo de males una de las peticiones más frecuentes es el acceso a Internet. Ahora es el momento en que el administrador (hasta ahora local) se da cuenta que la comunicación de datos en una red de área extensa no se reduce a conectarse con todo el mundo. Y esa es la razón (que se intenta satisfacer) por la que se desarrolló el presente trabajo. Red de Area Extensa (WAN) es un termino muy amplio. Ningún trabajo, no importa cual fuere su tamaño, podría cubrir todos los aspectos sobre la instalación y gestión de una WAN. Aun así, en este trabajo se intenta hacerlo. Generalmente se enfoca a las WAN como una convergencia de áreas de responsabilidad. Es habitual hacer una distinción entre las responsabilidades de “administración o gestión de redes” y la de “administración o gestión de telecomunicaciones”. Los administradores de telecomunicaciones (o si se quiere administradores WAN) gestionan todas las comunicaciones fuera de la red de área local (ya su nombre lo indica, telecomunicaciones es igual a “comunicaciones a distancia”) hasta los muros del edificio o la puerta de un campus. En muchas organizaciones esta situación es todavía verdad, aunque esta cambiando velozmente. Sea o no este el caso de una organización dada, probablemente el administrador deberá leer bibliografía (o trabajos como el presente), ya que las líneas divisorias entre redes locales y de área extensa se están difumando a gran velocidad (es decir entre administrador LAN y administrador WAN). Un administrador de redes, probablemente sabrá que la mayoría de los vendedores de equipos de área extensa dan por hecho que conoce lo bastante sobre comunicaciones de datos de área extensa como para seleccionar y gestionar sus productos. Si se es un administrador de telecomunicaciones, se sabe que la comunicación de área extensa es el aspecto que más velozmente crece en una organización (el mejor ejemplo actual es el acceso a Internet a través de redes locales y el uso de redes privadas virtuales como soporte para aplicaciones remotas) y que ello exige un conocimiento de las comunicaciones WAN. En todos los casos, se necesitara entender el funcionamiento de las WAN y como interactúan con las LANs. Otro de los motivos mas apremiantes para aprender mas sobre WANs es que los usuarios no conocen la diferencia entre comunicaciones de área local y de área extensa (y tampoco quieren saberlo). Los sistemas operativos y las aplicaciones de red se están “extendiendo” mucho y son tan buenos ocultando donde se encuentran los datos y los programas, que los usuarios confunden los problemas de rendimiento de la redes de área extensa con los del área local (como explicarles que un “enlace” de área extensa es varias veces “mas lento” que un “enlace” local, y que el costo de su mejora no es justificable). Un ultimo motivo del porque estudiar las WANs (que se desprende del párrafo anterior), es que debido a las transparencias de las aplicaciones y sistemas operativos de red en el área extensa mencionada previamente, se tendrá que solucionar problemas de área extensa, así como “recomendar y justificar el costo de las soluciones en dicha área”, y esto es tanto si se es un administrador de telecomunicaciones como de redes. Entonces a medida que esta tarea pasa a ser nuestra responsabilidad, es decir es nuestro trabajo, se debe tratar de aprender el funcionamiento de las redes de área extensa. La clara distinción entre la administración de LAN y la gestión de telecomunicaciones esta desapareciendo y es necesario no quedarse desfasado. Objetivo del trabajo La investigación pretende dar una formación media / avanzada en los aspectos técnicos y de diseño de la comunicación entre computadoras, desde una conexión entre dos o más computadoras, ubicadas en un mismo lugar (LAN), hasta la conexión de equipos de rango medio y de rango amplio (MAN/WAN) utilizados para que se comuniquen muchas computadoras distribuidas a lo largo de un área geográfica muy extensa (WAN/GAN). Se pretende el conocimiento necesario para poder diseñar adecuadamente una red informática para una empresa, atendiendo a criterios de coste, prestaciones y necesidades. Se debería poder comprender la descripción técnica o documentación de un producto de comunicaciones, así como artículos de la literatura especializada. En toda área de conocimiento técnica existe una profusión de siglas para referirse a términos, conceptos o incluso a frases concretas. La telemática es especialmente rica en este sentido, y el conocimiento del significado de tales abreviaturas es necesario para la comprensión de la literatura técnica. Siempre que un término o concepto disponga


de una abreviatura habitual se la indicará junto con su significado (casi siempre en inglés) la primera vez que aparezca. El conocimiento del significado de las siglas es como su “etimología”, y forma parte de la “cultura general” que todo profesional informático debería tener. Para intentar lograr el objetivo impuesto en el presente trabajo este se ira desarrollando de tal forma que el lector (aun con conocimientos básicos) vaya adentrándose en la temática de las comunicaciones. Al principio (los cuatro primeros capítulos) se desarrollarán conceptualmente los distintos medios, sistemas, términos, servicios, etc. utilizados en todos los sistemas de comunicaciones, como para que el lector se empape de los términos y de las normativas utilizadas. Ya en el capitulo 5 se hará una introducción general a todo el entorno WAN, comparándola con otros tipos de redes e indicando cuales son las partes de la misma (áreas de acceso, de transporte, de agregación), que dispositivos se utilizan, en donde y los distintos tipos de redes WAN que fueron apareciendo. En capítulos subsiguientes (capítulos 7 a 17) se entrará de lleno a cada uno de esos servicios o tecnologías WAN, indicando su funcionamiento y características; para que a partir del capitulo 18, cuando se tenga un conocimiento mas acabado del tema WAN, se detalle los pasos a seguir para poder diseñar una red de área extensa. Los capítulos 19 y 20 permitirán al administrador (ahora ya lo es) poder controlar los problemas de atascamiento que se susciten en la red debido a su mal uso o a su uso excesivo, teniendo a mano, por supuesto las herramientas que le permitan monitorear y administrar a la misma. Que no es objetivo del trabajo Actualmente existen muchos “especialistas”’ que son capaces de diseñar casi cualquier red, conocen todos los servicios existentes y están al tanto de la última tecnología o aplicación aparecida. Conviene destacar que no es el objeto de esta investigación crear tales especialistas, por tres razones: • El investigador no está capacitado para ello, • La información contenida en la investigación (si bien la mayoría es de aplicabilidad general) no sería susceptible de incluirse en un currículo profesional ya que para cuando la persona se iniciara profesionalmente sería ya obsoleta, y • No es el único tipo de formación que se espera para un especialista, es más bien una base general para poder decidir luego una especialización específica. En cierto modo se podría decir, siguiendo la típica analogía de las “autopistas de la información”, que dichos “especialistas” son muy buenos conductores, pero lo que aquí pretendemos no es obtener el carnet de conducir sino aprender a diseñar carreteras y vehículos para que el tráfico sea lo más fluido (y seguro) posible. Que no exista duda que nunca le vendrá mal a un profesional saber conducir bien, y en este sentido se estimula al mismo a realizar tantas “prácticas de conducción” como le sea posible tanto durante sus estudios como después en su futura actividad profesional. Tampoco es objeto de este trabajo introducir a la persona en los aspectos legales, comerciales o políticos del mundo de las telecomunicaciones, que son motivo de noticia casi diaria en los medios de comunicación, tanto en el ámbito nacional como internacional.

EELLLAAAUUUTTTO O R OR R


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO O II N W O R K N G O NEEETTTW BÁÁÁSSSIIICCCO WO OR RK KIIIN NG GB O El objetivo principal de todo sistema de comunicaciones es intercambiar información entre dos entidades. Por ejemplo entre una estación de trabajo y un servidor a través de una red telefónica existente. Otro ejemplo es el intercambio de señales de voz entre dos teléfonos a través de la misma red telefónica. Aún cuando el modelo de comunicaciones es en apariencia sencillo, en realidad implica una gran complejidad. El modelo implica una lista de tareas y elementos claves que deben relacionarse e interactuar para lograr que el sistema de comunicaciones funcione y trabaje. Aún más, esta relación es un tanto arbitrario ya que se podría añadir elementos, mezclar tareas, etc. ó más todavía, algunos elementos podrían realizar diversas tareas en diferentes niveles del sistema. En este capítulo se intenta desentrañar el significado de algunas de las tareas y entender como se utilizan esos elementos necesarios del modelo de comunicación para lograr que un usuario pueda comunicarse con otro, a través de la distancia, y que todo eso sea transparente para él. Se comenzará definiendo lo que es una red de objetos, una red de comunicaciones (networking), los elementos de una red que permiten que esa red de comunicación funcione (NIC, medios), los tipos de redes que se pueden lograr (LAN, MAN, WAN), la capacidad, definición e importancia del canal por donde se transmiten los datos (ancho de banda) y como las distintas señales (digitales, analógicas) son convertidas(codificadas) para su transmisión sobre los distintos medios y sistemas de transmisión (jerarquías, protocolos) hasta llegar al usuario final, el cual percibe la llegada de la misma ponderando el tiempo que tarde la misma desde que fue solicitada mediante un requerimiento suyo (tiempo de respuesta, tiempo de transmisión y velocidad efectiva).


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO O IIII M O D E L O D E MO REEEFFFEEERRREEENNNCCCIIIAAA OD DE EL LO OSSS D DE ER Cuando se realiza un intercambio de datos entre dos computadoras, terminales u otros dispositivos de procesamiento, las cuestiones a estudiar son muchas más que las mencionadas en el capitulo anterior. Entre las cosas adicionales (con respecto al modelo de comunicaciones del Capitulo 1) es necesario determinar por ejemplo: la existencia de un “camino” (path) entre las dos computadoras, directo o a través de una red de comunicación, como el sistema fuente activa ese camino directo ó como identifica al sistema destino, como asegurarse que el sistema destino está preparado par recibir datos y como los almacenará y entregará al usuario deseado, y entre otras muchas cosas, como compatibilizar los dos sistemas (fuente y destino) antes y durante el intercambio de datos entre ellos. Al intercambio de información entre dos computadoras se lo denomina “comunicación entre computadoras” y al conjunto de computadoras que se interconectan a través de una red de comunicaciones, se las denomina “red de computadoras”. Ahora bien al estudiar las comunicaciones entre computadoras y las redes de computadoras, son relevantes dos conceptos vistos en el capitulo anterior: los protocolos (convenciones que indican qué, cómo y cuando se comunica), es decir el establecer el “idioma” a hablar ó el conjunto de reglas a seguir para un intercambio exitoso; el otro concepto es el de arquitectura (estructura funcional), es decir el sistema que integra todas las partes (cada uno de los distintos protocolos intervinientes), de un sistema fuente con los de un sistema destino, permitiendo que se establezca una “comunicación de igual a igual” o “comunicación entre pares” entre ellos. La estructura mencionada se denomina “arquitectura de protocolos” y en este capitulo se estudiarán y compararán dos arquitecturas que fueren determinantes y básicas en el desarrollo de los estándares de comunicación: el conjunto de protocolos TCP/IP y el modelo de referencia OSI. TCP/IP es la arquitectura más adoptada para la interconexión de sistemas, mientras que OSI se convirtió en el modelo estándar para clasificar las funciones de comunicación.


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO O IIIIII SSEEERRRVVVIIICCCIIIO O O Y T E M A D E M Ó N MEEEDDDIIIO TRRRAAANNNSSSM OSSS,, M OSSS Y Y SSIIISSST TE EM MA ASSS D DE ET MIIISSSIIIÓ ÓN N La transmisión es el mecanismo para el cual una red de área extensa (WAN) envía señales eléctricas. El método y calidad de la transmisión determinará si el destino recibirá datos que pueda entender y procesar, o si recibirá “basura eléctrica” y deberá solicitar una retransmisión. Muchos de los métodos de transmisión más ampliamente utilizados hoy en día fueron desarrollados en sus orígenes para transmitir voz como parte de la red telefónica conforme fue creciendo la demanda de conexiones WAN, se fueron adaptando estos sistemas de transmisión de voz para transmitir datos. También se desarrollaron sistemas de transmisión especiales para la transmisión digital. Para seleccionar los servicios apropiados, se debe entender el método de configuración que utilizan. Esto también será útil para comprender los problemas que puedan aparecer en un sistema de transmisión. Pero, a todo esto, que es un sistema de transmisión? Es el conjunto formado por todos los dispositivos de transmisión conectados por el medio (cableado o enlace). Los sistemas de transmisión normalmente transmiten varios canales de señales de manera simultanea, y pertenecen a uno de dos tipos: analógicos o digitales. Una red WAN utiliza conexiones dedicadas o conmutadas para conectar computadoras distantes. Estas conexiones WAN pueden realizarse bien a través de una red publica o bien a través de una red privada. Las redes WAN pueden incluir tanto líneas dedicadas (camino permanente entre dos puntos durante un tiempo determinado) como líneas conmutadas (no requieren conexiones permanentes, utilizan conexiones temporales entre múltiples puntos cuya duración corresponde a la de la duración de datos); a su vez existen dos tipos de servicios conmutados: por circuitos y por paquetes. El éxito de la transmisión de datos depende de dos factores fundamentales: la calidad de la señal que se transmite y las características del medio de transmisión. Los medios de transmisión se pueden clasificar en guiados (UTP, coaxil, fibras ópticos), donde las ondas se transmiten confinadas en el medio (cable) físico, y en no guiados (radio, infrarrojo, microondas) o inalámbricas, donde las ondas se transmiten sin confinarlas (aire, agua, vacío). En ambos casos, las ondas son electromagnéticas. Por ultimo el ancho de banda es un recurso escaso, es conveniente maximizar la velocidad de transmisión de los datos para el ancho de banda disponible. El ancho de banda disponible esta limitado por el medio de transmisión y a su vez el ancho de banda limita la velocidad de transmisión, de aquí que existan dispositivos encargados de maximizar el rendimiento del enlace establecido, no solo aprovechando al máximo su capacidad, sino utilizándolo para realizar simultáneamente varias comunicaciones independientes. Tales dispositivos (multiplexores en datos, PABX en voz) soportan, administran y optimizan la utilización de los medios de transmisión digitales, por lo que se denominan “gestores de ancho de banda”.


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO O IIV V SSIIISSSTTTEEEM M A D E O O CAAABBBLLLEEEAAADDDO ESSSTTTRRRUUUCCCTTTUUURRRAAADDDO MA ASSS D DE EC OE O Los responsables del cableado de las redes de comunicaciones deben enfrentarse a una serie de decisiones criticas. Tanto el equipamiento como la propia instalación de cableado deberá satisfacer una serie de requisitos actuales y futuros relativos a la transmisión de datos, las características eléctricas y la topología. Afortunadamente, los fabricantes han estimulado una alta velocidad de transmisión de datos sobre cables de cobre de par trenzado a un precio asequible, cuyos niveles de transmisión de datos podrán cumplir las demandas futuras de transmisión de elevados anchos de banda desde equipos de escritorio. El cableado estructurado es un sistema de cableado preplanificado que está pensado para hacer frente a las reconfiguraciones y el crecimiento. La Asociación de Industrias Electrónicas (EIA) y la Asociación de Industrias de Telecomunicaciones (TIA) desarrollaron una norma para el cableado de telecomunicaciones en edificios comerciales denominada normativa 568 de cableado para edificios comerciales. Esta norma proporciona un sistema de cableado uniforme que es apto para los entornos y los productos de diferentes vendedores. En paralelo con este desarrollo llevado a cabo en Estados Unidos, las organizaciones de normalización internacionales también desarrollaron y adoptaron normas que prescriben la calidad de transmisión de los sistemas de cableado instalados y los métodos que han de utilizarse para medir y verificar la conformidad con esas normas. La especificación EIA/TIA 568 se aplica a todos los esquemas de cableado de par trenzado en topologías Ethernet, Token Ring, PBX, ISDN, ATM y otros tipo de topologías. El cableado estructurado conforma una infraestructura con caminos para las partes criticas de la red. El sistema incluye cables, conectores de comunicación, enchufes, adaptadores, baluns (equilibrado, no equilibrado), sistemas de paneles de parcheo y componentes electrónicos. Idealmente, proporciona un medio para la transmisión de datos, video, voz y otros tipos de información. Los sistemas de cableado estructurado están basados en normas. Están definidas las distancias, las topologías y las especificaciones físicas de forma que se cumplan los requisitos de cableado que luego se puedan presentar; de esta forma, es posible realizar el cableado de un edificio sin conocer de antemano los equipos de comunicación de datos que lo utilizarán. El tendido de los cables es sencillo de administrar y los fallos son fáciles de localizar. Para certificar una instalación de cableado se requiere una norma aceptada con carácter general que defina el nivel mínimo de rendimiento admisible, el método de medición y las prestaciones que deben ofrecer las herramientas de medida. La promulgación de normas sobre conexiones en red más rápidas y de mayor capacidad, ha suscitado la necesidad de entender que la velocidad de transferencia de datos expresada en Mbps y el ancho de banda necesario para soportar una elevada velocidad de transferencia, son magnitudes diferentes aunque relacionadas entre sí. Muchos usuarios confunden los términos Mbps y MHz. El primero de ellos (Mbps) es una medida de la velocidad con que pueden transmitirse datos binarios. Esta velocidad se expresa en millones de bits por segundo, abreviado Mbps. El segundo (MHz) expresa la frecuencia de una señal sinusoidal pura. Un ancho de banda de 100 MHz indica que un sistema de cableado (en general, un medio de transmisión) puede transmitir señales sinusoidales de hasta 100 MHz de frecuencia con un nivel de calidad aceptable. La expresión “nivel de calidad aceptable” resulta vaga y general, por lo que es preciso definirla con claridad. Para esta complicada tarea se suele recurrir a una norma establecida o a una especificación detallada de cada una de las principales características de transmisión.


La relación entre Mbps y MHz del sistema de cableado de una red depende de la codificación de señal utilizada para los datos binarios y de la velocidad de transferencia deseada. Cuando mayor es la velocidad de transferencia de datos expresada en Mbps, más corto es el tiempo disponible para transmitir un solo bit y más rápidos los tiempos de subida y de bajada (tiempos de transición) de los impulsos que han de transmitirse a través del enlace por cable. Un método de medida para verificar que dicho enlace es capaz de transmitir impulsos tan cortos con rápidos tiempos de subida y bajada, consiste en medir la calidad de transmisión de una señal sinusoidal de la frecuencia adecuada. Así pues, la mayoría de las normas genéricas de cableado especifican la calidad de transmisión de los enlaces de cableado en función de la banda de frecuencia de señales sinusoidales que puede transmitirse por el enlace con un nivel de calidad especificado. Los parámetros que se utilizan para caracterizar este nivel de calidad son atenuación, diafonía, y/o el efecto combinado de estos dos parámetros, denominado relación de atenuación a diafonía (ACR). La fiabilidad de la transmisión en la comunicación de datos o digital viene determinada en última instancia por la tasa de errores de bit (BER), un valor estadístico de la transmisión digital que indica cuántos bits pueden transmitirse antes de que se detecte (es decir, se transmita) un bit erróneo. Los comprobadores de BER no son muy prácticos para verificar instalaciones de cableado dado su costo y dado que hay muchos estándares LAN diferentes y cada uno utiliza una forma distinta de codificación digital para transmitir por el cableado. Puede existir una cierta indecisión a la hora de optar por instalar un sistema de cableado estructurado o bien un sistema de tradicional como Ethernet. Si bien con EIA/TIA se deben seguir una serie de reglas rígidas y su instalación resulta mas cara si es una instalación de magnitud, se tiene que siguiendo la normativa y obteniendo una certificación del cableado, se logra que la instalación permita expansiones futuras y soporte las nuevas tecnologías de transmisión sin mayores cambios en la estructura de cableado, cosa que permite obtener un ahorro (de tiempo y dinero) en futuras instalaciones de cableado.


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OV V R M P L A REEEDDDEEESSS DDDEEEÁ ÁRRREEEAAAA AM WA AN NSSS)) MP PL LIIIA A ((W En las telecomunicaciones modernas de hoy en día, la necesidad de extender las redes está en rápido crecimiento. Mientras que una red LAN puede cubrir la mayoría de las necesidades de comunicación y de compartición de recursos dentro de un campus o empresa, la conectividad WAN permite a los usuarios y organizaciones tomar una mayor ventaja de servicios como Internet, e-commerce y videoconferencia. Generalmente, se considera como Redes de Área Amplia (WAN) a todas aquellas que cubren una extensa área geográfica (opera más allá del alcance geográfico de una LAN), requieren atravesar rutas de acceso público, y utilizan parcialmente circuitos proporcionados por una entidad proveedora de servicios de telecomunicaciones (Carrier o Telco). Típicamente una WAN consiste en una serie de dispositivos de conmutación interconectados. La transmisión generada por cualquier dispositivo se encaminará a través de estos nodos internos hasta alcanzar el destino. A estos nodos (incluyendo los situados en el contorno) no les concierne el contenido de los datos, al contrario su función es proporcionar el servicio de conmutación, necesario para transmitir los datos de un nodo a otro hasta alcanzar su destino final. Una WAN, es también, una red de acceso remoto que conecta “sitios” a través de un área geográfica extensa. Existe un gran número de servicios de transmisión usados para soportar comunicaciones WAN, todos ellos utilizando componentes de hardware que conectan a las diferentes LANs. Para los usuarios conectados, todos esos servicios y componentes trabajan en conjunto (un sistema WAN) para crear la ilusión de una gran red virtual (la nube WAN). Tradicionalmente, las WAN se implementaron usando una de las tecnologías siguientes: conmutación de circuitos (ISDN, Dial-up, POTS, DDR, SW-56) y conmutación de paquetes (X.25); aunque últimamente se están empleando como solución las técnicas de retransmisión de tramas (Frame Relay) y las de retransmisión de celdas (Cell Relay o ATM), ambas derivadas de la conmutación de paquetes y ofreciendo conmutación rápida de paquetes o “fast packet”. El objetivo que busca una WAN es el de permitir el acceso a datos y aplicaciones críticas a usuarios ubicados en otros puntos de una ciudad o de otras ciudades, incluso del exterior. Se necesita la interconexión de LANs para lograr comunicaciones más eficientes entre usuarios dispersos, así como lograr también un mayor ancho de banda para aplicaciones de imágenes y video. Todo esto se quiere lograr con una adecuada administración y control de costos, así como permitir un adecuado crecimiento o expansión. Los tipos de servicios WANs disponibles y sus costos varían, dependiendo de la región geográfica y del proveedor del servicio. Los costos y la disponibilidad de servicio son a menudo el criterio de selección que se impone. Para que el profesional lleve a cabo la solución más apropiada, debe entender las ventajas y desventajas de los diferentes tipos de servicios WAN. Se deben utilizar las distintas pautas o criterios ofrecidos para seleccionar el mejor servicio o mezcla de servicios de acceso remoto entre el número grande de productos disponibles. En un sentido amplio, una WAN es un grupo de computadoras que están físicamente separadas por largas distancias pero consideradas lógicamente juntas. En un sentido más estricto, una WAN es un puente que conecta LANs remotas y permite mirarlas como una gran LAN. Las tecnologías WAN funcionan en las tres capas inferiores del modelo OSI y utilizan el enfoque de división en capas para el encapsulamiento, al igual que las LAN, pero el enfoque se centra principalmente en las capas física y de enlace de datos. Los estándares WAN normalmente describen los métodos de entrega de la capa física y los requisitos de la capa de enlace de datos, incluyendo direccionamiento, control de flujo y


encapsulamiento. Los enlaces WAN normalmente operan al nivel de capa 2 y convierten el encapsulamiento de trama LAN, como Ethernet o Token Ring, en encapsulamiento de trama de capa 2 WAN como HDLC, PPP, X.25 o Frame Relay. El encapsulamiento de trama WAN varía según la tecnología WAN utilizada entre redes conectadas por routers. El encapsulamiento de la capa de enlace coloca un encabezado e información final en el paquete. El entramado de capa 2 en una LAN es diferente del de una WAN y el router debe realizar la conversión entre los dos. Los estándares, normas y regulaciones también influencian el desarrollo e implementación de los métodos de transporte y de acceso WAN; es decir están incluidos como factores externos a la misma. En este capítulo se presentarán los diversos protocolos y tecnologías que se utilizan en los entornos de red WAN. Se verán los aspectos básicos de las WAN, incluyendo las tecnologías WAN comunes, tipos de servicios WAN, formatos de encapsulamiento y opciones de enlace. Se describirá los enlaces punto a punto, la conmutación de circuito, la conmutación por paquetes, los circuitos virtuales, los servicios de acceso telefónico (discado) y los dispositivos WAN. Se hará una introducción al propósito funcional de una WAN, las características que definen las dimensiones de una red WAN, se comparara y contrastará los principales tipos de tráfico (voz, datos, video). Si bien algunos tipos de WANs que se verán no existen en la Argentina (y varias de ellas probablemente nunca se implementen), en este capitulo se tratará de dar una visión general de las diferentes formas de conectividad como para tener un conocimiento de la existencia de las mismas ante una eventualidad. Aunque en Estados Unidos ya casi la mitad de las LANs están interconectadas, esto mismo puede ocurrir en nuestro país si las cosas se encaran bien y se cuentan con servicios WAN aceptables y competitivos.


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OV VII SSEEERRRVVVIIICCCIIIO O T11 OSSS T Los servicios T de las compañías de telecomunicaciones distribuyen transmisiones de datos y voz digitales sobre redes LAN o WAN a velocidades de hasta 45 Mbps. Tradicionalmente los circuitos son dedicados, pero también los servicios conmutados están a disposición de aquellos clientes que necesiten un gran ancho de banda de forma periódica. Los clientes pueden construir sus propias redes privadas con líneas T1 o T3. El cliente alquila una línea dedicada a la compañía telefónica entre cada dos emplazamientos, luego instala en cada uno de ellos, un equipo de conmutación (un multiplexor / demultiplexor) que maneja el trafico de paquetes entres esos lugares. Este esquema se denomina red privada ya que es el equipo del cliente el que dirige el trafico desde cada emplazamiento a través e las líneas alquiladas. En contraste, las tecnologías de conmutación de paquetes tales como Frame Relay, SMDS y ATM proporcionan conexiones cualquiera a cualquiera sobre topologías de malla, donde los paquetes poseen datos de dirección autocontenidas que les permiten llegar a su destino a través de las conexiones malladas. No se necesita una conexión predefinida (como T1) entre dos puntos. Con la conmutación de paquetes los clientes pueden construir redes virtuales y evitar el uso de las caras líneas T1 de gran distancia. Pero, aun se requieren T1 u otros servicios digitales en las mayorías de los casos para la conexión con los servicios de conmutación de paquetes, pero la distancia de la línea de enlace entre centrales es ahora mucho mas corta y los clientes obtienen los beneficios de la red conmutada. Sin embargo algunos clientes necesitaran todavía los servicios de línea dedicada y privada que T1/T3 proporciona especialmente si existe mucho tráfico entre dos puntos. Con T1, la compañía telefónica local sirve como un concentrador para cada red dentro de una cierta área geográfica. Redes en sitios diferentes de las compañías dentro del área mantenida por la compañía telefónica (generalmente, un área metropolitana) se conectan al concentrador proporcionado por la compañía telefónica. Las compañías telefónicas locales operan dentro de las áreas locales para acceso y transporte (LATA, Local Access and Transport Areas), que son equivalentes al área geográfica cubierta por un código de área telefónica. Son en estas áreas donde los servicios digitales T se utilizan con mayor frecuencia, sobre todo cuando se desea obtener un enlace de alta velocidad al área de acceso de una WAN. Típicamente, los servicios T de las compañías de telecomunicaciones se alquilan mes a mes e incluyen un coste de establecimiento inicial. La distancia de las líneas determina su costo, en especial cuando intervienen dos o más telcos. En Estados Unidos se utiliza una jerarquía de señales digitales, en la cual se incluyen los servicios T, en donde una señal T1 es igual a la velocidad de la línea de señal DS-1 (señal digital nivel 1), es decir 1,544 Mbps, siendo la base de la jerarquía la señal DS-0, con 64 Kbps (un canal de voz, base de las líneas telefónicas analógicas y base para la modulación de las señales digitales de voz). Las velocidades de señal europeas son diferentes a las norteamericanas, con una señal E1 que tiene una velocidad de datos de 2,048 Mbps. Esta discrepancia, entre las dos categorías, se normalizara con SONET. Los servicios digitales T ofrecen “servicios fraccionales”, como accesos de bajo costo para los clientes con requisitos de anchos de banda bajos. El ancho de banda de 1,544 Mbps de T1 se puede dividir en 24 canales de 64 Kbps, cada uno conlleva transmisión de voz y datos. Fundamentalmente, una línea T1 es una línea telefónica acondicionada, lo que significa que se usan regeneradores de señal a distancias regulares sobre la línea entre el cliente y la telco para reducir el ruido de línea.


Una línea T1 se inicia con dos pares de cable trenzado en el emplazamiento del cliente. Estos cables se “unen” a las líneas acondicionadas por las telcos. Para la conexión de una LAN a una línea T1 se necesitaran equipos como ser: una CSU/DSU (punto de contacto de la línea T1, activación y señalización), un multiplexor (permite múltiples canales de voz/datos), y un puente o encaminador (punto de conexión entre la LAN y la línea digital T1). Los servicios T se originaron ante la necesidad de mas ancho de banda que el proporcionado por las redes de conmutación de paquetes (X.25) o los servicios de datos digitales (Switched 56, DDS) a 56 Kbps. La capacidad para multiplexar la voz en la misma línea y reducir los costos de las llamadas telefónicas, causo un incremento en el uso de las líneas. Sin embargo las líneas dedicadas alquiladas tienen sus limitaciones. La primera es que son dedicadas y requieren una cuota alta de establecimiento inicial. Además, se fija el ancho de banda, lo cual no se acomoda a las ráfagas de trafico de las LANs. Los usuarios se pueden encontrar con que pagan por un ancho de banda que frecuentemente no usan, excepto durante las horas de tráfico picos en que no es suficiente. También es una forma cara de construir redes privadas sobre grandes áreas cuando se compara con servicios como Frame Relay, SMDS o, en algunos casos, ATM que proporcionan ancho de banda bajo demanda y la habilidad para conmutar conexiones. Pero, téngase en cuenta que todavía se necesitan los servicios dedicados como T1 para conectar el sitio del cliente con los puntos de acceso al servicio (WAN). Otras tecnologías competitivas para los puntos de acceso (bucle local) incluyen: ISDN y la familia xDSL.


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OV VIIII C O N E X O N E O N A Y O D E M CO DIIIAAALLL--UUUPPP ((D DIIISSSCCCAAADDDAAASSS)) A ASSSÍÍÍNNNCCCRRRO MO ON NE EX XIIIO ON NE ESSS D ON NA ASSS Y YM OD DE EM MSSS Las conexiones discadas (dial-up) por líneas conmutadas analógicas asíncronas son una solución WAN barata de acceso remoto, disponible al momento. Por estas razones, virtualmente todas las organizaciones usan módems y líneas telefónicas analógicas en alguna forma (aunque cada vez mas en menor medida). Tanto los routers como los puestos de trabajo pueden configurarse para conexiones dial-up con módems. Como profesional de redes, se debe entender cómo trabajan los módems, además de saber poder cablear y configurar una conexión dialup. Al seleccionar una solución de acceso remoto para oficinas remotas y usuarios hogareños, los diseñadores de red optan a menudo por conexiones dial-up analógicas porque se soportan sobre las líneas telefónicas ordinarias. Las líneas de teléfono ordinarias, también llamadas Servicio Telefónico Básico Antiguo o POTS (Plain Old Telephone Service) fueron originalmente diseñadas para llevar voz usando señalización analógica. Para usar líneas de teléfono analógicas para transmisión de datos, las señales digitales de una computadora deben convertirse a un tono analógico que puedan ser transportados por los POTS. Un módem realiza estas conversiones para poder acceder a la Red Telefónica Publica Conmutada (PSTN, Public Switched Telephone Network) vía los loops locales analógicos. Además, las señales analógicas deben convertirse de nuevo a señales digitales para que la computadora receptora descifre la información. Todas las compañías de telecomunicaciones (telcos) usan medios digitales dentro de sus propias redes. Mediante el uso de la transmisión digital, las telcos pueden transmitir eficientemente datos entre sus switches y mantener tasas de error mínimas. Retransmitir señales analógicas es menos eficiente porque las señales analógicas requieren amplificación, la cual a su vez amplifica cualquier ruido en la señal y crea errores. Entonces, los módems conectan las computadoras digitales a la red digital de las telcos vía loops locales analógicos (también conocidos como ultima milla). Cuando el switch de la telco recibe la señal analógica del módem, debe codificar la señal para que pueda atravesar la red digital, para ello utiliza un dispositivo llamado codec (codificador/decodificador, coder/decoder) para codificar las formas de onda analógicas en pulsos digitales (conversión analógica a digital), y viceversa. En este capitulo se hará una introducción básica a los conceptos, funciones y configuración del modem, así como al networking dial-up.


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OV VIIIIII EENNNCCCAAAPPPSSSUUULLLAAAM M E N T O E R A L E MIIIE EN NT TO OSSS SSE ER RIIIA AL LE ESSS La transmisión serie consiste en la transmisión de señales a través de un único canal o enlace, frente a la comunicación en paralelo donde se transmiten múltiples señales sincronizadas a través de varias líneas paralelas. En las comunicaciones serie, los bits de datos se transmiten secuencialmente, uno detrás de otro. Este método es característico de la transmisión de un flujo de bits entre una computadora y un periférico como un módem. Se han definido un cierto numero de normas para la interfaces series en el nivel físico con relación al modelo OSI. Las especificaciones de interfase definen los tipos de señales, los tipos de cables, los conectores y los procedimientos. La especificación RS-232 (de 20 Kbps) de la EIA es una de las normas de interfase serie más popular, asi como lo son las normas Bell, las normas “V punto” del CCITT y las interfaces de alta velocidad HSSI (High Speed Serial Interfase), una norma industrial de facto, desarrollada por Cisco, capaz de transmitir a velocidades de hasta 52 Mbps a lo largo de cables de hasta 10 metros de longitud. Una vez estudiadas las tecnologías de red de área amplia (WAN), es importante comprender que las conexiones WAN son controladas por protocolos que ejecutan las mismas funciones básicas que los protocolos LAN de capa 2, como Ethernet. En un entorno LAN, para mover los datos entre dos nodos o routers cualquiera, se debe establecer una ruta de datos y se deben establecer procedimientos de control de flujo para asegurar el envío de datos. Esto también es aplicable para el entorno WAN y se logra utilizando protocolos WAN como SLIP, PPP, HDLC, Frame Relay, etc. Los dos encapsulamientos WAN punto a punto más comunes son HDLC y PPP. Todos los encapsulamientos de línea serial comparten un formato de trama común. Cada tipo de conexión WAN utiliza un protocolo de capa 2 para encapsular el tráfico mientras atraviesa el enlace WAN. Para asegurarse de que se utiliza el protocolo de encapsulamiento adecuado, es necesario configurar el tipo de encapsulamiento o de capa 2 que se debe utilizar para cada interfaz serial. La elección del protocolo de encapsulamiento depende de la tecnología WAN y del equipo de comunicación. Los protocolos de encapsulamiento que se pueden utilizar con los tipos de conexión WAN que se abarcan en este capítulo son SLIP, PPP y HDLC. PPP es un estándar más reciente que SLIP e igualmente es el protocolo de encapsulación de capa 2 mas preferido sobre enlaces dial-up asíncrono. Aunque SLIP y PPP se diseñaron con IP en mente, SLIP está limitado principalmente a usarse con IP, mientras que PPP puede usarse con otros protocolos de red como IPX y Appletalk. Además PPP soporta facilidades esenciales como alocacion dinámica de direcciones, autenticación PAP y CHAP y PPP multienlace. SLIP no soporta estas facilidades. Como tecnologías legadas, SLIP y ARAP son raramente implementadas en los nuevos diseños de red, aunque ambos protocolos permanecen en uso. HDLC es un superconjunto del protocolo SDLC de IBM. HDLC da soporte a transmisiones full duplex y se desempeña en conexiones punto a punto o multipunto. Los subconjuntos de HDLC se usan para proporcionar señalización y enlaces de control de datos para redes X.25, ISDN y Frame Relay. HDLC es el protocolo de encapsulación por defecto para interfaces seriales e ISDN sobre routers Cisco. El HDLC no es necesariamente compatible con las implementaciones HDLC de otros vendedores. En cambio, las implementaciones PPP siguen un estándar abierto y son siempre compatibles. PPP es el protocolo a optar cuando se configuran enlaces seriales en ambientes multivendedor. Es importante notar que actualmente PPP usa a HDLC como base para la encapsulación de datagramas. Sin embargo, PPP es más expandible que HDLC porque agrega extensiones a la capa de enlace.


Aunque PPP se utilizo principalmente en líneas de enlace telefónicos o alquiladas, el grupo de trabajo que lo definió trabaja en procedimientos para el uso de PPP sobre redes X.25, Frame Relay e ISDN. PPP dará soporte a comunicaciones síncronas (al bit) y asíncronas (al byte)


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO O IIX X PPRRRO O T O C O L O X..2255 OT TO OC CO OL LO OSSS X El protocolo X.25 es una recomendación del CCITT (ITU) que define las conexiones de terminales y computadoras a las redes de conmutación de paquetes. Tradicionalmente X.25 se uso para la conexión de terminales remotas a sistemas Host. El servicio proporciona conexiones cualquiera a cualquiera para muchos usuarios simultáneos. X.25 permite multiplexar las señales de múltiples usuarios y distribuirlas a diferentes lugares remotos. Un canal de comunicación llamado “circuito virtual” conecta las estaciones finales a través de la red sobre una trayectoria predefinida. La interfase X.25 soporta velocidades de línea de hasta 64 Kbps, aunque una parte importante del rendimiento es la sobrecarga para la corrección de errores. El CCITT reviso la norma en 1992 y aumento la velocidad a 2 Mbps. La sobrecarga en X.25 es excesiva si se compara con Frame Relay. Por ejemplo, en X.25, cada nodo a lo largo de un trayecto de paquetes, debe recibir completamente un paquete y realizar una verificación de errores antes de enviarlo. Los nodos Frame Relay simplemente examinan la información del destino de la cabecera el paquete y lo envían inmediatamente, en algunos casos antes de recibirlo completamente. Frame Relay no necesita las tablas de estado usadas en X.25 en cada nodo intermedio, para ocuparse de la gestión, control de flujo y verificación de errores. Los nodos finales de encargan de detectar errores y pedir retransmisión. X.25 adolece de prestaciones pobres y no es aceptable para la mayoría de las aplicaciones en tiempo real LAN o WAN. Para el trafico LAN de alta velocidad es preferible servicios como Frame Relay o líneas dedicadas. Sin embargo, X.25 es muy conocido, entendido y aceptado para el acceso a terminales o computadoras remotas, siempre y cuando el trafico sea ligero. X.25 puede ser el único camino fiable para establecer enlaces de red internacionales con países con sistemas telefónicos no fiables. X.25 precede al modelo de sistemas abiertos OSI, lo que explica que la terminología usada para explicar X.25 sea diferente. La norma define protocolos en tres niveles, que se corresponden exactamente con los tres niveles más bajos de la pila de protocolos de OSI (el físico, el de acceso de enlace y el de paquetes). X.25 usa paquetes de establecimiento de llamada para el establecimiento inicial de un canal de comunicaciones. Una vez que se establece la llamada, los paquetes de datos transfieren información entre las estaciones. Al ser orientado a la conexión, los paquetes no necesitan direcciones fuente y destino. Los circuitos virtuales proporcionan un trayecto a los paquetes a través de la red hacia el destino. Sin embargo, se asigna un numero a los paquetes que los identifica con el canal que enlaza la fuente y el destino. Las redes X.25 son fáciles de instalar y mantener. Los costes son en función del numero de paquetes enviados y en algunos casos del tiempo de conexión.


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OX X R G T A L D E E R V C O N T E G R A D O REEEDDDD DIIIG RD DSSII--BBEE GIIIT TA AL LD DE E SSE ER RV VIIIC CIIIO OSSS IIN NT TE EG GR RA AD DO OSSS –– R Los rápidos avances en las tecnologías de computadoras y de comunicaciones dieron lugar a la fusión de estos dos campos. Las fronteras entre computación, conmutación y equipos de transmisión digital se han difumado, y se usan las mismas técnicas digitales para transmisión de datos, voz e imagen. La evolución y fusión de las tecnologías, junto con la creciente demanda de recolección, procesamiento y difusión de información eficiente y oportuna, nos llevó al desarrollo de sistemas integrados que transmitan y procesen todo tipo de datos. El objetivo final de esta evolución fue la red digital de servicios integrados (RDSI o ISDN). La RDSI pretende ser una red publica mundial de telecomunicaciones que reemplace a las redes de telecomunicaciones existentes y ofrezca una amplia variedad de servicios. La RDSI esta definida por la normalización de interfaces de usuario y se implementa como un conjunto de conmutadores digitales y caminos admitiendo un amplio rango de tipos de trafico y suministrando servicios de procesamiento de valor añadido. En la practica, existirán muchas redes implementadas dentro de un país, pero desde el punto de vista del usuario habrá una única red, mundial y uniformemente accesible. Los servicios RDSI se basan en el concepto de proporcionar un conjunto de canales con una única interfase. El canal B, a 64 Kbps, es el canal principal usado para la conmutación de circuitos, conmutación de paquetes y circuitos dedicados (alquilados). El canal D se usa para la señalización de control (llamada de inicio) y también puede transmitir algunos datos. Para usuarios hogareños y pequeñas empresas existe un servicio de acceso básico de dos canales, uno B y otro D. Para clientes con PBXs digitales o instalaciones LAN, se utiliza un servicio de acceso primario de 23 canales B o 30 canales B y un canal D. A pesar del hecho de que la RDSI no ha conseguido todavía el despliegue universal esperado (a pesar del esfuerzo de normalización), está ya en su segunda generación. La primera generación, a veces denominada RDSI de Banda Estrecha, se basa en el uso de un canal de 64 Kbps como unidad básica de conmutación, orientada a conmutación de circuitos: La mayor contribución técnica de la RDSI BE ha sido la “retransmisión de tramas” (Frame Relay). La segunda generación, denominada RDSI de Banda Ancha, admite velocidades muy altas (hasta Gbps) y esta orientada a conmutación de paquetes. La mayor contribución técnica de la RDSI BA ha sido el Modo de Transferencia Asíncrono (ATM), también conocido como de “retransmisión de celdas” (Cell Relay).


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OX XII FFRRRAAAM M E REEELLLAAAYYY ME ER Realmente Frame Relay, como implica su nombre, conmuta (retransmite) tramas y no opera al nivel de paquetes. Es un servicio de nivel de enlace de datos (capa 2 de OSI). Frame Relay simplemente retransmite paquetes en forma de trama a través de la red a su destino. Realiza una verificación de errores sencilla en cada nodo y descarta los paquetes corruptos. Las estaciones finales deben detectar y corregir el problema. Esta estrategia aprovecha las ventajas de los sistemas de transmisión modernos y altamente fiables. Frame Relay provee un chequeo de errores básico, mas que una corrección de errores. Su bajo overhead (X.25 tenia un alto nivel de confiabilidad a costa de un incremento en el overhead) permite una conmutación de paquetes más rápida lo que permite una mayor performance y eficiencia. Frame Relay, al igual que el protocolo X.25, divide los datos del usuario en paquetes que son transmitidos sobre la red WAN, a través de una serie de switches Frame Relay, y ensamblados en destino. Sin embargo, Frame Relay lo hace de manera mucho más rápida que X.25. Mediante la provisión de servicios básicos de transmisión de red, Frame Relay puede transmitir a velocidades T1 (1,544) o superiores. Sin embargo Frame Relay es apropiada solo para datos, ni para voz ni video, debido principalmente al uso de tramas de longitud variable. Es método de comunicación orientado a paquetes usado principalmente para la interconexión de LANs y WANs sobre redes publicas o privadas. La mayoría de las empresas de telecomunicaciones ofrece Frame Relay como una forma de establecer conexiones virtuales WAN que ofrezcan unas prestaciones relativamente altas. Frame Relay es una interfase de usuario dentro de una red de conmutación de paquetes WAN, que típicamente ofrece un ancho de banda comprendido entre 56 Kbps y 1,544 Mbps. Se origino a partir de las interfaces ISDN y se propuso como estándar en 1984. Las conexiones a una red Frame Relay requieren de un encaminador y una línea desde las instalaciones del cliente hasta el puerto de entrada a Frame Relay en el proveedor. Esta línea consiste a menudo en una línea digital alquilada como T1 aunque esto depende del trafico. Al igual que X.25, Frame Relay define el proceso de interconexión entre el DTE del usuario (un router) y el servicio DCE del proveedor (switch Frame Relay). Frame Relay no define el camino por donde se transmiten los datos dentro de la red de servicio del proveedor (una vez que el tráfico alcanza el switch del proveedor). Además, un proveedor Fram Relay puede usar una variedad de tecnologías, como ATM o PPP, para mover los datos, de un extremo a otro de su red. El servicio Frame relay proporciona “circuitos virtuales permanentes” (PVC) situados donde hayan especificado los clientes, entre los emplazamientos designados. Estos canales permanecen activos continuamente y están garantizados, con objeto de proporcionar un nivel especifico de servicio, que se ha negociado con el cliente. Los circuitos virtuales se añadieron al estándar a finales de 1993. Asi, Frame relay se convirtió en una autentica red de conmutación “rápida” de paquetes (fast packet).


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OX XIIII SSEEERRRVVVIIICCCIIIO O D E O N M U T A C Ó N D E O M E G A B T CO DAAATTTO MUUULLLTTTIIIM MD DSS OD DE EC ON NM MU UT TA AC CIIIÓ ÓN ND DE ED OSSS M ME EG GA AB BIIIT T -- SSM SMDS (Switched Multimegabit Data Service) es una tecnología de networking WAN de alta velocidad, de conmutación de paquetes, basada en datagramas utilizada para comunicaciones sobre redes publicas de datos (PDN, Public Data Networks). SMDS puede usar medios basados en cobre o fibra óptica y soporta velocidades de 1,544 Mbps sobre facilidades de transmisión DS-1 (Digital Signal nivel 1), o velocidades de 44,736 Mbps sobre facilidades de transmisión DS-3. En adición las unidades de datos SMDS tienen la capacidad suficiente como para encapsular tramas o frames IEEE 802.3, IEEE 802.5 y FDDI enteros. El SMDS es un servicio de las compañías de intercambio local (LEC, LX) que permite extender las redes LAN a redes MAN. Bellcore desarrollo SMDS que utiliza la misma tecnología de transmisión de celdas de tamaño fijo que ATM y las compañías de telecomunicaciones ofrecen SMDS como un servicio que trabaja sobre el. SMDS, por ser una técnica de conmutación, presenta ventajas sobre las redes privadas con líneas digitales dedicadas, como T1. Es un servicio de transporte basado en celdas no orientado a la conexión, que puede proporcionar conexiones de cualquiera a cualquiera entre diversos emplazamientos sin necesidad de establecer un sistema de llamada ni ningún procedimiento de terminación. De esta forma es posible extender las técnicas de comunicación propias de las LANs a áreas metropolitanas. Una vez que la información llega a la red de conmutación SMDS, se dirige a cualquier numero de emplazamientos. La conexión desde el emplazamiento del usuario a la red SMDS se realiza a través de circuitos dedicados o conmutados. La velocidad de transmisión arranca desde los 16 Mbps y aumenta. El coste del servicio se suele basar en una tarifa mensual fija, pero es ideal para clientes que necesitan conmutar líneas de comunicación con muchos emplazamientos diferentes. SMDS, junto con ATM y Frame Relay, es una de las técnicas de “paquetes rapidos” (fast packet) que dejan la comprobación de errores y el control de flujo en manos de los nodos terminales. Si se pierde un paquete, es el nodo destino quien se encarga de solicitar una retransmisión. No recae sobre la red la carga de la comprobación de errores. A pesar de que esto asigna mas trabajo a los sistemas finales, la ventaja está en que los servicios de transmisión modernos tienen pocos errores. SMDS es compatible con la norma MAN IEEE 802.6, asi como con las ISDN BA (Broadband). Sin embargo SMDS proporciona servicios de gestión y control de tarifas que no están especificados en la norma MAN. Utiliza el Bus Dual de Cola Dstribuida (DQDB) como método de acceso e interfase a la red. Físicamente tiene la forma de red en estrella, como la red en anillo con testigo, donde todos los cables están conectados con un punto central. DQDB proporciona un verdadero bus multiacceso puesto que todos los nodos pueden acceder al bus en el momento que quieran, siempre que la red no este saturada. Se permite el acceso al bus de hasta 512 nodos, que pueden estar a 160 Kms de distancia funcionar a 150 Mbps. Al igual que ATM trabaja con “ranuras de tiempo” (celdas) donde los emplazamientos o los dispositivos que estén conectados pueden ubicar los datos a transportar. Son muchas las compañías de telecomunicaciones que están aumentando sus servicios de ATM, y están instalando SMDS como un escalón para ATM. SMDS se diferencia de ATM en la inclusión de muchas mejoras de servicio, como la facturación basada en el uso o mejores facilidades de administración de red. Algunos analistas de la industria creen que SMDS no llegará a ser popular debido a las técnicas ATM y Frame Relay. Las empresas de comunicaciones han sido lentas a la hora de adoptar SMDS, y todavía no está


disponible en todas las áreas metropolitanas y en muchos lugares del mundo. En la actualidad, el coste de las conexiones por Frame Relay es una sexta parte del coste de los equipos MSDS equiparables. El Grupo de Interés SMDS (SIG, SMDS Interest Group) es una asociación que engloba a compañías de comunicaciones locales y de telecomunicaciones, interesadas en SMDS, que trabaja en el desarrollo de nuevas especificaciones para SMDS, como ser, soporte para TCP/IP, SNA, IPX, y encapsulación Frame Relay entre otras cosas.


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OX XIIIIII R G T A L D E E R V C O N T E G R A D O Y REEEDDDD DIIIG ATTM M –– R RD DSSII--BBA A GIIIT TA AL LD DE E SSE ER RV VIIIC CIIIO OSSS IIN NT TE EG GR RA AD DO OSSS Y YA La RDSI de Banda Ancha es una especificación de segunda generación de la RDSI (de Banda Estrecha) que proporciona altas velocidades de datos digitales. La tecnología básica de la interfase de usuario es ATM. El decidir utilizar ATM, implica que RDSI-BA es una red basada en paquetes, ciertamente en su interfase y casi ciertamente en términos de su conmutación interna. Aun cuando la recomendación afirma que RDSI-BA admitirá aplicaciones en modo circuito, esto se hará sobre un mecanismo de transporte basado en paquetes. Por tanto la RDSI que empezó como una evolución de la red telefónica de conmutación de circuitos, se transformará en una red de conmutación de paquetes ya que contiene servicios de banda ancha. El Modo de Transferencia Asíncrono (ATM) es similar en muchos aspectos a la conmutación de paquetes usando X.25 y a la técnica de retransmisión de tramas (Frame Relay). Como ellas, ATM lleva a cabo la transferencia de los datos en trozos discretos. Además, al igual que X.25 y retransmisión de tramas, ATM permite la multiplexación de varias conexiones lógicas a través de una única interfase física. En el caso de ATM, el flujo de información en cada conexión lógica se organiza en paquetes de tamaño fijo denominado celdas. ATM es un protocolo funcional con mínima capacidad de control de errores y de flujo, lo que reduce el coste de procesamiento de las celdas ATM y reduce el numero de bits suplementarios necesarios en cada celda, posibilitándose así su funcionamiento a altas velocidades. El uso de ATM a altas velocidades se ve apoyado adicionalmente por el empleo de celdas de tamaño fijo, ya que de este modo se simplifica el procesamiento necesario en cada nodo ATM. ATM, también conocido como retransmisión de celdas (Cell Relay), aprovecha las características de fiabilidad y fidelidad de los servicios digitales modernos para proporcionar una conmutación de paquetes mas rápida que X.25 y Frame Relay. ATM se desarrollo como parte del trabajo en RDSI de banda ancha, pero encontró aplicación en entornos distintos de RDSI en los que se necesitan velocidades de transmisión muy elevadas. Para el transporte de celdas ATM debe usarse una estructura de transmisión. Una posibilidad consiste en la utilización de una cadena continua de celadas sin la existencia de una estructura de multiplexación de tramas en la interfase, en este caso la sincronización se lleva a cabo celda a celda. Una segunda opción es multiplexar las celdas mediante la técnica por división de tiempo síncrona, en cuyo caso la secuencia de bits en la interfase forma una trama externa basada en la jerarquía digital síncrona y su capa adyacente (SDH/SONET).


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OX XIIV V EENNNRRRUUUTTTAAAM M E N T O P O R M A D A Ó N C A O M A N D A LLLLAAAM TEEELLLEEEFFFÓ BAAAJJJO DEEEM DD DR R MIIIE EN NT TO OP PO OR RL MA AD DA AT ÓN NIIIC CA AB OD MA AN ND DA A -- D El DDR (Dial on Demand Routing) es una técnica en la cual un router puede iniciar y cerrar sesiones conmutadas por circuito de forma dinámica cuando las estaciones finales que realizan la transmisión lo necesitan. Cuando el router recibe tráfico destinado a una red remota, se establece un circuito y el tráfico se transmite normalmente. El router mantiene un temporizador de espera que se reinicia sólo cuando se recibe tráfico que el router necesita enrutar (trafico interesante); si no recibe tráfico interesante antes de que expire el temporizador de espera, el circuito se termina. De la misma manera, si se recibe tráfico que no es interesante y no existe un circuito, el router descarta el tráfico. Cuando el router recibe tráfico interesante, inicia un nuevo circuito. DDR permite realizar una conexión telefónica estándar o una conexión RDSI sólo cuando así lo requiere el volumen de tráfico de red. DDR puede resultar menos costoso que una solución de línea dedicada o multipunto. DDR sustituye las líneas dedicadas cuando no se requiere la disponibilidad de circuito constante. DDR significa que la conexión se produce sólo cuando un tipo específico de tráfico inicia la llamada o cuando se necesita un enlace de respaldo. DDR se puede usar para proporcionar carga compartida de respaldo y respaldo de interfaz. Línea telefónica de respaldo es un servicio que activa una línea de respaldo, la cual se puede utilizar como un enlace de respaldo cuando el enlace principal falla o como origen de ancho de banda adicional cuando la carga de tráfico en el enlace primario alcanza una cota. Además, DDR se puede usar para sustituir los enlaces punto a punto y los servicios WAN multiacceso conmutados. En comparación con las LANs o un campus, el tráfico que usa DDR es normalmente de bajo volumen y periódico. DDR inicia una llamada WAN a un sitio remoto sólo cuando hay tráfico para transmitir. DDR permite usar módems de discado o dispositivos ISDN para establecer conexiones de red periódicas de bajo volumen sobre redes de conmutación de circuitos.


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OX XV V M O O N D A Y A T É L T E MIIICCCRRRO OO ON ND DA ASSS Y Y SSA AT TÉ ÉL LIIIT TE ESSS La zona del espectro electromagnético que tiene interés para la transmisión de datos incluye las partes denominadas radiofrecuencia (10 KHz a 300 MHz), microondas (300 MHz a 300 GHz), e infrarroja (300 GHz a 400 THz). Las características de transmisión de las ondas en el aire dependen en gran medida de la frecuencia de la onda que se transmite. En la zona de radiofrecuencias el comportamiento es poco direccional y las ondas pueden atravesar obstáculos de cierto tamaño sin dificultad (su poder disminuye con el cubo de la distancia). Por ello se utiliza esta parte del espectro para emisiones de radio principalmente. Conforme nos acercamos a las microondas la transmisión es cada vez más direccional y sensible a los obstáculos; a partir de 100 MHz la transmisión se hace en línea recta y los obstáculos (un edificio o una montaña) impiden la comunicación; a partir de unos 10 GHz incluso la lluvia absorbe parte de la potencia, reduciendo la señal recibida. Un sistema de transmisión por microondas consta de 2 antenas bidireccionales que enfocan haces de energía electromagnética u ondas de radio de uno a otro punto. Las antenas requieren que la trayectoria no sea obstruida (en la línea) por lo que frecuentemente se montan sobre grandes torres para extender su rango y evitar obstáculos. Contrariamente a la radiodifusión que envía señales desde un lugar a muchos otros, las antenas de microondas se enfocan a un punto, otra antena de microondas, y por eso son sistemas de comunicación punto a punto. Los primeros sistemas de microondas se emplearon para la transmisión de señales de radar, TV y de telefonía, con técnicas de multiplexación de frecuencia, siendo en la actualidad utilizados ampliamente para la transmisión digital de datos, mediante técnicas de multiplexación temporal. En la práctica el rango de frecuencias más utilizado para la transmisión de datos es el de las microondas porque permite elevadas velocidades de transmisión dado su ancho de banda, tienen un alcance razonable y está relativamente exento de interferencias de los fenómenos más comunes. La elevada direccionalidad impone la condición de la visión directa, lo cual obliga a instalar repetidores cuando se cubren grandes distancias, pero es también una ventaja ya que permite disponer de la misma frecuencia en haces próximos sin interferencia, y concentrar la potencia de emisión en un solo sentido. Las antenas empleadas radian una pequeña potencia, por lo que han de emplearse antenas cóncavas para concentrar la señal recibida y, al igual que sucede con las transmisiones por satélite, el tamaño de las mismas disminuye conforme la frecuencia aumenta, razón por la que interesa aumentar esta última. Se suelen utilizar en sustitución del cable coaxial o las fibras ópticas ya que se necesitan menos repetidores y amplificadores, aunque se necesitan antenas alineadas. Se usan para transmisión de televisión y voz. Antes de la aparición de las fibras ópticas las microondas eran el sistema preferido por las compañías telefónicas para cubrir grandes distancias con anchos de banda elevados; aún hoy en día se basa en este sistema buena parte de la infraestructura, ya que es barato y efectivo. Es bastante típico utilizar radioenlaces de 2, 34 y 140 Mbps. Los sistemas de comunicaciones actuales vía radio que utilizan microondas requieren que exista un enlace visual directo entre el emisor y el receptor. Esto, muchas veces limita sus aplicaciones a pesar de que se alcanzan sus límites en cuanto a distancia, debido a las características del terreno, obligándonos a colocar varias estaciones repetidoras, con el coste que ello implica


Una manera de evitar este problema consiste en colocar un único satélite (repetidor), situado a gran distancia de la Tierra en una órbita geoestacionaria (36.000 Kms. sobre el ecuador, una vuelta cada 24 horas), desde el que se tiene visión hacia una gran zona. Los satélites se utilizan para el teléfono, la televisión y la transmisión de datos. Una aplicación muy habitual es la de servir como canal de comunicación alternativo en el que duplica la información transmitida por un canal primario, para el caso de que se produzca algún fallo en la línea terrestre. Sin embargo, debido a la distancia que la señal debe recorrer, se produce en la misma un retardo de 0,25 segundos. Este retardo puede acarrear problemas en ciertas transmisiones de datos de computadora para las que el tiempo es un factor critico. La seguridad es otro factor a considerar. Se pueden interceptar las señales hacia tierra. Las estaciones ubicadas en tierra disponen de los siguientes equipos: multiplexores (para transmitir varias señales), transceptores (envían / reciben señales), modulares / demoduladores de frecuencia de radio (módem satelitales) y antenas parabólicas situadas en tierra (de diversos tamaños). El tamaño de las antenas dependerá de los requisitos de la transmisión. Las denominadas terminales de apertura muy pequeña (VSAT, Very Small Aperture Terminals) pueden transmitir a velocidades de hasta 56 Kbps y son relativamente baratas. Los

sistemas

de

comunicación

por

satélites

transmiten

señales

desde

transceptores

(transmisores/receptores) situados en tierra, a satélites situados en el espacio, en orbitas a 36.000 Kms de la superficie terrestre. Con esta orbita el satélite se puede sincronizar con la orbita terrestre y mantenerse sobre un lugar concreto. Las antenas situadas en las estaciones de seguimiento se orientan hacia el satélite y se transmiten, desde y hasta el satélite, señales multiplexadas, que contienen cientos de canales, sobre haces de microondas. Las transmisiones hacia los satélites se denominan enlaces-ascendentes (uplinks) y las transmisiones hacia las estaciones terrestres se denominan enlaces descendentes (downlinks). Existen tres rangos de frecuencias diferentes: la banda C, la banda Ku y la banda Ka.


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OX XV VII SSEEERRRVVVIIICCCIIIO O D E G T A L D E O N A D O Y Ó D E M P A R A LÍÍÍNNNEEEAAAD DIIIG ABBBO MÓ CAAABBBLLLEEE OSSS D DE EL GIIIT TA AL LD DE EA ON NA AD DO OY YM ÓD DE EM MP PA AR RA AC La red telefónica básica se creó para permitir las comunicaciones de voz a distancia. En un primer momento (1.876-1.890), los enlaces entre los usuarios eran punto a punto, por medio de un par de cobre (en un principio un único hilo, de hierro al principio y después de cobre, con el retorno por tierra) entre cada pareja de usuarios. Esto dio lugar a una topología de red telefónica completamente mallada. Como esta solución resultaba claramente inviable (si se quería dar servicio a una población de n usuarios, con este modelo completamente mallado, harían falta nx(n - 1)/2 enlaces) se evolucionó hacia el modelo en el que cada usuario, por medio de un par de cobre se conectaba a un punto de interconexión (central local) que le permitía la comunicación con el resto. El bucle de abonado (loop local o ultima milla) es el par de cobre que conecta el terminal telefónico del usuario con la central local de la que depende. El bucle de abonado proporciona el medio físico por medio del cuál el usuario accede a la red telefónica y por tanto recibe el servicio telefónico. La red de interconexión es la que hace posible la comunicación entre usuarios ubicados en diferentes áreas de acceso (CSAs). Como se dijo antes, la red telefónica básica se diseñó para permitir comunicaciones de voz entre los usuarios. Las comunicaciones de voz se caracterizan porque necesitan un ancho de banda muy pequeño, limitado a la banda de los 300 a los 3.400 Hz (un CD de música reproduce sonido en la banda de los 0 a los 22.000 Hz). Es decir, la red telefónica es una red de comunicaciones de banda estrecha. En los últimos años, la red de interconexión ha ido mejorando progresivamente, tanto en los medios físicos empleados, como en los sistemas de transmisión y equipos de conmutación que la integran. Los medios de transmisión han evolucionado desde el par de cobre, pasando por los cables multipares y los cables coaxiales, hasta llegar a la fibra óptica, un medio de transmisión con capacidad para transmitir enormes caudales de información. Los sistemas de transmisión pasaron de sistemas analógicos de válvulas hasta llegar a sistemas de transmisión digitales. Por último, la capacidad de los equipos de conmutación empleados se multiplicó hasta llegar a centrales de conmutación digitales con capacidad para conmutar decenas de miles de conexiones a 64 Kbps. Pero, ¿qué pasó con la red de acceso? Como se dijo anteriormente, la red de acceso está formada por los bucles de abonado que unen los domicilios de los usuarios con su correspondiente central (central local). Hasta hace poco se consideró que sobre este bucle sólo se podían transmitir caudales de hasta 64 Kbps en la banda de frecuencias que va desde los 0 Hz hasta los 4 KHz. Es decir, que el bucle sólo servía para las comunicaciones de voz y la transmisión de datos en banda vocal mediante módem (desde los V.32 a 9,6 Kbps hasta los V.90 a 56 Kbps), y nada más. Por tanto, la red de acceso era el obstáculo que impedía a la red telefónica en su conjunto la evolución hacia servicios de banda ancha, como son los servicios multimedia: videoconferencia, distribución de vídeo, vídeo bajo demanda, transmisión de datos a gran velocidad, etc... De acuerdo con esta creencia generalizada, para ofrecer los servicios de banda ancha antes citados, era necesario el despliegue de nuevas redes de comunicaciones basadas en cable coaxial y/o en fibra óptica. Y precisamente este era uno de los principales motivos por los que las comunicaciones de banda ancha no progresaron todo lo rápido que se esperaba: desplegar nuevas redes, partiendo de cero, era y es muy caro tanto por el equipamiento como por las inversiones en obra. Y todo esto porque el par de cobre “no tenía” la suficiente capacidad. Pero esto no es así. Un par de cobre en un aceptable estado de conservación tiene una respuesta en frecuencias que permite la transmisión de señales en una banda que puede superar el MHz (es decir, unas 250 veces más de lo que hasta ahora se ha estado empleando). Para aprovechar este potencial sólo hacían falta unos equipos capaces de sacar partido a este potencial.


A finales de los 80, los avances en microelectrónica hicieron posible el desarrollo de nuevos DSPs (Procesadores de Señales Digitales) capaces de aplicar nuevos algoritmos de procesado digital de señal. Así aparecieron los primeros módems ADSL (Asymmetric Digital Subscriber Line), capaces de transmitir sobre el bucle de abonado un caudal de 1.536 Kbps en sentido Red - Usuario (sentido downstream o descendente) y de 64 Kbps en sentido Usuario - Red (sentido upstream o ascendente). Actualmente se tienen velocidades del orden de los 8,192 Mbps en sentido descendente y hasta 0,928 Mbps en sentido ascendente. Y todo esto sin interferir para nada en la banda de frecuencias vocal (de 0 a 4KHz), la que se usa para las comunicaciones de voz. De este modo sobre el bucle de abonado podían coexistir dos servicios: el servicio tradicional de voz y nuevos servicios de transmisión de datos a gran velocidad.


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OX XV VIIII R O N A REEEDDDÓ ÓPPPTTTIIICCCAAASSÍÍÍNNNCCCRRRO ON NEETT)) ON NA A ((SSO JJEEERRRAAARRRQ Q U A G T A L N C R O N A QU UÍÍÍA AD DIIIG GIIIT TA AL L SSÍÍÍN NC CR RO ON NA A ((SSD DH H)) SONET (Synchronous Optical Network) es una norma de nivel físico, propuesta por Bellcore a mediados de los 80, para la transmisión a través de fibra óptica. Normalizada por el ANSI y recomendada mundialmente por el CCITT, se puede pensar en SONET como en una red física para un sistema de comunicación global de la misma forma que una LAN de par trenzado se puede ver como el sistema de comunicación de una red corporativa. Es una red potencialmente global, construida sobre cable de fibra óptica, con velocidades de transmisión de datos normalizadas y reconocida en todo el mundo. SONET elimina los limites entre las compañías telefónicas de todo el mundo. SONET define la transmisión de información síncrona y asíncrona (datos sensibles al tiempo como el video en tiempo real). Con SONET, las compañías de telecomunicaciones pueden proporcionar a sus clientes redes rápidas que en un principio sean de escala metropolitana (MAN) y que en algún momento puedan llegar a ser de alcance global (WAN-GAN), puesto que SONET hace posible la conexión de los equipos de las compañías de telecomunicaciones del mundo entero. Las velocidades de transmisión de señales digitales han sido diferentes según los países, con lo que se ha impedido el desarrollo de sistemas globales de transmisión. Por ejemplo, DS-1 define 1,544 Mbps en Estados Unidos, mientras que E1, su homologo europeo, define 2,048 Mbps. SONET define su jerarquía digital única con los niveles OC (carrier óptico). SONET define la red de fibra óptica para el transporte de las señales, y las distintas tecnologías de red de area extensa (WAN), como el Servicio de Conmutación de Datos Multimegabit (SMDS) y el Modo de Transferencia Asíncrono (ATM), trabajan sobre ella. Estas tecnologías son de transmisión de celdas, no de tramas (frames) de longitud variable; por lo tanto son fácilmente adaptables a las velocidades de transmisión posibles en las redes SONET. SONET define las velocidades de transmisión, las interfaces ópticas, el funcionamiento y el mantenimiento, la jerarquía de velocidades de señales ópticas (mundial), canales multiplexados sobre canales síncronos (no hace falta demultiplexar una señal multiplexada de alta velocidad, se sabe exactamente donde están las tramas de un canal determinado para poder extraerlo) y las normas de transmisión por fibra óptica que permiten la interconexión de los sistemas de fabricantes y compañías de telecomunicaciones diferentes. Un sistema SONET consiste de tendidos de cable que unen los dispositivos de multiplexación SONET. SONET define las especificaciones de la generación de luz y cable de fibra óptica, así como la multiplexación de los datos y la generación de tramas. La señal SONET transporta datos e información de control en un flujo síncrono. La información de control esta embebida dentro de la señal y se la conoce como overhead (sobrecarga o cabeceras). Así se tienen cabeceras o sobrecargas de sección, de línea y de camino. La especificación SONET define también como se pueden insertar señales de baja velocidad, como T1/E1 y T3/E3, dentro de las transmisiones síncronas. SONET proporciona servicios que estan por encima de la barrera actual de T3 de 45 Mbps. La velocidad básica de transmisión óptica de 51,8 Mbps es apropiada para una línea T3 o 28 líneas T1. En el extremo superior se encuentra la portadora óptica OC-48 que puede soportar hasta 1.344 líneas T1 o 48 líneas T3. En un principio, la velocidad de transmisión OC-3 proporcionará el servicio de cliente a compañía, pero con el avance de los años se extenderá el uso a velocidades más altas.


Los cables ópticos proporcionan un ancho de banda enorme, y harán que las redes WAN tengan costes más asequibles. Serán muchas las compañías que podrán proporcionar a sus usuarios remotos la misma velocidad de acceso a los datos que a los usuarios locales, aumentando así sus posibilidades de comunicación y competitividad.


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OX XV VIIIIII D O DIIISSSEEEÑÑÑO WA AN N OW Los administradores de redes de hoy deben administrar redes WANs complejas para soportar el número creciente de aplicaciones de software que se desarrollan en torno del protocolo IP y la Web. Estas WAN exigen una gran cantidad de recursos de la red, y necesitan tecnologías de networking de alto desempeño. Las WAN son entornos complejos que incorporan múltiples medios, múltiples protocolos, e interconexión con otras redes, como Internet. El crecimiento y la facilidad de administración de estos entornos de red se logran mediante la a menudo compleja interacción de protocolos y funciones. A pesar de las mejoras en el desempeño de los equipos y las capacidades de los medios, el diseño de una WAN es una tarea cada vez más difícil. El diseño cuidadoso de las WAN puede reducir los problemas asociados con los entornos crecientes de networking. Para diseñar WAN confiables y escalables, los diseñadores de red deben tener en mente que cada WAN posee requisitos de diseño específicos. En este capítulo se presenta una descripción general de las metodologías utilizadas para diseñar las WAN. El diseño de una WAN puede ser una tarea sumamente difícil. Una WAN bien diseñada puede ayudar a equilibrar objetivos. Cuando se implementa correctamente, la infraestructura de la WAN puede optimizar la disponibilidad de las aplicaciones y permitir el uso económico de los recursos de red existentes. El objetivo general del diseño WAN es minimizar el costo basándose en distintos elementos (equipos, trafico, rendimiento, topologías, capacidad de línea, etc), proporcionando servicios que no comprometan los requisitos de disponibilidad establecidos. Hay dos aspectos fundamentales: disponibilidad y costo. Estos aspectos se encuentran esencialmente en posiciones antagónicas. Cualquier aumento en la disponibilidad en general debe reflejarse en un aumento en los costos. Por lo tanto, se debe analizar cuidadosamente la importancia relativa de la disponibilidad de recursos y el costo general. El primer paso en el proceso de diseño es comprender los requisitos de la empresa. Los requisitos de la WAN deben reflejar los objetivos, características, procesos empresariales y políticas de la empresa en la que opera. Tradicionalmente, las características de la comunicación WAN han sido rendimiento relativamente bajo, alto retardo y elevados índices de error. Las conexiones WAN también se caracterizan por el costo del alquiler de los medios (los cables) a un proveedor de servicios para conectar dos o más sitios entre sí. Como la infraestructura WAN a menudo se arrienda a un proveedor de servicio, el diseño WAN debe optimizar el costo y eficiencia del ancho de banda. Por ejemplo, todas las tecnologías y funciones utilizadas en las WAN son desarrolladas para cumplir con los siguientes requisitos de diseño: optimizar el ancho de banda de WAN, minimizar el costo y maximizar el servicio efectivo a los usuarios finales. En comparación con las WAN actuales, las nuevas infraestructuras WAN deberán ser más complejas, deben basarse en nuevas tecnologías y deben poder manejar combinaciones de aplicaciones cada vez mayores (y en rápido proceso de cambio), con niveles de servicio requeridos y garantizados. Además, con un aumento estimado del 300% en la cantidad de tráfico para los próximos cinco años, las empresas sufrirán una presión aún mayor para limitar los costos de las WAN. Los diseñadores de redes están usando las tecnologías WAN para soportar estos nuevos requisitos. Las conexiones WAN generalmente manejan información importante y están optimizadas en el aspecto del precio y desempeño del ancho de banda. Los routers que conectan campus, por ejemplo, generalmente aplican optimización del tráfico, múltiples rutas para redundancia, respaldo de discado para la recuperación de desastres y calidad de servicio para las aplicaciones críticas.


El trabajo de los diseñadores de redes de datos será parcialmente intuitivo y parcialmente analítico. Mientras que el único camino para tomar ventaja de lo intuitivo es a través de la experiencia y el entrenamiento, la utilización de herramientas analíticas para el trabajo requerirá el mero aprendizaje de como aplicar fórmulas matemáticas.


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OX XIIX X C O N G E T Ó N O L A M E N T O Y O M P R E Ó N CO WA AN N:: EENNNCCCO CO ON NG GE ESSST TIIIÓ ÓN NW OL LA AM MIIIE EN NT TO OY YC OM MP PR RE ESSSIIIÓ ÓN N Con las aplicaciones actuales, hambrientas de banda ancha, la necesidad de ancho de banda de un sitio remoto también aumentará, aun cuando no se requiera ancho de banda en el sitio central. Cuando las demandas de ancho de banda de un sitio remoto excedan la capacidad del enlace, la mejor solución es proveer de más ancho de banda. Sin embargo, en algunos casos, arrendar una línea adicional o aumentar el número de circuitos, puede no ser práctico, sobre todo si las demandas de ancho de banda son súbitas e inesperadas. Entonces, para manejar la congestión de los enlaces WAN, se dispondrá de dos técnicas: el encolamiento (queuing) y la compresión, particularmente sobre enlaces que ofrecen anchos de banda menores que un T1/E1 (1,544/2,048) Mbps. Se describirá como administrar el flujo de tráfico implementando el encolamiento y la compresión. Se determinará el porque se habilita el encolamiento, se identificarán los protocolos de encolamiento alternativos y se determinará el mejor método de encolamiento a implementar. Se verá como se configuran los distintos tipos de encolamiento para priorizar el tráfico, como verificarlos y como corregir configuraciones incorrectas para que el tráfico viaje correctamente por la conexión en la secuencia correcta. Por ultimo, se verá como implementar correctamente la compresión de red para optimizar el throughput. Existen muchas estrategias y técnicas para optimizar el tráfico sobre enlaces WAN, incluyendo encolamiento y listas de acceso (ACLs). Sin embargo uno de los métodos más efectivos es la compresión. El encolamiento se refiere al proceso por el cual un dispositivo (un router por ejemplo) usa, para transmisión, paquetes “estacionados” (en espera en un buffer) durante los períodos de congestión. Se puede configurar un router congestionado para que priorize y envíe primero aquellos paquetes de misión crítica y de tráfico sensible al retardo, aun cuando existan paquetes, de baja prioridad, que hayan llegados primeros o, puede darse el caso de que se descarten paquetes debido al exceso. En muchos casos se requiere de más ancho de banda. El encolamiento, en realidad, aumenta los problemas de performance porque demanda ciclos de CPU adicionales y fuerza al router a aplicar un encolado lógico a cada paquete. Además, el encolamiento es una solución temporaria o una solución para aquellas raras ocasiones cuando las sesiones interactivas fallan por problemas de latencia o descarte de paquetes. Por otro lado, la compresión de datos trabaja identificando patrones o modelos en una corriente o flujo (stream) de datos, y escogiendo un método más eficaz de representar la misma información. Esencialmente, se aplica a los datos un algoritmo para remover o quitar tanta redundancia como sea posible. La eficacia y efectividad de un esquema de compresión se mide por su tasa de compresión, la tasa o proporción del tamaño de datos no comprimidos a datos comprimidos. Una tasa de compresión de 2:1 (relativamente común) indica que el dato comprimido es de la mitad de tamaño de los datos originales. Para comprimir datos existen disponibles muchos algoritmos diferentes. Algunos se diseñan para tomar ventaja de un medio específico y encontrar las redundancias, pero por otro lado realizan un pobre trabajo cuando se aplican a otras fuentes de datos. Por ejemplo, la norma MPEG fue diseñada para tomar ventaja de la diferencia, relativamente pequeña, entre un frame y otro en datos de video (y realiza un excelente trabajo de compresión), pero por otro lado hace un trabajo terrible para comprimir texto. Sin embargo, en la teoría de compresión existe un límite teórico que especifica cuánto puede comprimirse una fuente de datos.


La tecnología de compresión de datos maximiza el ancho de banda e incrementa el throughput (rendimiento) del enlace WAN (al reducir el tamaño del frame permite transmitir más datos sobre el enlace).


R M E N D E L O REEESSSUUUM ME EN ND DE EL LC CAAAPPPIIITTTUUULLLO OX XX X A M N T R A C Ó N D E ADDDM REEEDDDEEESSS W WA AN N MIIIN NIIISSST TR RA AC CIIIÓ ÓN ND DE ER El diseño e implementación de una red es sólo parte del conocimiento necesario para llevarla a cabo (si bien una gran parte). También es necesario saber cómo mantener la red y hacer que funcione a un nivel aceptable. Esto significa que se debe saber diagnosticar los problemas a medida que surjan. Además, se debe saber cuándo resulta necesario expandir o cambiar la configuración de la red para cumplir con las necesidades cambiantes de los usuarios de red. La administración de red incluye muchas áreas distintas, entre ellas: documentación de la red, seguridad de la red, mantenimiento de la red, administración del servidor y mantenimiento del servidor. Esta lista no es exhaustiva, pero es más que suficiente. Cada uno de los temas enumerados es tan importante como el resto, y ninguno se debe pasar por alto. El problema es que muchos administradores consideran que, una vez que la red está funcionando, su tarea ha terminado. Esta afirmación no puede ser más falsa. Después de terminar la configuración de la red es cuando empieza la verdadera tarea de un administrador de red. Lo importante al administrar una red es recordar que se debe considerarla como una unidad y no como un grupo de dispositivos individuales conectados. Esto también se aplica a las conexiones WAN que se usan al conectarse a Internet. Los cambios realizados a los dispositivos en su ubicación afectarán directamente la eficiencia y confiabilidad de la comunicación en todo el sistema. La administración de red incluye varias responsabilidades, incluyendo el análisis de costos, desgraciadamente, el costo del desarrollo de la red es sólo el principio. La seguridad de red involucra dos componentes principales: el primero es proteger la red contra el acceso no autorizado y el segundo es la habilidad para recuperar datos ante eventos catastróficos. Otro de los aspectos de una buena administración de red es manejar los factores ambientales que pueden afectar a una red. Si se controlan estos factores, se puede obtener una red más estable y confiable. Además de todo lo anterior es necesario también poder hacer un monitoreo de la red, por varios motivos. Los dos motivos principales son la predicción de los cambios para el crecimiento futuro y la detección de cambios inesperados en el estado de la red. Entre los cambios inesperados se pueden incluir cosas tales como la falla de un router, un switch, un “hacker” que intenta obtener acceso ilegal a la red, o una falla de enlaces de comunicación. El monitoreo de una red WAN involucra varias de las mismas técnicas básicas de administración que se aplican para una red LAN, existiendo pocas diferencias en una comparación entre WAN y LAN, entre ellas la ubicación física del equipo. Para poder realizar el monitoreo y administración de la red existen herramientas de software y hardware que mediante el uso de protocolos reflejan el estado actual y, en algunos casos el estado futuro probable de la red. Entre ellos, SNMP (Simple Network Management Protocol) es un protocolo que permite que la administración transmita datos estadísticos a través de la red a una consola de administración central. SNMP es un componente de la Arquitectura de Administración de Red.


IINNTTRROODDUUCCCCIIÓÓNN DDEELL A AUUTTOORR En un principio, en toda organización pequeña o mediana, las tareas de networking resultan “bastantes fáciles”. El futuro diseñador / administrador de red tendrá a lo sumo que diseñar e instalar una red de área local (LAN) para que los usuarios compartan sus recursos dentro de una misma área de cobertura (un edificio por ejemplo). Pero a medida que pasa el tiempo irán apareciendo factores que harán que el administrador de red (hasta ahora LAN) no tenga una vida tan fácil. Por ejemplo, supongamos que la empresa creció, tiene sucursales, y los usuarios quieren recuperar documentos de los clientes o de otras sucursales. Entonces, se enseña a los usuarios como conectarse a una computadora remota y a transferir archivos. La tarea esta cumplida. Pronto los usuarios quieren, también, tener acceso a impresoras remotas y, muy poco después acceso a todos los recursos de las LANs remotas (en las sucursales), es decir las aplicaciones y los dispositivos compartidos. Después de un tiempo, toda la organización quiere estar conectada como si estuviera en la misma red local. Es decir “todos quieren estar conectados a todo el que tenga una computadora” (en forma rápida y transparente). Para colmo de males una de las peticiones más frecuentes es el acceso a Internet. Ahora es el momento en que el administrador (hasta ahora local) se da cuenta que la comunicación de datos en una red de área extensa no se reduce a conectarse con todo el mundo. Y esa es la razón (que se intenta satisfacer) por la que se desarrolló el presente trabajo. Red de Area Extensa (WAN) es un termino muy amplio. Ningún trabajo, no importa cual fuere su tamaño, podría cubrir todos los aspectos sobre la instalación y gestión de una WAN. Aun así, en este trabajo se intenta hacerlo. Generalmente se enfoca a las WAN como una convergencia de áreas de responsabilidad. Es habitual hacer una distinción entre las responsabilidades de “administración o gestión de redes” y la de “administración o gestión de telecomunicaciones”. Los administradores de telecomunicaciones (o si se quiere administradores WAN) gestionan todas las comunicaciones fuera de la red de área local (ya su nombre lo indica, telecomunicaciones es igual a “comunicaciones a distancia”) hasta los muros del edificio o la puerta de un campus. En muchas organizaciones esta situación es todavía verdad, aunque esta cambiando velozmente. Sea o no este el caso de una organización dada, probablemente el administrador deberá leer bibliografía (o trabajos como el presente), ya que las líneas divisorias entre redes locales y de área extensa se están difumando a gran velocidad (es decir entre administrador LAN y administrador WAN). Un administrador de redes, probablemente sabrá que la mayoría de los vendedores de equipos de área extensa dan por hecho que conoce lo bastante sobre comunicaciones de datos de área extensa como para seleccionar y gestionar sus productos. Si se es un administrador de telecomunicaciones, se sabe que la comunicación de área extensa es el aspecto que más velozmente crece en una organización (el mejor ejemplo actual es el acceso a Internet a través de redes locales y el uso de redes privadas virtuales como soporte para aplicaciones remotas) y que ello exige un conocimiento de las comunicaciones WAN. En todos los casos, se necesitara entender el funcionamiento de las WAN y como interactúan con las LANs. Otro de los motivos mas apremiantes para aprender mas sobre WANs es que los usuarios no conocen la diferencia entre comunicaciones de área local y de área extensa (y tampoco quieren saberlo). Los sistemas operativos y las aplicaciones de red se están “extendiendo” mucho y son tan buenos ocultando donde se encuentran los datos y los programas, que los usuarios confunden los problemas de rendimiento de la redes de área extensa con los del área local (como explicarles que un “enlace” de área extensa es varias veces “mas lento” que un “enlace” local, y que el costo de su mejora no es justificable).


Un ultimo motivo del porque estudiar las WANs (que se desprende del párrafo anterior), es que debido a las transparencias de las aplicaciones y sistemas operativos de red en el área extensa mencionada previamente, se tendrá que solucionar problemas de área extensa, así como “recomendar y justificar el costo de las soluciones en dicha área”, y esto es tanto si se es un administrador de telecomunicaciones como de redes. Entonces a medida que esta tarea pasa a ser nuestra responsabilidad, es decir es nuestro trabajo, se debe tratar de aprender el funcionamiento de las redes de área extensa. La clara distinción entre la administración de LAN y la gestión de telecomunicaciones esta desapareciendo y es necesario no quedarse desfasado.

Objetivo del trabajo

La investigación pretende dar una formación media / avanzada en los aspectos técnicos y de diseño de la comunicación entre computadoras, desde una conexión entre dos o más computadoras, ubicadas en un mismo lugar (LAN), hasta la conexión de equipos de rango medio y de rango amplio (MAN/WAN) utilizados para que se comuniquen muchas computadoras distribuidas a lo largo de un área geográfica muy extensa (WAN/GAN). Se pretende el conocimiento necesario para poder diseñar adecuadamente una red informática para una empresa, atendiendo a criterios de coste, prestaciones y necesidades. Se debería poder comprender la descripción técnica o documentación de un producto de comunicaciones, así como artículos de la literatura especializada. En toda área de conocimiento técnica existe una profusión de siglas para referirse a términos, conceptos o incluso a frases concretas. La telemática es especialmente rica en este sentido, y el conocimiento del significado de tales abreviaturas es necesario para la comprensión de la literatura técnica. Siempre que un término o concepto disponga de una abreviatura habitual se la indicará junto con su significado (casi siempre en inglés) la primera vez que aparezca. El conocimiento del significado de las siglas es como su “etimología”, y forma parte de la “cultura general” que todo profesional informático debería tener. Para intentar lograr el objetivo impuesto en el presente trabajo este se ira desarrollando de tal forma que el lector (aun con conocimientos básicos) vaya adentrándose en la temática de las comunicaciones. Al principio (los cuatro primeros capítulos) se desarrollarán conceptualmente los distintos medios, sistemas, términos, servicios, etc. utilizados en todos los sistemas de comunicaciones, como para que el lector se empape de los términos y de las normativas utilizadas. Ya en el capitulo 5 se hará una introducción general a todo el entorno WAN, comparándola con otros tipos de redes e indicando cuales son las partes de la misma (áreas de acceso, de transporte, de agregación), que dispositivos se utilizan, en donde y los distintos tipos de redes WAN que fueron apareciendo. En capítulos subsiguientes (capítulos 7 a 17) se entrará de lleno a cada uno de esos servicios o tecnologías WAN, indicando su funcionamiento y características; para que a partir del capitulo 18, cuando se tenga un conocimiento mas acabado del tema WAN, se detalle los pasos a seguir para poder diseñar una red de área extensa. Los capítulos 19 y 20 permitirán al administrador (ahora ya lo es) poder controlar los problemas de atascamiento que se susciten en la red debido a su mal uso o a su uso excesivo, teniendo a mano, por supuesto las herramientas que le permitan monitorear y administrar a la misma.

Que no es objetivo del trabajo

Actualmente existen muchos “especialistas”’ que son capaces de diseñar casi cualquier red, conocen todos los servicios existentes y están al tanto de la última tecnología o aplicación aparecida. Conviene destacar que no es el objeto de esta investigación crear tales especialistas, por tres razones:


El investigador no está capacitado para ello,

La información contenida en la investigación (si bien la mayoría es de aplicabilidad general) no

sería susceptible de incluirse en un currículo profesional ya que para cuando la persona se iniciara profesionalmente sería ya obsoleta, y •

No es el único tipo de formación que se espera para un especialista, es más bien una base general

para poder decidir luego una especialización específica.

En cierto modo se podría decir, siguiendo la típica analogía de las “autopistas de la información”, que dichos “especialistas” son muy buenos conductores, pero lo que aquí pretendemos no es obtener el carnet de conducir sino aprender a diseñar carreteras y vehículos para que el tráfico sea lo más fluido (y seguro) posible. Que no exista duda que nunca le vendrá mal a un profesional saber conducir bien, y en este sentido se estimula al mismo a realizar tantas “prácticas de conducción” como le sea posible tanto durante sus estudios como después en su futura actividad profesional. Tampoco es objeto de este trabajo introducir a la persona en los aspectos legales, comerciales o políticos del mundo de las telecomunicaciones, que son motivo de noticia casi diaria en los medios de comunicación, tanto en el ámbito nacional como internacional.

EELLLAAAUUUTTTO O R OR R


C COONNCCLLUUSSIIÓÓNN Las tendencias actuales se orientan a incrementar la informática cliente servidor en entornos informáticos distribuidos. Los usuarios necesitan enlaces más rápidos hacia una gran variedad de servicios, con inclusión de sistemas de gestión de bases de datos que se ejecutan sobre plataformas diferentes. Los requisitos de hardware de las LANs, que sirven de soporte a esta tendencia, incluyen a redes Ethernet conmutadas y servicios de conmutación rápida de paquetes sobre redes WANs, como Frame Relay, SMDS, y ATM. Las tradicionales líneas alquiladas T1 no ofrecerán el soporte necesario, según comienzan a parecerse las WANs cada vez mas a las LANs, presentándose ráfagas de trafico y acceso frecuente a recursos remotos localizados en una gran variedad de ubicaciones. Los actuales sistemas nacionales e internacionales de teléfono son incapaces de manejar los cada vez mayores requerimientos de transferencia de multimegabits de datos para la informática de gran ancho de banda y los sistemas multimedia. Por tanto, merece la pena echar un vistazo a algunas de las tecnologías y servicios que soportaran en el futuro las redes globales de datos, voz e imágenes. La cantidad de trafico de datos en las redes, se incrementara a medida que lo hagan la potencia y velocidad de los sistemas informáticos. Cuando la demanda crezca, las redes de datos llegaran a ser tan frecuentes y transparentes como lo son las redes de voz. La red SONET es una red transparente que posibilita esto. Define un estándar de multiplexación para la transmisión a través de cables de fibra óptica con velocidades en el rango de los 51 Mbps y los 2488 Mbps. El Modo de Transferencia síncrono (ATM) transporta datos en las redes SONET. Multiplexa celdas da datos (tamaño fijo) que proceden de diversas fuentes de la red física (SONET). Un circuito virtual orientado a la conexión entre dos puntos puede alcanzar velocidades de 45 Mbps a 622 Mbps, aunque la limitación habitual de las compañías de telecomunicaciones es de 45 Mbps. La conmutación ATM es habitual en el nivel LAN de los concentradores cableados. También es frecuente su uso como una técnica de conmutación de las redes de telecomunicación internacionales y globales. Frame Relay se presenta como una alternativa, que no un sustituto a X.25, ya que en muchas ocasiones puede ser muy ventajoso disponer de una red híbrida con enlaces Frame Relay a nivel troncal y X.25 a nivel de acceso, con lo cual nos beneficiamos de la alta velocidad de transmisión propia de Frame Relay y de la seguridad proporcionada por X.25. Muchos operadores ofrecen Frame Relay como opción a las líneas dedicadas T1/E1 y como integrador de redes legadas (legacy) como las SNA de IBM. Por encima de ATM esta la red Digital de Servicios Integrado de banda ancha (RDSI-BA). ATM es la base de B-ISDN. B-ISDN es un sucesor de ISDN (de banda estrecha) que define como proporcionar la comunicación entre casas y oficinas basándose en conmutación de circuitos, en incrementos de 64 Kbps. B-ISDN usa ATM y la red física SONET para difundir datos con una velocidad de transferencia entre 155 Mbps y 622 Mbps, junto con diversos servicios al cliente. Se vive en una época de cambios continuos, en donde cada día aparecen nuevas tecnologías y nuevas soluciones a los mismos problemas, cada uno de ellos superando a los anteriores y “predestinados” a ser la tecnología o solución del futuro. Este fenómeno se da en todos los campos de la teleinformática y así vemos que los medios de transmisión cada vez soportan un mayor ancho de banda, los sistemas de conmutación son muchos mas rápidos y con mayor capacidad, los dispositivos multimedia tratan cualquier tipo de información, etc.; en definitiva, parecer ser que como no adquiramos la tecnología por venir estamos realizando una elección inadecuada. Lo mismo ocurre con la compra de computadoras personales nuevas, la diferencia esta en que, en el caso de las redes, no se cambia una red por otra de la noche a la mañana y su coste no es una minucia. La elección de la red es una decisión


estratégica que afecta a la competitividad del propio negocio y debe ser cuidadosamente estudiada y tomada. Entonces, no es necesario elegir la ultima tecnología, la regla es elegir la penúltima. La elección de la tecnología adecuada (la más eficaz), capaz de satisfacer las necesidades presentes y futuras, es por tanto un factor clave para obtener competitividad y costos acotados. Teniendo esto en cuenta resulta que la conmutación de paquetes se presenta en términos generales como la tecnología mas adecuada para las redes WAN, ya que presenta una gran estabilidad y al mismo tiempo tiene la flexibilidad suficiente para adpatarse a las nuevas necesidades, aunque requiere, cada cierto tiempo, de actualizaciones. Se demostró que X.25 es una solución muy eficiente para la integración de aplicaciones, incluyendo aquellas que manejan trafico en ráfagas (LANs); sin embargo presenta el grave inconveniente del retardo que introduce al procesar la información en cada nodo, lo que la hace inadecuada para el trafico de voz y video. Esta es la razón por la que se habrá de reemplazar X.25 por otra tecnología, como ATM. Mientras tanto, y para mantenerse en punta X.25 se apoya en Frame Relay que, al tratar solo los dos primeros niveles OSI (X.25 lo hace en tres) y dejar la validación de la información a los extremos, consigue una mayor velocidad de transferencia, aunque requiere el uso de líneas digitales en lugar de analógicas. Es una realidad que Frame Relay fue aceptada como la solución más eficiente para la interconexión de LANs a través de WANs, pudiendo ofrecer conexiones de hasta 34 Mbps, en franca competencia frente a las soluciones basadas en routers y líneas punto a punto. Si bien el retardo de las redes Frame Relay es mucho menor que X.25, este continua siendo variable (por sus tramas de longitud variable), lo que lo hace inadecuado para la transferencia, con cierta calidad, de voz o imágenes en movimiento. Aquí es donde se aprecian la ventajas de Cell Relay (ATM) que al manejar celdas de longitud fija (53 bytes), utilizando técnicas de multiplexación similares a la conmutación de paquetes y operando a velocidades de Mbps y Gbps presenta las ventajas de las primeras sin sus inconvenientes; sin embargo este hecho por si solo no es suficiente, ya que la red además debe permitir su operación y control aportando el grado de servicio requerido en cada momento. ATM presenta el potencial para satisfacer los requerimientos actuales, aunque adolece de algunas facilidades. Por otro lado, RDSI BE entra en competencia con las tres tecnologías anteriores, pero su campo de aplicación parece ser que se centra en los servicios avanzados de voz (por ser estos los tradicionales de las PTT, de donde viene RDSI) y, aunque puede proporcionar servicios de datos, ya que no distingue la fuente de información, no suele tenerse en cuenta para la implantación de las redes corporativas. En el contexto de todas las demandas que debe atender la red, a veces puede parecer que el enlace WAN es mas un problema que una solución. A pesar de los desorientados que en ocasiones pueda estar el administrador de la WAN, esto no es cierto. Cuando se toma un poco de tiempo para seleccionar cuidadosamente el protocolo y/o el servicio, seleccionar la cantidad adecuada de ancho de banda y lograr proveedores de servicio y equipos experimentados e inteligentes, el enlace WAN puede ser la parte más robusta de la red. Como conclusión final se podría decir que la historia WAN empezó con redes X.25 y líneas dedicadas, líneas de acceso discado y satélites, luego aparecieron las redes Frame Relay, SMDS, RDSI-BE y las primeras RDSI-BA (en las que estamos actualmente) para tender finalmente hacia redes de banda ancha como ser ATM, RDSI-BA, las jerarquías digitales síncronas (SDH) y como plataforma física SONET. Sumado a esto ultimo se mejoraron los accesos WAN utilizando líneas de abonado digitales (xDSL y cable módems) y equipos de conmutación multiprotocolos (hasta de capa 3) y el núcleo de la WAN se fue haciendo solo de conmutación (es decir una WAN pura, como se la definió en el capitulo 1) relevado a los dispositivos de capa 3 (routers) hacia la periferia del entorno WAN.


El futuro WAN nos depara tecnologías que en muchos casos no están ampliamente implementadas y probadas, por lo que no se tuvieron en cuenta en el presente trabajo. Tal vez, en un futuro cercano. Entre estas tecnologías se cita MPLS (Conmutación de Etiquetas Multiprotocolo), redes fotónicas en capas superiores, conmutación rápida en capas superiores, etc.

EELLLAAAUUUTTTO O R OR R


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

N WO OR RK KIIN NG GB NEETTW BÁÁSSIICCOO 11.. IINNNTTTRRRO O D U C C Ó N OD DU UC CC CIIIÓ ÓN N Las nuevas prácticas de negocios están provocando grandes cambios en las redes empresariales. Los empleados en las sedes corporativas y en las oficinas de todo el mundo, así como las personas que trabajan en sus casas, necesitan acceso inmediato a los datos, sin importar si los datos se encuentran en servidores centralizados o departamentales. Las organizaciones como empresas, agencias, escuelas, etc., que unen entre sí sus servidores de archivos, informática y comunicación de datos, necesitan: • LAN interconectadas que brinden acceso a las computadoras o servidores de archivo en otras ubicaciones. • ancho de banda mayor en las LAN para satisfacer las necesidades de los usuarios finales. • tecnologías que se puedan aplicar para el servicio de las WAN. Para mejorar la comunicación con sus asociados, empleados y clientes, las empresas están implementando nuevas aplicaciones, tales como el comercio electrónico, videoconferencias, voz sobre IP y aprendizaje a distancia. Las empresas están fusionando sus redes de voz, vídeo y datos en redes empresariales mundiales, que son fundamentales para el éxito comercial de la organización. Las redes empresariales se encuentran diseñadas y desarrolladas para servir de apoyo para las aplicaciones actuales y futuras. Para adaptarse a los crecientes requisitos de ancho de banda, escalabilidad y confiabilidad, los fabricantes y las organizaciones de normalización presentan nuevos protocolos y tecnologías casi constantemente. Los diseñadores de redes se ven obligados a desarrollar redes de tecnología avanzada, aunque lo que se considera avanzado tal vez cambie en cuestión de meses, sino semanas. En tan solo unos años las redes de computadoras han pasado de ser algo esotérico solo conocido y utilizado por unos pocos a ocupar un primer plano en cualquier medio informativo de carácter general. Quizá el protagonismo que actualmente se da a términos como Internet, Autopistas de la información o Aldea global sea más fruto de las modas que de una necesidad real, pero no cabe duda que dichos términos (o al menos las ideas que representan) tendrán un interés creciente en los años venideros y permanecerán con nosotros durante bastante tiempo. Se puede hacer un cierto paralelismo entre la explosión de la Telemática en la década de los noventa y el auge de la Informática personal en los ochenta; sin embargo a pesar de su importancia la aparición del PC no parece comparable a la revolución que está protagonizando la Telemática; la razón estriba en que, a pesar de todo, la PC aislada es hasta cierto punto un producto minoritario, mientras que los sistemas multimedias de los noventa conectados a las redes se convertirá en una fuente de información y entretenimiento de interés para el público en general (un ejemplo de esto último son los recientemente conocidos como set-top boxes desarrollados por empresas como Philips, Sony o Nokia, que son aparatos que se conectan a la red de datos y al televisor doméstico y que son de fácil manejo). Los precios de la informática, en economías normales, vienen sufriendo desde hace bastantes años una disminución exponencial. El precio del espacio en disco (pesos/MB) se reduce a la mitad aproximadamente cada 1,5 años, el de la potencia de procesador (pesos/MIP) cada 2 años, y el de la memoria RAM (pesos/MB) cada 1 año. Como comparación el precio de la transmisión de datos (medido en pesos/Mbps/Km) se reduce a la mitad cada 1,5 años aproximadamente, es decir, esta teniendo una disminución aun mayor que las tecnologías informáticas. Las investigaciones y desarrollos en materia de transmisión de datos hacen prever que dicha tendencia se mantendrá en el futuro. Además de los factores tecnológicos en los precios de los servicios telemáticos influyen aspectos legales que en ocasiones alteran la situación de manera importante. Por ejemplo en España, como en otros países de Europa, la decisión de liberalizar las telecomunicaciones en 1998 está produciendo un abaratamiento de los precios gracias a la libre competencia, que de forma transitoria hará aun mayor la reducción que cabría esperar de los factores puramente tecnológicos. 1.1. Objetivo del trabajo La investigación pretende dar una formación media/avanzada en los aspectos técnicos y de diseño de la comunicación entre computadoras, desde una conexión entre dos o más computadoras, ubicadas en un mismo lugar T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

(LAN), hasta la conexión de equipos de rango medio y de rango amplio (MAN/WAN) utilizados para que se comuniquen muchas computadoras distribuidas a lo largo de un área geográfica muy extensa (WAN/GAN). Se pretende el conocimiento necesario para poder diseñar adecuadamente una red informática para una empresa, atendiendo a criterios de coste, prestaciones y necesidades. Se debería poder comprender la descripción técnica o documentación de un producto de comunicaciones, así como artículos de la literatura especializada. En toda área de conocimiento técnica existe una profusión de siglas para referirse a términos, conceptos o incluso a frases concretas. La telemática es especialmente rica en este sentido, y el conocimiento del significado de tales abreviaturas es necesario para la comprensión de la literatura técnica. Siempre que un término o concepto disponga de una abreviatura habitual se la indicará junto con su significado (casi siempre en inglés) la primera vez que aparezca. El conocimiento del significado de las siglas es como su ‘etimología’, y forma parte de la ‘cultura general’ que todo profesional informático debería tener. 1.2. Que no es objetivo del trabajo Actualmente existen muchos “especialistas”’ que son capaces de diseñar casi cualquier red, conocen todos los servicios existentes y están al tanto de la última tecnología o aplicación aparecida. Conviene destacar que no es el objeto de esta investigación crear tales especialistas, por tres razones: • El investigador no está capacitado para ello, • La información contenida en la investigación (si bien la mayoría es de aplicabilidad general) no sería susceptible de incluirse en un curriculum profesional ya que para cuando la persona se iniciara profesionalmente sería ya obsoleta, y • No es el único tipo de formación que se espera para un especialista, es más bien una base general para poder decidir luego una especialización específica. En cierto modo podríamos decir, siguiendo la típica analogía de las “autopistas de la información”, que dichos “especialistas” son muy buenos conductores, pero lo que aquí pretendemos no es obtener el carnet de conducir sino aprender a diseñar carreteras y vehículos para que el tráfico sea lo más fluido (y seguro) posible. Que no exista duda que nunca le vendrá mal a un profesional saber conducir bien, y en este sentido se estimula al mismo a realizar tantas “prácticas de conducción” como le sea posible tanto durante sus estudios como después en su futura actividad profesional. Tampoco es objeto de este trabajo introducir a la persona en los aspectos legales, comerciales o políticos del mundo de las telecomunicaciones, que son motivo de noticia casi diaria en los medios de comunicación, tanto en el ámbito nacional como internacional.

22.. TTEEELLLEEECCCO O M U N C A C O N E E N F O R M Á T C A U N P O C O D E H T O R A OM MU UN NIIIC CA AC CIIIO ON NE ESSS E E IIN NF FO OR RM MÁ ÁT TIIIC CA A:: U UN NP PO OC CO OD DE EH HIIISSST TO OR RIIIA A........ Se entiende por Telecomunicaciones el conjunto de medios técnicos que permiten la comunicación a distancia. Normalmente se trata de transmitir información sonora (voz, música) o visual (imágenes estáticas o en movimiento) por ondas electromagnéticas a través de diversos medios (aire, vacío, cable de cobre, fibra óptica, etc.). La información se puede transmitir de forma analógica, digital o mixta, pero en cualquier caso las conversiones, si las hay, siempre se realizan de forma transparente al usuario, el cual maneja la información de forma analógica exclusivamente. En sus comienzos, las ciencias de las Telecomunicaciones (originario de los vocablos griegos tele y comunicación) y de la Informática desarrollaron sus caminos en forma independiente. Así, en las dos primeras generaciones de computadoras las máquinas eran capaces de ejecutar solamente un proceso y, generalmente, con dispositivos periféricos relativamente limitados. En la tercera generación, que aparece en la segunda mitad de la década de los sesenta, es cuando se hace realidad la posibilidad de la utilización y proceso de la información a distancia; ya en la cuarta generación es cuando comienza a hacerse patente la confluencia entre las Telecomunicaciones y la Informática. Esta unión da origen al concepto de Teleinformática o Telemática, que desde el punto de vista de los elementos que interviene puede definirse como “el conjunto de máquinas, técnicas y métodos relacionados entre sí que permiten el proceso de datos a distancia y que participan en la convergencia entre las Telecomunicaciones y la Informática”, o bien que “es la ciencia que trata la conectividad y comunicación a distancia entre procesos (conjunto de instrucciones que se ejecutan en una computadora)”. Es decir trata del uso de las telecomunicaciones para enriquecer las posibilidades de la informática (y no al revés), es decir, del uso de medios de comunicación a distancia para conexiones informáticas (computadora-computadora o computadora-periférico). Las telecomunicaciones engloban a los sistemas de comunicación telegráfica o radioeléctrica y demás análogos, extendiéndose a otros diferentes medios. La “comunicación a distancia” ha existido desde hace muchos años, tantos como la necesidad de hacerlo. Las telecomunicaciones comenzaron en 1830 con la utilización del Telégrafo. Más tarde, en 1876 Graham Bell inventó el Teléfono con el que comenzó a comunicación de la voz a distancia. Al principio las conexiones entre usuarios se realizaban directamente, pero ello solo resultaba viable si T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

eran entre unos pocos (N), ya que de otra manera el número de conexiones (M) resultaba extraordinario, según la fórmula: M=N*(N-1)/2. Surgen así en 1878 las primeras centrales de interconexión, a las que llegaban los pares de abonados, que a partir de 1892 pasan a ser automáticas (switchboard). En 1910 hace su aparición el Teletipo o Teleimpresor que permitía enviar mensajes formados por caracteres de 7 bits, enviados de a uno. Ya en 1950, con la aparición del modem, comenzaron los primeros intentos de transmisión de datos entre computadoras, y para 1958 aparece el primer proyecto teleinformático. En 1971 aparece la red Arpanet, que daría origen a la red Internet y al conjunto de protocolos denominados TCP/IP. En 1974, le empresa IBM configura la primera arquitectura teleinformática para sistemas distribuidos denominada System Network Architecture (SNA), siguiéndole la denominada Digital Network Architecture (DNA) de la empresa DEC. Esta década de los setenta se caracteriza también por el auge que toma la normalización. En 1976, el Comité Consultivo Internacional Telefónico y Telegráfico (CCITT) normalizó las redes de conmutación de circuitos (norma X.21) y las redes de conmutación de paquetes (norma X.25). En 1977, la Organización de Estándares Internacionales (ISO) modela y normaliza la interconexión de computadoras creando el modelo de referencia básico para la Interconexión de Sistemas Abiertos (OSI). Hacia 1978 hacen su aparición las Redes de Área Local (LAN), que con la popularización de las computadoras personales (PC), en la década del 80’, permiten el desarrollo de Servicios de Valor Añadido (Teletex, Telefax, Videotex, etc).

33.. TTEEERRRM M N O L O G A B Á C A D E N E T W O R K N G MIIIN NO OL LO OG GÍÍÍA AB BÁ ÁSSSIIIC CA AD DE EN NE ET TW WO OR RK KIIIN NG G 3.1. Redes y networking Una red es un sistema de objetos o personas conectados de manera intrincada. Las redes están en todas partes, incluso en nuestros propios cuerpos. El sistema nervioso y el sistema cardiovascular son redes. El diagrama de racimo de la figura muestra algunos tipos de redes. El networking o red surgió como resultado de las aplicaciones creadas para las empresas. Sin embargo, en el momento en que se escribieron estas aplicaciones, las empresas poseían computadores que eran dispositivos independientes y cada uno operaba de forma individual, independientemente de los demás computadores. Muy pronto se puso de manifiesto que esta no era una forma eficiente ni rentable para operar en el medio empresarial. Las empresas necesitaban una solución que resolviera con éxito las tres preguntas siguientes: 1. cómo evitar la duplicación de equipos informáticos y de otros recursos 2. cómo comunicarse con eficiencia 3. cómo configurar y administrar una red Las empresas se dieron cuenta de que podrían ahorrar mucho dinero y aumentar la productividad con la tecnología del networking. Empezaron agregando redes y expandiendo las redes existentes casi tan rápidamente como se producía la introducción de nuevas tecnologías y productos de red. Como resultado, a principios de los 80, se produjo una tremenda expansión del networking y sin embargo, el temprano desarrollo de las redes resultaba caótico en varios aspectos. A mediados de la década del 80, comenzaron a presentarse los primeros problemas emergentes de este crecimiento desordenado. Muchas de las tecnologías de red que habían emergido se habían creado con una variedad de implementaciones de hardware y software distintas. Por lo tanto, muchas de las nuevas tecnologías no eran compatibles entre sí. Se tornó cada vez más difícil la comunicación entre redes que usaban distintas especificaciones. Una de las primeras soluciones a estos problemas fue la creación de Redes de Area Local (LAN). Como eran capaces de conectar todas las estaciones de trabajo, dispositivos periféricos, terminales y otros dispositivos ubicados dentro de un mismo edificio, las LAN permitieron T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

5 5 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

que las empresas utilizaran la tecnología informática para compartir de manera eficiente archivos e impresoras. A medida que el uso de las computadoras en las empresas aumentaba, pronto resultó obvio que incluso las LAN no eran suficientes. En un sistema de LAN, cada departamento, o empresa, era una especie de isla electrónica. Los que se necesitaba era una forma de que la información se pudiera transferir rápidamente y con eficiencia, no solamente dentro de una misma empresa sino de una empresa a otra. Entonces, la solución fue la creación de Redes de Área Metropolitana (MAN) y Redes de Área Amplia (WAN). Como las WAN podían conectar redes de usuarios dentro de áreas geográficas extensas, permitieron que las empresas se comunicaran entre sí a través de grandes distancias. Las WAN conectan entre sí a las LAN. Las LAN y las WAN utilizan protocolos como lenguaje para permitir que las computadoras y los dispositivos de networking se comuniquen entre sí. Las LAN y/o las WAN también se pueden conectar entre sí mediante Internetworking. 3.1.2. Formatos de Información Los datos e información de control que se transmiten a través de las interredes toman una amplia variedad de formas. Los términos usados para referirse a éstos formatos de información no se usan de forma consistente en la industria del internetworking pero a veces se usan intercambiablemente. Los formatos de información comunes incluyen marcos o frames, paquetes, datagramas, segmentos, mensajes, célula o celdas y unidad de datos (PDU, Protocolo Data Unit). Un marco o frame es una unidad de información cuya fuente y destino son entidades de la capa de enlace de datos. Un marco está compuesto por el header de la capa de enlace de datos (y posiblemente un trailer) y datos de las capas superiores. El header y el trailer contienen información del control pensada para la entidad capa de enlace de datos del sistema destino. Los datos de las entidades capas superiores se encapsula en el header y trailer de la capa de enlace de datos. Un paquete es una unidad de información cuya fuente y destino son entidades de la capa de red. Un paquete está compuesto del header de la capa de red (y posiblemente un trailer) y datos de la capa superior. El header y el trailer contienen información del control pensada para la entidad capa de red en el sistema destino. Los datos de las entidades capas superiores se encapsulan en el header y trailer de la capa de red. El término datagrama normalmente se refiere a una unidad de información cuya fuente y destino son entidades de la capa de red que usan servicios de red sin conexión (connectionless). El término segmento normalmente se refiere a una unidad de información cuya fuente y destino son entidades de la capa de transporte. Un mensaje es una unidad de información cuyas entidades fuente y destino existen por arriba de la capa de red (a menudo la capa de aplicación). A veces un mensaje es también usado para referirse a una unidad de información de las capas bajas con un propósito especifico y bien definido. Una célula o celda es una unidad de información de un tamaño fijo cuya fuente y destino son entidades de la capa de enlace de datos. Se usan celdas en ambientes conmutados, como ser redes ATM (Modo de Transferencia Asíncrono) y SMDS (Servicio de Datos Multimegabit Conmutado). Una celda está compuesta del header (cabecera) y del payload (carga útil) . El header contiene información de control pensada para la entidad capa de enlace de datos destino y es típicamente de 5 bytes de longitud. El payload contiene datos de la capa superior que se encapsulan en el header de la célula y es típicamente de 48 bytes de longitud. La longitud del header y del campo payload siempre es exactamente el mismo para cada célula. La unidad de datos es un término genérico que se refiere a una variedad de unidades de información. Algunas unidades de datos comúnes son: unidades de datos de servicio (SDUs, Service Data Units), unidades de datos de protocolo y unidades de datos de protocolos puentes (BPDUs, Bridge Protocol Data Units). Los SDUs son unidades de información del protocolo de la capa superior que definen una demanda de servicio a un protocolo de capa más baja. PDU es una terminología OSI para un paquete. Los BPDUs son usados por el algoritmo expansión del árbol como mensajes de saludos. 3.1.2.1. Origen, destino y paquetes de datos El nivel básico de información por computadora se compone de dígitos binarios o bits (0 y 1). Luego de que un bit llega a un medio, se propaga y puede sufrir atenuación, reflexión, ruido, dispersión o colisión. Sin embargo, siempre se desea transmitir mucho más que un bit. En realidad el objetivo es transmitir miles de millones de bits por segundo. Todos los efectos descritos hasta el momento que pueden ocurrir con un bit se aplican a las diversas unidades de datos del protocolo (PDU) del modelo OSI. Ocho bits equivalen a 1 byte. Múltiples bytes equivalen a una trama. Las tramas contienen paquetes. Los paquetes transportan el mensaje que usted desea comunicar. Los profesionales de networking a menudo hablan acerca de tramas y paquetes atenuados, reflejados, ruidosos, dispersos y con colisiones Las computadoras que envían uno o dos bits de información, sin embargo, no serían demasiado útiles, de modo que se necesitan otras agrupaciones: los bytes, kilobytes, megabytes y gigabytes. Para que las computadoras T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

6 6 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O puedan enviar información a través de una red, todas las comunicaciones de una red se inician en el origen, luego viajan hacia su destino. La información que viaja a través de una red se conoce como paquete, datos o paquete de datos. Un paquete de datos es una unidad de información, lógicamente agrupada, que se desplaza entre los sistemas de computación. Incluye la información origen junto con otros elementos necesarios para hacer que la comunicación sea factible y confiable en relación con los dispositivos destino. La dirección origen de un paquete especifica la identidad del computador que envía el paquete. La dirección destino especifica la identidad del computador que finalmente recibe el paquete. 3.1.3. La relación entre la NIC y la PC

El componente más básico de una red es la computadora. Se puede pensar en los componentes internos de un PC como una red de dispositivos, todos conectados al bus del sistema. En cierto sentido, un PC constituye en sí misma una pequeña red informática. Muchos dispositivos del networking son en realidad computadoras con fines especiales, con muchas piezas similares a las de un PC “normal”. Una tarjeta de interfaz de red (NIC, Network Interfase Card) es una placa de circuito impreso que proporciona las capacidades de comunicación de red hacia y desde un computador personal. También se denomina adaptador de LAN; se enchufa en la motherboard y proporciona un puerto de conexión a la red. Esta tarjeta se puede diseñar como una tarjeta Ethernet, una tarjeta Token Ring o una tarjeta de Interfaz de Datos Distribuida por Fibra (FDDI). Una tarjeta de red se comunica con la red a través de una conexión serial y con la computadora a través de una conexión paralela. Cada tarjeta requiere una IRQ, una dirección de E/S y una dirección de memoria superior con DOS o Windows 95/98. Una IRQ o línea de petición de interrupción, es una señal que informa a la CPU que se ha producido un evento al cual se debe prestar atención. Se envía una IRQ a través de una línea de hardware al microprocesador. Un ejemplo de petición de interrupción es cuando se presiona una tecla en el teclado; la CPU debe desplazar el carácter del teclado a la memoria RAM. Una dirección de E/S es una ubicación en la memoria que se utiliza para introducir o retirar datos de un computador mediante un dispositivo auxiliar. En los sistemas basados en DOS, la memoria superior hace referencia al área de memoria situada entre los primeros 640 Kilobytes (KB) y 1 Megabyte (MB) de RAM. Al seleccionar una tarjeta de red, debe tener en cuenta los tres factores siguientes: a) tipo de red (por ejemplo, Ethernet, Token Ring o FDDI) b) el tipo de medios (por ej., cable de par trenzado, cable coaxial o fibra óptica) c) tipo de bus del sistema (por ejemplo, PCI o ISA) La NIC permite que hosts se conecten a la red y se considera por lo tanto un componente clave. En las notebooks y laptops las ranuras de expansión se vuelven ranuras PCMCIA, donde las NIC, módems, discos duros y otros dispositivos útiles, generalmente del tamaño de una delgada tarjeta de crédito se insertan. 3.1.4. Sistemas Numéricos Para ejecutar las aplicaciones de software, la computadora debe convertir el código del software al formato binario y luego transformar el formato binario en un lenguaje comprensible. Las computadoras operan con switches electrónicos que se encuentran “encendidos”" o “apagados”, correspondientes a 1 ó 0. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

7 7 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

Las computadoras no utilizan el sistema de numeración decimal como lo hacen los seres humanos, debido a que los dispositivos electrónicos se encuentran estructurados de tal manera que la numeración binaria es natural: las computadoras deben “traducirla” para poder utilizar la numeración decimal. Las computadoras sólo pueden comprender y procesar datos que aparecen en formato binario, representados por ceros y unos. Estos ceros y unos representan los dos estados posibles de un componente electrónico y se denominan dígitos binarios o bits. La representación del número binario de muchos teclados y caracteres de control aparecen en el esquema del Código Americano Normalizado para el Intercambio de Información (ASCII). ASCII es uno de varios sistemas de codificación de caracteres utilizados en las LAN. Veremos dos sistemas numéricos: 1. Sistema numérico decimal o de Base 10: se denomina asi debido a que utiliza diez símbolos, y combinaciones de estos símbolos, para representar todos los números posibles. Los dígitos 0, 1, 2, 3, 4, 5, 6, 7, 8 y 9 conforman el sistema de Base 10. Un sistema numérico decimal se basa en potencias de 10. Cada símbolo o dígito representa el número 10 (número de base) elevado a una potencia (exponente), de acuerdo con su posición. Ejemplo: 2134 = (2x103) + (1x102) + (3x101) + (4x100). 2. Sistema numérico binario o de base 2: usa sólo dos símbolos, 0 y 1, en lugar de los diez símbolos que se utilizan en el sistema numérico decimal. La posición o lugar de cada dígito representa el número 2 – el número base – elevado a una potencia (exponente), basada en su posición (20, 21, 22, 23, 24, etc.). Los sistemas basados en dos niveles de voltajes (binario dicreto) diseñados para transistores son enormemente diversificados, poderosos económicos e inmunes al ruido. 3.1.5. Bits y bytes Los bits son dígitos binarios; estos dígitos son ceros o unos. En una computadora, estos están representados por la presencia o la ausencia de cargas eléctricas. Ejemplo: • binario 0 puede estar representado por 0 voltios de electricidad (0 = 0 voltios). • binario 1 puede estar representado por +5 voltios de electricidad (1 = +5 voltios). Un grupo de 8 bits es igual a 1 byte, que puede representar entonces un solo carácter de datos, como ocurre en el código ASCII. Además, para las computadoras, 1 byte representa una sola ubicación de almacenamiento direccionable. 3.1.6. Factores a tener en cuenta en networking Son muchos y variados los factores a tener en cuenta al plantearse la conexión de unas redes con otras, todos ellos importantes en función de la estrategia de la compañía de que se trate, por lo que se destacarán los puntos generales que se deben considerar: a) Red pública o red privada: esta opción se plantea siempre en términos de eficacia y rentabilidad de una frente a la otra, ya que en sus aspectos técnicos pueden ser similares. Depende también en gran medida de la oferta existente en cada país y de la capacidad de la propia empresa en gestionar su red; no cabe duda de que el control que se tiene en caso de elegir una red privada es mucho mayor, además de constituir una solución a la medida, pero, por contra, se plantea el tema de su gestión, que necesita de unos conocimientos y recursos no siempre disponible, que en el caso de una red pública no suele plantear problemas. b) Red integrada o redes separadas: cualquier empresa dispone de comunicaciones de voz y de datos. Tradicionalmente, éstas han sido redes separadas y gestionadas por departamentos diferentes, por lo que resulta muy difícil romper esta tendencia. Hoy en día, la tecnología digital permite la integración de ambas sin ningún problema, ya que se puede transportar la información en forma independiente a su origen (voz, datos, video, imágenes, etc) utilizando los mismos medios de transmisión. Un ejemplo de red integrada lo constituye la RDSI (ISDN). El Cableado Estructurado, en este caso, es un requisito indispensable para facilitar los cambios de ubicación. c) Ámbito de cobertura: a la hora de proceder al diseño de una red corporativa existen dos posibilidades para ello, una, crear una sola red que dé servicios a todos los usuarios, y dos, crear redes más pequeñas que den servicio a un determinado grupo concentrado en un área geográfica limitada, interconectadas entre si. Así, por ejemplo, se puede crear una red de área extensa (WAN), sin limite de cobertura, o redes locales (LAN) para cubrir un departamento o edificio, interconectadas entre si a través de la WAN o de enlaces punto-a-punto, empleando routers o bridges. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

8 8 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III d)

e)

f)

g)

h)

i)

j)

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

Arquitectura abierta o cerrada: son evidentes las ventajas de tener una red abierta y conforme a estándares frente a una red cerrada. Sin embargo, por razones históricas las segundas surgen antes, con lo que su difusión es muy amplia y no pueden ser sustituidas de una día para otro. El ejemplo clásico de una red cerrada los constituye las redes con arquitectura SNA de IBM, y el de una red abierta, conforme al modelo OSI de ISO, las redes públicas de conmutación de paquetes CCITT X.25 ofrecidas por la mayoría de los operadores públicos europeos. Por otra, la difusión de protocolos tales como UNIX, frente a otros propietarios, favorece cada vez más la creación de redes abiertas. Arquitectura centralizada o distribuida: en este punto es fácil ponerse de acuerdo, ya que cada tipo de negocio se presta más a una que a otra, aunque de manera general, la tendencia que hoy impera es la de una arquitectura distribuida, frente a la centralizada de la década de los 70’. La aparición de sistemas informáticos más potentes y barato, el desarrollo de aplicaciones cliente/servidor, las bases de datos distribuidas, etc, son todos factores que propician el empleo de una arquitectura distribuida. Desde el punto de vista del diseño de la red, una de tipo distribuida es más fácil de implementar, al estar constituida por islas separadas, independizando los problemas que puedan surgir; su control se puede realizar a escala regional y permiten cambios parciales para incorporar nuevas tecnologías, minimizando el riesgo de un bloqueo total, que puede darse en el caso de disponer de una red única. Gestión de la red: si la red esta integrada podremos disponer de un sistema único de gestión de red; si es una red abierta, podremos elegir plataformas de diferentes fabricantes para su gestión (por ejemplo, soportando SNMP), pero, si es una red cerrada tendremos que limitarnos a la plataforma que nos ofrezca el proveedor y disponer de una diferente para cada red, con la complejidad que ello supone. Tecnología empleada: éste suele ser uno de los mayores dolores de cabeza que se le plantea al responsable de tomar una decisión, precisamente por la gran cantidad de alternativas que tiene, todas ellas válidas. El criterio que se ha de seguir es el de elegir la más flexible, la que permita la evolución de nuestra red conforme se presentan nuevas necesidades. En otro caso, nos podemos encontrar con una red perfecta, pero que hemos de reemplazar al cabo de dos años por no ser capaz de cubrir las nuevas demandas de los usuarios. El principal inconveniente de la interconexión radica en la dificultad que suele darse entre las personas encargadas del mismo para conocer y entender el amplio abanico de tecnologías y sistemas que se ven involucrados, y donde no siempre la tecnología más conocida es la mejor solución para nuestro problema. La evolución nos lleva a considerar con gran interés las tecnologías de banda ancha, como ATM o FDDI, que permiten el transporte de enormes cantidades de información (ancho de banda de cientos de Mbit/s) y tiempos de conmutación muy pequeños. Servicios de valor añadido: las redes se crean como soporte a un servicio, ya que por sí solas no tienen utilidad; la accesibilidad de los usuarios a todos los servicios es lo que marca la eficacia de la red. Los tipos de servicios son muchos y van en aumento (fax, correo electrónico, bases de datos, videotex, etc.); es la red la que debe permitir que desde cualquier puesto de trabajo se tenga acceso a los mismos, comportándose ésta de forma transparente al usuario, ya que, de otra manera, la complejidad del acceso podría llegar a disuadirlo de intentarlo. El tiempo de respuesta es apreciado de manera muy sensible por los usuarios, que demandan respuesta en menos de 1 o 2 segundos, por lo que si debido a la complejidad de la red este tiempo es mayor, su rendimiento puede quedar puesto en evidencia. Seguridad y fiabilidad: la seguridad presenta dos aspectos bien distintos: uno es la seguridad de acceso a las aplicaciones o a la red, y el otro, el de la disponibilidad de la misma. El primero se puede controlar por medio de filtros (claves, identificación) que impidan el acceso a personas no autorizadas, o mediante el cifrado durante el tiempo que la información sensible circula por la red. El segundo requiere de elementos sumamente fiables, lo que se consigue mediante el adecuado diseño, controles de calidad, el empleo de sistemas tolerantes a fallas y la disposición de medios alternativos de transmisión en previsión de la caída de los principales, como puede ser la RDSI. Operación y mantenimiento: una vez que la red se encuentra operativa, requerirá de ajustes para adaptarse a la incorporación de nuevos elementos o a la modificación de los parámetros de utilización; el que la supervisión, la actuación sobre los elementos de conmutación y transmisión y la incorporación de nuevas versiones de software se puedan hacer remotamente, hacerlo desde un punto central, facilita y abarata las funciones de operación y mantenimiento, al igual que sucede con los sistemas informáticos.

Hoy en día, al no existir grandes diferencias entre los equipos de uno u otro fabricantes, la mayoría de las veces la decisión por uno u otro se basa en estos criterios, siendo el Outsourcing una alternativa muy a tener en cuenta.

44.. R O M P U T A D O R A Y T E M A D T R B U D O REEEDDDEEESSS DDDEEECCCO OM MP PU UT TA AD DO OR RA ASSS Y Y SSSIIISSST TE EM MA ASSS D DIIISSST TR RIIIB BU UIIID DO OSSS La expresión redes de computadoras (o simplemente redes) se utiliza cuando, por medio de la telemática, se realiza la comunicación entre dos o más computadoras. Queda excluida aquí la comunicación entre una computadora y un periférico (terminal, impresora, etc.) independientemente de la distancia a la que dicha comunicación se produzca o el tipo de medios utilizados para ella. Dicho de otro modo, en redes de computadoras se T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

9 9 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

considera únicamente la comunicación entre elementos que pueden hablar de igual a igual (peer to peer) sin tomar en consideración la comunicación asimétrica maestro-esclavo (client/server). Un caso particular de las redes de ordenadores son los sistemas distribuidos, en los que se intenta conectar varias computadoras mediante una red y crear un entorno de utilización tal que el usuario no perciba la existencia de múltiples sistemas, sino que los maneje como un único sistema virtual de forma transparente; para esto se utilizan normalmente protocolos o aplicaciones específicos. Evidentemente si el medio de comunicación es de baja velocidad el usuario percibirá un retraso cuando acceda a un nodo remoto, por lo que generalmente los sistemas distribuidos sólo se implementan en redes de alta velocidad (redes locales por ejemplo). Un ejemplo de protocolo de sistemas distribuidos podría ser el NFS (Network File System) que permite acceso a ficheros remotos de forma transparente.

4.1. Algunos usos de las redes de computadoras Podemos diferenciar claramente dos tipos de usos o usuarios de las redes de computadoras: el profesional, que se da normalmente en la empresa, y el particular, que generalmente tiene lugar en la residencia habitual del usuario. 4.1.1. Uso de las redes en empresas Prácticamente cualquier empresa que tenga varias computadoras hoy en día tiene una red local que los interconecta. Si la empresa dispone de varias sedes u oficinas dispersas dispondrá típicamente de una red local (LAN) en cada una de ellas y de un medio de interconexión de dichas redes locales a través de enlaces telefónicos o de cualquier tipo (también llamados accesos WAN). La red o redes permiten acceder a información importante y actualizada de manera rápida, por ejemplo una base de datos que contenga toda la información comercial de la compañía (productos, stocks, precios, plazos de entrega, etc.). A menudo estas bases de datos están en uno o unos pocos ordenadores de la red, ya que la existencia de múltiples copias complica las actualizaciones. Antiguamente las aplicaciones se diseñaban para que los usuarios accedieran desde “terminales tontas o bobas” al ordenador central en el que se mantenía la base de datos y en el cual se procesaba la transacción en su totalidad, pero la aparición de redes de computadoras donde la terminal se ha convertido en un PC ha llevado a un nuevo modelo de desarrollo de las aplicaciones llamado cliente-servidor, consistente en descargar en el PC (cliente) una parte del proceso de la transacción (por ejemplo toda la labor de validación de los datos introducidos), y dejar para el ordenador central (servidor) únicamente la parte que no es posible hacer en el cliente, como por ejemplo la inclusión del nuevo registro en la base de datos. El modelo cliente-servidor reduce así de forma considerable los recursos necesarios en el ordenador central, y permite aprovechar la PC que el usuario tiene. Además así la aplicación se integra de forma mas amigable en la computadora del usuario final (mediante el uso de ventanas, interfaces gráficas, ratón, etc.). Así el uso del modelo cliente-servidor, y por tanto de las redes de ordenadores puede llegar a suponer en la práctica un ahorro en los gastos informáticos de la empresa, además de una mayor productividad de sus empleados. Por otro lado, la existencia de redes de computadoras permite a la empresa tener duplicado su servidor de base de datos, o cualquier otra información vital, de forma que en caso de fallo del software, hardware, o destrucción física del servidor la información no se vea afectada al poder los clientes seguir funcionando con el servidor de reserva. Esto se traduce en una mayor fiabilidad del sistema, aspecto imprescindible en algunas empresas (por ejemplo bancos, hospitales, cadenas de montaje de fábricas, etc.). Por supuesto para que el sistema en su conjunto sea altamente fiable es preciso duplicar no solo el servidor de base de datos, sino la propia red (elementos de conmutación, conexión, cables, etc.) de forma que no haya ningún elemento importante susceptible de fallo cuya funcionalidad no este duplicada. La red en las empresas permite compartir recursos, tales como periféricos de elevado costo (impresoras láser, scanners, plotters, filmadoras, etc.), o programas (siempre y cuando la licencia que se posee permita su uso en red) con el consiguiente ahorro de espacio en disco y sencillez de actualización. Otra utilidad importante de la red en las empresas es como medio de comunicación entre sus empleados; el correo electrónico es el servicio básico, pero otros mas avanzados se están implantando, tales como la videoconferencia o las aplicaciones que permiten compartir un documento entre varios usuarios trabajando desde ordenadores distintos. Este tipo de aplicaciones se conoce como CSCW (Computer Supported Cooperative Work, Trabajo Cooperativo Soportado por Computadoras) y también como groupware. Hasta aquí hemos discutido aplicaciones orientadas fundamentalmente al uso de la red dentro de la propia empresa (lo que actualmente se suele denominar Intranet). Dicha red puede conectarse al exterior, bien directamente o a través de un cortafuego o “firewall”, es decir, una pasarela intermedia que permita controlar el acceso (entrante y/o saliente) para evitar problemas de seguridad. Cuando la red de la empresa se conecta al exterior (normalmente a Internet) aparecen una serie de nuevas aplicaciones que le dan aun mayor utilidad, entre las que cabe destacar las siguientes: 1. Las actividades de marketing, por ejemplo se puede poner el catálogo de productos de la empresa en la red para su consulta por los clientes, con información detallada de características, precio, referencias, etc., también es posible tramitar pedidos recibidos a través de la red. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 0 10 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III 2.

3.

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

Actividades de soporte en línea, se puede responder a preguntas de los usuarios a través de la red, tanto por correo electrónico como por listas de distribución o grupos de news. En el caso de empresas de software es frecuente ofrecer a través de la red nuevas versiones de programas, sistemas operativos, parches para la resolución de problemas, etc. Las herramientas de comunicación antes mencionadas (correo electrónico, videoconferencia, CSCW, etc.) adquieren una relevancia mucho mayor cuando su uso no se limita al interior de la empresa.

Algunas empresas encuentran en Internet una manera económica de interconectar sus oficinas remotas, evitando así la contratación de líneas propias de larga distancia. 4.1.2. Uso de las redes por particulares • •

El uso de redes de computadoras por particulares tiene tres objetivos fundamentales: Acceso a información: actualmente se centra en el acceso a Internet y sobre todo a servidores Web. En torno a esto han aparecido multitud de servicios derivados del uso de la telemática para diversos fines, tales como teletrabajo, telecompra, teleenseñanza, telemedicina, etc. Comunicación: tiene lugar tanto a nivel individual (correo electrónico) como en grupos (listas de distribución, grupos de news, etc.). Esto incluye no solo información textual, sino también multimedia: sonido, imagen y vídeo. Además de estas aplicaciones asíncronas, en las que los participantes no han de coincidir en el tiempo, existen otras (llamadas isócronas) en las que si han de coincidir, como las que permiten utilizar la computadora como un teléfono, para hablar con un usuario remoto a través de la Internet; esto supone un ahorro importante en algunos casos ya que se puede hacer una llamada a un lugar remoto pagando tarifa local. También está el servicio de videoconferencia, aunque poco extendido en el ámbito particular debido a sus requerimientos de capacidad, difíciles de satisfacer con un módem telefónico. Entretenimiento: el uso con fines de entretenimiento será la gran aplicación de las redes en el futuro, pero actualmente el reto tecnológico es tan grande que para abordarlo es preciso disponer de potentes y costosos equipos, con lo que la rentabilidad es cuando menos dudosa. Se han hecho ya algunas experiencias de vídeo bajo demanda, pero las necesidades de red y de servidores para un número elevado de usuarios son tan grandes que los servicios comerciales que actualmente se ofrecen se basan generalmente en el vídeo casi bajo demanda (NVOD, Near Vídeo On Demand) donde cada transmisión es vista por un conjunto de usuarios simultáneamente.

44..22.. C Ó N D E L A R E D E D E C O M P U T A D O R A CLLLAAASSSIIIFFFIIICCCAAACCCIIIÓ ÓN ND DE EL LA ASSS R RE ED DE ESSS D DE EC CO OM MP PU UT TA AD DO OR RA ASSS Primeramente definiremos una red de computadoras como “una colección de dispositivos de comunicación interconectados y autónomos”, .... dispositivos de comunicación: cualquier sistema que transmita o reciba datos (en cualquiera de sus formas: voz digital, video, etc.). Un dispositivo de comunicación puede ser un mainframe, una minicomputadora, una PC, un teléfono, una televisión; .... interconectados: indica que ese dispositivo puede intercambiar datos acertadamente. La interconexión puede ser sobre algún medio físico, como cable coaxial o fibra óptica, o a través de satélites, láseres o microondas. .... autónomos: los dispositivos de la red son “crash-independent”, esto es, la falla de dispositivo no debería causar la inoperabilidad de cualquier otro. Esto específicamente excluye de la definición a sistemas del tipo “maestro/esclavo” o “cliente-servidor”. ¿Para qué se usan las redes? * Compartir recursos, especialmente la información (los datos). * Proveer confiabilidad: más de una fuente para los recursos. * La escalabilidad de los recursos computacionales: si se necesita más poder computacional, se puede comprar un cliente más, en vez de un nuevo mainframe. * Comunicación. Las redes pueden de computadoras pueden clasificarse de diversas formas: sobre la base de su aplicación primaria, de acuerdo a su velocidad, de acuerdo a la tecnología de transmisión o en función de su área de cobertura o alcance geográfico. Teniendo en cuenta la tecnología de transmisión: * Broadcast: un solo canal de comunicación compartido por todas las máquinas. Un paquete mandado por alguna máquina es recibido por todas las otras. * Point-to-point: muchas conexiones entre pares individuales de máquinas. Los paquetes de A a B pueden atravesar máquinas intermedias, entonces se necesita del ruteo (routing) para dirigirlos. Teniendo en cuenta la escala o tamaño se tiene la siguiente clasificación: T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 1 11 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III 1.

2.

3.

4.

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

LAN (Local Área Network - Redes de Área Local): abarcan una oficina, edificio, predio o campus. Se tiene alta velocidad: 4-10-16-100-155 Mbps (FDDI, Ethernet, Token Ring, ATM). Con ATM las velocidades trepan a 2 Gbps. Un tipo especial de LAN es la High-Speed Local Network (HSLN, Red Local de Alta Velocidad), usualmente localizada en un mismo ambiente (hasta 1 Km) para interconectar un pequeño número de computadoras y periféricos a más de 100 Mbps (ESCON, HIPPI). Normalmente, la tecnología es de broadcast, usa un solo cable con todas las máquinas conectadas. El tamaño es restringido, así el tiempo de transmisión del peor caso es conocido. Velocidades típicas: de 10 a 1000 Mbps. MAN (Metropolitan Área Network - Redes de Área Metropolitana): es un subconjunto de una WAN, abarcan una ciudad o un gran campus. Se la puede considerar como en el medio de las LANs y las WANs y representa la primer posibilidad para permitir enlazar tecnologías y servicios entre las LANs y las WANs. En general, una MAN abarca un área geográfica más vasta que una LAN, pero cubre un área geográfica más pequeña que una WAN. Se tiene media y alta velocidad: 1,5/2-34/45-100-155 Mbps. (FDDI, DQDB, SMDS, ATM). Es una red que se extiende 150 Kms. o menos. A las redes más grandes se las suele llamar Redes de Empresa o Redes Corporativas. WAN (Wide Área Network - Redes de Área Amplia): abarcan una región, provincia/s, país o conjuntos de países vecinos. La tecnología WAN, a veces llamada Long Haul Networks (Redes de Gran Alcance), proporcionan comunicaciones que cubren grandes distancias. Muchas tecnologías WANs no tienen un límite de distancia de recorrido por lo que su velocidad tampoco es fija (una WAN puede permitir que dos puntos inmediatamente lejanos se comuniquen (por ej. a través de un océano). Se tiene baja y media/alta velocidad: 9,6-64 Kbps-2 Mbps-45 Mbps. (PSTN, PSDN, ISDN, T1, T3). GAN (Global Área Network - Redes de Área Mundial): abarcan todo el planeta. Ej. Internet.

Mientras que la distinción geográfica entre redes de área “local” y “amplia” implica una diferencia en la distancia que existe entre los nodos de red, este no siempre es el caso. Por definición, una WAN es una red pública regulada por el gobierno o una red propietaria privada que atraviesa un ambiente de red publica. Esta definición no especifica si el área que se enlaza es a través del país o a través de una calle. Esto se aclara porque si la separación geográfica (larga o corta) atraviesa un ambiente publico, se requerirá una WAN para hacer la conexión (así tenga que atravesar solamente por una calle). En nuestro país se están dando estos casos. A pesar de la existencia de los conceptos de redes MAN y GAN, a éstas se las suele incluir en la categoría de redes WAN. Esto se debe a que existen marcadas diferencias entre las características de una red LAN y del resto. Se debe destacar en esta clasificación los medios que permiten la interconexión entre ellos: ♦ Bridge, router, gateway: proporcionan la conexión, cambio de medios, enrutamiento, comunicación, etc. para las LANs en las MANs y WANs. Estos dispositivos permiten otro concepto de redes denominado Internetworking, que es la Interconexión de Redes vinculadas por gateways, routers, bridges, PADs, CSU/DSU, etc. (la Internet es un ejemplo de una interred); pero como se dijo anteriormente se hará distinción únicamente entre redes LANs y WANs, englobando, de este modo, dentro de WAN a todas aquellas redes no LAN. Nota: tratando de aclarar la clasificación de redes WANs, se puede decir que en el presente trabajo existirán dos subclasificaciones de WAN: por un lado aquellas que conforman una WAN pura u homogénea (por ejemplo, una WAN cuyo núcleo sea un centro de conmutación puro), y por otro lado una WAN híbrida o heterogénea, conformada o construida por medio de dispositivos de Interconexión de redes, es decir una Internetworking (por ejemplo una WAN conformada con dispositivos de interconexión, routers, bridges, gateways y aún switches, interconectando LANs distantes u otras WANs, sean estas puras o híbridas. La combinación de los dos criterios anteriores nos permite crear una matriz con cuatro categorías posibles; en la práctica existen redes en cada una de estas cuatro categorías, si bien la mayoría encajan en dos de ellas:

Broadcast Punto a punto

LAN La mayoría de las LANs (Ethernet, FDDI, Token Ring, etc.), Fibre Channel HIPPI, Fibre Channel, LANs Conmutadas

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

WAN Redes de transmisión vía satélite La mayoría de las WANs (todas las basadas en enlaces telefónicos, X.25, Frame Relay, RDSI, ATM, etc.) 1 1 2 12 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

4.2.1. Redes de broadcast En las redes broadcast el medio de transmisión es compartido por todos los ordenadores interconectados. Normalmente cada mensaje transmitido es para un único destinatario, cuya dirección aparece en el mensaje, pero para saberlo cada máquina de la red ha de recibir o “escuchar” cada mensaje, analizar la dirección de destino y averiguar si va o no dirigido a ella; las normas de buena educación “telemática” establecen que un ordenador debe descartar sin mas análisis todo mensaje que no vaya dirigido a él; sin embargo, algunos programas llamados “sniffers” se dedican a “escuchar” todo lo que pasa por el cable, independientemente de quien sea su destinatario; con un sniffer es muy fácil capturar cualquier cosa, por ejemplo los caracteres que viajan por la red en un proceso de conexión averiguando así de manera rápida el userid y la password de un usuario cualquiera (por ejemplo “root”). La única protección efectiva en las redes broadcast es el encriptado de la información. A veces en una red broadcast lo que se quiere es precisamente enviar un mensaje a todas las máquinas conectadas. Esto se llama un envío broadcast. Asimismo es posible enviar un mensaje dirigido a un subconjunto de todas las máquinas de la red (subconjunto que ha de estar definido previamente); esto se conoce como envío multicast (y el subconjunto se denomina grupo multicast). En algunos contextos cuando se habla de broadcast o multicast el caso en el que el mensaje va dirigido a una máquina concreta se denomina envío unicast. Como ejemplos de redes broadcast se pueden citar casi todas las tecnologías de red local: Ethernet (en sus diversos tipos), Token Ring, FDDI, etc. También son redes broadcast las basadas en transmisión vía satélite. En una red broadcast la capacidad o velocidad de transmisión indica la capacidad agregada de todas las máquinas conectadas a la red; por ejemplo, la red conocida como Ethernet tiene una velocidad de 10 Mbps, lo cual significa que la cantidad máxima de tráfico agregado de todos los equipos conectados no puede superar este valor. Conviene mencionar en este punto que en Telemática siempre que se especifican capacidades de transmisión de la información, a menudo referidas erróneamente como velocidades de transmisión o anchos de banda, los prefijos Kilo, Mega, etc., se utilizan con su significado métrico (103, 106, etc.), no con el significado informático (210, 220, etc.). Así 1 Kbps corresponde a 1.000 bits/s, no 1.024 bits/s; análogamente 1 Mbps significa 1.000.000 bits/s, no 1.048.576 bits/s;. Sin embargo cuando no se trata de cantidad de información (sin dividir por el tiempo) el significado sigue siendo el habitual, así por ejemplo si decimos que un determinado protocolo utiliza un tamaño máximo de paquete de 64 Kbytes queremos decir que el paquete puede contener hasta 65535 bytes; si decimos que hemos transmitido un fichero de 1 megabytes (MB), queremos decir que el fichero contiene 1.048.576 bytes. Normalmente las velocidades o, mas correctamente, las capacidades de transmisión se miden en bits/segundo (bps, bits por segundo), mientras que el tamaño de una trama, de un paquete o de un archivo se expresa en bytes. 4.2.2. Redes punto a punto Las redes punto a punto se construyen por medio de conexiones entre pares de ordenadores, también llamadas líneas, enlaces, circuitos o canales (los términos equivalentes son lines, links, circuits, channels o trunks). Una vez un paquete es depositado en la línea el destino es conocido de forma unívoca y no es preciso en principio que lleve la dirección de destino. Los enlaces que constituyen una red punto a punto pueden ser de tres tipos de acuerdo con el sentido de la transmisión: • Simplex: la transmisión sólo puede efectuarse en un sentido • Semi-dúplex o “half-duplex”: la transmisión puede hacerse en ambos sentidos, pero no simultáneamente • Dúplex o “full-duplex”: la transmisión puede efectuarse en ambos sentidos a la vez. En los enlaces semi-dúplex y dúplex la velocidad de conexión es generalmente la misma en ambos sentidos, en cuyo caso se dice que el enlace es simétrico; en caso contrario se dice que es asimétrico. La gran mayoría de los enlaces en líneas punto a punto son dúplex simétricos. Así, cuando se habla de un enlace de 64 Kbps sin especificar mas se quiere decir 64 Kbps en cada sentido, por lo que la capacidad total del enlace es de 128 Kbps. Al unir múltiples máquinas con líneas punto a punto es posible llegar a formar redes de topologías complejas en las que no sea trivial averiguar cual es la ruta óptima a seguir para ir de un punto a otro, ya que puede haber múltiples caminos posibles con distinto número de ordenadores intermedios, con enlaces de diversas velocidades y distintos grados de ocupación. Como contraste, en una red broadcast el camino a seguir de una máquina a otra es único, no existen ordenadores intermedios y el grado de ocupación es el mismo para todas ellas. Cada uno de los ordenadores que participa en una red de enlaces punto a punto es un nodo de la red. Si el nodo tiene un único enlace se dice que es un nodo terminal, nodo extremo o “end node”, de lo contrario se dice que es un nodo intermedio, de encaminamiento o “routing node”. Cada nodo intermedio ha de tomar una serie de decisiones respecto a por donde debe dirigir los paquetes que reciba, por lo que también se les llama nodos de conmutación de paquetes, nodos de conmutación, conmutadores o encaminadores (los términos equivalentes son respectivamente packet switching nodes, switching nodes, switches y routers). Dependiendo del tipo de red que se trate se utilizaran las denominaciones router o conmutador. Cualquier computadora (por ejemplo una estación de trabajo UNIX, o incluso un PC con MS/DOS), puede actuar como un router en una red si dispone del programa apropiado; sin embargo, se prefiere normalmente T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 3 13 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

utilizar para este fin computadoras dedicadas, con sistemas operativos en tiempo real y software específico, dejando las computadoras de propósito general para las aplicaciones del usuario; esto da normalmente mayor rendimiento y fiabilidad. Tradicionalmente la PC de propósito general que se conecta a la red como nodo terminal mediante un router se le denomina host, palabra que significa anfitrión (aunque esta denominación no se utiliza nunca en este contexto). El conjunto de líneas de comunicación y routers que interconectan a los hosts forman lo que se conoce como la subred de comunicaciones, o simplemente subred. Obsérvese que los hosts o nodos terminales no forman parte de la subred. Si hacemos la analogía con la red telefónica diríamos que la subred es el conjunto de cables y centralitas telefónicas, incluido el aplique de la pared donde conectamos el teléfono, pero no formaría parte de la subred nuestro teléfono, que enchufamos al aplique. Para llegar de un nodo a otro en una red se ha de atravesar uno o varios enlaces; el número de enlaces se denomina saltos (hops), y depende de la trayectoria seguida y de la topología de la red. Cuando dos nodos no vecinos (es decir a mas de un “hop” de distancia) desean intercambiar información lo han de hacer a través de uno o varios nodos intermedios. Cuando un paquete se envía de un nodo al siguiente normalmente el paquete es transmitido en su totalidad y almacenado; solo entonces el nodo receptor intenta enviar el paquete al siguiente nodo de la red. Esto es lo que se conoce como una red de almacenamiento - reenvío (store-and-forward) o red de conmutación de paquetes (packet switched). Esta forma de proceder permite una elevada fiabilidad incluso en entornos hostiles donde el número de errores puede ser elevado. Dado que en una red punto a punto cada enlace puede tener una velocidad distinta, no podemos caracterizar la red con un único dato de forma tan sencilla como en una red broadcasts, sería preciso adjuntar un esquema de la topología indicando el tipo de cada enlace (simplex, semi-dúplex o dúplex) y su velocidad (en cada sentido si fuera asimétrico). 4.2.3. Redes de área local (LAN) Fue y es una de las primeras soluciones a los problemas de conectar todas las estaciones de trabajo, dispositivos periféricos, terminales y otros dispositivos ubicados dentro de un mismo edificio. Las LAN permitieron que las empresas utilizaran la tecnología informática para compartir de manera eficiente archivos e impresoras. Las redes de área local (LAN) se componen de computadoras, tarjetas de interfaz de red, medios del networking, dispositivos de control del tráfico de red y dispositivos periféricos. Las LAN está diseñadas para realizar lo siguiente: operar dentro de un área geográfica limitada • permitir que varios usuarios accedan a medios de • ancho de banda alto proporcionar conectividad continua con los servicios • locales conectar dispositivos físicamente adyacentes • Las redes de área local tienen generalmente las siguientes características: • Tecnología broadcast: medio compartido. • Cableado específico, instalado normalmente a propósito. • Velocidad de 1 a 10/100/1000 Mbps. • Extensión máxima de unos 3 Kms (FDDI llega a 200 Km). Las LANs mas conocidas y extendidas son la Ethernet a 10 Mbps, la IEEE 802.5 o Token Ring a 4 y 16 Mbps, y la FDDI a 100 Mbps. Estos tres tipos de LAN han permanecido prácticamente sin cambios desde finales de los ochenta, por lo que a menudo se les referencia en la literatura como “LANs tradicionales” (legacy LANs) para distinguirlas de otras más modernas aparecidas en los 90, tales como la Fast Ethernet o la 100 VG-Any LAN (ambas de 100 Mbps) y la nueva Gigabit Ethernet (1000 Mbps o 1 Gbps). A menudo las LANs requieren un tipo de cableado específico (de cobre o de fibra); esto no suele ser un problema ya que al instalarse en una fábrica, campus o similar, se tiene un control completo sobre el entorno y las condiciones de instalación. Generalmente el cableado se lleva a cabo siguiendo la normativa vigente para edificios comerciales y residenciales e instalaciones industriales; lo que se denomina cableado estructurado. El alcance limitado de las LANs permite saber el tiempo máximo que un paquete tardará en llegar de un extremo a otro de la red, lo cual permite aplicar diseños que de otro modo no serían posibles, y simplifica la gestión de la red. Como consecuencia del alcance limitado y del control en su cableado, las redes locales suelen tener un retardo muy bajo en las transmisiones (decenas de microsegundos) y una tasa de errores muy baja. Las topologías básicas de las redes locales suelen ser de bus y estrella (p. ej. Ethernet) o de anillo (Token Ring o FDDI). Sin embargo, pueden hacerse topologías mas complejas utilizando elementos adicionales, tales como repetidores, puentes, conmutadores, etc. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 4 14 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

En épocas recientes se ha popularizado una técnica para aumentar el rendimiento de las redes locales, que consiste en dividir una LAN en varias más pequeñas, con lo que el ancho de banda disponible para cada uno es mayor; las diversas LANs así formadas, denominadas LANs Conmutadas (switched LANs), se “interconectan” en un equipo especial denominado conmutador LAN (LAN switch); en casos extremos se puede llegar a dedicar una red por equipo, disponiendo así de todo el ancho de banda para él. En años recientes se ha empezado a utilizar una tecnología de redes telefónicas, y por tanto típicamente de redes WAN, para la construcción de redes locales (denominadas LAN-E ATM); esta tecnología, denominada ATM (Asynchronous Transfer Mode), dará mucho que hablar en el futuro. 4.2.4. Redes de Área Metropolitana (MAN) En principio se considera que una MAN (Metropolitan Area Network, Red de Area Metropolitana) abarca una distancia de unas pocas decenas de kilómetros, que es lo que normalmente se entiende como área metropolitana. Existe solamente una red característica de las MANs, la conocida como IEEE 802.6 o DQDB (Distributed Queue Dual Bus), que puede funcionar a diversas velocidades entre 34 y 155 Mbps con una distancia máxima de unos 160 Km. En realidad la distinción de MANs sobre la base de la distancia es un tanto arbitraria, ya que FDDI puede llegar a 200 Kms pero raramente se la clasifica como MAN, al no ser un servicio ofrecido por las compañías telefónicas, cosa que sí ocurre con DQDB en algunos países. La tecnología DQDB ha tenido escasa difusión. Su mayor mérito ha sido servir como predecesora de ATM en algunos aspectos. En el futuro es de esperar que la red DQDB caiga en desuso o desaparezca ya que su espacio ha sido ocupado por completo por las redes basadas en ATM. Un caso de redes especialmente difíciles de clasificar son las formadas por empresas de televisión por cable (redes CATV). Desde el punto de vista técnico estas redes se podrían considerar tipo LAN, sin embargo el hecho de que sean gestionadas por empresas especializadas y ofrecidas como un servicio contratable por los usuarios les da unas características de WAN desde el punto de vista legal. Estas circunstancias unidas a su alcance máximo (entre 160 y 200 Km) hacen que las podamos considerar en cierto modo como redes MAN. El término MAN suele utilizarse también en ocasiones para denominar una interconexión de LANs ubicadas en diferentes recintos geográficos (por ejemplo diferentes campus) cuando se dan las siguientes circunstancias: • La interconexión hace uso de enlaces de alta o muy alta velocidad (comparable a la de las propias LANs interconectadas). • La interconexión se efectúa de forma transparente al usuario, que aprecia el conjunto como una única LAN por lo que se refiere a servicios, protocolos y velocidades de transmisión. • Existe una gestión unificada de toda la red. 4.2.5. Redes de Área Amplia (WAN) A medida que el uso de las computadoras en las empresas aumentaba, pronto resultó obvio que incluso las LAN no eran suficientes. Las Redes de Área Extensa, de Amplio Alcance o de Área Amplia (Wide Area Network) se utilizan cuando no es factible tender redes locales, bien porque la distancia no lo permite por el costo de la infraestructura o simplemente porque es preciso atravesar terrenos públicos en los que no es posible tender infraestructura propia. En un sistema de LAN, cada departamento, o empresa, era una especie de isla electrónica. Lo que se necesitaba era una forma de transferir información de manera eficiente y rápida para que las empresas se comunicaran entre sí a través de grandes distancias. Las WAN interconectaban las LAN, que a su vez proporcionaban acceso a computadoras o servidores de archivos ubicados en otros lugares, compartían información y recursos, y tenían acceso a Internet. En todos estos casos lo normal es utilizar para la transmisión de los datos los servicios de una empresa portadora. Hasta hace poco este tipo de servicios eran ofrecidos en régimen de monopolio por las compañías telefónicas en la mayoría de los países. Afortunadamente esto esta cambiando rápidamente siendo posible contratar hoy en día servicios portadores de datos, o en breve con diversas compañías de televisión por cable. En la literatura especializada es frecuente referirse a las compañías telefónicas genéricamente con la denominación PTT, abreviatura de Post, Telegraph and Telephone. Esto se debe a que en muchos países la empresa que se encargaba tradicionalmente de las transmisiones telefónicas era la misma que ofrecía el servicio de correos y telégrafos, todo esto en régimen de monopolio. Con la liberalización del servicio de telefonía y la aparición de diversas compañías competidoras la denominación PTT se sustituyo por la de operador (el que opera la red) o carrier; la costumbre hace que en muchos casos se siga aun utilizando el término PTT. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 5 15 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

Las redes WAN se implementan casi siempre haciendo uso de enlaces telefónicos que han sido diseñados principalmente para transmitir la voz humana, ya que este es el principal negocio de las compañías telefónicas. Normalmente la infraestructura esta fuera del control del usuario, estando supeditado el servicio disponible a la zona geográfica de que se trate. Conseguir capacidad en redes WAN suele ser caro, por lo que generalmente se solicita el mínimo imprescindible. Hasta tiempos recientes las conexiones WAN se caracterizaban por su lentitud, costo y tasa de errores relativamente elevada. Con la paulatina introducción de fibras ópticas y líneas digitales en las infraestructuras de las compañías portadoras las líneas WAN han reducido apreciablemente su tasa de errores; también se han mejorado las capacidades y reducido los costos. A pesar del inconveniente que en ocasiones pueda suponer el uso de líneas telefónicas tienen la gran virtud de llegar prácticamente a todas partes, que no es poco. Con la excepción de los enlaces vía satélite, que utilizan transmisión broadcast, las redes WAN se implementan casi siempre con enlaces punto a punto, por lo que prácticamente todo lo dicho en el apartado de redes punto a punto es aplicable a las redes WAN. Algunas de las tecnologías comunes de las WAN son: • módems • RDSI (Red Digital de Servicios Integrados) • DSL (Digital Subscriber Line, Línea Digital del Suscriptor). • X.25. • Frame Relay. • ATM (Modo de Transferencia Asíncrona). • Series de portadoras T (EE.UU y Canadá) y portadoras E (Europa y América Latina): T1, E1, T3, E3, etc. • SONET (Red Optica Síncrona). 4.2.6. Redes Inalámbricas y movilidad En los últimos años hubo un auge considerable de los sistemas de telefonía inalámbrica. Algunos usuarios requerían facilidades para conectar sus computadoras personales por radioenlaces desde cualquier lugar o mientras se encuentran viajando en tren, autobús, etc. Una red inalámbrica usa radio, microondas, satélites, infrarrojos, u otros mecanismos para comunicarse. El sistema de telefonía inalámbrica digital GSM (Global System for Mobile Communications), muy extendido en Europa, utiliza un canal digital para transmitir la voz, por lo que es posible conectar un ordenador portátil mediante un teléfono GSM, sin necesidad de módem. En algunos países ya se han hecho experimentos de conexiones inalámbricas a 64 Kbps utilizando una versión modificada del GSM. La conexión de computadoras con total movilidad es importante en aplicaciones tales como flotas de taxis, camiones, autobuses, servicios de emergencia, fines militares, etc. En estos casos se emplean, además de las ya familiares PCs portátiles conocidos como “laptops”, otros aún más pequeños que se conocen como “palmtop”, asistente digital personal o PDA (Personal Digital Assistant), y que son algo intermedio entre una computadora portátil y una agenda electrónica. Se pueden combinar las redes inalámbricas con las computadoras móviles, pero los dos conceptos son distintos: Aplicación Inalámbrico Workstations estacionarias No Uso de un portable en un hotel No LANs en un edificio antiguo sin cables Sí PDA (personal digital assistant) para inventario Sí

Móvil No Sí No Sí

Las redes inalámbricas también tienen utilidad en algunos casos donde no se requiere movilidad, como en las LANs inalámbricas. Por ejemplo, una empresa que desea establecer una nueva oficina y por rapidez, provisionalidad de la ubicación o simples razones estéticas no desea cablear el edificio puede utilizar una LAN inalámbrica, consistente en una serie de equipos transmisores-receptores. Las LAN inalámbricas son generalmente más lentas que las normales (1-2 Mbps) y tienen una mayor tasa de errores, pero para muchas aplicaciones pueden ser adecuadas. La movilidad es importante también en casos en que no hay involucradas conexiones inalámbricas. Por ejemplo un representante que desee conectar con su oficina desde su ordenador portátil cuando se encuentra de viaje puede optar por llamar a su oficina directamente, pagando posiblemente una costosa llamada de larga distancia, o bien puede llamar al punto de presencia (POP, Point Of Presence) más próximo de algún proveedor de servicios de comunicación, y a través de este acceder a su oficina por una infraestructura compartida que le resulte más barata (por ejemplo Internet); en este último caso se dan una serie de problemas de solución no trivial en cuanto a la seguridad y el correcto encaminamiento del tráfico. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 6 16 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

4.2.7. Internetworking Si bien las clasificaciones de redes antes estudiadas tienen interés como medio de sistematizar su estudio, es obvio que en la realidad casi nunca se da uno de esos tipos en estado puro. Por ejemplo, una LAN (que normalmente será una red de tipo broadcast) casi siempre dispondrá de un router que la interconecte a una WAN (que generalmente consistirá en un conjunto de enlaces punto a punto). Esta interconexión de tecnologías diferentes se conoce como Internetworking (o Interredes). El router que interconecta redes diferentes está físicamente conectado a todas las redes que se desean interconectar. Además de la combinación de medios físicos diversos es posible encontrarse con necesidades de internetworking en un mismo medio físico; este es el caso cuando coexisten protocolos de comunicación diferentes, por ejemplo, en una misma red Ethernet puede haber PCs utilizando el protocolo TCP/IP y otros utilizando DECNET (protocolo típico de computadoras Digital). Al ser protocolos diferentes son completamente independientes y no se pueden hablar entre sí, por lo que un usuario de un ordenador TCP/IP no podría por ejemplo enviar un mensaje de correo electrónico a uno de un ordenador DECNET. Sin embargo, es posible instalar en un ordenador ambos protocolos, y un programa de conversión de correo electrónico, de forma que los usuarios de ambas redes puedan intercambiar mensajes. A la máquina que interconecta el correo electrónico de los dos protocolos se la denomina Pasarela o Gateway. Generalmente las pasarelas han de implementarse al nivel de aplicación; así disponer en nuestro ejemplo de una pasarela para el correo electrónico no significa que podamos transferir ficheros entre máquinas TCP/IP y DECNET, ya que para esto haría falta una pasarela del servicio de transferencia de ficheros. Una misma máquina puede actuar como pasarela para varios servicios. Haciendo una analogía podemos decir que los protocolos son como idiomas y las pasarelas equivalen a servicios de traducción que permiten entenderse a personas que hablan diferentes lenguas. Cuando una red esta formada por la Interconexión de varias Redes se le denomina internet. A principios de los setenta se creó en los Estados Unidos una internet mediante la unión de varias redes que utilizando medios de transmisión diversos empleaban un conjunto común de protocolos en el nivel de red y superiores, denominados TCP/IP. Con el tiempo la denominación Internet (con I mayúscula) terminó convirtiéndose en el nombre propio de dicha red, muy conocida en nuestros días. Los principios de uso de la interconexión entre redes 1. Proporcionar un enlace entre redes. 2. Proporcionar encaminamientos y entrega de datos entre procesos de diferentes redes. 3. Mantener un mecanismo de contabilidad y estado de redes y encaminamientos. 4. Proporcionar estos servicios sin tener que cambiar la arquitectura de la red. a) b) c) d) e) f) g) h) i)

Para esto, los sistemas se tienen que acomodar a las diferencias entre las redes con: Diferentes esquemas de direccionamiento. Diferente tamaño máximo de bloque. Diferentes mecanismos de acceso a la red. Diferentes valores de expiración de los temporizadores. Recuperación de errores. Informes de estado. Técnicas de encaminamiento. Control de acceso al usuario. Conexión, sin conexión.

55.. TTRRRAAANNNSSSM M Ó N D E O O N C E P T O Y T E R M N O L O G A DAAATTTO CO MIIISSSIIIÓ ÓN ND DE ED OSSS -- C ON NC CE EP PT TO OSSS Y YT TE ER RM MIIIN NO OL LO OG GÍÍÍA A 5.1. Medios de transmisión Los medios de transmisión pueden ser: Guiados si las ondas electromagnéticas van encaminadas a lo largo de un camino físico; no guiados si el medio es sin encauzar (aire, agua, etc.). En medios guiados, el ancho de banda o velocidad de transmisión depende de la distancia y de si el enlace es punto a punto o multipunto. Simplex si la señal es unidireccional; half-duplex si ambas estaciones pueden trasmitir pero no a la vez; full-duplex si ambas estaciones pueden transmitir a la vez, es decir las dos estaciones pueden simultáneamente enviar y recibir datos. En transmisión digital, para full-duplex se requieren (en medios guiados) dos cables por conexión (uno para un sentido y otro para otro). En transmisión analógica es necesaria la utilización de dos frecuencias para full-duplex o dos cables si se quiere emitir y recibir en la misma frecuencia.

5.2. Frecuencia, espectro y ancho de banda 1.

Conceptos en el dominio temporal: una señal, en el ámbito temporal, puede ser continua o discreta. Puede ser periódica o no periódica. Una señal es periódica si se repite en intervalos de tiempo fijos

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 7 17 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

llamados periodo. La onda seno es la más conocida y utilizada de las señales periódicas. En el ámbito del tiempo, la onda seno se caracteriza por la amplitud, la frecuencia y la fase. S(t) = A * Sen (2 * pi * f * t + fase) La longitud de onda se define como el producto de la velocidad de propagación de la onda por su fase. 2.

3.

Conceptos del dominio de la frecuencia: en la práctica, una señal electromagnética está compuesta por muchas frecuencias. Si todas las frecuencias son múltiplas de una dada, esa frecuencia se llama frecuencia fundamental. El periodo (o inversa de la frecuencia) de la señal suma de componentes es el periodo de la frecuencia fundamental. Se puede demostrar que cualquier señal está constituida por diversas frecuencias de una señal seno. El espectro de una señal es el conjunto de frecuencias que constituyen la señal. El ancho de banda es la anchura del espectro. Muchas señales tienen un ancho de banda infinito, pero la mayoría de la energía está concentrada en un ancho de banda pequeño. Si una señal tiene una componente de frecuencia 0, es una componente continua. Relación entre la velocidad de transmisión y el ancho de banda: el medio de transmisión de las señales limita mucho las componentes de frecuencia a las que puede ir la señal, por lo que el medio sólo permite la transmisión de cierto ancho de banda. En el caso de ondas cuadradas (binarias), estas se pueden simular con ondas senoidales en las que la señal sólo contenga múltiplos impares de la frecuencia fundamental. Cuanto más ancho de banda, más se asemeja la función seno (multifrecuencia) a la onda cuadrada. Pero generalmente es suficiente con las tres primeras componentes. Se puede demostrar que al duplicar el ancho de banda, se duplica la velocidad de transmisión a la que puede ir la señal. Al considerar que el ancho de banda de una señal está concentrado sobre una frecuencia central, al aumentar esta, aumenta la velocidad potencial de transmitir la señal. Pero al aumentar el ancho de banda, aumenta el coste de transmisión de la señal aunque disminuye la distorsión y la posibilidad de ocurrencia de errores.

5.3. Tiempo Total de Transmisión y Velocidad Efectiva En el análisis o diseño de una red de comunicaciones generalmente se consideran dos características que definen el sistema: la velocidad del tráfico y el tipo o grado de servicio que se proporciona al usuario final. El segundo incluye cosas como la disponibilidad, tasas de error al nivel de bits, bloques o mensajes así como lo referente a la seguridad de las comunicaciones. En cuanto a la velocidad con que el tráfico fluye a través del sistema, fundamentalmente suele ser definido por dos factores de primer nivel como son la Velocidad Efectiva y el Tiempo Total de Transmisión. Estos factores están relacionados entre sí pero los efectos de los tamaños de los paquetes que se manejan puede hacer que las mejoras obtenidas no varíen linealmente entre diferentes servicios. El Tiempo Total de Transmisión puede definirse como el tiempo transcurrido entre la transmisión del primer bit de un bloque o paquete y la recepción del último. En el tiempo total de transmisión cuentan factores como ser: * Retardo en el medio de transmisión: este retardo puede definirse como el tiempo transcurrido entre la transmisión y recepción del primer bit. Está dado por la distancia recorrida, la velocidad de la luz y el factor de reducción (respecto a dicha velocidad) correspondiente a dicho medio. El factor en cuestión es prácticamente uno en el caso de comunicaciones vía inalámbrica y tiene valores menores (entre 0,5 y 0,8) en el caso de conductores metálicos (los más bajos en los pares trenzados y los más altos en el coaxil grueso usado en Ethernet 10Base5). * Tiempo de transmisión: resulta ser directamente proporcional al tamaño del bloque e inversamente proporcional a la velocidad de transmisión (o lo que es lo mismo el Ancho de Banda de Transmisión). * Tiempo de procesamiento: generalmente es consecuencia del tiempo invertido en los nodos de la red para la conmutación y el proceso de almacenamiento y reexpedición clásico de redes como las X.25. * Retardo por las colas: esto está fundamentalmente determinado por la carga de tráfico del sistema en cada nodo y que puede estudiarse dentro de la Teoría de Colas. Por su parte la Velocidad Efectiva de un sistema es la cantidad de bits enviados dividido por el Tiempo Total de Transmisión. Esta dada por el Ancho de Banda Efectivo tanto de los diferentes dispositivos que intervienen en el procesamiento como del medio de transmisión. La velocidad efectiva de un sistema está inevitablemente atada a la del componente más lento del sistema que para el caso obra como un verdadero “cuello de botella”. El Tiempo Total de Transmisión puede asociarse directamente al Tiempo de Respuesta de un sistema aunque en éste pesan también el tiempo de procesamiento en las computadoras. En lo que sigue se seguirá usando el término Tiempo de Respuesta. Y ocurre que por ejemplo ciertos tipos de tráfico requieren un bajo retardo para un tiempo satisfactorio de respuesta. Aplicaciones típicas en este sentido corresponden a terminales interactivas que se comunican con computadoras remotas, o los gestores de bases de datos que hacen uso de facilidades de requisición y respuesta así como aplicaciones que se manejan en tiempo real, vale decir en las que se deben tomar decisiones prácticamente en el mismo momento de ocurrencia de ciertos eventos. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 8 18 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

Por su parte hay aplicaciones que requieren la mayor Velocidad Efectiva posible en el sistema de transmisión; un ejemplo es la transferencia de archivos entre dos puntos y otro las mismas aplicaciones que trabajen en tiempo real. En el caso mencionado en primer término cuenta sobre todo el tiempo empleado en transferir todo un archivo antes que el primer bit. Debe tenerse presente que la Velocidad Efectiva y el Tiempo de Respuesta no operan en forma concurrente. Efectivamente, mientras la primera está inevitablemente atada a la longitud del paquete movilizado, en el Tiempo de Respuesta el tamaño del paquete sólo constituye uno de los factores (Tiempo de Transmisión). Por lo tanto en situaciones en que por ejemplo el Retardo en el Medio o en redes muy cargadas (mayor influencia del retardo por las colas), el Tiempo de Respuesta puede verse poco afectado por el tamaño de los paquetes movilizados pero sí la Velocidad Efectiva. Paquetes de 128 bytes (1024 bits) Velocidad Transmisión (bps) Tiempo Transmisión (mseg.) Retardo Medio (mseg.) Tiempo Respuesta (mseg.) Velocidad Efectiva (bps) Rendimiento

Línea dedicada 4800 9600 213.3 106.7 10.0 10.0 223.3 116.7 4585 8777 95.5 % 91.4 %

9600 106.7 250.0 356.7 2871 29.9 %

Línea satelital 64000 16.0 250.0 266.0 3850 6.0 %

1544000 0.7 250.0 250.7 4085 0.3 %

Línea satelital 64000 187.5 250.0 437.5 27429 42.9 %

1544000 7.8 250.0 257.8 46553 3.0 %

Paquetes de 1500 bytes (12000 bits) Velocidad Transmisión (bps) Tiempo Transmisión (mseg.) Retardo Medio (mseg.) Tiempo Respuesta (mseg.) Velocidad Efectiva (bps) Rendimiento

Línea dedicada 4800 9600 2500.0 1250.0 10.0 10.0 2510.0 1260.0 4781 9524 99.6 % 99.2 %

9600 1250.0 250.0 1500.0 8000 83.3 %

Comparación de velocidad efectiva y tiempo de respuesta

En la tabla puede verse la comparación para dos tamaños de paquetes entre dos posibilidades distintas como pueden serlo una línea dedicada y un servicio satelital. En todos los casos se han considerado despreciables el Tiempo de Procesamiento y el Retardo por Colas, es decir se ha considerado que el Tiempo de Respuesta (Tiempo Total de Transmisión) es igual a la suma del Tiempo de Transmisión y el Retardo en el Medio. Para este último se han tomado 10 milisegundos para el circuito terrestre y 250 milisegundos para el satelital. Finalmente se ha incluido como Rendimiento la relación entre la Velocidad Efectiva y la Velocidad de Transmisión. Observando las tablas en cuestión puede llegarse a ciertas conclusiones: • trabajando a 9600 bps el paso de la línea dedicada a satélite aumenta el Tiempo de Respuesta y baja la Velocidad Efectiva. Esto es así tanto para paquetes pequeños como grandes. • al pasar al sistema satelital, el Tiempo de Respuesta (y por lo tanto la Velocidad Efectiva) sólo mejora si el tráfico es de paquetes largos y además se contrata mayor ancho de banda que en el caso de línea dedicada.

5.4. Tiempo de respuesta No es correcto suponer que si el tráfico mencionado no existiera, no habría ninguna diferencia entre 10 y 100 Mbps puesto que el resultado no cambia si no hay con qué ocupar la mayor capacidad del medio. Lo que un usuario aprecia en un sistema es el Tiempo de Respuesta, en el que influyen factores como el Tiempo de Procesamiento en servidor y estación de trabajo y del que también es parte (y a veces muy importante) el Tiempo Total de Transmisión que hemos estado analizando. Efectivamente, si alguien tiene trabajando una Ethernet a 10 Mbps en una red con máquinas 486, un disco rápido y un buen sistema de caché, puede estar seguro que al pasar a 100 Mbps notará una apreciable diferencia aunque la utilización promedio de la red sea muy baja. Esto es así porque la red antes estaba limitada por el medio de transmisión. En cambio, si las máquinas son 8088 y 80286 con unidades ST-506, el paso de 10 a 100 Mbps no mejorará apreciablemente las cosas porque la limitación estaba y sigue estando en las máquinas. En realidad el Tiempo de Respuesta es bastante aleatorio, máxime porque en la vida real es muy improbable que los sucesos de diferentes máquinas se repitan frecuentemente de igual manera. Suele decirse que una red de 100 Mbps puede tolerar mejor las exigencias del tráfico en los momentos pico. Efectivamente, una red puede tener un tráfico promedio bajo pero en ciertos momentos del día (cierre de operaciones bancarias, por ej.) tener picos tan altos que definitivamente las estaciones nunca puedan acceder a la red T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 9 19 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

en un primer o segundo intento en el caso de Ethernet o tengan que esperar más al token con una red Token Ring. En ambos casos el resultado es un aumento en el Tiempo de Respuesta. Una red más cargada de tráfico, en los picos de uso seguramente provocará Tiempos de Respuesta mucho más considerables, los que pueden reducirse notablemente al pasar de 10 a 100 Mbps. De cualquier manera, cuando se manejan simples datos, la cuestión del Tiempo de Respuesta tiene su parte subjetiva, especialmente porque en general el proceso lleva su tiempo y la gente se va acostumbrando. En cambio con videoconferencia o multimedia interactiva, la situación puede llegar a ser muy molesta con una red lenta, por que las imágenes pueden quedarse como colgadas en la pantalla o llenarse por partes en forma totalmente apreciable. A su vez, la voz puede resultar recortada en forma fastidiosa. Y aquí sí es donde puede resultar notable el cambio de 10 a 100 Mbps.

5.5. Transmisión de datos analógicos y digitales Los datos analógicos toman valores continuos y los digitales, valores discretos. Una señal analógica es una señal continua que se propaga por ciertos medios. Una señal digital es una serie de pulsos que se transmiten a través de un cable ya que son pulsos eléctricos. Los datos analógicos se pueden representar por una señal electromagnética con el mismo espectro que los datos. Los datos digitales se suelen representar por una serie de pulsos de tensión que representan los valores binarios de la señal. La transmisión analógica es una forma de transmitir señales analógicas (que pueden contener datos analógicos o datos digitales). El problema de la transmisión analógica es que la señal se debilita con la distancia, por lo que hay que utilizar amplificadores de señal cada cierta distancia. La transmisión digital tiene el problema de que la señal se atenúa y distorsiona con la distancia, por lo que cada cierta distancia hay que introducir repetidores de señal. Últimamente se utiliza mucho la transmisión digital debido a que: 1. La tecnología digital se ha abaratado mucho. 2. Al usar repetidores en vez de amplificadores, el ruido y otras distorsiones no es acumulativo. 3. La utilización de banda ancha es más aprovechada por la tecnología digital. 4. Los datos transportados se pueden encriptar y por tanto hay más seguridad en la información. 5. Al tratar digitalmente todas las señales, se pueden integrar servicios de datos analógicos (voz, vídeo, etc.) con digitales como texto y otros. 5.5.1. Módems y códecs Cuando se envían datos por un canal de transmisión analógico (por ejemplo una línea telefónica de RTB) es preciso modular la señal en origen y demodularla en el destino; el aparato que realiza esta función se llama módem. Inversamente, cuando enviamos una señal analógica por un canal de transmisión digital tenemos que codificarla en origen y decodificarla en destino, para lo cual se utiliza un aparato denominado códec; por ejemplo un teléfono RDSI es un códec, ya que convierte una señal analógica (la voz humana) en digital, y viceversa; un sistema de videoconferencia es un códec puesto que convierte una señal analógica (la imagen en movimiento captada por la cámara) en una señal digital (la transmitida por RDSI u otro medio); también hay un códec en cualquier sistema de grabación digital de sonido (CD, Minidisc, dcc, DAT). Es frecuente referirse a los códecs como conversores analógico-digital o conversores A/D, aunque en telecomunicaciones suele preferirse la denominación códec. Para desempeñar su labor un códec debe muestrear periódicamente la onda a digitalizar, y convertir su amplitud en una magnitud numérica. Por ejemplo los sistemas de grabación digital del sonido en CD muestrean la señal de cada canal de audio 44 100 veces por segundo (44,1 KHz) y generan para cada muestra un número entero de 16 bits que representa la amplitud de la onda. En la decodificación se realiza el proceso inverso.

5.6. Transmisión asíncrona y síncrona Hay enormes dificultades a la hora de recuperar la señal transmitida por un emisor, sobre todo debido a que hay que saber cada cuanto tiempo va a llegar un dato; para esto se suelen usar técnicas de sincronización. Existen dos métodos básicos de comunicación de datos: la transmisión asíncrona y la transmisión síncrona. Típicamente, las comunicaciones síncronas son más eficientes, pero la transmisión asíncrona discada (la conexión por línea conmutada) es por lo general más barata y está más ampliamente disponible. 5.6.1. Transmisión asíncrona

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 0 20 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

Asíncrona indica “sin respeto al tiempo”. En términos de transmisión de datos, asíncrono indica que no es necesario ningún reloj o cronometro (timing) para mantener al emisor y al receptor sincronizados. Sin el beneficio de un reloj, el emisor debe señalar el inicio (start) y parada (stop) de cada caracter para que el receptor sepa cuándo esperar los datos. Se consigue sincronismo enviando pequeñas cantidades de bits a la vez, sincronizándose al inicio de cada cadena. Esto tiene el inconveniente de que cuando no se transmite ningún carácter, la línea está desocupada. La transmisión asincrónica se describe a menudo como comunicación “trama-carácter” o “start/stop” porque este método encapsula cada caracter en tramas con bits de arranque y parada (start/stop). Cada carácter es típicamente un valor de 7 u 8 bits que puede representar un número, una letra, una marca de puntuación, etc. Cada caracter es precedido por un bit de start y sucedido por un bit de stop, o en algunos casos, dos bits de parada. Un bit adicional puede agregarse para chequeo de error de paridad antecediendo al primer bit de parada. Usando la codificación adecuada, es posible hacer corresponder (por ejemplo) un 0 para cuando la línea está parada (con NRZ, cada vez que se quiera comenzar a transmitir una cadena, se usa un 1 como señal). Si el receptor es un tanto más rápido o lento que el emisor, es posible que incluso con cadenas cortas (o tramas, que son las cadenas más los bits adicionales de paridad y start/stop) se produzcan errores como el error de delimitación de trama (se leen datos fuera de la trama al ser el receptor más lento que el emisor) o el error que se produce al introducirse ruido en la transmisión de forma que en estado de reposo, el receptor crea que se ha emitido un dato (el ruido). Este tipo de transmisión es sencillo y no costoso, aunque requiere muchos bits de comprobación y de control. 5.6.2. Transmisión síncrona Síncrono indica “con tiempo”. En términos de transmisión de datos, “síncrono” indica que se usa una señal de cronometro común entre hosts. La señal de reloj está embebida en el stream de datos o bien es enviada separadamente a las interfaces. Si dos hosts usan una señal de cronometro para sincronizarse, los bits de start/stop (por cada valor de 8 caracteres) no son necesarios. En cambio, grandes cantidades de datos (cientos o incluso miles de bytes) pueden precederse por bits de sincronización (sync). Por ejemplo, en Ethernet un campo de bits de sincronización precede el campo de carga útil de datos (data payload). Este campo de bits de sincronización, llamado preámbulo, forma un patrón de ceros y unos alternos. El receptor usa este patrón para sincronizarse con el emisor. Para evitar errores de delimitación, se pueden sincronizar receptor y emisor mediante una línea aparte (método utilizado para líneas cortas) o incluyendo la sincronización en la propia señal (codificación Manchester o utilización de portadoras en señales analógicas). Además de los datos propios y de la sincronización, es necesaria la presencia de grupos de bits de comienzo y de final del bloque de datos, además de ciertos bits de corrección de errores y de control. A todo el conjunto de bits y datos se le llama trama. Para grandes bloques de datos, la transmisión síncrona es más eficiente que la asíncrona. Los proveedores de servicios ofrecen una variedad de servicios WAN síncronos y asíncronos. Estos servicios pueden agruparse en tres categorías que dependen del tipo conexión WAN: * Conectividad dedicada. * Redes conmutadas por circuito. * Redes conmutadas por paquete. 5.6.3. Interfaces seriales síncronas vs. asíncronas Prácticamente todos los enlaces de redes de área amplia (WAN) que se usan en internetworking son “seriales”, lo que significa que transmiten bits uno después del otro en una serie por el hilo o cable de fibra. No son lo mismo que los puertos de conexión serial asíncrona que se encuentran en la parte posterior de la mayoría de los PCs y los que se usan con módems. La conexión de consola desde una estación de trabajo al puerto de consola en un router es una conexión asíncrona que usa bits de inicio y de parada para separar los bits de datos en la corriente. La velocidad de bits en el puerto de consola de un router asíncrono se determina en 9600 bits por segundo (bps). Las conexiones seriales asíncronas se usan normalmente con conexiones de corta distancia para terminales (a routers y switches) o para conexiones de módem de discado que se limitan a 56 Kbps (kilobits por segundo o 56 mil bits por segundo). Un módem se puede conectar al puerto AUX de un router para T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 1 21 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

permitirle discar de forma asíncrona y diagnosticar problemas (el puerto AUX también se puede usar para enrutamiento por llamada telefónica bajo demanda, DDR, en caso de que el enlace serial WAN principal se encuentre desactivado). La figura ilustra tres diferentes tipos de conexiones WAN. Cada conexión ofrece distintas ventajas y desventajas que se describirán en capítulos siguientes.

5.7. Interfaces Generalmente, los computadores y terminales no están capacitados para transmitir y recibir datos de una red de larga distancia, y para ello están los módem u otros circuitos parecidos. A los terminales y computadores se les llama DTE y a los circuitos (módem) de conexión con la red se les llama DCE. Los DCE se encargan de transmitir y recibir bits uno a uno. Los DTE y DCE están comunicados y se pasan tanto datos de información como de control. Para que se puedan comunicar dos DTE hace falta que ambos cooperen y se entiendan con sus respectivos DCE. También es necesario que los dos DCE se entiendan y usen los mismos protocolos. La interfase entre el DCE y el DTE debe de tener una concordancia de especificaciones: * De procedimiento: ambos circuitos deben estar conectados con cables y conectores similares. * Eléctricas: ambos deben de trabajar con los mismos niveles de tensión. * Funcionales: debe de haber concordancia entre los eventos generados por uno y otro circuito. 5.7.1. V.24/EIA-232-E

* * * * * *

Es una interfaz utilizada para conectar DTE con módems a través de líneas analógicas de telefonía. Especificaciones: Conector de 25 contactos. Un solo cable de conexión y otro de tierra. Señalización digital y codificación NRZ-L. Se permite funcionamiento full-duplex. Circuitos de datos, de control, de temporización y de tierra. A cortas distancias es posible evitar el uso de DCE y conectar directamente DTE a DTE.

5.7.2. La interfaz física de la RDSI Reduciendo los circuitos y aumentando la lógica de control se ha conseguido abaratar estos mecanismos y se ha conseguido un conector de 8 pines para la Red Digital de Servicios Integrados. En estos sistemas, la información de control y de datos van unidas y se separan en los extremos de las líneas. También es posible el envío de energía por las mismas líneas (para control remoto de periféricos por ejemplo). Se utilizan dos cables de conexión que forman un circuito cerrado (señalización diferencial) y los valores de los bits dependen de la diferencia de tensión de ambos cables. Este tipo de señalización hace que el ruido afecte menos a los datos ya que afecta por igual a los dos cables, por lo que se anula el ruido.

66.. A H O D E B A N D A ANNNCCCH HO OD DE EB BA AN ND DA A En primer lugar, ancho de banda es un término que la computación tomó prestado de las comunicaciones, por lo que muchas veces no hay un conocimiento cabal de su concepto, por provenir de otra disciplina. Las LAN y WAN, tienen en común el uso del término ancho de banda para describir sus capacidades. Este término es esencial para comprender las redes pero puede prestarse a confusión en un primer momento. El ancho de banda es la medición de la cantidad de información que puede fluir desde un lugar hacia otro en un período de tiempo determinado. Existen dos usos comunes del término ancho de banda: uno se refiere a las señales analógicas y el otro, a las señales digitales, siendo este último el más usado. Si la unidad más básica que se utiliza para describir el flujo de información digital desde un lugar a otro es el bit; lo siguiente que se debe conocer es el término que se usa para describir la unidad básica de tiempo. Es decir de dónde proviene el término bits por segundo (bps). Bits por segundo es una unidad de ancho de banda. Por supuesto, si la comunicación se produjera a la velocidad de 1 bit por 1 segundo, sería demasiado lenta, pero, afortunadamente, en la actualidad es posible realizar T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 2 22 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

las comunicaciones de modo más veloz. La siguiente tabla proporciona un resumen de las diversas unidades de ancho de banda. El tema del ancho de banda de un medio de transmisión pasa por dos conceptos básicos: tiempo total de transmisión y velocidad efectiva (visto anteriormente). Dijimos que el Tiempo Total de Transmisión es el tiempo transcurrido entre la transmisión del primer bit de un paquete y la recepción del último. Como en el medio de transmisión la información electrónica se moviliza a una velocidad que resulta ser una fracción (entre 0,5 y 0,8) de la velocidad de la luz, siempre habrá un tiempo o retardo de propagación entre la emisión de un bit su correspondiente recepción. Las interfaces (NICs) que se conectan al medio de transmisión inyectan y leen información con cierta velocidad llamada Velocidad de Transmisión o Velocidad de Línea y que generalmente se asocia al concepto de ancho de banda. Tendremos entonces un Tiempo de Transmisión que es proporcional al tamaño del paquete e inversamente proporcional a la Velocidad de Transmisión mencionada. En forma simplificada para el caso del medio de transmisión de una LAN, en el Tiempo Total de Transmisión sólo tenemos que considerar el Tiempo de Transmisión y el Tiempo de Propagación. En una instalación típica de LAN sea de 10 o 100 Mbps, el Tiempo de Propagación promedio es de algo menos de 1 microsegundo. Frente a ello, ya el paquete mínimo de 64 bytes a 10 Mbps toma un tiempo de algo menos de 50 microsegundos, con lo cual el Tiempo de Propagación no llega a significar ni un 2 % del total. A su vez, para una velocidad de 100 Mbps, el Tiempo de Transmisión baja a sólo unos 5 microsegundos y el Tiempo de Propagación, que como se dijo se mantiene igual, afecta bastante más el resultado final. En ambos casos, la Velocidad Efectiva (que contempla el efecto de la propagación) será menor a la Velocidad de Transmisión. Pero lo importante es que el medio sólo es ocupado durante 6 microsegundos frente a los 50 de antes, por lo que al menos en principio una red de 100 Mbps podrá manejar un tráfico 8 veces superior. 6.1.1. Tres analogías para describir el ancho de banda digital El ancho de banda es un elemento muy importante en networking; sin embargo, puede resultar sumamente abstracto y difícil de entender. Para mejor comprensión se ofrecen tres analogías que ayudarán a comprender qué es el ancho de banda: 1. El ancho de banda es similar al diámetro de un caño. Piense en la red de cañerías que transporta el agua. Esas cañerías poseen distintos diámetros: la tubería de agua principal de la ciudad puede tener 2 metros de diámetro, mientras que la del grifo de la cocina puede tener 2 centímetros. El ancho de la tubería mide su capacidad de transporte de agua. En esta analogía, el agua representa la información y el diámetro de la cañería representa el ancho de banda. De hecho, varios expertos en networking hablan en términos de "colocar cañerías de mayor tamaño desde aquí hacia allá", queriendo decir un ancho de banda mayor, es decir, mayor capacidad de transporte de información. 2. El ancho de banda también puede compararse a la cantidad de carriles de una autopista. Piense en la red de carreteras de su ciudad o pueblo. Puede haber autopistas de ocho carriles, con salidas a rutas de 2 y 3 carriles, que a su vez pueden llevarlo a calles de 2 carriles sin divisiones y, eventualmente, a su entrada particular. En esta analogía, la cantidad de carriles representa el ancho de banda, y la cantidad de automóviles representa la cantidad de información que se puede transportar. 3. El ancho de banda se asemeja también a la calidad de sonido de un sistema de audio. El sonido representa la información, y la calidad de los sonidos que se escucha representa el ancho de banda. Si clasifica sus preferencias con respecto a la forma en que desea escuchar una canción: por teléfono, estación de radio AM, estación de radio FM o en un CD-ROM, es probable que la elección sea: CD, luego radio FM, radio AM y, por último, teléfono. Los anchos de banda analógicos reales para estos medios de reproducción de audio son 20 kHz, 15 kHz, 5 kHz y 3 kHz, respectivamente. El sentido verdadero de ancho de banda, es la cantidad máxima de bits que teóricamente pueden pasar a través de un área determinada de espacio en una cantidad específica de tiempo (bajo las condiciones especificadas). Las analogías utilizadas aquí simplemente tienen como objeto facilitar la comprensión del concepto de ancho de banda. 6.1.2. Diferencias en el ancho de banda de los medios El ancho de banda tiene sus limitaciones. No importa la manera en que se envían los mensajes, ni cuál es el medio físico que se utiliza, el ancho de banda siempre es limitado. Esto se debe tanto a las leyes de la física como a los avances tecnológicos actuales. La figura muestra el ancho de banda digital máximo posible, incluyendo las limitaciones de longitud, para algunos medios comunes de networking. Se debe tener siempre en cuenta que los límites son tanto físicos como tecnológicos. La otra figura resume distintos servicios de WAN y el ancho de banda asociado con cada servicio.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 3 23 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

6.1.3. Tasa de transferencia de datos en relación con el ancho de banda digital 6.1.3.1. Ancho de Banda Efectivo Al hablar de Velocidad Efectiva, se considero el efecto del Tiempo de Propagación. Sin embargo éste en realidad es importante en WANs. Más trascendente en el análisis de la efectividad puede resultar el método de acceso especialmente en el Ethernet, o todo el sistema de monitoreo y mantenimiento en el Token Ring. El planteo es si realmente es posible que al terminar cada paquete, la misma estación u otra puede colocar otro paquete similar y así sucesivamente, formando una especie de trencito de paquetes. El detalle es que los vagones de este trencito nunca están unidos entre sí y siempre habrá un espacio entre ellos. Esto significa que el medio nunca se podrá usar al máximo, por ejemplo, de 10 Mbps; o sea, el flujo de datos que entran y salen lo hace a esa velocidad, pero entre la salida de un paquete y la entrada de otro hay un tiempo perdido. Aun cuando se tenga un cablemódem, se instale una línea RDSI, o se tenga una LAN Ethernet a 10 Megabits, puede que no tenga todo el ancho de banda pensado. Entonces, la Velocidad Efectiva o promedio a lo largo de cierto tiempo será menor de la máxima. De manera análoga al llamar Ancho de Banda a la Velocidad de Transmisión, también es usual hablar de Ancho de Banda Efectivo al referirse a la Velocidad Efectiva recién comentada. Existe otro concepto importante que debe tenerse en cuenta; este concepto se denomina rendimiento (throughput). El rendimiento generalmente se refiere al ancho de banda real medido, en un momento específico del día, usando rutas específicas de comunicación, mientras se descarga un archivo específico. Desgraciadamente, por varios motivos, el rendimiento a menudo es mucho menor que el ancho de banda digital máximo posible del medio que se está usando. Algunos de los factores que determinan el rendimiento y el ancho de banda son los siguientes: * dispositivos de internetworking * tipo de datos que se transfieren * topología * cantidad de usuarios * computadora del usuario * computadora del servidor * cortes de la alimentación eléctrica causados por el suministro en sí o por factores climáticos Al diseñar una red, es importante tener en cuenta el ancho de banda teórico. La red no será más rápida de lo que los medios lo permiten. Al trabajar con redes reales, se deberá medir el rendimiento y decidir si éste es adecuado para lo que pretende. El ancho de banda y el rendimiento son medidas de velocidad o capacidad de una red. 6.1.4. Cálculo de la transferencia de datos

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 4 24 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

Una parte importante del networking es decidir cuál es el medio que se utilizará, lo que a menudo lleva a formularse preguntas relacionadas con el ancho de banda que requieren las aplicaciones del usuario. El gráfico resume una fórmula simple que ayudará a tomar estas decisiones. La fórmula es: Duración estimada = Tamaño del archivo / Ancho de banda. La respuesta representa el tiempo mínimo en el cual se pueden transferir los datos. Esta respuesta no tiene en cuenta ninguno de los factores que afectan al rendimiento, sino que suministra una estimación aproximada del tiempo que tardará para enviar información si se usa ese medio o esa aplicación específica. Ejemplo: ¿Qué lleva menos tiempo, enviar el contenido de un disquete (1,44 MB) lleno de datos a través de una línea RSDI o enviar el contenido de un disco duro de 10 GB lleno de datos a través de una línea OC-48?. Use las cifras de la tabla de ancho de banda presentada anteriormente para encontrar la respuesta. 6.1.5. Importancia del ancho de banda 1.

2.

3.

5.

¿Por qué es importante el ancho de banda? El ancho de banda es finito. En cualquier medio, el ancho de banda está limitado por las leyes de la física. Por ejemplo, las limitaciones del ancho de banda (debidas a las propiedades físicas de los cables telefónicos de par trenzado que se encuentran en muchas casas) son lo que limita el rendimiento de los módem convencionales a alrededor de 56 Kbps. El ancho de banda del espectro electromagnético es finito: existe una cantidad limitada de frecuencias en el espectro de microondas, de ondas de radio e infrarrojo. Es por ello que la FCC posee una división completa para el control del ancho de banda y de las personas que lo utilizan. La fibra óptica tiene un ancho de banda prácticamente ilimitado. Sin embargo, recién ahora se está desarrollando e implementando la tecnología necesaria para crear redes de ancho de banda muy elevado que puedan usar plenamente el potencial de la fibra óptica. Si se conoce de qué forma funciona el ancho de banda y si se tiene en cuenta que es finito, se puede ahorrar mucho dinero. Por ejemplo, el costo de las diversas opciones de conexión con los proveedores de servicios de Internet depende, en parte, del ancho de banda que se necesita durante el uso normal y en horas de uso máximo. En cierta forma, lo que se paga es el ancho de banda. Un profesional de networking debería saber bastante acerca del ancho de banda y el rendimiento. Estos son factores fundamentales al analizar el desempeño de una red. Además, para un diseñador de redes totalmente nuevas, una de las consideraciones de diseño más importantes a tener en cuenta siempre será el ancho de banda. 4. Existen dos conceptos principales que se deben entender con respecto a la “superautopista de la información”. El primer concepto es que cualquier forma de información se puede almacenar como una larga cadena de bits. El segundo es que, aunque es útil guardar la información en forma de bits, esta no es una tecnología realmente revolucionaria. El hecho de que podamos compartir esos bits, billones de bits en 1 segundo, significa que la civilización moderna está llegando a un punto en que cualquier computadora, desde cualquier lugar del mundo o del espacio exterior, se puede comunicar con otra computadora en cuestión de segundos o incluso en menos tiempo. No es inusual que una vez que una persona o una institución comienza a utilizar una red, con el tiempo desee tener un ancho de banda más grande. Los nuevos programas de software multimediales requieren un ancho de banda mucho mayor que los que se utilizaban a mediados de la década del 90. Los programadores creativos se están dedicando al diseño de nuevas aplicaciones capaces de llevar a cabo tareas de comunicación más complejas, que requieran por lo tanto anchos de banda más amplios.

6.1.6. Capacidad del canal - Velocidad máxima de un canal Se llama capacidad del canal a la velocidad a la que se pueden transmitir los datos en un canal de comunicación de datos. La velocidad de los datos es la velocidad expresada en bits por segundo a la que se pueden transmitir los datos. El ancho de banda es aquel ancho de banda de la señal transmitida y que está limitado por el transmisor y por la naturaleza del medio de transmisión (en hertzios), el ancho de banda de un canal determina la velocidad de la transmisión de datos, aun cuando el canal es perfecto. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 5 25 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

Para un ancho de banda determinado es aconsejable la mayor velocidad de transmisión posible pero de forma que no se supere la tasa de errores aconsejable (la tasa de errores es la razón a la que ocurren errores). Para conseguir esto, el mayor inconveniente es el ruido. Se puede representar cualquiera señal de datos con una serie Fourier. La serie consiste en términos de frecuencias distintas, y se suman los términos para reconstruir la señal. Ningún medio de transmisión puede transmitir señales sin perder algún poder. Normalmente un medio puede transmitir las frecuencias desde 0 hasta algún límite “f ”, las frecuencias mayores se atenúan fuertemente.

6.2. Teorema de Nyquist Cualquier medio o canal de transmisión tiene un ancho de banda limitado. A continuación damos algunos ejemplos: Medio de transmisión Línea telefónica Emisión de radio de onda media (AM) Emisión de radio de FM Emisión de televisión PAL Red local Ethernet Emisión de televisión de alta definición

Ancho de banda en KHz 3 4,5 75 8000 10000 30000

Ancho de banda de algunos medios de transmisión habituales.

Los bits se transmiten por un canal realizando modificaciones en la onda portadora; por ejemplo en una línea telefónica se puede utilizar una frecuencia de 1 KHz para representar el 0 y una de 2 KHz para el 1; esto se conoce como modulación de frecuencia; si sincronizamos dos equipos para que transmitan un cambio de frecuencia de la portadora cada 3,333 milisegundos se podrá transmitir datos a 300 bps, (si dos bits consecutivos son iguales en realidad no hay tal cambio). Si en vez de dos frecuencias se utilizan cuatro, por ejemplo 0,5, 1, 1,5 y 2 KHz, se podrá transmitir con la misma sincronización 600 bps, ya que enviamos dos bits cada vez al disponer de cuatro estados o niveles posibles; análogamente si se utilizan ocho estados se podrán transmitir 900 bps (tres bits por vez), y así sucesivamente; se ganará en velocidad, pero a cambio se tendrá que ser mas preciso en la frecuencia ya que el número de valores permitidos es mayor. Al número de cambios de estado o sincronizaciones por segundo que tienen lugar en una comunicación entre dos equipos se le denomina baudios (cuanto más cambios por segundo de una señal, tantos más términos de frecuencias altas se necesitan), así en el ejemplo anterior todas las transmisiones se hacían a 300 baudios, aunque el numero de bits que se transmitía por segundo era diferente en cada caso. Además de la frecuencia es posible modular la amplitud y la fase de la onda portadora; en la práctica los módems modernos modulan una compleja combinación de las tres magnitudes para extraer el máximo provecho posible de las líneas telefónicas, es decir el máximo número de bps a un número de baudios dado. A pesar de todo el ingenio utilizado, los canales de transmisión tienen un límite. Ya en 1924 Nyquist observó la existencia de un límite fundamental en las transmisiones digitales sobre canales analógicos, que se conoce como teorema de Nyquist, y que establece que el número máximo de baudios que puede transmitirse por un canal no puede ser superior al doble de su ancho de banda. Así en el caso de la transmisión de datos por una línea telefónica, con un ancho de banda de 3 KHz, el máximo número de baudios que puede transmitirse es de 6.000. Se puede comprender intuitivamente el teorema de Nyquist si imaginamos cual sería la frecuencia que tendría una señal digital que transmitiera 6 Kbaudios; supongamos por sencillez que 1 baudio = 1 bps, o sea que manejamos únicamente dos estados, y que utilizamos una corriente de 1 voltio para indicar un bit a 1 y de -1 voltio para indicar un bit a 0; la frecuencia mínima de la señal, que sería de cero hertzios, se produciría cuando transmitiéramos continuamente ceros o unos, mientras que la frecuencia máxima se produciría cuando transmitiéramos la secuencia 010101..., momento en el que obtendríamos una onda cuadrada de 3 KHz de frecuencia (ya que cada dos bits forman una oscilación completa); así pues para transmitir 6 Kbaudios necesitaríamos un ancho de banda de 3 KHz, conclusión que coincide con la que habríamos obtenido a partir del teorema de Nyquist. El teorema de Nyquist no establece el número de bits por baudio, que depende del número de estados que se utilicen. Para un ancho de banda dado H, la mayor velocidad de transmisión posible es 2H, pero si se permite (con señales digitales) codificar más de un bit en cada ciclo, es posible transmitir más cantidad de información. Así en el caso anterior si en vez de dos valores de voltaje se utilizan cuatro (-2, -1, 1 y 2 voltios por ejemplo) con el mismo número de baudios (y de hertzios) se podrá duplicar el número de bits por segundo. La formulación del teorema de Nyquist dice que aumentando los niveles de tensión diferenciables en la señal, es posible incrementar la cantidad de información transmitida; entonces si se tiene un canal de ancho de banda H (en Hertz) y V el número de niveles o estados discretos posibles de señal, la velocidad máxima de transmisión vmax en un canal perfecto (en bits por segundo) es, según el teorema de Nyquist T G T FFIIIN A G R D O N A D Ó N O N Á D O N 2 TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL 2 6 26 6


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

vmax = 2H log2V El problema de esta técnica es que el receptor debe de ser capaz de diferenciar más niveles de tensión en la señal recibida, cosa que es dificultada por el ruido. Una línea telefónica tiene un ancho de banda de aproximadamente 3000 Hz. No puede transmitir las señales binarias más rápidamente que 6000 bps. ¿Cómo pueden transmitir los módems modernos a velocidades mayores?. Por ejemplo, un canal telefónico (H=3 KHz) con tres bits por baudio (ocho estados, V=8) la máxima velocidad de transmisión posible es 18 Kbps. Se puede calcular también la eficiencia de un canal de comunicación, E, que es la relación entre la velocidad de transmisión y el ancho de banda:

E = vmax / H Así en el ejemplo anterior la eficiencia era de 6 bits/Hz. Combinando las dos fórmulas anteriores se puede expresar de otra forma el Teorema de Nyquist:

E = 2 log2 V Dicho de otro modo, la eficiencia máxima de un canal está fijada por el número de estados diferentes de la señal, o sea por la forma como se codifica ésta. Debido a la relación directa que el teorema de Nyquist postula entre ancho de banda y velocidad de transmisión es frecuente en telemática considerar ambas expresiones como sinónimos; así decimos por ejemplo que la transmisión de grandes ficheros necesita un elevado ancho de banda queriendo decir que requiere una elevada velocidad de transmisión. El teorema de Nyquist es bidireccional, es decir, también se aplica en el sentido opuesto, cuando se trata de una conversión analógica / digital. Por ejemplo, para que un teléfono RDSI (códec) pueda capturar la señal de audio sin mermar la calidad respecto a una línea analógica el teorema de Nyquist establece que la frecuencia de muestreo deberá ser como mínimo de 6 KHz. En la práctica los teléfonos digitales muestrean a 8 KHz para disponer de un cierto margen de seguridad. Los sistemas de grabación digital de alta fidelidad, que muestrean a 44,1 KHz, son capaces de capturar sonidos de hasta 22 KHz lo cual excede la capacidad del oído humano (en la práctica suelen filtrarse todas las frecuencias superiores a 20 KHz). Cuando el teorema de Nyquist se aplica en este sentido se le suele denominar teorema de muestreo de Nyquist.

6.3. Ley de Shannon-Hartley El teorema de Nyquist supone la utilización de un canal de comunicación perfecto, es decir sin ruido. En la realidad los canales tienen, aparte de otros tipos de ruido, un ruido aleatorio llamado también ruido térmico, que se mide por su valor relativo a la señal principal, y se conoce como relación señal-ruido, S/R o S/N (signal-noise ratio). El valor de esta magnitud se suele indicar en decibelios (dB), que equivale a 10log10S/R (así 10 dB equivalen a una relación S/R de 10, 20 dB a una relación de 100 y 30 dB a una de 1000). Cuanto mayor es la velocidad de transmisión, mayor es el daño que puede ocasionar el ruido. Dado que la percepción de la intensidad del sonido por el oído humano sigue una escala logarítmica la medida en decibelios da una idea más exacta de la impresión que producirá un nivel de ruido determinado (este parámetro es uno de los que se utilizan para medir la calidad de los componentes de un equipo de reproducción musical de alta fidelidad). En 1948 Shannon y Hartley generalizaron el teorema de Nyquist al caso de un canal de comunicación con ruido aleatorio, derivando lo que se conoce como la ley de Shannon-Hartley, que relaciona la potencia de la señal (S), la potencia del ruido (R), la capacidad del canal o velocidad de transmisión (vmax) y el ancho de banda (H).

vmax = H log2 (1+S/R) Esta capacidad es la capacidad máxima teórica de cantidad de transmisión, pero en la realidad, es menor debido a que no se ha tenido en cuenta nada más que el ruido térmico. Por ejemplo, con un ancho de banda de 3 KHz y una relación señal-ruido de 30 dB (o sea 1000, valor típico de una buena conexión telefónica) obtenemos una velocidad de transmisión máxima de 29 902 bps. o sea no puede transmitir más de 30.000 bps., independientemente del número de niveles de señal. Si la relación señal-ruido desciende a 20 dB (cosa bastante normal) la velocidad máxima baja a 19 963 bps. Si se lo expresa en términos de eficiencia obtendremos: E = log2 (1+S/R)

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 7 27 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

Vista de este modo la Ley de Shannon-Hartley establece una eficiencia máxima para un valor dado de la relación señal-ruido, independientemente de la frecuencia y del ancho de banda asignado al canal. Así por ejemplo, para una relación señal-ruido de 40 dB la eficiencia máxima teórica es de 13,3 bps/Hz. En la práctica la eficiencia de una señal depende de muchos factores y puede estar en un rango muy amplio, entre 0,25 y 10 bps/Hz. Conviene destacar que tanto el teorema de Nyqusit como la Ley de Shannon-Hartley derivan de planteamientos puramente teóricos y no son fruto de experimentos; además de eso han sido verificados reiteradamente en la vida real. Por tanto su validez puede considerarse universal y los contraejemplos deberían tratarse con el mismo escepticismo que las máquinas de movimiento perpetuo. Haciendo un cierto paralelismo con la Termodinámica se podría decir que el Teorema de Nyquist equivale al primer principio de la Termodinámica (que postula la ley de conservación de la energía) y la Ley de Shannon-Hartley equivale al segundo principio, que establece que no es posible convertir totalmente en trabajo útil la energía obtenida de una fuente de calor, o dicho de otro modo, que un motor nunca puede funcionar al 100% de eficiencia.

77.. O O F A C T O R E OTTTRRRO OSSS F FA AC CT TO OR RE ESSS 7.1.1. Aplicaciones de red directas La mayoría de las aplicaciones que operan en un entorno de red se clasifican como aplicaciones cliente/servidor. Estas aplicaciones, tal como FTP, navegadores de Web y el correo electrónico, tienen todas dos componentes que les permiten operar: el lado del cliente y el lado del servidor. El lado del cliente se encuentra ubicado en la computadora local y es el que solicita los servicios. El lado del servidor se encuentra ubicado en una computadora remota y brinda servicios en respuesta al pedido del cliente. Una aplicación cliente/servidor funciona mediante la repetición constante de la siguiente rutina cíclica: petición del cliente, respuesta del servidor; petición del cliente, respuesta del servidor; etc. Por ejemplo, un navegador de Web accede a una página Web solicitando un Localizador de Recursos Uniforme (URL), o dirección de Web, en un servidor de Web remoto. Después de que ubica la dirección URL, el servidor de Web identificado por la dirección URL responde a la petición. Posteriormente, tomando como base la información recibida del servidor de Web, el cliente puede solicitar más información del mismo servidor de Web o puede acceder a otra página Web desde un servidor de Web distinto. La World Wide Web, el Netscape Navigator y el Internet Explorer son probablemente las aplicaciones de red que se utilizan más a menudo. Una forma sencilla para comprender cómo funciona un navegador de Web es compararlo con el control remoto de una televisión. El control remoto le otorga la capacidad para controlar directamente las funciones de un televisor: volumen, canales, brillo, etc. Para que el control remoto funcione correctamente, no es necesario entender cómo funciona electrónicamente el control remoto. Lo mismo se aplica en el caso de un navegador de Web, ya que el navegador le brinda la capacidad de navegar a través de la Web haciendo clic en los hipervínculos. Sin embargo, para que el navegador de Web funcione correctamente, no es necesario comprender el funcionamiento ni la interacción de los protocolos OSI de las capas inferiores. 7.1.2. Soporte indirecto de red Dentro de un entorno de LAN, el soporte de red de aplicación indirecta corresponde a una función cliente/servidor. Si un cliente desea guardar un archivo desde un procesador de textos en un servidor de red, el redirector permite que la aplicación de procesamiento de textos se transforme en un cliente de red. El redirector es un protocolo que funciona con los sistemas operativos de las computadoras y clientes de red en lugar de programas de aplicación específicos. Los ejemplos de redirectores son los siguientes: Protocolo de archivos Apple • Interfaz de usuario NetBIOS extendida (NetBEUI) • Protocolos IPX/SPX de Novell • Sistema de archivos de red (NSF) del conjunto de protocolos TCP/IP. • 1. 2. 3.

El proceso del redirector es el siguiente: El cliente solicita que el servidor de archivos de la red permita que los archivos de datos se puedan guardar. El servidor responde guardando el archivo en el disco o rechaza la petición del cliente. Si el cliente solicita que el servidor de impresión de la red permita que los archivos de datos se impriman en una impresora (red) remota, el servidor procesa la petición imprimiendo el archivo en uno de sus dispositivos de impresión o rechaza la petición.

El redirector le permite al administrador de red asignar recursos remotos a los nombres lógicos en el cliente local. Una vez que selecciona uno de estos nombres lógicos para realizar una operación, como, por ejemplo, guardar o imprimir un archivo, el redirector de red envía el archivo seleccionado al recurso remoto correspondiente de la red para su procesamiento. Si el recurso se encuentra en una computadora local, el redirector ignora la petición y permite que el sistema operativo local la procese. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 8 28 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

La ventaja de usar un redirector de red para un cliente local es que las aplicaciones del cliente nunca tienen que reconocer a la red. Además, la aplicación que solicita el servicio se ubica en la computadora local y el redirector reenruta la petición al recurso de red correspondiente, mientras que la aplicación lo considera como petición local. Los redirectores expanden las capacidades de software que no es de red. También permiten que los usuarios compartan documentos, plantillas, bases de datos, impresoras y varios otros recursos, sin tener que usar software de aplicación especial. El networking ha tenido una gran influencia sobre el desarrollo de programas como los procesadores de texto, hojas de cálculo, administradores de presentaciones, programas de base de datos, software de gráficos y de productividad. La mayoría de esos paquetes de software actualmente se encuentran integrados a las redes o son compatibles con las redes e incluyen funciones de integración con un navegador de Web o herramientas de Internet que les permiten publicar sus archivos en formato html para su fácil integración a la Web. 7.1.3. Obtención e interrupción de una conexión Existen dos métodos o categorías que determinan la forma en que se realiza el proceso de comunicación, dentro de las cuales se engloban todas las actividades de comunicación. 1. Cuando la conexión con el servidor se mantiene sólo durante el tiempo suficiente como para procesar la transacción. En el ejemplo de la Web, la conexión se mantiene lo suficiente como para descargar la página actual. En el caso de la impresora, la conexión se mantiene sólo lo suficiente como para enviar el documento al servidor de impresión. Una vez que se ha completado el procesamiento, la conexión se interrumpe y se debe reestablecer para que la siguiente petición de procesamiento se pueda llevar a cabo. 2. Cuando se establece una conexión con el servidor y se mantiene esa conexión hasta que se haya ejecutado todo el proceso. Ejemplos de ello son Telnet y FTP. La computadora cliente finaliza la conexión cuando el usuario determina que ha finalizado.

7.2. Perturbaciones en la transmisión 7.2.1. Atenuación La energía de una señal decae con la distancia, por lo que hay que asegurarse que llegue con la suficiente energía como para ser captada por la circuitería del receptor y además, el ruido debe ser sensiblemente menor que la señal original (para mantener la energía de la señal se utilizan amplificadores o repetidores). Debido a que la atenuación varía en función de la frecuencia, las señales analógicas llegan distorsionadas, por lo que hay que utilizar sistemas que le devuelvan a la señal sus características iniciales (usando bobinas que cambian las características eléctricas o amplificando más las frecuencias más altas). 7.2.2. Distorsión de retardo Debido a que en medios guiados, la velocidad de propagación de una señal varía con la frecuencia, hay frecuencias que llegan antes que otras dentro de la misma señal y por tanto las diferentes componentes en frecuencia de la señal llegan en instantes diferentes al receptor. Para atenuar este problema se usan técnicas de ecualización. 7.2.3. Ruido El ruido es toda aquella señal que se inserta entre el emisor y el receptor de una señal dada. Existen diferentes tipos de ruido: ruido térmico debido a la agitación térmica de electrones dentro del conductor, ruido de intermodulación cuando distintas frecuencias comparten el mismo medio de transmisión, diafonía se produce cuando hay un acoplamiento entre las líneas que transportan las señales y el ruido impulsivo se trata de pulsos discontinuos de poca duración y de gran amplitud que afectan a la señal.

88.. SSEEEÑÑÑAAALLLEEESSS YYYC O D F C A C Ó N CO OD DIIIF FIIIC CA AC CIIIÓ ÓN N 8.1. Codificación Siempre que se desea enviar un mensaje a larga distancia, hay dos problemas a solucionar: cómo expresar el mensaje (codificación o modulación); y cuál es el método que se debe utilizar para transportar el mensaje (portadora). Codificación significa convertir los datos binarios en una forma que se pueda desplazar a través de un enlace de comunicaciones físico; modulación significa usar los datos binarios para manipular una onda. Los computadores usan tres tecnologías en particular, cada una de las cuales tiene su contraparte en la historia. Estas tecnologías son: codificar mensajes como voltajes en diversas formas de cable de cobre; codificar mensajes como T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 9 29 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

pulsos de luz guiada a través de la fibra óptica y codificar mensajes como ondas electromagnéticas moduladas e irradiadas. Codificación significa convertir los 1 y los 0 en algo real y físico, tal como: Un pulso eléctrico en un cable • Un pulso luminoso en una fibra óptica • Un pulso de ondas electromagnéticas en el espacio. • Dos métodos para lograr esto son la codificación NRZ y la codificación Manchester. NRZ (Código sin retorno a cero), es la codificación más sencilla. Se caracteriza por una señal alta y una señal baja (a menudo +5 o +3,3 V para 1 binario y 0 V para 0 binario). En el caso de las fibras ópticas, el 1 binario puede ser un LED o una luz láser brillante, y el 0 binario oscuro o sin luz. En el caso de las redes inalámbricas, el 1 binario puede significar que hay una onda portadora y el 0 binario que no hay ninguna portadora. La codificación Manchester es más compleja, pero es inmune al ruido y es mejor para mantener la sincronización. En el caso de la codificación Manchester, el voltaje del cable de cobre, el brillo del LED o de la luz láser en el caso de la fibra óptica o la energía de una onda EM en el caso de un sistema inalámbrico hace que los bits se codifiquen como transiciones. Observe que la codificación Manchester da como resultado que los 0 se codifiquen como una transición de baja a alta y que el 1 se codifique como una transición de alta a baja. Dado que tanto los 0 como los 1 dan como resultado una transición en la señal, el reloj se puede recuperar de forma eficaz en el receptor. La modulación, que específicamente significa tomar una onda y cambiarla, o modularla, para que transporte información, está relacionada estrechamente con la codificación. Para dar una idea de lo que es modulación, examinaremos tres maneras de modificar, de modular, una onda “portadora”" para codificar bits: En AM (modulación de amplitud), la amplitud o altura, de una onda sinusoidal portadora se modifica • para transportar el mensaje. En FM (modulación de frecuencia), la frecuencia, u ondulación, de la onda portadora se modifica para • transportar el mensaje. En PM (modulación de fase), la fase, o los puntos de inicio o fin de un ciclo determinado, de la onda se • modifica para transportar el mensaje. También existen otras formas de modulación más complejas. La figura muestra tres maneras a través de las cuales se pueden codificar los datos binarios en una onda portadora mediante el proceso de modulación. El 11 binario (uno uno, no once) se puede comunicar en una onda ya sea por AM (onda encendida/onda apagada), FM (la onda numerosas oscilaciones para los unos, pocas para los ceros), o PM (un tipo de cambio de fase para los 0s, otro tipo de cambio para los 1s). Los mensajes se pueden codificar de varias formas: 1. Como voltajes en el caso de cobre; las codificaciones Manchester y NRZI son populares en el caso de las redes basadas en cobre. 2. Como luz guiada; las codificaciones Manchester y 4B/5B son populares en el caso de redes basadas en fibra óptica. 3. Como ondas EM irradiadas; una amplia variedad de esquemas de codificación (variaciones en AM, FM y PM) se utilizan en el caso de las redes inalámbricas. 8.1.1. Efecto de la codificación En general se dice que las codificaciones Manchester (usadas por Ethernet y Token Ring), exigen una señalización que es igual al doble de la velocidad. Esto es porque en medio de cada bit, siempre habrá una transición para el sincronismo. De esta manera la señalización de un Ethernet de 10 Mbps es de 20 Megabaudios. El baudio también es una unidad prestada de las comunicaciones y su uso en realidad siempre lo fue con respecto a transmisiones analógicas. Por ejemplo un módem puede operar a 9600 bps pero con señalización de 2400 baudios. Mientras en los medios analógicos un baudio resulta ser un submúltiplo del bps, su extensión a las redes locales hace que la relación sea al revés, como acabamos de concluir recién. En la vida real, las señales de computación responden a una sucesión aleatoria de ceros y unos que sólo T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 0 30 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

acepta un análisis basado en la Integral de Fourier. Lo importante es la conclusión: la señal en cuestión está formada por una cantidad enorme de componentes (frecuencias) desde 0 hasta un valor relacionado con la velocidad en bits por segundo. El conjunto de frecuencias puede considerarse tan cercano entre sí que forma un espacio continuo llamado densidad espectral indicando la distribución de energía en la banda de frecuencias asociada a dichas señales. En la práctica hay componentes importantes de energía hasta 2 veces la velocidad en bits por segundo, lo que se corresponde con la velocidad de señalización comentada antes. Por eso puede hablarse de frecuencias dobles respecto de los bps, o sea 20 MHz en el Ethernet y 8 o 32 Mhz en el Token Ring. En realidad el usuario en general no debiera preocuparse de la diferencia entre Mbps y Mbaudios y Mhz. Le puede bastar con saber que los circuitos que transmiten señal tienen que contemplar, entre otras cosas, más bien la velocidad de señalización en Megabaudios.

8.2. Señales digitales y analógicas El término señal se refiere a un voltaje eléctrico, un patrón luminoso o una onda electromagnética modulada que se desea obtener. Todos ellos pueden transportar datos de networking. Uno de los tipos de señal es analógica. Una señal analógica tiene las siguientes características: Es ondulante. • Tiene un voltaje que varía continuamente en función del • tiempo. Puede tener cualquier voltaje. Voltaje continuo. • Es típica de los elementos de la naturaleza. • Se ha utilizado ampliamente en las telecomunicaciones • durante más de 100 años. Posibilidad de varias codificaciones. • El gráfico muestra una onda sinusoidal pura. Las dos características importantes de una onda sinusoidal son su amplitud (A), su altura y profundidad, y el período (T = longitud de tiempo) necesario para completar 1 ciclo. Se puede calcular la frecuencia (f) (nivel de ondulación) de la onda con la fórmula f = 1/T. Otro tipo de señal es la señal digital. Una señal digital tiene las siguientes características: Las curvas de voltaje vs tiempo muestran una variación discreta o pulsante. Pulsos discontinuos. • Solo puede tener uno o dos niveles de voltaje. • Variaciones de voltaje entre niveles. • Compuesto de varias ondas sinusoidales particulares. • Es típica de la tecnología, más que de la naturaleza • El gráfico muestra una señal digital de networking. Las señales digitales tienen una amplitud fija, aunque el ancho de sus pulsos, T y frecuencia se pueden modificar. Las señales digitales de las fuentes modernas se pueden aproximar a través de una onda rectangular, que tenga transiciones aparentemente instantáneas desde estados de voltaje muy bajos hasta estados de voltaje muy altos, sin ondulaciones. Aunque esta es una aproximación, es bastante razonable, y se utilizará en todos los diagramas futuros. Como se dijo antes, Jean Baptiste Fourier probó que una suma especial de ondas sinusoidales, de frecuencias relacionadas armónicamente, que son múltiplos de cierta frecuencia básica, se pueden sumar para crear cualquier patrón de onda. Esta es la forma en que funcionan los dispositivos de reconocimiento de voz y de detección de los latidos cardíacos. Las ondas complejas se pueden crear a partir de ondas simples. Una onda rectangular, o un pulso rectangular, se puede generar usando la combinación correcta de ondas sinusoidales. Es importante tener esto en cuenta al examinar lo que sucede con un pulso digital mientras viaja a través de los medios de networking. 8.2.1. Datos digitales, señales digitales Una señal es digital si consiste en una serie de pulsos de tensión. Para datos digitales no hay más que codificar cada pulso como bit de datos. En una señal unipolar (tensión siempre del mismo signo) habrá que codificar un 0 como una tensión baja y un 1 como una tensión alta (o al revés). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 1 31 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

En una señal bipolar (positiva y negativa), se codifica un 1 como una tensión positiva y un 0 como negativa (o al revés). La razón de datos de una señal es la velocidad de transmisión expresada en bits por segundo, a la que se transmiten los datos. La razón de modulación es la velocidad con la que cambia el nivel de la señal, y depende del esquema de codificación elegido. Un aumento de la razón de datos aumentará la razón de error por bit. Un aumento de la relación señal-ruido (S/R) reduce la tasa de error por bit. Un aumento del ancho de banda permite un aumento en la razón de datos. Para mejorar las prestaciones del sistema de transmisión, se debe utilizar un buen esquema de codificación, que establece una correspondencia entre los bits de los datos y los elementos de señal. Factores a tener en cuenta para utilizar un buen sistema de codificación: 1. Espectro de la señal: la ausencia de componentes de altas frecuencias, disminuye el ancho de banda. La presencia de componentes continuos en la señal obliga a mantener una conexión física directa (propensa a algunas interferencias). Se debe concentrar la energía de la señal en el centro de la banda para que las interferencias sean las menores posibles. 2. Sincronización: para separar un bit de otro, se puede utilizar una señal separada de reloj (lo cuál es muy costoso y lento) o bien que la propia señal porte la sincronización, lo cuál implica un sistema de codificación adecuado. 3. Detección de errores: es necesaria la detección de errores ya en la capa física. 4. Inmunidad al ruido e interferencias: hay códigos más robustos al ruido que otros. 5. Coste y complejidad: el coste aumenta con el aumento de la razón de elementos de señal. 8.2.1.1. No retorno a cero (NRZ) y no retorno a cero invertido (NRZI) NRZ es el esquema más sencillo ya que se codifica un nivel de tensión como un 1 y una ausencia de tensión como un 0 (o al revés). Se suelen utilizar en grabaciones magnéticas. Ventajas: sencillez, fácil de implementar, uso eficaz del ancho de banda. Desventajas: presencia de componente en continua, ausencia de capacidad de sincronización. Otra modalidad de este tipo de codificación es la NRZI que consiste en codificar los bits cuando se producen cambios de tensión (sabiendo la duración de un bit, si hay un cambio de tensión, esto se codifica por ejemplo como 1 y si no hay cambio, se codifica como 0). A esto se le llama codificación diferencial. Lo que se hace es comparar la polaridad de los elementos de señal adyacentes, y esto hace posible detectar mejor la presencia de ruido y es más difícil perder la polaridad de una señal cuando hay dificultades de transmisión. 8.2.1.2. Binario multinivel Este sistema intenta subsanar las deficiencias de NRZ utilizando el sistema de codificar un 1 cada vez que se produce un cambio de nivel de la señal, y codificando un 0 cuando no hay cambio de nivel (lo cuál sigue siendo un inconveniente para cadenas de ceros). Ventajas: no hay problemas de sincronización con cadenas de 1 (aunque sí con cadenas de 0), no hay componente en continua, ancho de banda menor que en NRZ, la alternancia de pulsos permite la detección de errores. Desventajas: hay aún problemas de sincronización, es menos eficaz que el NRZ, hay mayor tasa de errores que NRZ. 8.2.1.3. Bifase En la codificación Manchester siempre hay una transición en mitad del intervalo de duración del bit (la mitad del bit se encarga de la sincronización). En Manchester diferencial la transición en mitad del intervalo se utiliza sólo como sincronización y es la presencia de un cambio de tensión al inicio del bit lo que señala la presencia de un 1. Ventajas: sincronización, no tiene componente en continua, detección de errores. Desventajas: se necesita mayor ancho de banda. 8.2.1.4. Velocidad de modulación Hay que diferenciar entre la razón de datos (bits por unidad de tiempo) y la velocidad de modulación (elementos de señal por unidad de tiempo). Cuanto mejor sea el sistema de codificación, mayor velocidad de modulación se podrá obtener.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 2 32 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

8.2.1.5. Técnicas de altibajos Para mantener sincronizado el reloj del receptor en técnicas bifase, se hace necesario sustituir series largas de ausencias de tensión por cambios sincronizados (que portan el reloj) y luego se requiere un método en el receptor para volver a decodificar la señal original. 8.2.2. Datos digitales, señales analógicas 8.2.2.1. Técnicas de codificación Para transmitir datos digitales mediante señales analógicas es necesario convertir estos datos a un formato analógico. Para esto existen varias técnicas. 1. Desplazamiento de amplitud (ASK): los dos valores binarios se representan por dos valores de amplitud de la portadora, por ejemplo s(t)=A * cos (2*pi*f*t) simboliza el 1 y s(t)=0 simboliza el 0. Aunque este método es muy sensible a cambios repentinos de la ganancia, es muy utilizado en fibras ópticas (1 es presencia de luz y 0 es ausencia de luz). 2. Desplazamiento de frecuencia (FSK): en este caso, los dos valores binarios se representan por dos frecuencias próximas a la portadora. Este método es menos sensible a errores que ASK y se utiliza para mayores velocidades de transmisión que ASK, para transmisiones de teléfono a altas frecuencias y para LAN's con cables coaxiales. 3. Desplazamiento de fase (PSK): en este caso es la fase de la portadora la que se desplaza. Un 0 se representa como una señal con igual fase que la señal anterior y un 1 como una señal con fase opuesta a la anteriormente enviada. Utilizando varios ángulos de fase, uno para cada tipo de señal, es posible codificar más bits con iguales elementos de señal. 8.2.3. Datos analógicos, señales digitales Para transmitir datos analógicos en señales digitales es preciso realizar un proceso de digitalización de los datos. Este proceso y el siguiente de decodificación la realiza un dispositivo llamado códec. 8.2.3.1. Modulación por impulsos codificados Con la introducción de las centrales y sistemas de transmisión digitales, la forma más común de modulación es la conocida como MIC o PCM (Pulse Code Modulation), que se identifica de un modo general con la transmisión de voz en forma digital. La técnica de modulación MIC (recomendación G.711 del CCITT), inventada hace más de 60 años aunque no ha empezado a tener verdadera aplicación hasta la década de los 60, es la manera más simple de convertir una señal analógica en digital. Se basa en el teorema de muestreo: “Si una señal f(t) se muestrea a intervalos regulares de tiempo con una frecuencia mayor que el doble de la frecuencia significativa más alta de la señal, entonces las muestras así obtenidas contienen toda la información de la señal original. La función f(t) se puede reconstruir a partir de estas muestras mediante la utilización de un filtro pasa-baja”. Es decir, se debe muestrear la señal original con el doble de frecuencia que ella, y con los valores obtenidos, normalizándolos a un número de bits dado (por ejemplo, con 8 bits habría que distinguir entre 256 posibles valores de amplitud de la señal original a cuantificar) se ha podido codificar dicha señal. En el receptor, este proceso se invierte, pero por supuesto se ha perdido algo de información al codificar, por lo que la señal obtenida no es exactamente igual que la original (se le ha introducido ruido de cuantización). Hay técnicas no lineales en las que es posible reducir el ruido de cuantización haciendo un muestreo a intervalos no siempre iguales. La técnica de modulación MIC se basa en el muestreo, cuantificación y codificación de una señal analógica, para su transformación en digital.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 3 33 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III 1.

2.

2.

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

La técnica MIC consta de tres procesos básicos (ver figura): Muestreo: para este proceso hay que basarse en la teoría de Nyquist, que especifica que para poder recuperar una señal analógica de ancho de banda W, a partir de las muestras tomadas, se necesita hacerlo al menos con una cadencia del doble, es decir 2W. Así, tenemos que para una señal con un ancho de banda de 4.000 Hz (el actual rango de frecuencias de una señal telefónica de frecuencia vocal va de 300 a 3.400 Hz, dejando el resto, hasta 4.000 Hz, de zona guarda para evitar interferencias) se necesitan al menos 8.000 muestras, lo que corresponde a una separación entre muestras de 1/8.000 = 125 µs. El período de tiempo ocupado por una muestra de canal se denomina intervalo de tiempo, y el período entre dos muestras consecutivas tiempo de trama. Cuantificación: es el proceso mediante el cual se asignan valores discretos a las muestras obtenidas de la señal analógica, pudiendo tomar cualquier valor finito, entre 0 y el valor más alto de la señal muestreada. Sin embargo, para simplificar, se utiliza un número finito de valores discretos para representar de forma aproximada la amplitud de las muestras. Para ello, toda la gama de amplitudes que pueden tomar las muestras se dividen en intervalos iguales y a todas las muestras cuya amplitud cae dentro de uno de los intervalos (de cuantificación) se les da el mismo valor, lo que origina el denominado “error de cuantificación”, al sustituirse el valor de la muestra por otro aproximado. Codificación: es el proceso por el cual se representa una muestra cuantificada mediante una sucesión de valores binarios (0 y 1). Para una transmisión telefónica de voz, 256 niveles se muestran como suficientes según los estudios psicoacústicos realizados, lo que requiere de 8 bits (28 = 256) para su representación.

En definitiva, para una transmisión de una comunicación telefónica, mediante la técnica de modulación MIC, se requiere que por cada canal se tomen 8.000 muestras / segundo y que cada muestra se codifique según un número binario de 8 bits, resultando: 8.000 muestras / segundo * 8 bits / muestra = 64.000 bits / segundo = 64 Kbps En el terminal de recepción, las muestras se han de distribuir a sus canales respectivos, lo que requiere de una perfecta alineación o sincronización entre ambos extremos. Como en el sistema MIC europeo hay 32 intervalos de tiempo o canales, empleando 30 de ellos para canales vocales, uno para sincronización (el 0) y otro para señalización (el 16), resulta una velocidad total de: 32 * 64.000 bits / segundo = 2.048.000 bits / segundo = 2 Mbps mientras que en el sistema MIC americano, con 24 canales, todos vocales, más 8 Kbps para sincronización, resulta una velocidad de: (24 * 64.000 bps) + 8 Kbps = 1.544.000 bps = 1,544 Mbps La aplicación más importante de la técnica MIC es para realizar una transmisión mediante multiplexación temporal (MDT), de tal manera, y al igual que ocurre con la MDF, que varios canales se transmitan por la misma línea de transmisión, aprovechando el espacio entre dos muestras consecutivas del mismo canal para intercalar muestras de otros canales. 8.2.3.2. Modulación delta Esta técnica reduce la complejidad de la anterior mediante la aproximación de la función a codificar por una función escalera lo más parecida posible. De esta forma, cada escalón de la escalera ya puede ser representado por un valor (en 8 bits, uno entre 256 posibles valores de amplitud). La elección de un adecuado salto de escalera y de la frecuencia de muestreo pueden hacer que se modifique la precisión de la señal. La principal ventaja de esta técnica respecto a la anterior es la facilidad de implementación. 8.2.3.3. Prestaciones * * *

Las técnicas de transmisión digital están siendo muy utilizadas debido a: Al usar repetidores en lugar de amplificadores, no hay ruido aditivo. Al usar técnicas de multiplexación por división en el tiempo, no hay ruido de intermodulación. Las señales digitales son más fáciles de emplear en los modernos circuitos de conmutación.

8.2.4. Datos analógicos, señales analógicas La modulación consiste en combinar una señal de entrada con una señal portadora para producir una señal cuyo ancho de banda esté centrado en torno a la frecuencia de la portadora. Este proceso es necesario para transmitir datos digitales mediante señales analógicas, pero no se sabe si está justificado para transmitir datos analógicos. Este proceso es necesario ya que para transmitir señales analógicas sin modular, tendríamos que utilizar enormes antenas y tampoco podríamos utilizar técnicas de multiplexación por división en frecuencias. 8.2.4.1. Modulación en amplitud

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 4 34 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

Consiste en multiplicar la señal original por la portadora y de esta forma se obtiene la forma original pero sólo utilizando los máximos y los mínimos de la señal modulada. De esta forma, se puede reconstruir la señal original y se evita la utilización de enormes antenas. Hay una aproximación que utiliza sólo la mitad del ancho de banda y se necesita menos potencia para su transmisión. Pero esta aproximación y otras quitan la portadora, con lo que se pierde el poder de sincronización de la señal. 8.2.4.2. Modulación en ángulo Se puede hacer que la señal portadora tenga cambios de fase que recreen la señal original a modular (modulación en fase) o también que la portadora tenga cambios de frecuencia que simulen la señal original a modular (modulación en frecuencia). El inconveniente de estas dos modalidades de modulación es que requieren mayor ancho de banda que la modulación en amplitud. 8.2.4.3. Modulación por división en frecuencia Consiste en partir la anchura de banda propia de un sistema de transmisión analógica, de manera tal que se asignen porciones diferentes (canal vocal de 4 KHz) a cada una de las señales a transmitir. La modulación por frecuencias (MDF) da origen a varios niveles de jerarquías, de tal modo que un nivel es combinación de varios niveles anteriores; de esta manera se pueden segregar canales sin necesidad de reducir la información a su situación original, pudiendo llegar a transmitir hasta 13.200 canales telefónicos por un mismo sistema. Un grupo básico de 12 canales puede ubicarse dentro de un espectro de frecuencias entre 60 y 108 KHz; 5 grupos básicos se multiplexan en lo que se denomina un supergrupo (60 canales); 10 de éstos constituyen un mastergrupo (600 canales) y 6 de éstos (3.600 canales) un jumbogrupo.

8.3. Digitalización Antes de la RDSI las líneas eran analógicas, esto es, las señales que transportan siguen fielmente las características de la información que transportan. En el caso de la voz las señales eléctricas representan variaciones acústicas que esta produce, así si se eleva la voz ante un micrófono se observa en línea que el nivel de señal aumenta de la misma manera, si la voz se hace más aguda también se observa que la señal eléctrica se hace de frecuencia mayor. Esto no es una definición rigurosa de una señal analógica pero es suficiente. La señal analógica cuando es transmitida por un medio de transmisión cualquiera presenta el siguiente inconveniente: Otras señales de origen diverso se suman a ella, estas señales que en su conjunto se denomina ruido hace que la calidad de la información que se trata de transmitir sea peor cuanto mayor sea la distancia a la cual se quiere transmitir. La calidad de la señal se mide por un concepto denominado relación señal/ruido. Es importante señalar que en los sistemas analógicos esta relación nunca se mejora siempre se empeora y aún poniendo amplificadores sólo se consigue que un determinado tramo la señal sea menos vulnerable al ruido, pero el que se ha mezclado ya con la señal no hay manera de eliminarlo. La manera de conseguir que una señal llegue correctamente en un medio con ruido al otro extremo es digitalizarla, esto es, tomar periódicamente muestras de la información y cuantificarlas. Es verdad que de esta manera de la información original se pierde una parte, pero la ganancia que se va obtener justifica plenamente esa pérdida de información. Siguiendo en el proceso de digitalización, la señal que antes variaba entre infinitos valores ahora queda restringida a unos cuantos de un conjunto. As í en el caso de la voz (norma ley A o mu) el número de posibles valores que puede adoptar las muestras de la voz son 256 (8 bits por muestra). ¿Cuál es la ventaja de esto?. Pues que ahora se puede enviar a línea un conjunto de ocho señales por cada muestra de voz, cada una de estas señales es un uno o un cero, o en términos de transmisión un símbolo que puede y debe adoptar cada uno de ellos una forma muy diferente de tal manera que aún habiendo ruido en la línea el receptor sea capaz sin problemas de determinar que lo que está recibiendo es un uno o un cero. La digitalización supone una mejora tan evidente que hoy d ía se puede afirmar que en los sistemas de transmisión que no sean de radiodifusión todo está digitalizado, e incluso éstos tienen los d ías contados y sólo la amplia difusión de estos sistemas (Radio y Televisión) hace que exista una inercia que puede durar varios años. Volviendo a las redes telefónicas aunque se dice que en RTB la señal es analógica, se está diciendo una verdad a medias ya que si bien la voz si es totalmente analógica, los modems transportan en realidad señales digitales (con portadoras analógicas). El caso de la norma de modulación V.90 este hecho es más evidente ya que directamente se trata de aprovechar que el otro extremo está en la RDSI (es digital) para extraer primero el reloj de BYTE del conversor D/A y así acceder directamente a la señal PCM para conseguir el bitrate más alto posible: 56Kbits (8Khz * 7 bits/s por muestra). Esto es en la dirección red a usuario, pues en el sentido usuario-red es un modem convencional de 33600 bits/s. Esto es una pseudo RDSI cuyo resultado no siempre es satisfactorio y es muy difícil por no decir imposible conseguir ese bitrate ni siquiera nominalmente. Durante el año 2001 posiblemente se publique una nueva norma la V.92 que tratará de hacer algo parecido en la dirección abonado - red , pero el bitrate máximo teórico será aún menor (48000 bits/s). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 5 35 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

No siempre es imprescindible la digitalización, en general cuando no hay transmisión (llevar la señal a distancia), no es tan imprescindible y en determinados casos otros factores son más determinantes. Así la señal de una tarjeta de vídeo de un PC al monitor las señales son analógicas, ya que si se digitalizara requeriría un ancho de banda enorme. La digitalización es una mejora en si misma, pero puede suponer un problema cuando diversos fabricantes deciden hacer la digitalización a su modo. La red Telefónica está digitalizada desde hace mucho tiempo (por lo menos en parte), incluyendo los equipos de transmisión así como los de conmutación (centrales), esta unificación da lugar a lo que se denomina Red Digital Integrada. El siguiente paso es la digitalización del bucle de abonado, es decir de la conexión que une al equipo de abonado con la central a la cual está unido.

8.4. Jerarquías Digitales AI igual que sucede con la jerarquía obtenida por MDF, tenemos otra jerarquía digital TDM (Plesiócrona), que puede ser la europea o la americana (ver capítulos siguientes), con los valores que se muestran en la figura. Recientemente, y para conseguir una mayor eficacia, se emplean otras técnicas de modulación, entre ellas tenemos la denominada MIC Diferencial Adaptativa o ADPCM (Adaptative Differential Pulse Code Modulation) que consigue un nivel de calidad muy aceptable con tan sólo 32 Kbps (adoptada por el CCITT en su recomendación G.721) al adoptar 4 bits para la codificación de las muestras, en lugar de los 8. Otras técnicas de codificación (vocoder), que no conservan las características de la onda de entrada, sino que la procesan para extraer de ellas una serie de parámetros que determinan las características de la voz, permiten transportarla sobre velocidades tan bajas como 9,6, 4,8 ó 2,4 Kbps, o incluso de 1,2 Kbps mediante técnicas LPC (Linear Predictive Coding), pero por contra, su calidad de reproducción es muy baja. El principal problema que presentan estos equipos es su elevado coste, que no se justifica al ser cada vez menor el precio de la unidad de ancho de banda y sólo interesan por razones de seguridad o de disponibilidad. La recomendación más conocida en estas jerarquías es la interfase G.703 del CCITT, que define las características físicas, eléctricas y funcionales de las interfaces digitales que funcionan desde 64 Kbps hasta 140 Mbps, para la interconexión de componentes de red digitales, tales como multiplexores, centrales, etc. El propósito de la interfase es transportar información digital entre dos equipos, de manera full-duplex sobre pares simétricos o coaxial, junto con la información de sincronización que permita al receptor identificar los bits. Existen tres tipos de interfaces, según sea el modo de establecer el sincronismo: • Codireccional, en el que cada transmisor suministra la sincronización para sus datos, mediante un código de tres niveles. • Reloj central, en el que el sincronismo se suministra a cada equipo desde una fuente central. • Contradireccional, similar al anterior, en el que el sincronismo se toma de uno solo de los extremos. Esta interfase es, por ejemplo, la empleada en RDSI, con velocidad de 64 Kbps para el enlace básico y de 2.048 Kbps para el enlace primario. La recomendación G.732 es la que define el esquema de multiplexación en 32 (del 0 al 31) canales para una trama MIC a 2.048 Kbps, 30 de los cuales se emplean para la información y dos para la sincronización (canal 0) y señalización (canal 16). Evolución de la Jerarquía Digital Plesiócrona (JDP) hacia la Jerarquía Digital Síncrona (JDS)

La evolución de la red de transporte durante los últimos años fue hacia la digitalización, basada en servicios portadores, isócronos y de 64 Kbps y la aplicación de técnicas de multiplexación plesiócrona en la capa de transporte, con una codificación de línea generalmente propietaria. Sin embargo, la Jerarquía Digital Plesiócrona (PDH, Pleisocronous Digital Hierarchy), aunque útil carece de la flexibilidad, disponibilidad y facilidad de gestión T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 6 36 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

que las nuevas aplicaciones demandan; es por ello que el CCITT estableció en una serie de recomendaciones (G.7070, G.708, G.709 y G.703, entre otras) la Jerarquía Digital Síncrona (SDH, Synchronous Digital Hierarchy) basándose en SONET (Synchronous Optical Network), desarrollada por Bellcore en los 80, con menos capas de trayecto administrativas, una gestión mejorada y normalización en la capa de transmisión para la conexión directa de fibras ópticas entre el equipo nodal y transparencia de tramas de 64 Kbps, lo que permite su inserción / extracción, mediante multiplexores, de forma simplificada. En la figura se muestra la convergencia de la JDP (PDH), tanto en su versión europea como americana, hacia la JDS (SDH).

99.. A Q U T E C T U R A D E R E D E ARRRQ QU UIIIT TE EC CT TU UR RA AD DE ER RE ED DE ESSS En los inicios de la informática el diseño de una computadora resultaba en sí misma una tarea tan compleja que no se tomaba en consideración la compatibilidad con otros modelos de computadoras; la preocupación fundamental era que el diseño fuera correcto y eficiente. Como consecuencia de esto era preciso crear para cada nuevo modelo de ordenador un nuevo sistema operativo y conjunto de compiladores. Los programas escritos en lenguaje máquina o en ensamblador (que entonces eran la mayoría) tenían que ser prácticamente reescritos para cada nuevo modelo de ordenador. En 1964 IBM anunció un nuevo ordenador denominado Sistema/360. Se trataba en realidad de una familia formada por varios modelos que compartían una arquitectura común (era la primera vez que se utilizaba este término referido a ordenadores). La arquitectura establecía unas especificaciones comunes que hacían compatibles a todos los modelos de la familia (conjunto de instrucciones, forma de representar los datos, etc.), pudiendo así ejecutar los mismos programas, utilizar el mismo sistema operativo, compiladores, etc. en toda la familia, que comprendía una gama de ordenadores de potencias y precios diversos. El nombre 360 se eligió en base a la década en que se creó (los 60) y a la idea de que era una arquitectura polivalente, que pretendía servir para aplicaciones de todo tipo (360º, o sea que puede ir en todas direcciones). La arquitectura 360 ha ido evolucionando hasta desembocar en nuestros días en la arquitectura ESA/390, utilizada en los grandes ordenadores IBM (mainframes) actuales, que son aún la base de las aplicaciones críticas en grandes empresas (bancos, líneas aéreas, etc.). Todos los fabricantes de computadoras actuales utilizan una o varias arquitecturas como base para el diseño de sus equipos. Las primeras redes de computadoras tuvieron unos inicios muy similares a los primeras computadoras: las redes y los protocolos se diseñaban pensando en el hardware a utilizar en cada momento, sin tener en cuenta la evolución previsible, ni por supuesto la interconexión y compatibilidad con equipos de otros fabricantes (seguramente muchos creían que bastante trabajo suponía conseguir que las cosas funcionaran como para perder el tiempo con pequeñeces). A medida que la tecnología avanzaba y se mejoraba la red se vivieron experiencias parecidas a las de los primeros ordenadores: los programas de comunicaciones, que habían costado enormes esfuerzos de desarrollo, tenían que ser reescritos para utilizarlos con el nuevo hardware, y debido a la poca modularidad prácticamente nada del código era aprovechable. El problema se resolvió de forma análoga a lo que se había hecho con los computadoras. Cada fabricante elaboró su propia Arquitectura de Red, que permitía independizar las funciones y el software del hardware concreto utilizado. De esta forma cuando se quería cambiar algún componente sólo la función o el módulo afectado tenía que ser sustituido. La primera arquitectura de redes fue anunciada por IBM en 1974, justo diez años después de anunciar la arquitectura S/360, y se denominó SNA (Systems Network Architecture). La arquitectura SNA se basa en la definición de siete niveles o capas, cada una de las cuales ofrece una serie de servicios a la siguiente, la cual se apoya en esta para implementar los suyos, y así sucesivamente. Cada capa puede implementarse en hardware, software o una combinación de ambos. El módulo (hardware y/o software) que implementa una capa en un determinado elemento de la red debe poder sustituirse sin afectar al resto de la misma, siempre y cuando el protocolo utilizado se mantenga inalterado. Dicho en otras palabras, SNA es una arquitectura altamente modular y estructurada y el modelo de capas que utiliza ha sido la base de todas las arquitecturas de redes actualmente en uso, incluidas las basadas en el modelo OSI (Open Systems Interconnection) y el TCP/IP (Transmission Control Protocol/Internet Protocol) que se verá en detalle más adelante.

9.1. Protocolos La arquitectura de una red queda perfectamente especificada cuando se describen las capas que la componen, su funcionalidad, los servicios que implementan y los protocolos que utilizan para hablar con sus “iguales”. El conjunto de protocolos que utiliza una determinada arquitectura en todas sus capas se denomina Pila de Protocolos (Protocol Stack); así es frecuente oír hablar de la pila de protocolos OSI, SNA, TCP/IP o DECNET, por ejemplo. Para la comunicación entre dos entidades situadas en sistemas diferentes, se necesita definir y utilizar un protocolo. Un protocolo es el conjunto de normas para comunicarse dos o más entidades (objetos que se intercambian información). Los puntos que definen un protocolo son: La sintaxis: formato de los datos y niveles de señal. • La semántica: incluye información de control para la coordinación y manejo de errores. • T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 7 37 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III •

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

La temporización: incluye la sincronización de velocidades y secuenciación.

Todas estas tareas se subdividen en subtareas y a todo se le llama Arquitectura del Protocolo. En la comunicación intervienen tres agentes: aplicaciones, computadoras y redes. Por lo tanto, es lógico organizar la tarea en tres capas. 1. Capa de acceso a la red: trata del intercambio de datos entre el computador y la red a que está conectado. 2. Capa de transporte: consiste en una serie de procedimientos comunes a todas las aplicaciones que controlen y sincronicen el acceso a la capa de acceso a la red. 3. Capa de aplicación: permite la utilización a la vez de varias aplicaciones de usuario. El protocolo debe definir las reglas, convenios, funciones utilizadas, etc., para la comunicación por medio de red. 1) 2) 3)

4)

1)

2) 3)

4)

5) 6)

Las características más importantes de un protocolo son: Directo/indirecto: los enlaces punto a punto son directos pero los enlaces entre dos entidades en diferentes redes son indirectos ya que intervienen elementos intermedios. Monolítico/estructurado: monolítico es aquel en que el emisor tiene el control en una sola capa de todo el proceso de transferencia. En protocolos estructurados, hay varias capas que se coordinan y que dividen la tarea de comunicación. Simétrico/asimétrico: los simétricos son aquellos en que las dos entidades que se comunican son semejantes en cuanto a poder tanto emisores como consumidores de información. Un protocolo es asimétrico si una de las entidades tiene funciones diferentes de la otra (por ejemplo en clientes y servidores). Normalizado/no normalizado: los no normalizados son aquellos creados específicamente para un caso concreto y que no va a ser necesario conectarlos con agentes externos. En la actualidad, para poder intercomunicar muchas entidades es necesaria una normalización. Las funciones más importantes son: Segmentación y ensamblado: generalmente es necesario dividir los bloques de datos en unidades pequeñas e iguales en tamaño, y este proceso se le llama segmentación. El bloque básico de segmento en una cierta capa de un protocolo se le llama PDU (Unidad de Datos de Protocolo). La necesidad de la utilización de bloque es por: a) La red sólo admite la transmisión de bloques de un cierto tamaño. b) El control de errores es más eficiente para bloques pequeños. c) Para evitar monopolización de la red para una entidad, se emplean bloques pequeños y así una compartición de la red. d) Con bloques pequeños las necesidades de almacenamiento temporal son menores. Hay ciertas desventajas en la utilización de segmentos: a) La información de control necesaria en cada bloque disminuye la eficiencia en la transmisión. b) Los receptores pueden necesitar interrupciones para recibir cada bloque, con lo que en bloques pequeños habrá más interrupciones. c) Cuantas más PDU, más tiempo de procesamiento. Encapsulado: se trata del proceso de adherir información de control al segmento de datos. Esta información de control es el direccionamiento del emisor/receptor, código de detección de errores y control de protocolo. Control de conexión: hay bloques de datos sólo de control y otros de datos y control. Cuando se utilizan datagramas, todos los bloques incluyen control y datos ya que cada PDU se trata como independiente. En circuitos virtuales hay bloques de control que son los encargados de establecer la conexión del circuito virtual. Hay protocolos más sencillos y otros más complejos, por lo que los protocolos de los emisores y receptores deben de ser compatibles al menos. Además de la fase de establecimiento de conexión (en circuitos virtuales) está la fase de transferencia y la de corte de conexión. Si se utilizan circuitos virtuales habrá que numerar los PDU y llevar un control en el emisor y en el receptor de los números. Entrega ordenada: el envío de PDU puede acarrear el problema de que si hay varios caminos posibles, lleguen al receptor PDU desordenados o repetidos, por lo que el receptor debe de tener un mecanismo para reordenar los PDU. Hay sistemas que tienen un mecanismo de numeración con módulo algún número; esto hace que el módulo sean lo suficientemente alto como para que sea imposible que haya dos segmentos en la red al mismo tiempo y con el mismo número. Control de flujo: hay controles de flujo de parada y espera o de ventana deslizante. El control de flujo es necesario en varios protocolos o capas, ya que el problema de saturación del receptor se puede producir en cualquier capa del protocolo. Control de errores: generalmente se utiliza un temporizador para retransmitir una trama una vez que no se ha recibido confirmación después de expirar el tiempo del temporizador. Cada capa de protocolo debe de tener su propio control de errores.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 8 38 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III 7)

8) 9)

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

Direccionamiento: cada estación o dispositivo intermedio de almacenamiento debe tener una dirección única. A su vez, en cada terminal o sistema final puede haber varios agentes o programas que utilizan la red, por lo que cada uno de ellos tiene asociado un puerto. Además de estas direcciones globales, cada estación o terminal de una subred debe de tener una dirección de subred (generalmente en el nivel MAC). Hay ocasiones en las que se usa un identificador de conexión; esto se hace así cuando dos estaciones establecen un circuito virtual y a esa conexión la numeran (con un identificador de conexión conocido por ambas). La utilización de este identificador simplifica los mecanismos de envío de datos ya que por ejemplo es más sencillo que el direccionamiento global. Algunas veces se hace necesario que un emisor emita hacia varias entidades a la vez y para eso se les asigna un direccionamiento similar a todas. Multiplexación: es posible multiplexar las conexiones de una capa hacia otra, es decir que de una única conexión de una capa superior, se pueden establecer varias conexiones en una capa inferior (y al revés). Servicios de transmisión: los servicios que puede prestar un protocolo son: a) Prioridad: hay mensajes (los de control) que deben tener prioridad respecto a otros. b) Grado de servicio: hay datos que deben de retardarse y otros acelerarse (vídeo). c) Seguridad.

9.1.2. Jerarquía de protocolos y modelo de capas • •

Las ideas básicas del Modelo de Capas son las siguientes: La capa n ofrece una serie de servicios a la capa n+1. La capa n solo “ve” los servicios que le ofrece la capa n-1. Cada nivel ofrece ciertos servicios a los niveles superiores y oculta la implantación de estos servicios. Usa el nivel inferior siguiente para implementar sus servicios. La capa n en un determinado sistema solo se comunica con su homóloga en el sistema remoto (comunicación igual a igual, “peer-to-peer” o de pares). Esa “conversación” se efectúa de acuerdo con una serie de reglas conocidas como protocolo de la capa n. En la realidad el nivel n de una máquina no puede transferir los datos directamente al nivel n de otra. Se pasa la información hacia abajo de un nivel a otro hasta que llega al nivel 1, que es el medio físico. Un nivel que tiene que transmitir un paquete a otra máquina puede agregar un encabezamiento al paquete y quizás partir el paquete en muchos. Por ejemplo, el encabezamiento puede identificar el mensaje y el destino. El nivel 3 de la mayor parte de las redes impone un límite en el tamaño de los paquetes. La comunicación entre dos capas adyacentes en un mismo sistema se realiza de acuerdo con una interfase. La interfase es una forma concreta de implementar un servicio y no forma parte de la arquitectura de la red. Las interfaces limpias permiten cambios en la implementación de un nivel sin afectar el nivel superior.

El modelo de capas simplifica considerablemente la tarea de cada una de las entidades, que sólo tiene que preocuparse de una pequeña parte de todo el mecanismo. En esencia se trata de aplicar a la resolución de problemas la vieja fórmula de divide y vencerás.

9.2. Decisiones en el diseño de arquitecturas de redes Cuando se diseña una arquitectura de red hay una serie de aspectos y decisiones fundamentales que condicionan todo el proceso. Entre estos cabe mencionar los siguientes: El direccionamiento, cada capa debe poder identificar los mensajes que envía y recibe (mecanismo para identificar los remitentes y los recibidores). En ocasiones un mismo ordenador puede tener varias instancias de una misma capa, por lo que la sola identificación del ordenador puede no ser suficiente. Normalmente cualquier protocolo admite comunicación en ambos sentidos (dúplex); pero no siempre se permite que esta ocurra de forma simultánea (full-dúplex). También se debe determinar si se definirán prioridades, y cuáles serán éstas. En cualquier comunicación es preciso establecer un control de errores, ya que los canales de comunicación no son totalmente fiables. Es preciso decidir que código de detección y/o corrección de errores se va a utilizar, y en que capa o capas se van a llevar a cabo. Generalmente a medida que los medios de transmisión mejoran y las tasas de errores disminuyen la detección / corrección se va suprimiendo de las capas inferiores y dejando al cuidado de las más altas, ya que es un proceso costoso que puede llegar a ralentizar apreciablemente la transmisión. En algunos casos se debe tener en cuenta la posibilidad de que los paquetes lleguen a su destino en orden diferente al de envío (orden de mensajes). Debe contemplarse la posibilidad de que el receptor no sea capaz de “digerir” la información enviada por el transmisor. Para esto es conveniente disponer de algún mecanismo de control de flujo y notificación para indicar la congestión (velocidades distintas de transmisión y recepción). Normalmente los equipos funcionan de forma óptima cuando el tamaño de los mensajes que se envían esta dentro de un cierto rango. Para evitar los problemas que puede producir el envío de mensajes muy grandes o T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 9 39 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

muy pequeños se suelen contemplar mecanismos de fragmentación y reagrupamiento. Es importante que estos mecanismos estén claramente especificados para evitar la destrucción del mensaje en tránsito.

9.3. Interfaces y servicios Para ver con mas detalle lo que es un servicio, se verán las siguientes definiciones: Se llama entidad a los elementos activos en cada capa. Una entidad puede ser un proceso, un componente hardware, o una combinación de ambos. Una computadora puede tener una o varias entidades en cada capa (por ejemplo una PC con dos tarjetas de conexión a LAN). Se llama entidades iguales o entidades pares (peer entities) a dos entidades homólogas, es decir entidades diferentes de la misma capa (generalmente estarán en diferentes máquinas, pero podrían estar en la misma). Las entidades de la capa n implementan los servicios que utiliza la capa n+1. En este caso la capa n actúa como el proveedor del servicio y la capa n+1 es el usuario del servicio. El uso que la capa n haga de los servicios de la capa n-1 es algo que no afecta ni incumbe a la capa n+1. Los servicios están disponibles en los SAPs (Service Access Points, Puntos de Acceso al Servicio). Los SAPs de la capa n son los puntos donde la capa n+1 puede acceder a los servicios ofertados. Cada SAP de cada entidad de la capa n tiene una dirección que le identifica de forma única en toda la red. Se denomina interfase al conjunto de reglas que gobiernan el intercambio de información entre capas. En una comunicación la entidad de la capa n+1 intercambia una IDU (Interface Data Unit) con la entidad de la capa n a través del SAP. La IDU esta formada por una SDU (Service Data Unit) e información de control. La SDU es la información que se transmite a la entidad equivalente (peer) en el lado contrario, y de allí a la capa n+1 a través de su SAP. La información de control es necesaria como su nombre indica para que la capa n haga correctamente su trabajo, pero no es parte de los datos mismos. En la especificación de una arquitectura, solo es necesario describir la estructura de la SDU, pero no la de la IDU; ésta se describe en la interfase, que puede ser distinta para cada implementación. Para transferir la SDU la entidad de la capa n puede tener que fragmentarla en varias PDUs (Protocol Data Units). Cada PDU llevará una cabecera que permitirá a la entidad de la capa n en el otro lado ensamblar de nuevo la SDU correctamente.

9.4. Servicios orientados y no orientados a conexión En una Arquitectura de Redes cada capa utiliza los servicios de la capa inmediatamente inferior para comunicarse con la correspondiente del otro extremo. En función de como se establezca esa comunicación suelen distinguirse dos tipos de servicios: orientados a conexión y no orientados a conexión. En el servicio orientado a la conexión, como en el sistema telefónico, la conexión es como un tubo, y los mensajes llegan en el orden en que fueron mandados (involucra usar un camino específico que se establece por el tiempo que dura una conexión). En el servicio sin conexión, como en el sistema de correo, cada mensaje trae la dirección completa del destino, y el ruteo de cada uno es independiente (la conexión involucra el paso de los datos a través de una conexión establecida permanentemente). En el Servicio Orientado a Conexión, también llamado CONS (Connection Oriented Network Service), primero se establece una conexión entre el emisor y el receptor (el canal de comunicación), después se transmiten los datos, y por último se termina la conexión. Dicha “conexión”’ se denomina Circuito Virtual (VC, Virtual Circuit). Una vez establecido el VC, el camino físico que van a seguir los datos está determinado (se reservaron recursos para asegurar una calidad de servicio consistente, como ser un throughput garantizado); los paquetes se transmiten secuencialmente por él desde el origen al destino, y llegan en el mismo orden con el que han salido. Se ofrece un envío de información seguro y fiable, puesto que el establecimiento de la conexión se realiza por adelantado y se controla a lo largo de toda la duración de la llamada. Durante la fase de terminación de la conexión, se terminan aquellas conexiones establecidas que ya no se necesitan. Más allá de esto, la comunicación entre la fuente y el sistema destino requiere que se establezca una nueva conexión. Dado que el VC establece de forma clara el destino, los paquetes no necesitan contener su dirección. Generalmente se distinguen dos tipos de circuitos virtuales: conmutados, también llamados SVCs (Switched Virtual Circuits), y permanentes, conocidos también como PVCs (Permanent Virtual Circuits). Los SVCs se establecen y terminan a petición del usuario, normalmente cuando hay paquetes que se quieren transmitir. Los PVCs están establecidos todo el tiempo que la red está operativa (o al menos eso es lo que se pretende). Al hablar de circuitos utilizaremos las denominaciones “establecer” y “terminar” en vez de abrir y cerrar, ya que estos términos tienen un significado completamente opuesto según se T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 0 40 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

trate de ingenieros informáticos o electrónicos (para un ingeniero electrónico un circuito esta abierto cuando esta interrumpido, es decir cuando no puede viajar por el ninguna señal). En el Servicio No Orientado a Conexión, llamado también CLNS (ConnectionLess Network Service) la comunicación se establece de manera menos formal. Cuando una entidad tiene información que transmitir sencillamente la envía en forma de paquetes, confiando que estos llegaran a su destino mas pronto o más tarde. La mayoría de los servicios de red usan un sistema de entrega no orientado a la conexión. Estos servicios manejan cada paquete por separado y lo envían a través de la red. Los paquetes pueden tomar distintas rutas para atravesar la red, pero se vuelven a ensamblar cuando llegan a su destino. No se establece previamente un VC ni otro tipo de canal de comunicación extremo a extremo; los paquetes al poder ir por caminos físicos diversos deben incluir cada uno la dirección de destino (no se hace contacto con el destino antes de que se envíe el paquete). Los paquetes pueden ser almacenados por nodos intermedios de la red, y reenviados mas tarde. Aunque lo normal es que lleguen en el mismo orden con que han salido, esto no esta garantizado como ocurría en el servicio orientado a conexión debido al almacenamiento en nodos intermedios y a la diversidad de caminos físicos posibles. A los paquetes enviados en un servicio no orientado a conexión se les denomina datagramas, ya que cada paquete viaja hacia su destino de forma completamente independiente de los demás como si fuera un telegrama. Una buena analogía para un sistema de entrega no orientado a la conexión es el sistema postal. No se hace contacto con el destinatario antes de que la carta se envíe desde un destino a otro. La carta se envía hacia su destino y el destinatario se entera de su existencia cuando la recibe. 9.4.1. Comparación de los procesos de red orientados y no orientados a conexión. Los procesos de redes no orientados a la conexión a menudo se definen como conmutados por paquetes (ver capitulo 3) lo que significa que no se establece conexión entre las computadoras transmisora y receptora antes de la transferencia de datos. Los paquetes son, simplemente, transmitidos en el medio tan pronto como los recibe la interfaz de red. Por consiguiente, no existe retardo de establecimiento o liberación de la llamada. Sin embargo, estos servicios no son siempre fiables porque no disponen de medios para garantizar el envío del paquete o para determinar cuándo se han perdido los paquetes. En estos procesos, a medida que los paquetes se transportan desde el origen hasta el destino, se pueden pasar a distintas rutas, así como también (posiblemente) llegar fuera del orden correcto. Los dispositivos realizan la determinación de ruta para cada paquete basándose en diversos criterios. Algunos de los criterios como, por ejemplo, el ancho de banda disponible, puede variar de un paquete a otro. Los procesos de red orientados a conexión a menudo se denominan conmutados por circuito (ver capitulo 3). Estos procesos establecen en primer lugar una conexión con el receptor y luego comienza la transferencia de datos. Esta conexión no está disponible para nadie más mientras dura la llamada. Además, la información transmitida durante esta llamada (la conversación) sólo es recibida por las dos partes conectadas. Todos los paquetes se transportan de forma secuencial a través del mismo circuito físico, o más comúnmente, a través del mismo circuito virtual. Internet es una enorme red sin conexión en la cual la entrega de paquetes es manejada por IP. TCP (capa 4) agrega servicios orientados a conexión en la parte superior de IP (capa 3). Los segmentos TCP se encapsulan en paquetes IP para ser transportados a través de internet. TCP proporciona servicios orientados a conexión para permitir una entrega confiable de los datos. En cualquiera de los dos tipos de servicio antes mencionados es posible que se produzca pérdida de información; también puede ocurrir que el tiempo de envío del paquete, también llamado retardo o latencia (delay y latency) sea demasiado grande o fluctúe dentro de un amplio rango debido a la carga o congestión en la red (el término inglés usado para denominar dicha fluctuación es Jitter, que literalmente significa temblar). En algunos casos se requiere una entrega fiable, es decir que se garantice la entrega de los paquetes, o un retardo y/o jitter garantizado, o sea no superior a un determinado valor. Por ejemplo si transferimos un fichero, normalmente dividiéndolo en múltiples paquetes, necesitaremos un servicio fiable en la entrega, pero podemos tolerar un retardo o jitter mas o menos grande; por el contrario la voz, o el vídeo (imagen en movimiento) toleran un pequeño porcentaje de pérdidas, pero requieren un retardo y un jitter reducidos y constantes. Cuando al establecer una comunicación se solicita un nivel mínimo para alguno de éstos parámetros se dice que se requiere una Calidad de Servicio (QoS, Quality of Service). La calidad de servicio estipula unos mínimos que la red ha de satisfacer para efectuar la conexión, por ejemplo “transmisión fiable con un retardo no superior a 100 ms”; es posible que la red no sea capaz de satisfacer la calidad solicitada, en cuyo caso podría hacer una propuesta alternativa, a modo de regateo (por ejemplo, “no se puede asegurar 100 ms de retardo, lo mínimo es 250ms, ¿conforme?”). Una vez pactadas las condiciones de la conexión éstas actúan a modo de contrato que obliga a la red a dar la calidad de servicio prometida al usuario. No todos los protocolos o redes ofrecen la posibilidad de negociar calidades de servicio; en estos casos el protocolo simplemente aprovecha los medios disponibles lo mejor que puede, intentando evitar las congestiones y situaciones críticas en lo posible, y repartir los recursos entre los usuarios de manera mas o menos equilibrada; esta T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 1 41 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

estrategia se denomina del “mejor esfuerzo” (best effort) Como ejemplos de redes con QoS se puede citar a ATM, como ejemplos de redes “best effort” se puede mencionar a TCP/IP (Internet) y a Ethernet. El servicio de red orientado a la conexión lleva dos desventajas significantes por encima del servicio sin conexión: selección del camino estático y reservación estática de los recursos de la red. La selección del camino estático puede crear dificultad porque todo el tráfico debe viajar a lo largo del mismo camino estático. Todos y cada uno de los puntos intermedios en el camino de transmisión deben ser identificados e informados de la existencia de la conexión. Esta gestión se realiza de manera distinta según los diferentes tipos de sistemas de comunicaciones. Un fracaso en cualquier parte del camino causará la falla de la conexión. La reservación estática de recursos de red causará dificultad debido a que requiere una proporción garantizada de throughput y, por lo tanto, un compromiso de recursos que otros usuarios de la red no podrán compartir. Además de no hacer un uso eficiente de la conexión el establecimiento y la liberación llevan su tiempo. Piénsese en las llamadas de voz (muchas conversaciones constan de largos intervalos de pausas y silencios). De cierto modo esto se da también en las transmisiones de datos. Y aún siendo así, en las comunicaciones orientadas a conexión, una conexión se dedica a una transmisión particular hasta que ésta finaliza. Ninguna otra transmisión puede compartir el ancho de banda dedicado a esa llamada. A menos que se use la conexión en forma completa, es decir throughput ininterrumpido, el ancho de banda no es usado eficazmente. Los servicios orientados a la conexión, sin embargo, son útiles para transmitir datos desde aplicaciones que no toleran retardos y resecuenciamiento de paquetes. Las aplicaciones de voz y video están típicamente basadas en servicios orientados a la conexión Como otra desventaja, los servicios de red sin conexión no predeterminan el camino desde la fuente al sistema destino, ni garantizan secuenciamiento de paquetes, throughput de datos y otros recursos de la red. Cada paquete debe ser completamente dirigido porque pueden seleccionarse diferentes caminos a través de la red para los diferentes paquetes, basados en una variedad de influencias. Cada paquete es transmitido independientemente por el sistema de fuente y es manejado independientemente por los dispositivos de red intermedios. Los servicios sin conexión, sin embargo, ofrecen dos importantes ventajas sobre los servicios orientados a la conexión: la selección del camino dinámico y la asignación dinámica del ancho de banda. La selección del camino dinámico permite rutear el tráfico alrededor de fallas de red porque los caminos se seleccionan sobre una base de paquete a paquete. Con la asignación de ancho de banda dinámico, el bandwidth se usa más eficazmente porque no se asigna ancho de banda a los recursos de red que no se usarán. Los servicios sin conexión son útiles para transmitir datos de aplicaciones que pueden tolerar un poco de retraso y resecuenciamiento. Las aplicaciones basadas en datos están típicamente basadas en servicio sin conexión

9.5. Primitivas de servicio Recordemos que, en el modelo de capas, cada capa ofrece sus servicios a la siguiente. El servicio se define por un conjunto de operaciones u órdenes que la capa superior puede mandar a la capa inferior. Dicho conjunto de operaciones se denomina Primitivas. Cada servicio define un conjunto de primitivas (tales como “solicitar” o “acusar recibo”). Por contraste el protocolo es el conjunto de reglas que controlan el formato y significado de los paquetes intercambiados por entidades de par. Se usan los protocolos para implementar los servicios. Vamos a analizar en detalle las primitivas que participan en el establecimiento y terminación de una conexión entre la capa n de dos sistemas llamados A y B. La entidad An (es decir, la capa n del sistema A) inicia la conexión emitiendo la primitiva CONNECT.request, que provoca la transferencia de una IDU (Interface Data Unit) a través del SAP (Service Access Point) a la entidad An-1; ésta extrae la información de control y la interpreta creando la SDU (Service data Unit), que convierte en una o varias PDUs (Protocol Data Units); las PDUs son transferidas a Bn-1, que regenera a partir de ello la SDU, luego la información de control correspondiente y con ambos la IDU; una vez dispone de la IDU la transmite a Bn a través del SAP mediante la primitiva CONNECT.indication, que le indica a Bn que alguna entidad desea establecer conexión con ella. La entidad Bn emite entonces la primitiva CONNECT.response para indicar si acepta o rechaza la conexión (las primitivas pueden llevar parámetros y sería aquí donde se indicaría esto). La respuesta se traduce en un paquete que Bn-1 envía a An-1, el cual informa a An de la situación mediante la primitiva CONNECT.confirm. Obsérvese que el mismo evento origina diferentes primitivas en cada lado. Una CONNECT.request produce una CONNECT.indication en el lado contrario, y la CONNECT.response se convierte en CONNECT.confirm. Existe una cierta simetría entre las primitivas, ya que a una CONNECT.request siempre le corresponderá una CONNECT.indication en el lado opuesto (salvo que falle la comunicación). En este ejemplo hemos hecho un servicio confirmado, es decir, hemos verificado que la conexión se establecía, para lo cual ha tenido que enviarse un paquete en cada sentido. Se podría haber hecho una conexión no confirmada, para lo cual sencillamente se habría emitido la CONNECT.request y la CONNECT.indication. Una vez establecida la conexión lo normal sería transferir datos, y finalmente terminar la conexión. Un ejemplo del conjunto de primitivas que se emitirían a lo largo de una conexión podría ser el siguiente: En A En B CONNECT.request CONNECT.indication T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 2 42 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O III

N N B W O R K N G O NEEETTTW WO OR RK KIIIN NG GB BÁÁÁSSSIIICCCO O

CONNECT.response CONNECT.confirm DATA.request DATA.indication DATA.request DATA.indication DISCONNECT.request DISCONNECT.indication Aquí se introdujo cuatro nuevas primitivas para poder transferir datos y terminar la conexión. Observar que como antes una primitiva request va seguida siempre de una indication en el lado contrario. En este ejemplo se supuso que se intercambiaban únicamente dos paquetes de datos. Como se dijo las primitivas pueden llevar parámetros, y de hecho casi siempre los llevan. Por ejemplo una CONNECT.request llevará la máquina con la que se desea conectar, una CONNECT.indication dirá la máquina que quiere conectar con nosotros, etc. La descripción detallada de estos argumentos, su significado, etc., no es parte de la especificación de las primitivas (y por tanto del servicio) sino del protocolo. El protocolo puede modificarse sin necesidad de cambiar las primitivas. Por ejemplo, un protocolo puede establecer que el servicio de establecimiento de conexión sea confirmado y otro que no lo sea, y ambos pueden utilizar el mismo conjunto de primitivas antes descrito. Una vez mas, la interfase no forma parte del protocolo. Por ejemplo, si en el caso anterior en el que las entidades An y An-1 acuerdan que la SDU estará codificada en EBCDIC, mientras que Bn y Bn-1 acuerdan utilizar ASCII. Si el protocolo de la capa n-1 establece que la PDU estará en ASCII, entonces An-1 sabe que deberá realizar la conversión de códigos cada vez que construya una PDU a partir de una SDU, o viceversa.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 3 43 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

M O D E L O D E MO OD DE EL LO OSSS D DE ER REEEFFFEEERRREEENNNCCCIIIAAA Hasta ahora se vio el modelo de capas en un sentido genérico. Se verá ahora, con cierto detalle, las dos arquitecturas de redes mas importantes en la actualidad, correspondientes a los protocolos OSI (Open Systems Interconnection) y TCP/IP (Transmission Control Protocol/Internet Protocol). Conviene destacar que la arquitectura es una entidad abstracta, mas general que los protocolos o las implementaciones concretas en que luego se materializan éstos. Típicamente para cada capa de una arquitectura existirán uno o varios protocolos, y para cada protocolo habrá múltiples implementaciones. Las implementaciones cambian continuamente; los protocolos ocasionalmente se modifican o aparecen otros nuevos que coexisten con los anteriores o los dejan anticuados; sin embargo una vez definida una arquitectura ésta permanece esencialmente intacta y muy raramente se modifica.

111... E E M O D E L O D E R E E R E N C A ELLLM MO OD DE EL LO OD DE ER RE EFFFE ER RE EN NC CIIIA AO OSSII Durante las últimas dos décadas ha habido un enorme crecimiento en la cantidad y tamaño de las redes. Muchas de ellas sin embargo, se desarrollaron utilizando implementaciones de hardware y software diferentes. Como resultado, muchas de las redes eran incompatibles y se volvió muy difícil para las redes que utilizaban especificaciones distintas poder comunicarse entre sí. Después de la especificación de SNA por parte de IBM cada fabricante importante definió su propia arquitectura de redes; así la evolución de los productos de comunicaciones estaba garantizada, pero no se había resuelto el problema de la interoperabilidad entre diferentes fabricantes. Debido a la posición de hegemonía que IBM disfrutaba en los años 70 y principios de los ochenta la compatibilidad con IBM era un requisito necesario, por lo que la mayoría de los fabricantes tenían implementaciones de los protocolos SNA para sus productos, o estas estaban disponibles a través de terceros. Así, la forma mas sencilla de interconectar dos equipos cualesquiera era conseguir que ambos hablaran SNA. Resultaba cada vez más difícil que las redes que usaban diferentes especificaciones pudieran comunicarse entre sí. Se dieron cuenta que necesitaban salir de los sistemas de networking propietarios. Los sistemas propietarios se desarrollan, pertenecen y son controlados por organizaciones privadas. En la industria informática, propietario es lo opuesto de abierto, y significa que una empresa o un pequeño grupo de empresas controla el uso de la tecnología. Abierto significa que el uso libre de la tecnología está disponible para todos. En 1977 la ISO (International Organization for Standardization) consideró que esta situación no era la más conveniente y realizó varias investigaciones acerca de los distintos esquemas de red (Decnet, SNA, TCP/IP). La ISO reconoció que era necesario crear un modelo de red que pudiera ayudar a los diseñadores de red a implementar redes que pudieran comunicarse y trabajar en conjunto (interoperabilidad) por lo que entre 1977 y 1983 definió la arquitectura de redes OSI (Open System Interconnection) con el fin de promover la creación de una serie de estándares que especificaran un conjunto de protocolos independientes de cualquier fabricante, un modelo de red que ayudaría a los fabricantes a crear redes que fueran compatibles y que pudieran operar con otras redes. Se pretendía con ello no favorecer a ninguno a la hora de desarrollar implementaciones de los protocolos correspondientes, cosa que inevitablemente habría ocurrido si se hubiera adoptado alguna de las arquitecturas existentes, como la SNA (System Network Architecture) de IBM o la DNA (Digital Network Architecture) de Digital. Se esperaba llegar a convertir los protocolos OSI en el auténtico ‘Esperanto’ de las redes telemáticas. Por diversas razones que veremos luego el éxito de los protocolos OSI en la práctica ha sido mucho menor de lo inicialmente previsto. Seguramente la aportación más importante de la iniciativa OSI ha sido precisamente su arquitectura. Ésta ha servido como marco de referencia para describir multitud de redes correspondientes a diversas arquitecturas, ya que la arquitectura OSI es bien conocida en entornos de redes, y su generalidad y falta de dependencia de algún fabricante en particular lo hacen especialmente adecuada para estos fines. Por este motivo generalmente a la arquitectura OSI se la denomina Modelo de Referencia OSI, o también OSIRM (OSI Reference Model). Por extensión hoy en día se utiliza a menudo el término modelo de referencia para referirse a una arquitectura de red; así oímos hablar del Modelo de Referencia TCP/IP, el Modelo de Referencia ATM, etc. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

4 4 7 47 7

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

1.1. División en capas El concepto de capas y de flujo ayudará a comprender la acción que se produce durante el proceso de comunicación de una computadora a otra en una red informática. El desplazamiento de objetos, sea este físico o lógico, se conoce como flujo. Existen muchas capas que forman parte de y ayudan a describir los detalles del proceso de flujo. Ejemplos de sistemas de flujo son el sistema de suministro de agua, el sistema postal, el sistema telefónico, etc. Así al analizar esta interacción desde el punto de vista de las capas se podrá entender más claramente algunos de los problemas de la comunicación y cómo es posible resolver estos problemas, y también entender el proceso de comunicación: el origen y destino del mensaje, el medio de comunicación y el protocolo usado. El modelo describe cómo la información de una aplicación de software en una computadora se mueve, a través de un medio de red, hacia otra aplicación de software en otra computadora. OSI es un modelo conceptual compuesto de siete capas numeradas (curiosamente como en la arquitectura SNA si bien la funcionalidad es diferente), cada una de ellas especificando funciones particulares de red. Esta división de las funciones de networking se denomina división en capas. La división de la red en capas presenta las siguientes características ventajosas: 1. Dividir los aspectos interrelacionados de las operaciones de red en elementos menos complejos (partes más pequeñas y sencillas). 2. Definir interfaces estándar para compatibilidad plug-and-play y para la integración de elementos de múltiples proveedores. Normaliza los componentes de red de diferentes fabricantes. Permite a los distintos tipos de hardware y software de red comunicarse entre sí. 3. Permitir que los ingenieros concentren sus esfuerzos de diseño y de desarrollo en las funciones de una capa específica. Impide que los cambios en una capa puedan afectar las demás capas, de manera que se puedan desarrollar con más rapidez. 4. Promover la simetría de las diferentes funciones modulares de la internetwork con fines de interoperabilidad. 5. Dividir las operaciones complejas de internetworking en subconjuntos discretos de operaciones separados, para que sean más fáciles de aprender. 6. El número de capas, el nombre de las misma, y la función de cada una difiere de red a red. 7. La capa n de un host lleva a cabo una “conversación” con la capa n de otro host. 8. Las reglas y convenciones utilizadas en esta conversación se conocen como “protocolo de capa n”. 9. Las entidades (de HW o SW) que implementan las funciones de una misma capa en diferentes equipos se denominan “pares”. 10. Entre cada par de capas adyacentes existe una “interfase”. 11. Al conjunto de capas y protocolos se lo conoce como “arquitectura de red”. Para adaptarse a los crecientes requisitos de ancho de banda, escalabilidad y confiabilidad, los fabricantes y las organizaciones de normalización presentan nuevos protocolos y tecnologías casi constantemente. Los diseñadores de redes se ven obligados a desarrollar redes de tecnología avanzada, aunque lo que se considera avanzado tal vez cambie en cuestión de meses, sino semanas. Para reducir su complejidad la mayoría de las redes fueron organizadas en una serie de capas o niveles. Al dividir y organizar las tareas de networking en capas/funciones separadas, se podían manejar las nuevas aplicaciones sin problemas. Así el problema de trasladar información entre computadoras se dividió en siete problemas más pequeños y de tratamiento más simple. Esta separación de las funciones de networking se denominó división en capas. Los datos fluyen desde las aplicaciones del usuario de los niveles superiores hasta los bits de nivel inferior que se transmiten a través de los medios de red. La tarea de la mayoría de los administradores de red es configurar las tres capas inferiores. Las funciones entre iguales usan el encapsulamiento y el desencapsulamiento como interfaz para las capas. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

4 4 8 48 8

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

Cada uno de los siete problemas más pequeños está representado por su propia capa en el modelo. Las siete capas del modelo OSI son: * Capa 7: La capa de aplicación * Capa 6: La capa de presentación * Capa 5: La capa de sesión * Capa 4: La capa de transporte * Capa 3: La capa de red * Capa 2: La capa de enlace de datos * Capa 1: La capa física 1.2.1. Principios del Modelo OSI

6. 7.

Los principios aplicados para la definición de siete capas son los siguientes: 1. Una nueva capa es creada cuando se necesite un nivel diferente de abstracción. 2. Cada capa debe realizar una función bien definida. 3. Las funciones a ejecutar en cada capa deben seleccionarse considerando la definición futura de protocolos estandarizados internacionalmente 4. Los límites de cada capa deben ser elegidos de forma tal que se minimice el intercambio de datos a través de las interfases 5. El número de capas debe ser lo suficientemente grande para evitar que funciones diferentes sean implementadas juntas, y lo suficientemente pequeño para que la arquitectura no se torne inmanejable. Cada capa es bastante autónoma, para que las tareas asignadas a cada capa puedan llevarse a cabo independientemente. Esto permite que las soluciones ofrecidas por una capa sean llevadas a cabo sin afectar adversamente a las otras capas. Cada capa realizará algunas de las siguientes funciones (entre otras):segmentación y reensamblado, encapsulado, control de la conexión, entrega ordenada, control de flujo, control de error, direccionamiento, etc.

Al dividir el problema en partes, una tarea o grupo de tareas se asigna entonces a cada una de las siete capas de OSI. 1.2.3. Características de las capas de OSI Las siete capas del modelo de referencia OSI pueden ser divididas en dos categorías: las capas superiores (las 4 superiores) y las capas más bajas (las 3 inferiores). Las capas superiores del OSI tratan con las aplicaciones y generalmente sólo se llevan a cabo en software. La capa más alta, la de aplicación, es más íntima al usuario final. Ambos, usuarios y procesos de la capa de aplicación, interactúan recíprocamente con aplicaciones de software que contienen componentes de comunicación. El término capa superior se usa a veces para referirse a cualquier otra capa superior del modelo OSI. Las capas más bajas del OSI tratan cuestiones de transporte de datos. La capa de red y la capa de enlace de datos se implementan en hardware y software. La capa más baja, la capa física, está relacionada íntimamente al medio de red físico (el cableado de la red, por ejemplo) y es el responsable real de poner la información en el medio. 1.2.4. Protocolos OSI El modelo OSI provee un armazón conceptual para la comunicación entre computadoras, pero el modelo en si mismo no es un método de comunicación. La comunicación real se hace posible usando protocolos de comunicación. La ISO ha especificado protocolos para todas las capas, aunque algunos son poco utilizados. En función del tipo de necesidades del usuario no siempre se utilizan todas ellas. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

4 4 9 49 9

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

El objetivo general de estos protocolos de comunicación es permitir que la aplicación informática en una computadora se comunique con una aplicación en otra computadora, independientemente de la plataforma de hardware o del sistema operativo de cualquiera de las dos computadoras. En el contexto del networking de datos, un protocolo es un conjunto formal de reglas y convenciones que gobiernan cómo las computadoras intercambian información a través de un medio de red. Un protocolo implementa las funciones de una o más de las capas OSI. Existe una amplia variedad de protocolos de comunicación, pero todos tienden a entrar en uno de los siguientes grupos: protocolos LAN, protocolos WAN, protocolos de red y protocolos de ruteo. Los protocolos LAN operan en las capas física y de enlace de datos del OSI y definen la comunicación sobre los distintos medios de comunicación LAN. Los protocolos WAN operan en las tres capas más bajas del OSI y definen la comunicación sobre los distintos medios de comunicación del área amplia. Los protocolos de ruteo son protocolos de la capa de red y son responsables de la determinación del camino y de la conmutación del tráfico. Finalmente, los protocolos de red son los distintos protocolos de las capas superiores que existen en una colección protocolar dada. 1.2.5. Servicios de las capas OSI Una capa OSI se comunica con otra capa para hacer uso de los servicios proporcionados por la segunda capa. Los servicios proporcionados por las capas adyacentes ayudan a una capa OSI dada a comunicarse con su capa par en otro sistema de computadora. Tres elementos básicos están envueltos en los servicios de una capa: el usuario de servicio, el proveedor de servicio y el punto de acceso al servicio (SAP, Service Access Point). En este contexto, el usuario de servicio es la capa OSI que pide servicios a una capa OSI adyacente. El proveedor de servicio es la capa OSI que proporciona servicios a los usuarios de servicio. Las capas OSI pueden proporcionar servicios a múltiples usuarios de servicio. El SAP es una locación conceptual en el cuál una capa OSI puede requerir los servicios de otra capa OSI. Interacción de los tres elementos entre la capa de red y la de enlace de datos

22.. E ENNNCCCAAAPPPSSSUUULLLAAAM M E N T O MIIIE EN NT TO O Las siete capas del OSI usan distintas formas de información de control para comunicarse con sus capas pares en otros sistemas de computadora. Esta información de control consiste en requerimientos específicos e instrucciones que se intercambian entre las capas OSI pares. La información de control toma una de dos formas: headers y trailers. Los headers (cabeceras) son preañadidos a los datos que se han pasado desde las capas superiores (“encabezado” significa que se ha agregado la información correspondiente a la dirección). Los trailers (remolque) se añaden a los datos que se han pasado desde las capas superiores. No se requiere una capa OSI para atachar un header o trailer a los datos desde las capas superiores. Los headers, trailers y datos son conceptos relativos y dependen de la capa que analiza la unidad de información. Para la capa de red, una unidad de información, por ejemplo, consiste de datos y headers de la capa 3. Para la capa de enlace de datos, sin embargo, toda la información pasada hacia abajo por la capa de la red (header y datos de la capa 3) es tratada como datos. En otras palabras, la porción de datos de una unidad de información para una capa OSI dada puede contener headers, trailers y datos de todas las capas más altas. Es decir, si una computadora (host A) desea enviar datos a otro (host B), en primer término los datos deben empaquetarse a través de un proceso denominado encapsulamiento. El encapsulamiento rodea los datos con la información de protocolo necesaria antes de que se una al tránsito de la red. Por lo tanto, a medida que los datos se desplazan a través de las capas del modelo OSI, reciben encabezados, información final y otros tipos de información. Cada capa depende de los servicios de la capa del modelo de referencia inmediatamente inferior. Para brindar este servicio, la capa inferior utiliza el encapsulamiento para colocar la Unidad de Datos de Protocolo (PDU, Protocol Data Unit) de la capa superior en su campo de datos; entonces puede agregar los encabezados e información final que la capa necesite para cumplir su función. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

5 5 0 50 0

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

Las redes deben realizar los siguientes cinco pasos de conversión a fin de encapsular los datos (desde las capas superiores hacia las inferiores, en el origen y, viceversa, en el destino): 1. Crear los datos: cuando se envía un mensaje de correo electrónico, sus caracteres alfanuméricos se convierten en datos que pueden recorrer la internetwork. 2. Empaquetar los datos para ser transportados de extremo a extremo: los datos se empaquetan para ser transportados por la internetwork (extremo-a-extremo). Con el empaquetamiento, la función de transporte se asegura que los hosts, en ambos extremos, del sistema de correo electrónico, se puedan comunicar de forma confiable. 3. Anexar (agregar) la dirección de red al encabezado: los datos se colocan en un nuevo “paquete” que contiene el encabezado de red con las direcciones lógicas origen y destino. Estas direcciones ayudan a los dispositivos de red a enviar los paquetes a través de la red por una ruta seleccionada. 4. Anexar (agregar) la dirección local al encabezado de enlace de datos: cada dispositivo de la red debe poner el “paquete” anterior dentro de una trama. La trama le permite conectarse al próximo dispositivo de red conectado directamente en el enlace. Cada dispositivo en la ruta de red seleccionada requiere el entramado para poder conectarse al siguiente dispositivo. 5. Realizar la conversión a bits para su transmisión: la trama debe convertirse en un patrón de unos y ceros (bits) para su transmisión a través del medio (por lo general un cable). Una función de temporización permite que los dispositivos distingan estos bits a medida que se trasladan por el medio. El medio en la internetwork física de redes puede variar a lo largo de la ruta utilizada. Por ejemplo, el mensaje de correo electrónico puede originarse en una LAN, cruzar el backbone de un campus y salir por un enlace de WAN hasta llegar a su destino en otra LAN remota. Los encabezados y la información final se agregan a medida que los datos se desplazan a través de las capas del modelo OSI.

2.1. Proceso de intercambio de información o de transmisión de datos entre sistemas La información que se transfiere desde un software de aplicación en un sistema de computadora a un software de aplicación en otra debe atrave sar cada una de las capas del OSI (tanto en el origen como en el destino). Cada capa en el sistema fuente agrega información de control a los datos y cada capa en el sistema destino analiza y quita la información de control de estos datos. Una capa dada de las capas de OSI generalmente se comunica con otras tres capas de OSI: la capa directamente sobre ella, la capa directamente debajo de ella y su capa par en otro sistema de computadora. El proceso de intercambio de información o transmisión de datos ocurre entre capas OSI pares y de forma análoga a lo ya descrito para el modelo de capas. Para que los paquetes de datos puedan viajar desde el origen hasta su destino, cada capa del modelo OSI en el origen debe comunicarse con su capa igual en el lugar destino. Esta forma de comunicación se conoce como comunicaciones para-par. Durante este proceso, cada protocolo de capa intercambia información, que se conoce como PDU, con sus capas iguales. Cada capa de comunicación, en la computadora origen, se comunica con un PDU específico de capa y con su capa igual en la computadora destino. Una capa puede usar un nombre más específico para su PDU. Por ejemplo, en TCP/IP la capa de transporte de TCP se comunica con las funciones de TCP iguales mediante segmentos. Cada capa usa los servicios de la capa inmediatamente inferior para comunicarse con su capa igual. El servicio de la capa inferior usa la información de las capas superiores como parte de las PDU que intercambia con su igual. Los paquetes de datos de una red parten de un origen y se envían a un destino. Cada capa depende de la función de servicio de la capa OSI que se encuentra debajo de ella. Para brindar este servicio, la capa inferior utiliza el encapsulamiento para colocar la PDU de la capa superior en su campo de datos, luego le puede agregar cualquier encabezado e información final que la capa necesite para ejecutar su función. Posteriormente, a medida que los TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

5 5 1 51 1

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

datos se desplazan hacia abajo a través de las capas del modelo OSI, se agregan encabezados e información final adicionales. Después de que las capas 7, 6 y 5 han agregado la información, la capa 4 agrega más información. Este agrupamiento de datos, la PDU de la capa 4, se denomina segmento. Por ejemplo, la capa de red presta un servicio a la capa de transporte y la capa de transporte presenta datos al subsistema de internetworking. La tarea de la capa de red consiste en trasladar esos datos a través de la internetwork. Ejecuta esta tarea encapsulando los datos y agregando un encabezado, con lo que crea un paquete o datagrama (PDU de la capa 3). Este encabezado contiene la información necesaria para completar la transferencia, como por ejemplo, las direcciones lógicas origen y destino. El nivel de transporte también asigna números de secuencia a los paquetes. Este número de secuencia indica a la estación receptora el orden en el que los paquetes deben ser procesados. Por tanto, el nivel de transporte del destino leerá el número de secuencia asignado al paquete por el nivel de transporte en el origen y procesará los paquetes en ese orden. La capa de enlace de datos suministra un servicio a la capa de red, encapsula la información de la capa de red en una trama (la PDU de la capa 2) el encabezado de la trama contiene información, por ejemplo, direcciones físicas, que es necesaria para completar las funciones de enlace de datos. La capa de enlace de datos suministra un servicio a la capa de red encapsulando la información de la capa de red en una trama. La capa física también suministra un servicio a la capa de enlace de datos. La capa física codifica los datos de la trama de enlace de datos en un patrón de unos y ceros (bits) para su transmisión a través del medio (generalmente un cable) en la capa 1. En el caso mas general cada capa añade una cabecera propia a los datos recibidos de la capa superior, y construye así su PDU. La capa homóloga del nodo de destino se ocupará de extraer dicha cabecera, interpretarla, y entregar la PDU correspondiente a la capa superior. En algunos casos la cabecera puede no existir. En el caso particular de la capa de enlace además de la cabecera añade una cola al construir la PDU (trama) que entrega a la capa física. 2.1.1. Problemas de compatibilidad El modelo de referencia OSI no es una implementación de red. En cambio cada una de las siete capas del modelo de referencia OSI sirve para y define una función específica. El modelo OSI define las funciones que pueden ser utilizadas por cualquier proveedor de productos de red. De esta manera, es como un modelo para construir un barco. Después de que el modelo de nave este completo, la nave debe, todavía, construirse. Cualquier número de compañías de construcción puede ser contratado para hacer el trabajo, así como cualquier número de vendedores de red puede construir una aplicación protocolar de una especificación protocolar. Y, a menos que el modelo sea extremadamente comprensivo (improbable), las naves construidas por compañías diferentes que usen el mismo modelo diferirán de las otras en al menos sus detalles menores. ¿Qué decir entonces de las diferencias entre implementaciones con el mismo modelo o especificación protocolar? En parte, las diferencias se deben a la incapacidad de cualquier especificación para considerar cada detalle posible de implementación. También, los diferentes impulsores no dudarán en interpretar el modelo de maneras ligeramente diferentes. Y, finalmente, los inevitables errores de implementación causarán que las diferentes aplicaciones difieran en ejecución. Esto explica por qué la aplicación con un protocolo X de una compañía no siempre interopera con la aplicación de ese protocolo de otra compañía. Cada capa individual del modelo OSI tiene un conjunto de funciones que debe realizar para que los paquetes de datos puedan viajar en la red desde el origen hasta el destino.

33.. L L C LAAASSSC CAAAPPPAAASSSDDDEEEO OSSII 3.1. La Capa 1 - Capa Física (Physical Layer) La capa física define las especificaciones eléctricas, mecánicas, procesales y funcionales para activar, mantener y dejar fuera de funcionamiento (desactivar) el enlace físico entre sistemas de comunicación en red. Las características técnicas de la capa física definen características como niveles de voltaje, sincronía de cambios de voltaje, tasa física de datos, distancia máximas de transmisión y conectores físicos. Las implementaciones de la capa física pueden categorizarse como especificaciones LAN o WAN. La figura ilustra algunas implementaciones comunes de las capas físicas de las redes LAN y WAN. Las implementaciones de la capa física pueden ser especificaciones LAN o WAN (ver figura). TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

5 5 2 52 2

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

La capa física está a cargo del desplazamiento de los bits de datos a través de los medios físicos. Los datos, bajo la forma de unos y ceros, se transforman en señales eléctricas, pulsos luminosos o señales inalámbricas. Estas señales se transportan por cables de cobre, fibra óptica o se emiten por medios inalámbricos, mediante una NIC. Al recibir datos desde la red, la NIC transforma las señales eléctricas, los pulsos luminosos o las señales inalámbricas nuevamente en unos y ceros, que entonces pasan por las diversas capas del modelo OSI en sentido ascendente. Esta capa transmite los bits entre dos entidades (nodos) directamente conectadas, también denominado transmisión entre dispositivos adyacentes. Puede tratarse de un enlace punto a punto o de una conexión multipunto (una red broadcast, por ejemplo Ethernet). La comunicación puede ser dúplex, semi-dúplex o simplex. Si la información se transmite por señales eléctricas se especifican los voltajes permitidos y su significado (1 ó 0) y análogamente para el caso de fibra óptica. Los protocolos son los estándares de cableado, señalización y conexión. Los servicios incluyen Ethernet, Token Ring, FDDI y otras tecnologías LAN. Como ejemplos de la capa física podemos mencionar las norma EIA RS-232-C, utilizada por las puertas COM de los ordenadores personales, la EIA-RS-449, CCITT X.21/X.21bis, CCITT V.35. Las normas de redes locales incluyen en sus especificaciones la capa física (IEEE 802.3 o Ethernet, IEEE 802.5 o Token Ring, ISO 9314 o FDDI, etc.). Muchas de las normas que existen en la capa física se refieren a la interfaz utilizada para conectar un ordenador con un módem o dispositivo equivalente, que a través de una línea telefónica conecta con otro módem y ordenador en el extremo opuesto. Este es el caso por ejemplo de las normas EIA RS-232-C, EIA-RS-449, CCITT X.21/X.21bis y CCITT V.35 antes mencionadas. En estos el conector del ordenador y el módem son de diferente “sexo” (macho o hembra). En este contexto se suele utilizar la denominación DTE (Data Terminal Equipment) para referirse al ordenador y DCE (Data Circuit-Terminating Equipment) para referirse al módem. El “módem” en ocasiones no es más que un adaptador, ya que por ejemplo la norma X.21 se utiliza para líneas digitales. En sentido general al equipo que actúa como adaptador entre el ordenador y el medio de transmisión se le denomina CSU/DSU (Channel Service Unit/ Data Service Unit). Otros dispositivos o componentes que son utilizados en este capa (sobre todo en LANs) incluyen: 1. componentes pasivos: paneles de conexión, conectores, cableado, jacks (estándares 10/100BaseX). 2. dispositivos activos: repetidores, repetidores multipuerto (también denominados hubs), Unidades de Acceso al Medio o MAU (Media Access Unit) y transceivers (transmisores/receptores, para convertir un tipo de señal en otro).

3.2. La Capa 2 - Capa de Enlace de Datos (Data Link Layer) La principal función de la capa de enlace es ofrecer un servicio de comunicación fiable a partir de los servicios que recibe de la capa física, también entre dos entidades contiguas de la red. Esto supone que se realice detección y posiblemente corrección de errores. Las diferentes especificaciones de la capa de enlace de datos definen diferentes redes y características protocolares, incluyendo direccionamiento físico (diferente del de red, o lógico), topología de red, la disciplina de línea (la forma en que los sistemas finales utilizan el enlace de red), notificación de errores, secuencia de frames (entrega ordenada de tramas) y control de flujo. El direccionamiento físico define cómo los dispositivos se direccionan a la capa de enlace de datos. La topología de red consiste de las especificaciones de la capa de enlace de datos que a menudo definen cómo los dispositivos van a ser conectados físicamente, como un bus o una topología de anillo. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

5 5 3 53 3

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

Una vez que se han transmitido los datos, la capa de enlace de datos del modelo OSI suministra acceso a los medios de networking y la transmisión física a través de los medios, lo que permite que los datos localicen el destino deseado en una red. A diferencia de la capa física, que transmitía los bits de manera continua, la capa de enlace transmite los bits en grupos denominados tramas o frames cuyo tamaño es típicamente de unos pocos cientos a unos pocos miles de bytes. Si el paquete recibido de la capa superior es mayor que el tamaño máximo de trama la capa física debe encargarse de fragmentarlo, enviarlo y recomponerlo en el lado opuesto. En caso de que una trama no haya sido transmitida correctamente se deberá enviar de nuevo; también debe haber mecanismos para reconocer cuando una trama se recibe duplicada. Las notificaciones de error alertan a los protocolos de la capa superior que ha ocurrido un error de transmisión y que se reordene el secuenciamiento de los frames de datos pidiendo los frames que se transmitieron fuera de secuencia. Finalmente, el control de flujo modera la transmisión de datos para que el dispositivo receptor no se agobie con más tráfico que el que pueda manejar por vez. Para cada limitación de la capa 1, la capa 2 ofrece una solución. Por ejemplo, la capa 1 no puede dar un nombre o identificar a los computadores; la capa 2 usa un proceso de direccionamiento o denominación). La capa 1 sólo puede describir corrientes de bits; la capa 2 usa el entramado para organizar o agrupar los bits. La capa 1 no puede decidir cuál de las computadoras transmitirá los datos binarios desde un grupo en el que todos están tratando de realizar la transmisión al mismo tiempo. La capa 2 utiliza un método que controla el acceso al medio. El método de acceso de Ethernet, el CSMA/CD, funciona en esta capa para determinar cuáles son los dispositivos que deben transmitir en un momento dado para evitar las colisiones. 3.2.1. Tramas de datos y entramado Las corrientes de bits codificadas en medios físicos representan un logro tecnológico extraordinario, pero por sí solas no bastan para que las comunicaciones puedan llevarse a cabo. La capacidad de entramado ayuda a obtener información esencial que, de otro modo, no se podría obtener solamente con las corrientes de bits codificadas: Entre los ejemplos de dicha información se incluye: a) Cuáles son las computadoras que se comunican entre sí. b) Cuándo comienza y cuándo termina la comunicación entre computadoras individuales. c) Un registro de los errores que se han producido durante la comunicación. d) Quién tiene el turno para “hablar” en una “conversación” entre computadoras. Una vez que existe una forma para dar un nombre a las computadoras, el siguiente paso es el entramado. Entramado es el proceso de encapsulamiento de la capa 2, y una trama es la unidad de datos de protocolo de la capa 2. Funciones principales del entramado: a) La trama señala el comienzo y el fin de una sección de datos y facilita su transporte. b) La trama ayuda a proteger los datos contra errores. c) El entramado es el ultimo encapsulamiento antes de transmitir los datos a través del medio. d) Los datos (información) se transmiten como una serie de tramas de datos. La capa de enlace de datos es responsable por la entrega de la trama de un nodo al siguiente, es decir, de host a host, de host a router, de router a router, o de router a host. Las direcciones de enlace de datos generalmente cambian, representando la dirección de enlace de datos actual y la dirección de enlace de datos del siguiente salto. En términos de Ethernet, esta sería la dirección MAC origen y la dirección MAC destino. 3.2.2. Diagrama de formato de trama Cuando se trabaja con bits, el diagrama más preciso que se puede utilizar es visualizarlos en un gráfico de voltaje versus tiempo. Sin embargo, como se trabaja con grandes unidades de datos e información de direccionamiento y control, los gráficos de voltaje vs. tiempo pueden tornarse excesivamente grandes y confusos. Otro tipo de diagrama que puede utilizarse es el diagrama de formato de trama, que se basa en los gráficos de voltaje vs tiempo. Estos diagramas se leen de izquierda a derecha, como un gráfico de osciloscopio. Los diagramas de formato de trama muestran distintas agrupaciones de bits (campos), que ejecutan otras funciones.

TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

5 5 4 54 4

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

3.2.3. Formato de trama genérica Hay varios tipos distintos de tramas que se describen en diversos estándares. Una trama genérica única tiene secciones denominadas campos, y cada campo está formado por bytes. Los nombres de los campos son los siguientes: • campo de inicio de trama: es la forma mediante la cual se llama la atención de otras computadoras para enviar un broadcast del mensaje “viene una trama”. Las diversas tecnologías tienen distintas formas para hacerlo, pero todas las tramas, de cualquier tecnología, tienen una secuencia de bytes de inicio y señalización. • campo de dirección: todas las tramas contienen información de denominación como, por ejemplo, el nombre de la computadora origen (dirección MAC) y el nombre de la computadora destino (dirección MAC). • campo de longitud/tipo/control: en algunas tecnologías, el campo ‘longitud’ especifica la longitud exacta de una trama. Algunas tienen un campo “tipo”, que especifica el protocolo de la capa 3 que realiza la petición de envío. También hay algunas tecnologías que no utilizan estos campos. • campo de datos: la razón del envío de tramas es hacer que los datos de las capas superiores, en definitiva los datos de aplicación del usuario, lleguen desde la computadora origen a la computadora destino. El paquete de datos que desea enviar se compone de dos partes. En primer lugar, el mensaje que desea enviar y, segundo, los bytes encapsulados que desea que lleguen a la computadora destino. Junto con estos datos, también debe enviar algunos bytes adicionales. Estos bytes se denominan bytes de relleno, y a veces se agregan para que las tramas tengan una longitud mínima con fines de temporización. • campo de secuencia de verificación de trama: todas las tramas y los bits, bytes y campos ubicados dentro de ellas, están expuestos a tener errores de distintos orígenes. Una forma efectiva, aunque ineficaz, de detectarlos es enviar cada trama dos veces, o hacer que la computadora destino envíe una copia de la trama original nuevamente a la computadora origen antes de que pueda enviar otra trama. Una forma más efectiva y eficiente de hacerlo, en la que sólo se descartan y se vuelven a transmitir las tramas defectuosas. El campo de Secuencia de Verificación de Trama (FCS) contiene un número calculado por la computadora origen y se basa en los datos de la trama. Cuando la computadora destino recibe la trama, vuelve a calcular el número FCS y lo compara con el número FCS que se incluye en la trama. Si los dos números son distintos, se da por sentado que se ha producido un error, se descarta la trama y se le pide al origen que vuelva a realizar la transmisión. Hay tres formas principales para calcular el número de Secuencia de verificación de trama: Verificación por redundancia cíclica (CRC): ejecuta cálculos polinómicos con los datos. Paridad de dos dimensiones: agrega un 8vo bit que hace que una secuencia de 8 bits tenga un número impar o par de unos binarios. Suma de comprobación Internet: agrega los valores de todos los bits de datos para obtener una suma. • campo de fin de trama: el campo de longitud implica el final y se considera que la trama termina luego de la FCS. A veces hay una secuencia formal de bytes que se denomina delimitador de fin de trama. 3.2.4. OSI y los estándares IEEE Para solucionar algunos problemas que se producían en las redes (LANs específicamente) después de su desarrollo la IEEE (Instituto de Ingeniería Eléctrica y Electrónica), organización profesional que define estándares de red, se manifestó después definiendo nuevas capas que se incluían en las 2 primeras capas del modelo OSI (capas 1 y 2). Básicamente, el modelo OSI era la guía definida de común acuerdo y utilizada por la IEEE; para solucionar problemas específicos. Las redes broadcast utilizan funciones especiales de la capa de enlace para controlar el acceso al medio de transmisión, ya que éste es compartido por todos los nodos de la red. Esto añade una complejidad a la capa de enlace que no está presente en las redes basadas en líneas punto a punto, razón por la cual en las redes broadcast el IEEE divide la capa de enlace OSI en dos subcapas separadas: 1) Estándar IEEE 802.2 o subcapa LLC (Logical Link Control, Control de Enlace Lógico), establece y mantiene la comunicación con otros dispositivos y proporciona conectividad con los servidores mientras se transfieren los datos. LLC administra el control de enlace y define los Puntos de Acceso al Servicio o SAP (Service Access Point). Funciona independiente de la tecnología, cumple una función equivalente a la capa de enlace en las líneas punto a punto. Realiza transiciones hasta la capa de red, proporciona versatilidad en los servicios de los protocolos de la capa de red que está sobre ella, mientras se comunica de forma efectiva con las diversas tecnologías que están por debajo. El protocolo de subcapa LLC de TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

5 5 5 55 5

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

2)

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

todas las redes broadcast es el IEEE 802.2. El LLC, como subcapa, participa en el proceso de encapsulamiento y realiza control de flujo. La PDU del LLC a veces se denomina paquete LLC, pero éste no es un término que se utiliza con frecuencia. LLC transporta los datos de protocolo de la red, un paquete IP, y agrega más información de control para ayudar a entregar ese paquete IP en el destino. Agrega dos componentes de direccionamiento de la especificación 802.2 :el Punto de Acceso al Servicio Destino (DSAP) y el Punto de Acceso al Servicio Fuente (SSAP). Luego este paquete IP reempaquetado viaja hacia la subcapa MAC para que la tecnología específica requerida le adicione datos y lo encapsule. Un ejemplo de esta tecnología específica puede ser una de las variedades de Ethernet, Token Ring o FDDI. La subcapa LLC de la capa de enlace de datos administra la comunicación entre los dispositivos a través de un solo enlace a una red. LLC se define en la especificación IEEE 802.2 y soporta tanto servicios orientados a conexión como servicios no orientados a conexión, utilizados por los protocolos de las capas superiores. IEEE 802.2 define una serie de campos en las tramas de la capa de enlace de datos que permiten que múltiples protocolos de las capas superiores compartan un solo enlace de datos físico. Ejemplos de protocolos de la capa de enlace incluyen ISO 7776, la capa de enlace de CCITT X.25, RDSI, LAP-D, Control de Enlace de Datos de Alto Nivel (HDLC) y PPP (Point to Point Protocol) para las conexiones WAN, incluyendo las transmisiones síncronas y asíncronas. Estándares IEEE 802.x o subcapa MAC (Media Access Control, Control de Acceso al Medio) administra los protocolos que acceden al medio de red físico y se ocupa de las partes específicas que dependen de la tecnología e incorporan la conectividad de la capa 1(realiza transiciones hacia los medios). La subcapa MAC mantiene una tabla de direcciones físicas de los dispositivos. Si un dispositivo debe participar en la red, se le asigna una dirección MAC exclusiva que permite a la capa de enlace de datos identificar unívocamente a múltiples dispositivos. Se puede comparar la dirección MAC a la dirección del domicilio físico de una persona, que la oficina de correos utiliza para enviar la correspondencia. Como ejemplos de protocolos de la subcapa MAC podemos citar los de IEEE 802.3 (Ethernet), IEEE 802.5 (Token Ring), ISO 9314 (FDDI).

Estas subcapas son acuerdos activos y vitales, que permiten que la tecnología sea compatible y que los computadores puedan comunicarse. A primera vista, el estándar IEEE parece estar en contravención con el modelo OSI de dos maneras. En primer lugar, define su propia capa (LLC), incluyendo su propia unidad de datos del protocolo (PDU), interfaces, etc. Segundo, los estándares 802.3 y 802.5 de la capa MAC, atraviesan la interfaz de la capa 2/capa 1. Sin embargo, los estándares 802.3 y 802.5 definen las normas de denominación, entramado y control de acceso al medio alrededor de las cuales se crearon tecnologías específicas. Como se dijo antes, el modelo OSI es una guía definida de común acuerdo; IEEE se manifestó después para solucionar los problemas que se producían en las redes después de su desarrollo. La capa de enlace de datos contiene dos sublayers

3.2.5. Direcciones MAC La capa 1 no puede decidir cuál de las computadoras transmitirá datos binarios desde un grupo en el que todos están tratando de realizar la transmisión al mismo tiempo. Para que múltiples estaciones puedan compartir los mismos medios y aún así identificarse entre sí, las subcapas MAC definen las direcciones de hardware o de enlace de datos, denominadas direcciones MAC. Cada interfaz de LAN posee una dirección MAC exclusiva. La capa 2 utiliza las direcciones de Control de acceso al medio (MAC) para elegir cuál de las computadoras transmitirá en un momento dado. La capa 2 utiliza una convención de direccionamiento plano o denominación (se refiere a la asignación de identificadores exclusivos: direcciones) y el entramado para organizar o agrupar los datos. Las direcciones MAC tienen 48 bits de largo y se expresan como doce dígitos hexadecimales. Los seis primeros dígitos hexadecimales, que son administrados por el IEEE, identifican al fabricante o proveedor y, de ese modo, abarcan el Identificador Exclusivo de Organización (OUI). Los seis dígitos hexadecimales restantes abarcan el número de serie de interfaz, u otro valor administrado por el proveedor específico. Las direcciones MAC a veces se denominan direcciones grabadas (BIA) ya que estas direcciones se graban en la memoria de sólo lectura (ROM) y se copian en la memoria de acceso aleatorio (RAM) cuando se inicializa la NIC. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

5 5 6 56 6

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

Si no existieran las direcciones MAC, se tendría un grupo de computadoras sin nombre en la LAN. En la capa de enlace de datos, se agrega un encabezado y posiblemente también una información final, a los datos de las capas superiores. El encabezado y la información final contienen información de control destinada a la entidad de la capa de enlace de datos en el sistema destino. Los datos de las entidades de la capas superiores se encapsulan entre el encabezado y la información final de la capa de enlace de datos. Cada computadora tiene una manera exclusiva de identificarse a sí mismo. Cada computadora, ya sea que esté o no conectado a una red, tiene una dirección física. No hay dos direcciones físicas iguales. La dirección física, denominada Dirección de control de acceso al medio o Dirección MAC, está ubicada en la tarjeta de interfase de red o NIC (el fabricante de hardware asigna una dirección física a cada NIC). Como la dirección MAC está ubicada en la NIC, si se cambia la NIC de una computadora, la dirección física de la estación se cambia por la nueva dirección MAC. Las direcciones MAC se escriben con números hexadecimales (base 16). Hay dos formatos para las direcciones MAC: 0000.0c12.3456 ó 00-00-0c-12-34-56. 3.2.5.1. Cómo se utiliza el direccionamiento MAC Las LAN Ethernet y 802.3 son redes de broadcast. Todas las estaciones ven todas las tramas. Cada estación debe examinar cada trama para determinar si esa estación es un destino. En una red Ethernet antes de que los dispositivos directamente conectados en la misma LAN puedan intercambiar una trama de datos, el dispositivo origen debe tener la dirección MAC del dispositivo destino. Cuando se envían datos desde un origen a través de una red, el paquete de datos transporta la dirección MAC del destino deseado y este valor es verificado por las NIC de todas las estaciones para ver si coincide con su propio valor. Si no hay concordancia, la NIC descarta o ignora el paquete de datos y permite que continúe su recorrido a través de la red hacia la próxima estación. La NIC verifica la dirección destino del encabezado del paquete para determinar si el paquete se ha direccionado adecuadamente. Cuando los datos pasan por la estación destino, la NIC de esa estación hace una copia, saca los datos del sobre y se entrega a la computadora. Una parte importante del encapsulamiento y del desencapsulamiento es la adición de direcciones MAC origen y destino. La información no se puede enviar o entregar de forma adecuada en una red si no tiene esas direcciones. Las direcciones MAC suministran una forma para que las computadoras se identifiquen a sí mismos, le otorgan a los hosts un nombre exclusivo, permanente. La cantidad de direcciones MAC posible es de 1612 (más de 2 billones!). Sin embargo, las direcciones MAC tienen una gran desventaja. No tienen ninguna estructura y se consideran como espacios de direccionamiento plano. Los distintos fabricantes tienen distintos OUI, pero éstos son similares a los números de identificación personal. Cuando la red crece y pasa a tener una mayor cantidad de computadoras, esta desventaja se transforma en un verdadero problema. 3.2.5.2. MAC y ARP Una manera de que el emisor pueda asegurarse de que encontrará las direcciones MAC que necesita es utilizar un ARP (Protocolo de Resolución de Direcciones). El gráfico ilustra dos maneras en que se usa ARP para encontrar una dirección MAC en un ejemplo de TCP/IP. En el primer ejemplo, el Host Y y el Host Z se encuentran en la misma LAN. El Host Y realiza un broadcast de una petición ARP a la LAN TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

5 5 7 57 7

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

buscando el Host Z. Como el Host Y ha enviado un broadcast, todos los dispositivos, incluyendo el Host Z reciben la petición, pero sólo el Host Z responde con su dirección MAC. El Host Y recibe la respuesta del Host Z y guarda la dirección MAC en la memoria local, a menudo denominada caché ARP. La próxima vez que el Host Y necesite comunicarse directamente con el Host Z, utilizará la dirección MAC almacenada. En el segundo ejemplo, el Host Y y el Host Z se encuentran en LAN diferentes, pero pueden acceder el uno al otro a través del Router A. Cuando el Host Y realiza un broadcast de su petición ARP, el Router A determina que el Host Z no puede reconocer la petición porque el Router A detecta que la dirección IP del Host Z es de una LAN diferente. Como el Router A también determina que cualquier paquete para el Host Z debe ser retransmitido, el Router A ofrece su propia dirección MAC como una respuesta proxy a la petición ARP. El Host Y recibe la respuesta del Router A y guarda la dirección MAC en su caché de memoria ARP. La próxima vez que el Host Y necesite comunicarse con el Host Z, utiliza la dirección MAC almacenada del Router A. 3.2.5.3. Categorías de protocolos MAC El control de acceso al medio (MAC) se refiere a los protocolos que determinan cuál de los computadores de un entorno de medios compartidos (dominio de colisión) puede transmitir los datos. MAC, con LLC, abarca la versión IEEE de la capa 2. Tanto MAC como LLC son subcapas de la capa 2. Hay dos categorías amplias de Control de acceso al medio: 1. Protocolos MAC determinísticos (por turnos): utilizan la forma de “esperar hasta que llegue su turno”. Esta situación es similar al protocolo de enlace de datos denominado Token Ring. En una red Token Ring, los hosts individuales se ubican en forma de anillo. Un “token de datos” especial circula alrededor del anillo. Cuando un host desea realizar una transmisión, toma el token, transmite los datos durante un tiempo determinado y luego coloca el token nuevamente en el anillo, donde puede ser transferido a otro host o tomado por éste. 2. Protocolos MAC no determinísticos: utilizan un enfoque “el primero que llega, el primero que se sirve” (FCFS). A fines de los años '70, la Universidad de Hawaii desarrolló y utilizó un sistema de comunicación por radio (ALOHA) que conectaba las distintas islas de Hawaii. El protocolo que usaban permitía que cualquier persona transmitiera cuando quisiera. Esto provocaba “colisiones” de ondas radiales que podían ser detectadas por los oyentes durante la transmisión. Sin embargo, lo que empezó como ALOHA, eventualmente se transformó en un protocolo MAC moderno denominado Acceso Múltiple con Detección de Portadora y Detección de Colisiones (CSMA/CD). CSMA/CD es un sistema simple. Todas los nodos que pertenecen al sistema esperan a que todo esté en silencio, momento en el cual es posible realizar la transmisión. Sin embargo, si dos nodos “hablan” al mismo tiempo, se produce una colisión y ninguna de los nodos puede realizar la transmisión. Todas los demás nodos que se encuentran en el sistema escuchan que se ha producido una colisión, esperan hasta que todo esté en silencio, e intentan volver a realizar la transmisión. CSMA/CD le indica al dispositivo que debe esperar una cantidad de tiempo determinada antes de transmitir otra señal para evitar otra colisión. La NIC también es responsable por CSMA/CD en Ethernet. 3.2.5.4. Tres impleme ntaciones técnicas específicas y sus MAC Tres tecnologías comunes de la capa 2 son Token Ring, FDDI y Ethernet. Las tres especifican aspectos de la Capa 2 (por ej., LLC, denominación, entramado y MAC), así como también aspectos de los componentes de señalización y de medios de la capa 1. Las tecnologías específicas para cada una son las siguientes: • Ethernet: topología de bus lógica (el flujo de información se ubica en un bus lineal) y en estrella física o en estrella extendida (cableada en forma de estrella). • Token Ring: topología de anillo lógica (en otras palabras, el flujo de información se controla en un anillo) y una topología física en estrella (en otras palabras, está cableada en forma de estrella). • FDDI : topología de anillo lógica (el flujo de información se controla en un anillo) y topología física de anillo doble (cableada en forma de anillo doble). Entre los dispositivos de la capa 2 se incluyen: las NICs, los puentes o bridges y los switches LAN (hubs multipuertos o conmutadores). Mientras que los routers y los brouters se clasifican como dispositivos de la capa 3, para poder ejecutar sus funciones también deben operar en las capas 1 y 2.

3.3. La Capa 3 - Capa de Red (Network Layer) La capa de red se ocupa de la navegación de los datos a travé s de la red (proporciona conectividad y selección de ruta entre dos sistemas de hosts). La función de la capa de red es encontrar la mejor ruta a través de la red (que puede estar geográficamente distribuida). Se puede considerar a la capa 3 como la capa de direccionamiento, selección de ruta, enrutamiento y conmutación. La capa de red se ocupa del control de la subred. Esta es la capa que tiene “conciencia” de la topología de la red, y se ocupa de decidir por que ruta va a ser enviada la TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

5 5 8 58 8

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

información (ruteo de paquetes). La decisión de la ruta a seguir puede hacerse de forma estática, o de forma dinámica en base a información obtenida de otros nodos sobre el estado de la red, también se encarga de la relación de funciones que permite que múltiples enlaces de datos se combinen dentro de una internetwork o interred (un conjunto de redes). Los dispositivos utilizan el esquema de direccionamiento lógico de la capa de red (como opuesto al direccionamiento físico) para determinar el destino de los datos a medida que se desplazan a través de la red. La capa de red soporta los servicios orientados a la conexión y los servicios sin conexión de los protocolos de las capas más altas. Los protocolos que no tienen capa de red sólo se pueden usar en redes internas pequeñas. Estos protocolos normalmente sólo usan un nombre (por ej., dirección MAC) para identificar la computadora en una red. El problema con este sistema es que, a medida que la red aumenta de tamaño, se torna cada vez más difícil organizar todos los nombres como, por ejemplo, asegurarse de que dos computadoras no utilicen el mismo nombre. Los protocolos que soportan la capa de red usan una técnica de identificación que garantiza que haya un identificador exclusivo. ¿Cómo se diferencia este identificador de una dirección MAC, que también es exclusivo?. Las direcciones MAC usan un esquema de direccionamiento plano que hace que sea difícil ubicar los dispositivos en otras redes. Las direcciones de capa de red utilizan un esquema de direccionamiento jerárquico que permite la existencia de direcciones exclusivas más allá de los límites de una red, junto con un método para encontrar una ruta por la cual la información viaje a través de las redes. Los esquemas de direccionamiento jerárquico permiten que la información viaje por una internetwork, así como también un método para detectar el destino de modo eficiente. La red telefónica es un ejemplo del uso del direccionamiento jerárquico. El sistema telefónico utiliza un código de área que designa un área geográfica como primera parte de la llamada (salto). Los tres dígitos siguientes representan el intercambio la central local ( segundo salto). Los últimos dígitos representan el número telefónico destino individual (que, por supuesto, constituye el último salto). Los dispositivos de red necesitan un esquema de direccionamiento que les permita envíar paquetes de datos a través de la internetwork. Hay varios protocolos de capa de red con distintos esquemas de direccionamiento que permiten que los dispositivos envíen datos a través de una internetwork. La capa de red es la más importante en redes de conmutación de paquetes (tales como X.25 o TCP/IP). Típicamente los protocolos de la capa de red son protocolos de ruteo, pero también se implementan otros tipos de protocolos. Algunos protocolos de asignación de ruta comunes incluyen al Protocolo de Borde de Entrada (BGP, Border Gateway Protocol), a un protocolo de ruteo interdominio de Internet; Primero la Ruta Libre más Corta (OSPF, Open Shortest Path First), un protocolo de estado de enlace de entrada interior, desarrollado para usarse en redes TCP/IP; y un Protocolo de Información de Ruteo o de Enrutamiento (RIP, Routing Informatión Protocol), un protocolo de ruteo de Internet que usa un contador de hops (saltos de routers) como métrica. Protocolos de nivel de paquete y nivel de pasarela CCITT X.25 y X.75, el IP (Internet Protocol) de la suite TCP/IP, CCITT/ITU-T Q.931, Q.933, Q.2931, y el OSI CLNP (ConnectionLess Network Protocol). IP es un protocolo no orientado a conexión que brinda entrega de máximo esfuerzo a través de una red. Protocolos enrutados o no enrutables de la capa 3: IPX de Novell Netware, IP, NetBEUI de Microsoft, DecNET de Digital. Protocolos enrutables o de enrutamiento de la capa 3: Protocolo de Mensajes de Control en Internet (ICMP), Protocolo de Resolución de Direcciones (ARP), protocolos de enrutamiento del Protocolo de Resolución Inversa de Direcciones (RARP), RIP, OSPF, Protocolo de Enrutamiento de Gateway Interior (IGRP), IGRP Mejorado (EIGRP), Protocolo de Gateway Exterior (EGP), Protocolo de Grupo de Administración de Internet (IGMP). De forma análoga a la capa de enlace la capa de red maneja los bits en grupos discretos que aquí reciben el nombre de paquetes; motivo por el cual a veces se la llama la capa de paquete. Los paquetes tienen tamaños TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

5 5 9 59 9

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

variables, pudiendo llegar a ser muy elevados, sobre todo en protocolos recientes, para poder aprovechar eficientemente la elevada velocidad de los nuevos medios de transmisión (fibra óptica, ATM, etc.). Por ejemplo en TCP/IP el tamaño máximo de paquete es de 64 KBytes, pero en el nuevo estándar, llamado IPv6, el tamaño máximo puede llegar a ser de 4 GBytes (4.294.967.296 Bytes). Entre las funciones de la capa de red cabe destacar, aparte de las ya mencionada de elegir la ruta a seguir, el control del tráfico para evitar situaciones de congestión o “atascos”. En el caso de ofrecer servicios con QoS el nivel de red debe ocuparse de reservar los recursos necesarios para poder ofrecer el servicio prometido con garantías. También debe ser capaz de efectuar labores de contabilidad del tráfico en caso necesario (por ejemplo si el servicio se factura basándose en la cantidad de datos transmitidos). En la capa de red es donde con mas intensidad se observa la distinción entre servicios orientados y no orientados a conexión (CONS vs CLNS). Más adelante veremos en detalle las redes ATM, que en el nivel de red dan un servicio de tipo CONS, y las redes TCP/IP, que en el nivel de red dan un servicio de tipo CLNS. En las redes de tipo broadcast el nivel de red es casi inexistente, ya que desde un punto de vista topológico podemos considerar que en una red broadcast los nodos están interconectados todos con todos, por lo que no se toman decisiones de encaminamiento. Sin embargo veremos que la unión de redes broadcast mediante puentes suscita en algunos casos la necesidad de efectuar tareas propias del nivel de red en el nivel de enlace. 3.3.1. Determinación de ruta Los dispositivos de internetworking que operan en la Capa 3 unen entre sí, o interconectan, segmentos de red o redes completas. Estos dispositivos se denominan routers. Los routers transfieren paquetes de datos entre redes basándose en la información del protocolo de red, o de la capa 3. Los routers toman decisiones lógicas con respecto a la mejor ruta para el envío de datos a través de una internetwork y luego dirigen los paquetes hacia el segmento y el puerto de salida adecuados. Los routers toman paquetes de dispositivos de LAN (es decir, estaciones de trabajo), y, basándose en la información de la capa 3, los envían a través de la red. De hecho, el enrutamiento a veces se denomina conmutación de la capa 3. La determinación de ruta se lleva a cabo en la capa de red y permite que el router evalúe las rutas disponibles hacia un destino y decida cuál es la mejor manera para administrar un paquete. Los servicios de enrutamiento utilizan la información de topología de red al evaluar las rutas de red. La determinación de ruta es el proceso que utiliza el router para elegir el siguiente salto de la ruta del paquete hacia su destino. Este proceso también se denomina enrutar el paquete. La determinación de ruta para un paquete se puede comparar a una persona que maneja un automóvil desde un extremo al otro de la ciudad. El conductor tiene un mapa que le muestra las calles que debe recorrer para llegar a su destino. El camino desde una intersección a otra representa un salto. De forma similar, un router usa un mapa que muestra las rutas disponibles hacia un destino. Los routers también pueden tomar decisiones basándose en la densidad del tráfico y la velocidad del enlace (ancho de banda), así como el conductor puede elegir una ruta más veloz (una autopista) o puede utilizar calles laterales menos transitadas. 3.3.2. Direccionamiento lógico (IP) Un componente fundamental en cualquier sistema de redes es el proceso que permite que la información localice sistemas informáticos específicos en una red. Se utilizan diversos esquemas de direccionamiento con este fin, según el conjunto de protocolos que se utilice. Por ejemplo, el direccionamiento AppleTalk es diferente del direccionamiento TCP/IP, que a su vez es diferente del direccionamiento IPX. Las direcciones de la capa de enlace de datos y de la capa de red son dos tipos de direcciones de gran importancia. Las direcciones de la capa de enlace de datos, también denominadas direcciones físicas de hardware o direcciones MAC, son únicas para cada conexión de red. De hecho, en la mayoría de las LAN las direcciones de la capa de enlace de datos se encuentran localizadas en la NIC (cada computadora que tenga una conexión de red física, tiene sólo una dirección de capa 2). Los routers y otros sistemas conectados a múltiples redes físicas pueden tener múltiples direcciones de capa de enlace de datos. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

6 6 0 60 0

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

Las direcciones de capa de red, (también denominadas direcciones lógicas o direcciones IP para el conjunto de protocolo Internet) existen en la capa 3 de OSI. Al contrario de lo que ocurre con las direcciones de la capa 2, que existen dentro de un espacio de direccionamiento plano, las direcciones de la capa de red son jerárquicas. En otras palabras, son como las direcciones postales, que describen la ubicación de una persona indicando el país, estado/provincia, código postal, ciudad, calle, número y nombre. Los dispositivos de red (los routers así como también las computadoras individuales) tienen una dirección MAC y una dirección de protocolo (capa de red). Cuando se traslada físicamente una computadora a una red distinta, la computadora conserva la misma dirección MAC, pero se le debe asignar una nueva dirección de red. Las computadoras de una red pueden mudarse a cualquier lugar y obtener nuevas direcciones lógicas, pero sus direcciones físicas permanecen inmodificadas. 3.3.3. Direccionamiento de la capa de red La función de la capa de red es encontrar la mejor ruta a través de la red. Para lograr esto, utiliza los métodos de direccionamiento plano y direccionamiento jerárquico. El esquema de direccionamiento plano asigna a un dispositivo la siguiente dirección disponible. No se tiene en cuenta la estructura del esquema de direccionamiento. En un esquema de direccionamiento jerárquico la dirección es determinada por la ubicación del nodo y no por un número asignado al azar. El esquema de direccionamiento a usar, de aquí en más, es el direccionamiento de Protocolo Internet (IP). Las direcciones IP tienen una estructura específica y no se asignan al azar. La dirección de red (NetID) ayuda al router a identificar una ruta dentro de la nube de red. El router utiliza la dirección de red para identificar la red destino de un paquete dentro de la internetwork. Para algunos protocolos de capa de red, el administrador de la red asigna direcciones de red de acuerdo con un plan de direccionamiento de internetwork por defecto. Para otros protocolos de capa de red, asignar direcciones es una operación parcial o totalmente dinámica. Además de la dirección de red, los protocolos de red utilizan algún tipo de dirección de host o nodo. El gráfico muestra tres dispositivos en la Red 1 (dos estaciones de trabajo y un router), cada una de los cuales tiene su propia dirección de host exclusiva. (también muestra que el router está conectado a otras dos redes: las Redes 2 y 3). El direccionamiento se produce en la capa de red. Asi como el número telefónico, indica cuál es el teléfono específico que debe sonar, asi la parte de la dirección que corresponde al host, indica al router cuál es el dispositivo específico al que debe enviar un paquete. Sin el direccionamiento de la capa de red, no se puede producir el enrutamiento. Los routers requieren direcciones de red para garantizar el envío correcto de los paquetes. Si no existiera alguna estructura de direccionamiento jerárquico, los paquetes no podrían viajar a través de una internetwork. De la misma manera, si no existiera alguna estructura jerárquica para los números telefónicos, las direcciones postales o los sistemas de transporte, no se podría realizar la entrega correcta de mercaderías y servicios. 3.3.4. Datagramas de capa de red El Protocolo Internet (IP) (protocolo de red que usa Internet) es la implementación más popular de un esquema de direccionamiento de red jerárquico. En la capa de red, los datos se encapsulan en paquetes o datagramas. IP determina la forma del encabezado del paquete IP (que incluye información de direccionamiento y TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

6 6 1 61 1

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

otra información de control) pero no se ocupa de los datos en sí (acepta cualquier información que recibe desde las capas superiores). 3.3.5. Direcciones IP como un número binario de 32 bits Una dirección IP se representa mediante un número binario de 32 bits. En un número binario, el valor del bit ubicado más a la derecha (también denominado bit menos significativo) es 0 ó 1. El valor decimal correspondiente para cada bit se duplica cada vez que avanza una posición hacia la izquierda del número binario. De modo que el valor decimal del 2 do bit desde la derecha es 0 ó 2. El tercer bit es 0 ó 4, el cuarto bit 0 u 8, etc. Las direcciones IP se expresan como números de notación decimal (esto se conoce como “formato decimal separado por puntos”): se dividen los 32 bits de la dirección en cuatro octetos (un octeto es un grupo de 8 bits). El valor decimal máximo de cada octeto es 255 (el número binario de 8 bits más alto es 11111111, y esos bits, de derecha a izquierda, tienen valores decimales de 1, 2, 4, 8, 16, 32, 64 y 128, lo que suma 255 en total). La dirección IP tiene una longitud de 32 bits. Se compone de dos partes principales, un número de red y un número de host. Como resulta prácticamente imposible para la mayoria de las personas recordar 32 bits, las direcciones IP se agrupan de a 8 bits por vez, separados por puntos y representados en formato decimal, no binario. (131.108.122.204). El número de red de una dirección IP identifica la red a la que se conecta un dispositivo, mientras que el número de host identifica el dispositivo específico de esa red. Como las direcciones IP están formadas por cuatro octetos separados por puntos, se pueden utilizar uno, dos o tres de estos octetos para identificar el número de red (ver mas adelante clases de direcciones IP). De modo similar, se pueden utilizar hasta tres de estos octetos para identificar la parte del host de una dirección IP. Las direcciones de red son asignadas por ARIN / INTERNIC, si se accede a Internet, caso contrario es asignada por el administrador de red. Las direcciones de host son asignadas por el administrador de red. 3.3.6. Qué son los paquetes Un paquete de datos (como una carta) es una unidad de información que puede viajar de manera independiente desde su lugar de origen hasta su destino. Se encuentra empaquetada y contiene la dirección, de manera que no necesita de material o información adicional para ser enviada. Mientras que una carta viaja entre personas a través de un sistema postal, un paquete viaja entre dispositivos a través de una red. Un paquete de datos puede transportar muchas clases diferentes de información, como comandos y mensajes de aplicación, comandos y mensajes de administración o simplemente cualquier tipo de dato. Los paquetes tienen dos partes principales. En primer lugar, los propios datos, a menudo denominados carga útil (payload). En segundo lugar, la información de direccionamiento, usualmente denominada cabecera (header). La figura lo ilustra. Además de las direcciones origen y destino, las cabeceras pueden incluir también información de encaminamiento, comprobación de errores y control. Cada paquete es un sobre de información independiente que tiene sus propias direcciones e información de control. Ahora se sabe que un paquete de datos contiene su dirección de destino. Pero, ¿quién, o qué, lee esa dirección y asegura que el paquete llega hasta ella? Este trabajo lo realizan los puentes, routers y switches, que examinan la dirección MAC (puentes y switches o conmutadores) o la dirección de red (router o enrutador) a la que van dirigidos los paquetes y determinan a través de que puerto deben transmitirse los paquetes. Puentes y switches envían los paquetes al siguiente puente o router y/o filtran los paquetes de manera que éstos no son transmitidos a un segmento erróneo. Los puentes y switches verifican la dirección del nivel de acceso al medio (MAC) del paquete en una tabla de esa clase de direcciones. Si la dirección de destino se encuentra en la TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

6 6 2 62 2

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

tabla, remiten el paquete al segmento que contiene esa dirección. Si la dirección de destino no se halla en la tabla, simplemente transmiten el paquete al siguiente nodo de la red con la esperanza de que la dirección de destino se encuentra en la tabla de direcciones de aquel dispositivo. Los routers envían los paquetes a la dirección de destino a través de rutas predefinidas utilizando varios criterios ( métricas), como el costo mínimo y el camino más corto, para elegir el mejor camino a través de la red para cada paquete de datos. Los administradores pueden configurar los routers manualmente (rutas estáticas) o dejar que ellos empleen sus propios algoritmos de enrutamiento (rutas dinámicas) para calcular las mejores rutas. En cualquier caso, los routers determinan los caminos de transmisión de los datos utilizando bien métodos de comunicaciones no orientados a conexión o bien métodos de comunicaciones orientados a conexión. 3.3.6.1. Otros aspectos de los paquetes Es una buena idea mantener reducido el tamaño de los paquetes. Existen muchas razones para ello. Una es que si un paquete (o paquetes) se corrompen, únicamente es necesario retransmitir aquellos paquetes que contienen errores. Por tanto, cuanto más pequeños sean los paquetes, menos tiempo es necesario para la retransmisión. Además, paquetes de tamaño grande son devoradores de recursos, colapsando los recursos de la transmisión más tiempo del necesario. En general, cuanto más pequeño es el paquete más eficiente es la transmisión de datos. 3.3.6.2. Campos del paquete de capa de red El paquete / datagrama de la capa 3 se transforma en los datos de la capa 2, que entonces se encapsulan en tramas. De forma similar, el paquete IP está formado por los datos de las capas superiores más el encabezado IP, que está formado por: * Versión: Indica la versión de IP que se usa en el momento (4 bits) * Longitud del encabezado IP (HLEN): Indica la longitud del encabezado del datagrama en palabras de 32 bits (4 bits) * Tipo de servicio: Especifica el nivel de importancia que le ha sido asignado por un protocolo de capa superior en particular (8 bits) * Longitud total: Especifica la longitud de todo el paquete IP, incluyendo datos y encabezado, en bytes (16 bits) * Identificación: Contiene un número entero que identifica el datagrama actual (16 bits) * Señaladores: Un campo de 3 bits en el que los dos bits de orden inferior controlan la fragmentación; un bit que especifica si el paquete puede fragmentarse y el segundo si el paquete es el último fragmento en una serie de paquetes fragmentados (3 bits) * Compensación de fragmentos: El campo que se utiliza para ayudar a reunir los fragmentos de datagramas (16 bits). * Tiempo de existencia: Mantiene un contador cuyo valor decrece, por incrementos, hasta cero. Cuando se llega a ese punto se descarta el datagrama, impidiendo así que los paquetes entren en un loop interminable (8 bits) * Protocolo: Indica cuál es el protocolo de capa superior que recibe los paquetes entrantes después de que se ha completado el procesamiento IP (8 bits). * Suma de comprobación del encabezado: Ayuda a garantizar la integridad del encabezado IP (16 bits). * Dirección origen: Especifica el nodo emisor (32 bits). Dirección IP del dispositivo que envía el paquete. * Dirección destino: Especifica el nodo receptor (32 bits). Dirección IP del dispositivo que recibe el paquete. La dirección IP contiene la información necesaria para enrutar un paquete a través de la red. * Opciones: Permite que IP soporte varias opciones, como la seguridad (longitud variable). * Datos: Contiene información de capa superior (longitud variable, máximo 64 kb). * Relleno: se agregan ceros adicionales a este campo para garantizar que el encabezado IP siempre sea un múltiplo de 32 bits.

3.4. La Capa 4 - Capa de Transporte (Transport Layer) Una vez que el router “decidió de forma inteligente”cuál es la mejor ruta para la entrega de datos a través de una red (en un esquema de direccionamiento de capa 3) usa esta información para realizar el envío. Una vez que los datos llegan a la capa de transporte (de las capas superiores), la capa 4, da por sentado que puede usar la red como una “nube” para enviar paquetes de datos desde el origen hacia el destino. La capa de transporte divide los datos del sistema del host emisor en segmentos y reensambla los datos en una corriente de datos en el sistema del host receptor. La capa de transporte es responsable por el transporte y regulación del flujo de información desde el origen hasta el destino (de extremo a extremo) de forma confiable y precisa. Sus funciones incluyen: * Sincronización de conexión. * Control de flujo. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

6 6 3 63 3

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII * * * * *

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

Verificación y recuperación de errores. Control de extremo a extremo a través del uso de ventanas deslizantes. Confiabilidad a través del secuenciamiento de números y acuses de recibo. Control de circuito virtual. Multiplexación, Fragmentación, Segmentación.

La capa de transporte es la primera que se ocupa de comunicar directamente nodos terminales, utilizando la subred como un medio de transporte de datos interredes que son transparentes para las capas superiores gracias a los servicios obtenidos de la capa de red. Por esta razón se la llama la capa host-host (host emisor-host receptor): es la primer capa que se comunica directamente con su par en el destino, es decir de extremo a extremo, (los de abajo son de máquina a máquina, es decir de a saltos, de extremo a extremo pero a través de una nube). El límite entre la capa de sesión y la capa de transporte puede imaginarse como el límite entre los protocolos de capa de medios y los protocolos de capa de host. Mientras que las capas de aplicación, presentación y sesión están relacionadas con aspectos de las aplicaciones (conforman el subsistema de aplicación o capas host) , las tres capas inferiores se encargan del transporte de datos (estas tres capas conforman la capa de medios, subsistema de red, subred o internetwork). La capa de transporte busca suministrar un servicio de transporte de datos que aísle a las capas superiores de los detalles de la implementación de transporte. En condiciones normales la capa de transporte solicita a la capa de red una conexión diferente por cada solicitud recibida de la capa de sesión, pero puede haber razones de costo que aconsejen multiplexar diferentes conexiones en la capa de sesión sobre una sola conexión en la capa de red (la multiplexación permite que los datos de distintas aplicaciones sean transmitidos sobre un solo enlace físico) o, inversamente, razones de rendimiento pueden requerir que una conexión solicitada por la capa de sesión sea atendida por varias conexiones en la capa de red; en ambos casos la capa de transporte se ocupará de hacer la multiplexación mas adecuada de forma transparente a la capa de sesión. La capa de transporte realiza también su propio control de errores, que resulta ahora esencial pues algunos protocolos modernos como Frame Relay o ATM han reducido o suprimido totalmente el control de errores de las capas inferiores, ya que con las mejoras en la tecnología de transmisión de datos éstos son menos frecuentes y se considera más adecuado realizar esta tarea en el nivel de transporte. Salvo el caso de transmisiones multicast o broadcast el nivel de transporte se ocupa siempre de una comunicación entre dos entidades, lo cual le asemeja en cierto sentido al nivel de enlace. Por esto existen grandes similitudes entre ambas capas en cuestiones tales como el control de errores o control de flujo. Los protocolos de la capa de transporte pueden ser confiables o no confiables. Los protocolos no confiables tienen poca o ninguna responsabilidad por el establecimiento de conexiones, acuses de recibo, secuenciamiento y control de flujo. Los protocolos no confiables de la capa de transporte pueden delegar esta responsabilidad a los protocolos de otras capas. Los protocolos confiables de la capa de transporte son responsables por: • El establecimiento y cierre de conexiones, es decir, el saludo de tres vías. • La transferencia de datos. • El acuse de recibo de los datos recibidos y no recibidos. • Asegurarse de que los paquetes que lleguen fuera de secuencia se puedan ordenar en el orden correcto. • El mantenimiento del control de flujo, es decir, los tamaños de las ventanas. Ejemplos de protocolos de transporte incluyen el CCITT X.224, también llamado Protocolo de Transporte OSI TP4 (Transport Protocol 4), el Protocolo de Control de Transmisión (TCP), de la suite TCP/IP que proporciona transmisiones de datos fiables, el Protocolo de Ligación de Nombres (NBP, Name Binding Protocol) que asocia nombres de AppleTalk con direcciones y el protocolo de transporte UDP (User Datagram Protocol), también de TCP/IP. El TCP es un protocolo orientado a conexión que brinda transmisión de datos confiable (sin errores) full dúplex suministra control de flujo y confiabilidad (FTP, Telnet, HTTP). El UDP es un protocolo de transporte no orientado a conexión, es un protocolo simple que intercambia datagramas, sin acuse de recibo ni entrega garantizada de paquetes (es no confiable). El procesamiento de errores y retransmisión deben ser manejados por otros protocolos. El UDP no usa ventanas ni acuses de recibo, por lo tanto los protocolos de capa de aplicación proporcionan confiabilidad. UDP está diseñado para las aplicaciones que no necesitan agrupar secuencias de segmentos (TFTP, NFS, SNMP, DNS, y RIP). Otros protocolos de LAN que se incluyen son: Intercambio Secuencial de Paquetes (SPX), Interfaz de Usuario NetBIOS Extendida (NetBEUI). Entre los dispositivos que funcionan hasta esta capa se incluyen los hosts y los gateways. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

6 6 4 64 4

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

3.4.1. Segmentación de las aplicaciones de capa superior Una de las razones para utilizar un modelo de múltiples capas como el modelo de referencia OSI es que múltiples aplicaciones pueden compartir la misma conexión de transporte. La funcionalidad de transporte se logra segmento por segmento. Esto significa que diferentes segmentos de datos de diferentes aplicaciones que se envían al mismo destino o a varios destinos diferentes se envían según el método FCFS “el que llega primero, es atendido primero”. Luego el protocolo en el dispositivo receptor reensambla los segmentos de las aplicaciones. Para comprender cómo funciona esto, supongamos que se envía un mensaje de correo electrónico y se transfiere un archivo (FTP) a otro dispositivo en una red. Al enviar el mensaje de correo electrónico, antes de que comience la transmisión en sí, el software en el dispositivo establece el número de puerto SMTP (correo electrónico) y el número de puerto del programa de origen. A medida que cada aplicación envía un segmento de corriente de datos, utiliza el número de puerto definido previamente. Cuando el dispositivo destino recibe la corriente de datos, separa y clasifica los segmentos de manera tal que la capa de transporte pueda pasar los datos a la aplicación destino correspondiente. 3.4.2. Establecimiento de una conexión Para que comience la transferencia de datos, el usuario de la capa de transporte debe establecer una sesión orientada a conexión con su sistema igual. En el gráfico ilustra una conexión: el primer saludo solicita la sincronización, el segundo y el tercer saludo acusan recibo de la petición inicial de sincronización, y sincronizan los parámetros de conexión en sentido opuesto. El segmento final del saludo envía un acuse de recibo al destino y ambos lados aceptan que se ha establecido una conexión y comienza la transferencia de datos. Durante la transferencia, los dos dispositivos siguen comunicándose con su software de protocolo para verificar que estén recibiendo los datos correctamente. La corriente de datos de capa 4 es una conexión lógica entre los extremos de una red, y brinda servicios de transporte desde un host hasta un destino. Este servicio a veces se denomina servicio de extremo a extremo. La secuencia de intercambio de señales de tres vías sincroniza la conexión lógica entre los extremos finales de una red (ver mas adelante). A medida que la capa de transporte envía sus segmentos de datos, también garantiza la integridad de los datos (confiabilidad). Este transporte es una relación orientada a conexión entre sistemas finales que se comunican. Algunas de las razones por las cuales se debe lograr el transporte confiable son: * Garantizar que los emisores reciban el acuse de recibo de los segmentos entregados. * Realizar la retransmisión de cualquier segmento que no genere acuse de recibo. * Volver a colocar los segmentos en su secuencia correcta en el dispositivo destino. * Evitar y controlar la congestión. 3.4.3. TCP envía datos con control de flujo Mientras la transferencia de datos está en marcha, se puede producir congestión por dos motivos diferentes. En primer lugar, un computador de alta velocidad puede generar tráfico a una velocidad mayor que la capacidad de una red para transferirla. En segundo lugar, si varios computadores envían datagramas simultáneamente a un solo destino, este destino puede sufrir congestión. Cuando los datagramas llegan demasiado rápido como para que un host o gateway los procese, se almacenan temporalmente en la memoria. Si el tráfico continúa, el host o el gateway eventualmente agotan su memoria y descartan cualquier otro datagrama que llegue (se produce un desbordamiento de los bufers). En lugar de permitir que los datos se pierdan, la función de transporte puede emitir un indicador de “no está listo” al emisor. Este indicador funciona como una señal de “pare” e indica al emisor que debe dejar de enviar datos. Cuando el receptor está en condiciones de aceptar más datos, envía un indicador de transporte de “listo”, que es como una señal de “siga”. Cuando el dispositivo emisor recibe este indicador, reanuda la transmisión de segmentos. Los desbordamientos pueden producir serios problemas que tienen como resultado la pérdida de datos. La capa de transporte usa un método denominado control de flujo para resolver este problema. El control de flujo, que ha aparecido en capas anteriores, es necesario también en la capa de transporte para asegurar que un host rápido no satura a uno lento. 3.4.4. Control de Circuitos Virtuales TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

6 6 5 65 5

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

La capa de transporte intenta suministrar un servicio de transporte de datos que aísla las capas superiores de los detalles de implementación del transporte. Específicamente, temas como la confiabilidad del transporte entre dos hosts es responsabilidad de la capa de transporte. Al proporcionar un tipo de servicio de comunicaciones, la capa de transporte establece, mantiene y termina adecuadamente los circuitos virtuales. Al proporcionar un servicio confiable, se utilizan dispositivos de detección y recuperación de errores de transporte (esto permite obtener calidad de servicio -QoS- y confiabilidad). La capa de transporte establece el tipo de servicio que recibe la capa de sesión (orientado a la conexión o no orientado a la conexión), y en último extremo los usuarios. Éste podría ser por ejemplo un servicio libre de errores que entrega los mensajes en el mismo orden en que se envían; también podría ser un servicio de datagramas, es decir, mensajes independientes sin garantía en cuanto al orden de entrega ni confirmación de la misma, o un servicio broadcast o multicast en que los paquetes se distribuyen a múltiples destinos simultáneamente. 3.4.5. Saludo de 3 vías TCP -Acuse de Recibo (ACK) La entrega confiable garantiza que una corriente de datos enviada desde un dispositivo sea entregada a través de un enlace de datos a otro dispositivo sin que se dupliquen o pierdan los datos. Los servicios orientados a conexión se dividen en tres fases. 1. Fase de establecimiento de la conexión: se determina una ruta única entre el origen y el destino. Normalmente los recursos se reservan en este momento para garantizar un grado de servicio constante. 2. Fase de transferencia de datos: los datos se transmiten secuencialmente siguiendo la ruta establecida, llegando a su destino en el orden en que se enviaron. 3. Fase de terminación de la conexión: consiste en terminar la conexión entre el origen y el destino cuando ya no se necesita. Los hosts TCP establecen una sesión orientada a conexión entre sí a través de un intercambio de señales de tres vías. Una secuencia de intercambio de señales de tres vías/conexión abierta sincroniza una conexión en ambos extremos antes de transferir los datos. Este intercambio de números introductorios de secuencia, durante la secuencia de conexión es importante. Garantiza que, si se pierden datos debido a problemas de transmisión, se puedan recuperar más tarde. En primer lugar, un host inicia una conexión enviando un paquete que indica su número de secuencia inicial de x con cierto bit en el encabezado para indicar una petición de conexión. En segundo lugar, el otro host recibe el paquete, registra el número de secuencia x, responde con un acuse de recibo x + 1 e incluye su propio número de secuencia inicial y. El número de acuse de recibo x + 1 significa que el host ha recibido todos los octetos hasta e incluyendo x, y espera x + 1 a continuación. El acuse de recibo y retransmisión positivos, o PAR, es una técnica o proceso común utilizada por muchos protocolos para garantizar la entrega confiable de corrientes de datos. Exige que un receptor envíe un mensaje de acuse de recibo al emisor siempre que reciba datos. Con PAR, el origen envía un paquete, inicia un temporizador y espera un acuse de recibo antes de enviar el paquete siguiente. Si el temporizador expira antes de que el origen reciba un acuse de recibo, el origen retransmite el paquete y reinicia el temporizador. La figura muestra un emisor que transmite los paquetes de datos 1, 2 y 3. El receptor acusa recibo de los paquetes solicitando el paquete 4. El emisor, al recibir el acuse de recibo, envía los paquetes 4, 5 y 6. Si el paquete 5 no llega a destino el receptor acusa recibo con una petición para reenviar el paquete 5. El emisor vuelve a enviar el paquete 5 y espera el acuse de recibo antes de transmitir el paquete 7. TCP usa acuses de recibo de expectativa, lo que significa que el número del acuse de recibo se refiere al siguiente octeto esperado. TCP proporciona un secuenciamiento de segmentos con un acuse de recibo de referencia de envío. Cada datagrama se numera antes de la transmisión. En la estación receptora, el TCP reensambla los segmentos hasta formar un mensaje completo. Si falta algún número de secuencia en la serie, ese segmento se vuelve a transmitir. Si no se recibe un acuse de recibo para un segmento dentro de un período de tiempo determinado, se produce la retransmisión. 3.4.6. Ventana Deslizante TCP - Secuenciamiento TCP TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

6 6 6 66 6

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

Una transferencia confiable de datos orientada a conexión significa que los paquetes de datos llegan en el mismo orden en el que se envían. Los protocolos fallan si algún paquete se pierde, se daña, se duplica o se recibe en el orden incorrecto. Para garantizar la confiabilidad de transferencia, los dispositivos receptores deben mandar un acuse de recibo de todos y cada uno de los segmentos de datos. Si un dispositivo emisor debe esperar el acuse de recibo después de enviar cada segmento, es fácil ver que el rendimiento será bastante bajo. Sin embargo, como hay un período de tiempo no utilizado disponible después de cada transmisión de paquetes de datos y antes de procesar cualquier acuse de recibo recibido, se puede usar el intervalo para transmitir más datos. La cantidad de paquetes de datos que se permite que un emisor transmita sin recibir un acuse de recibo se denomina ventana. El uso de ventanas es un acuerdo entre el emisor y el receptor. Es un método para controlar la cantidad de información que se puede transferir de un extremo al otro. Algunos protocolos miden la información en términos de la cantidad de paquetes; TCP/IP mide la información en términos de cantidad de bytes. El uso de ventanas es un mecanismo de control de flujo que requiere que el dispositivo origen reciba un acuse de recibo desde el destino después de transmitir una cantidad determinada de datos. Por ejemplo, con un tamaño de ventana de tres, el dispositivo origen puede enviar tres octetos al destino. Entonces debe esperar un acuse de recibo. Si el destino recibe los tres octetos, envía un acuse de recibo al dispositivo origen, que ahora puede transmitir otros tres octetos. Si, por algún motivo, el destino no recibe los tres octetos, por ejemplo, debido a búferes cuya capacidad se ha excedido, no envía un acuse de recibo. Como el origen no recibe un acuse de recibo, sabe que los octetos se deben retransmitir, y que la velocidad de transmisión debe reducirse. El tamaño de ventana determina la cantidad de datos que se pueden transmitir en un determinado momento antes de recibir un acuse de recibo desde el destino. Cuanto mayor sea el número del tamaño de ventana (bytes), mayor será la cantidad de datos que el host puede transmitir. Después de que el host transmite la cantidad de bytes correspondiente al número de la ventana, el host debe recibir un acuse de recibo que indique que los datos han sido recibidos antes de poder enviar otros mensajes. Los ejemplos en la figura muestran las estaciones de trabajo de un emisor y un receptor. Uno tiene un tamaño de ventana de 1, y el otro un tamaño de ventana de 3. Con un tamaño de ventana de 1, un emisor debe esperar el acuse de recibo de cada paquete de datos que se ha transmitido. Con un tamaño de ventana de 3, un emisor puede transmitir tres paquetes de datos antes de recibir un acuse de recibo. La parte “deslizante” de la ventana deslizante, se refiere al hecho de que el tamaño de la ventana se negocia de forma dinámica durante la sesión TCP. Esto da como resultado un uso poco eficiente del ancho de banda por parte de los hosts.

3.5. La Capa 5 - Capa de sesión (Sesion Layer) Después de que los paquetes de datos provenientes de las cuatro capas inferiores viajan a través de la capa de transporte, son transformados en sesiones por el protocolo de la capa 5 o Capa de Sesión de OSI. Esto se logra implementando varios mecanismos de control: costos, control de conversación, es decir, determinar quién habla y cuándo, y la negociación de parámetros de sesión. La capa de sesión coordina las peticiones y respuestas de servicio que se producen cuando las aplicaciones se comunican entre diferentes hosts y controla los procesos que ocurren a medida que los datos viajan a través de la capa de sesión, como control de diálogo y la separación de diálogo, que permiten que las aplicaciones se comuniquen entre el origen y el destino. La capa de sesión establece, administra y finaliza las sesiones entre dos hosts que se están comunicando. Esto incluye iniciar, terminar y resincronizar dos computadoras que están manteniendo una “sesión”. Parecido al nivel de transporte, pero provee servicios adicionales. Por ejemplo, puede manejar tokens (objetos abstractos y únicos) para controlar las acciones de participantes o puede hacer checkpoints (puntos de recuerdo) en las transferencias de datos. La capa de sesión coordina las aplicaciones mientras interactúan en dos hosts que se comunican entre sí. Las comunicaciones de datos viajan a través de redes conmutadas por paquetes, al contrario de lo que ocurre con las llamadas telefónicas que viajan a través de redes conmutadas por circuitos. La capa de sesión proporciona sus servicios a la capa de presentación. También sincroniza el diálogo entre las capas de presentación de los dos hosts y administra su intercambio de datos. Además de regular la sesión, la capa de sesión ofrece disposiciones para una eficiente transferencia de datos, clase de servicio autorización de seguridad y un registro de excepciones acerca de los problemas de la capa de sesión, presentación y aplicación. La capa 5 establece diálogos y conversaciones. La capa de sesión es la primera que es accesible al usuario, y es su interfase más básica con la red. Las sesiones de comunicación consisten en demandas y respuestas de servicio que ocurren entre las aplicaciones localizadas en diferentes dispositivos de red. Estas demandas y respuestas son coordinadas por protocolos implementados en la capa de sesión. Por ejemplo, mediante los servicios de la capa de sesión un usuario podría establecer una conexión como terminal remoto de otro ordenador. En un sistema multiusuario la capa de sesión se ocupa de ofrecer un SAP a cada usuario para acceder al nivel de transporte. 3.5.1. Tipos de diálogos TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

6 6 7 67 7

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

Los tres tipos de diálogos que se utilizan en la capa de sesión son unidireccional, half-duplex y fullduplex. Un diálogo unidireccional permite que la información fluya desde un dispositivo a otro sin requerir una transmisión de respuesta. Un dialogo half-duplex, que también se denomina transmisión alternada en dos vías (TWA), permite que los datos fluyan en dos direcciones desde un dispositivo a otro. Sin embargo, los dispositivos no pueden enviar una transmisión hasta que la señal anterior se haya recibido por completo. Cuando un dispositivo envía una transmisión y requiere que el dispositivo destino envíe una respuesta, el dispositivo destino debe esperar hasta que la transmisión inicial se complete antes de poder enviar la respuesta. Un dialogo full-duplex, que también se denomina transmisión simultánea en dos vías (TWS), permite que los dispositivos envíen datos a otro dispositivo sin tener que esperar hasta que el hilo esté libre. Cuando un dispositivo transmite una señal, el dispositivo destino no tiene que esperar hasta que la señal se complete para enviar una respuesta al dispositivo origen. El full-duplex permite que el tráfico de dos vías se produzca de forma simultánea durante una sesión de comunicación. El teléfono es un ejemplo de full-duplex. 3.5.2. Control de diálogo La comunicación entre dos PCs involucra una gran cantidad de miniconversaciones, permitiendo de esta manera que los dos computadores se comuniquen de forma efectiva. Un requisito de estas miniconversaciones es que cada host tenga un doble rol: el de solicitar el servicio, como si fuera un cliente y el de contestar con servicio, como lo hace un servidor. La determinación del rol que están desempeñando en un preciso momento se denomina control de diálogo. Existen dos problemas que pueden interferir con su sesión: 1. El primer problema es que sus mensajes se pueden cruzar durante la “conversación”. Es posible que los dos escriban mensajes exactamente al mismo tiempo, interrumpiéndose de esta manera mutuamente. Para solucionarlo, se debe establecer un protocolo o una serie de protocolos que dicten las reglas de la comunicación entre ambos. Esto significa que cada uno deberá aceptar una serie de pautas a emplearse durante la conversación (por ej., enviar mensajes por turno para evitar interrumpirse mutuamente). Esto se conoce como comunicación alternada de dos vías. Otra solución es que cada persona pueda escribir cuando lo desee, aunque el otro también esté transmitiendo y dar por sentado que siempre hay información que está en camino. Esto se conoce como comunicación simultánea de dos vías. 2. El segundo problema es la necesidad de hacer una pausa (para guardar una ‘conversación’ actual como un archivo), de verificar la conversación anterior de la otra persona (para descubrir lo que causó la discusión) o de resincronizar su comunicación luego de una interrupción. Para solucionarlo, deberán enviarse mutuamente un punto de referencia, lo que significa que cada persona deberá guardar la conversación como archivo. Luego, ambos deberán volver a leer la última parte de su conversación y controlar la hora en el reloj. Esto se denomina sincronización. Dos puntos de referencia muy importantes son el principio y el final de la conversación. Esto se conoce como inicio y terminación ordenada de la conversación. Por ejemplo, intercambiar saludos con la otra parte, antes de terminar la sesión, para asegurarse de que la otra parte haya entendido que está terminando la sesión. La capa de sesión decide si va a utilizar la conversación simultánea de dos vías o la comunicación alternada de dos vías. Esta decisión se conoce como control de diálogo. Si se permite la comunicación simultánea de dos vías, entonces es poco lo que la capa de sesión puede hacer para manejar la conversación y de esta forma permite que las demás capas de las computadoras que se comunican manejen la conversación. Es posible que en la capa de sesión se produzcan colisiones, aunque éstas son muy diferentes de las colisiones de medios que se producen en la capa 1. En este nivel, las colisiones sólo puede ocurrir cuando un mensaje pasa a otro, causando confusión en uno de los hosts que se comunican, o en ambos. Si estas colisiones de la capa de sesión se vuelven intolerables, entonces el control de diálogo cuenta con otra opción: la comunicación alternada de dos vías. La comunicación alternada de dos vías involucra el uso de un token de datos de la capa de sesión que permite que cada host se comunique por turnos. Esto es similar a la forma en que un Token Ring de la capa 2 maneja las colisiones de la capa 1. 3.5.3. Separación de diálogo TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

6 6 8 68 8

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

El punto de referencia es similar a la forma en la que un procesador de texto en una computadora autónoma se detiene durante un segundo mientras realiza una operación de guardado automático del documento actual. En este caso, sin embargo, estos puntos de referencia se utilizan para separar partes de una sesión, previamente definidas como diálogos. La separación de diálogo es el inicio, finalización y manejo ordenados de la comunicación. En el gráfico se ve una sincronización menor. En el “eje de tiempo, t = punto de referencia”, la capa de sesión del Host A le envía un mensaje de sincronización al Host B, y en ese momento ambos hosts realizan la siguiente rutina: 1. Realizar una copia de seguridad de los archivos específicos 2. Guardar las configuraciones de la red 3. Guardar las configuraciones del reloj 4. Tomar nota del punto final de la conversación Una sincronización mayor implica más pasos y conversación en ambos sentidos que los que aparecen en el gráfico. 3.5.4. Protocolos de la capa 5 Los siguientes son ejemplos de protocolos de la capa 5: Algunos ejemplos de implementaciones de la capa de sesión incluyen al Protocolo de Información de Zona (ZIP), el protocolo de AppleTalk que coordina el proceso que liga nombres, Protocolo de Sesión de AppleTalk (ASP), Protocolo de Control de Sesión (SCP) de la Arquitectura de Red Digital (DNA), el Protocolo de Fase IV de DECnet, Sistema de Archivos de Red (NFS), Lenguaje de Consulta Estructurado (SQL), Llamada de Procedimiento Remoto (RPC), Sistema X-Window. Los dispositivos que funcionan hasta esta capa incluyen hosts y gateways.

3.6. La Capa 6 - Capa de Presentación (Presentation Layer) Hasta aquí se intereso únicamente en el intercambio de bits (o bytes) entre dos usuarios ubicados en dos ordenadores diferentes. Se lo hizo de manera fiable y entregando los datos a la sesión, es decir al usuario, pero sin tomar en cuenta el significado de los bits transportados. Esta capa es generalmente un protocolo de paso de la información desde las capas adyacentes y permite la comunicación entre las aplicaciones en distintos sistemas informáticos de manera tal que resulte transparente para las aplicaciones. La capa de presentación se ocupa del formato y la representación de los datos y, si es necesario, esta capa puede traducir entre distintos formatos de datos: sirve como traductor para dispositivos que necesitan comunicarse a través de una red, brindando formateo y conversión de códigos de datos de aplicación de red en texto, gráficos, vídeo, audio o el formato que sea necesario para que el dispositivo receptor lo entienda. La capa de presentación se ocupa de realizar las conversiones necesarias para asegurar que dichos bits se presentan al usuario de la forma esperada, proporcionando una variedad de funciones de conversión y codificación que se aplican a los datos de la capa de aplicación; estas funciones aseguran que la información enviada desde la capa de aplicación de un sistema será leíble por la capa de aplicación del otro sistema. Algunos ejemplos de esquemas de conversión y codificación de la capa de presentación incluyen: formatos de representación de datos, conversión de formatos de representación de caracteres y esquemas de compresión y encriptación de datos. La capa de presentación no sólo se ocupa del formato y representación de los datos, sino también de la estructura de los datos que usan los programas. La capa 6 organiza los datos para la capa 7. Los formatos de representación de datos, o el uso de formatos de imagen, sonido y video, permiten el intercambio de datos de la aplicación entre diferentes tipos de sistemas de computadora. 3.6.1. Funciones y estándares de la capa de presentación La capa de presentación está a cargo de la presentación de los datos en una forma que el dispositivo receptor pueda comprender. Para comprender mejor este concepto, pensar en la analogía de dos personas que hablan distintos idiomas. La única forma de que se puedan entender es que otra persona les traduzca. La capa de presentación actúa como traductor de los dispositivos que necesitan comunicarse dentro de una red. La capa 6, o capa de presentación cumple tres funciones principales. Estas funciones son las siguientes: * Formateo de datos (presentación). * Cifrado de datos. * Compresión de datos. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

6 6 9 69 9

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

Después de recibir los datos de la capa de aplicación, la capa de presentación ejecuta una de sus funciones, o todas ellas, con los datos antes de mandarlos a la capa de sesión. En la estación receptora, la capa de presentación toma los datos de la capa de sesión y ejecuta las funciones requeridas antes de pasarlos a la capa de aplicación. Para comprender cómo funciona el formateo de datos, imaginarse dos sistemas que sean diferentes. El primer sistema utiliza el Código Ampliado de Caracteres Decimales Codificados en Binario (EBCDIC) para representar los caracteres en la pantalla y el segundo sistema utiliza el Código Americano Normalizado para el Intercambio de la Información (ASCII). La Capa 6 opera como traductor entre estos dos tipos diferentes de códigos. Lo mismo se podría decir de la transferencia de datos enteros, flotantes, etc. Los estándares de la capa 6 también sirven como guía para la presentación de las imágenes gráficas. A continuación, presentamos tres de estos estándares: • PICT: un formato de imagen utilizado para transferir gráficos QuickDraw entre programas del sistema operativo MAC. • TIFF (Formato de Archivo de Imagen Etiquetado, Tagged Image File Format): un formato para imágenes con asignación de bits de alta resolución. • JPEG (Grupo Conjunto de Expertos Fotográficos, Joint Photoraphic Experts Group): formato gráfico utilizado con frecuencia para comprimir imágenes fijas de ilustraciones o fotografías complejas. • GIF (Formato de Intercambio de Gráficos, Graphcis Interchange Format) es una norma por comprimir y codificar imágenes gráficas. Otros estándares de la capa 6 regulan la presentación de sonido y películas. Entre estos estándares se encuentran: • MIDI (Interfaz Digital para Instrumentos Musicales) para música digitalizada • MPEG (Grupo de Expertos en Películas): estándar para la compresión y codificación de vídeo con movimiento para el almacenamiento en CD y digital. • QuickTime : estándar para el manejo de audio y vídeo para los programas del sistema operativo MAC. QuickTime es una especificación de Apple Computer para video y audio. 3.6.2. Formatos de archivo ASCII y EBCDIC se utilizan para formatear texto. Los formatos de textos ASCII contienen datos de caracteres simples y carecen de comandos de formato sofisticados, tal como negrilla o subrayado, que los procesadores de texto aplicarían normalmente a un documento. Generalmente estos archivos tienen la extensión .txt. El código EBCDIC es muy similar al código ASCII en el sentido de que tampoco utiliza ningún formato sofisticado. La diferencia principal entre los dos códigos es que EBCDIC se utiliza principalmente en sistemas mainframe y el código ASCII se utiliza en PC. Otro formato de archivo común es el formato binario. Los archivos binarios contienen datos codificados especiales que sólo se pueden leer con aplicaciones de software específicas. El protocolo FTP utiliza el tipo de archivo binario para transferir archivos. Las redes utilizan distintos tipos de archivos. Internet utiliza dos formatos de archivo binario para visualizar imágenes: GIF y JPEG. Un lector de formatos de archivo GIF y JPEG puede leer este tipo de archivos, independientemente del tipo de computadora de que se trate. Los lectores son programas de software diseñados para mostrar una imagen con un tipo de archivo determinado. Algunos programas pueden leer múltiples tipos de imagen, así como convertir archivos de un tipo a otro. Los navegadores de Web pueden mostrar archivos gráficos en cualquiera de estos dos formatos sin necesidad de ningún software adicional. El formato de archivo multimedios es otro tipo de archivo binario, que almacena sonidos, música y vídeo. Los archivos de sonido generalmente operan en una de dos formas. Se pueden descargar completamente primero y luego escucharlos, o bien se pueden escuchar mientras se están descargando. El último método se conoce como audio fluido (streaming). Windows usa el formato de sonido WAV y el formato AVI para los archivos animados. Algunos de los formatos de vídeo más comunes son MPEG, MPEG2 y Macintosh QuickTime . Otro tipo de formato de archivo es el lenguaje de etiquetas. Este formato actúa como un conjunto de instrucciones que le indican al navegador de Web cómo mostrar y administrar los documentos. El Lenguaje de Etiquetas por Hipertexto (HTML) es el lenguaje de Internet. Las direcciones HTML le indican al navegador dónde mostrar texto o un hipervínculo con otro URL. El formato HTML no es un lenguaje de programación sino un conjunto de direcciones para la visualización de una página. 3.6.7. Cifrado y compresión de datos TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

7 7 0 70 0

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

El cifrado de los datos protege la información confidencial durante su transmisión a través de las redes. Los esquemas estándares de encriptación de datos (se utiliza una clave de cifrado) permiten que los datos en el dispositivo fuente sean descifrados apropiadamente en el destino. La capa de presentación también se ocupa de la compresión de los archivos. Los esquemas estándares de compresión de datos permiten que los datos que están comprimidos en un dispositivo fuente sean apropiadamente descomprimidos en el destino. La compresión funciona mediante el uso de algoritmos (fórmulas matemáticas complejas) para reducir el tamaño de los archivos. El algoritmo busca patrones de bits repetidos en el archivo y entonces los reemplaza con un token. Un token es un patrón de bit mucho más corto que representa el patrón largo. Una analogía sencilla puede ser el nombre Maxi (el apodo), el token, para referirse a alguien cuyo nombre completo sea Maximiliano. Las implementaciones de la capa de presentación, por lo gral., no se asocian con una pila protocolar particular. Entre las normas bien conocidas para formatos de video y formatos de imagen gráficas están los nombrados anteriormente. Aunque puede haber protocolos específicos, generalmente se desarrollan a partir de los protocolos de capa de aplicación existentes. Los protocolos incluyen NCP (Network Control Program). Los formatos de datos incluyen ASCII, EBCDIC, cifrado, jpeg, gif, mpeg, quicktime, flash, wav, avi y mp3. Los dispositivos que funcionan hasta esta capa incluyen hosts y gateways.

3.7. La Capa 7 - Capa de Aplicación (Application Layer) La capa de aplicación soporta el componente de comunicaciones de una aplicación, suministra servicios de red a los programas que están más cerca del usuario. No proporciona servicios a ninguna otra capa del modelo OSI. Por otra parte, sí brinda servicios a los procesos de aplicación que no se encuentran cubiertos por el modelo OSI. Estos son programas como Internet Explorer, Netscape Communicator, Eudora Pro, Telnet y otro software de aplicación para usuarios finales. Esta capa establece la comunicación con los socios correspondientes, sincroniza el acuerdo con respecto a los procedimientos para la recuperación de errores y el control de integridad de datos. Una aplicación informática puede funcionar a pleno utilizando sólo la información que reside en su computadora. Sin embargo, una aplicación también puede tener un componente de comunicaciones que se conecta con una o más aplicaciones de red. La capa de aplicación es responsable por lo siguiente: • identificar y establecer la disponibilidad de los socios de la comunicación deseada • sincronizar las aplicaciones de cooperación • establecer acuerdos con respecto a los procedimientos para la recuperación de errores • controlar la integridad de los datos • determinar la disponibilidad de recursos Al identificar a los socios de comunicación, la capa de aplicación determina la identidad y disponibilidad de socios de comunicación para que una aplicación con datos pueda transmitir. Al determinar disponibilidad del recurso, la capa de aplicación debe decidir si los recursos de red son suficientes para que la comunicación pedida exista. En la sincronización de la comunicación, toda la comunicación entre las aplicaciones requiere de cooperación que es manejada por la capa de aplicación. La capa de aplicación comprende los servicios que el usuario final está acostumbrado a utilizar en una red telemática (es la más cercana al usuario final, lo que indica que tanto la capa de aplicación como el usuario interactuan directamente con el software aplicación que implementa un s oporte de comunicación de red), por lo que a menudo los protocolos de la capa de aplicación se denominan servicios. También determina si existen suficientes recursos para establecer la comunicación entre los sistemas. Algunos ejemplos de procesos de aplicación de este tipo son los programas de hojas de cálculo, de procesamiento de texto y los de las terminales bancarias. Además, la capa de aplicación proporciona una interfaz directa para el resto del modelo OSI, mediante el uso de aplicaciones de red (por ej., WWW, correo electrónico, FTP, Telnet), o una interfaz indirecta, mediante el uso de aplicaciones independientes (por ej., procesadores de texto, hojas de cálculo, administradores de presentaciones, redirectores de red). Dos tipos claves de implementaciones de la capa de aplicación son las aplicaciones TCP/IP y las aplicaciones OSI. Dado que se crean continuamente nuevos servicios, existen muchos protocolos para la capa de TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

7 7 1 71 1

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

aplicación, uno o más por cada tipo de servicio. Las aplicaciones TCP/IP son protocolos, como Telnet, como el Protocolo de Transferencia de Archivos (FTP, File Transfer Protocol) y el Protocolo de Transferencia de Correo Simple (SMTP, Simple Mail Transfer Protocol), que existen en la suite IP (Internet Protocol), HTTP, TFTP, SNMP, etc. Las aplicaciones OSI son protocolos como FTAM (File Transfer, Access and Management, Transferencia de Archivos, Acceso y Administración), como el Protocolo de Terminal Virtual (VTP, Virtual Terminal Protocol), el Protocolo de Administración de Información Común (CMIP, Common Management Information Protocol), el CCITT X.400, X.420, X.500, etc. que existen en la suite OSI. 3.7.1. Aplicaciones de Internet

• • • • •

Las aplicaciones de red se seleccionan tomando como base el tipo de trabajo que necesita realizar. Un conjunto completo de programas de la capa de aplicación está disponible para realizar la interfaz con Internet. Cada tipo de programa de aplicación se asocia con su propio protocolo de aplicación, así como cada sesión se asocia con un determinado numero de puerto de servicio o cómo cada segmento, paquetes o trama se asocia a un determinado protocolo de capa. Existen muchos tipos de programas y protocolos disponibles. Específicamente se hará referencia a los siguientes (en el modelo TCP/IP se los detallará): La World Wide Web que usa el protocolo HTTP. Los programas de acceso remoto que utilizan el protocolo Telnet para la conexión directa a las fuentes remotas. Los programas de correo electrónico que soportan el protocolo de la capa de aplicación POP3 para c orreo electrónico. Los programas de utilidades de archivo que utilizan el protocolo FTP para copiar y trasladar archivos entre sitios remotos. La recopilación y monitoreo de datos de la red que utilizan el protocolo SNMP.

Es importante volver a enfatizar el hecho de que la capa de aplicación es simplemente otra capa de protocolo dentro de los modelos OSI o TCP/IP. Los programas hacen interfaz con los protocolos de la capa de aplicación. Las aplicaciones de cliente de correo electrónico (por ej., Eudora, Microsoft Mail, Pegasus y Netscape Mail) trabajan con el protocolo POP3. Lo mismo ocurre con los dos navegadores de Web de mayor popularidad Internet Explorer de Microsoft y Netscape Communicator. La apariencia y la operación de estos dos programas es muy distinta, pero ambos funcionan con el protocolo HTTP de la capa de aplicación. Los dispositivos que funcionan hasta esta capa incluyen hosts y gateways

3.8. Jerarquía ISO de redes Típicamente las grandes redes se organizan como jerarquías. Una organización jerárquica proporciona ventajas tales como facilidad de administración, flexibilidad y reducción de tráfico innecesario. Así, la Organización Internacional de Estándares (ISO) adoptó varias convenciones de la terminología para dirigirse a las entidades de red. Los términos importantes, definidos en esta sección, incluyen Sistemas Extremos (ES), Sistemas Intermedios (IS), Área y Sistemas Autónomos (AS). Un ES es un dispositivo de red que no realiza ruteo o funciones de remitir tráfico. Los ESs típicos incluyen dispositivos tales como terminales, computadoras personales e impresoras. Un IS es un dispositivo de red que realiza ruteo u otras funciones de remitir tráfico. ISs típicos incluyen dispositivos tales como routers, switches y puentes. Existen dos tipos de ISs de red: el intradomain IS y el interdomain IS. Un IS intradominio se comunica dentro de un sistema autónomo solo, mientras un IS interdominio se comunica dentro y entre sistemas autónomos. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

7 7 2 72 2

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

Una área es un grupo lógico de segmentos de red y sus dispositivos atachados. Las áreas son subdivisiones de los sistemas autónomos. Un AS es una colección de redes bajo una administración común que comparte una estrategia de asignación de ruta (ruteo) común. Los sistemas autónomos se subdividen en áreas y un AS se llama a veces un dominio.

333...999... E E M O D E L O D E R E E R E N C A T CPP//IIPP ELLLM MO OD DE EL LO OD DE ER RE EFFFE ER RE EN NC CIIIA AT TC En 1969 la agencia ARPA (Advanced Research Projects Agency) y el DoD (Department of Defense, Departamento de Defensa de los Estados Unidos) iniciaron un proyecto de interconexión de ordenadores mediante redes telefónicas. Al ser un proyecto desarrollado por militares en plena guerra fría un principio básico de diseño era que la red debía poder resistir la destrucción de parte de su infraestructura (por ejemplo a causa de un ataque nuclear), de forma que dos nodos cualesquiera pudieran seguir comunicados siempre que hubiera alguna ruta que los uniera. Esto se consiguió en 1972 creando una red de conmutación de paquetes denominada ARPAnet, la primera de este tipo que operó en el mundo. La conmutación de paquetes unida al uso de topologías malladas mediante múltiples líneas punto a punto dio como resultado una red altamente fiable y robusta. La ARPAnet fue creciendo paulatinamente, y pronto se hicieron experimentos utilizando otros medios de transmisión de datos, en particular enlaces por radio y vía satélite; los protocolos existentes tuvieron problemas para interoperar con estas redes, por lo que se diseñó un nuevo conjunto o pila de protocolos, y con ellos una arquitectura. Este nuevo conjunto se denominó TCP/IP (Transmission Control Protocol/Internet Protocol) nombre que provenía de los dos protocolos más importantes que componían la pila; la nueva arquitectura se llamó sencillamente modelo TCP/IP, los nuevos protocolos fueron especificados por vez primera por Cerf y Kahn en un artículo publicado en 1974. A la nueva red, que se creó como consecuencia de la fusión de ARPAnet con las redes basadas en otras tecnologías de transmisión, se la denominó Internet. Aunque el modelo de referencia OSI sea universalmente reconocido, el estándar abierto de Internet desde el punto de vista histórico y técnico fue y es el Protocolo de control de transmisión/Protocolo Internet (TCP/IP). El modelo de referencia TCP/IP y la pila de protocolo TCP/IP hacen que sea posible la comunicación entre dos computadoras, desde cualquier parte del mundo, a casi la velocidad de la luz. La aproximación adoptada por los diseñadores del TCP/IP fue mucho más pragmática que la de los autores del modelo OSI. Mientras que en el caso de OSI se emplearon varios años en definir con sumo cuidado una arquitectura de capas donde la función y servicios de cada una estaban perfectamente definidas, y solo después se planteó desarrollar los protocolos para cada una de ellas, en el caso de TCP/IP la operación fue a la inversa; primero se especificaron los protocolos, y luego se definió el modelo como una simple descripción de los protocolos ya existentes. Por este motivo el modelo TCP/IP es mucho más simple que el OSI. También por este motivo el modelo OSI se utiliza a menudo para describir otras arquitecturas, como por ejemplo la TCP/IP, mientras que el modelo TCP/IP nunca suele emplearse para describir otras arquitecturas que no sean la suya propia. El TCP/IP permite la conexión de redes múltiples y la capacidad de mantener conexiones aun cuando una parte de la subred esté perdida. La red es packet-switched y está basada en un nivel de internet sin conexiones. En el modelo TCP/IP se pueden distinguir cuatro capas. Es importante observar que algunas de las capas del modelo TCP/IP poseen el mismo nombre que las capas del modelo OSI. No se debe confundir las capas de los dos modelos, porque la capa de aplicación tiene diferentes funciones en cada modelo. * La Capa Host-Red o Capa de Red * La Capa Internet * La Capa de Transporte * La Capa de Aplicación

3.9.1. La Capa Host - Red o Capa de Red El nombre de esta capa es muy amplio y se presta a confusión. También se denomina capa de host a red. Es la capa que se ocupa de todos los aspectos que requiere un paquete IP para realizar realmente un enlace físico y luego realizar otro enlace físico. Esta capa incluye los detalles de tecnología de LAN y WAN y todos los detalles de las capas física y de enlace de datos del modelo OSI (engloba realmente las funciones de esas dos capas de OSI). El modelo TCP/IP no dice gran cosa respecto a ella, salvo que debe ser capaz de conectar el host a la red por medio de algún protocolo que permita enviar paquetes IP. Podríamos decir que para el modelo TCP/IP esta capa se comporta como una “caja negra”. Cuando surge una nueva tecnología de red (por ejemplo ATM) una de las primeras cosas que aparece es un estándar que especifica de que forma se pueden enviar sobre ella paquetes IP, a partir de ahí la capa Internet ya puede utilizar esa tecnología de manera transparente.

3.9.2. La Capa Internet TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

7 7 3 73 3

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

Esta capa es el “corazón” de la red. Su papel equivale al desempeñado por la capa de red en el modelo OSI, es decir, se ocupa de encaminar los paquetes (a través de las internetworks) de la forma más conveniente para que lleguen a su destino independientemente de la ruta y de las redes que se utilizaron para llegar hasta allí, y de evitar que se produzcan situaciones de congestión en los nodos intermedios. Los hosts pueden introducir paquetes en la red, los cuales viajan independientemente al destino. En esta capa se produce la determinación de la mejor ruta y la conmutación de paquetes. Debido a los requisitos de robustez impuestos en el diseño, la capa internet da únicamente un servicio de conmutación de paquetes no orientado a conexión. Los paquetes pueden llegar desordenados a su destino (no hay garantías de entrega ni de orden), en cuyo caso es responsabilidad de las capas superiores en el nodo receptor la reordenación para que sean presentados al usuario de forma adecuada. A diferencia de lo que ocurre en el modelo OSI, donde los protocolos para nada intervienen en la descripción del modelo, la capa Internet define aquí un formato de paquete y un protocolo, llamado IP (Internet Protocol), que se considera el protocolo “oficial” de la arquitectura, que provee el ruteo y control de congestión.

3.9.3. La Capa de Transporte Esta capa recibe el mismo nombre y desarrolla la misma función que la cuarta capa del modelo OSI, consistente en permitir la comunicación extremo a extremo en la red (permite que pares en los hosts fuente y destino puedan conversar). La capa de transporte se refiere a los aspectos de calidad del servicio con respecto a la confiabilidad, el control de flujo y la corrección de errores. Uno de sus protocolos, el Protocolo para el Control de la Transmisión (TCP), ofrece maneras flexibles y de alta calidad para crear comunicaciones de red confiables, sin problemas de flujo y con un nivel de error bajo. TCP es un protocolo orientado a la conexión. Mantiene un diálogo entre el origen y el destino mientras empaqueta la información de la capa de aplicación en unidades denominadas segmentos. Orientado a la conexión no significa que el circuito exista entre los computadores que se están comunicando (esto sería una conmutación de circuitos). Significa que los segmentos de la capa 4 viajan de un lado a otro entre dos hosts para comprobar que la conexión exista lógicamente para un determinado período. Esto se conoce como conmutación de paquetes. Aquí se definen dos protocolos: 1. TCP (Transmission Control Protocol): ofrece un servicio CONS (orientado a conexión) fiable, con lo que los paquetes llegan ordenados y sin errores de un flujo de bytes desde una maquina a alguna otra en la internet. Mantiene un diálogo entre el origen y el destino mientras empaqueta la información de la capa de aplicación en unidades denominadas segmentos (parte el flujo en mensajes discretos y lo monta de nuevo en el destino). TCP se ocupa también del control de flujo extremo a extremo, para evitar que por ejemplo un host rápido sature a un receptor mas lento. Ejemplos de protocolos de aplicación que utilizan TCP son el SMTP (Simple Mail Transfer Protocol) y el FTP (File Transfer Protocol). 2. UDP (User Datagram Protocol): da un servicio CLNS (no orientado a conexión), no fiable para la entrega de mensajes discretos. UDP no realiza control de errores ni de flujo. Se pueden construir otros protocolos de aplicación sobre UDP. Una aplicación típica donde se utiliza UDP es la transmisión de voz y vídeo en tiempo real; aquí el retardo que introduciría el control de errores produciría mas daño que beneficio: es preferible perder algún paquete que retransmitirlo fuera de tiempo (la entrega rápida es más importante que la entrega garantizada). Otro ejemplo de aplicación que utiliza UDP es el NFS (Network File System), aquí el control de errores y de flujo se realiza en la capa de aplicación.

3.9.4. La Capa de Aplicación Esta capa desarrolla las funciones de las capas de sesión, presentación y aplicación del modelo OSI. La experiencia ha demostrado que las capas de sesión y presentación son de poca utilidad, debido a su escaso contenido, por lo que la aproximación adoptada por el modelo TCP/IP parece mas acertada. Simplemente se creó una capa de aplicación que maneja protocolos de alto nivel, aspectos de representación, codificación y control de diálogo. El modelo TCP/IP combina todos los aspectos relacionados con las aplicaciones en una sola capa y da por sentado que estos datos están correctamente empaquetados para la siguiente capa. Entre los protocolos de alto nivel se puede mencionar tanto los “tradicionales”, que existen desde que se creó el TCP/IP: Terminal Virtual (Telnet), Transferencia de Archivos (FTP), Correo Electrónico (SMTP) y Servidor de Nombres (DNS), como los mas recientes, como el Servicio de News (NNTP), el Web (HTTP), el Gopher, etc. 3.9.5. Gráfico de protocolo TCP/IP El diagrama de la figura se denomina gráfico de protocolo. Este gráfico ilustra algunos de los protocolos comunes especificados por el modelo de referencia TCP/IP. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

7 7 4 74 4

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

En la capa de aplicación, aparecen distintas tareas de red que probablemente uno no reconozca, pero que, probablemente se use todos los días (como usuario de Internet). Estas aplicaciones incluyen las siguientes: • FTP : File Transfer Protocol (Protocolo de Transporte de Archivos) • HTTP: Hypertext Transfer protocol (Protocolo de Transferencia de Hipertexto) • SMTP: Simple Mail Transport Protocol (Protocolo de Transporte de Correo Simple) • DNS: Domain Name Services (Servicio de Nombre de Dominio) • TFTP: Trival File Transport Protocol (Protocolo de Transporte de Archivo Trivial) El modelo TCP/IP enfatiza la máxima flexibilidad, en la capa de aplicación, para los diseñadores de software. La capa de transporte involucra los protocolos TCP y UDP. La capa inferior, la capa de red, se relaciona con la tecnología LAN o WAN que se utiliza en particular. En el modelo TCP/IP existe solamente un protocolo de red: el protocolo Internet, o IP, independientemente de la aplicación que solicita servicios de red o del protocolo de transporte que se utiliza. Esta es una decisión de diseño deliberada. IP sirve como protocolo universal que permite que cualquier computador en cualquier parte del mundo pueda comunicarse en cualquier momento.

333...111000... C C O M A R A C Ó N D E L O M O D E L O CO OM MPPPA AR RA AC CIIIÓ ÓN ND DE EL LO OSSSM MO OD DE EL LO OSSSO OSSIIYYYTTC CPP//IIPP Como se comentó, la génesis del modelo OSI y TCP/IP fue muy diferente. En el caso de OSI primero fue el modelo y después los protocolos, mientras que en TCP/IP el orden fue inverso. Como consecuencia de esto el modelo OSI es más elegante y esta menos condicionado por ningún protocolo en particular, y se utiliza profusamente como modelo de referencia para explicar todo tipo de redes. El modelo OSI hace una distinción muy clara entre servi cios, interfaces y protocolos, conceptos que a menudo se confunden en el modelo TCP/IP. Podríamos decir que la arquitectura (o el modelo) OSI es mas modular y académico que el TCP/IP. Pero este mayor nivel de abstracción también tiene sus inconvenientes. Los diseñadores del modelo OSI no tenían experiencia práctica aplicando su modelo para desarrollar protocolos y olvidaron algunas funcionalidades importantes. Por ejemplo, en OSI las redes broadcast no fueron previstas inicialmente en la capa de enlace, por lo que se tuvo que insertar a la fuerza la subcapa MAC para incluirlas, tampoco se previo la interconexión de redes diferentes, cosas que son el alma mater del modelo TCP/IP. El modelo de TCP/IP fue definido después de los protocolos y se adecuan perfectamente, pero no otras pilas de protocolos. El modelo OSI tiene siete capas, mientras que el modelo TCP/IP sólo tiene cuatro. Aunque es desafortunada la fusión de la capa física y la de enlace en una oscura capa host-red, la fusión de las capas de sesión, presentación y aplicación en una sola en el modelo TCP/IP es claramente mas lógica que la del modelo OSI. Otra diferencia fundamental estriba en los servicios orientados a conexión (CONS) o no orientados a conexión (CLNS). El modelo OSI soporta ambos modos en la capa de red, pero sólo el modo CONS en la capa de transporte, que es la que percibe el usuario. El modelo TCP/IP en cambio soporta solo CLNS en la capa de red, pero ambos en la de transporte. Quizá un sutil detalle pueda explicar esta diferencia: el servicio CONS al nivel de red hace mucho más sencillo facturar por tiempo de conexión, cosa a la que están muy acostumbradas las compañías telefónicas, que son las que han participado activamente en los comités técnicos de ISO que diseñaron el modelo OSI. En la práctica los protocolos basados en las normas estándar OSI definidas por la ISO nunca llegaron a tener gran relevancia a escala mundial, a pesar de que la mayoría de los grandes fabricantes de ordenadores y compañías telefónicas impulsaron su utilización ofreciendo productos y servicios basados en ellos, debido a las siguientes razones principales: • Momento inadecuado: Para cuando estaban disponibles productos comerciales basados en protocolos OSI (finales de los ochenta) ya estaban ampliamente difundidos los productos basados en los protocolos TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

7 7 5 75 5

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

TCP/IP; esto era especialmente cierto en entornos académicos (universidades y centros de investigación), que aunque económicamente no eran los mejor dotados sí tenían las mayores redes a escala mundial. Tecnología inapropiada: como ya hemos comentado la elección del modelo de siete capas para el protocolo OSI era algo forzada. Una de las razones que llevaron a elegir este número de capas era que coincidía con el del modelo SNA de IBM, que dominaba el mercado de la informática por aquel entonces; los autores del modelo OSI creían que aproximándose a SNA tenían mayores posibilidades de éxito. La complejidad de la arquitectura OSI (análogamente a la SNA) es considerable, y en muchos aspectos difíciles de traducir en programas. Implementaciones inadecuadas: en parte como consecuencia de su complejidad, los productos comerciales que aparecían basados en los protocolos OSI eran muy caros y poco fiables. Esto creó un círculo vicioso, ya que al ser caros los usuarios no l os compraban, y al no usarse en condiciones reales los nuevos productos no se depuraban; además, las empresas fabricantes tenían que mantener un alto precio del software OSI para compensar los elevados costos de desarrollo y mantenimiento. Como contraste una de las primeras implementaciones de TCP/IP formaba parte del UNIX de Berkeley, era muy buena y además se distribuía gratuitamente. No es extraño pues que rápidamente se asociara OSI con baja calidad, complejidad y costos elevados. Mala política: el desarrollo de OSI era patrocinado principalmente por la ISO, las PTTs europeas, la Comunidad Europea y los gobiernos de sus países miembros; las decisiones eran fruto de multitud de reuniones de los diversos comités y grupos de trabajo, y en ocasiones se tomaban en consideración no sólo aspectos técnicos sino también políticos, buscando el compromiso entre sus miembros. Por el contrario el desarrollo de TCP/IP seguía un curso mucho más improvisado e informal, cualquier persona podía (y puede) proponer un nuevo protocolo para su estandarización independientemente de su nacionalidad, prestigio o situación laboral. Haciendo una simplificación podríamos decir que OSI funcionaba como una “democracia parlamentaria” (similar a un gobierno moderno), mientras que TCP/IP era más similar a una ONG, o a un movimiento alternativo; esto se reflejaba incluso en la indumentaria utilizada por uno y otro colectivo. No es de extrañar que en entornos académicos (de nuevo recordemos los más avanzados en redes globales) se viera con mucha más simpatía el mecanismo de estandarización del TCP/IP que el de OSI.

De los aspectos negativos en los protocolos TCP/IP, por un lado no se distinguen claramente los conceptos de servicio, interfaz y protocolo, en segundo lugar, el “modelo” TCP/IP fue diseñado con posterioridad al protocolo, (intentando imitar la labor de síntesis que se había hecho en el modelo OSI), en tercero esta la “caja negra” que hemos llamado capa host-red y que en el modelo TCP/IP es mas bien una interfaz que una capa, ya que lo único que se especifica de ella es que ha de ser capaz de transmitir paquetes IP, como consecuencia de esto el modelo TCP/IP no distingue entre la capa física y la de enlace, ya que ambas entran en la “capa” host-red. Por otro lado, aun cuando los protocolos IP y TCP fueron diseñados concienzudamente y bien implementados, algunos protocolos, especialmente del nivel de aplicación, fueron el resultado de una improvisación para resolver un problema concreto; como las implementaciones se distribuían después de forma gratuita se extendían con rapidez por lo que resultaban difíciles de sustituir; un ejemplo de esto lo tenemos en el protocolo TelNet que se utiliza ampliamente a pesar de no tener soporte para interfaz gráfica, ratón, etc. Durante la década de los ochenta en Europa las redes académicas de la mayoría de los países utilizaban protocolos OSI por imposición de los respectivos gobiernos y de la Comunidad Europea; a la vista de los problemas ya mencionados de los productos OSI, y la extensión y buen resultado de los protocolos TCP/IP, se empezaron a ofrecer en 1991 servicios basados en TCP/IP, lo cual provocó su inmediata difusión por toda Europa y el estancamiento y casi desaparición de los servicios basados en protocolos OSI. Probablemente el único protocolo OSI que sobrevivirá la batalla contra TCP/IP será el X.500, protocolo de aplicación que implementa los servicios de directorio. Estos estaban cubiertos en TCP/IP por un servicio denominado WHOIS de funcionalidad mucho mas pobre. Probablemente es el hecho de no haber una alternativa en TCP/IP lo que ha salvado a X.500, que actualmente funciona sobre TCP/IP. Resumiendo, OSI es un buen modelo (no los protocolos).y TCP/IP es un buen conjunto de protocolos, pero el modelo no es general. Es ideal, entonces, usar una combinación de los dos, suprimiendo las capas de sesión y de presentación de OSI, describiendo fundamentalmente protocolos TCP/IP y otros más modernos y que en muchos casos se utilizan como medio de transporte para TCP/IP. En la figura siguiente se hace un resumen del modelo y los principales protocolos que se ven en cada capa. Capa Protocolo Aplicación TCP/IP (DNS, SNMP, SNMP, NNTP, HTTP) Transporte TCP/IP (TCP, UDP) ATM (AAL1, AAL2, AAL3/4, AAL5) Red TCP/IP (IP, ICMP, ARP, RARP, OSPF, BGP, Ipv6), ATM (Q2931) Enlace ISO (HDLC), TCP/IP (SLIP, PPP), ATM, LANs N-ISDN, B-ISDN (ATM), GSM, SONET/SDH, LANs Física Cable coaxial, cable UTP, fibra óptica, microondas, radioenlaces, satélite TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

7 7 6 76 6

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C CAAAPPPIIITTTUUULLLOOOIIIIII

M M R MOOODDDEEELLLOOOSSSDDDEEER REEEFFFEEERRREEENNNCCCIIIAAA

Resumiendo: Similitudes * Ambos se dividen en capas. * Ambos tienen capas de aplicación, aunque incluyen servicios muy distintos. * Ambos tienen capas de transporte y de red similares. * Se supone que la tecnología es de conmutación de paquetes (no de conmutación de circuitos). * Los profesionales de networking deben conocer ambos. Diferencias * TCP/IP combina las funciones de la capa de presentación y de sesión en la capa de aplicación. * TCP/IP combina la capas de enlace de datos y la capa física del modelo OSI en una sola capa. * TCP/IP parece ser más simple porque tiene menos capas. * Los protocolos TCP/IP son los estándares en torno a los cuales se desarrolló Internet, de modo que la credibilidad del modelo TCP/IP se debe en gran parte a sus protocolos. En comparación, no se crean redes a partir de protocolos específicos relacionados con OSI, aunque todo el mundo utiliza el modelo OSI como guía. Recordar que existe una diferencia entre un modelo (es decir, capas, interfaces y especificaciones de protocolo) y el protocolo real que se usa en networking. Se usará el modelo OSI y los protocolos TCP/IP.

TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

7 7 7 77 7

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

SSEERRVVIICCIIOOSS,, M MA ASS D DEE T MIISSIIÓ ÓN N TRRAANNSSM MEEDDIIOOSS YY SSIISSTTEEM 11.. SSEEERRRVVVIIICCCIIIO O D E O M U N C A C Ó N OSSS D DE EC CO OM MU UN NIIIC CA AC CIIIÓ ÓN N Dado que cualquier usuario puede solicitar un acceso a las redes que operan las compañías telefónicas, a éstas se las denomina redes públicas de datos (PDN, Public Data Networks). Cuando se desea interconectar ordenadores o redes locales ubicadas a cierta distancia es preciso normalmente utilizar los servicios de alguna de esas redes públicas. Dichos servicios pueden clasificarse de acuerdo con el tipo de conexión que ofrecen, permanente o temporal, y con el tipo de circuito, real o virtual. Esquemáticamente sería: Tipo de circuito Real Virtual

Tipo de conexión Permanente

Temporal Redes de conmutación de circuitos Líneas dedicadas (RTB, RDSI, GSM) Redes de conmutación con PVCs Redes de conmutación con SVCs (X.25, Frame Relay, ATM) (X.25, Frame Relay, ATM)

Clasificación de los tipos de servicio de transmisión de datos por líneas telefónicas según el tipo de circuito y conexión.

En la práctica suele utilizarse en cada caso el servicio más conveniente por sus prestaciones y precio, por lo que las redes suelen mezclar varios de los servicios que hemos mencionado. Vamos a dar una pequeña descripción de cada uno de ellos.

1.1 Líneas dedicadas La solución más simple para una red es el circuito real permanente, constituido por lo que se conoce como líneas dedicadas, alquiladas o arrendadas (leased lines); está formado por un enlace punto a punto abierto de forma permanente entre los ordenadores o routers que se desean unir. Una línea dedicada es únicamente un medio de transmisión de datos a nivel físico, todos los protocolos de niveles superiores han de ser suministrados por el usuario. La red ARPAnet se constituyó mediante líneas dedicadas. La Internet incorpora actualmente todos los servicios que hemos mencionado. Normalmente no es posible contratar una línea dedicada de una velocidad arbitraria, existen unas velocidades prefijadas que son las que suelen ofrecer las compañías telefónicas y que tienen su origen en la propia naturaleza del sistema telefónico, por ejemplo líneas dedicadas de 9,6, 64, 128, 192, 256, 512 y 2,048 Kbps. El precio de una línea dedicada es una cuota fija mensual que depende de la velocidad y de la distancia entre los dos puntos que se unen. En las líneas dedicadas la capacidad contratada está reservada de forma permanente en todo el trayecto. Su costo es elevado y por tanto su instalación generalmente sólo se justifica cuando el uso es elevado (al menos tres o cuatro horas al día). Por este motivo las líneas dedicadas no suelen utilizarse en casos en que se necesita una conexión de forma esporádica, por ejemplo una oficina que requiere conectarse unos minutos al final del día para transferir unos ficheros, o un usuario doméstico que se conecta a Internet en los ratos de ocio.

1.2. Conmutación de Circuitos Para cada conexión entre dos estaciones, los nodos intermedios dedican un canal lógico a dicha conexión. Para establecer el contacto y el paso de la información de estación a estación a través de los nodos intermedios, se requieren estos pasos: 1. Establecimiento del circuito: el emisor solicita a un cierto nodo el establecimiento de conexión hacia una estación receptora. Este nodo es el encargado de dedicar uno de sus canales lógicos a la estación emisora (suele existir de antemano). Este nodo es el encargado de encontrar los nodos intermedios para llegar a la estación receptora, y para ello tiene en cuenta ciertos criterios de encaminamiento, coste, etc. 2. Transferencia de datos: una vez establecido el circuito exclusivo para esta transmisión (cada nodo reserva un canal para esta transmisión), la estación transmite desde el emisor hasta el receptor conmutando sin demoras de nodo en nodo (ya que estos nodos tienen reservado un canal lógico para ella). 3. Desconexión del circuito: una vez terminada la transferencia, el emisor o el receptor indican a su nodo más inmediato que ha finalizado la conexión, y este nodo informa al siguiente de este hecho y luego libera el canal dedicado, así de nodo en nodo hasta que todos han liberado este canal dedicado. Debido a que cada nodo conmutador debe saber organizar el tráfico y las conmutaciones, éstos deben tener la suficiente “inteligencia” como para realizar su labor eficientemente. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

8 8 1 81 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

Para tráfico de voz, en que suelen circular datos (voz) continuamente, puede ser un método bastante eficaz ya que el único retardo es el establecimiento de la conexión, y luego no hay retardos de nodo en nodo (al estar ya establecido el canal y no tener que procesar ningún nodo ninguna información). La conmutación de circuitos supone una utilización más óptima de los recursos que las líneas dedicadas, ya que la conexión extremo a extremo sólo se establece durante el tiempo necesario. En conmutación de circuitos, los nodos intermedios no tratan los datos de ninguna forma, sólo se encargan de encaminarlos a su destino. La conmutación de circuitos, a pesar de sus deficiencias es el sistema más utilizado para conectar sistemas informáticos entre sí a largas distancias debido a la profusión e interconexión que existe (debido al auge del teléfono) y a que una vez establecido el circuito, la red se comporta como si fuera una conexión directa entre las dos estaciones, ahorrando bastante lógica de control. Para la transmisión de datos mediante conmutación de circuitos se utiliza la misma red que para la transmisión de la voz, mediante módems o adaptadores apropiados. Genéricamente se la denomina Red Telefónica Conmutada (RTC) o PSTN (Public Switched Telephone Network) y comprende en realidad tres redes diferentes: 1. La Red de Telefonía Básica (RTB) también llamada POTS (Plain Old Telephone Service); Está formada por las líneas analógicas tradicionales y por tanto requiere el uso de módems; la máxima velocidad que puede obtenerse en este tipo de enlaces es de 33.6 Kbps (recientemente aparecieron módems capaces de comunicar a 56 Kbps por líneas analógicas si se dan ciertas condiciones). La red pública utiliza conmutación de circuitos y tiene la siguiente arquitectura: abonados: son las estaciones de red, bucle local o loop local: es la conexión del abonado a la red, como es de corta distancia se suele hacer con par trenzado, centrales: son los nodos a los que se conectan los abonados (centrales finales) o nodos intermedios entre nodo y nodo (centrales intermedias), líneas principales: son las líneas que se conectan nodo a nodo. Suelen usar multiplexación por división de frecuencias o por división en el tiempo. 2. La Red Digital de Servicios Integrados (RDSI) también llamada ISDN (Integrated Services Digital Network): está formada por enlaces digitales hasta el bucle de abonado, por lo que el circuito se constituye de forma digital extremo a extremo. La velocidad por circuito es de 64 Kbps, pudiendo agregar circuitos con relativa facilidad (llamados canales) en una misma comunicación para obtener mayor ancho de banda. 3. La red GSM (Global System for Mobile communications): se trata de conexiones digitales, como en el caso de la RDSI, pero por radioenlaces. La capacidad máxima de un circuito GSM cuando se transmiten datos es de 9,6 Kbps. Dado que hasta fechas recientes la única red de telefonía conmutada (RTC) era la red de telefonía básica (RTB) a menudo se utilizan ambos términos indistintamente para indicar la red telefónica analógica. Para evitar confusiones conviene usar sólo el término RTB al referirse a la red telefónica analógica, y reservar el término RTC para referirnos al conjunto de todas las redes conmutadas existentes, ahora o en el futuro. En el caso de la RTC los equipos se conectan a la red pública y en principio cualquier equipo se puede comunicar con cualquier otro, siempre que conozca su dirección (número de teléfono). Podemos ver la RTC como una gran nube a la que se conectan multitud de usuarios. Una vez establecido un circuito en RTC la función que éste desempeña para los protocolos de nivel superior es equivalente a la de una línea dedicada. Es posible la interconexión entre ordenadores de redes diferentes (RDSI, RTB o GSM); en cuyo caso la velocidad de transmisión será igual a la más lenta de las conexiones implicadas; en algunos casos puede ser necesario disponer de equipos o contratar servicios especiales. Comparando, en vez de líneas dedicadas se podría haber utilizado la red telefónica conmutada (por ejemplo la RDSI). En este caso el costo de cada conexión es normalmente menor, ya que sólo se paga por el tiempo que se utiliza. Además, se podría contratar menos enlaces si se planifica un horario escalonado de conexión de los puntos, o si simplemente se considera que la probabilidad de que todos llamen a la vez es muy reducido. Esto se conoce como sobresuscripción (oversubscription) o sobrereserva (overbooking) y es algo muy normal en redes cuando el número de usuarios es razonablemente elevado y se puede jugar con el factor estadístico.

1.3. Conmutación de Paquetes Para evitar los inconvenientes propios de la conmutación de circuitos (ver más adelante cuando se compara las dos técnicas de conmutación) se crearon redes en las que el usuario podía mantener una única conexión física a la red, y sobre ella varios circuitos lógicos (o circuitos virtuales como se verá más adelante) con equipos remotos, así estos puntos siempre encontrarían un circuito libre sobre el cual establecer la conexión. Al mantener un solo enlace físico el costo de las interfaces, módems, etc, es fijo e independiente del número de circuitos lógicos utilizados. En conmutación de paquetes, los datos se transmiten en paquetes cortos. Para transmitir grupos de datos más grandes, el emisor divide estos grupos en paquetes más pequeños y les adiciona una serie de bits de control. En T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

8 8 2 82 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

cada nodo, el paquete se recibe, se almacena durante un cierto tiempo y se transmite hacia el emisor o hacia un nodo intermedio. Para poder definir circuitos virtuales es preciso disponer de equipos inteligentes en la red que puedan hacer la distribución de los paquetes en función de su destino. Por esto a las redes que permiten crear circuitos virtuales se las denomina redes de conmutación de paquetes y, en cierto sentido podemos considerarlas como la evolución lógica de las redes de conmutación de circuitos. En realidad existen dos tipos de redes de conmutación de paquetes, según ofrezcan servicios orientados a conexión o no orientados a conexión (envío de datagramas). a) redes de datagramas: cada paquete se trata de forma independiente, es decir, el emisor enumera cada paquete, le añade información de control (por ejemplo número de paquete, nombre, dirección de destino, etc.) y lo envía hacia su destino. Puede ocurrir que por haber tomado caminos diferentes, un paquete con número por ejemplo 6 llegue a su destino antes que el número 5. También puede ocurrir que se pierda el paquete número 4. Todo esto no lo sabe ni puede controlar el emisor, por lo que tiene que ser el receptor el encargado de ordenar los paquetes y saber los que se han perdido (para su posible reclamo al emisor), y para esto, debe tener el software necesario. b) redes de circuitos virtuales: antes de enviar los paquetes de datos, el emisor envía un paquete de control que es de petición de llamada, este paquete se encarga de establecer un camino lógico de nodo en nodo por donde irán uno a uno todos los paquetes de datos. De esta forma se establece un camino virtual para todo el grupo de paquetes. Este camino virtual será numerado o nombrado inicialmente en el emisor y será el paquete inicial de petición de llamada el encargado de ir informando a cada uno de los nodos por los que pase de que más adelante irán llegando los paquetes de datos con ese nombre o número. De esta forma, el encaminamiento sólo se hace una vez (para la petición de llamada). El sistema es similar a la conmutación de circuitos, pero se permite a cada nodo mantener múltiples circuitos virtuales a la vez. Hay dos niveles en donde se pueden utilizar técnicas de datagramas y de circuitos virtuales. En un nivel interno (entre estación y nodo), se llaman operación de datagrama interno y operación de circuito virtual interno. Pero cuando se sale de este ámbito controlable por la estación emisora, la propia red decide la utilización de servicios de datagrama externo o servicio de circuito virtual externo para sus comunicaciones (ocultos al usuario o emisor). Para los servicio externos hay una serie de consideraciones a seguir: * Si se utilizan operaciones de datagramas interno y servicios de datagramas externo, al haber errores, no hay pérdidas de tiempo en establecer nuevas conexiones ni se necesitan muchos espacios de almacenamiento. * Si se utilizan operaciones de circuitos virtuales internos y servicios de circuitos virtuales externos, se mejoran las prestaciones para transmisiones de grandes grupos de información y de acceso a terminales remotos. * * * * * * *

Las ventajas de los circuitos virtuales frente a los datagramas son: El encaminamiento en cada nodo sólo se hace una vez para todo el grupo de paquetes, por lo que los paquetes llegan antes a su destino. Todos los paquetes llegan en el mismo orden del de partida ya que siguen el mismo camino. En cada nodo se realiza detección de errores, por lo que si un paquete llega erróneo a un nodo, éste lo solicita otra vez al nodo anterior antes de seguir transmitiendo los siguientes. Desventajas de los circuitos virtuales frente a los datagramas: En datagramas no hay que establecer llamada (para pocos paquetes, es más rápida la técnica de datagramas). Los datagramas son más flexibles, es decir que si hay congestión en la red una vez que ya ha partido algún paquete, los siguientes pueden tomar caminos diferentes (en circuitos virtuales, esto no es posible). El envío mediante datagramas es más seguro ya que si un nodo falla, sólo un paquete se perderá (en circuitos virtuales se perderán todos).

1.3.1. Hacia una red de conmutación de paquetes Las PSNs (Packet Switched Network) (no confundir con el acrónimo PSN de redes conmutadas publicas que pueden o no ser conmutadas por paquetes) usan medios de transmisión compartidos para proporcionar servicios WANs rentables (costo efectivo) para los clientes. Antes de que las PSNs estuvieran ampliamente disponibles, los clientes debían escoger entre una conexión discada (dial up), por línea conmutada, o una conexión dedicada. Ambos tipos de conexiones pueden ser ineficaces para aplicaciones que involucren transferencia de datos intermitentes o en ráfaga (bursty). Aplicaciones como correo electrónico, Telnet, y HTTP resultan, por lo gral, de ráfagas de tráfico más que de corrientes constantes de datos. En otras palabras, los datos se envían sólo después de que un usuario pulsa el botón del ratón o tipea un carácter. El tema es que el enlace puede estar ocioso por mucho tiempo cuando se usan estas aplicaciones. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

8 8 3 83 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

Las conexiones WAN dial-up ofrecen flexibilidad en muchos casos porque los circuitos se construyen por demanda, así cuando se necesite enviar tráfico en ráfagas, se establecerá la conexión WAN. Cuando no haya tráfico que enviar, la conexión se dará de baja. Finalmente, las conexiones WAN dial-up arrojan, por lo gral., un cargo (costo) basadas en la duración de una llamada y en el número de intentos. Si un sitio remoto emite transacciones cada pocos minutos, el enlace discado podría ser necesario todo el día. Por ejemplo, si se considera un sistema de reservación de boletos para una aerolínea, una oficina dada podría necesitar enviar ráfagas de ventas de boletos, cada pocos minutos, a la base de datos central. Si una oficina requiere que la llamada este activa la mayor parte del día, entonces la conexión discada no es una solución rentable. También, si el agente de reservas necesita comunicarse con otra oficina que transfiera datos, tendrá que esperar hasta que se complete la transacción actual. Las líneas dedicadas proveen ancho de banda garantizado y conectividad constante. Si un cliente compra servicios dedicados, como un T1 completo entre sitios remotos, entonces el carrier debe reservar un “camino” en su red para el tráfico del cliente. Generalmente, el camino físico reservado se crea conmutando algunos enlaces del proveedor, o canales sobre esos enlaces, para formar un camino de extremo a extremo entre un sitio y otro. Este circuito sólo proporciona comunicación entre dos sitios. Si se necesita transferencia de datos de otro sitio, entonces se requiere una línea arrendada (leased) adicional. Un enlace dedicado, no es a menudo, la solución más eficaz para un cliente. Si se considera el sistema de reservas de boletos anterior, aun cuando una oficina ocupe la conexión WAN todo el tiempo, el tráfico seguirá siendo de naturaleza “en ráfaga” todavía. El cliente estará pagando por una línea T1 completa que estará ociosa la mayor parte del tiempo (en este caso por el tipo de tráfico) y además no podrá proporcionar, al mismo tiempo, comunicación a otros sitios. Dicha subutilización no es eficiente, ni rentable. Si este sistema de reservas de boletos tuviera un servicio PSN como X.25 o Frame Relay, entonces podría hacer uso del ancho de banda y podría tener la flexibilidad para conducir transacciones hacia múltiples locaciones. 1.3.2. Beneficios de las redes de conmutación de paquetes Las PSNs proporcionan a las oficinas remotas conexiones permanentes o conmutadas que ofrecen altos niveles de rendimiento (típicamente hasta DS-1). Una importante ventaja de las PSNs es que ofrecen a los clientes una camino para compartir los medios con otros clientes, permitiendo reducir el costo del servicio WAN. Típicamente el cliente alquila una conexión a la red de conmutación de paquetes del proveedor y luego comparte las facilidades de esa red con otros clientes. Un cliente A puede enviar una gran cantidad de datos por la red mientras el cliente B este ocioso, o viceversa. Los caminos a través de la PSN se denominan circuitos virtuales (VCs). Un circuito virtual es un camino lógico, no físico. Los circuitos virtuales hacen posible que un sitio remoto mantenga conexiones a múltiples sitios sobre la misma interfase física. Un sitio puede enviar datos directamente a distintos sitios remotos vía diferentes circuitos virtuales en la red del carrier. Esto requiere que el cliente marque, o etiquete, cada unidad de datos de alguna forma, para que el switch WAN del proveedor pueda determinar a qué destino enrutar el tráfico, a través de la nube (ver figura). Al usar un identificador de circuito virtual, un router A puede enviar un paquete a los routers B y C usando la misma interfase física conectada a una PSN. En redes Frame Relay, la información de VC se denomina DLCI (identificador de control de enlace de datos) y está incluido en el header de la trama. En redes X.25, la información de VC se denomina LCI (identificador de canal lógico) y está incluido en el header del paquete. Las PSNs permiten a los proveedores cobrar a sus clientes sobre la base del número de paquetes transmitidos, de esta manera el cliente puede pagar “por lo que envía” y las PSNs pueden proporcionar una óptima relación costoefectividad. La primera red de conmutación de paquetes que existió fue ARPAnet, pero como no era orientada a conexión no se adaptó bien a un servicio de compañía telefónica. Para facilitar la facturación las redes públicas de conmutación de paquetes suelen ofrecer servicios orientados a conexión en el nivel de red. X.25 fue una de las tecnologías de conmutación de paquetes más tempranas y la primera en ser desarrollada mundialmente. De hecho, X.25 todavía se usa en países en vías de desarrollo y para conexión de equipos legados (legacy, propietarios) y continúa siendo la tecnología de conmutación de paquetes más popular del mundo, y que puede encontrarse en virtualmente cada región que soporte comunicaciones de datos.

1.4. Comparación de las técnicas de conmutación de circuitos y conmutación de paquetes T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

8 8 4 84 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

Con la conmutación de circuitos se avanzo en el aprovechamiento de la infraestructura. Sin embargo nos encontramos aún con varios inconvenientes: 1. En ocasiones no podremos establecer la conexión por no haber circuitos libres, salvo que contratemos un número de circuitos igual al máximo número posible de conexiones simultáneas, lo cual sería muy costoso. 2. Que un circuito se esté utilizando no garantiza que se esté aprovechando el ancho de banda que tiene asignado. 3. El servidor ha de tener una conexión física por cada circuito, aun cuando la ocupación media sea reducida. Es un sistema muy ineficiente ya que mantiene las líneas mucho tiempo ocupadas aun cuando no hay información circulando por ellas. 4. La conmutación de circuitos requiere que los dos sistemas conectados trabajen a la misma velocidad, cosa que no suele ocurrir hoy en día debido a la gran variedad de sistemas que se comunican. 1. 2. 3. 4.

Las ventajas de la conmutación de paquetes frente a la conmutación de circuitos son: Mayor eficiencia de la línea: ya que cada enlace se comparte entre varios paquetes que estarán en cola para ser enviados en cuanto sea posible. En conmutación de circuitos, la línea se utiliza exclusivamente para una conexión, aunque no haya datos que enviar. Conexiones entre estaciones a velocidades diferentes: esto es posible ya que los paquetes se irán guardando en cada nodo conforme lleguen (en una cola) y se irán enviando a su destino. No se bloquean llamadas: ya que todas las conexiones se aceptan, aunque si hay muchas, se producen retardos en la transmisión. Se pueden usar prioridades: un nodo puede seleccionar de su cola de paquetes en espera de ser transmitidos, aquellos más prioritarios según ciertos criterios de prioridad.

Teniendo en cuenta los 3 tipos de retardo: retardo de propagación (tiempo despreciable de propagación de la señal de un nodo a otro nodo), tiempo de transmisión (tiempo que tarda el emisor en emitir los datos), retardo de nodo (tiempo que emplea el nodo desde que recibe los datos hasta que los emite, por ej. en gestión de colas), las prestaciones de conmutación de circuitos y conmutación de paquetes son: * En conmutación de circuitos hay un retardo inicial hasta establecer la conexión (en cada nodo se produce un retardo). Tras el establecimiento de la conexión, existe el retardo del tiempo de transmisión y el retardo de propagación. Pero toda la información va a la vez en un bloque sin más retardos adicionales. * En conmutación de paquetes mediante circuitos virtuales, existe el mismo retardo inicial que en conmutación de circuitos. Pero además, en cada nodo, cada paquete sufre un retardo hasta que le llega su turno de envío de entre la cola de paquetes a emitir por el nodo. A todo esto, habría que sumar el retardo de transmisión y el retardo de propagación. * En datagramas, se ahorra el tiempo de establecimiento de conexión, pero no los demás retardos que hay en circuitos virtuales. Pero existe el retardo de encaminamiento en cada nodo y para cada paquete. Por tanto, para grupos grandes de datos, los circuitos virtuales son más eficaces que los datagramas, aunque para grupos pequeños sean menos eficaces que los datagramas. 1.4.1. Redes de conmutación de paquetes y redes de conmutación de circuitos Las redes de conmutación de paquetes parecen prestarse por si mismas al servicio no orientado a la conexión, lo que significa que no se establece conexión entre el emisor y el receptor antes de la transferencia. Los paquetes (llamados en este caso datagramas) son, simplemente, transmitidos al medio tan pronto como los recibe la interfaz de red. Por consiguiente no existe retardo de establecimiento o liberación de llamadas. Sin embargo estos servicios no son siempre fiables porque no se dispone de medios para garantizar el envío del datagrama y determinar cuando se han perdido los mismos. En contraposición una red de conmutación de paquetes orientada a la conexión ofrece un envío de información seguro y fiable, puesto que el establecimiento de la conexión se realiza por adelantado (se usan circuitos virtuales) y se controla a lo largo de toda la duración de la llamada. Sin embargo no se hace un uso eficiente de la conexión, debido a que ninguna otra transmisión puede compartir el ancho de banda y por algunas “pausas” dentro de los circuitos (ver en el punto anterior diferencias entre técnica de datagramas y técnica de circuitos virtuales, es decir conmutación de paquetes no orientada a conexión y orientada a conexión). Aun así, las mayores y más usadas redes de conmutación de paquetes (X.25, Frame Relay, ATM) son orientadas a conexión, por lo que son y serán T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

8 8 5 85 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

tratadas de esa forma. Una red de conmutación de paquetes es realmente una densa malla de conexiones punto a punto, como lo muestra la figura. A1 principio, una red de conmutación de paquetes parece similar a una red de conmutación de circuitos y, a muy alto nivel, funciona de la misma manera. Se establece una conexión virtual entre la estación emisora y la estación receptora y, a continuación, la estación emisora transmite los datos a la estación receptora. Cuando la transmisión finaliza, la conexión virtual es eliminada. No obstante, aquí es donde termina la similitud. En una red de conmutación de circuitos, todos los datos se transmiten en una única sesión. En el caso de una red de conmutación de paquetes, sin embargo, sólo se transmite un paquete de datos a través de una conexión virtual. En una red de conmutación de paquetes, la transmisión de datos tiene lugar paquete a paquete, siendo cada paquete transmitido de manera separada, tomando cada uno de ellos, posiblemente, un camino diferente entre las estaciones emisora y receptora. Por definición, una red de conmutación de paquetes proporciona una conectividad “todos con todos”. Esto significa que cualquier estación en la red puede transmitir datos a cualquier otra estación en la red a través de una amplia variedad de posibles caminos de transmisión. Esto es algo diferente al tipo de conectividad punto a punto que la red de conmutación de circuitos define. Es debido a esta conectividad universal por lo que las redes de conmutación de paquetes se representan como nubes. Actualmente hay tres tipos de redes públicas de conmutación de paquetes: X.25, Frame Relay y ATM, y todos ofrecen servicios orientados a conexión. Las tres representan implementaciones bastante completas de los tres primeros niveles del modelo de referencia OSI, y tienen muchos puntos en común, según veremos más adelante. Las redes de conmutación de paquetes permiten que las estaciones finales compartan en forma dinámica el medio de red y e ancho de banda disponible. Las siguientes técnicas se usan en la tecnología de conmutación de paquetes: 1. Paquetes de longitud variable: se usan para una transferencia de datos más flexible y eficiente. Estos paquetes se conmutan entre los distintos segmentos de red hasta que alcanzan su destino. 2. Multiplexión estadística: controlan el acceso a la red. La ventaja de esta técnica es que proporciona una mayor flexibilidad y un uso más eficiente del ancho de banda. La mayoría de las LANs populares de hoy, Ethernet y Token Ring, son redes de conmutación de paquetes. La subred de una red de conmutación de paquetes se constituye mediante switches o conmutadores unidos entre sí por líneas dedicadas. La distribución de los switches y la forma como éstos se unen entre sí (es decir la topología de la red) es algo que decide el proveedor del servicio y que fija la carga máxima que la red podrá soportar en lo que se refiere a tráfico entre conmutadores; la topología fija también la fiabilidad de la red, es decir cuan resistente será a fallos de los enlaces (por ejemplo una red muy mallada será muy resistente). Cuando un usuario desea conectar un equipo a la red el acceso se hace normalmente mediante una línea dedicada entre el equipo a conectar y el switch más próximo del proveedor de servicio (normalmente la compañía telefónica). La velocidad de la conexión entre el equipo y el conmutador establece de entrada un máximo a las prestaciones que ese usuario podrá obtener de la red. Puede haber además otras limitaciones impuestas por la capacidad de la red, por saturación o porque se hayan impuesto limitaciones de acuerdo con lo contratado por el usuario con el proveedor del servicio. Aunque se considere el caso en que la red de conmutación de paquetes la gestiona una compañía telefónica (con lo que tenemos una red pública de conmutación de paquetes), también es posible que una organización o conjunto de organizaciones (por ejemplo una gran empresa, una administración o un conjunto de universidades) establezcan una red privada basada en X.25, Frame Relay o ATM. En este caso normalmente la gestión de la red se asigna a algún grupo especializado (por ejemplo el departamento de comunicaciones en el caso de la empresa) que se ocupa de diseñar topología, solicitar los enlaces correspondientes, instalar los switches, etc. Si se desea que la red privada esté interconectada con la red pública es preciso prever que al menos uno de los conmutadores de la red privada esté conectado con la red pública. Desde el punto de vista técnico ambas redes son equivalentes en su funcionamiento, salvo que normalmente en una red privada no se cobra la utilización, por lo que el control no es tan crítico. En un apartado anterior se vio las diferencias entre conmutación de circuitos y conmutación de paquetes. Recordemos que la conmutación de circuitos, que podemos considerar como menos sofisticada, tiene la ventaja de asegurar la comunicación por el circuito establecido una vez éste está disponible; además dicha comunicación tiene una velocidad de transmisión garantizada y no está sujeta a posibles congestiones de la red. En el lado negativo se T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

8 8 6 86 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

encuentra el hecho de que la red ha de dimensionarse en exceso, o correr el riesgo de no encontrar canal disponible en el momento que el usuario necesite establecer la comunicación; en cualquier caso la conmutación de circuitos supone un desperdicio de recursos, ya que la capacidad reservada esta disponible para el usuario todo el tiempo que está establecido el circuito, tanto si lo utiliza como sino. Por el contrario la conmutación de paquetes permite intercalar en un mismo canal físico tráfico de diversos usuarios, con la esperanza de que la infraestructura se aproveche al máximo, al haber muchos usuarios utilizándolo simultáneamente. Como inconveniente se tiene el que no se puede garantizar una capacidad al usuario, y que en momentos de mucho tráfico la red puede congestionarse degradándose entonces el tiempo de respuesta. Los paquetes se almacenan y reenvían en cada router o swich que atraviesan; suelen ser de un tamaño de unos pocos cientos, o como mucho unos pocos miles de bytes; no se permiten nunca paquetes más grandes ya que los routers no suelen tener discos duros, utilizan memoria RAM donde almacenan los paquetes en tránsito; además los paquetes demasiado grandes monopolizarían la línea de transmisión durante demasiado tiempo haciendo muy difícil el tráfico isócrono (los que se transmiten de acuerdo a un reloj de sincronización, a intervalos de tiempo, como el video). Al tener que recibir el paquete en su totalidad para enviarlo después (técnica store and forward), los routers de una red de conmutación de paquetes pueden ofrecer facilidades interesantes; por ejemplo adaptar medios de transmisión de distinta capacidad, encriptar información, hacer conversiones de código o realizar corrección de errores. Para que esto sea posible los ordenadores que se comunican a través de la red deben utilizar un protocolo y una estructura de paquete que sea compatible con el tipo de red que atraviesan; no podrían por ejemplo comunicar a través de una red X.25 dos equipos que utilizaran tramas Frame Relay. En algunos tipos de redes de conmutación de paquetes (las no orientadas a conexión como IP) el orden de llegada de los paquetes puede no coincidir con el de salida. En cambio, en conmutación de circuitos una vez establecida la comunicación entre los extremos (es decir una vez efectuada la llamada, o terminado el proceso de señalización) el comportamiento es completamente equivalente a una línea dedicada. Los equipos de transmisión intermedios (si existen) son totalmente transparentes al equipo de usuario, que puede utilizar cualquier protocolo y estructura de trama que desee; la velocidad ha de coincidir en ambos extremos. El circuito transmite la información en forma de secuencia de bits, sin importarle la forma como estos se organizan en el nivel de enlace. Por supuesto los bits siempre llegan en el mismo orden en que salieron. Ruta dedicada de “cobre” Ancho de banda disponible Posibilidad de malgastar ancho de banda Transmisión de store-and-forward Cada paquete toma la misma ruta Inicialización de la ruta Puntos donde la congestión puede ocurrir Cobro

de circuito Sí Fijo Sí No Sí Necesario En el inicio Por minuto

de paquete No Dinámico No Sí No No necesario Con cada paquete Por paquete

1.5. Circuitos virtuales Aunque, las redes de conmutación de paquetes pueden ofrecer servicios no orientados a conexión, también pueden admitir servicios orientados a conexión que establecen circuitos virtuales a través de los switches. La información viaja en estos circuitos virtuales paquete a paquete. Un circuito virtual o VC (virtual circuit) es una conexión lógica creada entre dos dispositivos DTEs a través de una red de conmutación de paquetes (PSN). Proporciona una ruta de comunicación bidireccional desde un dispositivo DTE a otro y está identificados unívocamente (en el caso de Frame Relay, por un DLCI). Un VC es un camino de transmisión predeterminado para un paquete. Un paquete es una unidad de datos discreta que puede desplazarse de manera independiente a través de la red. Téngase en cuenta que un paquete puede tener varios caminos alternativos en cualquier red de conmutación de paquetes. Por tanto, establecer un camino antes de transmitir un paquete mejorará el rendimiento al acortar el tiempo de envío e incrementará el caudal de información ofrecida al reducir la sobrecarga del paquete. Esto se debe a que la cabecera del paquete no tendrá que incluir información de encaminamiento (sólo tendrá que disponer de las direcciones de origen y destino). Puesto que en una red de conmutación de paquetes los datos viajan paquete a paquete y dado que las conexiones establecidas son conexiones virtuales en lugar de conexiones físicas, el protocolo de conmutación de paquetes puede, y ocasionalmente lo hace, modificar el camino entre la estación emisora y la estación receptora. El camino puede cambiar debido a circuitos no operativos o con un tráfico excesivamente denso. Cualquiera que sea el motivo, y aunque el camino de los paquetes pueda variar, las estaciones transmisora y receptora deben mantener la conexión virtual y actualizar la información de encaminamiento periódicamente. Se puede multiplexar una cantidad de circuitos virtuales en único circuito físico para su transmisión a través de la red. Esta capacidad a menudo puede reducir la complejidad del equipo y de la red, necesarios para conectar múltiples dispositivos DTE. Un VC puede atravesar cualquier cantidad de dispositivos DCEs intermedios (switches WAN) ubicados dentro de una PSN. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

8 8 7 87 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

1.5.1. Circuitos virtuales permanentes y conmutados 1.

2.

Es posible establecer los VC de dos formas: en la primera, el administrador de red o proveedor de servicios tiene que definir o configurar de manera manual, mediante configuración de los switches que conectan los equipos implicados, un Circuito Virtual Permanente o PVC (Permanent Virtual Circuit). Un PVC se define por adelantado y es una conexión establecida en forma permanente para transferir datos frecuentes y constantes entre dispositivos DTEs. Un PVC es un ancho de banda dedicado que garantiza un nivel de servicio a una determinada estación. La comunicación con PVCs no requiere los estados de establecimiento de llamada (seteo de llamado o call setup) y terminación (liberación de llamada o call clear) que se usan con los SVCs. Los PVCs siempre funcionan en uno de los dos estados operativos siguientes: * Transferencia de datos: los datos son transmitidos entre los DTEs sobre el VC. * Inactivo: la conexión entre DTEs está activa, pero no se transfieren datos. A diferencia de los SVC los PVCs no serán terminados bajo ninguna circunstancia durante un estado inactivo. Los DTEs pueden transferir datos siempre que estén listos porque el circuito está permanentemente establecido. Piense en un PVC como en algo similar a un circuito telefónico dedicado o una línea leased. En los servicios X.25 públicos, los usuarios seleccionan los puntos finales de los PVC que quieren establecer y el operador establece y mantiene esas conexiones. Si los puntos de finalización deseados cambian, el usuario debe concertar su reconfiguración con la operadora del servicio de conmutación de paquetes. Por lo general, los administradores de red reservan PVC para aquellas conexiones de vital importancia, como las conexiones entre routers, que deben tener prioridad sobre el resto de las conexiones de la red. En cierto modo es como si los PVCs fueran “líneas dedicadas virtuales”. Múltiples protocolos pueden ser enrutados sobre el mismo PVC. También, pueden establecerse, múltiples circuitos sobre una misma interfase creando múltiples PVCs. la segunda manera de establecer un VC es el Circuito Virtual Conmutado o SVC (Switched Virtual Circuit). Un SVC es un VC temporal establecido ad hoc entre las estaciones transmisora y receptora (DTEs) según las necesidades de la aplicación. Un circuito virtual conmutado dura tan solo el tiempo necesario para completar la transmisión de los datos, se establece y termina a petición del usuario. Es “liberado” o desconectado y eliminado cuando se completa la sesión de transmisión de datos. El SVC puede asimilarse a las líneas de acceso telefónico. El usuario o la aplicación transmisora han de configurar y establecer el circuito virtual conmutado inmediatamente antes de la transferencia de datos. Esto no es, necesariamente, tan desalentador como pudiera parecer: algunos servicios de operadores públicos de conmutación de paquetes ofrecen SVC configurados dinámicamente que no requieren la intervención del usuario para su establecimiento. Una sesión de comunicación a través de un SVC pasa por los siguientes cuatro estados operativos: * Establecimiento de llamada: se establece el VC entre dos dispositivos DTE. * Transferencia de datos: los datos son transmitidos, ente los DTEs, sobre el circuito virtual. * Inactivo: la conexión entre DTEs aun está activa, pero no se transfieren datos. Si un SVC permanece en estado inactivo por un tiempo definido, la llamada puede ser terminada. * Fin de la llamada: el VC entre DTEs es terminado. Después de que se termina el circuito virtual, los dispositivos DTEs deben establecer un nuevo SVC si hay datos adicionales que intercambiar.

En X.25, Frame Relay y ATM se utiliza el concepto de circuito virtual. Es posible contratar PVCs, aunque lo normal es utilizar SVCs. La tarifación se hace por tres conceptos: en primer lugar una cuota fija mensual según la velocidad de la línea de acceso, en segundo por el tiempo que dura cada llamada (o lo que es lo mismo, el tiempo que esta establecido cada SVC), y en tercer lugar por el número de paquetes transferidos por llamada. Para los dos últimos conceptos existen tres ámbitos de tarifación: nacional, europeo e internacional (en X.25 cuesta lo mismo transferir datos entre dos oficinas vecinas que entre una ciudad y otra). 1.5.2. Identificadores de circuito virtual En los servicios orientados a conexión, los conmutadores de la red añaden un identificador de circuito a cada uno de los paquetes para identificar el circuito de destino. Los identificadores de circuito virtual identifican los paquetes de una conexión particular, a continuación los conmutadores transfieren los datos en el VC mediante técnicas de conmutación basadas en hardware, insertando la marca de conexión VC en la cabecera del paquete. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

8 8 8 88 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

22.. C O N M U T A C Ó N CO ON NM MU UT TA AC CIIIÓ ÓN N Cuando los datos deben enviarse a través de largas distancias (e incluso no tan largas), generalmente deben pasar por varios nodos intermedios. Estos nodos son los encargados de encauzar los datos para que lleguen a su destino. En redes de comunicación conmutadas, los datos que entren en la red proveniente de alguna de las estaciones, son conmutados de nodo en nodo hasta que lleguen a su destino. Hay nodos sólo conectados a otros nodos y su única misión es conmutar los datos internamente a la red. También hay nodos conectados a estaciones y a otros nodos, por lo que deben de añadir a su función como nodo, la aceptación y emisión de datos de las estaciones que se conectan. Los enlaces entre nodos están multiplexados en el tiempo o por división de frecuencias. Generalmente hay más de un camino entre dos estaciones, para así poder desviar los datos por el camino menos colapsado. Para redes WAN, generalmente se utilizan otras técnicas de conmutación: conmutación de circuitos y conmutación de paquetes. Cada nodo de conmutación consta básicamente de un conmutador digital, circuito que tiene una serie de conexiones al exterior (cada una es un canal) y una lógica de puertas internas que conectan unos canales con otros cuando se requieren estas conexiones. Por lo que dos canales conectados por el conmutador es como si estuvieran unidos sin interrupción. El conmutador posee la lógica de control suficiente para conectar y desconectar canales conforme sea necesario. Estos conmutadores deben permitir conexión full-duplex (típica en telefonía). El conmutador digital se compone de: • Interfase de red: incluye las funciones y hardware para conectar los dispositivos digitales (y analógicos) a la red. • Unidad de control: establece, gestiona y corta las conexiones conforme se le requieran al sistema. Hay dos tipos básicos de redes respecto a su capacidad o no de bloquear las comunicaciones entre dos estaciones: 1. Bloqueantes: aquellas que impiden una conexión cuando no es posible dedicar canales para ella (por ejemplo en telefonía ya que no suele haber muchos teléfonos funcionando a la vez al ser las conexiones relativamente cortas). 2. No bloqueantes: aquellas que siempre disponen de algún canal para cada conexión (esto debe ser así para conexiones entre sistemas informáticos en los que la conexión típica es de larga duración).

2.1. Tipos de conmutadores Se describirá brevemente los tipos de conmutadores más utilizados en las centrales telefónicas. Esto es de interés para los administradores de red porque sus arquitecturas son la base sobre la que se realizan muchos sistemas de conmutación en redes de computadoras. 2.1.1. Conmutación por división en el espacio Son conmutadores en los que las conexiones entre líneas de entrada y salida son conexiones físicas y podemos representarlos como una matriz de conmutación en el espacio (ya que actúan conmutando matrices de puertas físicas en uno o varios circuitos que se cierran o abren). Los conmutadores crossbar o multietapa son los que lo utilizan. El tipo de conmutador más sencillo es el Crossbar o Crosspoint, consistente en una matriz con n líneas de entrada, n líneas de salida y n2 intersecciones, que mediante las órdenes apropiadas es capaz de conmutar cualquier entrada con cualquier salida. Así por ejemplo, para conmutar 10 líneas entre sí podríamos construir un crossbar con 100 puntos de interconexión posibles. Este tipo de conmutador sólo es factible cuando el número de líneas a conectar es reducido, ya que su complejidad es proporcional al cuadrado del número de líneas; por ejemplo un conmutador crossbar capaz de manejar 1000 líneas habría de tener 1.000.000 de puntos de interconexión posibles. A cambio de este inconveniente el conmutador crossbar tiene la ventaja de que nunca se bloquea, es decir, una solicitud de establecer un circuito sólo se rechazará cuando el destinatario tenga ya otro circuito establecido. Cuando el número de líneas a conectar es elevado se suele utilizar, en vez de un gran crossbar varios conmutadores crossbar más pequeños organizados T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

8 8 9 89 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

en etapas, de forma que la complejidad no crezca con el cuadrado del número de líneas. Por ejemplo, supongamos que queremos interconectar 100 líneas y disponemos de tantos conmutadores crossbar de 10 x 10 líneas como queramos; podemos construir una etapa de entrada con diez conmutadores a los que conectaremos las 100 líneas de entrada, y otra etapa de salida con otros diez a la que conectaremos las 100 líneas de salida; ahora bien, cada uno de los diez conmutadores de la etapa de entrada dispone de diez líneas de salida, y cada uno de los conmutadores de salida dispone de diez líneas de entrada; podemos pues interconectar una salida de cada conmutador de entrada a una entrada de cada conmutador de salida, con lo que conseguiremos poder interconectar cualquier entrada con cualquier salida, habiendo utilizado 20 conmutadores de 100 puntos; la complejidad total de la electrónica necesaria para esto es cinco veces menor que si hubiéramos utilizado un solo crossbar con 10.000 puntos de conmutación (20 x 100 = 2.000 puntos). Este es un ejemplo sencillo de lo que se denomina un Conmutador Multietapa, consistente en tres o más etapas de conmutadores crossbar; donde en la primera etapa hay N/n crossbars con n inputs y k outputs cada uno, en la segunda hay k crossbars de N/n x N/n, la tercera etapa es al revés de la primera. El número de intersecciones es 2kN + k(N/n)2. Si N=2000, n=50, y k=10, hay solamente 24.000. Empero permite solamente 200 conexiones simultáneas. Con valores de k mayores hay menor probabilidad de bloqueo, pero el costo del conmutador aumenta. A diferencia de lo que ocurría en el caso del conmutador crossbar único, en el multietapa se pueden dar situaciones de bloqueo donde no pueda establecerse un circuito debido a no haber línea disponible entre dos conmutadores.

• •

Las limitaciones principales de estos conmutadores son: Al crecer el número de líneas de conexión, los puntos de cruce deben crecer con el cuadrado, algo muy costoso. La pérdida de un punto de cruce interrumpe la conexión entre dos líneas. Hay muchos puntos de cruce que no se utilizan nunca. Por lo que es muy ineficiente.

• •

Los conmutadores con múltiples etapas solucionan algunos de los inconvenientes anteriores: Se reduce el número de puntos de cruce. Hay más de un camino posible entre dos líneas.

Estos sistemas deben de ser bloqueantes. 2.1.2. Conmutación por división en el tiempo Son conmutadores digitales que realizan una operación de varias etapas: Primero, se examinan los n canales de entrada sucesivamente para construir un marco de input con n entradas de k bits (en una línea T1 k=8 y se procesan 8000 marcos por segundo), luego el intercambiador de entradas de tiempo acepta los marcos de input, ubica las entradas ordenadamente en una tabla en la RAM y entonces lee las entradas a un marco de output usando la tabla de mapping. Por último se mandan los contenidos del marco de output a los canales de output. Las líneas de entrada son fijas para cada emisor, pero las líneas de salida se irán conmutando dependiendo de las velocidades de asimilación de datos por las líneas de salida. Las velocidades de trabajo del sistema deben de ser lo suficientemente altas para que ninguna entrada supere a ésta en velocidad. Basan su funcionamiento en la multiplexación por división de tiempos; por ejemplo en el caso de una línea E1 los primeros 30 bytes de la trama son la información proveniente de los 30 canales que multiplexa (los dos últimos son información de control); por tanto podemos realizar cualquier conmutación de los canales sin más que permutar en la trama de salida los bytes que correspondan a los canales que se quieren conmutar. Por ejemplo, para conmutar el circuito 3 con el 7 deberemos permutar el byte tercero y séptimo de la trama. La permutación de canales en una trama E1 es equivalente a un conmutador crossbar de 30 x 30 líneas. La limitación de estos conmutadores es el tiempo de ciclo de la memoria. Si cada acceso requiere T microsegundos, el tiempo para procesar un marco es T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

9 9 0 90 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

2nT, y debe ser menos de 125 microsegundos. Si T es 100 nanosegundos, n=625. Se puede construir conmutadores con etapas múltiples para solucionar este problema. 2.1.3. Conmutador de Knockout Tiene un bus de broadcast para cada línea de input. La activación de las intersecciones determina las líneas de output. Cada línea de output tiene una sola cola virtual que se representa con n reales y un shifter. Porque n es normalmente menos que el número de líneas de input, un concentrador escoge las celdas a descartar si llegan demasiadas. 2.1.4. Conmutador de Batcher-Banyan El problema con el conmutador de Knockout es que semejante a un conmutador de Crossbar. El Batcher-Banyan es un conmutador de etapas múltiples para los paquetes.

33.. M O D E M Ó N MEEEDDDIIIO TRRRAAANNNSSSM OSSS D DE ET MIIISSSIIIÓ ÓN N El medio de transmisión, es probablemente la parte más crítica en el diseño de una red, especialmente cuando se trata de redes locales. Mientras que el conjunto de protocolos a utilizar suele estar determinado de antemano por factores externos, y permite por tanto poco margen de maniobra, en el medio físico de transmisión se dan generalmente varias posibilidades razonables. Además las inversiones que se hacen en infraestructura suelen ser la parte más importante de la red y la más difícil de modificar más adelante. Por otro lado, este es un campo que por suerte o desgracia evoluciona con mucha rapidez, es tan dinámico que para cuando se termine de estudiarlo es probable que hayan surgido nuevos sistemas de transmisión aquí no mencionado y, lo que hoy puede parecer adecuado quizá no lo sea dentro de dos años; entonces para tomar una decisión acertada es necesario hacer una estimación objetiva de las necesidades actuales y futuras, y una valoración adecuada de las tecnologías disponibles tomando en cuenta su relación costo / prestaciones. Se dará a continuación una introducción a los medios de transmisión conocidos.

3.1. Pares de cobre Este es el medio de transmisión más común, consistente en un par de hilos de cobre aislados, de alrededor de 1 milímetro de diámetro. Un cable suele llevar varios hilos (típicamente 4 u 8) que normalmente están doblados dos a dos formando una doble (o cuádruple) hélice, como una molécula de ADN, por lo que se le suele denominar cable de pares trenzados (twisted pair). Esto se hace para minimizar la interferencia eléctrica y electromagnética que pueden recibir de fuentes próximas, como por ejemplo los pares vecinos (para evitar el acople entre pares, estos se trenzan con diferentes pasos de torsión), y la que pueden emitir al exterior. Los cables pueden o no estar apantallados. El sistema telefónico se basa en el uso de este tipo de cable, que sirve tanto para la transmisión digital como analógica. El ancho de banda depende de múltiples factores: el grosor del cable, la distancia, el tipo de aislamiento, la densidad de vueltas o grado de trenzado, etc. Pueden llegar a transmitir con capacidades del orden de Mbps a varios kilómetros. Hoy en día todos los sistemas de red local pueden emplear este tipo de cable, que es junto con la fibra óptica el más utilizado. Debido a sus características es de esperar que siga siendo popular durante bastantes años. Existen varios tipos de cables de pares trenzados que difieren fundamentalmente en la frecuencia máxima a la que pueden trabajar, que a su vez viene determinada principalmente por la densidad de vueltas y por el tipo de material aislante que recubre los pares. Estos tipos se conocen como categorías y son las siguientes:

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

9 9 1 91 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

Categoría

Frecuencia máxima (MHz)

1

No se especifica

2 3 4 5

1 16 20 100

Vueltas x metro

Usos Telefonía, datos a corta distancia y baja velocidad LANs de baja velocidad (1 Mbps) LANs hasta 10 Mbps LANs hasta 16 Mbps LANs hasta 100 Mbps, ATM a 155 Mbps

0 0 10-16 16-26 26-33

Características principales de los cables según su categoría

Actualmente en instalaciones de datos nuevas se utiliza casi exclusivamente cable categoría 5 ya que el costo es sólo ligeramente mayor y sus prestaciones son muy superiores (tener en cuenta que en el costo total de una instalación el cable es sólo una parte). Conviene mencionar que la clasificación en categorías, además de aplicarse a un cable aislado se aplica a instalaciones ya hechas; a menudo sucede que una instalación hecha con cable categoría 5 no puede funcionar a 100 MHz debido a que el operario no ha puesto suficiente cuidado en la instalación: errores comunes son por ejemplo destrenzar una longitud excesiva en los conectores, apretar demasiado las bridas o doblar excesivamente el cable. A veces una instalación hecha con cable categoría 5 es utilizada inicialmente con redes de 10 Mbps y funciona perfectamente, pero deja de funcionar cuando más tarde se utiliza el mismo cableado para montar una red de 100 Mbps, que explota realmente al límite las posibilidades del cableado instalado. Además de la categoría los cables difieren también por el tipo de apantallamiento. El más habitual en redes locales no lleva apantallamiento de ningún tipo más allá del que proporciona el hecho de tener los pares trenzados; este se conoce como cable UTP (Unshielded Twisted Pair). Existe también cable en el que los pares llevan una pantalla de hilos de cobre formando una malla, llamado STP (Shielded Twisted Pair); este cable es bastante voluminoso debido a la pantalla, lo cual encarece su precio y su costo de instalación, por lo que existe una variante más barata en la que la pantalla esta formada por papel de aluminio en vez de por malla de cobre, con lo que se consigue reducir considerablemente el precio y el diámetro (parámetro que determina en buena medida el costo de instalación); a este cable se le conoce como FTP (Foil Twisted Pair) o también ScTP (Screened Twisted Pair). Existe una fuerte polémica sobre si es mejor utilizar en redes locales el cable sin apantallar (UTP) o apantallado (STP o FTP). En grandes distancias se usa mas el cable apantallado ya que tiene menor atenuación. Según los equipos de transmisión que se utilicen, la velocidad que puede obtenerse de un par trenzado puede variar considerablemente, desde unos pocos Kbps hasta varios Mbps. La característica principal de un cable desde el punto de vista de transmisión de datos es su atenuación. La atenuación se produce por la pérdida de energía radiada al ambiente, por lo que cuanto más apantallado esta un cable menor es la atenuación; el cable UTP de categoría más alta tiene menor atenuación, ya que el mayor número de vueltas le da un mayor apantallamiento, y menor atenuación tiene el cable STP o el cable coaxial. Por otro lado la atenuación depende de la frecuencia de la señal transmitida, a mayor frecuencia mayor atenuación cualquiera que sea el tipo de cable. La siguiente tabla muestra a título de ejemplo la atenuación de varios tipos de cable a diferentes frecuencias: Frecuencia (MHz) 1 4 16 25 100 300

UTP Categoría 3 2,6 5,6 13,1

UTP Categoría 5 2,0 4,1 8,2 10,4 22,0

STP 1,1 2,2 4,4 6,2 12,3 21,4

Atenuación (en dB/100m) de distintos tipos de cable a diferentes frecuencias

Cabría pensar en la posibilidad de utilizar un cable por encima de la frecuencia a la que está especificado; por ejemplo el cable categoría 3 podría transportar una señal a 100 MHz sin mas que poner amplificadores mas a T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

9 9 2 92 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

menudo (o repetidores si la señal se transmite de forma digital). Independientemente del costo que esto supondría, no es posible transmitir una señal con una atenuación muy fuerte, ya que la cantidad de energía electromagnética emitida al ambiente infringiría las normativas relativas a interferencia del espectro radioeléctrico.

3.2. Cable coaxial El cable coaxial es otro medio de transmisión común. Tiene mejor apantallamiento que el par trenzado de cualquier tipo y categoría, aunque es más caro que el par trenzado, se puede utilizar a más larga distancia, con velocidades de transmisión superiores, menos interferencias y permite conectar más estaciones. Un cable coaxial esta formado por un núcleo de cobre rodeado de un material aislante; el aislante está cubierto por una pantalla de material conductor, que según el tipo de cable y su calidad puede estar formada por una o dos mallas de cobre, un papel de aluminio, o ambos. Este material de pantalla está recubierto a su vez por otra capa de material aislante que es la funda del cable. Por su construcción el cable coaxial tiene una alta inmunidad frente al ruido, y puede llegar a tener unos anchos de banda considerables. En distancias de hasta 1 Km es factible llegar a velocidades de 1 ó 2 Gbps. El cable coaxial debe manipularse con cuidado ya que por ejemplo un golpe o doblez excesivo pueden producir una deformación en la malla que reduzca el alcance del cable. Se suele utilizar para televisión, telefonía a larga distancia, redes de área local, conexión de periféricos a corta distancia, etc. Se utiliza para transmitir señales analógicas o digitales. Sus inconvenientes principales son: atenuación, ruido térmico, ruido de intermodulación. Para señales analógicas, se necesita un amplificador cada pocos kilómetros y para señales digitales un repetidor cada kilómetro por lo que puede llegar a distancias y velocidades mayores. En transmisión de datos suelen usarse dos tipos de cable coaxial: el de 50 y el de 75 ohmios. El de 50 se utiliza en transmisión digital y se suele denominar cable coaxial de banda base; el cable de 75 ohmios se utiliza en transmisión analógica y se denomina cable coaxial de banda ancha; el término banda ancha tiene su origen en la transmisión telefónica, donde se utiliza para indicar cualquier canal con una anchura mayor de 4 KHz. El cable de 50 ohmios se utiliza en redes locales antiguas; el de 75 se emplea sobre todo en las redes de televisión por cable.

3.3. Fibra óptica Si hubiera que mencionar un único factor como el principal causante del elevado desarrollo que han tenido las comunicaciones telemáticas en los años recientes, ese factor sería sin duda las fibras ópticas. Se trata de un medio muy flexible y muy fino que conduce energía de naturaleza óptica. Su forma es cilíndrica con tres secciones radiales: núcleo, revestimiento y cubierta. El núcleo está formado por una o varias fibras muy finas de cristal o plástico. Cada fibra está rodeada por su propio revestimiento que es un cristal o plástico con diferentes propiedades ópticas distintas a las del núcleo. Alrededor de este conglomerado está la cubierta (constituida de material plástico o similar) que se encarga de aislar el contenido de aplastamiento, abrasiones, humedad, etc. Es un medio muy apropiado para largas distancias e incluso últimamente para LAN's. Recordemos que tanto el teorema de Nyquist como la ley de Shannon-Hartley establecen que la capacidad de un canal viene limitada por su ancho de banda, que a su vez está limitada por la frecuencia de la señal portadora. Así pues, si queremos aumentar la capacidad deberemos subir la frecuencia portadora; siguiendo por este camino llegamos a la luz visible. Sólo necesitamos tres elementos: un emisor, un medio de transmisión, y un detector. El emisor transmite un bit por baudio, es decir, tiene dos estados posibles: un pulso de luz representa un 1 y la ausencia de pulso un 0. El medio de transmisión es una fibra de vidrio ultrafina (de unas pocas micras de diámetro). El detector genera un pulso eléctrico cuando recibe luz. La transmisión por fibra óptica siempre es simplex; para conseguir comunicación full-duplex es necesario instalar dos fibras, una para cada sentido. Para conseguir que la luz que sale del emisor sea “capturada” por la fibra hasta su destino y no se pierda por difusión hacia el exterior se aprovecha una propiedad de las ondas conocida como reflexión, consistente en que cuando una onda pasa de un medio a otro es parcialmente reflejada hacia el primero (como si se tratara de un espejo); la proporción en que la onda se refleja depende de los índices de refracción de ambos medios (una propiedad física característica de cada material relacionada con la velocidad de la luz en ese medio) y del ángulo de incidencia, a mayor ángulo mayor reflexión (el ángulo se mide referido a una línea perpendicular a la superficie de separación de ambos medios); cuando la luz pasa de un medio con mayor índice de refracción a uno con menor T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

9 9 3 93 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

índice existe un ángulo de incidencia, conocido como ángulo límite, por encima del cual la luz se refleja totalmente. Así, si el rayo de luz incide de forma suficientemente longitudinal en la fibra como para no superar el ángulo límite “rebotará” y quedará “atrapado” en la fibra, pudiendo así viajar grandes distancias sin apenas pérdidas. Si la fibra fuera un simple hilo de vidrio la superficie exterior actuaría como superficie de reflexión, aprovechando que el aire tiene un menor índice de refracción que el vidrio, pero esto requeriría tener controlado el entorno exterior para asegurar que la fibra siempre está rodeada de aire, lo cual es casi imposible; en su lugar lo que se hace es utilizar dos fibras concéntricas, la interior con un índice de refracción mayor transporta la luz, y la exterior actúa como 'jaula' para evitar que ésta escape. Existen básicamente dos sistemas de transmisión de datos por fibras ópticas: los que utilizan LEDs (Light-Emitting Diode) y los que utilizan diodos láser (ILD). En los sistemas que utilizan LEDs la transmisión de un pulso de luz (equivalente a un bit) genera múltiples rayos de luz, pues se trata de luz normal no coherente; se dice que cada uno de estos rayos tiene un modo y a la fibra que se utiliza para transmitir luz de emisores LED se la denomina fibra multimodo. Los rayos de luz inciden con una gama de ángulos diferentes posibles en el núcleo del cable, entonces sólo una gama de ángulos conseguirán reflejarse en la capa que recubre el núcleo. Son precisamente esos rayos que inciden en un cierto rango de ángulos los que irán rebotando a lo largo del cable hasta llegar a su destino. A este tipo de propagación se le llama multimodal (múltiples pulsos de luz rebotan dentro de la fibra). Las fibras se especifican indicando el diámetro de la fibra interior y exterior; las fibras multimodo típicas son de 50/100 y 62,5/125 micras (que significa diámetro interior de 62.5 y exterior de 125 micras); a título comparativo diremos que un cabello humano tiene un diámetro de 80 a 100 micras. Los diodos láser emiten luz coherente, hay un único rayo (el rayo axial) y la fibra se comporta como un guía-ondas; la luz se propaga a través de ella sin dispersión; la fibra utilizada para luz láser se llama fibra monomodo. A este método de transmisión se le llama monomodal (los pulsos de luz no pueden rebotar debido a que el diametro de la fibra es muy pequeño). Las fibras monomodo se utilizan para transmitir a grandes velocidades y/o a grandes distancias. La fibra interior (la que transmite la luz) en una fibra monomodo es de un diámetro muy pequeño, de 8 a 10 micras (del mismo orden de magnitud que la longitud de onda de la luz que transmite); una fibra monomodo típica es la de 8,1/125 micras. Los inconvenientes del modo multimodal es que debido a que dependiendo al ángulo de incidencia de los rayos, estos tomarán caminos diferentes y tardarán más o menos tiempo en llegar al destino, con lo que se puede producir una distorsión (rayos que salen antes pueden llegar después), con lo que se limita la velocidad de transmisión posible. Hay un tercer modo de transmisión que es un paso intermedio entre los anteriormente comentados y que consiste en cambiar el índice de refracción del núcleo. A este modo se le llama multimodo de índice gradual. Para la transmisión de luz por fibras ópticas se utilizan tres rangos de frecuencias, aquellos en los que las fibras muestran menor absorción (mayor “transparencia”). Son bandas situadas alrededor de 0,85, 1,30 y 1,55 micras, y se encuentran por tanto en la zona infrarroja del espectro (la parte visible esta entre 0,4 y 0,7 micras); se conocen como primera, segunda y tercera ventana, respectivamente. La primera ventana tiene mayor atenuación y es poco utilizada. La segunda ventana, que tiene una anchura de 18 THz (THz = 1 TeraHertzio = 1000 GHz = 1012 Hz), es la que más se utiliza. La tercera ventana tiene una anchura de 12,5 THz y es la que presenta menor atenuación y se utiliza en fibra monomodo cuando se quiere cubrir una gran distancia sin repetidores. Suponiendo una eficiencia de 1 bps/Hz la segunda y tercera ventanas suministrarían un ancho de banda de 30 Tbps!. El pico a 1,4 micras que separa ambas ventanas se debe a la presencia de cantidades residuales de agua en el vidrio. Es de esperar que la continua mejora de las técnicas de fabricación de fibras ópticas amplíe estas ventanas con lo que en el futuro se dispondrá de un ancho de banda aún mayor. A modo de ejemplo damos a continuación las características de atenuación de los tipos de fibra más comunes: Atenuación (dB/Km) Diámetro del Diámetro de la Tipo de fibra 850 nm 1300 nm 1500 nm núcleo (mm) funda (mm) 5,0 85 o 125 2,3 Monomodo 8,1 125 0,5 0,25 Monomodo 50 125 2,4 0,6 0,5 Multimodo 62,5 125 3,0 0,7 0,3 Multimodo 100 140 3,5 1,5 0,9 Multimodo Atenuación de diferentes tipos de fibra en las diversas ventanas

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

9 9 4 94 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

Cuando se interconectan dos equipos mediante un par de fibras ópticas multimodo es posible averiguar cual es el lado transmisor simplemente mirando el extremo de ambas fibras y viendo cual de ellas emite luz. Esto nunca debe hacerse con fibras monomodo ya que la luz láser es perjudicial para la vista, y además al tratarse de emisión infrarroja el ojo no aprecia luz alguna, con lo que el daño puede ser aún mayor. Para aprovechar mejor las fibras ópticas de largo alcance actualmente se utilizan varias longitudes de onda por fibra en cada una de estas ventanas, mediante lo que se conoce como multiplexación por división en longitud de onda de banda ancha (wideband WDM, WWDM o Wavelength Division Multiplexing). Se espera que la WDM en banda estrecha permita extraer aún más capacidad de una sola fibra, pudiendo llegar a compartir una misma fibra varias empresas portadoras, cada una con uno o varios haces transportando la información a diferentes frecuencias. En una experiencia hecha en 1996 Fujitsu consiguió transmitir 55 canales (haces) independientes por una fibra monomodo a una distancia de 150 Km utilizando la tercera ventana y 2 repetidores intermedios; cada canal tenia una anchura de 0,6 nm (equivalente a 75 GHz) y transportaba una señal de 20 Gbps, con lo que la capacidad total de la fibra era de 1,1 Tbps. Para poder utilizar WDM de banda estrecha el emisor debe ajustarse con mucha precisión, los amplificadores han de actuar sobre todo el rango de longitudes de onda de la manera más lineal posible, y en el lado receptor se ha de descomponer la señal en los canales originales, también de forma muy precisa. Para la interconexión de fibras ópticas se utilizan tres sistemas: conectores, empalmes y soldaduras. Los conectores ofrecen máxima versatilidad pues pueden ser manipulados a voluntad por cualquier persona; sin embargo introducen una pérdida de la señal de un 10% aproximadamente (0,5 dB). El empalme consiste en unir y alinear los extremos con cuidado; pierde un 5% de señal (0,2 dB) y lo puede realizar en unos cinco minutos una persona entrenada. La soldadura o fusión tiene una pérdida de señal muy pequeña, pero ha de llevarla a cabo un técnico especializado con equipo altamente sofisticado. En una comunicación por fibra óptica el emisor transmite con una potencia constante y el receptor tiene una sensibilidad mínima para captar la señal de manera fiable. Dicha potencia y sensibilidad suelen medirse en una unidad llamada dBm, que se calcula de la siguiente manera: potencia (dBm) = 10 log (P) donde P es la potencia en milivatios. Así, un emisor con una potencia de 1 milivatio equivale a 0 dBm, con un microvatio a -30 dBm, y así sucesivamente. Un emisor LED tiene una potencia típica entre -10 y -25 dBm, y uno láser entre 0 a -13 dBm. Por otro lado, la sensibilidad (potencia mínima que un receptor debe recibir para poder detectar la señal sin errores) es de 20 a -35 dBm en detectores LEDs y de -20 a -45 dBm en láser. Cuando una señal viaja por una fibra se produce una atenuación debido a los empalmes y conectores, y a la absorción de la luz por la fibra; por ejemplo en segunda ventana la pérdida es de aproximadamente 1 dB/Km en fibras multimodo y de 0,4 dB/Km en fibras monomodo. Al valor así obtenido se debe añadir 1,5 dB debido a otros factores externos. Con estos datos y sabiendo la longitud de fibra y el número de conectores y empalmes es posible calcular la pérdida de señal que se producirá en un trayecto determinado; si se conoce la potencia del emisor y la sensibilidad del receptor se podrá calcular la distancia máxima a la que la señal llegará de manera fiable. Por ejemplo, si se utiliza fibra multimodo, emisores LED de -15 dBm de potencia, y receptores de sensibilidad mínima de -25 dBm y tenemos dos parejas de conectores en el trayecto (0,5 dB cada una) podremos resistir una pérdida de 7,5 dB en la fibra, equivalente a una distancia de 7,5 Km. Conviene mencionar que esta sería la distancia máxima teórica; en la práctica se suele añadir un factor de seguridad a estos cálculos reduciendo los valores al menos en un 30% para tomar en cuenta los efectos de cambios de temperatura, envejecimiento del material, defectos en la instalación mecánica, etc. Cuando se transmite un pulso por una fibra multimodo los rayos se reflejan múltiples veces antes de llegar a su destino, con ángulos diversos (todos por encima del ángulo límite, pues de lo contrario se perderían) lo cual hace que la longitud del trayecto seguido por los rayos que forman el pulso no sea exactamente igual para todos ellos; esto produce un ensanchamiento del pulso recibido, conocido como dispersión, que limita la velocidad de transferencia, ya que el emisor no puede enviar los pulsos con la rapidez que en principio podría; la dispersión es función de dos factores: el ancho de banda y la longitud de la fibra, y se calcula como el producto de ambas magnitudes, así por ejemplo una fibra de 2 Km que transmita a 155 Mbps (equivalente a 155 MHz) tendrá una dispersión de 310 MHz Km. Con las fibras, emisores y receptores actuales la dispersión máxima tolerable es de 500 MHz Km; por ejemplo, si se transmite con fibras multimodo a 622 Mbps (que es la velocidad máxima que suele utilizarse con este tipo de fibras) la distancia máxima que puede utilizarse viene limitada a 800 metros por el efecto de dispersión. A 155 Mbps esta distancia es de 3,2 Km, y a 100 Mbps de 5 Km. Es fácil comprender por que en distancias grandes se utiliza fibra monomodo. En ocasiones se habla con demasiada alegría de la capacidad de gigabits de las fibras ópticas; conviene destacar que dicha capacidad solo es posible, al menos hoy en día, con fibras monomodo. Actualmente se esta trabajando en el desarrollo de pulsos con una forma especial de manera que los efectos de dispersión se cancelen mutuamente. Estos pulsos se llaman solitones y son un campo muy activo de investigación. A menudo los fabricantes dan cifras orientativas del alcance de sus equipos, como por ejemplo que la distancia máxima en fibra multimodo es de 2 Km o en monomodo de 15 a 30 Km. Estos valores suelen ser muy T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

9 9 5 95 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

conservadores y no dar problemas, pero en casos que haya muchos conectores o empalmes, o que queramos superar las distancias que da el fabricante, deberemos proceder a hacer los cálculos detallados para asegurarnos que no superamos la atenuación máxima recomendable; para los cálculos deberemos conocer la potencia del emisor y la sensibilidad del receptor. En redes locales, donde las distancias son pequeñas, se suele utilizar emisores LED y fibras multimodo, ya que son más baratos que los láseres, tienen una vida mas larga, son menos sensibles a los cambios de temperatura y son mas seguros. En cambio las compañías telefónicas, que normalmente necesitan largas distancias y altas velocidades, utilizan casi exclusivamente emisores láser y fibras monomodo. 3.3.1. Comparación de fibra óptica y cables de cobre A menudo en el diseño del cableado de una red local es necesario elegir entre fibra óptica o cable de cobre, ya que la mayoría de los sistemas de red local admiten el uso de ambos medios. En la mayoría de los casos las únicas opciones que vale la pena considerar son el cableado de cobre UTP categoría 5 y la fibra óptica multimodo 62,5/125 (salvo que por distancia tuviéramos que usar fibra monomodo); el cable de cobre permite llegar a 155 Mbps hasta 100m y la fibra a 622 Mbps hasta 800 m, o 155 Mbps hasta 3 Km. Así pues, si la distancia a cubrir es superior a 100 metros es preciso usar fibra. Además se recomienda utilizar fibra cuando se da alguna de las siguientes circunstancias: * El cableado une edificios diferentes; en este caso el uso de cable de cobre podría causar problemas debido a posibles diferencias de potencial entre las tierras de los edificios que podrían provocar corrientes inducidas en el cable. * Se prevé pasar a velocidades superiores a 155 Mbps más adelante; si la distancia es superior a 500-800 metros se debería además considerar la posibilidad de instalar fibra monomodo. * Se desea máxima seguridad en la red (el cobre es más fácil de interceptar que la fibra). * Se atraviesan atmósferas que pueden resultar corrosivas para los metales. * Se sospecha que puede haber problemas de interferencia eléctrica por proximidad de motores, luces fluorescentes, o equipos de alta tensión (por ejemplo, equipos de laboratorio). Para evaluar la necesidad o no de instalar fibra para evitar las interferencias producidas por la red eléctrica existe una serie de recomendaciones sobre la distancia mínima a mantener que hemos recopilado en la siguiente tabla. Potencia (en KVA) Menos de 2 Entre 2 y 5 Mas de 5 Líneas de corriente o equipos eléctricos no apantallados Líneas de corriente o equipos no apantallados pero próximos a cables de tierra Líneas apantalladas (p. ej. dentro de tubo metálico con toma de tierra) Transformadores y motores eléctricos Luces fluorescentes

13 cm

30 cm

60 cm

6 cm

15 cm

30 cm

0 cm

15 cm

30 cm

1m

1m

1m

30 cm

30 cm

30 cm

Separación mínima recomendada entre líneas de alimentación eléctrica y cables de datos UTP. Se supone que la tensión en las líneas eléctricas es menor de 480 voltios.

Cuando no se requiere fibra es recomendable utilizar cobre, ya que es más barato el material, la instalación y las interfaces de conexión de los equipos; además es más fácil realizar modificaciones en los paneles de conexión, empalmes, etc. A título ilustrativo se da a continuación algunos precios de instalación de cableado de diversos tipos: UTP categoría 5 FTP categoría 5 STP categoría 5

Fibra

Costo material

$0,8/m

$0,9/m

$1,45/m

$1,6/m

Mano de obra Total cableado

$0,6/m $1,4/m

$0,6/m $1,5/m

$0,7/m $2,2/m

Interfase (1)

$653

$653

$653

$0,7/m $2,3/m $858 multimodo $359 monomodo

(1)Representa el costo típico de una interfaz de ese tipo en un conmutador ATM. Coste aproximado de cableados UTP, FTP, STP y de fibra óptica

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

9 9 6 96 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

No obstante al diseñar una nueva instalación es importante prever futuras modificaciones o ampliaciones que se puedan producir y que requieran el uso de un cableado diferente. En general en una instalación grande se utiliza fibra para los tendidos principales (uniones entre edificios y probablemente distribución por plantas dentro del edificio) y cobre para la distribución de red a los despachos. Sus beneficios frente a cables coaxiales y pares trenzados son: 1. Permite mayor ancho de banda. 2. Menor tamaño y peso. 3. Menor atenuación. 4. Aislamiento electromagnético. 5. Mayor separación entre repetidores.

3.4. Transmisión Inalámbrica Hasta aquí hemos visto como las ondas eléctricas transmitidas por hilos de cobre, o las ondas luminosas transmitidas por fibras ópticas, nos permitían transportar bits. En realidad las ondas eléctricas y luminosas son dos tipos de ondas electromagnéticas. Ahora vamos a ver como se utilizan esas mismas ondas electromagnéticas para transmitir bits cuando se propagan por el aire y no las mantenemos cautivas en un hilo de cobre o de vidrio (medios no guiados). Este tipo de enlaces tiene interés cuando se trata de establecer una conexión con un ordenador en movimiento, o cuando se quiere realizar una conexión entre ordenadores sin tender cableado, bien por razones de rapidez, provisionalidad, estética o imposibilidad física. Se radia energía electromagnética por medio de una antena y luego se recibe esta energía con otra antena. 3.4.1. El espectro electromagnético La zona del espectro electromagnético que tiene interés para la transmisión de datos incluye las partes denominadas radiofrecuencia (10 KHz a 300 MHz), microondas (300 MHz a 300 GHz), e infrarroja (300 GHz a 400 THz). Se mencionan también a las ondas de luz, mediante laseres, que ofrecen un ancho de banda alto con bajo costo, pero el rayo es muy angosto y el alineamiento es difícil. Cuando se trata de radiofrecuencia o microondas es normal referirse a las ondas por su frecuencia, en cambio cuando se habla del infrarrojo se suele utilizar la longitud de onda. Recordemos que ambas magnitudes están relacionadas por la fórmula l f = c, donde l es la longitud de onda, f la frecuencia y c la velocidad de la luz en el vacío. Así por ejemplo, una onda de 30 GHz, que corresponde a la zona de microondas, tiene una longitud de onda de 1 cm. Las características de transmisión de las ondas en el aire dependen en gran medida de la frecuencia de la onda que se transmite. En la zona de radiofrecuencias el comportamiento es poco direccional y las ondas pueden atravesar obstáculos de cierto tamaño sin dificultad (su poder disminuye con el cubo de la distancia). Por ello se utiliza esta parte del espectro para emisiones de radio principalmente. Conforme nos acercamos a las microondas la transmisión es cada vez más direccional y sensible a los obstáculos; a partir de 100 MHz la transmisión se hace en línea recta y los obstáculos (un edificio o una montaña) impiden la comunicación; a partir de unos 10 GHz incluso la lluvia absorbe parte de la potencia, reduciendo la señal recibida. Por último en el infrarrojo (a partir de unos 500 GHz) el comportamiento es completamente direccional y la absorción por fenómenos meteorológicos como la niebla o la contaminación es notable, por lo que sólo pueden realizarse transmisiones a corta distancia y con buenas condiciones meteorológicas. En la práctica el rango de frecuencias más utilizado para la transmisión de datos es el de las microondas porque permite elevadas velocidades de transmisión dado su ancho de banda, tienen un alcance razonable y está relativamente exento de interferencias de los fenómenos más comunes. La elevada direccionalidad impone la condición de la visión directa, lo cual obliga a instalar repetidores cuando se cubren grandes distancias, pero es también una ventaja ya que permite disponer de la misma frecuencia en haces próximos sin interferencia, y concentrar la potencia de emisión en un solo sentido. Antes de la aparición de las fibras ópticas las microondas eran el sistema preferido por las compañías telefónicas para cubrir grandes distancias con anchos de banda elevados; aún hoy en día se basa en este sistema buena parte de la infraestructura, ya que es barato y efectivo. Es bastante típico utilizar radioenlaces de 2, 34 y 140 Mbps. Las ondas de radio se emplean para comunicaciones de baja velocidad; equipos conocidos como radiomódems permiten realizar una conexión de 9,6 Kbps por un canal de radio. Los radioaficionados utilizan sus sistemas de transmisión para transmitir paquetes IP constituyendo actualmente una parte importante de la Internet; sin embargo, debido a la poca anchura de las bandas asignadas a estos fines, a la poca potencia de los emisores y a T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

9 9 7 97 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

su mucha interferencia las velocidades que se obtienen son muy bajas; además su uso con fines comerciales está prohibido. Para evitar el caos en las emisiones de radio la asignación de frecuencias está sujeta a unas normas internacionales dictadas por la ITU-R, y en cada país existe un organismo encargado de asignar las frecuencias que pueden utilizarse (esto sólo rige para la radiofrecuencia y las microondas, la luz infrarroja no lo requiere debido a su elevada direccionalidad y corto alcance). Generalmente se aplica una política altamente restrictiva en la asignación de frecuencias ya que se las considera un bien escaso, por lo que sólo se conceden a empresas portadoras y a servicios públicos y de emergencia. Como excepción a lo anterior se puede utilizar sin autorización la banda comprendida en el rango de 2,400 a 2,484 GHz, denominada banda Industrial/Científica/Médica, cuando se utilizan emisores homologados cuya potencia no supere los 100 mW; existen en el mercado equipos de estas características que con una antena yagi altamente direccional (parecida a las antenas de recepción de televisión) permiten establecer un enlace de 2 Mbps a distancias de 4 a 6 Km. Esta banda es utilizada también por algunas LANs inalámbricas; en estos casos si se quiere tener movilidad se utilizan antenas omnidireccionales (aunque es preciso mantener la visión directa con el emisor). Estos equipos de transmisión de datos por radio incorporan sofisticados sistemas y protocolos propios de bajo nivel que aseguran una transmisión fiable de la información aun en ambientes ruidosos desde el punto de vista radioeléctrico. La radiación infrarroja puede utilizarse para transmitir datos a través del aire, igual que se utiliza el mando a distancia para transmitir órdenes al televisor. La direccionalidad es casi absoluta, como cabría esperar de una onda luminosa; también es muy buena la relación señal-ruido; el único inconveniente es que el alcance es relativamente pequeño, lo cual la convierte en un buen candidato para una LAN inalámbrica. Los sistemas de transmisión por luz infrarroja también pueden enlazar edificios separados por distancias cortas (máximo 1 Km) con velocidades que pueden llegar a los 155 Mbps.; podemos considerar el equipo de transmisión en este caso como la fibra óptica “virtual” que une ambos edificios por arriba. A modo de resumen, hay dos configuraciones para la emisión y recepción de esta energía: direccional y omnidireccional. En la direccional, toda la energía se concentra en un haz que es emitida en una cierta dirección, por lo que tanto el emisor como el receptor deben estar alineados. En el método omnidireccional, la energía es dispersada en múltiples direcciones, por lo que varias antenas pueden captarla. Cuanto mayor es la frecuencia de la señal a transmitir, más factible es la transmisión unidireccional. Por tanto, para enlaces punto a punto se suele utilizar microondas (altas frecuencias). Para enlaces con varios receptores posibles se utilizan las ondas de radio (bajas frecuencias). Los infrarrojos se utilizan para transmisiones a muy corta distancia (en una misma habitación). 3.4.2. Comunicaciones móviles 3.4.2.1. Movilidad de terminal y personal En la evolución de las redes de telecomunicaciones, una reciente estrategia de actuación es la de dotar a los usuarios de “movilidad” de tal manera que éstos puedan establecer una comunicación independientemente del lugar donde se encuentren. Ello es posible gracias a la posibilidad de utilizar la radio para establecer el enlace entre los elementos que desean comunicarse. Hasta hace relativamente muy poco tiempo, el concepto de movilidad se ha venido asociando, exclusivamente, a la del terminal, pero recientemente se está empezando a aplicar no al terminal, sino al sujeto que hace uso del mismo; de esta manera se amplía el rango de servicios que pueden ser ofrecidos por los diferentes operadores, bastando la identificación del usuario para poder acceder a los mismos. Tratando las comunicaciones vocales (telefonía), por ser éstas las de mayor aplicación y en las que primero se presentó la necesidad, veamos (figura) en qué consiste el concepto de movilidad, tanto aplicado al terminal como al usuario: Movilidad del terminal: el usuario dispone de un teléfono asociado a un número de la red y puede hacer • uso de él en cualquier lugar con cobertura (telefonía móvil automática). Movilidad personal: al usuario, y no al terminal, es al que se asocia un determinado número de la red que, • de forma inteligente, le “sigue” en sus desplazamientos, pudiendo hacer uso desde cualquier teléfono, sea éste fijo o móvil. Los conceptos de movilidad personal y del terminal son distintos, aunque pueden darse al mismo tiempo. Como ejemplos más recientes que soportan la movilidad del terminal podemos considerar el GSM T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

9 9 8 98 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

(Global System for Móbiles, estándar europeo para redes telefónicas móviles celulares creado por CEPT con estándar ETSI en la banda de 900 MHz) y el DECT (Digital European Cordless Telecommunications, en la banda de 1800-1900 MHz). Se verán algunas de sus características, pero antes se explicará brevemente el concepto del término “celular” por ser el pilar sobre el que se basan la mayoría de los sistemas de telefonía vía radio. 3.4.2.2. Comunicaciones celulares Aunque comercialmente su aplicación es reciente, sus principios fueron formulados hace casi 50 años por los Laboratorios Bell. Un Sistema Celular o Sistema Móvil de Comunicaciones Celulares se forma al dividir el territorio (ver Figura 9.2) al que se pretende dar servicio (se utiliza un gran número de transmisores inalámbricos de bajo poder) en áreas pequeñas, células o celdas (el área de servicio geográfico básico de un sistema de comunicaciones inalámbricas, normalmente hexagonales) de mayor o menor tamaño (los niveles variables de poder permiten que el tamaño de las celdas se definan de acuerdo a la densidad de suscriptores, a la demanda dentro de una región particular y al aspecto natural o artificial del terreno) cada una de las cuales es atendida por una estación de radio (estación base) que restringe su zona de cobertura a la misma, aprovechando el alcance limitado de la propagación de las ondas de radio a frecuencias elevadas; las células se agrupan en “claustros o racimos” y el número de canales de radio disponibles se distribuye en el grupo de células, de manera que esta distribución se repita en toda la zona de cobertura; así el espectro de frecuencias puede volver a ser reutilizado en cada nueva célula, siempre teniendo cuidado de evitar las interferencias entre las células próximas. División del terreno en una estructura de celdas hexagonales para formar un sistema celular de radio

3.4.2.2.1. Estructura y cobertura Las estructuras o modelos que permiten, de forma interrumpida, la cobertura de una determinada área son configuraciones a modo de panal de miel basadas en 4, 7, 12 ó 21 células, siendo la de 7 (ver figura) la más común, conocida también como 7-en-1. El número total de canales por célula, directamente ligado a la capacidad de manejo de tráfico, depende del número total de canales disponibles y del tipo de claustro, según la fórmula: N total de canales Número de canales por célula = --------------------------Claustro (4, 7, 12, 21)

De esta manera se puede aumentar considerablemente el número de usuarios al no requerirse una frecuencia exclusiva para cada uno de ellos, como sucede, por ejemplo, en los sistemas trunking. Cuanto más pequeñas sean las células mayor será el número de canales que soporte el sistema, al poder asignar conjuntos de frecuencias diferentes para áreas o células distintas. Las principales características de un sistema celular son: Gran capacidad de usuarios. • Utilización eficiente del espectro. • Amplia cobertura. • El enlace entre el terminal y la red debe mantenerse cuando éste pasa de una célula a otra (handover o handoff) y cuando la red identifica la posición del móvil, realizando su seguimiento, dicha facilidad se conoce como roaming. A1 acometer el proyecto de planificación de una red celular hay que abordarlo en varias fases: Recogida de datos referentes a demanda y tráfico. • Elaboración de un plan celular inicial con la ubicación de las estaciones base y la asignación de • frecuencias. Predicción de la cobertura, sobre la base de modelos de propagación. • Medidas radioeléctricas para confirmar predicciones y efectuar las correcciones que sean precisas. • Plan celular final, con ajuste de parámetros y asignación definitiva de las frecuencias. • Las primeras generaciones de sistemas móviles celulares eran analógicas, tales como NMT, TACS, T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

9 9 9 99 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N AMPS, etc., con una amplia aceptación a nivel mundial, surgiendo recientemente los sistemas digitales para completarlos o sustituirlos, como son el GSM en Europa, DAMPS en Estados Unidos y JDC y PHP en Japón. En la tabla de la Figura 9.3 se muestran las características más importantes de los sistemas actualmente en vigor.

3.4.3. Microondas terrestres Suelen utilizarse antenas parabólicas. Para conexiones a larga distancia, se utilizan conexiones intermedias punto a punto entre antenas parabólicas. Se suelen utilizar en sustitución del cable coaxial o las fibras ópticas ya que se necesitan menos repetidores y amplificadores, aunque se necesitan antenas alineadas. Se usan para transmisión de televisión y voz. La principal causa de pérdidas es la atenuación debido a que las pérdidas aumentan con el cuadrado de la distancia (con cable coaxial y par trenzado son logarítmicas). La atenuación aumenta con las lluvias. Las interferencias es otro inconveniente de las microondas ya que al proliferar estos sistemas, pude haber más solapamientos de señales. 3.4.4. Microondas por satélite El satélite recibe las señales y las amplifica o retransmite en la dirección adecuada. Para mantener la alineación del satélite con los receptores y emisores de la tierra, el satélite debe ser geoestacionario. Se suele utilizar este sistema para: * Difusión de televisión. * Transmisión telefónica a larga distancia. * Redes privadas. El rango de frecuencias para la recepción del satélite debe ser diferente del rango al que este emite, para que no haya interferencias entre las señales que ascienden y las que descienden. Debido a que la señal tarda un pequeño intervalo de tiempo desde que sale del emisor en la Tierra hasta que es devuelta al receptor o receptores, ha de tenerse cuidado con el control de errores y de flujo de la señal. Las diferencias entre las ondas de radio y las microondas son: * Las microondas son unidireccionales y las ondas de radio omnidireccionales. * Las microondas son más sensibles a la atenuación producida por la lluvia. * En las ondas de radio, al poder reflejarse estas ondas en el mar u otros objetos, pueden aparecer múltiples señales "hermanas". 3.4.5. Infrarrojos Los emisores y receptores de infrarrojos deben estar alineados o bien estar en línea tras la posible reflexión de rayo en superficies como las paredes. En infrarrojos no existen problemas de seguridad ni de interferencias ya que estos rayos no pueden atravesar los objetos (paredes por ejemplo). Tampoco es necesario permiso para su utilización (en microondas y ondas de radio si es necesario un permiso para usar una frecuencia).

44.. SSIIISSSTTTEEEM M A D E M Ó N TRRRAAANNNSSSM MA ASSS D DE ET MIIISSSIIIÓ ÓN N 4.1. Sistema de Telefonía Celular Digital - GSM T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 0 0 10 00 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

La popularización de los ordenadores personales ha hecho que crezca considerablemente la demanda de sistemas de transmisión de datos por medios inalámbricos. Ya desde 1946 existen sistemas analógicos de radioteléfono, pero durante muchos años han tenido un coste prohibitivo para la mayoría de las aplicaciones y una cobertura geográfica muy escasa. En los últimos años ambos factores han evolucionado de forma drástica, lo cual hace posible hoy en día considerar estos sistemas como una alternativa interesante en muchos casos. Existen diversos sistemas de comunicación inalámbrica actualmente, todos basados en ondas de radio. Como ya hemos dicho, el uso de las frecuencias de radio está regulado, y son muy pocas las entidades que pueden solicitar frecuencias del espectro radioeléctrico. Cuando se asignan frecuencias en cada zona del espectro se toma en consideración el alcance que tendrá la emisión; de esta forma se puede reutilizar una misma frecuencia en dos emisoras separadas por una distancia lo suficientemente grande para que no interfieran entre sí. El alcance viene determinado fundamentalmente por la frecuencia y por la potencia de la emisión. Por ejemplo, las frecuencias de emisoras comerciales de frecuencia modulada se reutilizan más que las de emisoras de onda media, ya que la FM tiene un alcance menor. La mayoría de los sistemas de comunicación inalámbrica privada actualmente en uso se basan en el principio de la partición del espacio geográfico en células, de forma que el usuario que se encuentra dentro de una célula comunica con la estación base correspondiente; cuando el usuario se mueve y pasa a otra célula su comunicación se realiza con la nueva estación base. Para evitar interferencias células contiguas utilizan siempre frecuencias diferentes, pero células no contiguas pueden reutilizar la misma frecuencia. De esta forma es posible cubrir un área arbitrariamente grande utilizando únicamente siete frecuencias. En realidad cada usuario dentro de una célula ha de utilizar una frecuencia distinta, por lo que lo que en realidad se asigna no son siete frecuencias sino siete grupos o rangos de frecuencias. De manera similar a la telefonía convencional, la telefonía celular empezó siendo analógica. Mas tarde apareció la telefonía celular digital, que esta desplazando gradualmente a la analógica a medida que su cobertura aumenta y sus precios disminuyen. Entre las ventajas de la telefonía celular digital frente a la analógica podemos destacar las siguientes: 1. La calidad de la comunicación es mejor, ya que pueden incorporarse mecanismos de corrección de errores. No existen apenas zonas de penumbra: si hay cobertura la calidad es buena y si no es imposible. 2. Las conversaciones pueden encriptarse, asegurando así la privacidad de la comunicación. 3. Es posible incluir más conversaciones en un mismo ancho de banda. 4. Es posible transmitir por el mismo sistema voz, fax y datos con una velocidad mucho mayor. El primer sistema de telefonía celular analógica, denominado AMPS (Advanced Mobile Phone System), fue instalado por los laboratorios Bell en Estados Unidos en 1982. AMPS era el único sistema de comunicación de este tipo en uso en los Estados Unidos. Cuando llegó la telefonía celular digital aparecieron varios sistemas, unos compatibles y otros incompatibles con AMPS y otros no compatibles; al menos dos de esos sistemas están bastante extendidos actualmente. Una situación similar se vivió en Japón, que optó por otro sistema llamado JDC. En Europa la telefonía celular analógica apareció fundamentalmente para cubrir una necesidad de comunicación interna de cada país. No se prestó mucha atención a la interoperabilidad entre países y aparecieron cinco sistemas diferentes de telefonía analógica, todos incompatibles entre sí. En esta situación cuando se planteó establecer un servicio de telefonía digital las PTTs rápidamente se pusieron de acuerdo en que debían utilizar un mismo sistema digital que permitiera la interoperabilidad entre países, y que no tendría por que ser compatible con ninguno de los sistemas analógicos existentes. Esta decisión dio lugar al sistema conocido como GSM (Global System for Mobile Communications), y fue desarrollado antes que los sistemas digitales americanos. GSM es utilizado actualmente en 50 países y es considerado un éxito de la coordinación y tecnología europea, pues es superior a los sistemas americano o japonés. El sistema GSM utiliza una banda alrededor de la frecuencia de 900 MHz. Existe una segunda banda alrededor de 1,8 GHz que a veces se denomina DCS 1800, cuyo funcionamiento es idéntico al de la banda de 900 MHz. En estas bandas se definen dos grupos de 124 canales de 200 KHz, uno entre 935,2 y 959,8 MHz para la comunicación descendente (de estación base a estación móvil) y otro entre 890,2 y 914,8 MHz para la comunicación ascendente (de estación móvil a estación base). En cada canal se utiliza multiplexación por división de tiempos para poder soportar hasta 8 conversaciones (o circuitos) simultáneamente. Cada canal de 200 KHz transmite información digital a una velocidad de 270.833 bps, de los que una buena parte es información de control y sincronización. Cada canal transporta ocho circuitos cada uno de los cuales puede llevar o bien una conversación digitalizada que ocupa 13,6 Kbps o un canal de datos con una capacidad de 9,6 Kbps. Algunos países están haciendo ya experiencias de transmisión de datos con tecnología GSM a 64 Kbps. En su conjunto la red de comunicaciones GSM es una obra de ingeniería altamente sofisticada. Para poder acomodar una conversación en 13,6 Kbps se desarrollaron como parte del estándar GSM nuevos algoritmos de compresión de la voz. Esto permite aprovechar mejor la capacidad disponible, a cambio de aumentar la complejidad en el equipo del usuario (el teléfono GSM ha de llevar un procesador capaz de realizar la compresión/descompresión en tiempo real) y degradar un poco la calidad (una conversación por GSM no tiene la misma calidad que una conversación normal, incluso en condiciones óptimas de cobertura).

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 0 1 10 01 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

Los teléfonos GSM también pueden ser utilizados para enviar pequeños mensajes escritos, a modo de mensáfonos. Existen también servicios de pasarela que permiten desde la Internet enviar un mensaje a un teléfono GSM cualquiera de todo el mundo.

4.2. Satélites de comunicaciones Los satélites artificiales son un medio estupendo de emitir señales de radio en zonas amplias o poco desarrolladas, ya que pueden utilizarse como enormes antenas suspendidas del cielo. Dado que no hay problema de visión directa se suelen utilizar frecuencias elevadas en el rango de los GHz que son más inmunes a las interferencias (funcionan como repetidores de microondas); además la elevada direccionalidad de las ondas a estas frecuencias permite “alumbrar” zonas concretas de la tierra. El primer satélite de comunicaciones se puso en órbita en 1962. La primera transmisión de televisión vía satélite se llevó a cabo en 1964. 4.2.1. Satélites geoestacionarios El período orbital de los satélites depende de su distancia a la Tierra, cuanto más cerca más corto es el período. Los primeros satélites de comunicaciones tenían un período orbital que no coincidía con el de rotación de la Tierra sobre su eje, por lo que tenían un movimiento aparente en el cielo; esto hacía difícil la orientación de las antenas, y cuando el satélite desaparecía en el horizonte la comunicación se interrumpía. Existe una altura para la cual el período orbital del satélite coincide exactamente con el de rotación de la tierra. Esta altura es de 35.786,04 Km. A la órbita correspondiente se la conoce como el cinturón de Clarke, ya que fue el famoso escritor de ciencia ficción Arthur C. Clarke el primero en sugerir esta idea en el año 1945 (además de escritor Clarke era un científico que trabajaba en el campo de los satélites artificiales). Vistos desde la tierra los satélites que giran en esta órbita parecen estar inmóviles en el cielo, por lo que se les llama satélites geoestacionarios. Esto tiene dos ventajas importantes para las comunicaciones: permite el uso de antenas fijas pues su orientación no cambia y asegura el contacto permanente con el satélite. Los satélites comerciales funcionan en tres bandas de frecuencias llamadas C, Ku y Ka; análogamente a lo que ocurría en GSM, para la comunicación ascendente se utilizan unas frecuencias y otras para la descendente, según se detalla en la tabla siguiente: Banda C Ku Ka

Frecuencia Frecuencia descendente (GHz) ascendente (GHz) 3,7 - 4,2 5,925 - 6,425 11,7 - 12,2 14,0 - 14,5 17,7 - 21,7 27,5 - 30,5

Problemas Interferencia terrestre Lluvia Lluvia, costo equipos

Bandas utilizadas en las comunicaciones vía satélite

La mayoría de las emisiones de televisión vía satélite se producen en la banda Ku. No es conveniente poner muy próximos en la órbita geoestacionaria dos satélites que funcionen en la misma banda de frecuencias, ya que pueden interferirse. En la banda C la distancia mínima es de 2 grados, y en Ku y Ka de un grado. Esto limita en la práctica el número total de satélites que puede haber en toda la órbita geoestacionaria a 180 en la banda C y 360 en las Ku y Ka. La distribución de bandas y espacio en la órbita geoestacionaria se realiza mediante acuerdos internacionales. Cada una de las bandas utilizadas en los satélites se divide en canales. Para cada canal suele haber en el satélite un repetidor, llamado transponder o transpondador, que se ocupa de captar la señal ascendente y retransmitirla de nuevo hacia la tierra en la frecuencia que le corresponde. Cada canal puede tener un ancho de banda de 27 a 72 MHz, y puede utilizarse para enviar señales analógicas de vídeo y/o audio, o señales digitales que pueden corresponder a televisión digital (normal o en alta definición), radio digital (calidad CD), conversaciones telefónicas digitalizadas, datos, etc. La eficiencia que se obtiene suele ser de 1 bps/Hz; así por ejemplo un canal de 50 MHz permitiría transmitir un total de 50 Mbps de información. Un satélite tiene de 12 a 20 transponedores (20 canales). La elevada direccionalidad de las altas frecuencias hace posible concentrar las emisiones por satélite a regiones geográficas muy concretas, hasta de unos pocos cientos de kilómetros. Esto permite evitar la recepción en zonas no deseadas y reducir la potencia de emisión necesaria, o bien concentrar el haz para así aumentar la potencia recibida por el receptor reduciendo así el tamaño de la antena parabólica necesaria. Por ejemplo el satélite Astra tiene una huella que se aproxima bastante al continente europeo. Para la transmisión de datos vía satélite se han creado estaciones de emisión-recepción de bajo costo llamadas VSAT (Very Small Aperture Terminal). Una estación VSAT típica tiene una antena de 1 metro de diámetro y un emisor de 1 vatio de potencia. Normalmente las estaciones VSAT no tienen potencia suficiente para comunicar entre sí a través del satélite (VSAT-satélite-VSAT), por lo que se suele utilizar una estación repetidora en tierra denominada hub (centro o eje en inglés) que actúa como repetidor; así la comunicación ocurre con dos saltos tierra-aire (VSAT-satélite-hub-satélite-VSAT); un solo hub puede dar servicio a múltiples comunicaciones VSAT. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 0 2 10 02 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

Las comunicaciones vía satélite tienen algunas características singulares. En primer lugar está el retardo que introduce la transmisión de la señal a tan grandes distancias. Con 36.000 Km de altura orbital la señal ha de viajar como mínimo 72.000 Km, lo cual supone un retardo de 240 milisegundos, sólo en la transmisión de la señal; en la práctica el retardo es de 250 a 300 milisegundos según la posición relativa del emisor, el receptor y el satélite. En una comunicación VSAT-VSAT los tiempos se duplican debido a la necesidad de pasar por el hub. A título comparativo en una comunicación terrestre por fibra óptica a 10.000 Km de distancia el retardo puede suponer 50 milisegundos (la velocidad de las ondas electromagnéticas en el aire o en el vacío es de unos 300.000 Km/s, mientras que en el vidrio o en el cobre es de unos 200.000 Km/s). En algunos casos estos retardos pueden suponer un serio inconveniente o degradar de forma apreciable el rendimiento si el protocolo no esta preparado para este tipo de redes. Otra característica singular de los satélites es que sus emisiones son broadcast de manera natural. Tiene el mismo costo enviar una señal a una estación que enviarla a todas las estaciones que se encuentren dentro de la huella del satélite. Para algunas aplicaciones esto es muy interesante, mientras que para otras donde la seguridad es importante es un inconveniente, ya que todas las transmisiones han de ser encriptadas. Cuando varios ordenadores se comunican a través de un satélite (como en el caso de estaciones VSAT) los problemas de utilización del canal común de comunicación que se presentan son similares a los de una red local. El costo de una transmisión vía satélite es independiente de la distancia, siempre que las dos estaciones se encuentren dentro de la zona de cobertura del mismo satélite. Además no hay necesidad de hacer infraestructuras terrestres y el equipamiento necesario es relativamente reducido, por lo que son especialmente adecuados para enlazar instalaciones provisionales, que tengan una movilidad relativa, o que se encuentren en zonas donde la infraestructura de comunicaciones está poco desarrollada. Recientemente se han puesto en marcha servicios de transmisión de datos vía satélite basados en el sistema de transmisión de la televisión digital, lo cual permite hacer uso de componentes estándar de bajo costo. Además de poder utilizarse de forma full-dúplex como cualquier comunicación convencional vía satélite, es posible realizar una comunicación simplex en la que los datos solo se transmiten de la red al usuario, y para el camino de vuelta éste utiliza la red telefónica (vía módem o RDSI); de esta forma la comunicación red/usuario se realiza a alta velocidad (típicamente 400-500 Kbps), con lo que se obtiene una comunicación asimétrica; el usuario evita así instalar el costoso equipo transmisor de datos hacia el satélite. Este servicio esta operativo en Europa desde 1997 a través de los satélites Astra y Eutelsat, y es ofrecido por algunos proveedores de servicios Internet. La instalación receptora es de bajo costo, existen tarjetas internas para PC que permiten enchufar directamente el cable de la antena, que puede ser la misma antena utilizada para ver la televisión vía satélite. 4.2.2. Satélites de orbita baja Como se dijo los satélites con órbitas inferiores a 36.000 Km tienen un período de rotación inferior al de la Tierra, por lo que su posición relativa en el cielo cambia constantemente. La movilidad es tanto más rápida cuanto menor es su órbita. En 1990 Motorola puso en marcha un proyecto consistente en poner en órbita un gran número de satélites (66 en total); los satélites se colocarían de once en once en seis órbitas circumpolares (siguiendo los meridianos) a 750 Km de altura, repartidos de forma homogénea a fin de constituir una cuadrícula que cubriera toda la tierra. Cada satélite tendría un período orbital de 90 minutos, por lo que en un punto dado de la tierra el satélite más próximo cambiaría cada ocho minutos. Cada uno de los satélites emitiría varios haces diferentes (hasta un máximo de 48) cubriendo toda la tierra con 1628 haces; cada uno de estos haces constituiría una celda y el satélite correspondiente serviría para comunicar a los usuarios que se encontraran bajo su huella. La comunicación usuario-satélite se haría en frecuencias de la banda de 1,6 GHz, que permite el uso de dispositivos portátiles. La comunicación entre los satélites en el espacio exterior se llevaría a cabo en la banda Ka. En resumen, podemos ver este proyecto como una infraestructura GSM que cubre toda la Tierra y que está “colgada” del cielo. En la telefonía GSM convencional la estación base está fija y sólo el usuario se mueve; en el caso de los satélites de órbita baja las “estaciones base” (los satélites) también se mueven, de manera coordinada. Parece que antes del año 2005 la disponibilidad de este servicio será una realidad. Esto permitirá la comunicación global independientemente del punto de la tierra donde se encuentre el usuario y del grado de desarrollo que tengan las infraestructuras de comunicaciones en esa zona del planeta.

4.3. El sistema telefónico Anteriormente se vieron algunos aspectos del sistema telefónico; ahora los comentaremos con mas detalle. Actualmente existen en el mundo aproximadamente 700 millones de teléfonos y para el año 2000 serán cerca de mil millones No es extraño pues que ya en las primeras redes de ordenadores se intentara utilizar este medio de transmisión, dada su ubicuidad; sin embargo el objetivo de la red telefónica no ha sido la comunicación de ordenadores, por lo que para utilizarla para tal fin se debe conocer un poco su organización y, sobre todo, sus limitaciones. Desde hace mas de un siglo el sistema telefónico se basa en el uso de centrales para conmutar las llamadas entre abonados, y pares de hilos de cobre para unir a cada abonado con la central. Existen diversos niveles T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 0 3 10 03 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

jerárquicos de centrales, pudiendo llegar a existir hasta cinco niveles en esta jerarquía. El propio sistema de numeración telefónico refleja en cierta medida esta estructura (cuanto más próximos están dos teléfonos mas parecidos son sus números). Este tipo de organización permite la comunicación entre cualquier par de abonados minimizando el número de interconexiones entre ellos, y entre las centrales. Las conexiones de los abonados con sus centrales se hacen normalmente por un único par de hilos de cobre. Las conexiones de las centrales entre sí (a través de una línea troncal de cable coaxial, microondas, fibra óptica o enlaces vía satélite), al ser menos y más críticas, se suelen hacer redundantes, conectando por ejemplo una central a otras dos de forma que si falla una conexión el tráfico pueda reencaminarse por la otra. El cable que une al abonado con su central se llama bucle de abonado (local loop) y suele tener una longitud de 1 a 10 Km (los bucles de abonado suelen ser pares de cobre trenzados), según se trate de área urbana o rural. El principal activo que tienen las compañías telefónicas en todo el mundo es el cobre que tienen en sus bucles de abonado; si todo el hilo de cobre existente en bucles de abonado en el mundo se pusiera junto se podría ir y venir a la luna mil veces. El ancho de banda de una conversación telefónica es de 3 KHz. (en realidad es de 3,1 KHz), ya que el rango de frecuencias transmitido en una conversación telefónica es de 300 a 3.400 Hz. Esta ha sido probablemente la decisión más importante en toda la historia de la Telemática, como se verá más adelante. Se eligió un ancho de banda reducido porque se pensó únicamente en transmitir la voz humana con un planteamiento minimalista. De esta forma es posible multiplexar muchas conversaciones en un ancho de banda relativamente reducido, lo cual es especialmente interesante en largas distancias; además del ahorro que en sí mismo supone usar un ancho de banda pequeño, el oído humano es así menos sensible a las distorsiones que si se utilizara un ancho de banda mayor, como puede verse en la tabla adjunta. Ancho de banda (KHz) 3 5 10 15

Distorsión perceptible (%) > 1,4 > 1,2 > 1,0 > 0,7

Distorsión molesta (%) > 18-20 > 8,0 > 4,0 > 2,6

Sensibilidad del oído humano a la distorsión en función del ancho de banda

Antiguamente las conversaciones se transmitían por el sistema telefónico de manera totalmente analógica, de extremo a extremo, atravesando a menudo múltiples centrales con amplificadores adicionales para regenerar la señal, cada uno de los cuales distorsionaba la señal un poco más y reducía un poco la relación señal-ruido. Otro problema grave de la comunicación analógica era que se solían multiplexar muchas conversaciones sobre un mismo cable, entonces para extraer una de ellas era necesario desmultiplexarlas todas y volver a multiplexar el resto hasta su nuevo destino; esto añadía una considerable complejidad, y por tanto costo a los equipos, y reducía aun más la calidad de la señal. Hacia finales de los años cincuenta la mayoría de las compañías telefónicas coincidían en que la solución a todos estos problemas estaba en la transmisión digital de la señal. Como llegar de forma digital hasta el abonado era bastante costoso, pues requería entre otras cosas cambiar el teléfono por uno considerablemente más complejo y caro, se optó por una solución intermedia en la que se digitalizaban los enlaces troncales, que eran relativamente pocos, y se dejaba como analógico el bucle de abonado únicamente. Así se obtenían los beneficios de la telefonía digital a un precio razonable. Esta transformación a telefonía digital de las líneas troncales fue algo gradual que empezó en los años sesenta y continúa en nuestros días; actualmente casi toda la red telefónica entre centrales de los países desarrollados es digital. Como se dijo, la digitalización del teléfono se realiza muestreando la señal con una frecuencia de 8 KHz (teorema de Nyquist); cada muestra genera un dato de 7 u 8 bits (7 en América, 8 en Europa) que se transmite por una línea digital de 56 o 64 Kbps. Todos los equipos telefónicos digitales del mundo, tanto si transmiten a 56 ó 64 Kbps como si lo hacen a 2,5 Gbps, trabajan con una frecuencia base de 8 KHz, es decir, todos los eventos ocurren cada 125 microsegundos; este es probablemente el único parámetro en que hay un acuerdo universal entre todas las compañías telefónicas del mundo aparte del ancho de banda de 3,1 KHz para un canal de voz, del cual los 8 KHz son una simple consecuencia; observe también que de esta frecuencia de 8 KHz se deriva el que 64 Kbps signifique 64.000 bps, no 65.536 bps como sería lo normal en informática (64 * 1.024). 4.3.1. El bucle de abonado y los módems A pesar de que en muchas comunicaciones la mayor parte del trayecto se hace de manera digital, el bucle de abonado casi siempre es analógico. Esto lleva a la curiosa situación de que para comunicar dos ordenadores normalmente es preciso colocar módems en casa del abonado para convertir la señal digital en analógica, mientras que en las centrales habrá códecs que se ocuparán de convertir la señal analógica en digital. Al largo plazo hay que convertir los local loops a la fibra, pero es muy caro. Una solución intermedia es instalar la fibra primero solamente en las calles y continuar usar el par trenzado para la conexión al domicilio. Los tres problemas principales que se dan en una conexión analógica son atenuación, distorsión y ruido. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 0 4 10 04 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

La atenuación es la pérdida de energía de la señal, y se mide en dB/Km como ya hemos visto para el caso de las fibras ópticas. Sin embargo no todas las frecuencias se atenúan en la misma proporción y por tanto la amplificación no restaura la señal original. La distorsión se produce porque no todas las frecuencias viajan con la misma velocidad, y por consiguiente pueden llegar con diferencias de tiempo respecto al origen. Esto provoca un ensanchamiento de los bits limitando en la práctica la velocidad, algo muy similar al fenómeno de dispersión que hemos visto en las fibras ópticas multimodo. Una aproximación que intenta reducir los problemas de atenuación y distorsión consiste en dividir el ancho de banda disponible en multitud de pequeños canales, por ejemplo 512, y transmitir sólo unos pocos baudios en cada uno de ellos. De esta forma el comportamiento de la señal es mucho más homogéneo y el módem puede adaptarse a situaciones cambiantes, inhibiendo por ejemplo los canales que detecte como ruidosos. Esta aproximación se ha utilizado en algunas ocasiones en módems de gama alta, pero resulta bastante compleja, no está estandarizada y requiere una capacidad de proceso elevada en los módems para descomponer la información en los canales y recomponerla en el otro extremo; sin embargo permite extraer el máximo de rendimiento a la línea. La técnica de crear múltiples canales se utiliza en la tecnología denominada ADSL (Asymmetric Digital Subscriber Loop) que se verá más adelante. El ruido tiene diversas causas. Por un lado esta el ruido térmico, que es inevitable pues es intrínseco a la señal transmitida. También puede haber interferencia producida por otros pares de hilos telefónicos próximos (conocida como cruce de líneas o crosstalk). Finalmente hay interferencia debida a fenómenos eléctricos próximos (motores, rayos, etc.). Debido a estos problemas no es deseable tener un gran rango de frecuencias en la señal. Por desgracia las ondas cuadradas de la señalización digital tienen un espectro grande. Por lo tanto los módems transmiten un portador de onda sinuosidal y modulan la amplitud, la frecuencia, o la fase. La utilización de módems suele presentar problema en ocasiones debido a la presencia de unos dispositivos denominados supresores de eco. Siempre que una señal eléctrica se transmite por una unión (empalme, conector, etc.) una parte de la señal original es reflejada hacia atrás (de forma similar a lo que ocurre cuando enfocamos el haz de una linterna hacia el cristal de una ventana); esta pequeña señal es recogida por los amplificadores y llevada hasta su origen, donde puede llegar a ser audible. Si el retraso con que llega la señal reflejada es mayor de 65 milisegundos ésta se percibe como un eco claramente diferenciado de la señal original, y entre 20 y 65 ms de retardo produce un sonido que confunde a la persona que habla; por debajo de 20 ms el efecto no es perceptible. Cuando el punto donde se produce la reflexión está a menos de 2.000 Km del origen la señal llega a la persona que habla con un retraso menor de 20 ms, con lo que no hay problema de eco. Para evitarlo en conexiones de distancia superior a los 2.000 Km se han desarrollado unos dispositivos denominados supresores de eco, que actúan a modo de válvulas forzando una comunicación half dúplex por la línea; los supresores de eco son capaces de invertir su sentido de funcionamiento en unos 2 a 5 milisegundos cuando cambia la persona que habla. Los supresores de eco resultan nefastos para los módems, ya que impiden la comunicación full dúplex y además introducen un retardo a veces apreciable en el cambio de sentido de la comunicación. Existen dos soluciones a este problema: una es convenir el uso de una señal concreta (por ejemplo a veces se utiliza un tono de 2.100 Hz) para indicar que la comunicación es de datos, con lo que los supresores de eco se inhabilitan; la otra es utilizar canceladores de eco, que en vez de actuar como válvulas que cierran el paso en un sentido actúan restando de la onda en sentido inverso la señal que corresponde al eco (de forma análoga a como actúan algunos auriculares para suprimir el ruido de fondo). El problema del eco sólo se da de forma importante en países grandes como Estados Unidos, en Europa ningún país tiene distancias de 2.000 Km, por lo que no se utilizan supresores de eco. Los módems modulan la onda portadora en amplitud, frecuencia y fase, para intentar 'meter' en ella la información digital de la mejor manera posible. El teorema de Nyquist nos dice que es imposible meter más de 6200 baudios en una línea de 3,1 KHz; esto es un límite teórico, pero la realidad suele ser bastante peor; en la práctica la mayoría de los módems funcionan a 2400 baudios; la siguiente tabla resume la situación en los estándares más habituales: Estándar ITU-T V.21 V.22 V.22 BIS V.32 V.32 BIS V.34 V.34+

Velocidad (Kbps)

Baudios

0,3 300 1,2/0,6 1200/600 2,4/1,2 2400/1200 9,6/4,8 2400 14,4/12/9.6/7,2/4.8 2400 28,8/26,4/24/21,6/19,2/16, 3429 8/14,4/12/9,6/7,2/4,8/2,4 33,6/31,2/28,8/26.4/24/ 3.429 21,6/19,2/16,8/14,4/ 12/9,6/7,2/4,8/2,4

Bps/Baudio

Fecha aprobación

1 1 1 4/2 6/5/4/3/2 9,9 a 28,8 (8,4 efectivos)

1984 1984 1991

10,7 a 33,6 (9,8 efectivos)

1994 1995

Principales estándares de módems para transmisión por líneas conmutadas.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 0 5 10 05 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

El número de bits que se transmite por baudio está fijado por el número de estados o símbolos, cada estado es una combinación diferente de la frecuencia, amplitud y fase de la onda portadora. El conjunto de todos los símbolos se denomina la “constelación” del módem. Hasta la norma V.32bis el número de símbolos era una potencia entera de 2 (64 en la V.32bis), en la norma V.34 funcionando a 33,6 Kbps hay 1664 símbolos que se manejan como si fueran 891, ya que algunos símbolos diferentes representan la misma secuencia de bits y se utiliza uno u otro dependiendo de las condiciones de la línea. Es curioso observar como justo a partir de 1991, fecha en que empiezan a aparecer las redes RDSI que permiten transmitir datos a 64 Kbps, se producen considerables avances en las técnicas de transmisión por red analógica después de haber estado estancadas durante bastantes años. Existe otro conjunto de estándares que especifican las características que deben tener los módems utilizados en líneas dedicadas. Las velocidades de 28,8 Kbps y superiores son difíciles de conseguir en la práctica, ya que el más mínimo defecto en la línea impide su funcionamiento. Por esto el estándar V.34 prevé tantas velocidades; de esa manera los módems pueden establecer en cada caso la velocidad máxima posible de acuerdo con las condiciones de la línea. Puede ocurrir además que la calidad no sea igual en ambos sentidos, en cuyo caso los módems podrán establecer velocidades asimétricas, cada una ajustada lo más posible a las condiciones. Incluso durante una sesión los módems monitorizan la tasa de errores, y puede haber un cambio de velocidad “sobre la marcha” hacia arriba o hacia abajo si la situación lo requiere (fenómeno conocido como “retraining”). La mayoría de los módems actuales incluyen compresión y corrección de errores, lo cual es muy interesante pues evitan que lo tenga que incorporar el software de comunicaciones. Los protocolos estándar para esto son el V.42 (corrección de errores) y el V.42bis (compresión), y se utilizan siempre conjuntamente. El V.42bis utiliza el algoritmo de compresión conocido como Lempel-Ziv (de sus inventores) que se emplea en muchos programas de compresión. Es bastante eficiente y consigue ratios de compresión que pueden llegar a ser 4:1. Existen otros protocolos de corrección de errores y compresión no estándar que están bastante extendidos, como la serie de protocolos MNP (Microcom Networking Protocol). Según la ley de Shannon-Hartley la velocidad de 33,6 a la que llega el estándar V.34 se encuentra en el límite de lo posible en una conexión telefónica analógica. Algunos fabricantes han sacado al mercado módems que permiten conexiones asimétricas de 56/33,6 Kbps (56 en sentido “descendente”, proveedor / usuario y 33,6 en sentido “ascendente” usuario / proveedor) siempre y cuando el proveedor esté conectado a RDSI y no se produzca más de una conversión digital / analógica en el camino hacia el usuario. Esta es una tecnología muy reciente (de 1997) y actualmente existen en el mercado dos sistemas diferentes e incompatibles entre sí que ofrecen esta velocidad: la denominada X2 de U.S. Robotics y la K56Flex de Rockwell y otros. La ITU-T está elaborando un estándar para esta velocidad, la V.90, que se espera que todos los productos la conformen hacia finales de 1999. Recientemente han aparecido en el mercado una serie de tecnologías orientadas a obtener el máximo rendimiento posible del par de hilos de cobre que une al abonado con su central telefónica, ofreciendo al usuario la posibilidad de transmitir datos a velocidades del orden de megabits por segundo. Con esto se pretende competir con el servicio que algunas redes de televisión por cable están ofreciendo a los usuarios particulares desde hace ya varios años, y por el cual pueden disfrutar de conexiones de datos de alta velocidad a precios asequibles. La más conocida de esas tecnologías es la denominada ADSL (Asymmetric Digital Subscriber Loop); como su nombre indica ADSL ofrece capacidad asimétrica, mayor en el sentido red / usuario que en el sentido inverso. La capacidad máxima de ADSL depende de la distancia del usuario a la central telefónica, pudiendo llegar a 8 Mbps en sentido descendente y 640 Kbps en sentido ascendente, si la distancia no supera los 3 Km. A la distancia de 6 Km, máxima prevista para ADSL, la capacidad descendente es de 1-1,5 Mbps y la ascendente de 64-80 Kbps. La transmisión de los datos en ADSL se realiza de forma analógica utilizando frecuencias superiores a la normalmente utilizada por la comunicación telefónica analógica; concretamente se emplea la banda 30-138 KHz para el canal ascendente y 138-1104 KHz para el descendente (de esta forma el uso de ADSL es compatible con la telefonía convencional). El principal inconveniente de manejar un rango tan amplio de frecuencias es el comportamiento no lineal del medio de transmisión (por ejemplo la atenuación será mucho mayor a 1100 KHz que a 30 KHz). Para evitar este problema y aprovechar eficientemente un rango tan amplio de frecuencias ADSL utiliza una técnica conocida como DMT (Discrete Multi Tone),que consiste en dividir el rango en multitud de canales estrechos (de 4,3 KHz cada uno) y manejar cada canal de forma independiente; los módems ADSL comunican entre si por estos canales y reparten el tráfico por todos ellos de forma equilibrada. Podemos considerar un módem ADSL como una gran batería de módems convencionales puestos en paralelo sobre líneas físicas diferentes. El hecho de utilizar canales estrechos asegura un comportamiento lineal en cuanto a atenuaciones y distorsiones dentro de cada canal, y permite a los módems ADSL ajustar la transmisión dentro de cada canal a sus características específicas; por ejemplo, si detecta que un determinado canal tiene mas ruido que el resto transmitirá por el con una menor velocidad, o incluso puede llegar a anularlo si detecta una interferencia precisamente en esa gama de frecuencias. La asimetría se consigue dedicando muchos mas canales en el sentido descendente (unos 224) que en el ascendente (unos 25). La cantidad de tareas que han de desempeñar los módems ADSL requiere de procesadores muy potentes. Generalmente los módems ADSL son externos y se conectan al ordenador a través de una interfaz ethernet de 10 Mbps o ATM de 25 Mbps. Para distancias menores de 3 Km se están experimentando otros sistemas de transmisión que permiten obtener capacidades aun mayores, entre los que podemos mencionar por ejemplo HDSL (High data rate Digital T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 0 6 10 06 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

Subscriber Loop) y VDSL (Very high data rate Digital Subscriber Loop), que llegan a velocidades de 55 Mbps para distancias de 1 Km o menores; en general cuanto menor es la distancia mayor es la velocidad. A menudo se utiliza la denominación genérica xDSL para referirse de manera conjunta a todas estas tecnologías que pretenden extraer el máximo rendimiento del par de hilos de cobre tradicional aprovechando la proximidad de la central telefónica. De todas las tecnologías xDSL ADSL es con diferencia la mas madura. Ha sido aprobado ya como un estándar por el ANSI y el ETSI. Existen ya varias compañías telefónicas en el mundo que ofrecen servicios comerciales ADSL.

55.. G O R E D E A N C H O D E B A N D A GEEESSSTTTO OR RE ESSS D DE EA AN NC CH HO OD DE EB BA AN ND DA A 5.1. Introducción a los multiplexores Para realizar una transmisión de datos entre dos puntos, se ha de disponer de un enlace que permita el intercambio de información; normalmente consiste en un circuito telefónico y una pareja de módem. El máximo rendimiento del enlace establecido, no sólo aprovechando al máximo su capacidad, sino utilizándolo para realizar simultáneamente varias comunicaciones independientes, se consigue mediante el empleo de multiplexores. Esto fue y es uno de los principales objetivos de todas las compañías telefónicas: agrupar el mayor número posible de conversaciones telefónicas en las líneas troncales (entre centrales). La técnica de multiplexación consiste en compartir el canal físico de comunicaciones por varios circuitos lógicos, consiguiendo así reducir el coste de líneas y de módem, aumentando su utilización, siendo imprescindible su transparencia para que no se vea alterada la información transmitida. Básicamente, existen dos técnicas bien diferenciadas (figuras 6.1 y 6.2), que son: Multiplexado por División en Frecuencia (FDM): esta técnica, de tipo analógico, se desarrolló con anterioridad a la otra (a principios de los años 60), encontrando su campo de aplicación y una amplia difusión dentro de la telefonía y la radio, aunque poco a poco va cediendo terreno al multiplexado por división en el tiempo, que emplea una tecnología digital. Las características básicas de esta multiplexación pueden resumirse en los siguientes puntos: o Se divide el ancho de banda en canales consecutivos. o La anchura de banda de cada subcanal es directamente proporcional a la velocidad. o La capacidad del canal está limitada por el ancho de banda. o Empleo de bandas de guarda para evitar interferencias entre subcanales. Se hace multiplexación por división de frecuencias por ejemplo en la banda de radiodifusión de onda media de AM, que tiene una anchura de 1,080 KHz (522 KHz- 1.602 KHz); cada emisora ocupa un canal de 9 KHz (4,5 a cada lado de su frecuencia de referencia), por lo que se pueden acomodar hasta 120 emisoras. La multiplexación por división de frecuencias se hace asignando a cada canal telefónico de 3,1 KHz un ancho de banda de 4 KHz, con lo que dispone de un margen de 450 Hz de separación de otros canales, reduciendo así la interferencia con canales contiguos. Es bastante normal agrupar los canales de doce en doce formando lo que se conoce como un grupo, que ocupa 48 KHz y que se suele transmitir en la banda de 60 a 108 KHz (a veces se transmite otro grupo entre 12 y 60 KHz). Algunas compañías telefónicas ofrecen servicios de 48 a 56 Kbps utilizando las bandas de estos grupos. Cinco grupos (60 canales) pueden unirse para formar un supergrupo (240 KHz), y a su vez cinco supergrupos pueden unirse para formar un grupo maestro. Existen estándares que llegan a agrupar hasta 230.000 canales (920 MHz). Multiplexado por División en el Tiempo (TDM): su característica básica, es que emplea una técnica digital, y sólo por esta razón cabe pensar que es adecuada para usarse en transmisión de datos entre ordenadores y terminales, que se comunican mediante el envío de datos binarios (bits). Sus características básicas son: o División del tiempo en intervalos. o Muestreo secuencial de las líneas. o Tiempos de guarda para evitar interferencias. o Recomposición de señales en el extremo remoto. o Necesidad del empleo de módem o adaptadores de terminal. Entonces mientras FDM se usa normalmente cuando las señales son analógicas, las compañías telefónicas usan TDM para transmitir voz en forma digital dada la relativa facilidad con que se pueden multiplexar canales digitales de voz mediante esta técnica. Atendiendo al tipo de protocolo utilizado en la transmisión podemos hacer la distinción entre síncronos y asíncronos, y dependiendo del tipo de muestreo que realicen en TDM de bits o TDM de caracteres. Multiplexación Estadística (STDM): es un caso particular de la multiplexación TDM, consiste en no asignar intervalos de tiempo fijos a cada canal (rígidamente), sino en hacerlo en función del tráfico existente en cada momento en cada uno de ellos (inteligentemente), según se muestra en la figura 6.3. Sus características son: T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 0 7 10 07 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

o Tramos de longitud variable. o Muestreo de líneas en función de su actividad. o Intercala caracteres en los espacios vacíos. o Fuerte sincronización. o Control inteligente de la transmisión. La principal ventaja derivada del uso de multiplexores estadísticos radica en el hecho de poder realizar una óptima utilización del enlace, ya que la asignación de tiempos a cada línea no es fija, sino que se hace en función de su actividad, pudiéndose así asignar los recursos disponibles, es decir la capacidad en bps de la línea de enlace, de la mejor forma posible. En un multiplexor TDM a cada línea se le asigna una cierta velocidad, y por tanto, una cierta ocupación del canal de enlace fija, independiente de que esté en servicio o no; este hecho nos impone una gran limitación, que no se da en los STDM, ya que en un principio a cada canal se le puede asignar la velocidad máxima, y sólo habrá que tener en cuenta los porcentajes medios de utilización para no sobrepasar el límite del canal de enlace. Multiplexación por División de Longitud de Onda: al hablar de fibras ópticas se mencionó a WDM (Wavelength Division Multiplexing). En realidad WDM es una forma de FDM con la única peculiaridad de que se trata de frecuencias mucho mayores, y de que al tratarse de luz y fibras en vez de ondas radioeléctricas los equipos multiplexores son ópticos y no tienen alimentación eléctrica. Ya que cada canal en una fibra no puede tener un ancho de más de unos gigahertz (debido a la velocidad máxima de convertir entre señales ópticas y eléctricas), es una buena manera de usar el ancho de banda de cerca 25.000 GHz de una fibra. En este caso los canales entrantes deben tener frecuencias distintas y se combinan con un prisma. Esta es una técnica nueva aún no muy extendida; actualmente se utiliza para transportar dos canales en fibras de muy largo alcance (trasatlánticas, por ejemplo). Debido a la gran frecuencia de las señales transmitidas por fibras ópticas hay muchas esperanzas de que la WDM aumente aún más su capacidad de transmisión. Los multiplexores, que son inteligentes, poseen un buffer a la entrada de cada línea, en donde se almacenan temporalmente los datos verídicos, realizándose la regulación del flujo mediante procedimientos de control tales como XON/XOFF o RTS/CTS. Su propia inteligencia les permite el control y recuperación de errores, pidiendo la retransmisión en caso de ser necesario. 5.1.2. Digitalización y jerarquía de multiplexación Por el teorema de Nyquist se sabe que para digitalizar la voz se ha de capturar toda la información de una señal de H Hertz con una frecuencia de muestras de 2H (una frecuencia de al menos el doble del ancho de banda que se desea capturar). En la práctica se utilizan 8 KHz, que corresponden a los 4 KHz de un canal telefónico (3,1 KHz útiles mas 450 Hz de margen a cada lado). Como consecuencia de esto en todo sistema telefónico del mundo las cosas ocurren en múltiplos o “latidos” de 125 microsegundos. Un sol códec que convierte la señal analógica en digital produce para cada muestra un número de 7 bits de datos y 1 bit de control. Por tanto hay 7x8000 = 56000 bps de datos por canal, y 8000 bps de control = 64000 bps o 64 K. Esta técnica se denomina PCM (Pulse Code Modulation). En el sistema de multiplexación por división de tiempos utilizado en América del Norte y Japón el códec recibe 24 conversaciones simultáneas o canales de voz y muestrea cada canal 8.000 veces por segundo; cada muestra está formada por ocho bits, con lo que el códec genera cada 125 mseg. una trama formada por 193 bits ( 24 x 8 = 192 bits más un bit de señalización que alterna entre 0 y 1), lo cual da una velocidad de línea de 1,544 Mbps. Este tipo de línea se conoce como línea T1. Una línea T2 (6,312 Mbps) consiste en 4 canales T1, un T3 (44,736 Mbps) de 6 T2, y un T4 (274,176 Mbps) de 7 T3. Cada uno agrega bits de control y de marco. En el resto del mundo se suele utilizar una agrupación distinta, poniendo 30 canales de voz más dos de señalización, con lo que se genera una trama de 256 bits cada 125 mseg, lo cual da una línea de 2,048 Mbps (256 x 8.000 = 2.048.000) que denominamos línea E1. Del mismo modo que en FDM existían grupos de jerarquía superior (supergrupos y grupos maestros) en TDM existen también niveles superiores. Por ejemplo cuatro líneas E1 forman una línea E2 (8,848 Mbps). A su vez cuatro líneas E2 forman una línea E3 (34,304 Mbps), y así sucesivamente. La jerarquía sigue hasta llegar a velocidades de más de 500 Mbps. Cuando se multiplexan varias líneas E1 cada una lleva su propia señalización de sincronismo, que puede no coincidir exactamente con la de las demás. Por este motivo la jerarquía formada con este tipo de líneas se denomina Jerarquía Digital Plesiócrona, JDP o PDH (Plesiochronous Digital Hierarchy); plesio es un prefijo que en griego significa próximo. Del mismo modo que no hay acuerdo entre America, Japón y Europa respecto al primer nivel de la PDH, tampoco lo hay respecto a los siguientes, como puede apreciarse en la siguiente tabla:

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 0 8 10 08 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N Velocidad (Mbps) Nivel jerárquico 0 1 1 1 2 2 3 3 3 3 4 4 4 5

Número de canales 1 24 30 48 96 120 480 672 1344 1440 1920 4032 5760 7680

Nombre Circuito Norteamérica DS0 o E0 T1 o DS1 E1 DS1C T2 o DS2 E2 E3 T3 o DS3

Japón

Europa

0,064 1,544

0,064 1,544

0,064

3,152 6,312

3,152 6,312

2,048

32,062

8,448 34,368

44,736 91,053 97,728

E4 T4 o DS4

139,264 274,176 397,200

E5

565,148

Niveles y velocidades de la jerarquía PDH en los distintos países. En negrita aparecen las velocidades que se utilizan comúnmente en transmisión de datos.

Conocida la velocidad de una línea es posible calcular el tamaño de trama dividiéndola por 8.000 (recordar que la frecuencia de muestreo en todo el mundo es de 8 KHz); por ejemplo, una trama E2 tiene un tamaño de 1.056 bits. La trama correspondiente a cada nivel se construye multiplexando a su vez tramas del nivel anterior; así por ejemplo, la trama E2 (120 canales) esta formada por cuatro E1 (30 canales). Cada nivel añade bits de sincronismo adicionales al construir su trama, por ejemplo, una trama E2 está formada por cuatro tramas E1 de 256 bits cada una más 32 bits adicionales. A menudo cuando se solicita a una compañía telefónica una línea dedicada para la transmisión de datos ésta ofrece como posibilidades las velocidades de la PDH, ya que son las que de forma natural soportan sus equipos, lo cual simplifica la constitución del enlace y optimiza los recursos utilizados. Las velocidades que se suelen utilizar con más frecuencia para la transmisión de datos son la de 64 Kbps y los niveles 1 y 3 de la jerarquía (T1 y T3 en América, E1 y E3 en Europa); dado que hay un salto considerable entre 64 Kbps y T1 o E1, y una demanda grande de velocidades intermedias, muchas compañías telefónicas ofrecen servicios intermedios, denominados n x 64. Cuando la compañía telefónica facilita una línea PDH T1, E1 o superior, para transmisión de datos la estructura de la trama la define el propio usuario, es decir, el usuario o programa de comunicaciones dispone de toda la trama sin tener que respetar la estructura que normalmente tiene una trama PDH al transmitir voz. Así por ejemplo una trama E1 tiene normalmente 240 bits útiles y 16 de señalización, pero al utilizar una línea E1 para transmitir datos los 256 bits de la trama estarán disponibles para el protocolo al nivel de enlace de los equipos. Esto es lo que la compañía telefónica denomina una trama o un enlace no estructurado. Aunque la PDH contempla velocidades muy elevadas, en redes de ordenadores nunca se utilizan las superiores a 34 Mbps (en Europa) y 44 Mbps (en Norteamérica); para velocidades más elevadas se recurre a una jerarquía superior denominada Jerarquía Digital Síncrona (SDH, Synchronous Digital Herarchy), la cual se verá en el capítulo de SONET/SDH. 5.1.3. Multiplexores T1/E1 Este tipo de equipos, de uso bastante común en Estados Unidos para la constitución de redes troncales (backbone) y no tanto en Europa, son multiplexores TDM estadísticos, dotados de inteligencia suficiente para proporcionar una serie de funciones adicionales. Teniendo en consideración que una red constituida por este tipo de multiplexores, mostrada en la figura, se asemeja bastante a las constituidas por líneas punto-a-punto, muchas de sus características serán semejantes. Al no existir “conmutación de red”, el número de puertas que se necesitan es exactamente el mismo que si se utilizasen líneas punto-a-punto (una por cada dispositivo asociado: FEP, nodo X.25, PABX, etc.), pero la diferencia radica en que en este caso sí se da el establecimiento de rutas alternativas, lo que aumenta la seguridad o permite el desbordamiento de tráfico en caso de congestión. Las llamadas se establecen de forma rápida y las velocidades que se soportan son altas, típicamente 1,544 Mbps (según la norma AT&T T 1.5 service) en el caso de los T1 y 2,048 Mbps (norma G.734 del CCITT) en los E1, pudiendo llegar a varias decenas de Mbps (en la figura 6.5 se muestran las jerarquías digitales plesiócronas actuales en Europa, Japón y Estados Unidos). Son transparente a los protocolos y permiten la simultaneidad de tráfico de voz, datos, vídeo, etc., lo que los hace muy adecuados para la constitución de redes backbone corporativas. T G T FFIIIN A G R D O N A D Ó N O N Á D O N 1 TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL 1 0 9 10 09 9


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

Por ejemplo, hasta un total de 24 canales vocales pueden multiplexarse temporalmente sobre un enlace T1. Cada señal digital consiste en una serie de muestra codificadas con 8 bits; el conjunto forma una trama de 8 x 24 = 192 bits, a la que se le añade un bit extra de sincronización (éste cambia su estado de ON a OFF cada trama) para facilitar la recuperación. Este tipo de multiplexores asigna ancho de banda bajo demanda, lo que lo hace muy efectivo para el tratamiento de tráfico a ráfagas, por lo que también se denomina GRT (Gestor de Recursos de Transmisión) o TRM (Transmission Resource Manager). Un gestor de ancho de banda o GRT es un equipo capaz de soportar, administrar y optimizar la utilización de los medios de transmisión digitales de las redes de telecomunicaciones empresariales (dedicadas o virtuales), tanto nacionales como internacionales. EL GRT proporciona una sofisticada funcionalidad de red, cuya flexibilidad y facilidades de control hacen posible la disponibilidad permanente de las aplicaciones, así como importantes ahorros en el coste de las comunicaciones. Los gestores de recursos de transmisión realizan todas las funciones (multiplexación, encaminamiento, conmutación y gestión integral de la red) necesarias para constituir redes altamente fiables para la transmisión de voz, datos e imágenes, aportando, por tanto, las facilidades de interconexión entre los elementos que constituyen la red corporativa. Son, para decirlo de una manera sencilla, los encargados de proporcionar y asegurar en todo momento la conexión extremo a extremo entre los terminales de datos, centralitas telefónicas o cualquier otro elemento que integre la red. Asimismo, posibilitan que los medios de transmisión se compartan entre todas las aplicaciones que los demanden. Desde el punto de vista formal, se puede podemos apreciar como estos equipos soportan la capa 1 del modelo OSI, dotándola de inteligencia suficiente para su gestión, brindando por ello diferentes prestaciones, entre las que encuentran encaminamientos dinámicos en función del estado de los enlaces, asignación del ancho de banda por demanda, reconexión automática en caso de caída de enlaces y la compresión de voz, entre otras. Jerarquías digitales plesiócronas actuales en Europa, Japón y Estados Unidos

5.2. Inteligencia distribuida y control de red Cada nodo dispone internamente de información de la topología de la red, esto es, del estado de los nodos y enlaces entre ellos que mantiene y actualiza en tiempo real. Los equipos utilizan esta información para realizar un rápido y eficiente encaminamiento de las comunicaciones. Mediante la inteligencia y control de red distribuido cada nodo es capaz de funcionar con total independencia, impidiendo la aparición de puntos críticos en la red, obteniendo un rendimiento óptimo en el encaminamiento de las llamadas. Su modo de operación, dependiendo del fabricante, puede eliminar la necesidad de disponer de un centro de gestión para el control de las comunicaciones, siendo éstas, en este caso, gestionadas autónomamente por los nodos de la red.

5.3. Encaminamiento inteligente Los nodos GRT poseen funciones de encaminamiento inteligente basadas en algoritmos de encaminamiento dinámico que determinan dinámicamente el camino óptimo entre los usuarios implicados en la comunicación, cada vez que ésta se establece. Además, las facilidades de gestión de los equipos permiten parametrizar los encaminamientos con el fin de ajustarlos a las diferentes clases de llamadas que puede cursar la red. La asignación de llamadas a los usuarios y sus prioridades implícitas determinan qué comunicaciones son encaminadas en primer lugar y cuales son prioritarias sobre otras. La elección de la ruta se efectúa en tiempo real mediante el análisis de parámetros, tales como niveles de prioridad de llamadas, atributos de encaminamiento, topología de la red y recursos disponibles en cada momento. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 1 0 11 10 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

Los nodos permiten que el operador de la red controle los parámetros anteriores estableciendo sus propios criterios, incluso asignando rutas “preferenciales” o “costes” de esas rutas (para optimizar el uso de medios terrestres antes de utilizar, por ejemplo, enlaces vía satélite). 5.3.1. Encaminamiento alternativo automático Las facilidades de gestión incluyen el reencaminamiento automático de las comunicaciones en caso de “caída” de elementos de la red (nodos o enlaces), con lo que las aplicaciones más críticas no se ven afectadas por los fallos en la red (figura). La topología de la red se halla referenciada en cada nodo de la red y se actualiza de manera dinámica cada vez que las condiciones varían. Ante cualquier problema de disponibilidad de enlaces o nodos, la red automáticamente reencamina las llamadas lo que permite recuperar las conversaciones telefónicas que se estén produciendo y mantener las sesiones de datos antes de la expiración de los temporizadores.

5.4. Asignación dinámica del ancho de banda El ancho de banda de los enlaces dedicados entre nodos se asigna dinámicamente en base a los requerimientos de las llamadas (figura). El nodo utiliza dinámicamente sólo el ancho de banda que necesita para las llamadas de voz, datos o vídeo que tiene establecidas en cada momento, transportándose información de la utilización del ancho de banda usado en cada tramo de la red por la señalización interna por canal común. El ancho de banda de los enlaces entre nodos se utiliza de forma libre, de manera que, por ejemplo, varias comunicaciones (de voz o de datos) de velocidades menores a 64 Kbps comparten el mismo canal de 64 Kbps hasta el completo “llenado” de éste. El establecimiento de las comunicaciones se puede realizar de manera automática (mediante el descolgado de un teléfono en comunicaciones vocales o la activación de un circuito del interfaz de datos) o bien de forma manual por el operador de red llegando, incluso, a reservar un determinado ancho de banda en un día y hora establecido (por ejemplo, para una videoconferencia). En este caso, el sistema irá reservando el ancho de banda necesario, no aceptando nuevas llamadas o liberando las existentes de menor prioridad, si fuese necesario. En caso de disponer de ancho de banda y en función de las prioridades de las llamadas, así como de las comunicaciones que estén siendo cursadas en ese momento por la red, los equipos GRT procederán a su establecimiento con la PABX de destino o al rechazo de la llamada. Los canales de voz pueden ser comprimidos en diferentes rangos mediante los módulos de compresión de voz. En el caso de Señalización Digital por Canal Común (CCS), el ancho de banda para las comunicaciones entre PABX deberá ser reservado teniendo en cuenta la necesidad de tratar la señalización entre PABX (64 Kbps) de una manera transparente. El resto de canales de voz, al igual que en el caso anterior, podrán comprimirse si se requiere, a través de los módulos de compresión de voz.

66.. C O N M U T A C Ó N CEEENNNTTTRRRAAALLLEEESSS PPPRRRIIIVVVAAADDDAAASSS DDDEEECCCO PA ABBX X)) ON NM MU UT TA AC CIIIÓ ÓN N ((P 6.1.1. Introducción El sistema más simple de compartir una o más líneas telefónicas entre varios usuarios localizados en el mismo entorno, atendiendo las llamadas entrantes y realizando llamadas salientes o internas, es mediante el empleo de un equipo multilínea de teclado (KTS, Key Telephone System), cualquiera de los usuarios, con sólo pulsar una T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 1 1 11 11 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

tecla tiene acceso a una línea de salida o puede capturar una llamada entrante. Sus inconvenientes son varios, entre ellos su escasa capacidad, que permite manejar no más de unas 50 extensiones y unos 20 enlaces, por lo que su aplicación en las empresas se ve cada día más limitada, siendo reemplazados por otras centralitas mucho más potentes y flexibles. Las Centrales Privadas Automáticas de Conmutación para aplicaciones telefónicas, denominadas generalmente PABX (Private Automatic Branch Exchange), son equipos que tienen control por programa almacenado (SPC, Stored Program Control) y proporcionan funciones de conmutación para los usuarios a ellas conectados. Las PABX permiten al usuario conmutar sus llamadas internas sin tener que acceder a la red pública de conmutación. Estas centrales soportan fundamentalmente los servicios vocales con todos sus servicios suplementarios asociados, aunque las nuevas generaciones también pueden soportar los servicios de comunicaciones de datos (la figura muestra un caso general). Los nuevos sistemas digitales soportan una amplia y variada gama de servicios, además del propio telefónico

En la evolución de las centrales PABX se aprecian varias generaciones, siendo progresiva la implantación de nuevas y mayores facilidades según evolucionan en el tiempo y en tecnología. Muchas de las modernas facilidades encontradas hoy en día en las PABX son el resultado del desarrollo de la técnica SPC, originalmente desarrollada para las centrales públicas e implantadas progresivamente en estas PABX por los distintos fabricantes de conmutadores (AT&T, Ericsson, NEC, Philips, Siemens, etc.). Las PABX pueden ser analógicas o digitales, siendo estas últimas las que se están imponiendo en el mercado gracias a sus mayores prestaciones y menor coste. Las PABX son similares a las centrales públicas, excepto en que normalmente no incluyen muchas de las funciones operacionales y administrativas, como por ejemplo las protecciones de línea o la redundancia de sus elementos. 6.1.2. Generaciones de PABX Puede considerarse que existen cinco generaciones de centrales de abonado PABX como consecuencia de la rápida evolución que la tecnología ha experimentado en este campo (la Figura 8.4 muestra las características más significativas). Inicialmente, las PABX trataban sólo tráfico de voz pero actualmente ya permiten integrar la voz, con los datos dentro del mismo entorno, como las centrales PABX de Servicios Integrados (ISPABX, Integrated Services PABX), adecuadas para RDSI. Desde que comenzaron a implantarse las centrales privadas de conmutación, allá por los años 20, hasta finales de los 60, las PABX se caracterizaron por su estructura de conmutación analógica. En los años 20 las líneas PABX y los enlaces terminaban en mesas de interconexión en la cual una operador realizaba las conexiones manualmente. La siguiente mejora se implantó durante los años 30 y consistió en la posibilidad de realizar marcaciones desde los teléfonos de los usuarios, empleando conmutadores con tecnología paso a paso (strowger). Ya durante los años 50 y 60 se cambió esta tecnología por la de barras cruzadas (crossbar), con el empleo masivo de relés. Generaciones de PABX y sus características más significativas, atendiendo a su modo de funcionamiento

La segunda generación comenzó en los años 70, con la introducción de software (SPC) para controlar los procesos de las llamadas, manteniendo los T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 1 2 11 12 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

conmutadores analógicos hasta 1975, en que aparecen los conmutadores digitales. Esta generación se caracterizaba porque sus parámetros de diseño permitían unos niveles bajos de tráfico con capacidades de transporte de datos muy primitivas, empleando técnicas de submultiplexación, duplicación de puertas, etc. La tercera generación comenzó a principios de los 80, con la principal característica de que podía transportar tráfico de voz y datos sin bloqueo. Los terminales de datos se podían conectar directamente al conmutador sin tener que pasar por módem como en la generación anterior, aunque se necesitaba de un equipo adaptador, como la TAU. Se comenzaron a emplear circuitos integrados VLSI (Very Large Scale Integration) lo que permitió una reducción de costes, lo que junto a las facilidades añadidas tales como gestión de la tarifación o de la selección automática de rutas permitieron una rápida introducción en el mercado. La cuarta generación comienza su implantación recientemente y trata de solucionar las necesidades de un tráfico de datos cada vez más caracterizado por su variabilidad a la hora de usar ancho de banda. Para ello se introducen técnicas de gestión dinámica del ancho de banda o ancho de banda bajo demanda, que permite a un usuario de datos asignar el ancho de banda que necesite su aplicación. Posibles soluciones pasan por una integración o cooperación con las redes de área local. Esta generación puede también denominarse como centrales totalmente RDSI o ISPABX. La quinta generación; que empieza a aparecer, puede considerarse aquélla que permite el empleo de sistemas de radio micro celulares, lo que da a los usuarios la posibilidad de moverse por el área de cobertura de las estaciones base conectadas a la PABX. Los usuarios tienen acceso por lo tanto a todo tipo de servicios, tanto de voz como de datos, así como movilidad. Los siguientes pasos nos lleva a centrales PABX que permitan una integración de los servicios reseñados anteriormente con los que requieren un mayor ancho de banda, principalmente imágenes. Para ello será necesario una completa revolución tecnológica llegándose a utilizar técnicas ATM similares a las diseñadas para redes públicas, pero optimizadas y adaptadas a los usuarios de negocios y a las nuevas aplicaciones multimedia. 6.1.3. Estructura de las PABX Los principales componentes de la arquitectura de un sistema de conmutación PABX digital se reflejan en la figura. El empleo de técnicas SPC ha hecho que el software sea tan importante o más que el hardware, por lo que una división del sistema puede ser: a) Hardware para conectar a los usuarios y conmutar las llamadas. b) Software para controlar el hardware y dar a los usuarios las facilidades y servicios deseados. 1.

2.

Los elementos básicos que forman parte del hardware y software de una PABX son: La matriz de conmutación: esta matriz es actualmente totalmente digital debido a sus ventajas en comparación con la conmutación analógica. Se emplean técnicas de modulación por impulsos codificados PCM mediante codificación por ley A (en Europa) o ley µ (en Estados Unidos) según los estándares del CCITT. Para desarrollar esta matriz se emplean principalmente dos técnicas distintas: Por puertas, en la que cada órgano se conecta a una puerta que tiene una capacidad de 64 Kbit/s, siendo por lo tanto la matriz un órgano centralizado con todos las interfaces cableados al conmutador. En bus, en los que cada órgano se conecta a un bus de división en el tiempo y que en el tiempo y bajo demanda los órganos accederán a él. Los procesadores de control: la disponibilidad del sistema para satisfacer los requisitos del usuario depende de la capacidad del procesador de control. Dependiendo de la cantidad de intentos de llamada en hora pico que se desee cursar (tráfico) pueden necesitarse procesadores más y más potentes, con un tamaño de memoria cada vez mayor. La puesta en práctica de este concepto se realiza de diferentes maneras por los distintos fabricantes. Soluciones distribuidas, en las que se realiza el control mediante el empleo de procesadores de menor potencia pero distribuidos en los diferentes módulos; esto implica una mayor complejidad del software pero al mismo tiempo proporciona una mayor fiabilidad, ya que la caída de uno de ellos no repercute en el sistema. Soluciones centralizadas, que implican el empleo de potentes procesadores cuando se requieren grandes sistemas, por lo que la escalabilidad (facilidad para crecer) del sistema es complicada. Normalmente, las centrales grandes requieren un procesador distinto al necesario cuando se trata de una central más pequeña; así, pues, si se necesita ampliar puede ser necesario el cambio de

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 1 3 11 13 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII 3.

4.

5.

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

procesador. Interfaces hardware: los usuarios se conectan al sistema vía unos interfaces que pueden ser tanto analógicas como digitales. Existen, por tanto, diferentes interfaces según el tipo de usuario o enlace que se desee conectar (interfaces a redes públicas, a equipos externos, a otras PABX, etc.) con su propio hardware específico para manejar su tipo de señalización. Órganos y servicios comunes: el empleo de tecnología digital y de microprocesadores afectó también a los órganos comunes de las PABX. La detección y generación de tonos se generan en forma digital y directa pudiendo ser reprogramados y adaptados rápidamente por software a las necesidades; también los emisores / receptores multifrecuencia de señalizaciones son digitales reduciendo su tamaño y mejorando su adaptación a los diferentes entornos. Software: este puede dividirse en siete partes principales: a) Exploración de las interfaces: procesadores especializados se dedican a detectar cambios en los estados de las interfaces de líneas, informando al procesamiento de llamadas. b) Cadencia y tonos: procesadores especializados se dedican a los órganos de generación de tonos y frecuencias, controlando su cadencia y características. c) Procesamiento de llamadas: es el corazón del sistema software. La mayoría de los sistemas se diseñan según el principio de estado / suceso, es decir, cada vez que ocurre un suceso se asigna a la llamada cambiándose por lo tanto el estado de la llamada. Esta estructura permite gran fortaleza en el diseño del software y pruebas muy efectivas, dado que el número de sucesos válidos en un determinado estado son finitos y los efectos de cualquier suceso en cualquier estado son determinísticos. d) Mantenimiento y pruebas: se encarga de la pruebas rutinarias, tanto de hardware como de software, y de las acciones necesarias para el mejor funcionamiento. e) Interface hombre / máquina: permite introducir / modificar datos del sistema para una mejor adaptación. f) Estadísticas y análisis: se generan informes sobre carga de procesador, estado de las interfaces, número de enlaces y tráfico, etc para su posterior análisis. g) Terminales: a través de un teléfono analógico (por pulsos, decádico, o por tonos, multifrecuencia), un teléfono digital (envía señales digitales, tanto para voz como para señalización, a 64 Kbps o con accesos ISDN, 2B+D) una computadora, un fax, etc se permite el acceso a los servicios de la central. En una PABX, al contrario de un KTS, es necesario el empleo de un terminal específico u operadora para la gestión de la central y de las comunicaciones.

6.1.4. Servicios y facilidades de las PABX La aplicación de los ordenadores en el control de las PABX permitió a éstas avanzar en el desarrollo e integración de nuevas facilidades y servicios. Dentro de este concepto se pueden dividir estas facilidades y servicios en tres grandes apartados: 1. Funciones o servicios integrados en la central: esto significa que el propio procesador de la PABX realiza el procesamiento de determinadas actividades no relacionadas con el tráfico telefónico y que permiten incrementar las características de la central. Las funciones más importantes que incluye son: o Distribución automática de llamadas (ACD, Automatic Call Distributor): se emplea para establecer comunicaciones de una persona con un servicio o grupo de soporte. o Conexión con computadoras: mediante un protocolo estándar, denominado CSTA (Computer Supported Telephony Applications) de la ECMA (Asociación Europea de Fabricantes de Ordenadores) se permite a las PABX comunicarse con una aplicación en computadora. Los nombres genéricos que recibe la integración PABX-computadora son SCA (Switch Computer Application) o CPI (Computer to PABX Integration). En la figura se observa una aplicación CPI para la atención masiva de llamadas. o Formación de redes: establece una red privada; es necesario tener el software apropiado. o Integración voz / datos: permite transportar en forma transparente tráfico de voz y de datos sobre la misma línea, realizándose mediante distintas técnicas, según sea el enlace analógico (se emplea una T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 1 4 11 14 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

2.

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

especie de módem o DOV, Data Over Voice, que reparte el rango de frecuencias del canal entre voz/datos) ó digital (se emplean técnicas de multiplexación temporal por un adaptador de terminal o TAU, Terminal Adapter Unit que maneja diferentes velocidades). Funciones y/o servicios asociados a la central: normalmente son equipos externos, que conectados a la central vía protocolos más o menos complejos y/o propietarios o abiertos, permiten determinadas facilidades que complementan el servicio ofrecido por la central. La decisión de que estos servicios se integren a los servicios integrados en la central (apartado anterior) depende de factores como ser: coste económico, viabilidad técnica, ámbito de aplicación, etc. Las funciones más importantes que incluye son: o Conmutadores de paquetes: para mejorar la integración de voz y datos, vista antes, se puede integrar un conmutador de paquetes que conjugue las ventajas de la conmutación de circuitos con la de paquetes, y que permitiría la conexión de terminales de modo paquete (X.25), así como la integración de terminales síncronos/asíncronos conectados directamente a la PABX. La conexión hacia el exterior, tanto hacia otros conmutadores de la red privada como de la red pública, se beneficia de la reducción de ancho de banda que necesita la conmutación de paquetes frente a la de circuitos. o Comunicación inalámbrica: permite el acceso de una terminal desde cualquier lugar de la empresa (depende de la cobertura de radio usada). La integración o conexión con la PABX incrementa esta funcionalidad al ser, a todos los efectos esos abonados móviles, como extensiones de la PABX. En la figura se ve un ejemplo de esto usando el estándar europeo DECT (Digital European Cordless Telecommunicactions) que permite comunicaciones inalámbricas en la banda de 1880-1900 MHz y transmisión MC/TDMA/TDD. o Sistemas de video telefonía: mediante la conexión de equipos individuales de video telefonía a la PABX se pueden establecer conexiones conmutadas punto a punto, con un ancho de banda desde 128 Kbps, usando facilidades de transmisión integradas a la PABX con posibilidad de conexión a ISDN o a medios de transmisión dedicados digitales. o Sistemas de videoconferencia: mediante una conexión con mayor ancho de banda (típicamente 6*64 Kbps o 2 Mbps) se pueden realizar videoconferencias a través de la PABX, a través de una conexión digital ISDN o a través de una red privada de comunicaciones. o Terminales multimedia: las nuevas tecnologías sumadas a la integración de voz y datos, junto con el ancho de banda disponible en redes digitales permite el soporte de terminales multimedia que conectadas a las PABX permiten establecer conexiones de voz, datos e imagen a través de la red digital. 3. Servicios suplementarios asociados al tráfico telefónico: permiten a los usuarios de la PABX poder acceder a determinadas prestaciones que mejoran la comunicación.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 1 5 11 15 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

6.1.5. Interconexión de centrales Las redes telefónicas públicas y privadas se configuran mediante el establecimiento de redes jerárquicas de sistemas de conmutación. Las redes públicas, habitualmente, están compuestas por “centrales locales” y “centrales de tránsito”, mientras que las redes privadas se basan en “centrales terminales PABX” y “centrales Tándem de tránsito”. Normalmente, estas últimas no existen individualmente, ya que integran también funciones terminales dando servicio a abonados y haciendo tránsito de red. El propósito de cualquier red es extender las funciones y servicios requeridos por los usuarios a todos los confines del entorno de los abonados. Para conseguir esto es necesario la interconexión de estas centrales, que componen la red, mediante sistemas de transmisión que físicamente soporten la unión y mediante sistemas de señalización que permitan el diálogo entre ellas. 6.1.6. Señalización De un modo general, puede definirse la señalización en una red de conmutación como el intercambio de información entre los elementos que constituyen la red, que permite obtener, para cada servicio integrado en dicha red, las funciones básicas de interconexión de usuarios y una serie de servicios o funciones suplementarias. La señalización es un proceso complejo, que históricamente ha ido adaptándose a la evolución tecnológica de los medios de transmisión y conmutación utilizados en las redes, dando origen a una serie de formas de codificar y transmitir la información de señalización, que se denominan tipos de señalización, y a una serie de protocolos o procedimientos para organizar el intercambio de información denominados técnicas de señalización. Una técnica de señalización con su tipo o tipos de señalización asociados, constituye un sistema de señalización. Existen muchos tipos de señalización aplicables a redes de comunicaciones, pero simplificando podemos dividirlos en dos grande apartados: 1. Señalización de abonado o tramo abonado central: Los abonados se conectan a la red de dos maneras claramente diferenciadas: o Conexión analógica: su estructura está totalmente normalizada a escala mundial y en ella, a través de una interfase física de dos hilos, se realiza la señalización de los distintos procesos mediante detección de alta o baja resistencia de bucle, envío desde la red de la corriente de llamada, tonos de aviso de distinta frecuencia y cadencia para información del usuario, etc. Para la indicación del abonado a la red de conexión deseada o el servicio suplementario requerido se utilizan dos tipos de señalización: impulsos decádicos de apertura y cierre del bucle, con temporizaciones definidas, y envío de códigos multifrecuencia según la recomendación Q.23 del CCITT. o Conexión digital: este tipo de conexión aparece definido en las recomendaciones del CCITT cuando se estructura la red de servicios integrados. Consiste en una interfase normalizada a cuatro hilos con señalización definida en las recomendaciones I.440, I.441, I.450 e I.451, constando básicamente de dos canales B (64 Kbps) y de un canal D (16 Kbps), en la que cada canal B puede emplearse independientemente para transportar voz o datos y el canal D se utiliza para señalización. 2. Señalización entre centrales o tramo entre centrales: los distintos tipos existentes de señalización entre centrales pueden clasificarse en dos grandes grupos: o Señalización por canal asociado (CAS, Channel Associated Signalling): son aquellos en que la información de señalización de cada canal de enlace entre centrales se gestiona de forma independiente e individual. o Señalización por canal común (CCS, Channel Common Signalling): este tipo de señalización es la que realiza el intercambio de información de señalización de un conjunto de canales por un canal dedicado. Este canal constituye de hecho un canal de transmisión de datos, cuyo protocolo se establece en cada sistema de señalización. En principio, estos sistemas están orientados a la señalización de los 30 canales de una trama MIC de 2 Mbps, por un canal de 64 Kbps transmitido en el intervalo 16 de la trama (el intervalo 0 se reserva para la sincronización, quedando pues 30 canales, de los 32 que forman la trama, libres para transportar información). Existen sistemas o variantes en que el canal de señalización común se transmite a velocidades de 2.400, 4.800 o 9.600 bps, siendo por lo tanto utilizables en medios de transmisión analógicos, mediante el empleo de módems. La señalización por canal común constituye un avance tecnológico muy importante sobre la señalización por canal asociado, con respecto a la cual presenta las siguientes ventajas: Superior velocidad de señalización y por lo tanto de establecimiento de conexiones, especialmente notables en entornos digitales con señalización a 64 Kbps. Importante aumento de la fiabilidad y seguridad de la señalización, derivado de la utilización de las técnicas de detección y corrección de errores desarrollados y perfeccionadas en el campo de la transmisión de datos. Permite la integración de servicios, aplicaciones e introducción de nuevos servicios suplementarios. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 1 6 11 16 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C O CAAAPPPIIITTTUUULLLO O IIIIIIIII

S S M S T O S D O S Y M A S D N S M S Ó N SEEERRRVVVIIICCCIIIO OS S,,, M MEEED DIIIO OS SY YS SIIISSSTTTEEEM MA AS SD DEEE T TRRRAAAN NS SM MIIIS SIIIÓ ÓN N

Este tipo de señalización está en proceso de normalización por el CCITT para conseguir la interconectabilidad entre todos los fabricantes de sistemas. Para las redes públicas (sus conexiones e interconexiones entre sí y la conexión de equipos de abonados), las especificaciones de la señalización están completamente definidas y seguidas por la mayoría de los fabricantes. Para la interconexión de centrales PABX se están dando pasos en este sentido, siendo actualmente en Europa el ETSI (organismo encargado de la normalización) el que está elaborando las especificaciones. Existen ya estándares más o menos completos y conocidos como el denominado protocolo Q-Sig, que define los servicios y protocolos a nivel 3 en el punto de referencia Q, conforme a la norma Q.931 y en el marco de ISO para la RDSI. Existen en uso otros sistemas de señalización más o menos abiertos o propietarios tales como el APNSS (Analog Private Network Signalling), un sistema de señalización para redes privadas analógicas con mayor funcionalidad que las señalizaciones convencionales, DPNSS (Digital Private Network Signalling) para redes digitales, CORNET (COFiporate ISDN NETwork Protocol), ABC (Alcatel Business Communications), etc. que permiten determinada interconectabilidad entre sistemas pero que no son totalmente estándar ni aceptados por todos los fabricantes, por lo que surge la incompatibilidad en caso de ser dos distintos los disponibles en las centrales que se quieren interconectar.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 1 7 11 17 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

SSIISSTTEEM MA ASS D DEE C CAABBLLEEAADDOO E ESSTTRRUUCCTTUURRAADDOO 11.. IINNNTTTRRRO O D U C C Ó N Ó N D E L A N D U T R A DEEESSSCCCRRRIIIPPPCCCIIIÓ OD DU UC CC CIIIÓ ÓN N,, D ÓN ND DE EL LA A IIN ND DU USSST TR RIIIA A Las redes de comunicaciones de hoy son muy complejas (con más usuarios compartiendo periféricos, con más tareas de misión crítica realizadas sobre redes que necesitan de accesos más rápidos ante el incremento de información) por lo que es necesario que, para que las mismas tengan flexibilidad, adaptabilidad y longevidad, comiencen su diseño con un cableado estructurado (fundamento de cualquier sistema de información). Es vital que el cableado de comunicaciones sea capaz de soportar una variedad de aplicaciones. Si este cableado es parte de un sistema de cableado estructurado bien diseñado, puede permitir una fácil administración de movimientos, adiciones y cambios y permitir la migración a nuevas topologías de red. En un principio la incipiente tecnología de redes locales impuso cierta interrelación (bastante rígida) entre sistemas de cableado, redes de área local y fabricantes, asociado a la escasa o nula normativa al respecto. Si bien esto fue casi cierto al principio no es posible que esto suceda actualmente, teniendo los usuarios libertad para elegir la solución más idónea en cada momento, aunque no hay duda de que, en ciertas circunstancias, la elección puede resultar complicada para el responsable de la red, por la gama tan amplia de posibilidades que se le presentan. La unión de esfuerzos de los principales fabricantes de Informática, comunicaciones y productos electrónicos, a través de asociaciones y comités técnicos, ha permitido el desarrollo y elaboración de normativas y estándares que han dado lugar a sistemas de interconexión lo más abierto posible. Esto último quiere decir que el medio (la infraestructura de comunicaciones), es independiente de protocolos, de los equipos de conexión o de fabricantes, y viceversa. Se procederá entonces a desarrollar algunos conceptos que ayudarán a entender mejor la base de los cableados para redes, también llamada Infraestructura de Comunicaciones o Cabling System (IBM). Se presentará las ventajas de usar un sistema de Cableado Estructurado, basado en estándares, para una empresa de negocios. 1.1.1. La Evolución del Cableado Estructurado En los comienzos de los 80’s, cuando las computadoras se vincularon entre sí, para intercambiar información, se usó cualquier tipo diferente de diseño de cableado. Algunas compañías construían sus sistemas para correr sobre cables coaxiales; otros usaron twinaxial u otro tipo de cable que pudiera trabajar mejor. Con esos cables, deben seguirse ciertos parámetros para permitir que el sistema trabaje, deben usarse ciertos conectores, deben establecerse distancias máximas de cables y son necesarias topologías particulares. Para poder definir ciertos aspectos de sus sistemas, los fabricantes encerraron a sus consumidores en un “sistema propietario”; el sistema del fabricante no podía trabajar con otro sistema, o correr sobre cualquier otro tipo de cableado. Si el consumidor decidía cambiar de sistema, no solo necesitaría nuevo software y equipos sino la instalación de un nuevo cableado. La detección de fallas en los sistemas propietarios era muy dificultosa y consumía mucho tiempo, comparado con los sistemas estructurados de hoy. Así un problema en una estación podía hacer caer el sistema propietario entero, sin dar ninguna indicación de donde ocurrió el problema para luego tardar horas o días en la solución del mismo. De la misma manera, las adiciones, cambios, movimientos fueron muy dificultosos con los sistemas propietarios; cada vez que se adicionaba un nuevo usuario a la red, un nuevo cable era instalado o atachado a la topología de la red, además el sistema entero podía venirse abajo con la adición del nuevo usuario. Estos factores contribuyeron a aumentar la frustración de los administradores de red quienes constantemente buscaron por caminos más fáciles para mantener sus redes, reducir el tiempo de caídas y bajar los costos. De hecho, un estudio mostró que hasta el 70 % de las caídas de red podían atribuirse al cableado no estructurado o sistema propietario. La agravante al problema de los sistemas propietarios fue el sistema de cableado de teléfono. Como parte de su acuerdo de despojo de 1984, AT&T no se hizo más responsable del cableado dentro del edificio del cliente. Desde ese momento el proveedor de servicio telefónico mantuvo el sistema sólo hasta el punto de demarcación donde el servicio de teléfono entraba al edificio. Más allá de ese punto, el mantenimiento y revisión del sistema de teléfono era responsabilidad del cliente. Como resultado, los gerentes de red tenían (y muchos aún lo tienen) dos sistemas distintos demandando su atención. El deseo por un sistema que pudiera correr cualquier aplicación sin las molestias y dolores de cabeza de los sistemas pasados se magnificaron exponencialmente. Surgió así el cableado estructurado. 1.1.2. Historia del estándar TIA / EIA 568-A La industria de las telecomunicaciones hizo drásticos cambios desde su liberación en 1985. Se movilizó desde la transmisión analógica de voz (POTS) hasta la transmisión de señales de datos a 100 Mbps, y más, sobre cables UTP; desarrollando para ello los productos que permitan la transmisión de estas señales de datos. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 2 1 12 21 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

A principios de 1.985, las compañías representantes de las industrias de Telecomunicaciones y Computación se preocupaban por la falta de un estándar para sistemas de cableado de edificio de telecomunicaciones, dado que las compañías telefónicas no proveían un servicio completo. La Asociación de la Industria de Comunicaciones Computacionales (CCIA) solicitó que la Asociación de Industrias Electrónicas (EIA, Electronics Industry Association) desarrollara este modelo necesario, la que a su vez encargó el trabajo al comité de ingenieros de la EIA, el TR41. También, para 1.985, se forma la TIA (Asociación de Industrias de Telecomunicaciones) la que luego quedará completamente establecida. En Julio de 1.991 se publicó la primera versión del estándar como EIA / TIA-568. En Agosto del mismo año se publicó un Boletín de Sistemas Técnicos TSB-36 con especificaciones para grados mayores (Cat. 4, Cat. 5) de UTP. En Agosto de 1.992 el TSB-40 fue publicado, enfocándose a grados mayores de equipo conector de UTP. En Enero de 1.994 el TSB-40 fue corregido por el TSB-40A que trataba, más detalladamente, sobre los cables de conexión provisional UTP y esclarecía los requerimientos de prueba de los conductores hembra modulares UTP. El modelo 568 fue corregido por el TIA / EIA 568-A. El TSB-36 y el TSB-40A fueron absorbidos en el contenido de este modelo revisado, junto con otras modificaciones. Modificaciones adicionales y TSBs se pueden anticipar en un futuro dado que el trabajo no está completo y los comités de estándares están activamente escribiendo y produciendo estándares. Es de notar que los estándares de telecomunicaciones TIA / EIA no son impuestos a los usuarios finales, por el contrario, son administrados voluntariamente por ellos. Resumiendo, el estándar central que especifica un sistema de cableado de telecomunicaciones genérico, para soportar un ambiente multivendedor y multiproducto, es el ANSI/TIA/EIA 568-A, que establece criterios técnicos y de performance para distintos tipos de configuraciones y componentes.

22.. LLAAASSS LLA O T E M A D E C A B L E A D O AN NSSS YYYLLLO OSSS SSSIIISSST TE EM MA ASSS D DE EC CA AB BL LE EA AD DO O Una LAN es un sistema de comunicaciones constituido por un conjunto de hardware (cableado, dispositivos, PC’s, servidores, placas, etc.), y un software (acceso al medio, gestión de recursos, intercomunicación, procesos, etc.) que se distribuyen por una extensión limitada (planta, edificio, campus) en el que existen una serie de recursos compatibles (discos, impresoras, bases de datos, etc.), a los que pueden tener acceso los usuarios para compartir información. La interconexión entre ellas (LAN / LAN) o entre LAN y WAN, se realiza por medio de distintos dispositivos: repetidor, router, bridge, gateway. Según el comité IEEE 802 una LAN se distingue de otros tipos de redes de datos en que las comunicaciones se restringen a un área geográfica limitada, y en que pueden depender de un canal físico de comunicaciones con una velocidad binaria alta y que presenta una reducida tasa de errores. En todas las redes de área local nos encontraremos siempre con un modo de transmisión / modulación (banda base o banda ancha), un protocolo de acceso (TDMA, CSMA/CD, Token Ring, FDDI), un soporte físico (cables de cobre, de pares trenzados, coaxiales, fibras ópticas) y una topología (bus, anillo, estrella). Una red de área local se apoya en un sistema de cableado, pero no es sólo el sistema de cableado. Un mismo sistema de cableado puede (y debe) soportar diversos tipos de protocolos y equipos (del mismo o disinto fabricante), conservando todas las ventajas que conlleva el empleo de un sistema de cableado estructurado.

2.1. Topología de redes La topología define la estructura de una red. La definición de topología está compuesta por dos partes, la topología física, que es la disposición real de los cables (los medios) y la topología lógica, que define la forma en que los hosts acceden a los medios. Las topologías físicas que se utilizan comúnmente son de bus, de anillo, en estrella, en estrella extendida, jerárquica y en malla. Estas topologías se indican en el siguiente gráfico. La topología de bus utiliza un único segmento backbone (longitud del cable) al que todos los hosts se conectan de forma directa. La topología de anillo conecta un host con el siguiente y al último host con el primero. Esto crea un anillo físico de cable. La topología en estrella conecta todos los cables con un punto central de concentración. Por lo general, este punto es un hub o un switch. La topología en estrella extendida se desarrolla a partir de la topología en estrella. Esta topología enlaza estrellas individuales enlazando los hubs/switches. Esto, permite extender la longitud y el tamaño de la red. La topología jerárquica se desarrolla de forma similar a la topología en estrella extendida pero, en lugar de enlazar los hubs/switches, el sistema se enlaza con un computador que controla el tráfico de la topología. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 2 2 12 22 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

La topología en malla se utiliza cuando no puede existir absolutamente ninguna interrupción en las comunicaciones, por ejemplo, en los sistemas de control de una central nuclear. De modo que, como puede observar en el gráfico, cada host tiene sus propias conexiones con los demás hosts. Esto también se refleja en el diseño de la Internet, que tiene múltiples rutas hacia cualquier ubicación. La topología lógica de una red es la forma en que los hosts se comunican a través del medio. Los dos tipos más comunes de topologías lógicas son broadcast y transmisión de tokens. La topología de broadcast simplemente significa que cada host envía sus datos hacia todos los demás hosts del medio de red. Las estaciones no siguen ningún orden para utilizar la red, el orden es el primero que entra, el primero que se sirve. Esta es la forma en que funciona Ethernet y usted aprenderá mucho más al respecto más adelante durante este semestre. El segundo tipo es transmisión de tokens. La transmisión de tokens controla el acceso a la red al transmitir un token electrónico de forma secuencial a cada host. Cuando un host recibe el token, eso significa que el host puede enviar datos a través de la red. Si el host no tiene ningún dato para enviar, transmite el token hacia el siguiente host y el proceso se vuelve a repetir. En el diagrama del gráfico se pueden observar las distintas topologías. En el otro diagrama se muestra una topología LAN de complejidad moderada, típica de una escuela o de una pequeña empresa. Tiene muchos símbolos, y describe varios conceptos de networking que lleva cierto tiempo aprender. Esta LAN es típica de un campus pequeño.

33.. SSIIISSSTTTEEEM M A D E O CAAABBBLLLEEEAAADDDO MA ASSS D DE EC O Un sistema de cableado es un conjunto integrado de componentes, tales como cables (de cobre y de fibra óptica), conectores, paneles de distribución, latiguillos, cajas, placas de conexión, etc., utilizados para la instalación de una infraestructura de comunicaciones a las que se conectarán múltiples equipos. Un sistema de cableado viene determinado por el tipo de cable que emplea y por la topología de red que configura; a igualdad de otros factores, el tipo de cableado determina las prestaciones, mientras que la topología fija los costes de la instalación, de expansión en el futuro y, en algunos casos, la capacidad de recuperación de la red en caso de rotura de alguno de sus elementos (enlaces o nodos). Este párrafo ha sido cierto en la época en que no existía normativa al respecto (hace tan sólo unos pocos años), en la que había una fuerte interrelación entre fabricante, cable, topología y protocolo de acceso al medio (cable coaxial para Ethernet 802.3, par trenzado apantallado para Token Ring 802.5, por ejemplo). Hoy en día, la situación ha cambiado, con la introducción de los sistemas de cableado estructurado, en los que la topología sigue un patrón determinado.

3.1. Sistemas de cableado estructurado Un sistema de cableado estructurado es cualquier sistema de cableado que permita identificar, reubicar y cambiar en todo momento, con facilidad y de forma racional, los diversos equipos que se conectan al mismo, basándose en una normativa completa de identificación de cables y de componentes, así como al empleo de cables y conectores, de las mismas características para todos los equipos. El cableado estructurado está diseñado para correr cualquier cosa, en cualquier lugar y en cualquier momento. El cableado estructurado elimina la necesidad de un vendedor a seguir las reglas concernientes a tipos de cables, conectores, distancias o topologías. Esto permite una sola instalación de cableado y la adaptación de ese cableado para cualquier tipo de aplicación (desde teléfono a una LAN Ethernet o Token Ring o a una tecnología emergente como ATM). Aquellos requerimientos que hace años parecían una ingenua utopía hoy son la consecuencia lógica del avance de la tecnología en las áreas de Informática y Telecomunicaciones. Es preciso, entonces, considerarlos atentamente a la hora de diseñar un edificio o de refuncionalizar oficinas e industrias. Porque, si bien los tendidos de cables representan sólo el 5 % de las inversiones de una red son responsables del 70 % de los problemas. El cableado estructurado es la respuesta concreta y ordenada a las necesidades de operación exitosa de una red y en él pueden convivir la transmisión de datos, telefonía y tensión estabilizada (triplex). Además, ofrece a usuarios e instaladores productos que cumplen con estándares internacionales, pensados para una fácil instalación, administración y mantenimiento. Una planta con cableado flexible es posible si los manufactureros (de cables y de electrónica) adoptan los estándares, así cualquier aplicación, cable, conector o dispositivo electrónico construido T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 2 3 12 23 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

bajo las normas trabajará sobre el mismo sistema. Pero lo más importante del cableado estructurado es la posibilidad de incorporar nuevas tecnologías sin reformular todo el tendido. Su antecesor, el cableado coaxial, permitía una conexión en red pero en paralelo, esto significa un sólo cable al concentrador o repartidor central y desvíos por cada puesto de trabajo. El mayor inconveniente de este sistema era que si había una falla en algún tramo del cable central todos los puestos conectados a él quedaban fuera de servicio. El cableado estructurado, por el contrario, se organiza en dos niveles de conexión: • el “cableado horizontal” que vincula el concentrador con cada puesto de, y • el “cableado troncal (backbone)” que enlaza concentradores en diferentes o sectores (que puede cubrir incluso un campus). • •

Los sistemas de cableado estructurado se distinguen especialmente por dos características principales: modularidad: tiene en cuenta el crecimiento, las modificaciones y la localización y corrección de averías. flexibilidad: permitir adquirir cualquier topología de red, versatilidad en velocidad de transmisión y soportar equipos de diferentes marcas o fabricantes.

La distribución física de un sistema de cableado estructurado es el de un desarrollo jerárquico en una topología estrella al nivel de planta y/o edificio (es decir, para su cableado horizontal), lo que convierte en sencilla cualquier ampliación, ya que las estaciones de trabajo se añaden hacia el exterior desde un nodo central (cada tendido no debe superar los 90 metros de punta a punta), resultando la localización y corrección de averías una tarea fácil gracias a dicha nodularidad, dado que cada puesto está ligado al concentrador, garantizando la autonomía de las terminales. Además, la utilización del cable denominado “par trenzado” posee una impedancia de 100 Ohms y es de mejor calidad que el coaxial, lo que permite trabajar a mayor velocidad de transmisión. Una aplicación básica de un sistema de cableado estructurado es el precableado, cuyas ventajas se derivan precisamente del uso del mismo, pues se minimiza el esfuerzo en la remodelación de la red, en el crecimiento de la misma y en los costes de mantenimiento, pues el cable instalado sirve para todos los equipos que se quieran conectar, presentes o futuras. Obviamente, antes de conectar un equipo al cableado, se tiene que haber conformado la red que lo soporte. Se facilita la resolución de problemas al estar los puntos de conexión perfectamente localizados e identificados y se dispone de una infraestructura lógica, racional y ordenada de cables y componentes para dar servicios a todos los usuarios; infraestructura con la que, si se realiza con previsión, pueden conseguirse sustanciales ahorros (en tiempo y dinero) cuando exista necesidad de añadir nuevos equipos. 3.1.2. Consideraciones sobre el tendido La norma EIA/TIA 568, emitida por dos asociaciones americanas de electrónica y telecomunicaciones, y la internacional ISO IEC 11801 rigen este tipo de tendidos y aseguran una velocidad máxima de 100 Mhz para los cables de categoría 5. Además se recomiendan una serie de cables, entre los que se hallan los distintos cables de pares trenzados: • UTP (Unshielded Twisted Pair). Par trenzado no blindado. • STP (Shielded Twisted Pair). Par trenzado blindado. • FTP (Foiled Twisted Pair). Par trenzado mallado. El UTP es el que se utiliza con mayor frecuencia, ya que es el más sencillo de instalar y el que se comercializa a valores más accesibles. Sin embargo, según las normas, a altas velocidades puede resultar vulnerable a las interferencias electromagnéticas. El STP respondería más eficientemente a estos inconvenientes, pero es un cable todavía caro y, por su blindaje en cada par, difícil de maniobrar en instalación. El FTP parece ser la elección más adecuada si se pretende correr a 100 Mhz ya que, por su blindaje general, asegura que no habrá perdida de información. Es importante, a la hora de certificar el cableado, que las empresas lo hagan tomando como unidad de medida el MHz en lugar del Mbps, ya que en muchos casos la equivalencia Mhz / Mbps no es exacta y esto se nota en la velocidad a la que finalmente “corre” la información. Los parámetros de diseño del sistema de cableado estructurado especifican el uso de una metodología de diseño que empieza con los requerimientos globales incluyendo la categoría del sistema, la selección del medio (UTP, fibra, etc), la selección del producto de terminación y la identificación de cualquier área inusual o problemática en el edificio que pueda afectar al diseño general del sistema. Una vez realizado el tendido a los puestos de trabajo (cableado horizontal) se pasa al cableado troncal. Este tramo suele realizarse en fibra óptica multimodo, ya que reduce sustancialmente el manojo de cables a instalar

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 2 4 12 24 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

de un concentrador a otro. Por otra parte, la fibra no emite radiaciones, es inmune a interferencias, no admite intrusiones y su velocidad de transferencia es del orden de 1 Gigabits por segundo (Gbps). Para los concentradores o gabinetes de telecomunicaciones deberán preverse todos los elementos que lo conforman, que habitualmente son: * La acometida de los puestos de trabajo. * La acometida del troncal o backbone telefónico. * La acometida del troncal o backbone informático. * Los elementos activos de las redes de datos, hubs, switches, bridges, etc. * La alimentación eléctrica para todos los dispositivos. * Iluminación interna. * Ventilación interna (si fuera necesaria). Si bien pueden realizarse cableados estructurados totalmente en cobre (sistema tradicional), la tendencia marca que la complementariedad de los dos tipos de materiales (UTP y Fibra Optica) conocida como “sistema híbrido”, ofrece una vida útil mucho más extensa que el estructurado tradicional. La norma garantiza que un sistema híbrido soportará todas las aplicaciones de telecomunicaciones de los próximos 10 años sin necesidad de reconversiones ni modificaciones al tendido. A modo de síntesis, entonces, cada puesto de trabajo contará con un periscopio con distintos conectores modulares de 8 posiciones (conocidos como RJ-45) que le permitirá el acceso a todos los servicios de telecomunicaciones. Asimismo tendrá las entradas de energía para alimentar los aparatos correspondientes. Es importante que los ramales de alimentación eléctrica y de telecomunicaciones observen una separación de por lo menos 25 cm para evitar ruidos y contaminaciones en la red. Si esto no se puede cumplir será necesario conducir la alimentación eléctrica por conductos o caños metálicos independientes del tendido de telecomunicaciones. Según la norma EIA/TIA 568 cada puesto de trabajo deberá contar con por lo menos 2 bocas de telecomunicaciones y 3 o 4 tomas de energía eléctrica. 3.1.3. Fibra al escritorio El cableado estructurado puede aplicarse tanto a edificios nuevos como a antiguos pero hay determinadas construcciones que requieren modificaciones muy importantes de obra civil, lo que resulta antieconómico. Además en techos muy altos se corre el riesgo de “salirse” de norma por las distancias de tendido. En esos casos lo aconsejable es el sistema “fiber to the desk” (fibra al escritorio). La normativa exige la utilización de cables multimodo de índice gradual 62,5/125 micrones y conectores SC. El tendido se completa con la instalación de un concentrador óptico. Este sistema se aplica actualmente sólo para datos ya que el tendido en fibra óptica de telefonía requiere un equipamiento todavía a valores muy elevados, mientras que el teléfono a través de cobre funciona sin inconvenientes. El cableado en fibra tiene una vida útil superior a los 20 años y no requiere mantenimiento. Un cableado estructurado para datos realizado en cobre tiene una vida útil de 2 años, no por el tendido sino por el caudal de información que se maneja. Si se trata de un cableado, por ejemplo, para un sector administrativo de una empresa, no hay tal obsolescencia. Pero en sectores de comunicaciones donde se bajan señales de satélite, se transfieren imágenes, etc., es necesaria la mejor calidad y la mayor velocidad de transmisión de información. Lo bueno de la “fibra al escritorio” es que puede instalarse en el mismo ducto que el cable de alimentación eléctrica (de cobre), ya que la fibra, como se señaló antes, es totalmente dieléctrica y no absorbe ningún tipo de ruido o contaminación en la señal. Por otra parte, se agiliza sustancialmente el tendido. Hoy, los valores de instalación están acercándose mucho entre ambos sistemas. Si se toma en cuenta que hace 4 o 5 años, el metro de fibra óptica instalado estaba en el orden de los $ 25/ $ 30 y hoy un metro de cable está en el orden de $ 1,5. Lo mismo sucede con el equipamiento de datos. No hay que descartar que este movimiento descendente en los costos alcance también a los equipamientos telefónicos y se pueden instalar centrales digitales para fibra óptica sin hacer mayores inversiones. El cableado de una red, como queda demostrado, cumple una función vital en la performance de los sistemas de telecomunicaciones y en la constante superación de la tecnología. Para tenerlo en cuenta.

44.. SSEEEÑÑÑAAALLLEEESSS YYYRRRUUUIIIDDDO O E N L O T E M A D E C O M U N C A C Ó N OSSS E EN NL LO OSSS SSSIIISSST TE EM MA ASSS D DE EC CO OM MU UN NIIIC CA AC CIIIÓ ÓN N 4.1.1. Propagación de señales en la red Propagación significa desplazamiento. Cuando una tarjeta NIC emite voltaje o pulsos luminosos en un medio físico, ese pulso rectangular, formado por ondas, se desplaza, o se propaga, a través del medio. Propagación significa que un bloque de energía, que representa 1 bit, se desplaza desde un lugar hacia otro. La velocidad a la cual se propaga depende del material que se usa en el medio, de la geometría (estructura) del medio y de la

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 2 5 12 25 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

frecuencia de los pulsos. El tiempo que tarda el bit en desplazarse desde un extremo a otro del medio y nuevamente en regresar se denomina tiempo de ida y vuelta, (RTT, Round Time Trip). El hecho de que el bit tarda poco tiempo en desplazarse a través del medio normalmente no produce problemas en la red. Sin embargo, con las velocidades de transmisión de datos de las redes actuales, que están en constante crecimiento, a veces se debe tener en cuenta la cantidad de tiempo que tarda la señal en desplazarse. La falta de conocimiento del tiempo de propagación representa un problema, ya que uno puede suponer que el bit llega a un destino demasiado rápido o demasiado tarde. Si el tiempo de propagación es demasiado largo, se debe evaluar nuevamente cómo manejará esta demora el resto de la red. Si la demora de propagación es demasiado corta, es posible que se deba reducir la velocidad de los bits o que se deban guardar temporalmente (esto se denomina buffering), para que el resto del equipamiento de networking pueda alcanzar al bit. 4.1.2. Atenuación de red Atenuación es la pérdida de la fuerza de la señal como, por ejemplo, cuando los cables superan una longitud máxima. Esto significa que una señal de voltaje de 1 bit pierde amplitud a medida que la energía pasa desde la señal hacia el cable. La selección cuidadosa de los materiales (por ej., utilizando cobre en lugar de carbono, y la geometría (la forma y el posicionamiento de los cables) puede disminuir la atenuación eléctrica, aunque no se puede evitar que se produzca alguna pérdida cuando hay resistencia eléctrica. La atenuación también se produce en las señales ópticas, ya que la fibra óptica absorbe y dispersa parte de la energía luminosa a medida que el pulso luminoso, un bit, se desplaza a través de la fibra. Esto se puede reducir considerablemente al determinar la longitud de onda, o el color, de la luz seleccionada. La atenuación también se produce con las ondas de radio y las microondas, ya que éstas son absorbidas y dispersadas por moléculas específicas de la atmósfera. La atenuación puede afectar a una red dado que limita la longitud del cableado de la red a través de la cual usted enviar un mensaje. Si el cable es demasiado largo o demasiado atenuante, un bit que se envía desde el origen puede parecer un bit cero para el momento en que llega al destino. Este problema se puede solucionar a través de los medios de networking elegidos y seleccionando estructuras que estén diseñadas para soportar bajas cantidades de atenuación. Una de las formas que existen para resolver el problema es cambiar el medio. Otra de las formas es utilizar un repetidor luego de una distancia determinada. Existen repetidores para bits eléctricos, ópticos e inalámbricos. La atenuación, como su nombre lo indica, es la relación entre la potencia de la señal recibida en un extremo del cable y la potencia transmitida en el otro. La atenuación se mide en decibeles, dB, cuya fórmula es: atenuación dB = 10 log (P2 / P1) Debe tenerse en cuenta que como P2 < P1, la atenuación medida en dB será siempre negativa. Por otra parte, por ser una medida logarítmica la relación entre P2 y P1 no varía linealmente con ésta; como guía, cada 3 dB de atenuación, P2 disminuye a la mitad y se divide por 10 cada 10 dB. Una señal con 20 dB de atenuación es 100 veces menor que la señal original P1 y 10 veces menor que una con 10 dB. Lo ideal sería tener atenuación cero, cuanto menor sea ésta, o sea más negativa, peor. Sin embargo debe prestarse atención: es usual omitir el signo negativo, es decir dar el valor absoluto de la atenuación, por lo que en este caso la atenuación es peor cuanto mayor sea. La atenuación, para una frecuencia dada, es una función prácticamente lineal de la longitud del cable; para un cable de longitud determinada, la atenuación depende de la frecuencia. En ambos casos se referencia a la frecuencia de la señal en Hertzios y no a la velocidad de transmisión en bits por segundo, ya que la primera variable es la que influye en la atenuación; la relación entre frecuencia y velocidad de transmisión depende de la codificación utilizada para transmitir la señal, aunque exista una relación estrecha entre ambas. 4.1.3. Reflexión en la red La reflexión se produce en las señales eléctricas. Cuando los pulsos de voltaje, o bits, tropiezan con una discontinuidad, se pueden producir reflexiones de la energía. Si no se controla cuidadosamente, esta energía puede interferir con bits posteriores. Si para un sólo 1 bit a la vez representa un problema es peor en las redes reales donde se envían millones y miles de millones de bits por segundo, lo que requiere tener en cuenta este pulso de energía reflejado. Según el cableado y las conexiones que utiliza la red, las reflexiones pueden o no ser un problema. También se produce en las señales ópticas que se reflejan si tropiezan con alguna discontinuidad en el vidrio (medio), como en el caso de un conector enchufado a un dispositivo. También se produce en el caso de las ondas de radio y las microondas, ya que detectan distintas capas en la atmósfera. Ya sea que el sistema sea eléctrico, óptico o inalámbrico, la falta de acople en la impedancia puede provocar reflexiones. Si se refleja suficiente energía, el sistema binario de dos estados se puede confundir debido a toda la energía adicional que se genera a su alrededor. Esto se puede solucionar asegurándose de que la impedancia de todos los componentes de networking esté cuidadosamente acoplada. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 2 6 12 26 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

4.1.4. Ruido El ruido son adiciones no deseadas a las señales de voltaje, ópticas o electromagnéticas. Ninguna señal eléctrica se produce sin ruido; sin embargo, lo importante es mantener la relación señal/ruido (S/N) lo más alta posible. Demasiado ruido puede corromper un bit, haciendo que un 1 binario se transforme en un 0 binario, o un 0 en un 1, destruyendo el mensaje. Existen muchas fuentes de ruido que pueden afectar a un bit del cable. Entre ellas tenemos: NEXT-A y NEXT-B: cuando el ruido eléctrico del cable tiene origen en señales de otros hilos del cable, • esto se denomina diafonía. Cuando dos hilos están colocados uno muy cerca del otro y no están trenzados, la energía de un hilo puede trasladarse al hilo adyacente y viceversa. Esto puede provocar ruido en ambos extremos de un cable terminado. Existen en realidad muchas formas de diafonía que se deben tener en cuenta al desarrollar redes. La diafonía es consecuencia del acoplamiento inductivo entre los pares de transmisión y recepción en un cable, por lo cual parte de la señal de un par aparece en el otro. La parte más importante de la diafonía es lo que se produce en el extremo del cable más próximo al receptor, causada por la señal emitida por el mismo, se denomina paradiafonía o NEXT (Near End Crosstalk - XT). NEXT se puede manejar a través de la tecnología de terminación, el cumplimiento estricto de los procedimientos de terminación estándar, y el uso de cables de par trenzado de buena calidad. Al igual que la atenuación la paradiafonía se mide en decibeles, cuya fórmula es: NEXT: dB = 10 log (P2 / P1). Aquí caben las mismas consideraciones que para la atenuación, pero con una diferencia: lo ideal sería que no hubiera acoplamiento, o sea, que P2 = 0 y en consecuencia que el NEXT fuera - ∞; cuanto mayor, o sea más próximo a cero, peor. Igual que para el caso anterior es frecuente omitir el signo negativo, en este caso cuanto más pequeño sea el NEXT peor. Para una frecuencia dada, el NEXT depende poco y en forma lineal de la longitud del cable; en cambio, para una longitud dada depende fuertemente, aumentando, con la frecuencia. Ruido térmico: el ruido térmico, debido al movimiento aleatorio de electrones, no se puede evitar pero • por lo general es relativamente insignificante en comparación con las señales. No hay nada que se pueda hacer con respecto al ruido térmico, salvo suministrar a las señales una amplitud lo suficientemente grande como para que esto no tenga importancia. • EMI/RFI (Interferencia Electromagnética / interferencia de Radiofrecuencia): las fuentes externas de pulsos eléctricos que pueden atacar la calidad de las señales eléctricas del cable incluyen los sistemas de iluminación, los motores eléctricos y los sistemas de radio. Estos tipos de interferencia se denominan EMI y RFI. Hay varias formas de limitar la EMI y la RFI. Una forma consiste en aumentar el tamaño de los cables conductores. Otra forma sería mejorar el tipo de aislador empleado. Sin embargo, estos métodos aumentan el tamaño y el costo de los cables, sin mejorar demasiado la calidad. Por lo tanto es más común que los diseñadores de redes especifiquen un cable de buena calidad y que brinden especificaciones para la longitud máxima recomendada para los cables que conectan los nodos. Dos de las técnicas que los diseñadores de cables han usado con éxito para manejar la EMI y la RFI, son el blindaje y la cancelación. Cuando dos cables de un circuito eléctrico se colocan uno cerca del otro, los campos magnéticos de un cable son el opuesto exacto del otro. Así, los dos campos magnéticos se cancelan entre sí. También cancelarán cualquier otro campo magnético externo. El hecho de trenzar los cables puede mejorar el efecto de cancelación. A diferencia de los sistemas que utilizan cable de cobre, los sistemas que utilizan fibra óptica e inalámbricos experimentan alguna de estas formas de ruido pero son inmunes a otras. Por ejemplo, la fibra óptica es inmune a NEXT y al ruido de la línea de alimentación de CA (corriente alterna) de la conexión a tierra de referencia, y los sistemas inalámbricos son particularmente propensos a la interferencia electromagnética / interferencia de la radiofrecuencia. La transmisión de datos a través de cobre, tales como UTP o STP, está limitada básicamente por la atenuación y la diafonía en los mismos. 4.1.5. Interacción entre atenuación y NEXT Si se grafica conjuntamente la atenuación y el NEXT para una frecuencia dada, en función de la longitud del cable se obtendría una diferencia entre ambos valores denominada relación señal/NEXT: SCR (Signal to Crosstalk Ratio) que determina la distancia máxima a la que se puede transmitir un protocolo determinado en un cable definido. Cuando el SCR es muy pequeño el receptor no puede discriminar entre la señal recibida de otro transmisor y la inducida por su propia transmisión. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 2 7 12 27 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

De la misma manera, si se grafica conjuntamente atenuación y diafonía en función de la frecuencia para un cable de longitud determinada, se obtendría una relación SCR que determina la frecuencia máxima, y en consecuencia la velocidad de transmisión posible en un cable definido y de una longitud determinada. Además de la atenuación y diafonía, hay otras características de los cables, como los UTP, que son importantes. Podemos mencionar la resistencia, la velocidad de propagación de la señal, impedancia, capacitancia y comportamiento a la temperatura. 4.1.6. Dispersión, fluctuación de fase y latencia Las tres afectan lo mismo: la temporización del bit. Dispersión es cuando la señal se ensancha con el tiempo. Esto se produce debido a los tipos de medios involucrados. Si es muy grave, un bit puede comenzar a interferir con el bit siguiente y confundirlo con los bits que se encuentran antes y después de él. La dispersión se puede solucionar a través del diseño de cables adecuado, limitando las longitudes de los cables y detectando cuál es la impedancia adecuada. En el caso de la fibra óptica, la dispersión se puede controlar usando luz láser con una longitud de onda muy específica. En el caso de comunicaciones inalámbricas, la dispersión se puede reducir al mínimo a través de las frecuencias que se usan para realizar la transmisión. Si el reloj del host origen no está sincronizado con el host destino, lo que es muy probable, se producirá una fluctuación de fase de temporización. Esto significa que los bits llegarán un poco antes o más tarde de lo esperado. La fluctuación de fase se puede solucionar mediante una serie de complicadas sincronizaciones de reloj, incluyendo sincronizaciones de hardware y software, o de protocolo. La latencia, también denominada demora, tiene dos causas principales: En primer lugar ningún elemento puede trasladarse de forma más veloz que la velocidad de la luz en el vacío (3,0 x 108 metros/segundo). Las señales inalámbricas de networking se trasladan a una velocidad levemente inferior a la de la velocidad de la luz en el vacío. Las señales de networking en medios de cobre se trasladan a una velocidad de 1,9x108 m/s a 2,4x108 m/s. Las señales de networking en la fibra óptica se trasladan a aproximadamente 2,0x108 m/s. De modo que para trasladarse a una determinada distancia, el bit tarda al menos una pequeña cantidad de tiempo para llegar hasta su destino. En segundo lugar, si el bit atraviesa cualquier dispositivo, los transistores y los dispositivos electrónicos provocan una mayor latencia. La solución para el problema de la latencia es el uso cuidadoso de los dispositivos de internetworking, distintas estrategias de codificación y diversos protocolos de capa.

55.. LLO O E U B T E M A D E L T E M A D E O O CAAABBBLLLEEEAAADDDO ESSSTTTRRRUUUCCCTTTUUURRRAAADDDO OSSS SSE EIIISSS SSU UB BSSSIIISSST TE EM MA ASSS D DE EL L SSIIISSST TE EM MA AD DE EC OE O El estándar ANSI/EIA/TIA-568-A especifica requerimientos mínimos para cableado de telecomunicaciones dentro de un edificio comercial (incluyendo los outlets/conectores de telecomunicaciones) y entre edificios de un campus. De acuerdo al estándar, un sistema de cableado estructurado consiste de seis subsistemas funcionales: 1. Entrada de construcción: la instalación de entrada del edificio da el punto en donde el cableado exterior, y su hardware asociado, entra en contacto con el cableado central interior del edificio. Los requerimientos físicos del contacto de la red se definen en el estándar EIA/TIA 569. La facilidad de entrada puede ser usada por los servicios de la red pública, por los servicios de red del consumidor o por ambos. El punto de demarcación (demarc) entre carrier y consumidor y los dispositivos de protección de sobrevoltaje se localiza aquí (generalmente es el POP). 2. Sala de equipos: es un espacio centralizado para el equipamiento de telecomunicaciones (ejemplo, PBX, equipos de computación, switch de video, etc.) que sirve a los usuarios en el edificio. Los aspectos de diseño de la sala de equipo se especifican en el estándar EIA/TIA 569. Las salas de equipo, generalmente alojan componentes de mayor complejidad que los closets de telecomunicación. Cualquiera o todas las funciones de un cuarto de telecomunicaciones pueden estar disponibles en una sala de equipo. Esta es el área de distribución principal (MDF) y lugar de control principal de configuración para topologías centralizadas. Físicamente en un rack donde se conectan la mayoría de los sistemas o donde se produce la interfase del cableado interedilicio. El MDF provee los componentes de patcheo necesarios para conectar el sistema a una red externa. También provee las conexiones entre el sistema y los dispositivos (equipamiento de cableado e interfases necesarias para el sistema original a los componentes de patcheo, componentes necesarios para conectar el dispositivo terminal al cableado edilicio, convertir la interfase del equipo terminal a la conexión provista por el cableado, etc). 3. Cableado central (backbone): el cableado central provee la interconexión entre los cuartos de telecomunicaciones, salas de equipos e instalaciones de entrada. Consiste en los cables centrales (backbones), interconexiones o conexiones cruzadas (crossconnect) intermedias y principales, terminaciones mecánicas y cables de patcheo o jumpers utilizados para conexiones cruzadas. Los

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 2 8 12 28 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

backbones pueden conectar armarios dentro de un edificio o entre edificios. Conecta el área de distribución secundaria (SDF) al MDF y a cualquier otro. Es decir incluye: * conexión vertical entre pisos (conductores verticales “riser”), * cables entre la sala de equipo y las instalaciones de entrada del cableado del edificio, * cableado entre edificios. Tipos de cableados reconocidos y distancias centrales máximas: * 100 Ohm UTP (22 ó 24 AWG) Æ 800 metros (2625 pies) - Voz *, * 150 Ohm STP Æ 90 metros (2955 pies) - Datos *, * Fibra Óptica 62.5/125 um multimodo Æ 2000 metros (6560 pies). * Fibra Óptica 8.3/125 um unimodo Æ 3000 metros (9840 pies), * Otras opciones incluyen: LAN Baseband, LAN Broadband y Canales Multiplexados. Nota (*): las distancias centrales están sujetas a la aplicación. Las distancias máximas especificadas arriba están basadas en transmisión de voz para UTP y transmisión de datos para STP y fibra. La distancia de 90 metros para STP corresponde a aplicaciones con una anchura de banda espectral de 20 Mhz-300 Mhz. Una distancia de 90 metros también se aplica a UTP a anchuras de banda de 5 Mhz-16 Mhz para CAT 3, de 10 Mhz-20 Mhz para CAT 4 y de 20 Mhz-100 Mhz para CAT 5. Sistemas de datos de menor velocidad como el sistema IBM 36, 38, AS/400 y asincrónicos (RS232, 422, 423, etc.) pueden operar en UTP o STP para distancias considerablemente mayores (generalmente, desde varios cientos de pies hasta más de 1000 pies, 300 metros). Las distancias reales dependen del tipo de sistema, la velocidad de datos y las especificaciones del fabricante para el sistema electrónico y los componentes asociados utilizados (es decir, balunes, adaptadores, conductores de cable, etc.). El estado actual de las instalaciones de distribución normalmente incluye una combinación de cables de cobre y fibra óptica en la central. Otros requerimientos de diseño: * topología en estrella, * no más de dos niveles jerárquicos de interconexiones, * no se permiten derivaciones de puente, * los puentes de interconexión principales e intermedias o cables de parcheo no deben exceder los 20 metros (60 pies), * evitar su instalación en áreas donde puedan existir fuentes de altos niveles de EMI / RFI, * la conexión a tierra debe cumplir los requerimientos como se define en el EIA / TIA 607. Nota: se recomienda que el usuario consulte a los fabricantes del equipo, a las normas de aplicación y a los proveedores del sistema, para obtener información adicional cuando se planeen aplicaciones cubiertas compartidas en cables centrales UTP. 4.

5.

Cuarto de Telecomunicaciones (closet): un armario de telecomunicaciones es el área de un edificio que aloja el equipo del sistema de cableado de telecomunicaciones. Este incluye las terminaciones mecánicas y/o interconexiones para el sistema de cableado central y horizontal (el estándar EIA/TIA 569 especifica como diseñar el armario de telecomunicaciones). Todos los tipos de cableados horizontales se terminan sobre hardware de conexión compatibles. Las conexiones cruzadas (cross connect) se hacen con jumpers o patch cords para proveer conectividades flexibles para extender los distintos servicios a los usuarios a través de los outlets de telecomunicaciones. Esta área de distribución constituye el SDF (también llamado IDF, Facilidad de Distribución Intermedia) y es un rack intermedio entre el cableado horizontal y el cableado troncal o backbone. Está conectado físicamente a un MDF central (ver Sala de Equipos). Los cuartos de cableado deben tener como mínimo 3 mts. x 2.25 mts. cuando se usan racks de altura completa. La profundidad mínima debe ser de 60 cm. El espacio físico real es el que dicta el tamaño final pero éste debe ser funcional. Cableado Horizontal (topología específica: en estrella): el sistema de cableado horizontal es el medio físico que se usa para conectar cada toma de señal de telecomunicaciones (outlets) del área de trabajo con el armario de telecomunicaciones (closet) y consiste en lo siguiente: * Cableado Horizontal. * Salida de Telecomunicaciones. * Terminaciones de Cable. * Interconexiones.

El cableado horizontal es el tendido desde los jacks hasta los componentes de patcheo y distribución (SDF, Sub Distribution Frame, racks donde el cableado horizontal y backbone terminan y se conectan. Punto de configuración, expansión y testeo). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 2 9 12 29 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

Se reconocen tres tipos de medios como opciones para cableado horizontal (*), cada uno extendiéndose a una distancia máxima de 90 metros. * Cables UTP (Unshielded Twisted Pair) de 4 pares, conductores de cobre sólidos de 24 AWG y 100 Ohm, * Cables STP (Shielded Twisted Pair) de 2 pares, conductores de cobre de 22 AWG y 150 Ohm, * Cables de Fibras Ópticas, de 2 fibra y 62.5 / 125 um (monomodo y multimodo). Nota (*): actualmente, el cable coaxial de 50 Ohm se reconoce como de tipo medio. Sin embargo, no es recomendado para instalaciones nuevas de cableado y se estima se cambiará en la próxima revisión de este modelo. 6.

Área de trabajo: los componentes del área de trabajo se extienden desde la salida de información (outlet/conector de telecomunicaciones extremo del sistema de cableado horizontal) hasta el equipo de estación. El cableado del área de trabajo está diseñado de manera que sea sencillo el interconectarse, para que los cambios, aumentos y movimientos se puedan manejar fácilmente. Todos los adaptadores, filtros o baluns usados para adaptar los distintos tipos de equipamientos electrónicos al sistema de cableado estructurado deben ser externos al outlet de telecomunicaciones y están fuera del alcance normativo 568A. Los componentes del area de trabajo son: * Cables de patcheo: computadoras, terminales de datos, teléfonos, etc, * Cables provisionales: cables modulares, cables adaptadores de PC, puentes de fibra, etc, * Adaptadores: balunes, etc. Deben estar fuera de las salidas de información.

66.. Á O Q U C O ÁRRREEEAAASSS O ON NIIIVVVEEELLLEEESSS JJEEERRRÁÁÁRRRQ QU UIIIC CO OSSS A la hora de diseñar una infraestructura de comunicaciones, que represente una cierta extensión, hay que considerar varios niveles, según su función (el diagrama, ver más adelante, ilustra el concepto de distribución de cableado en los mencionados niveles jerárquicos): A. Subsistema de Cableado Troncal a Nivel de Campus (Campus Backbone Cabling Subsystem): si a la infraestructura de comunicaciones nos referimos en orden jerárquico, tendríamos un primer nivel llamado cableado primario, que concierne al medio de transporte entre edificios. El nivel primario, o subsistema campus generalmente está constituido por cables de fibra óptica multimodo o monomodo, o cables coaxiales. La fibra multimodo cubre distancias de hasta 2 Kms. sin necesidad de repetidores, y la monomodo se requiere cuando las distancias son superiores, permitiendo alcanzar sin repetidores hasta los 40 Kms., en función de la velocidad. B. Subsistema de Cableado Troncal a Nivel Edificio (Building Backbone Cabling Subsystem): el segundo nivel, llamado cableado secundario, es el que interconecta las plantas del edificio (los distribuidores de planta para ser más precisos) formando la columna vertebral (backbone / raiser) del cableado del edificio (subsistema vertical o troncal). Este segundo nivel, o área secundaria, puede estar constituido indistintamente por fibra óptica multimodo, cable coaxial o cables de pares trenzados. El mayor ancho de banda, y por lo tanto la mayor capacidad para una mayor velocidad de transmisión, lo tiene la fibra óptica, le sigue el cable coaxial grueso, después el fino y finalmente, los cables de cobre de pares trenzados. En función de las prestaciones requeridas, de la aplicación que correrá sobre este subsistema vertical y/o de las aplicaciones que se prevean implantar en los próximos años se elegirá el cableado más idóneo. Por ejemplo, las comunicaciones de voz suelen ir en cables de cobre multipares ya que tienen la mejor relación calidad / precio, ocupan muy poco espacio y, obviamente, cumplen las especificaciones para la transmisión de voz analógica y digital. Grandes volúmenes de transmisión de gráficos (CAD / CAM) o de imágenes requerirán de un gran ancho de banda por lo que la fibra óptica sería lo más aconsejable. En grandes instalaciones de edificios es más aconsejable y económico a largo plazo, por la flexibilidad y seguridad que aporta, usar separadamente cables para voz y cables para datos. C. Subsistema de Cableado Horizontal (Horizontal Cabling Subsystem): El último nivel es el nivel terciario, de cableado ó subsistema de cableado horizontal. Es el que une los equipos informáticos con los distribuidores de planta (subsistema horizontal), generalmente está constituido por cables de cobre de pares trenzados. Estos cables irán en tiradas desde el distribuidor de planta hasta las cajas de conexión a las que se conectarán los equipos informáticos. Este subsistema es el que más cables requiere pues, si se quiere planificar con previsión de futuras ampliaciones o cambios de puestos de trabajo, se deberá instalar una roseta o boca de conexión para terminales informáticas aproximadamente dentro de 5 y 10 metros cuadrados. Aunque se plantea en este subsistema la posibilidad de llevar la fibra óptica hasta el puesto de trabajo no se realiza por el alto costo que se supone poner los conectores y por los equipos necesarios para convertir las señales ópticas en eléctricas. La fibra hasta el puesto de trabajo es sólo una opción viable para muy pocos usuarios que puedan hacer un uso efectivo del gran ancho de banda disponible, o de aquellos que requieren una alta protección frente a interferencias pero, de forma general, T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 3 0 13 30 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

no es una solución rentable. Ahora bien, es previsión de una futura necesidad y aprovechando un tendido, se puede instalar fibra sin conectores (fibra ciega o black fiber), procediendo a su conectorización cuando se requiera. El servicio de comunicaciones (voz, datos, fax, imagen, etc.) asignado a una determinada boca de conexión o puesto de trabajo se determina en el distribuidor de planta por medio de cables de conexión o latiguillos que conectarán dicha boca con la aplicación deseada del subsistema vertical. En pequeñas instalaciones de edificios, donde la máxima distancia de transmisión no va a alcanzar los 100 metros, y la densidad de puestos de trabajo de planta por planta no justifica la instalación de un distribuidor por cada una de ellas, un mismo distribuidor puede cubrir varias plantas.

77.. C O N D E R A C O N E D E O CO ON NSSSIIID DE ER RA AC CIIIO ON NE ESSS D DE ED DIIISSSEEEÑÑÑO O 7.1.1. Categorías de Materiales La Norma EIA/TIA 568 estableció para los cables UTP una especificación de valores de atenuación y NEXT a diferentes frecuencias, que superaban las prestaciones de los cables utilizados comúnmente en Estados Unidos en ese momento, cable tipo DIW. Como esta especificación era conocida y normalmente transcurren varios meses desde que se conoce el llamado “borrador final” hasta que la norma es formalmente aprobada, los fabricantes de cables comenzaron a trabajar para cumplir con los valores exigidos. No sólo lo consiguieron sino que superaron los mismos, por lo que aún antes de aprobada la Norma EIA/TIA 568, se comenzó a discutir una nueva especificación para “super cables” con un rango de frecuencia útil más extendida. Como consecuencia, en Agosto de 1991, a sólo tres meses de la norma se aprobó un TSB, Boletín Técnico de Estándares, el TSB 36, anexo a la misma, que definió cables de varias categorías. La categoría 3 corresponde a la especificación original de la norma mientras que las 4 y 5 corresponden a cables con mejores prestaciones. Los rangos de aplicación de diseño son: a) Categoría 3: cables/conectores de equipo con parámetros de caracterizados a 16 Mhz. Hasta 16 Mbps. b) Categoría 4: cables/conectores de equipo con parámetros de caracterizados a 20 Mhz. Hasta 20 Mbps. c) Categoría 5: cables/conectores de equipo con parámetros de caracterizados a 100 Mhz. Hasta 100 Mbps. Los valores de atenuación y NEXT para cada una de las categorías se hallan en la siguiente figura: Debe tenerse en cuenta que los valores especificados son para cables en bobinas de 304 metros, medidos en condiciones definidas de laboratorio y no para cables instalados con la máxima longitud establecida por la Norma EIA/TIA 568. El TSB 36 indica para qué rango de velocidades “se intenta utilizar”, según dice textualmente, cada una de las diferentes categorías de cables. Pero en definitiva corresponde a quienes definen los protocolos o a los fabricantes de equipos, determinar si esas velocidades pueden ser alcanzadas en ese tipo de cable, recordando que uno de los propósitos de la norma es ofrecer pautas a aquellos. Similarmente a lo ocurrido con los cables, en Septiembre de 1992 apareció el TSB 40, que especifica las prestaciones de conectores de Categoría 3, 4 y 5, en correspondencia con los respectivos cables. Resumiendo: * la velocidad máxima de transmisión en un vínculo de datos está definida principalmente por las características de atenuación y diafonía del mismo, * los materiales con certificación de categoría 5, según los TSB 36 y 40 de EIA/TIA o con las prestaciones equivalentes de UL o NEMA, responden a determinadas características mecánicas y eléctricas, pero no son de forma alguna “materiales garantizados para 100 Mbps”, * los TSB 36 y 40 se refieren a valores medidos “en condiciones de laboratorio”; estos valores pueden degradarse en el proceso de instalación y conexionado.

7.2. Diseño del sistema de cableado Aunque el estándar 568-A reconoce la necesidad de ambas comunicaciones, la de voz y la de datos, este requiere un mínimo de dos puertos por estación de trabajo. El primer puerto debe ser soportado por un cable UTP, de 4 pares y 100 Ohm Categoría 3 o mayor. El segundo puerto debe ser soportado por uno de los siguientes medios: un cable UTP (se recomienda Categoría 5), STP o cable de fibra óptica multimodo de 62.5 micrones (minimo dos cuerdas). Para tendidos de cables horizontales desde un armario de telecomunicaciones a un outlet de área de trabajo, la distancia máxima de transmisión permitida para cualquier tipo de medio es de 295 pies (90 metros). Se provee un adicional de 33 pies (10 metros) para los patchs cords (en el área de trabajo y en el closet). Cuando se T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 3 1 13 31 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

considera un cableado backbone, los requisitos de distancia dependen de la aplicación y del medio. Por ejemplo, la distancia máxima para UTP es de 800 metros cuando el ancho de banda espectral de la aplicación es de menos de 5 MHz. Para cualquier aplicación mayor que 5 MHz (asíncrona, IBM 3270, AS/400, y voz), las distancias máximas retornan a los 90 metros. Cuando se usa Token Ring y cables STP-A en un backbone, las distancias máximas dependen del número de MAUs (Multistation Access Units, Unidades de Acceso Multiestación), de los CAUs (Controlled Access Units, Unidades de Acceso Controlado), de los LAMs (Lobe Attachement Modules, Módulos de Conexión al Lobe), etc. Cuando se usa fibra óptica en el backbone, las limitaciones de distancias son de 2 Kms. Para multimodo y 3 Kms para monomodo. Los medios de comunicación backbone más ampliamente usados son el UTP Categoría 3, para aplicaciones de voz, y fibras ópticas multimodos para aplicaciones de datos.

7.3. Armario/s para el cableado Una de las primeras decisiones que se debe tomar al planificar la red es la colocación del/de los armario(s) para el cableado, ya que es allí donde deberá instalar la mayoría de los cables y los dispositivos de networking. El estándar TIA/EIA-568-A especifica que en una LAN Ethernet, el tendido del cableado horizontal debe estar conectado a un punto central en una topología en estrella. El punto central es el armario para el cableado y es allí donde se deben instalar el panel de conexión y el hub. La decisión más importante es la selección del o los servicios o facilidades de distribución principal (MDF) o de distribución intermedia (IDF). El armario para el cableado debe ser lo suficientemente espacioso como para alojar todo el equipo y el cableado que allí se colocará, y se debe incluir espacio adicional para adaptarse al futuro crecimiento. El tamaño del armario va a variar según el tamaño de la LAN y el tipo de equipo necesario para su operación. Una LAN pequeña necesita solamente un espacio del tamaño de un archivador grande, mientras que una LAN de gran tamaño necesita una habitación completa. El estándar TIA/EIA-569 (para los MDF e IDF) especifica que cada piso deberá tener por lo menos un armario para el cableado y que por cada 1000 m2 se deberá agregar un armario para el cableado adicional, (cuando el área de piso cubierto supere los 1000 m2 o cuando la distancia del cableado horizontal supere los 90 metros). Área de servicio 1000 m2 800 m2 500 m2

Tamaño del armario para cableado 3.0 x 3.4 m2 3.0 x 2.8 m2 3.0 x 2.2 m2

* tamaño recomendado del armario basado en 1 estación de trabajo por cada 10 metros cuadrados

El hub principal de una topología en estrella extendida de LAN Ethernet generalmente se ubica en una parte central. Esta ubicación central es tan importante que, en un edificio alto, el MDF generalmente se ubica en uno de los pisos intermedios del edificio, aún cuando el POP se encuentre ubicado en el primer piso o en el sótano. El cableado backbone (líneas rojas) conecta el POP al MDF. El cableado backbone se utiliza también para conectar el MDF con los IDF que se encuentran ubicados en cada piso. Los tendidos de cableado horizontal (líneas negras) se irradian desde los IDF de cada piso hacia las distintas áreas de trabajo. Siempre que el MDF sea el único armario para el cableado del piso, el cableado horizontal se irradiará desde allí hacia los PCs de ese piso. Otro ejemplo de una LAN que requeriría probablemente más de un armario para el cableado sería la de un campus compuesto por varios edificios. El MDF se ubicaría en el medio del campus. En este caso, el POP se encuentra ubicado dentro del MDF. El cableado backbone (líneas rojas) se realiza desde el T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 3 2 13 32 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

MDF hacia cada uno de los IDF. Los IDF (recuadros amarillos) se encuentran ubicados en cada uno de los edificios del campus. Además, el edificio principal tiene un IDF, además de un MDF, de manera que todos las PCs quedan ubicadas dentro del área de captación. 7.3.1. Especificaciones ambientales de las habitaciones para armarios de telecomunicaciones Cualquier habitación o armario que se elija para servir de armario para el cableado debe cumplir con las siguientes pautas que incluyen, pero no se limitan a, aspectos tales como: 1. Materiales para paredes, pisos y techos: si existe un sólo armario para el cableado o si el armario sirve como MDF, entonces, el piso debe poder soportar la carga total que se obtiene con el equipo requerido, con una carga mínima de 4.8 kPA (100 lb/ft²) para los MDF y una carga mínima de 2.4 kPA (50 lb/ft²) para los IDF. Si es posible, la habitación deberá tener el piso elevado o piso falso para poder tender por debajo los cables horizontales entrantes que provienen de las áreas de trabajo. Si no es posible, deberá instalarse un bastidor de escalera de 30,5 cm en una configuración diseñada para soportar todo el equipamiento y el cableado propuesto. El piso deberá estar revestido de cerámica o de cualquier otro tipo de superficie acabada. Esto ayuda a controlar el polvo y protege al equipo de la electricidad estática. Un mínimo de dos paredes se debe cubrir con madera terciada A/C de 20mm que tenga por lo menos 2,4 m de alto. Si el armario es un MDF para el edificio, entonces el punto de presencia (POP) telefónico se puede ubicar dentro de la habitación. En tal caso, las paredes internas del sitio POP, detrás del PBX, se deben recubrir del piso al techo con madera terciada de 20mm, dejando como mínimo 4,6 m. de espacio de pared destinado a las terminaciones y equipo relacionado. Además se deben usar materiales de prevención de incendios que cumplan con todos los códigos aplicables (por ej., madera terciada resistente al fuego, pintura retardante contra incendios en todas las paredes interiores, etc.) en la construcción del armario para el cableado. Los techos de las habitaciones no deben ser techos falsos. Si no se cumple con esta especificación no se puede garantizar la seguridad de las instalaciones, ya que esto haría posible el acceso no autorizado. 2. Temperatura y humedad: se deben incluir sistemas de calefacción/ventilación/aire acondicionado como para mantener una temperatura ambiente de aprox. 21° con los equipos funcionando a pleno. No deberá haber cañerías de agua ni de vapor que atraviesen o pasen por encima de la habitación, salvo un sistema de rociadores, en caso de que los códigos locales de seguridad contra incendios así lo exijan. Se deberá mantener una humedad relativa a un nivel de entre 30% - 50% para no causar una corrosión severa de los hilos de cobre de los UTP y STP dado que esto reduce la eficiencia del funcionamiento de la red. 3. Ubicaciones y tipo de iluminación: aunque se debe evitar el uso de iluminación fluorescente en el recorrido del cable debido a la interferencia externa que genera, sin embargo se puede utilizar en armarios para el cableado si la instalación es adecuada. Los requisitos de iluminación para un armario especifican un mínimo de 500 lx (brillo de la luz equivalente a 50 bujías-pie) y que los dispositivos de iluminación se eleven a un mínimo de 2,6 m por encima del nivel del piso. 4. Alimentación eléctrica y tomacorrientes: si hay un sólo armario o si el armario sirve como MDF, debe tener como mínimo dos receptáculos para tomacorrientes dúplex de CA, dedicados, no conmutados, ubicados cada uno en circuitos separados. También deberá contar con por lo menos un tomacorrientes dúplex cada 1,8 m a lo largo de cada pared de la habitación, que debe estar ubicado a 150 mm por encima del piso. Se deberá colocar un interruptor de pared que controle la iluminación principal de la habitación en la parte interna, cerca de la puerta. 5. Acceso a la habitación y al equipamiento / Códigos de construcción y de seguridad. la puerta del armario deberá tener por lo menos 0,91 m. de ancho, y deberá abrirse hacia afuera de la habitación (para salir con facilidad). La cerradura deberá ubicarse en la parte externa de la puerta, pero se debe permitir que cualquier persona que se encuentre dentro de la habitación pueda salir en cualquier momento. Se podrá montar el hub, el panel de conexión y los demás equipos de las siguientes maneras: contra una pared mediante una consola de pared con bisagra: la consola deberá fijarse a la madera ° terciada que recubre la superficie de la pared subyacente. El propósito de la bisagra es permitir que el conjunto se pueda mover hacia afuera, para poder asi acceder con facilidad a la parte trasera de la pared (para el personal de reparaciones). Se debe tener cuidado, sin embargo, para que el panel pueda girar hacia fuera de la pared unos 48 cm. contra una pared mediante un bastidor de distribución: se deberá dejar un espacio mínimo de 15,2 ° cm entre el bastidor y la pared, para la ubicación del equipamiento, además de otros 30,5-45,7 cm para el acceso físico del personal. Una placa para piso de 55,9 cm., utilizada para montar el bastidor de distribución, permitirá mantener la estabilidad y determinará la distancia mínima para su posición final. montados en un gabinete para equipamiento completo: se necesitará un espacio libre de por lo ° menos 76,2 cm. frente al gabinete para que la puerta se pueda abrir. Generalmente, los gabinetes de estos equipos son de 1,8 m de alto x 0,74 m de ancho x 0,66 m de profundidad. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 3 3 13 33 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V 6.

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

Acceso a los cables y facilidad de mantenimiento: todos los cables que se tiendan a partir del MDF, hacia las IDF, computadores y habitaciones de comunicación ubicadas en otros pisos del mismo edificio, se deben proteger con un conducto o corazas de 10,2 cm. Asimismo, todos los cables que entren en los IDF deberán tenderse a través de los mismos conductos o corazas de 10,2 cm. La cantidad exacta de conductos que se requiere se determina a partir de la cantidad de cables de fibra óptica, UTP y STP que cada armario, computador o sala de comunicaciones puede aceptar. Se necesitan como mínimo dos corazas revestidas o conductos adicionales en cada armario para prever un futuro crecimiento. Cuando la construcción lo permita, todos los conductos y corazas revestidas deberán mantenerse dentro de una distancia de 15,2 cm. de las paredes. Todo el cableado horizontal desde las áreas de trabajo hacia un armario para el cableado se debe tender debajo de un piso falso. Cuando esto no sea posible, el cableado se debe tender mediante conductos de 10,2 cm ubicados por encima del nivel de la puerta. Para asegurar un soporte adecuado, el cable deberá tenderse desde el conducto directamente hasta un bastidor de escalera de 30,5 cm. que se encuentre dentro de la habitación. Cuando se usa de esta forma, como soporte del cable, el bastidor de escalera se debe instalar en una configuración que soporte la disposición del equipo. Finalmente, cualquier otra apertura de pared/techo que permita el acceso del conducto o del núcleo revestido, se debe sellar con materiales retardadores de humo y llamas que cumplan todos los códigos aplicables.

7.4. Planificación del cableado estructurado – Plano de piso El estándar TIA/EIA-568-A especifica que en una Ethernet topología estrella, cada dispositivo debe conectarse al hub mediante cableado horizontal. El punto central de la topología donde se halla el hub, se denomina armario para el cableado. Para determinar la ubicación de un armario para cableado, se dibuja un plano de piso del edificio (a escala aproximada) con todos los dispositivos de la red (las computadores, las impresoras y los servidores de archivo). Una buena forma de buscar ubicaciones para los armarios potenciales es identificando ubicaciones seguras que se encuentren cerca del POP, que puedan servir como armario para el cableado único o como MDF, en caso de que se requieran varias IDF. El POP es donde los servicios de telecomunicaciones, proporcionados por la compañía telefónica, se conectan con las instalaciones de comunicación del edificio. Resulta esencial que el hub se encuentre ubicado a corta distancia, a fin de facilitar una networking de área amplia y la conexión a Internet. El siguiente paso es determinar cuántos armarios se necesitaran para cubrir el área de red. Con el mapa y un compás se trazan círculos que representen radios de 50 m. a partir de cada ubicación de hub potencial y cada uno de los dispositivos de red del plano deberá quedar dentro de uno de estos círculos. Luego se verifica si existen ubicaciones de hub potenciales cuyas áreas de captación se superponen sustancialmente; de ser así, se podría eliminar una de las ubicaciones de hub. ¿Existen ubicaciones de hub potenciales cuyas áreas puedan contener todos los dispositivos que se deban conectar a la red? De ser así, una de ellas puede servir de armario para el cableado de todo el edificio. Si necesita más de un hub para cubrir todos los dispositivos, verificar si alguno de ellos está más cerca del POP que otros, de ser así, probablemente este represente la mejor opción para funcionar como MDF. 7.4.1. Topología cableado estrella El estándar 568-A especifica que un sistema de cableado estructurado use una topología estrella. Cada outlet de telecomunicación del área de trabajo debe estar conectado a un crossconect en un armario de telecomunicaciones. Por consiguiente todos los cables de un piso o área de un edificio se tienden hacia un punto central para la administración. Cada armario de telecomunicaciones debe cablearse en estrella desde el cuarto de equipos del edificio. En un ambiente de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 3 4 13 34 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

campus cada edificio es un cableado de la estrella de un área de administración principal. Al usar una topología estrella se elimina muchas de las trampas encontradas con los sistemas propietarios. Primero, una estrella física trabajaría aún si se conectara a una topología anillo o bus en el caso de que una estación falle, la electrónica de networking pueda desviar esa estación particular. Esto mantiene el problema local del lobe o estación y evita una caída global del sistema. La estrella permite cambios en las aplicaciones de red (como ir desde una aplicación basada en anillo o cadena a una orientada a bus) sin tener que tirar nuevos cables, salvando tiempo, esfuerzo y dinero. Con una buena planificación, cambiar un toma (outlet) de teléfono a una locación de workstation deber ser fácil, cambiando el patch cord en el armario y el equipo al toma. No se necesita tender o terminar ningún cable adicional. 7.4.2. Paneles de conexión y/o distribución La distribución física del cableado en estrella, bien al nivel de planta de edificio o de campus, necesita de un punto en el que coincidan todos los brazos, o segmentos de cableado, que configuran la misma. Tal punto de encuentro suele estar formado por un panel o paneles de conexión con sus entradas y salidas, conexionadas sus bocas activas con cables latiguillos (patch cord) para el encaminamiento de las comunicaciones en las distintas partes del edificio y para realizar cuantas conexiones se deseen entre los diferentes equipos. Las normas que regulan los cableados llaman a estos puntos distribuidores de planta, de edificio o de campus, y a los cableados que van desde el distribuidor hasta los puestos de trabajo, subsistema horizontal; a los que unen los distintos distribuidores de planta, subsistema de edificio; y a los que unen a éstos, subsistema de campus. Por seguridad, estos paneles de distribución se ubican en unos cuartos específicos, denominados comúnmente “cuartos técnicos” o “cuartos de cableado” o más bien llamados “wiring closet”. 7.4.3. Cableado horizontal y backbone Si el área de captación de 100 m. del armario de una topología en estrella simple no puede brindar suficiente cobertura para todos los dispositivos de red, la topología en estrella se puede extender mediante repetidores o hubs (estrella extendida), y estos se ubican en armarios para cableado adicionales llamados IDF (Intermediate Distribution Facilities, Facilidades de Distribución Intermedia) y se conectan a un hub central ubicado en otro armario para cableado denominado MDF (Main Distribution Facility, Facilidad de Distribución Principal). Como el equipamiento más complejo se encuentra ubicado en el punto más central de la topología en estrella extendida, a veces se conoce como topología en estrella jerárquica. Es sumamente importante que el hub principal o MDF de una topología en estrella extendida se ubique en la parte central, por lo que, en un edificio alto, el MDF generalmente se ubicará en uno de los pisos intermedios del edificio (aún cuando el POP se encuentre en el primer piso o en el sótano); en el caso de un campus compuesto por varios edificios el MDF se ubicará en el medio del campus (pudiendo, o no, estar el POP ubicado dentro del MDF). Los IDF se ubicaran en cada piso del edificio en un caso y en cada uno de los edificios del campus en el otro (podrá o no haber un IDF junto a un MDF en un mismo piso o en un mismo edificio). Se desprende de esto que es importante que el POP se encuentre cerca del MDF, pero no es, según las circunstancias, obligatorio. TIA/EIA recomienda el uso de UTP CAT 5 para el cableado horizontal cuando una LAN de Ethernet utiliza una topología en estrella simple. El estándar TIA/EIA-568 especifica que el tipo de cableado usado para realizar la conexión entre armarios en una LAN Ethernet con topología en estrella extendida se denomina cableado backbone también conocido como cableado vertical. El cableado backbone conecta el POP al T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 3 5 13 35 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

MDF y también conecta el MDF con los IDF que se encuentran ubicados en cada piso. El cableado horizontal irradia desde los IDF de cada piso hacia las áreas de trabajo. Si el MDF es el único armario para cableado del piso, el cableado horizontal irradiará desde allí hacia las PCs de ese piso. El cableado backbone incluye lo siguiente: Tendidos de cableado backbone • Conexiones cruzadas (cross-connects) intermedias y principales • Terminaciones mecánicas • Cables de conmutación utilizados para establecer conexiones cruzadas entre cableados backbone • Medios de networking verticales entre los armarios para el cableado de distintos pisos ° Medios de networking entre el MDF y el POP ° Medios de networking utilizados entre edificios en un campus compuesto por varios edificios ° TIA/EIA-568-A especifica el uso de uno de los siguientes tipos de medios de networking para cableado backbone: • • • •

UTP de 100 ohmios (cuatro pares) STP-A de 150 ohmios (dos pares) Fibra óptica de 2 fibras (dúplex) 62.5/125 µ Fibra óptica multimodo

Aunque TIA/EIA-568-A reconoce el cable coaxial de 50 Ohm generalmente no se recomienda usarlo para nuevas instalaciones y se anticipa que será eliminado como opción en la próxima revisión del estándar. La mayoría de las instalaciones de la actualidad usan normalmente el cable de fibra óptica 62,5/125 µ para el cableado backbone. TIA/EIA recomienda el uso de UTP CAT 5 para el cableado horizontal cuando una LAN de Ethernet utiliza una topología en estrella simple. En la topología en estrella extendida existen dos formas mediante las cuales un IDF se puede conectar al MDF: 1. Cada IDF se puede conectar directamente a la instalación de distribución principal. En ese caso, como el IDF se encuentra en el lugar donde el cableado horizontal se conecta con un panel de conexión en el armario para el cableado, cuyo cableado backbone luego se conecta al hub en el MDF, el IDF se conoce como Conexión Cruzada Horizontal (HCC). El MDF se conoce como Conexión Cruzada Principal (MCC) debido a que conecta el cableado backbone de la LAN a Internet. 2. el segundo método de conexión de un IDF al hub central utiliza un “primer” IDF interconectado a un “segundo” IDF. El “segundo” IDF se conecta entonces al MDF. En tales circunstancias, el IDF que se conecta a las áreas de trabajo se denomina conexión cruzada horizontal y el IDF que conecta la conexión cruzada horizontal al MDF se denomina Conexión Cruzada Intermedia (ICC). Ningún área de trabajo o cableado horizontal se conecta con la conexión cruzada intermedia cuando se usa este tipo de topología en estrella jerárquica. TIA/EIA-568-A especifica que no más de un ICC se puede atravesar para alcanzar el MCC. Las distancias máximas permitidas para el cableado varía según el tipo de cable. Para el cableado backbone, la distancia máxima para el tendido del cable también se ve afectada por la forma de uso del cableado backbone (es decir depende del uso o no de un ICC). Por ejemplo si se usa fibra óptica monomodo como cableado backbone para conectar el HCC al MCC, entonces la distancia máxima para el tendido será de 3.000 m. Si se utiliza para conectar el HCC a un ICC, y el ICC a un MCC, entonces, la distancia máxima de 3.000 m se debe dividir en dos secciones de cableado backbone, una entre el HCC y el ICC de 500 m y otra entre el ICC y el MCC de 2.500 m. 7.5. Prácticas de instalación T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 3 6 13 36 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

Es vital usar practicas apropiadas de instalación para asegurarse que el desempeño o performance del sistema entero no disminuye simplemente debido a una instalación inapropiada. Como ejemplo, al usar un sistema Categoría 5, cualquiera de las prácticas siguientes no puede, por sí mismas, reducir un sistema por debajo de la complacencia de la Categoría 5. Aun cuando muchos de esos items, como tirar cables y destrenzar los pares son inevitables, debe tenerse cuidado para no permitir que el efecto combinado baje la performance del sistema. Una de las primeras tareas de instalación es tirar los cables desde el armario de telecomunicaciones a cada toma de señal (outlet). La tensión máximo del tendido para la Categoría 5, según 568-A, es de 25 lbf. Una tensión más alta en el cable puede estirar los trenzados, o en efecto, destrenzar los pares. La tensión extrema también aumentará la atenuación. Una inspección visual del enlace instalado no permite identificar las limitaciones de tensión excedidas. El uso de técnicas apropiadas de tendido, tirar cordones o cuerdas y los cables lubricantes previenen este tipo de daño. Extender un cable desde el armario al outlet puede involucrar pasar por paredes, techos, suelos, canalizaciones, conductos, raceway, esquinas o curvaturas. Es crucial no exceder el radio de curvatura mínima del cable a instalar. Los cables de cuatro pares de la Categoría 5 deben mantener el radio de curvatura por cada giro en más de una pulgada. Los cables multipares Categoría 5 (más de 4 pares) tiene un radio de curvatura mínimo de 10 veces el diámetro externo del cable. Las curvas apretadas o tensas fuerzan a los pares a caber dentro de una cubierta achatada, o los destrenza, lo cual puede aumentar el NEXT en ese punto. El próximo paso en el proceso de instalación es preparar el cable para su terminación. Esto involucra cortar y sacar algo del material de cubierta externa (jacketing) y al destrenzado (untwisting) de los conductores. El material del jacketing no debe quitarse más de lo necesario para poder completar la terminación. Como se estipula en la 568-A, los pares en un cable Categoría 5 nunca debe ser destrenzados más de 1/2 pulgada desde el punto de terminación. Cualquier destrenzado extenso de los pares aumentará el crosstalk y la susceptibilidad al EMI/RFI. Después que todos los conductores de un cable se han terminado, el cable debe “vestirse” o administrarse. La administración del cable mantiene campos de terminación limpios y ordenados y mantiene aliviada la tensión del cable. El alivio de tensión transfiere el peso del cable desde el cable mismo a alguna clase de hardware de soporte. Sin el alivio de tensión, el peso del cable causará que se combe y en el futuro podría separarse de su terminación. Los lazos de cable (cables ties) son el método más popular para atar los cables al hardware de soporte. Estas tiras delgadas de plástico se doblan alrededor de un bulto de cables y se cinchan en forma bastante firme al soporte de cables. Los lazos de cable también permiten que los grandes bultos de cables sean más manejables y den una apariencia aseada a la instalación. Pero el exceso de cinchado de los lazos de cable tiene el mismo efecto que las curvaturas apretadas. Los conductores de los cables extremos en el bulto tienden a volverse aplanados. Un cinchado apropiado de los lazos de cable permitirá a los cables poder deslizarse fácilmente de un lado a otro (de adelante hacia atrás) dentro de su vuelta. No se recomienda el uso de grampas para las instalaciones Categoría 5. 7.5.1. Puesta a tierra Un conductor de 6 AWG, como mínimo, debe ser tendido desde el MDF a cada SDF y conectado al rack en cada terminación. El MDF debe estar puesto a tierra en una masa aceptable (tal como la tierra del servicio eléctrico). El cable entrante a un edificio desde afuera debe estar puesto a tierra en el punto de entrada o cerca de él. Esto incluye protección atmosférica. El cable blindado tiene que estar puesto a tierra en el rack (en el caso del backbone debe estar puesto a tierra en el MDF). El conector a tierra de seguridad (usado en los equipos eléctricos), se conecta con cualquier parte metálica expuesta del equipo. Las motherboards y los circuitos de los equipos de computación están eléctricamente conectados con el chasis. Este también los conecta con el conector a tierra de seguridad, que se utiliza para disipar la electricidad estática. El objeto de conectar la tierra de seguridad con las partes metálicas expuestas del equipamiento informático es impedir que esas partes metálicas se carguen con voltaje peligroso resultante de una falla del cableado dentro del dispositivo. Una conexión accidental entre el cable electrificado y el chasis es un ejemplo de una falla de cableado que se puede producir en un dispositivo de red. Si ocurriera una falla de este tipo, el conductor a tierra de seguridad conectado con el dispositivo serviría como una vía de baja resistencia para la conexión a tierra. El conductor a tierra de seguridad ofrece una vía de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 3 7 13 37 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

resistencia menor que el cuerpo humano. Cuando está instalada correctamente, la vía de baja resistencia provista por el conductor a tierra de seguridad ofrece una resistencia lo suficientemente baja, y una capacidad suficiente de transmisión de corriente, para impedir que se acumulen voltajes peligrosamente altos. El circuito se conecta directamente con la conexión electrificada a la tierra. Siempre que una corriente eléctrica atraviesa esta vía hacia la tierra, hace que se activen los dispositivos de protección como, por ejemplo, los disyuntores y los interruptores de circuito accionados por corriente de pérdida a tierra (GFCI) Al interrumpir el circuito, los disyuntores y los GFCI detienen el flujo de electrones y reducen el peligro de una descarga eléctrica. Los disyuntores protegen a la persona y al cableado de red, pero es necesario tener mayor protección, a menudo proporcionada por los supresores de sobretensiones transitorias y los sistemas de alimentación ininterrumpida (UPS) para proteger a los equipamientos de computación y de networking. 7.5.2. Protección contra incendios Esta protección es indispensable. Tipos de materiales a usar: cementado, macilla, cremas siliconadas, rellenos, cojines y cobertores. Se recomienda el uso de macillas u otros materiales removibles los cuales permitirán el agregado de futuros cables a la vía de protección. Los cobertores deberán ser usados durante la construcción para áreas donde el acceso constante es necesario y se desea un método de protección no permanente.

88.. EESSSPPPEEECCCIIIFFFIIICCCAAACCCIIIO O N E P A R A E L O N A M E N T O D E L O O Y O N E X O N E FUUUNNNCCCIIIO MEEEDDDIIIO FÍÍÍSSSIIICCCO CO ON NE ESSS P PA AR RA AE EL LF ON NA AM MIIIE EN NT TO OD DE EL LM OF OY YC ON NE EX XIIIO ON NE ESSS.. 8.1.1. Cable par Trenzado Sin Blindar de 100 Ohms - Sistemas de Cableado (UTP) Cable Horizontal: conforme la velocidad de transmisión aumentaba, el cableado de alto rendimiento se ha convertía en una necesidad. Además, se debió establecer algunos puntos para poder clasificar a los cables UTP horizontales y del equipo de conexión, por su capacidad de rendimiento. Estas capacidades han sido detalladas en una serie de categorías como sigue: 1. Categoría 3: cables y componentes con frecuencias de transmisión de hasta 16 MHz. Los sistemas categoría 3 son los más usados por las aplicaciones de baja velocidad de datos como las transmisiones asincrónicas, sistemas telefónicos y aplicaciones de datos de velocidad media como Token Ring a 4 Mbps o Ethernet a 10 Mbps. 2. Categoría 4: cables y componentes con frecuencias de transmisión de hasta 20 MHz. Pueden manejar cualquier aplicación Categoría 3 así como Token Ring a 16 Mbps. 3. Categoría 5: cables y componentes con frecuencias de transmisión de hasta 100 MHz. Diseñada para manejar cualquier aplicación actual de voz, dato o video basada en cobre. Hasta hoy, la Categoría 5 es el medio estándar más reconocido para las aplicaciones de alta velocidad debido a su fácil instalación, bajo costo y reducido espacio de tendido. Comparado con STP, los cables UTP son más pequeños, más flexibles y menos caro. Los componentes electrónicos usados con UTP son los más baratos de los tres medios reconocidos (factor decisivo para su elección). El uso de cables y componentes Categoría 5, sin embargo no garantiza la performance de la Categoría 5. La instalación de un Sistema de Cableado Estructurado Categoría 5 tiene un tremendo efecto sobre el nivel final de performance. En efecto, sin la instalación apropiada, la alta performance del sistema Categoría 5 se reduce a lo de un simple sistema telefónico. Los cables son instalados desde el TC al área de trabajo en una topología estrella. Un mínimo de dos conexiones / outlets de telecomunicaciones son especificados por área de trabajo. La distancia máxima desde el TC al área de trabajo es de 90 metros (295 pies). El primer cable especificado puede ser el UTP categoría 3, 4 pares y 100 Ohm o uno mejor. El segundo cable puede ser un: * UTP categoría 5, 100 Ω, 4 pares terminados en un jack modular de 8 posiciones. * STP, 150 Ω, 2 pares terminado en un conector de datos tipo IEEE 802.5. * Fibra multimodo de 62.5 / 125 um terminado en un conector SC. Las características de transmisión, en esta sección, se aplican a los cables consistentes de 4 UTPs de 24 AWG. El largo total combinado de todos los patch cords no debe exceder los 10 mts, con un largo máximo de 6 mts. Los tipos de caminos a seguir el cable pueden ser: pisos modulares, ductos bajo piso, conductos y cielorrasos. Impedancia característica de los cables horizontales: 100 Ohms + 15 % desde 1 Mhz hasta la frecuencia más elevada referida (16, 20 ó 100 Mhz) de una categoría particular.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 3 8 13 38 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

Frecuencia (MHZ) 0.064 0.150 0.256 0.512 0.772 1.0 4.0 8.0 10.0 16.0 20.0 25.0 31.25 62.5 100.0

Cable Horizontal UTP - Atenuación / Pérdida NEXT* (peor par) Categoría 3 (dB) Categoría 4 (dB) Categoría 5 (dB) Atenuación / NEXT Atenuación / NEXT Atenuación / NEXT 0.9 / 0.8 / 0.8 / - / 53 - / 68 - / 74 1.3 / 1.1 / 1.1 / 1.8 / 1.5 / 1.5 / 2.2 / 43 1.9 / 58 1.8 / 64 2.6 / 41 2.2 / 56 2.0 / 62 5.6 / 32 4.3 / 47 4.1 / 53 8.5 / 27 6.2 / 42 5.8 / 48 9.7 / 26 6.9 / 41 6.5 / 47 13.1 / 23 8.9 / 38 8.2 / 44 -/10.0 / 36 9.3 / 42 -/-/10.4 / 41 -/-/11.7 / 39 -/-/17.0 / 35 -/-/22.0 / 32

Atenuación: por 100 metros (328 pies) a 20 º C. NEXT: >= 100 metros (328 pies). * NEXT: Near End CrossTalk. Cable Central o de Backbone Impedancia característica del cableado central: 100 OHMs + 15 % desde 1 MHz hasta la frecuencia referida más elevada (16, 20 ó 100 MHz) de una categoría particular. Cable Central UTP - Atenuación / NEXT - Pérdida de Suma de Energía Frecuencia Categoría 3 (dB) Categoría 4 (dB) Categoría 5 (dB) (MHZ) Atenuación/Siguiente Atenuación/Siguiente Atenuación/Siguiente 0.064 0.9 / 0.8 / 0.8 / 0.150 - / 53 - / 68 - / 74 0.256 1.3 / 1.1 / 1.1 / 0.512 1.8 / 1.5 / 1.5 / 0.772 2.2 / 43 1.9 / 58 1.8 / 64 1.0 2.6 / 41 2.2 / 56 2.0 / 62 4.0 5.6 / 32 4.3 / 47 4.1 / 53 8.0 8.5 / 27 6.2 / 42 5.8 / 48 10.0 9.7 / 26 6.9 / 41 6.5 / 47 16.0 13.1 / 23 8.9 / 38 8.2 / 44 20.0 -/10.0 / 36 9.3 / 42 25.0 -/-/10.4 / 41 31.25 -/-/11.7 / 39 62.5 -/-/17.0 / 35 100.0 -/-/22.0 / 32 Atenuación: por 100 metros (328 pies) a 20 º C. NEXT: > 100 metros (328 pies). Cable de Patcheo o Conexión Para asegurarse de que el equipo de conexión instalado (salidas de información, cables de patcheo, interconexión y paneles, conectores, placas de conexiones transversales, etc.) tendrá un efecto mínimo en el desempeño del sistema total de cableado, deben cumplirse las características y parámetros de desempeño presentados en esta sección.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 3 9 13 39 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

Equipo de conexión UTP - Atenuación / NEXT Pérdida Frecuencia Categoría 3 Categoría 4 Categoría 5 (MHZ) (dB) (dB) (dB) 1.0 0.4 / 58 0.1 / 65 0.1 / 65 4.0 0.4 / 46 0.1 / 58 0.1 / 65 8.0 0.4 / 40 0.1 / 52 0.1 / 62 10.0 0.4 / 38 0.1 / 50 0.1 / 60 16.0 0.4 / 34 0.2 / 46 0.2 / 56 20.0 -/0.2 / 44 0.2 / 54 25.0 -/-/0.2 / 52 31.25 -/-/0.2 / 50 62.5 -/-/0.3 / 44 100.0 -/-/0.4 / 40 El método preferido de terminación para todos los equipos de conexión utiliza el contacto de desplazamiento aislante (IDC). Los siguientes requerimientos se aplican únicamente a alambre y cable utilizado para conexiones provisionales y puentes de conexiones transversales: Limitaciones de máxima longitud de puentes / conexiones provisionales: * 20 metros (66 pies) en conexiones transversales principales. * 20 metros (66 pies) en conexiones transversales intermedias. * 6 metros (20 pies) en armario de telecomunicaciones. * 3 metros (10 pies) en áreas de trabajo. Para la construcción de cables de patcheo se usan conductores trenzados para flexibilidad extensa. Atenuación Máxima de Cable utilizado en Cables de Patcheo Frecuencia Categoría 3 Categoría 4 Categoría 5 (MHZ) (dB) (dB) (dB) 1.0 3.1 2.6 2.4 4.0 6.7 5.2 4.9 8.0 10.2 7.4 6.9 10.0 11.7 8.3 7.8 16.0 15.7 10.7 9.9 20.0 12.0 11.1 25.0 12.5 31.25 14.1 62.5 20.4 100.0 26.4 Atenuación: (por 100 metros -328 pies- a 20 º C) = Atenuación Horizontal de cable UTP + 20 % (debido a conductores trenzados). Para asegurar la integridad total del sistema, los cables horizontales deben terminar con el equipo de conexión de la misma categoría o más elevada. También los cables utilizados para cables de parcheo y puentes de interconexión necesitan ser la misma categoría de rendimiento o más, conforme a los cables horizontales a los que están conectados. Finalmente, los sistemas de cableado UTP no son de categoría 3, 4 ó 5 dúctil, a menos que todos los componentes del sistema satisfagan sus respectivos requerimientos de categoría. 8.1.2. Conductor Trenzado Apantallado 150 Ohm (STP-A) - Sistemas de Cableado Los cables conductores trenzados apantallados reconocidos (STP) son IBM tipo 1A para distribución central y horizontal e IBM tipo 6A para cables provisionales. Cable STP-A Horizontal y Central: 2 pares, 22 AWG sólido. Impedancia característica: 150 OHMs + 10 % (3 MHz - 300 MHz).

Atenuación Balanceada de Modo del Cable. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 4 0 14 40 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O STP-A Horizontal y Central / NEXT Pérdida (peor par). Frecuencia Atenuación/SIGUIENTE (MHZ) (dB) 4 2.2 / 58.0 8 3.1 / 54.9 10 3.6 / 53.5 16 4.4 / 50.4 20 4.9 / 49.0 25 6.2 / 47.5 31.25 6.9 / 46.1 62.50 9.8 / 41.5 100 12.3 / 38.5 300 21.4 / 31.3

Atenuación: 100 metros (328 pies) a 25 º C. La Atenuación Balanceada de Modo del cable de patcheo STP-A 150 OHM es aproximadamente 1.5 x aquella del cable horizontal o central STP-A (5 MHz - 300 MHz). El rendimiento Next del cable de patcheo STP-A 150 OHM mide aproximadamente 6 dB menos que el cable horizontal o central STP-A (5 MHz - 300 MHz). 8.1.3. Sistemas de Cableado de Fibra Óptica

* *

Medios de Cableado de Fibra Óptica Horizontal: 62.5 / 125 um fibra óptica multimodo (mínimo de dos fibras). Central: 62.5 / 125 um fibra óptica multimodo y unimodo ó monomodo. Rendimiento de Cable de Transmisión. Parámetros de Desempeño para Transmisión Multimodo (Horizontal y Central) Longitud de Atenuación Máxima Anchura de Banda Onda (nm) (dB/KM) Mínima (MHz x Km) 850 3.75 160 1300 1.5 500

Conector de Fibra Óptica: conector específico 568SC. Color de Identificación: beige para el conector multimodo 62.5 / 125 um / acoplador. Azul para el conector unimodo o monomodo 8.3 / 125 um / acoplador. Una razón clave por la que ahora el estándar especifica el conector de fibra tipo-568SC, es para armonizar con la superficie de contacto IEC específica actualmente en uso en Europa. Cabe aclarar que las aplicaciones con una base instalada de conectores de fibra tipo ST, son respaldadas por el uso continuo de actualizaciones presentes y futuras de redes de fibra óptica existentes. Salida de Información de Fibra Óptica. Características requeridas: * Capacidad para terminar, mínimo de dos fibras en acoplamiento 568SC. * Medios de proteger la fibra y de mantener un radio curvo mínimo de 30 nm. * Capacidad para almacenar un mínimo de 1 metro de cable de 2 fibras. * Conductor superficial que se sujete directamente sobre la caja eléctrica estándar de 4” x 4”.

Parámetros de Desempeño para Transmisión Monomodo (Backbones) T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 4 1 14 41 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O Longitud de Onda (nm) 1310 1550

Atenuación Máxima 0.5 0.5

99.. N O R M A NO OR RM MA ASSS Especifican un sistema de cableado genérico que soporta una amplia gama de métodos de transmisión y que puede ser instalado sin conocimiento a prori de la aplicación que será instalada. Todos estos tipos están perfectamente definidos al nivel de requerimientos eléctricos, de transmisión, mecánicos, de instalación y de conectividad. Las normativas más completas sobre cableados son las emitidas por el ANSI/EIA/TIA (Instituto Americano de Normalización/Asociación de Industrias Electrónicas/Asociación de Industrias de la Telecomunicación) en EUA, los organismos más activos en este campo, aunque el ISO/IEC (Organización Internacional de Normas/Comisión Internacional de Electrotecnia) con sede en Europa está empezando a jugar un papel muy activo en este terreno con la emisión de estándares. El ANSI provee estándares para que los productos sean uniformados por los fabricantes. Los usuarios pueden luego construir redes basadas en diferentes marcas que podrán interoperar. Destacamos a continuación las dos más significativas de cada una de ellos: • ANSI/EIA/TIA SP-2480: estándar de cableado de telecomunicaciones para Construcciones Comerciales, que es una revisión actualizada y pendiente de votación (Agosto de 1.994) para su aprobación de la EIA/TIA 568 publicada en 1.991 en los Estados Unidos (actualmente vigente). También comprende y sustituye a las EIA/TIA TSB36, TSB40 y TSB53 (Boletines Técnicos de Sistemas). • ISO/IEC IS 11801: estándar de cableado genérico para Cableado de Establecimientos Comerciales/Locales de Consumidor. Actualmente en borrador y pendiente de aprobación como norma de carácter internacional, por lo que se conoce como DIS 11801 (Draft of International Standard 11801). Contempla la definición de la estructura genérica del sistema de cableado, implementación y especificaciones detalladas de los diferentes componentes, así como los procedimientos de medida y administración. La armonización de la ISO/IEC 11801 como un estándar europeo por CEN/CENELEC (Comité Europeo de Normalización/Electrónica) se prevé para después del verano de 1.994. Ambas definen genéricamente los cableados para las telecomunicaciones en edificios, de forma que soporten entornos multiproductos y multifabricantes. Definen, también, la capacidad (performance) y los criterios técnicos para las distintas configuraciones de cableados y sus respectivos elementos de interconexión, así como, en detalle, la estructura de éstos (cableado horizontal, vertical, administración, área de trabajo, cuartos de cableados, etc.) En cada uno de los niveles anteriores se definen topología y medio de transmisión, o sea, los tipos de cables y cómo se conexionan. Estos son: * Cables de cobre de pares trenzados sin apantallar de 100 Ohmios de impedancia (100 +/- 15 % OHM UTP, que más adelante conoceremos en sus distintas versiones). * Cables de cobre de pares trenzados, con o sin apantallamiento exterior, de 120 Ohmios de impedancia. * Cables de cobre de pares trenzados apantallados individualmente y en su conjunto, de 150 Ohmios de impedancia (150 OHM STP). * Cable coaxial de 50 Ohmios de impedancia. * Cable de Fibra Óptica de 50/125 y 62,5/125 um. Existe un número de estándares relacionados que también deberían seguirse para asegurarse beneficios mayores de un sistema de cableado estructurado. Estos estándares relacionados incluyen al ANSI/EIA/TIA-569, “Estándar Comercial para la Construcción de Pahtways y Spaceways de Telecomunicaciones”. Este estándar provee guías de diseño para habitaciones, áreas y pathways (camino de recorrido del cable) a través del cual los equipamientos y medios de telecomunicaciones son instalados. También detalla algunas de las consideraciones a seguir cuando se diseña y construye un edificio que incluirá un sistema de telecomunicaciones. Otro estándar relacionado es el ANSI/TIA/EIA-606, “Estándar de Administración para Infraestructuras de Telecomunicaciones de Edificios Comerciales”, que provee estándares para codificación de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 4 2 14 42 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

color, rotulado y documentación de un sistema de cableado instalado, permitiendo mejorar la administración de una red al crear métodos que permiten registrar los movimientos, cambios y adiciones. También facilita la resolución de problemas al detallar cada cable tendido de acuerdo al tipo, performance, aplicación, usuario y esquema. El ANSI/TIA/EIA-607, “Requerimientos de Conexiones y de Tierra de los Edificios Comerciales para Telecomunicaciones”, describe prácticas para la instalación de sistemas a tierra para asegurarse un nivel de referencia de tierra confiable para todos los equipos de telecomunicaciones subsequentementes instalados. Cada uno de estos estándares trabaja en conjunción con el 568-A. Estándares adicionales como el NEC (National Electric Code, Código Eléctrico Nacional) o las leyes y provisiones locales también deben ser revisados cuando se diseña e instala un sistema de telecomunicaciones.

9.1 Estándar ANSI / EIA / TIA 568-A 1991 - Cableado de telecomunicaciones para construcciones comerciales 9.1.1. Propósito de estándar TIA / EIA 568-A: • •

Establecer un cableado estándar genérico de telecomunicaciones que respaldará un ambiente multiproveedor, multiproductos. Permitir el planeamiento e instalación de un sistema de cableado estructurado para construcciones comerciales con un poco de conocimiento de los productos de telecomunicaciones que subsecuentemente serán instalados. Establecer criterios de ejecución, de performance y técnico para varias configuraciones de sistemas de cableado, de las interfaces y conexión de los respectivos elementos (incluyendo outlet/conector de telecomunicaciones, dentro de un edificio comercial y entre edificios en un ambiente de Campus).

9.1.2. Campo del estándar TIA / EIA 568-A • • • • • •

El estándar especifica: los requerimientos mínimos para cableado de telecomunicaciones dentro de un ambiente de oficina o edificio, un sistema de cableado con una topología y distancia recomendadas, los parámetros de los medios específicos de comunicación que determinarán la performance o rendimiento, disposiciones de conexión y sujeción para asegurar la interconexión, los conectores específicos y sus asignaciones de pin para asegurarse la interconectividad, la vida productiva de los sistemas de telecomunicaciones por cable por más de 10 años.

9.2. TSB-36 (Cable Dominante) Este boletín, un apéndice del estándar 568, cubre desde UTP Categoría 3 a Categoría 5, no reconoce las Categorías 1 y 2. Establece estándares mínimos para: Capacitancia mutua, • Impedancia característica, • Atenuación y, • NEXT (Near End Crosstalk) •

9.3. TSB-40 (Conector Dominante) Este apéndice define características de conectorizado de hardware para cables UTP con terminación de Categoría 3 hasta Categoría 5. Establece estándares mínimos para: Atenuación, ♦ NEXT y, ♦ Pérdidas de retorno ♦ Los conectores están categorizados para compatibilizar con el cable y tener los mismos límites que los cables definidos en TSB-36. Adicionalmente define parámetros apropiados de instalación: Destrenzar los cables no más de 1.0" (2,5 cm) para categoría 4 y no más de 0.5" (1,25 cm) para Categoría ♦ 5 Uso de patches de manufactura industrial ♦ Radio mínimo de curvatura de 8 veces el diámetro del cable ♦

1100.. C O N C L U Ó N CO ON NC CL LU USSSIIIÓ ÓN N T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 4 3 14 43 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O

Muchas compañías están invirtiendo grandes cantidades de dinero en las últimas tecnologías para aumentar la velocidad y capacidad de sus sistemas de comunicaciones para tener más ventajas competitivas. Nuevas aplicaciones como ATM, 100BASE-T, TP-PMD (Pares trenzados dependientes del medio físico) y FDDI (Interface de datos distribuidos por fibra) permitirá a las personas compartir inmensas cantidades de información en la forma de voz, datos y video más rápidamente. Sin embargo, el invertir en lo último en electrónica para soportar estas aplicaciones será un ejercicio inútil si la planta de cableado instalado no puede manejar las frecuencias involucradas. El cableado estructurado permite a los negocios construir una infraestructura para sus necesidades de comunicación que durar más allá de una década. Sin embargo, la habilidad para ejecutar cualquier aplicación, en cualquier área de trabajo y en cualquier momento sólo sobreviene con una planificación apropiada y con la instalación de un sistema de cableado estructurado de alto rendimiento. La planificación apropiada incluye examinar todas las aplicaciones, las tecnologías de red y los lugares de los outlets de telecomunicaciones que se usan actualmente o que podrían usarse en el futuro. Considerar todos los escenarios previsibles permite instalar una infraestructura física una sola vez, que sirva aún para aquellos requisitos comerciales por venir. Los movimientos, agregados y cambios no requieren de mucho tiempo para el tendido de nuevo cables, excepto cuando se expande el espacio físico. Escoger los medios de comunicación apropiados para una nueva instalación de cable depende de las aplicaciones y de los servicios que se espera que la red proporcione. Los cables UTP Categoría 3 son suficientes si una red se diseña estrictamente para telefonía o aplicaciones de datos de velocidad media o baja, como Ethernet. Áreas eléctricamente ruidosas como laboratorios de rayos X, salas con equipos HVAC o cercanas a motores pueden requerir cables de fibra óptica o con blindaje. Las soluciones completas de fibra son ideales para empresas que quieren una vez el cable sin tener en cuenta la aplicación a usar hoy o mañana, o para grupos de usuarios que exigen grandes cantidades de información. Las preocupaciones presupuestarias deben impactar en las decisiones hechas a este punto. Sin embargo, mantenga en mente que los sistemas basados en estándares se diseñan para durar un mínimo de 10 años desde el tiempo de instalación. Incluso, muchos de los productos de hoy se garantizan para periodo más largos como 15 o 25 años. Se debe tener muy en cuenta la necesidad de usar testers de cables y analizadores de red, debido a que la actual y la revisada 568 estándar no son una guía real para el testeo de la instalación, el estándar es un documento de referencia pero no es un “benchmark” real. Un sistema apropiadamente planeado e instalado permitirá a las compañías fijar su tiempo, atención y recursos escasos importantes en otras áreas durante años. La meta final es ejecutar cualquier cosa, en cualquier parte y en cualquier momento. La otra opción es enfrentar cada problema de red cada vez que este se presente. La opción depende de uno mismo. Cuadro resumen de las definiciones de la Industria sobre Cableado Estructurado-Twisted Pair

NIVEL 1 POTS & Low Speed Data NIVEL 2 ISDN Data NIVEL 3 High Speed Data & LAN-568A 10BASET

AWG / tipo

Con / sin escudo ?

Data speed mb por seg

Impedancia característica ohms

Atenuacion maxima db/m

Capacitancia mutua pf/ft

Near end xtalk db min

22 Y 24 SOL

CON Y SIN

<1

NA

NA

NA

NA

90-120 @ 256 Khz 87-117.5 @ 512 Khz 85-114 @ 772 Khz 84-113 @ 1 Mhz TYPE 3 Media Only 120+/-15 @ 1-20 Mhz 110+/-15 @ 128 Khz 105+/-15 @ 256 Khz 102+/-15 @ 772 Khz 100+/-15 @ 16 Mhz

4.0 @ 256 Khz 5.66 @ 772 Khz 6.73 @ 772 Khz 8.0 @ 1 Mhz 8.0 @ 1 Mhz

NA

NA

2.8 @ 64 Khz 6.8 @ 1 Mhz 17.0 @ 4 Mhz 30.0 @ 10 Mhz 40.0 @ 16 Mhz

20 MAX

22 Y 24 SOL

24 SOL

CON Y SIN

4 Max

CON Y SIN

16 MAX

100+/-15 @ 1-20 Mhz

NIVEL 4 Extended Distance LAN EIA Extended 100 IBM

24 SOL

CON Y SIN

20 MAX

22 SOL 100 IBM DGM

CON Y SIN

20 MAX

100+/-15 @ 1 Mhz

NIVEL 5 Extended

22 y 24 SOL

Individual y BRD

100 MAX

100+/-15 @ 1-100 Mhz

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 4 4 14 44 4

6.5 @ 1 Mhz 13.0 @ 4 Mhz 22.0 @ 10 Mhz 27.0 @ 16 Mhz 31.0 @ 20 Mhz 5.5 @ 1 Mhz 11.0 @ 4 Mhz 17.0 @ 10 Mhz 22.0 @ 16 Mhz 24.0 @ 20 Mhz 6.3 @ 1 Mhz 13.0 @ 4 Mhz

17 MAX

17 MAX

17 MAX

41.0 @ 1 Mhz 32.0 @ 4 Mhz 26.0 @ 10 Mhz 23.0 @ 16 Mhz 59.0 @ 1 Mhz 50.0 @ 4 Mhz 42.0 @ 10 Mhz 39.0 @ 16 Mhz 38.0 @ 20 Mhz 59.0 @ 1 Mhz 50.0 @ 4 Mhz 42.0 @ 10 Mhz 39.0 @ 16 Mhz 38.0 @ 20 Mhz 62.0 @ 1 Mhz 53.0 @ 4 Mhz

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO O IIIV V

S S C E M A S D D O D O SIIISSSTTTEEEM MA AS SD DEEE C CAAABBBLLLEEEAAAD DO OE ESSSTTTRRRUUUCCCTTTUUURRRAAAD DO O AWG / tipo

Con / sin escudo ?

Data speed mb por seg

Impedancia característica ohms

Speed & Distance LAN "Data Grade Media

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

Atenuacion maxima db/m 20.0 @ 10 Mhz 25.0 @ 16 Mhz 28.0 @ 20 Mhz 67.0 @ 100 Mhz

1 1 4 5 14 45 5

Capacitancia mutua pf/ft

Near end xtalk db min 47.0 @ 10 Mhz 44.0 @ 16 Mhz 42.0 @ 20 Mhz 32 @ 100 Mhz

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

R MPPLLIIA A ((W REEDDEESS DDEE Á ÁRREEAA A AM WA AN NSS)) 11.. IINNNTTTRRRO O D U C C Ó N OD DU UC CC CIIIÓ ÓN N En las telecomunicaciones modernas de hoy en día, la necesidad de extender las redes está en rápido crecimiento. Mientras que una red LAN puede cubrir la mayoría de las necesidades de comunicación y de compartición de recursos dentro de un campus o empresa, la conectividad WAN permite a los usuarios y organizaciones tomar una mayor ventaja de los servicios de internetworking como Internet, comercio electrónico (e-commerce) y videoconferencia. En este capítulo se presentarán los diversos protocolos y tecnologías que se utilizan en los entornos de Red de Área Amplia (WAN). Se verán los aspectos básicos de las WAN, incluyendo las tecnologías WAN comunes, tipos de servicios de área amplia, formatos de encapsulamiento y opciones de enlace. Se describirá los enlaces punto a punto, la conmutación de circuito, la conmutación por paquetes, los circuitos virtuales, los servicios de acceso telefónico (discado) y los dispositivos WAN. Se hará una introducción al propósito funcional de una WAN, las características que definen las dimensiones de una red WAN, se comparara y contrastará los principales tipos de tráfico (voz, datos, video) y se explicará el significado e impacto de la convergencia hacia las redes multiservicios emergentes. En la figura se describe la arquitectura general de una WAN, donde las cajas en la red representan dispositivos de conmutación o conmutadores (switches) para proveer caminos alternativos hacia el destino. Consideremos que una WAN es análoga al sistema telefónico de voz. Notar que cada switch en una WAN mantiene la conexión al otro switch, o destino final, hasta que la “llamada de datos” termine.

22.. W M P L A WA AN N:: R REEEDDDEEESSS DDDEEEÁ ÁRRREEEAAAA AM MP PL LIIIA A Las redes WANs nacieron mucho antes que las LANs, como redes de teleprocesamiento de los mainframes. Surgieron como una necesidad de dotar a las oficinas remotas, sucursales de banco, etc., de las facilidades informáticas de la computadora central. Antiguamente se hablaban de redes IBM SNA/SDLC, redes asincrónicas y en general de redes globales. De modo que las redes de alcance remoto ya existían cuando hacia mediados de la década pasada se comenzó a denominarlas WANs (Wide Área Network, Redes de Área Amplia o Redes de Área Extensa), siguiendo una construcción similar al acrónimo de las Redes Locales (LANs). Por entonces (década del 70’) eran conexiones entre Hosts (generalmente mainframes y miniconputadoras) y oficinas remotas, equipadas generalmente con concentradores de grupos de terminales tontas. Los servicios eran costosos y sólo lo justificaban las empresas más grandes. En la primera mitad de la década del 80’ hubo dos acontecimientos que marcaron el desarrollo de las redes WANs: 1. la aparición de las primeras redes de datos públicas bajo el protocolo X.25 (CCITT) y, 2. la necesidad de interconectar tanto los hosts bajo sistema operativo UNIX como las nuevas redes LAN que se iban instalando. Debido a que en esa época el único medio electrónico expandido a través de ciudades era la red telefónica, la misma fue la primera en ser utilizada para comunicaciones de computadoras a través de la WAN. Este medio no permitía a múltiples computadoras compartir el mismo medio de comunicación, como en las LANs. La tecnología desarrollada y conmutadores dedicados se usaron en las WANs para permitir la comunicación entre computadoras. De esto surge la analogía con los sistemas telefónicos de voz; esto es, una “llamada” de datos puede ser requerida, entonces se establece una conexión dedicada entre dos computadoras. La llamada (como en el sistema telefónico) puede atravesar distintos conmutadores o switches WAN antes de llegar a su destino final. Una WAN se usa típicamente para conectar dos o más redes LANs. Como se sabe, una LAN es un sistema de comunicación propietario privado, diseñado para permitir que los usuarios accedan y compartan recursos (computadoras, impresoras, servidores) con otros usuarios. Las LANs que están interconectadas por una WAN T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 4 9 14 49 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

pueden localizarse en la misma área geográfica, como un parque industrial o campus, ó en áreas geográficas separadas, como ciudades o países diferentes. Existe un gran número de servicios de transmisión usados para soportar comunicaciones WAN, todos ellos utilizando componentes de hardware que conectan a las diferentes LANs. Para los usuarios conectados, todos esos servicios y componentes trabajan en conjunto (un sistema WAN) para crear la ilusión de una gran red virtual (la nube WAN) (ver figuras). A partir de la segunda mitad de la década del 80’ hasta nuestros días, el desarrollo de las redes WAN se vio afectado por: a) la enorme popularización de las PC y sobre todo de las Redes Locales, así las necesidades comenzaron a crecer rápidamente y a cambiar de fisonomía. De los enlaces jerárquicos se fue pasando a la conectividad entre pares o iguales, además de multiplicarse los puntos que se desean conectar. El resultado es que, especialmente en países más avanzados, las redes corporativas consisten ahora en LANs conectadas a través de enlaces de transmisión WANs. b) la estandarización de nuevos protocolos de transmisión de datos muchos más eficientes y con soporte para mayores velocidades que los tradicionales (X.25 por ejemplo) como ser Frame Relay, ISDN y SMDS, y se vislumbra ATM y SONET/SDH como las tecnologías de banda ancha. c) se promocionan las llamadas “superautopistas de comunicaciones” en EEUU; las aplicaciones multimedia comienzan a aparecer tímidamente y la telefonía sin hilos alcanza un enorme éxito, con las redes GSM y la utilización masiva de satélites para la difusión de todo tipo de información. d) además, y siempre en aquellos países, la competencia y los costos de los servicios, así como el de los equipamientos, han bajado como para que incluso empresas relativamente pequeñas puedan aprovechar los beneficios de este tipo de comunicaciones. Claro que no todas pueden permitirse tecnologías de punta como Frame Relay o menos aún ATM, pero obviamente que están interesadas en las mejores soluciones para sus problemas de comunicaciones, sin que esto afecte adversamente su economía. e) la incorporación de tecnología digital en los enlaces, posibilitando mayores velocidades, una menor tasa de error, mayor confiabilidad, transferencias de cientos de Mbps y sistemas de conmutación rapidísimos. f) el soporte de transporte no sólo de datos sino también de telefonía y video, cristalizados en la estandarización del protocolo ATM. g) un acercamiento de los protocolos WAN a los protocolos LAN de la mano de ATM. 2.1. Objetivo El objetivo que se busca es el de permitir el acceso a datos y aplicaciones críticas a usuarios ubicados en otros puntos de la propia ciudad o de otras ciudades incluso del exterior. Se necesita la interconexión de LANs para lograr comunicaciones más eficientes entre usuarios dispersos, así como lograr también un mayor ancho de banda para aplicaciones de imágenes y video. Todo esto se quiere lograr con una adecuada administración y control de costos, así como permitir un adecuado crecimiento o expansión. El último punto adquiere mayor relevancia en cuanto se cruza el umbral un poco superficial de creer que simplemente se alquila un servicio y se sale de él si se consigue algo mejor y/o más barato. En realidad las empresas deben tener no sólo la posibilidad de acomodar mayores demandas de tráfico en el futuro, sino estar cubiertas de que los cambios tecnológicos, que se saben ocurren demasiado deprisa, no vuelvan obsoletos el equipamiento y el software necesarios para los equipos que se contratan; o peor aún que operen sus redes con equipamiento no adecuado o bien con parches en un software no preparado o adaptado a las nuevas situaciones, de forma tal que se reduce considerablemente la performance de una WAN, con mayores costos e insatisfacción en los usuarios. Si bien algunos tipos de WANs que se verán no existen en la Argentina (y varias de ellas probablemente nunca se implementen), en este trabajo se tratará de dar una visión general de las diferentes formas de conectividad como para tener un conocimiento de la existencia de las mismas ante una eventualidad. Aunque en Estados Unidos ya casi la mitad de las LANs están interconectadas, esto mismo puede ocurrir en nuestro país si las cosas se encaran bien y se cuentan con servicios WAN aceptables y competitivos.

33.. C O T R A R E D E CAAARRRAAACCCTTTEEERRRÍÍÍSSSTTTIIICCCAAASSS W WA AN N –– W WA AN N YYYO OT TR RA ASSS R RE ED DE ESSS 1. Velocidad: hasta el advenimiento de las tecnologías de transmisión digital existía una marcada diferencia entre la velocidad de una red LAN y una WAN. Por ejemplo, en una red LAN una velocidad estándar era de 10 Mbps (millones de bits por segundo), mientras que en la WAN solía ser de 9,6 Kbps (miles de bits por segundo) (una cifra aproximadamente 1000 veces menor). Sin embargo durante los últimos tiempos, gracias a las técnicas de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 5 0 15 50 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

2.

3.

4.

5.

6.

7. 8.

9.

10.

11.

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

transmisión digital, la velocidad las ha igualado y, en algunos casos (tales como la transmisión por fibra óptica) hasta ha superado la de una LAN. Por lo común las WANs operan más lentamente que las LANs y tiene tiempos de retraso mucho mayores entre las conexiones. La velocidad normal para una WAN llega a un rango que va desde los 56 Kbps a 155 Mbps (sobre todo en MAN). Los retardos pueden variar de unos cuantos milisegundos a varias decenas de segundos (esto último debido a la comunicación por medio de envío de señales a los satélites en órbita alrededor de la Tierra). Las tecnologías LAN proporcionan las velocidades de conexión más altas entre computadoras, pero sacrifican la capacidad de recorrer grandes distancias. Por ejemplo, una LAN común recorre un área pequeña como un edificio o un pequeño campus, y opera dentro de un rango que va desde los 10 Mbps a los 2 Gbps (billones de bits por segundo). Debido a que la tecnología LAN cubre distancias cortas, ofrece tiempos de retardo muchos menores que las WANs. Los tiempos de retardo en una LAN pueden ser cortos, como unas cuantas decenas de milisegundos, o largos, 10 milisegundos. Surge así un principio general de relación entre velocidad y distancia: " Las tecnologías que proporcionan altas velocidades de comunicación operan en distancias cortas”. Confiabilidad: tanto la confiabilidad de los vínculos como la tasa de errores de transmisión son muchos mejores en una LAN que en una WAN, por lo que los protocolos de transmisión en esta última deben ser más robustos y proveer mejores mecanismos de detección y recuperación de errores. De todas maneras, la confiabilidad de los vínculos WAN ha mejorado muchísimo gracias a las tecnologías de transmisión digital. Latencia o tiempo de transporte: en una red LAN el tiempo que tarda un paquete en ir de origen a destino es irrelevante. Por otra parte, en una WAN, estos tiempos no son despreciables y los protocolos de transmisión WAN los deben tener en cuenta. Acceso al medio: en las redes LAN el medio de transmisión es compartido por todas las estaciones. Esto no ocurre en las redes WAN; por lo tanto, las conexiones entre estaciones se efectúan mediante la creación de circuitos, tal como sucede en la red telefónica. Disponibilidad: cuando se trata de una red corporativa de área extensa o WAN (el caso más general), el factor que tiene mayor importancia para sus usuarios es el concerniente a su disponibilidad versus capital empleado, entendiendo por disponibilidad el tiempo en que la red se encuentra operativa y accesible para sus usuarios. En las mayorías de las organizaciones la importancia de la transmisión de datos ha ido creciendo de manera vertiginosa, en torno a un 40 % durante los últimos años frente a los 10 % con que lo hacen las comunicaciones de voz. Muchos de los negocios actuales dependen totalmente de la capacidad de transferencia electrónica de información, basada en la disponibilidad de la red; conforme se hace más evidente éste hecho, la actitud hacia la inversión en redes ha cambiado, pasando a plantearse en términos de rentabilidad frente a gastos. Interconectividad: especifica la facilidad con que los usuarios pueden acceder a las diversas aplicaciones, por ejemplo: la facilidad de poder acceder a la información contenida en un elemento de red desde cualquier otro, independientemente de donde se encuentre situado. Interconectividad es, desde luego, la razón de ser de las redes de área extensa. Interoperabilidad: la red debe ser capaz de aunar sin fisuras un gran número de tecnologías heterogéneas. Rendimiento: las organizaciones que invierten en redes de área extensa loa hacen para mejorar su productividad; el factor vital desde el punto de vista del “networking” es el del tiempo de respuesta, fenómeno éste al que los usuarios se muestran muy sensibles. Hay poco que ganar si, por ejemplo, accediendo a bases de datos remotas pasamos gran parte del tiempo esperando a que éstas respondan. Flexibilidad: tiene también una gran prioridad entre los usuarios; las compañías regularmente demandan la capacidad de expandir sus redes conforme crecen sus necesidades de comunicaciones, así como la flexibilidad para incorporar nuevas aplicaciones y tecnologías que actualmente no se encuentran disponibles, La única forma de obtener este tipo de flexibilidad es construyendo redes conforme a estándares internacionales. Seguridad: es un factor que en algunos casos es de extrema importancia. En una red de área extensa las oportunidades para la intrusión son altas, debido a su propia extensión; es por ello que deben tomarse las medidas, tanto para restringir el acceso como para garantizar que sólo utilizan las aplicaciones aquellos usuarios autorizados para ello. A veces se disponen de técnicas de cifrado de clave que pueden hacer confidencial la información durante las transmisiones. Esto es esencial si la información de acceso al sistema circula por la red. Una clave es un algoritmo software o un dispositivo software que cifra y bloquea la información de forma que no pueda descifrarse fácilmente. Sólo la misma clave, o una clave asociada, puede descifrar la información. Uno de los métodos destinados a mantener esta seguridad es el de Clave Pública-Clave Privada, en donde cada usuario posee una clave pública y otra privada que funcionan conjuntamente en cifrado y descifrado de los mensajes. La clave pública se sitúa en un servidor de seguridad común al que pueden acceder otros usuarios. Al enviar un mensaje confidencial, deberá cifrarlo con la clave pública del destinatario. Al recibir los mensajes, el destinatario los descifra con su clave privada. Sólo la clave privada puede descifrar mensajes cifrados con la clave pública. Capacidad: las redes modernas sufren de un mal importante en respuesta a las demandas en constante crecimiento de interoperabilidad, gestión y aplicaciones multimedia sobre el ancho de banda de red disponible. Así de sencillo. Al aumentar las empresas de tamaño y complejidad, y al utilizar los usuarios las recientes aplicaciones que admiten funciones como sonido y video en el correo electrónico, la cantidad del ancho de banda que se necesita en la red aumenta consecuentemente.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 5 1 15 51 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

12. Gestionabilidad: debido a la complejidad de las redes interoperables, es necesario establecer plataformas de gestión capaces de extraer información de estado, configuración y rendimiento de distintos dispositivos hardware de forma pasiva, para poder luego evaluar las prestaciones de red y los cuellos de botella o manejar actualizaciones. 13. Costos: es siempre de alta prioridad. Los usuarios insisten en que las redes deben permitirles el uso de los equipos y sistemas actuales en la forma más eficiente sin necesidad de realizar altas inversiones en nuevos dispositivos.

3.1. WAN y LAN Aparte de las diferencias citadas anteriormente en el punto anterior (de velocidad, confiabilidad, latencia, etc.) existen otras diferencias entre estas tecnologías: a) LANs y WANs usan diferentes protocolos y por lo tanto no pueden comunicarse una con otra en forma directa. Los protocolos LANs usan un método “broadcast” (en difusión, en ráfagas o bursty) que es un método muy rápido y eficiente; sin embargo esto esta limitado a un área pequeña. Los protocolos WANs se comunican a través de largas distancias, son generalmente más lentas que las LANs y las comunicaciones es entre dos puntos extremos y requieren de protocolos que trabajen con direccionamiento de paquetes y circuitos virtuales. b) En las tecnologías LAN, cada computadora contiene un dispositivo de interfaz de red que conecta la máquina directamente con el medio de la red (por ejemplo, un alambre de cobre o un cable coaxial). Con frecuencia la red por sí misma es pasiva, depende de dispositivos electrónicos conectados a las computadoras para generar y recibir las señales eléctricas necesarias. En la tecnología WAN, una red por lo común, consiste en una serie de computadoras complejas, llamadas “conmutadores de paquetes” (switches WAN), interconectadas por líneas de comunicación y módems. El tamaño de una red puede extenderse si se le añade un nuevo conmutador y otras líneas de comunicación. La conexión de una computadora de usuario a una WAN significa conectarla a uno de los conmutadores de paquetes. Cada conmutador extiende la ruta de la WAN e introduce un retardo cuando recibe un paquete y lo envía al siguiente conmutador. De esta manera, la extensión de una WAN hace que la ruta del tráfico que pasa a través de ella se extienda. c) Las topologías físicas (la forma que adoptan los elementos conectados a través de los medios de transmisión) entre las redes locales y las de gran cobertura, suelen tener distinto aspecto. La estructura de una WAN tiende a ser más irregular, debido a la necesidad de emplear en las líneas, ordenadores, conmutadores y terminales multiplex y/o multipunto. En las LANs las topologías tienden a ser más ordenada y estructurada; en efecto, son habituales las configuraciones en bus, anillo ó estrella. d) Mientras que en las LANs los canales de comunicación suelen ser propiedad de la organización a la que pertenecen los usuarios; en las WANs los canales suelen ser proporcionados (raras veces esto no es así) por las compañías telefónicas, con un determinado coste mensual si las líneas son alquiladas, y/o con un coste según la utilización en el caso de las líneas normales conmutadas. e) Puesto que en una WAN los canales se alquilan por tarifas mensuales (lo que supone un coste considerable), las organizaciones procuran mantener las líneas al máximo de su utilización. En una LAN el usuario no tiene que preocuparse tanto por la utilización máxima del ancho de banda de los canales, ya que el coste de los mismos es pequeño en comparación con su capacidad de transmisión de bits. Por tanto, la necesidad de esquemas eficaces de multiplexado y distribución no es tan crítica en una LAN como lo es en una red Long Haul (de largo alcance). Esto significa que en las LANs los diseñadores de protocolos no se tienen que preocupar por obtener un gran rendimiento. Se pueden utilizar protocolos bastantes diferentes y usualmente más sencillos que logran una realización más cómoda. f) En cuanto a la integridad de las transmisiones, en una LAN es bastante poco frecuente que los datos se vean distorsionados, es decir, las redes locales son mucho menos propensas a errores. En concreto, la tasa de errores típica de una red WAN oscila entre 1:103 y 1:105 (un bit erróneo por cada 1.000 a 100.000 transmitidos), mientras que una LAN ofrece una tasa de errores del orden de 1:108 (es decir uno erróneo cada 100.000.000). Como puede verse, la probabilidad de error en una LAN es varios órdenes de magnitud inferior a la de una WAN. Esta diferencia también tiene un gran impacto en los protocolos. La baja fiabilidad en las WAN quiere decir que el manejo de errores debe ser considerado en cada una de las capas, en tanto que en las LANs será posible omitir la verificación de error en las capas inferiores y llevarlo a cabo exclusivamente en las superiores, teniendo así protocolos más sencillos y con mayor eficiencia en las capas inferiores. g) El reemplazo de una máquina grande por estaciones de trabajo sobre una LAN no ofrece la posibilidad de introducir muchas aplicaciones nuevas, aunque podrían mejorarse la fiabilidad y el rendimiento. Sin embargo, la disponibilidad de una WAN (pública) sí genera nuevas aplicaciones viables, y algunas de ellas pueden ocasionar importantes efectos en la totalidad de la sociedad.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 5 2 15 52 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

3.2. WAN y MAN Las MANs son intraLATA (o sea totalmente ubicadas dentro de una región de comunicación conocida como LATA que generalmente cubre una sola área metropolitana), mientras que las WANs son interLATA (extendiéndose fuera de los límites de una simple LATA). Es muy frecuente que cada locacion cubierta por una MAN o WAN contenga una o más LANs que están conectadas a la red general. Cualquier dispositivo de la red podrá, generalmente, direccionar tráfico a cualquier otro dispositivo de las LANs conectada en cualquier locacion. Los enrutadores se usan para mantener y/o guardar la ubicación de los dispositivos de red, y reenviar los paquetes de datos a la LAN específica que contenga al dispositivo destino. Los canales de comunicación de las WANs/MANs normalmente son proporcionados por los carriers o portadores de telefonía de larga o corta distancia. Alternativamente, la comunicación puede hacerse a través de facilidades dedicadas como microondas o enlaces satelitales. Las transmisiones son analógicas, como con el servicio tradicional de teléfono, o digitales, como ser las líneas digitales de 56 Kbps o 1.544 Mbps para líneas T1. En adición las telcos y demás ofrecen servicios como SMDS o Frame Relay que permiten el desarrollo de MANs y WANs sin el costo de enlaces dedicados a cada locacion del usuario. Algunas de las opciones de conectividad de MAN/WAN y de tecnologías de networking más populares incluyen: 56 Kbps DDS, T1/T3/E1, ISDN, Frame Relay, SMDS, ATM. La solución más eficaz para una organización puede involucrar una combinación de estas tecnologías para atender puntos con diferentes niveles de tráfico y requisitos de aplicaciones. Se requiere una compañía experimentada en seleccionar las tecnologías más apropiadas a usar, y diseñar redes escalables y tolerantes a fallas que permitan satisfacer las necesidades actuales y futuras.

3.3. WAN e Internetworking Hasta ahora, se ha considerado de manera implícita que solo hay una red homogénea (usando el mismo protocolo), pero esta suposición es muy optimista debido a la existencia de una gran variedad de redes WAN (SNA, DECNET, etc.), así como de un número infinito de redes LAN (que utilizan o no el modelo OSI). En la actualidad, es muy amplia la gama de redes de comunicaciones de datos que se encuentra en funcionamiento: de diferentes fabricantes, con diversos protocolos de acceso, variados códigos para la transmisión por el medio físico, diferentes tamaños de paquetes de datos, distintos esquemas de direccionamiento, etc. Entonces, para aprovechar al máximo las capacidades que ofrece cualquier red de datos, deberá estar preparada para efectuar conexiones a través de otras redes, sin importar las características que posea. EL CCITT X.25 y protocolos similares permitieron al Host “hablar” con otros Hosts, a través de largas distancias. Sin embargo, a causa del sostenido crecimiento del número de computadoras, se convirtió rápidamente en impráctico hacer que cada Host tenga acceso a la WAN. Entonces, fue necesario un camino para que todos los Hosts sobre una LAN compartieran una conexión simple a la WAN (en otras palabras, conectar LANs a otras LANs a través de la WAN), es decir, lo que se conoce como Networking, Internetworking o Interconexión, Interfuncionamiento, Intercomunicación entre Redes, o lo que es lo mismo, un servicio de comunicación de datos que trabaja en forma armoniosa y coherente con diversas redes con tecnologías propias, dando la impresión al usuario de que se trata de una sola, que conforma la Interred de Redes. Este concepto hace que las cuestiones técnicas particulares de cada red sean ignoradas al diseñar las aplicaciones que utilizarán los usuarios de los servicios. Algunas razones para la interconexión con otras redes son: * Compartir recursos diversos y coordinar tareas de los distintos grupos de trabajo. * Reducir costos, al utilizar recursos de otras redes. * Aumentar la cobertura geográfica. Nota: recordar lo que se dijo en el capitulo 1, con respecto a la subclasificacion de las WANs en: WAN pura y WAN heterogénea o Internetworking, diferenciándose mas que nada en los dispositivos y redes que las conforman; en un caso utilizando solo switches WAN (en el núcleo) y en otro caso utilizando dispositivos de internetworking (routers, switches, gateways) para interconectar LANs distantes (como se muestra en la figura), incluyendo o no a una WAN pura. Los problemas a enfrentar fueron, por un lado, el encaminamiento (es decir, si las máquinas origen y destino no están conectadas directamente, el algoritmo de encaminamiento tendrá que determinar otra trayectoria a través de una o más redes intermedias, pudiendo existir varias elecciones posibles), y por otro lado, que no todas las redes utilizan los mismos protocolos (lo que implica tener diferentes formatos para los paquetes, cabeceras, procedimientos de control de flujo, reglas de asentimiento, etc. lo que trae como consecuencia que cuando los paquetes se muevan de una red a otra, se deban realizar conversiones, las cuales a veces son directas, pero con frecuencia no). Una estrategia general para interconexión de redes debe presentar: T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 5 3 15 53 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V * * * * * *

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Un esquema de direccionamiento general y homogéneo. Aplicaciones independientes de la tecnología y topología de las redes. Accesibilidad completa de cualquier terminal de una red a otros en diferentes redes. Transferencia fiable y segura de mensajes. Capacidad de permitir tanto la conexión a otras redes como el crecimiento de cualquiera de ellas. Convivencia de distintas tecnologías en las redes.

El problema fue entonces, como se dijo anteriormente, que las LANs y las WANs usaban protocolos diferentes. Para ejemplificar, una nube X.25 no podía comprender una dirección Ethernet y viceversa. Eventualmente, una solución emergente envolvía un nuevo protocolo que pudiera hacer uso de los protocolos LANs y WANs, pero que a su vez, permitiera un direccionamiento consistente, de alcance mundial, y también otros requerimientos entre los dos tipos de protocolos.

Este nuevo protocolo fue apropiadamente llamado Internet Protocol o más conocido como IP. Para proveer servicios de comunicación end-to-end para aplicaciones, se desarrollo y diseño otro protocolo para trabajar con el protocolo IP. Este protocolo es conocido como el Transmisión Control Protocol (Protocolo de Control de Transmisión), o TCP. Juntos, estos dos y otros protocolos asociados, son referenciados como el conjunto de protocolos TCP/IP. Existe una enorme controversia con respecto a la cuestión de si la abundancia actual de diferentes tipos de redes es una condición temporal, que se disipará después de que todos lleguen a entender la importancia del modelo OSI, o bien, si este hecho es una característica inevitable pero permanente del mundo. Se supone que siempre existirá una variedad de diferentes tipos de redes debido a: primero, el conjunto instalado de sistemas que no son OSI es hoy, muy grande (y se siguen vendiendo), también las LANs utilizan muy rara vez el modelo OSI; segundo, el lugar en donde se toman las decisiones de compra de redes se mueve hacia abajo y es común que haya departamentos (al igual que empresas) con diferentes tipos de redes; y en tercer lugar, nuevos desarrollos de tecnologías de hardware y software que no se adaptan al modelo OSI. Así es fácil imaginar los siguientes escenarios: LAN-LAN, LAN-WAN, WAN-WAN y, LAN-WANLAN. Otra alternativa está en proceso de desarrollo y de estandarización por diversos organismos internacionales, tales como CCITT, ISO, ANSI, etc. Aunque ya existe una arquitectura de red estandarizada (la estructura de niveles de ISO para la interconexión de sistemas abiertos), ésta no se encuentra muy extendida en las redes actuales (sobre todo, LANs). La principal alternativa, para la interconexión de diversas redes, es la utilización de dispositivos físicos/lógicos de interconexión, que es de las más extendidas en la actualidad. Las funciones principales que cumplen estos dispositivos son: * Establecer un camino físico entre redes para el intercambio de mensajes. * Adaptar o convertir los protocolos de acceso a las redes. * Enrutamiento de mensaje entre redes.

* * *

De forma general, los equipos utilizados para la interconexión de redes son: Repetidores o Repeaters. Puentes o Bridges. Encaminadores o Routers.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 5 4 15 54 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V *

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Pasarelas o Gateways.

3.4. WAN y conexiones remotas Durante los últimos años, las aplicaciones basadas en web, los dispositivos inalámbricos, y las redes privadas virtuales (Virtual Private Networking, VPN) han cambiado nuestras expectativas sobre las redes. Las redes corporativas de hoy son accesibles virtualmente desde cualquier parte y en cualquier momento, con grandes cantidades de usuarios esperando por algún grado de acceso a la red de la compañía mientras están en su casa o en el camino. Las redes corporativas se construyen, generalmente, alrededor de un sitio central que aloja los recursos de red importantes. Estos recursos incluyen servidores de archivos, servidores web, y servidores de email que entregan información y servicios a todos los usuarios. Tales servicios son fácilmente accesibles para los usuarios del sitio central vía su LAN. ¿Pero cómo podrían los usuarios que trabajan en forma remota obtener acceso a esos recursos? Es trabajo del profesional de networking proporcionar acceso a la red a todos los usuarios remotos. Los usuarios remotos pueden estar trabajando en sucursales (oficinas remotas o branch office) o en oficinas hogareñas (desde su casa), o incluso pueden estar en el camino con una PC portátil (laptop) o con un dispositivo móvil portátil (handheld). Esencialmente, un usuario remoto es cualquier usuario que no está trabajando presencialmente en el sitio central de la compañía. La figura representa distintas soluciones de acceso remoto. Las soluciones de acceso remoto se presentan en todas las formas y tamaños. La solución de conexión remota de una compañía involucra una combinación variada de servicios WAN. La mayoría de estos servicios se obtiene de un proveedor de servicios, como una compañía regional de telecomunicaciones. Desde que los medios o facilidades de transmisión pertenecen a un proveedor de servicios, el rol del profesional de red es seleccionar el servicio apropiado, y no en realidad diseñar y mantener las facilidades WAN en si mismas. Los tipos de servicios WANs disponibles y sus costos varían, dependiendo de la región geográfica y del proveedor del servicio. Los constreñimientos presupuestarios del mundo real y la disponibilidad de servicio son a menudo el criterio de selección que se impone. Para que el profesional lleve a cabo la solución más apropiada, debe entender las ventajas y desventajas de los diferentes tipos de servicios WAN. Se deben utilizar las distintas pautas o criterios ofrecidos para seleccionar el mejor servicio o mezcla de servicios de acceso remoto entre el número grande de productos disponibles. En un sentido amplio, una WAN es un grupo de computadoras que están físicamente separadas por largas distancias pero consideradas lógicamente juntas. En un sentido más estricto, una WAN es un puente que conecta LANs remotas y permite mirarlas como una gran LAN. Una WAN, es también, una red de acceso remoto que conecta “sitios” a través de un área geográfica extensa. En el ejemplo de la figura, la WAN conecta un sitio central, una sucursal, un sitio de teleconmutador y un usuario móvil a través de un proveedor de servicio. Los requerimientos de conexión pueden variar, dependiendo de los requerimientos del usuario y de los costos. En una WAN, el factor más importante es la velocidad. Una WAN tiene dos funciones primarias: permitir a la gente, geográficamente separada, compartir información común y luego permitir que se envíen mensajes entre ellos. Para llevar a cabo estas funciones las LANs (y sus respectivas computadoras) deben estar respectivamente conectadas. Hay seis caminos principales para establecer esas conexiones físicas remotas: 1. Discado a través de líneas telefónicas conmutadas, 2. Líneas leased (arrendadas) dedicadas analógicas, 3. Líneas leased dedicadas digitales, 4. Redes de conmutación de paquetes (X.25 y FRAME RELAY), 5. Redes de conmutación de circuitos (ISDN),

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 5 5 15 55 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Todas estas tecnologías de conexión serán presentadas brevemente en un apartado posterior; para ampliar el conocimiento sobre cada una de ellas remítase a los capítulos siguientes. En el futuro, la más importante función de las redes WAN será la de conexión de LANs. En la actualidad, se puede caracterizar a la mayoría de las conexiones LAN-a-LAN de área amplia en uno de dos caminos: expansivas o retardadas (Frame Relay promete una tecnología de rango medio). Las compañías con bastante dinero y muy pocas redes a conectar pueden establecer siempre enlaces T1 dedicados, punto-a-punto, entre todas las LANs de la red, como una red de conmutación de circuitos provee interconexiones de alta velocidad, pero el precio es alto, no solo en términos de costo sino en eficiencia y flexibilidad. No es necesariamente obligatorio tener una LAN para permitir que dos computadoras remotas intercambien datos a través de la conexión WAN de acceso remoto. Existen otros métodos aprobados, a saber: • Transferencia directa, módem-a-módem: es el método más simple. Se utiliza un módem en cada extremo, un software de comunicaciones de propósito general, como Procomm Plus, y una línea telefónica para conectarlos. Es una conexión discada (dial-up) analógica. • Usuario simple de una BBS: un extremo de la conexión corre en modo desatendido (es decir solo, sin ninguna persona) con algún software especial. Uno llama a la BBS para bajar/levantar archivos, y se comunica con otros usuarios dejando mensajes o archivos para ellos. La BBS requiere de menos labor que el método del modem, debido a que un extremo corre desatendido. Es un servicio poco usado. Es una conexión dial-up que accede a un servidor de acceso remoto (access server) o servidor con un pool de módems. • Servicio de e-mail: este tipo de conexión actúa mucho como una BBS: se deja el e-mail en una oficina postal electrónica (servidor POP3) y otros usuarios lo levantan más tarde. Los correos consisten de mensajes y archivos. Sin embargo, existen diversas diferencias. Una interfase de usuario de e-mail tiende a ser más simple que un utilitario de modem de propósito general, incluso algunos servicios de e-mail se manejan en background, y están diseñados para atender más llamadas que una BBS (rara vez se tiene una señal de ocupado). Sin embargo la diferencia mayor entre un BBS y un e-mail es el alcance; las BBS están diseñadas primariamente para su uso dentro de una ciudad (se debe llamar a larga distancia para usar una BBS remota); para usar un sistema de e-mail remoto se debe hacer una llamada local a la red de paquetes (la que lo recibe y destina, incluso a lo largo del mundo, de ser necesario), y como ésta es toda digital y el software de e-mail corrige automáticamente los errores (incluyendo desconexiones), entonces el correo casi siempre llega libre de errores y sin intervención manual. Sin embargo, no se puede mantener una conversación en tiempo real con otro/s sobre el e-mail; se deben intercambiar mensajes de correo electrónico. • Emulación de terminal: el primer CRT capaz de compartir una línea de telecomunicación con otras terminales, el IBM 3270, fue un suceso extraordinario; aún hoy existen muchas de ellas en empresas; o se pueden encontrar PCs emulando sus características y, a su vez, enmascarando su propia inteligencia nativa. La interfase 3270 es estable y bien comprendida (pero solo dentro de los programas de mainframe diseñados para trabajar con 3270). • Software de control remoto: con este tipo de software se puede trabajar, sin problemas, sobre una computadora ubicada en cualquier lado, sin tener la necesidad de ir a ese lugar en particular; solo se telefonea a la computadora, se controla su teclado y se observa lo que se hace sobre su pantalla, incluso correr programas (el programa local nota los cambios en la pantalla remota y se los envía). Este procedimiento se usa mucho cuando se quiere agregar una workstation a una LAN (en modo desatendido y ubicada en un lugar remoto); la ventaja que tiene es que no hay ninguna programación especial (se puede adicionar una aplicación de LAN o stand-alone, e instantanemante ejecutarla). La desventaja está en que se permanece mucho tiempo sobre una computadora, además se necesita una conexión de larga distancia directa y las señales de ocupado pueden retrasar la tarea. • Modelo servidor de archivos: cuando algunas personas piensan de una WAN, piensan en el software que los vincula con un servidor de archivos sobre una LAN remota (el software hace que el servidor de archivos remoto parezca local). Desgraciadamente este es el camino menos eficiente para usar los recursos de telecomunicaciones. Un file-server es un esclavo sin cabeza y con capacidades limitadas (no puede ni sacar, ni poner bytes en su disco), además no puede ni siquiera filtrar información. Solo es apropiado si no se hacen largos requerimientos de I/O de disco inadvertidamente (puesto que saturará la línea telefónica con los envíos). • Modelo de tiempo compartido: este modelo asume exactamente lo opuesto al anterior. Este presume que el server central de base de datos es grande, poderoso e inteligente; esta visión usualmente es un poco errónea, por lejos, en la dirección opuesta al anterior. Es un programa con un solo propósito: servir a un usuario remoto (olvida a todos los otros usuarios y no trabaja para ellos), espera, almacena la información recibida del usuario y la ajusta por sí misma basada en lo recibido anteriormente. La principal ventaja del tiempo compartido es que solamente deben ser transmitidos los datos esenciales, puesto que la computadora central puede leer miles de registros y sumariarlos en unos pocos bytes. El time-sharing T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 5 6 15 56 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

trabaja mejor en cuestiones estadísticas, más que con actualizaciones o búsqueda de registros específicos. No es muy adecuado para la actualización de bases de datos compartidas, pero es el único camino a seguir para un análisis temporal de datos. • Procesamiento de transacción (TP): el TP es una línea de ensamblaje electrónico eficiente. Es el método a optar cuando se tiene altos volúmenes de trabajo repetitivo, hace óptimo el uso de los recursos de la computadora central y de las líneas de transmisión. Aquí se trabaja con programas que se especializan en un tipo de transacción específica (pueden mantener una visión del ancho de la empresa); en el sitio central los paquetes arrivan de una variedad de lugares, se los rutea al programa especialista (las rutinas no necesitan coordinar sus tareas con otros cientos de procesos interfiriendo) y luego se responde con un paquete comprimido a la estación remota. Como en time-sharing las rutinas TP pueden llamar a bases de datos, como SQL, para realizar cuestiones complejas. Además de todo, el TP permite la reconstrucción de las bases de datos ante eventuales caídas del sistema.

44.. LLAAASSS W M O D E L O WA AN N YYYEEELLLM OSSII MO OD DE EL LO OO Los enlaces WAN normalmente operan al nivel de Capa 2 del modelo OSI (enlace de datos) y convierten el encapsulamiento de trama LAN como Ethernet o Token Ring en encapsulamiento de trama de Capa 2 de área amplia como HDLC, PPP o Frame Relay. Por ejemplo, supongamos que hay dos LAN Ethernet interconectadas mediante un enlace WAN (como T1) y una estación de trabajo en la LAN A necesita conectarse a un servidor en la LAN B. La estación de trabajo envía un paquete a la interfaz Ethernet (por ej., E0) del router en la LAN A. Este router elimina el encabezado de trama LAN Ethernet, lo reemplaza por un encabezado de trama WAN como Frame Relay o PPP y lo envía desde una de sus interfaces seriales (por ej., S0). Cuando el router en LAN B recibe el paquete en su interfaz serial, elimina el encabezado de trama WAN y lo reemplaza por el encabezado de trama LAN Ethernet. El paquete se entrega al servidor local en la LAN B a través de la interfaz Ethernet del router. Normalmente el cable desde el router en cada ubicación se conectaría a una CSU/DSU y luego a un enlace WAN como T1 (1,544Mbps) desde un proveedor de servicios. En el caso de algunos routers, la CSU se encuentra incorporada o puede estar instalada en una ranura modular. Uno de los extremos de cada cable es un conector DB60 (de 60 pins) que se conecta a una interfaz serial síncrona en el router (S0 o S1 en la mayoría de los casos). El otro extremo es un conector V.35 que normalmente se conecta a la CSU/DSU. La CSU/DSU entonces se conecta a la línea de datos digitales (como un enlace de 56 Kbps o T1) a través de una NIU (Unidad de Interfaz de Red) en el demarc (punto de demarcación). Este es el punto de separación entre el CPE (Equipo Terminal del Abonado) y la conexión del proveedor del servicio de enlace WAN. La configuración de laboratorio de 5 routers de la figura simula las CSU/DSU en los enlaces punto a punto WAN, cruzando las conexiones entre los cables V.35, lo que elimina la necesidad de usar CSU/DSU. El router normalmente es el DTE y la CSU/DSU es normalmente el DCE. Como no hay CSU/DSU, uno de los routers en cada enlace WAN simulado debe representar el papel del DCE para proporcionar la señal de temporización síncrona. En una configuración de laboratorio estándar, la interfaz serial 0 del router Lab-A es el DCE y la velocidad de reloj se establece en 56000 bps en esa interfaz, simulando un circuito de datos digitales de 56K. Se debe conectar el cable DCE (hembra) a esta interfaz de router. El cable serial DTE (macho) se conecta a la interfaz Serial 1 en el siguiente router Lab-B. No se establece ningún reloj en la interfaz S1 Lab-B. La interfaz serial S0 en el router Lab-B entonces se transforma en el DCE para el router siguiente. El encapsulamiento de trama utilizado en la capa de enlace de datos (Capa 2 OSI) varía según la tecnología WAN utilizada entre redes conectadas por routers. El encapsulamiento de la capa de enlace coloca un encabezado e información final en el paquete. El entramado de Capa 2 en una LAN es diferente del de una WAN y el router debe realizar la conversión entre los dos.

4.1. Estándares WANs de la capa física Los protocolos de la capa física de las WAN describen cómo proporcionar conexiones eléctricas, mecánicas, operacionales y funcionales para los servicios WAN. La mayoría de las WAN requieren una interconexión proporcionada por el proveedor de servicios de comunicaciones (como una RBOC), una portadora alternativa (como un ISP) o una entidad de administración postal, de telégrafos y teléfonos (PTT). La capa física de la WAN también describe la interfaz entre el DTE y el DCE. Normalmente el DCE es el proveedor del servicio, mientras que el DTE es el dispositivo conectado, como se indica en la figura. Varios estándares de la capa física definen las normas que rigen la interfaz entre el DTE y el DCE.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 5 7 15 57 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V •

• •

• •

• • •

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

EIA/TIA-232: estándar de la interfaz de la capa física, desarrollado por EIA y TIA, que soporta circuitos no balanceados a velocidades de señal de hasta 64 kbps. Debido a su baja velocidad de transmisión no es apropiado para enlaces dedicados de alta velocidad. Se asemeja bastante a la especificación V.24. Su antiguo nombre era RS-232. Este estándar se utiliza desde hace varios años. EIA/TIA-449: interfaz popular de la capa física desarrollada por EIA y TIA. Esencialmente, es una versión más veloz (hasta 2 Mbps) de EIA/TIA-232, que admite tendidos de cable más extensos. EIA/TIA-612/613: estándar que describe la Interfaz Serial de Alta Velocidad (HSSI), que suministra acceso a servicios a velocidades de T3 (45 Mbps), E3 (34 Mbps) y Red Óptica Síncrona (SONET) STS1 (51,84 Mbps). La velocidad real de la interfaz depende de la DSU externa y del tipo de servicio al que está conectada. V.24: estándar de UIT-T para una interfaz de la capa física entre el DTE y el DCE. V.35: estándar de UIT-T que describe un protocolo de la capa física, síncrono, que se utiliza para las comunicaciones entre un dispositivo de acceso de red y una red de paquetes. V.35 es el estándar de uso más generalizado en los Estados Unidos y en Europa, y se recomienda para velocidades de hasta 48 kbps. X.21: estándar de UIT-T para la comunicación serial a través de líneas digitales síncronas. El protocolo X.21 se utiliza principalmente en Europa y Japón. G.703: especificación mecánica y eléctrica de UIT-T para conexiones entre el equipo de la compañía telefónica y el DTE que utiliza conectores BNC (British Naval Conector) y que opera a velocidades de datos E1. EIA-530: dos implementaciones eléctricas de EIA/TIA-449: RS-422 (para transmisión balanceada) y RS-423 (para transmisión no balanceada).

4.2. Encapsulamientos WANs de la capa de enlace de datos La capa de enlace de datos de la WAN define la forma en que se encapsulan los datos para su transmisión a sitios remotos. Los protocolos de enlace de datos de las WAN describen cómo se transportan las tramas entre sistemas a través de una sola ruta de datos. Los routers encapsulan los paquetes de Capa 3 dentro de un frame o trama de Capa 2 antes de enviarlos por un enlace WAN. Aunque hay distintos tipos de encapsulaciones WAN, la mayoría tiene anatomía similar. Esto es porque la mayoría de las encapsulaciones WAN se derivan del HDLC y su precursor el SDLC. A pesar de sus estructuras similares, cada protocolo de enlace de datos especifica su propio tipo específico de frame, los cuales son incompatibles con los otros tipos. Las figuras muestran los protocolos de enlace de datos más comunes usados con cada uno de los tres tipos de conexión WAN. Por defecto, las interfaces seriales de un router (sobre todo los de Cisco) están definidos para encapsular paquetes usando HDLC. Se debe configurar la interfaz a mano para cualquier otro tipo de encapsulacion. La opción del protocolo de encapsulacion depende de la tecnología WAN y el equipo de comunicación que se usa. La figura muestra los encapsulamientos de enlace de datos comunes relacionados con las líneas WAN, que son: • Frame Relay: mediante encapsulamiento simplificado sin mecanismos de corrección de errores a través de instalaciones digitales de alta calidad, Frame Relay puede transmitir datos muy rápidamente, en comparación con los demás protocolos WAN. Opera sobre una variedad de interfaces de red. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 5 8 15 58 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V •

• •

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Protocolo Punto a Punto (Point to Point Protocol, PPP): descrito por RFC 1661, PPP fue desarrollado por IETF. Es un protocolo de transmisión serie que opera sobre líneas telefónicas o dedicadas y puede encapsular diferentes protocolos de capa de red (contiene un campo que identifica el protocolo de la capa 3) como IP, IPX, DEC. Es usado como medio de encapsulamiento en redes X.25, Frame Relay y RDSI. Es un protocolo estándar para conexiones router-a-router y host-a-red sobre circuitos sincronos y asíncronos. Permite realizar autenticación mediante protocolos PAP y CHAP. • Protocolo de Linea Serial (Serial Line Internet Protocol, SLIP): es el precursor de PPP; se usa para conexiones seriales punto-apunto sobre TCP/IP. • ISDN/Procedimiento de Acceso al Enlace en el Canal D (Link Access Procedure in Channel D, LAPD): conjunto de servicios digitales que transmite voz y datos a través de las líneas telefónicas existentes. Similar a HDLC y LAPB, se usa en el canal D de ISDN para señalización y control. • X.25/Procedimiento de Acceso al Enlace Balanceado (Link Access Procedure Balanced, LAPB): para redes conmutadas por paquetes, LAPB se utiliza para encapsular paquetes en la Capa 2 de la pila X.25. También se puede utilizar a través de un enlace punto a punto si el enlace es poco confiable o si hay un retardo inherente asociado con el enlace, tal como en un enlace satelital. LAPB suministra confiabilidad y control de flujo punto a punto, detección de errores y windowing. Cisco/IETF Frame Relay: se utiliza para encapsular tráfico de Frame Relay. La opción de Cisco es propietaria y sólo se puede utilizar entre routers de Cisco. Control de Enlace de Datos de Alto Nivel (High-Level Data Link Control, HDLC): estándar de ISO. Las implementaciones HDLC son propietarias, es posible que HDLC no sea compatible con los dispositivos de distintos proveedores, ya que cada proveedor puede haberlo implementado de diferentes maneras. Cuando se conectan routers de distintos vendedores se usa PPP (basado en estándares). HDLC soporta configuraciones punto a punto y multipunto. Modo de Transferencia Asíncrono (Asynchronous Transfer Mode, ATM): estándar internacional de conmutación de celdas, en el cual múltiples tipos de servicios (video, voz, datos) son transportados dentro de celdas de longitud fija. ATM está diseñado para aprovechar las ventajas de los medios de transmisión de alta velocidad tales como SONET (Synchronous Optical Network).

55.. TTIIIPPPO O D E R E D E WA AN N OSSS D DE ER RE ED DE ESSS W El concepto WAN tiene muchas aplicaciones diferentes, las cuales pueden categorizarse examinando las diferentes características del ambiente de red: * Es propiedad de la red pública o privada? * Está la red diseñada principalmente para tráfico de voz, de datos o de video? * Las conexiones son dedicadas o conmutadas? * La red realiza conmutación de circuitos, conmutación de paquetes o conmutación de celdas? A medida que se avance a través del capitulo, se verán como estas características difieren de un ambiente WAN a otro. Se verá primero la diferencia existente entre redes WAN privadas y redes WAN publicas.

5.1. WAN privada Una red WAN es una red pública regulada por el gobierno o una red propietaria privada que atraviesa un ambiente de red publica. Por definición, una red privada indica que “pertenece a o concierne a un grupo o persona particular”. Igualmente, una red WAN privada es aquella donde se tiene acceso exclusivo a enlaces dedicados, los cuales son probablemente bien pagados. Mientras la mayoría de las LANs se conectan a la WAN a través de una interfase pública, existe un número cada vez más T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 5 9 15 59 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

creciente de conexiones WAN privadas. Los operadores o administradores de la red privada, generalmente alquilan líneas de los proveedores de redes públicas mientras mantienen el control y la gestión o administración de la red desde sus propias facilidades. La mayoría de las WANs privadas también incluyen una conexión separada a la WAN publica. La regulación del gobierno de las operaciones de la WAN privadas, es relativamente limitada. Debido a que muchas corporaciones y universidades basan sus redes internas sobre líneas arrendadas (leased), muchas de ellas podrían realizar “llamadas” intra e inter ciudades sin estar sujetas a tarifas (cuando en realidad deberían estarlo a través del proveedor publico). La mayoría de las conexiones WANs privadas son no tarifadas. Los operadores WAN supieron como colocar esas “llamadas”, que saltean el control tarifario y se conectan al carrier local, pasando por arriba el peaje de larga distancia. En Norteamérica organismos como el FCC regulan estas “filtraciones” realizadas a través de conexiones con PBX (Private Brach Exchange, Centralitas de Conmutación Privadas). Si el alquiler o arrendamiento de una conexión WAN física no tiene sentido económico, un operador WAN tiene otras opciones para considerar. Las conexiones WAN inalámbricas (wireless), como satélites o señal de línea láser entre edificios, ofrecen soluciones comunes, pero están sujetas a las interferencias ambientales potenciales y a las brechas de seguridad. Otra opción WAN no-alquilada es la Red Privada Virtual (VPN, Virtual Private Network), la cual conecta locaciones LANs distribuidas a través de Internet. Usada, cada vez más, como alternativa del acceso remoto tradicional dial-up, el VPN utiliza un túnel IP encriptado proporcionando a los usuarios móviles y remotos un camino de comunicación seguro a un dispositivo de acceso a la red, como un servidor de red. Además de los problemas de seguridad, los enlaces VPNs no ofrecen la calidad de servicio fiable que algunos usuarios de red pueden demandar. Si se desea una conexión WAN física, segura, que sea dedicada y no-arrendada, el proceso podría ser más complejo. En este caso, la organización tendría que convertirse en un carrier común, es decir un proveedor regulado por el gobierno y capaz de ofrecer servicios de telecomunicaciones para uso público, aunque en muchos de estos casos la organización solo necesita la habilitación para conexiones de larga distancia y no para ofrecer servicios, sino solamente para cubrir una necesidad de conexión.

5.2. WAN Publica Un componente clave de una WAN pública es la presencia de la regulación del gobierno, el cual dictamina no solo los servicios WANs provistos por los operadores WANs públicos, sino también que servicios están sujetos a tarifas y en que proporción o tasa. En Norteamérica la FCC (Comisión Federal de Comunicaciones) es el principal regulador de un entorno de WAN pública. En Argentina la Secretaria de Comunicaciones y el CICOMRA (Cámara de Informática y Comunicaciones de la Republica Argentina) se encargan de regular a los operadores locales. En adición existe una variedad de organizaciones nacionales e internacionales que definen los formatos de estándares para las telecomunicaciones. El mejor ejemplo de una WAN pública, diseñada para tráfico de voz, es la Red Telefónica Conmutada Publica (PSTN, Public Switched Telephone Network), mientras que Internet es la más grande WAN pública, diseñada para datos. En Norteamérica, los servicios telefónicos a través de la PSTN son provistos por una compañía de teléfonos, conocida como Telco. El término Telco puede usarse para referenciar solamente a una compañía de teléfono local o, puede representar a la industria telefónica en general, incluyendo a los carriers de corta y larga distancia. En muchos países de Europa, una agencia gubernamental conocida como PTT (Postal, Telegraph and Telephone) es la responsable de proveer servicios combinados de telefonía, telegrafía y correo postal. Un sistema similar, de control central, se usa en China. Otra característica distintiva de la WAN publica es la tarifación, la cual es la tasa cargada por una variedad de servicios de telecomunicaciones provistos a los consumidores. Al contrario de una WAN privada, donde los propietarios de la red pagan el costo total de las conexiones propias o alquiladas, los operadores WAN públicos proporcionan facilidades de conexión donde se distribuye la propiedad del enlace y el pago del mismo, entre todos los usuarios conectados. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 6 0 16 60 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Tanto la regulación como la tarifación tienen un impacto significativo sobre los tipos de servicios WAN ofrecidos. Aun cuando la tecnología soporte una gran variedad de soluciones WAN, el ofrecimiento de esos servicios está sujeto a la aprobación por parte de las agencias reguladoras y, aun cuando se apruebe la solución WAN, el servicio podría no servir a las necesidades de negocio de la Telco. 5.2.1. Proveedores de servicios WAN Una WAN es una red de comunicación de datos que opera más allá del alcance geográfico de una LAN. Una de las diferencias entre una WAN y una LAN es que es necesario suscribirse a un Proveedor Externo de Servicios WAN, Carrier o Telco, como una Compañía Operadora Local (RBOC) para utilizar los servicios de red de una portadora WAN. La WAN utiliza enlaces de datos, como la Red Digital de Servicios Integrados (RDSI) y Frame Relay, suministrados por los servicios de portadora para acceder al ancho de banda a grandes distancias. Una WAN conecta las ubicaciones de una organización entre sí, con las ubicaciones de otras organizaciones, con servicios externos (como bases de datos) y con usuarios remotos. Las WAN generalmente transportan varios tipos de tráfico, tales como voz, datos y vídeo. Las tecnologías WAN funcionan en las tres capas inferiores del modelo de referencia OSI: la capa física, la capa de enlace de datos y la capa de red. La figura ilustra la relación entre las tecnologías WAN comunes y el modelo de referencia OSI. Los servicios telefónicos y de datos son los servicios WAN de uso más generalizado. Los servicios telefónicos y de datos se conectan desde el Punto de Presencia (POP) del edificio con la Oficina Central (CO, Central Office) del proveedor de la WAN. La CO es la oficina de la compañía telefónica local con la que se conectan todos los loops locales en un área determinada y en la que se produce la conmutación de circuitos de las líneas del suscriptor. La vista general de la nube WAN (ver figura) organiza los servicios del proveedor de WAN en tres grandes tipos principales: • Configuración de llamada: establece y despeja las llamadas entre los usuarios telefónicos. La configuración de llamada, también denominada señalización, utiliza un canal telefónico individual que no se utiliza para otro tráfico. La configuración de llamada que se utiliza más comúnmente es el Número 7 del Sistema de Señalización Número 7 (SS7), que utiliza mensajes y señales de control telefónico entre los puntos de transferencia en el camino hacia el destino al que se llama. • Multiplexión por división de tiempo (TDM): la información de distintas fuentes tiene una asignación de ancho de banda en un medio único. La conmutación de circuitos utiliza la señalización para determinar la ruta de llamada, que es una ruta dedicada entre el emisor y el receptor. Al multiplexar el tráfico en divisiones de tiempo fijas, TDM evita el congestionamiento de las instalaciones y los retardos variables. El servicio telefónico básico y la RDSI utilizan circuitos TDM. • Multiplexion estadística y circuitos virtuales: la información contenida en tramas comparte el ancho de banda con otros suscriptores del protocolo WAN. El protocolo Frame Relay por ej. es un servicio multiplexado estadístico que, a diferencia de TDM, utiliza identificadores y circuitos virtuales permanentes de capa 2. Además, la conmutación de paquetes de Frame Relay utiliza el enrutamiento de capa 3, en el que el paquete contiene direccionamiento de emisor y receptor. Las Telcos se componen de una variedad de Proveedores de Servicios, los cuales compiten para proveer de servicios WAN a todo tipo de usuario. En general, un proveedor de servicio es una compañía que proporciona servicios de telecomunicaciones a cambio de alguna T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 6 1 16 61 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

compensación por parte del consumidor. Esa compensación es más conocida como facturación. El proveedor de servicio realiza la facturación basado en uno de dos métodos: • Facturación basada en contenido: se usa para un amplio rango de servicios y facilidades, como el acceso a Internet, correo de voz, y llamada en espera. • Facturación basada en el conducto (canal): se usa para la conexión WAN física, como un simple cable de teléfono o una conexión WAN de alta capacidad entre dos LANs corporativas. • • •

Cualquiera de las dos facturaciones puede también variar por los siguientes items: Tarifa o Tasa plana: es un cargo fijo que se le asigna a un usuario por el uso desmesurado del contenido o del canal de un proveedor de servicios. Por ejemplo, una tarifa plana de $20 por acceso ilimitado a Internet. Utilización: es una tasa variable que se le asigna aun usuario por el uso medido del contenido o del canal de un proveedor de servicios. Los servicios telefónicos de larga distancia aún facturan de esta manera, con tasas de por ejemplo 10 centavos por minuto. Publicidad: es una forma cada vez más común de compensar a un proveedor por los servicios provistos. En este caso un usuario acuerda ver o escuchar un anuncio a cambio del servicio, y el proveedor de servicios recibe un pago del anunciante. Por ejemplo se pueden escuchar 5 anuncios o propagandas a cambio de una comunicación de 30 minutos de larga distancia. También son cada vez mayores los servicios de Internet gratuitos soportados por los anunciantes.

Los servicios WAN públicos pueden ser ofrecidos por diferentes tipos de proveedores. En algunos países, el único proveedor de servicios es un monopolio del gobierno, como una PTT. Hay diversas categorías de proveedores de servicios WAN, pero los dos grupos más comunes proveen la mayoría de los servicios WAN: * Proveedor de Intercambio Local (Local Exchange Carrier, LEC o LX): se refiere a aquella compañía que es propietaria del par telefónico denominado “loop local” o “última milla” que se extiende hasta la casa del usuario y provee el servicio telefónico dentro del intercambio local. El LEC se encarga de las llamadas locales y de interceptar y derivar al carrier de larga distancia las llamadas nolocales. * Proveedor de Intercambio de Larga Distancia (Inter Exchange Carrier, IEC o IXC): son las grandes compañías de la industria de telecomunicaciones. Son propietarias de las conexiones entre ciudades o estados de la red publica. En algunos casos el IEC puede ser nuestra LEC. El LEC e mejor conocido como ILEC (Incumbent Local Exchange Carrier, Proveedor Titular de Intercambio Local), particularmente cuando se refiere a las RBOCS (Regional Bell Operating Companies) o “Baby Bells”, compañías regionales de propiedad de AT&T utilizadas antes del acta de Telecomunicaciones de 1996 (en Norteamérica). Después de esta legislación, de impacto significativo para la industria, se incrementaron los números y tipos de compañías en el mercado, las cuales proveían servicios usando la infraestructura PSTN existente. Algunas de estos tipos de compañías son: * Proveedor LEC Competitivo (Competitive LEC, CLEC): se refiere a la compañía que provee acceso de intercambio local competitivo conectándose a switches ILEC y comprando espacio sobre las líneas ILEC existentes. El CLEC también puede operar como un revendedor (reseller), comprando servicios de telecomunicaciones a los ILEC, a precios al por mayor, y vendiéndolos a los consumidores a tasas competitivas. * Proveedor de Acceso Competitivo (Competitive Access Provider, CAP): se refiere a aquellas compañías que compran espacio sobre otras líneas IEC. Pueden ofrecer enlaces de intercambio entre dos LEC, arrendar líneas de acceso a una WAN publica o proveer conexiones directas a un ISP local. * Proveedor de Servicios de Internet (Internet Service Provider, ISP): se refiere a aquellas compañías que proveen acceso a Internet. El ISP puede ser una T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 6 2 16 62 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

organización muy grande (AOL, Compuserve), las cuales ofrecen una variedad de servicios de acceso, o pueden ser compañías de CATV locales, nuestro LEC o algún particular.

66.. TTIIIPPPO O D E C O N E X O N E Y E N L A C E OSSS D DE EC CO ON NE EX XIIIO ON NE ESSS Y YE EN NL LA AC CE ESSS W WA AN N Como se dijo, una WAN es una red de comunicaciones de datos que cubre una área geográfica relativamente amplia, mientras usa, a menudo, medios de transmisión arrendados a los proveedores de servicios y compañías de teléfono. Como se muestra en la figura, la WAN se usa para conectar distintos usuarios y dispositivos con el fin de intercambiar información. Hay dos métodos básicos de comunicaciones de datos: la transmisión asíncrona y la transmisión síncrona (ver otros capítulos). Típicamente, las comunicaciones síncronas son más eficaces, pero la transmisión asíncrona discada (dial-up) es por lo gral. más barata y más ampliamente disponible. Los proveedores de servicios ofrecen una variedad de servicios WAN síncronos y asíncronos. Estos servicios pueden agruparse en tres categorías u opciones de enlace que dependen del tipo de conexión o enlace WAN disponible (como se verá en los siguientes párrafos). Los enlaces WAN se pueden solicitar al proveedor de WAN con diversas velocidades, que se determinan según una capacidad de bits por segundo (bps). Esta capacidad en bps determina la velocidad a la que se mueven los datos a través del enlace WAN. En los Estados Unidos, el ancho de banda WAN a menudo se suministra utilizando la Jerarquía Digital Síncrona (JDS o SDH, Synchrounous Digital Herarchy). El soporte para una variedad de tecnologías WAN es importante porque no todas las tecnologías están disponibles en todo el mundo. En muchos casos, no sólo es el uso la consideración a tener en cuenta al seleccionar una tecnología WAN, sino que también lo es la disponibilidad geográfica. Por lo general, tal como se indica en la figura, hay dos tipos de opciones de enlaces WAN disponibles: conexiones con líneas dedicadas y conexiones conmutadas. * Conexiones dedicadas: son enlaces que se reservan para un solo propósito de telecomunicaciones y están disponibles para el usuario todo el tiempo. * Conexiones conmutadas: son enlaces de propósito general disponibles por demanda y generalmente pagados según una base de uso. El tipo de conexión WAN que se use dependerá de diversos factores, entre los que se incluye el tipo de información que se necesite enviar, el nivel promedio de tráfico, y los requisitos de seguridad. Las conexiones conmutadas, a su vez, pueden ser conmutadas por circuito o conmutadas por paquetes. De esta última se desprende una nueva forma de conmutación, de reciente aparición, denominada conmutación por celdas, en donde los paquetes no son de longitud variable, sino de longitud fija, recibiendo el nombre de celdas o células. Las siguientes secciones describen estos tipos de opciones de enlace.

6.1. Conexiones dedicadas o arrendadas Las líneas dedicadas, también denominadas líneas arrendadas (líneas leased) (alquiladas como propia a un carrier de red o compañía telefónica) o líneas privadas (propias), suministran servicio de tiempo completo. Son enlaces punto-apunto (circuitos dedicados permanentes) entre dos puntos y están continuamente disponibles. Las líneas dedicadas normalmente se utilizan para transportar datos, voz y, ocasionalmente, vídeo. En el diseño de red de datos, las líneas dedicadas generalmente suministran conectividad de núcleo o de backbone entre sitios o campus importantes, así como también conectividad LAN a LAN. Las líneas T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 6 3 16 63 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

dedicadas generalmente se consideran como opciones de diseño razonables para las WAN y son conexiones que soportan transmisiones de alta velocidad, incluyendo SONET/SDH (estándares Norteamericano y Europeo de los sistemas de transmisión de alta velocidad por fibra óptica) y T1/E1/J1 (estándares norteamericano, europeo y japonés para transmisiones de baja velocidad a través de canales de cable de cobre). Las líneas dedicadas también se denominan enlaces punto a punto porque la ruta establecida es permanente y fija para cada red remota a la que se llega a través de las instalaciones de la portadora. Un enlace punto a punto suministra una ruta de comunicación WAN preestablecida única, desde las instalaciones del cliente a través de una red de portadora, como una empresa telefónica, hasta una red remota. El proveedor del servicio arrienda enlaces punto a punto para uso privado del cliente (ver figura de un enlace punto a punto). Actualmente una línea dedicada no es una “línea” (física) absoluta. Las líneas dedicadas pueden ser también circuitos conmutados que establecen un camino fijo a través de la red del portador. Son circuitos reservados full-time por el portador para el uso privado del cliente. La naturaleza privada de una línea dedicada permite a una organización maximizar su control sobre la conexión WAN. Las líneas arrendadas ofrecen velocidades altas de hasta 45 Mbps. Las líneas arrendadas son ideales para ambientes de alto volumen con patrones de tráfico de tasa sostenida. Sin embargo, debido a que la línea no es compartida, tienden a ser costosas. El uso del ancho de banda disponible constituye un aspecto que debe tenerse en cuenta, ya que se debe pagar para que la línea esté disponible incluso cuando la conexión está inactiva. Se debe pagar por la línea esté o no enviando tráfico sobre ella. Algunos servicios, como T1, proveen una cuota fija para el acceso del loop local, en ambos extremos, y mantienen una cuota por distancia para enlazar las dos locaciones. Si la red de la organización debe soportar un flujo constante de datos de misión crítica, como comercio electrónico o transacciones financieras, entonces una línea arrendada de gran velocidad podría satisfacer mejor las necesidades. Los enlaces punto a punto son generalmente de mayor costo que los servicios compartidos tal como Frame Relay. Punto a punto se utiliza para enlaces físicos directos o para enlaces virtuales compuestos por múltiples enlaces físicos. La conectividad de tiempo completo, dedicada, se suministra a través de enlaces seriales síncronos punto a punto. Las conexiones se realizan utilizando los puertos seriales síncronos del router con un uso de ancho de banda típico de hasta 2 Mbps (E1) disponible a través del uso de una CSU/DSU (ver figura). Por consiguiente, cada conexión requiere un puerto del router y una CSU/DSU, además del circuito real del proveedor de servicios. El costo de las soluciones de líneas dedicadas puede tornarse considerable cuando se utilizan para conectar varios sitios. Por esta razón, la mayoría de las compañías encuentran que construir una WAN de topología de malla completa (es decir cada sitio mantiene una conexión a cada otro sitio) usando solamente líneas dedicadas es demasiado costoso. 6.1.1. Características: • • • • • •

Arrendada al proveedor del servicio WAN (raramente es privada propia). Servicio de tiempo completo (24 horas al día, los 7 días de la semana). Velocidades de transmisión de hasta T3 (44,736 Mbps). La mas comúnmente utilizada es E1 (2,048 Mbps) y T1/E1 fraccional en incrementos de 64 Kbps. De uso común para transporte de datos, videoconferencia, imaging medica, transferencia financiera y voz. Conectividad central WAN. Conectividad LAN a LAN.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 6 4 16 64 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V • •

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Costo alto, por su uso casi exclusivo para un único propósito (transferencia confiable de gran cantidad de datos entre dos nodos de red). No requiere “seteo de llamada” (call setup), dado que las conexiones son punto a punto.

6.1.1.2. Servicios digitales dedicados •

T1, T3, E1, E3: la serie T de servicios en los EE.UU. y la serie E de servicios en Latinoamérica y Europa son tecnologías digitales de WAN sumamente importantes. Usan multiplexación por división de tiempo (“dividen” y asignan ranuras de tiempo) síncrono para crear 24 canales lógicos (conocidos como DS0) de 64 Kbps cada uno que pueden usarse para llevar voz digitalizada o datos. El DS0 puede usarse separadamente, o en forma combinada para proveer un número más pequeño de canales de alta capacidad. T3 es 28 líneas T1, mientras E1 es el equivalente europeo de T1, operando a 2.048 Mbps. E3 es el equivalente europeo de T3, con un throughput de 34 Mbps. El ancho de banda es: • T1: 1,544 Mbps, estándar de USA • T3: 44,736 Mbps, estándar de USA • E1: 2,048 Mbps, estándar europeo • E3: 34,368 Mbps, estándar europeo • Hay otros anchos de banda disponibles Los medios utilizados son normalmente el cable de cobre de par trenzado y el cable de fibra óptica. Su uso es muy generalizado; el costo es moderado. xDSL (DSL por Digital Subscriber Line, Línea Digital del Suscriptor) y “x” por una familia de tecnologías): tecnología de WAN nueva y en desarrollo para uso doméstico. Permite la transmisión sobre las líneas existentes de cobre (pares trenzados) que proporcionan el servicio telefónico. En general son enlaces de alta velocidad hacia una red de fibra óptica construida por el operador telefónico. Su ancho de banda disminuye a medida que aumenta la distancia desde el equipo de las compañías telefónicas. Las velocidades máximas de 51,84 Mbps son posibles en las cercanías de una central telefónica; son más comunes los anchos de banda mucho menores (desde 100 Kbps hasta varios Mbps). Su uso es limitado pero en rápido aumento; el costo es moderado y se reduce cada vez más. “x” indica toda la familia de tecnologías DSL, entre ellas: • HDSL (High-bit-rate DSL): DSL de alta velocidad de bits • SDSL (Symmetrical DSL): DSL de línea única • ADSL (Asymmetrical DSL): DSL asimétrica • VDSL (Very-bit-rate DSL): DSL de muy alta velocidad de bits • RADSL: DSL adaptable a la velocidad SONET (Red Óptica Síncrona): conjunto de tecnologías de capa física de muy alta velocidad, diseñadas para cables de fibra óptica, pero que también pueden funcionar con cables de cobre. Tiene una serie de velocidades de datos disponibles con designaciones especiales. Implementadas a diferentes niveles de OC (Optical Carrier, Portadora Óptica) desde los 51,84 Mbps (OC-1) hasta los 9.952 Mbps (9 Gbps) (OC-192). Puede alcanzar estas impresionantes velocidades de datos mediante el uso de la Multiplexación por División de Longitud de Onda (WDM), en la que láseres configurados para colores ligeramente diferentes (longitudes de onda) envían ópticamente enormes cantidades de datos; su uso es generalizado entre las entidades de backbone de Internet. Su costo es elevado, no es una tecnología que se pueda usar a escala doméstica.

6.1.1.3. Otros servicios de WAN • •

Módems de discado (conmutación analógica): su velocidad es limitada, pero son muy versátiles. Funcionan con la red telefónica existente. El ancho de banda máximo aproximado es de 56 Kbps. El costo es bajo. Su uso es muy generalizado. El medio típico es la línea telefónica de par trenzado. Módems por cable (analógico compartido): colocan señales de datos en el mismo cable que las señales de televisión. Es cada vez más popular en regiones donde hay gran cantidad de cable coaxial de TV

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 6 5 16 65 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

instalado. El ancho de banda máximo disponible puede ser de 10 Mbps, aunque esto se degrada a medida que más usuarios se conectan a un segmento determinado de la red (comportándose como LAN no conmutadas). El costo es relativamente bajo. Su uso es limitado pero está en aumento. El medio es cable coaxial. Inalámbrico: no se necesita un medio porque las señales son ondas electromagnéticas. Existen varios enlaces de WAN inalámbricos, dos de los cuales son: • Terrestre: anchos de banda normalmente dentro del intervalo de Mbps (por ej., microondas). El costo es relativamente bajo. Normalmente se requiere línea de vista. El uso es moderado. • Satélite: puede servir a los usuarios móviles (por ej., red telefónica celular) y usuarios remotos (demasiado alejados de las instalaciones de cables). Su uso es generalizado. El costo es elevado.

6.2. Conexiones conmutadas Las conexiones conmutadas (switched) también conocidas como conexiones virtuales, tienen las siguientes características: * El costo es bajo, porque las conexiones conmutadas se hacen por demanda y sobre facilidades compartidas. * Las conexiones conmutadas son preparadas o seteadas (set up) antes de transmitir la información. El seteo de llamada (call setup) podría imponer un retardo no deseado pero, a cambio, solo se paga por lo que se usa. * Las conexiones son punto a multipunto, y las decisiones de ruteo se realizan dinámicamente a lo largo del camino de la llamada. o Para conexiones de voz, el ruteo se realiza una sola vez, por llamada. o Para conexiones de datos, el ruteo es más dinámico, así cada uno de la totalidad de los paquetes pueden tomar rutas diferentes. Las conexiones conmutadas se encuentran comúnmente en las PSTN, así como en redes ISDN, Frame Relay y ATM. Muchas veces pueden requerirse conexiones híbridas, cuando se necesita una línea leased, para hacer la conexión entre la locación del consumidor y el POP del proveedor de servicio. Por ejemplo, las redes X.25 se acceden usando una conexión dedicada para luego usar, internamente, una conexión conmutada. Se verán ahora las diferencias existentes entre los distintos tipos de redes conmutadas. Existen tres tipos básicos de servicios de conmutación WAN: * Redes conmutadas por paquetes: separan los mensajes en segmentos de longitud variables para transmitirlos luego en forma individual a través de conexiones creadas dinámicamente. * Redes conmutadas por celdas: separan los mensajes en celdas de longitud fija para transmitirlos luego en forma individual a través de conexiones enrutables creadas dinámica o permanentemente. * Redes conmutadas por circuitos: crean un circuito dedicado, o canal, el cual se usa por el tiempo que dura la transmisión. 6.2.1. Conexiones conmutadas por paquetes La conmutación de paquetes, la cual divide los mensajes en paquetes más pequeños para su transmisión, fue desarrollada originalmente con el propósito de enviar datos sobre circuitos analógicos, los cuales están sujetos a errores y ruido. Los desarrollos más recientes para transmisión digital incluyen Frame Relay y SMDS. Al contrario de las líneas leased y las conexiones conmutadas por circuito, la conmutación de paquetes no cuenta con conexiones dedicadas o punto-a-punto a través de la red del proveedor hasta el otro extremo de la comunicación. En cambio los paquetes de datos se enrutan a través de la red del carrier basados en el direccionamiento contenido en el paquete o cabecera del frame. En la WAN de conmutación por paquetes el proveedor configura sus dispositivos de conmutación para crear circuitos virtuales (VC), que son similares al enlace punto a punto, (el VC es lógico, el enlace punto a punto es físico) para transportar paquetes desde un origen hasta un destino a través de una red portadora (ver figuras), permitiendo la conectividad de extremo a extremo (end-to-end). Frame Relay, T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 6 6 16 66 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

SMDS, X.25 y ATM son ejemplos de las tecnologías WAN conmutadas por paquetes. Una empresa podría usar la facilidad de los circuitos virtuales y el soporte de red de los carriers para crear Redes Privadas Virtuales (VPN, Virtual Private Network) de datos sobre las WANs, conectando así todos los lugares a un costo menor que con el uso de líneas dedicadas alquiladas. En una configuración de paquetes conmutados, las redes tienen conexiones con la red de la portadora (a través de líneas conmutadas ó T1 dedicadas), y muchos clientes comparten recursos comunes de la portadora (switches y líneas físicas). Esta hace un mejor uso de su infraestructura y el costo para el cliente es generalmente mucho menor que con las líneas punto a punto (aunque el administrador tiene menos control sobre las redes de paquetes). La sección de la red de la portadora que se comparte se conoce a menudo como nube, porque consta de muchas rutas diferentes que un paquete puede atravesar hacia su destino. Estas múltiples rutas proporcionan redundancia que puede gestionar las ráfagas de tráfico y mantiene la red en funcionamiento en caso de que falle una ruta. Esta forma de conmutación proporciona servicios más flexibles para empresas que necesiten conexiones entre distintos puntos y transmisiones de datos en cantidades variables. Una red de conmutación de paquetes proporciona conexiones simultaneas entre numerosos puntos y un ancho de banda bajo petición. La conmutación de paquetes se presenta como una alternativa a las líneas leased; además una simple conexión serial síncrona puede soportar diversos VCs lógicos en una configuración punto-multipunto. Este proceso de combinar múltiples conversaciones de datos dentro de una simple línea física se denomina multiplexación. La multiplexación es posible a causa de que un DTE (usualmente un router) encapsula los paquetes con información de direccionamiento; el cual es usado por los switches del proveedor para saber como y donde entregar un paquete especifico. En el caso de Frame Relay esas direcciones son los DLCIs. La habilidad de multiplexar implica que un simple puerto de router y una CSU/DSU pueden soportar decenas de VCs, cada uno establecido a sitios diferentes. Por consiguiente, la conmutación de paquetes hace que una topología de malla parcial o completa sea relativamente económica. Frame relay es un servicio de conexión WAN popular, de alta velocidad para sitios y oficinas remotas. Sin embargo, no ofrece el grado de fiabilidad, flexibilidad, y seguridad ofrecido por las líneas dedicadas. A pesar del más bajo costo de Frame Relay y su capacidad multipunto, las líneas dedicadas son el servicio WAN preferido para tráfico de misión crítica y continuo, intercambiando altos volúmenes. Existe un servicio de datagramas en el cual cada paquete se encamina a través de la red como si fuera una entidad independiente. El camino físico entre los extremos de la conexión puede cambiar a menudo debido a que los paquetes aprovechan aquellas rutas de menor costo y evitan las zonas congestionadas. El tipo de red conmutada por paquetes (de longitud variable) más común, hoy en día, es Frame Relay. Las dos redes de conmutación de paquetes más conocidas son: • X.25: tecnología más antigua pero todavía ampliamente utilizada, que posee amplias capacidades de verificación de errores desde la época en que los enlaces de las WAN eran más susceptibles a los errores, lo que hace que su confiabilidad sea muy grande, pero al mismo tiempo limita su ancho de banda. El ancho de banda puede ser de 2 Mbps como máximo. Es ampliamente utilizada, y su costo es moderado. El medio típico es el cable de cobre de par trenzado. • Frame Relay: versión conmutada por paquetes del RDSI de banda angosta. Es más eficiente que X.25, con servicios similares. Es de uso generalizado, el costo es de moderado a bajo. Frame Relay o Relevamiento de Tramas es un protocolo de conmutación WAN que soporta transferencia digital de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 6 7 16 67 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

datos a velocidades que van desde los 56 Kbps a los 2 Mbps. Su CIR (Committed Information Rate, Tasa de Transferencia Garantizada) es la garantía de ancho de banda disponible. Sin embargo, una de las facilidades claves de Frame Relay es la de permitir exceder el CIR por breves periodos de tiempo, necesarios para acomodar niveles de tráfico pico (sobrepasar el ancho de banda del CIR). Esto es ideal para aquellas aplicaciones que trabajan con patrones de tráfico en ráfaga (bursty traffic patterns), como en la interconexión de LANs. Entre los medios típicos se incluyen el cable de cobre de par trenzado y el cable de fibra óptica. Frame Relay elimina la necesidad de mantenimiento de puntos de conexión separados, entre cada par de locaciones en una red corporativa. El servicio Frame Relay puede ser contratado a una telco, o la tecnología puede usarse para construir redes privadas. Las redes conmutadas por paquetes tienen las siguientes características: • Son redes orientadas a la conexión, debido a que el extremo receptor debe replicar entes de comenzar la transmisión. Sin embargo, no se requiere seteo de llamada dado que paquete contiene una dirección destino que se usa para enrutar cada paquete a través de la red. La conexión enrutada dinámicamente a través de la red es conocida como circuito virtual o canal virtual. • El ruteo dinámico permite un uso flexible del ancho de banda y de los recursos de red. • La conmutación de paquetes usa una técnica de “almacenamiento y reenvió” (store and foward) para transportar voz y datos a través de la red. El almacenamiento temporal de los paquetes conmutados permite “corrección de errores”, así como priorización y un uso más eficiente del ancho de banda. • Los operadores de las redes conmutadas por paquetes tarifan basados en el número real de paquetes enviados, lo que indica que se pagará solamente por los datos que se transmitieron. Además de las redes identificadas anteriormente, Internet es otro buen ejemplo de este tipo de redes. Como se dijo antes, las redes conmutadas por paquetes pueden también transportar tramas (paquetes) de tamaño fijo, denominándose de este modo celdas. En este caso hablamos de redes de conmutación por paquetes de tamaño fijo o redes de conmutación por celdas. 6.2.2. Conexiones conmutadas por celdas Las redes ATM emplean conmutación de celdas, la cual combina el ancho de banda garantizado de una red de conmutación de circuitos con las capacidades de priorización y compartición efectiva del ancho de banda de una red de conmutación de paquetes. Las redes de conmutación de celdas tienen las siguientes características: * Son redes orientadas a la conexión, debido a que el extremo receptor debe replicar antes de comenzar la transmisión. Sin embargo, no se requiere seteo de llamada porque cada celda de 53 bytes contiene una dirección destino que se usa para enrutarla lógicamente a través de la red. Las conexiones enrutadas en forma dinámica se denominan circuitos virtuales conmutados (SVC, Switched Virtual Circuits). Las conexiones enrutadas en forma manual se denominan circuitos virtuales permanentes (PVC, Permanent Virtual Circuits). * El enrutamiento lógico permite flexibilidad en el uso del ancho de banda y de los recursos de red. * Los circuitos lógicos permiten que las redes de conmutación de celdas puedan garantizar calidad de servicio (QOS, Quality of Service). * Los switches de celdas usan la técnica store and foward para transportar voz y datos a través de la red. El almacenamiento temporal de las celdas conmutas permite la detección de errores (sin recuperación), asi como priorización de tráfico y un uso más eficiente del ancho de banda. * Los operadores de estas redes tarifan basados en el número real de celdas enviadas, lo que indica que solo se pagará por los datos transmitidos. Las redes de conmutación de celdas más conocidas son: T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 6 8 16 68 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V •

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

ATM (Modo de Transferencia Asíncrona): tiene una cercana relación con el RDSI de banda ancha. Provee conectividad WAN y LAN en forma integrada, soportando datos, voz y video a velocidades que van desde los 25 Mbps hasta el rango de los multiGbps (1,000 Mbps). La conexiones de muy alta velocidad son generalmente hechas con fibra óptica usando el estándar SONET. Utiliza tramas pequeñas de longitud fija (53 bytes) (celdas) para transportar los datos. Los medios típicos son el cable de cobre de par trenzado y el cable de fibra óptica. Su uso es generalizado y está en aumento; el costo es elevado. Cuando ATM esté completamente desarrollado direccionará virtualmente todos las necesidades de comunicación de datos, y podrá desplazar, también virtualmente a todas las otras tecnologías de networking. SMDS (Servicio de Datos Multimegabit Conmutado): relacionado con ATM y utilizado normalmente en las MAN. El ancho de banda máximo es de 44,736 Mbps. Los medios típicos son el cable de cobre de par trenzado y el cable de fibra óptica. No es de uso común; el costo es relativamente alto.

6.2.3. Conexiones conmutadas por circuito La conmutación por circuito es un método de conmutación WAN en el que se establece, mantiene y termina un circuito físico dedicado a través de una red portadora para cada sesión de comunicación. La conmutación por circuito, que se utiliza ampliamente en las redes de las compañías telefónicas, opera de forma similar a una llamada telefónica normal. RDSI es un ejemplo de una tecnología WAN conmutada por circuito. En una red conmutada por circuitos, se establece temporalmente un circuito físico dedicado para cada sesión de comunicación. Los circuitos conmutados se establecen por una señal de seteo (set-up) inicial. Este proceso de seteo de llamada (call setup) determina el ID del que llama y el ID de destino, así como el tipo de conexión. Una señal de terminación cierra el circuito cuando termina la transmisión. Las conexiones conmutadas por circuito de un sitio a otro se activan cuando son necesarias y generalmente requieren poco ancho de banda. Las conexiones del servicio telefónico básico generalmente se limitan a 28,8 Kbps sin compresión, y las conexiones RDSI se limitan a 64 ó 128 Kbps. Las conexiones conmutadas por circuito se utilizan principalmente para conectar usuarios remotos y usuarios móviles a las LAN corporativas o a un ISP. Las redes corporativas la utilizan como líneas de respaldo para circuitos de velocidades más altas, como Frame Relay y otras líneas dedicadas (backup lines) o como enlaces primarios para sucursales que intercambian tráfico esporádico o de bajo volumen. Las conexiones conmutadas por circuitos se tornan costosas si se la establecen en forma continua. Por esta razón, los routers conectados a redes de este tipo son configurados para operar de una forma especializada llamada DDR, el cual solo hace la “llamada” cuando detecta tráfico definido por el administrador de red como “interesante”. 6.2.3.1. Características • •

• •

Conexiones a pedido. Son orientadas a la conexión y se requiere seteo de llamada antes de intercambiar información. Esta conexión punto a punto temporal se conoce como circuito o canal. El camino de llamada permanece constante y el ancho de banda es dedicado mientras dure la llamada. El ancho de banda no usado no es recuperado. Ancho de banda relativamente bajo. El tráfico se transmite a la velocidad del cable con un retardo mínimo

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 6 9 16 69 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V • • • • •

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

y poniendo énfasis en el sincronismo (timing) para minimizar el jitter (retardo de a intervalos). No hay recuperación de errores porque la conmutación basada en circuitos mantiene buffers pequeños. Los operadores de estas redes tarifan por la duración de la conexión, lo cual incluye los “silencios transmitidos”. Útil para usuarios remotos. Útil para usuarios móviles. Útil como líneas de respaldo.

El mejor ejemplo de una red de conmutación de circuitos es la PSTN. Otras redes que también usan conmutación de circuitos para establecer conexiones son ISDN y las redes celulares. • Discado Asíncrono (Asynchrounous Dialup): las conexiones seriales asíncronas ofrecen un servicio WAN barato a través de la red telefónica existente. Para dispositivos digitales (PCs, routers), sobre líneas telefónicas analógicas, se requiere de módems en cada extremo (ver figura). Los módems permiten a cualquier usuario remoto (móvil u hogareño) conectarse sobre líneas seriales asíncronas a una red corporativa o a un ISP. Debido a que los módems no soportan altas velocidades de transmisión, las conexiones seriales asíncronas se usan como líneas de respaldo (backup lines) o para compartir carga de tráfico (ver figuras). Los routers pueden también usar conexiones seriales asíncronas usando DDR. Otros routers diseñados con docenas de líneas asíncronas, actuando como puntos de concentración para llamadas entrantes y salientes (dial-in/dial-out), conforman Access Servers. • POTS (Plain Old Telephone Service, Servicio Telefónico Analógico): no es un servicio informático de datos, pero se incluye por dos motivos: (1) muchas de sus tecnologías forman parte de la creciente infraestructura de datos, (2) es un modelo sumamente confiable, de fácil uso para una red de comunicaciones WAN. Es la tecnología de conmutación de circuitos más común. El medio típico es el cable de cobre de par trenzado de 2 hilos. Dos implementaciones de conexión telefónica populares son: o DDR, Ruteo Discado bajo Demanda: el enrutamiento por llamada telefónica bajo demanda es una técnica mediante la cual un router puede iniciar dinámicamente llamada a través de un circuito conmutado cuando necesita enviar datos. En una configuración DDR, el router está configurado para iniciar la llamada cuando se cumplen con determinados criterios, tales como un tipo particular de tráfico de red que necesita transmitirse (a esto se denomina “trafico interesante”, el cual es seleccionado mediante filtros llamados ACL o Listas de Control de Acceso). Una vez efectuada la conexión, el tráfico atraviesa la línea. La configuración del router especifica un temporizador de inactividad que le indica al router que derive la conexión cuando el circuito ha permanecido inactivo durante un determinado periodo. DDR también puede implementarse sobre circuitos ISDN, a diferencia del siguiente. o Línea Telefónica de Respaldo: es otra forma de configurar DDR. No obstante, en la línea telefónica de respaldo, el circuito conmutado se utiliza para proporcionar un servicio de respaldo para otro tipo de circuito, tal como los paquetes conmutados punto a punto. El router se configura de manera tal que cuando se detecta una falla en el circuito principal, se inicia T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 7 0 17 70 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

la línea telefónica de respaldo, la cual soporta entonces la conexión WAN hasta que el circuito principal se haya restaurado; cuando esto ocurre la conexión de respaldo se termina. RDSI de banda angosta (Red Digital de Servicios Integrados): fue el primer servicio con marcación totalmente digital. Es de uso bastante generalizado, aunque varía considerablemente de un país a otro. Su costo es moderado. Se concibió como una red digital para entregar voz, datos y video a los usuarios finales. Ofrece un reemplazo más robusto, de mayor velocidad, para los módems dial-up analógicos y las líneas de calidad de voz. El medio típico es el cable de cobre de par trenzado (de 2 y 4 hilos). La Interfase de Transferencia o Acceso Básico (BRI) ofrece una facilidad dial-up que proporciona 2 canales B de 64 Kbps cada uno (ancho de banda total de 128 Kbps) y un canal D de 16 Kbps (usado para señalización). La Interfase de Transferencia o Acceso Principal (PRI), de mayor capacidad, ofrece 23 canales B (cerca de 2 Mbps) más un canal D sobre una línea T1 dedicada. La interfase BRI provee acceso telefónico digital de bajo costo a pequeñas oficinas y hogares (capacidad que puede usarse para acceso a Internet, videoconferencia, transferencia de archivos a alta velocidad, y otras aplicaciones intensivas a un costo no mucho mayor que los servicios telefónicos de grado de voz estándar). ISDN provee conexiones dial-up síncronas (típicamente) y asíncronas. Es comúnmente usado con DDR para proveer acceso remoto a aplicaciones SOHO (Small Office/Home Office), enlaces de backup y compartición de carga o balanceo de carga. Switched-56: tecnología de comunicación digital para transporte de datos sobre líneas síncronas y asíncronas de conmutación y sobre un canal de 56 Kbps, y con compresión hasta 4 veces mas el ancho de banda. Las líneas SW-56 son digitales y no precisan de un módem; en su lugar es necesario un CSU/DSU para conectarlo al router LAN de la compañía telefónica. Las líneas, una vez configuradas, operan como los canales telefónicos de salida; tienen un número de teléfono al que se puede llamar desde una posición remota y el enlace se establece a petición del cliente. Este servicio es habitual en entornos LAN de bajo tráfico y con tráfico en ráfagas, es mas barato que las líneas alquiladas T1 o T1 fraccional, y también se usan como backup de las líneas analógicas (telefónicas) y digitales (T1) y como respaldo ante el exceso de tráfico de otra línea. Algunas compañías denominan a este servicio como 56 Kbps DDS (Digital Data Service - Servicio Digital de Datos).

77.. TTIIIPPPO O D E T R Á F C O WA AN N OSSS D DE ET TR RÁ ÁF FIIIC CO OW

1. 2. 3.

La caracterización del tipo de tráfico de red es fundamental para la planificación exitosa de los diseños WAN, pero pocos planificadores ejecutan correctamente esta tarea clave, si es que lo hacen en absoluto. El análisis y categorización del tipo de tráfico es la base para las decisiones de diseño clave. El tráfico influencia la capacidad, y la capacidad influencia el costo. Existen procesos comprobados para la medición y estimación del tráfico para las redes tradicionales, pero no para las WAN. Como muchos planificadores de redes no conocen las técnicas de planificación y diseño necesarias para manejar las complejidades e incertidumbres del tráfico WAN, normalmente adivinan la capacidad de ancho de banda, lo que da como resultado redes costosas, excesivamente complicadas, o redes demasiado simplificadas con desempeño pobre. Existen tres tipos grandes de tráfico que pueden encontrarse en un ambiente WAN: Tráfico de voz: es el término colectivo usado para identificar la voz descomprimida en vivo, que se transporta a través de la red. Tráfico de datos: se refiere a la información electrónica que se encuentra en archivos, bases de datos, documentos, imágenes, asi como en voz y video codificada digitalmente. Tráfico de video: es el término colectivo usado para identificar imágenes descomprimidas en movimiento, las cuales se transportan a través de la red.

En teoría, cualquiera de estos tipos de tráfico podría viajar sobre cualquiera de las conexiones conmutadas tratadas previamente. Sin embargo existen “preferencias históricas” que relacionan la voz con las redes T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 7 1 17 71 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

de circuitos conmutados, los datos con las redes de paquetes conmutados y así en adelante. Pero estas relaciones de pares se tornan menos significativas a medida que las redes convergen. 7.1.1. Trafico de voz En sus principios las redes fueron diseñadas para acarrear un tipo especifico de datos: voz o datos. Mientras que las redes de telecomunicaciones modernas están incrementalmente acarreando, en forma conjunta, voz y datos (así como video), es importante considerar separadamente los requisitos únicos de tráfico de las redes de voz y de las redes de datos. Como se dijo antes, las PSTN son las redes de voz más grandes existentes hoy en día. Diseñadas en sus orígenes para transportar solamente voz, las PSTN se adaptaron rápidamente para satisfacer una variedad de necesidades de datos. Mientras la demanda por servicios de datos continúa incrementándose, la voz es aun la fuente de réditos más grande de los proveedores WAN. Las redes de voz tienen distintas características comunes que están diseñadas para cumplir con las necesidades del tráfico de voz: * Si la transmisión de voz no arriva en el orden apropiado, no será probable su uso debido a que no podrá ser comprendida. Como resultado, las redes de voz son generalmente conmutadas por circuitos dado que la voz requiere de un sincronismo (timing) constante para prevenir el jitter (retardo de a intervalos). En general, las redes conmutadas por paquetes no satisfacen el tráfico de voz debido a que la priorización de tráfico (de estas redes) podría ocasionar retardos prolongados * Debido a que el timing refrena y no permite, a veces, retransmitir información dañada o perdida, las redes de voz tienen generalmente un control de error mínimo y ninguna recuperación de errores. Afortunadamente, el tráfico de voz es muy tolerante a los errores. El tráfico de voz es soportado por una amplia variedad de tipos de redes incluyendo SONET/SDH, Wireless, Frame Relay, ATM, TCP/IP e ISDN, pero la vasta mayoría del tráfico de voz se transporta a través de redes PSTN. 7.1.2. Tráfico de datos Los datos son menos sensitivos a los refrenamientos del sincronismo (timing), propios del tráfico de voz. Es más, las redes de datos prestan más atención a la confiabilidad del transporte de la información. Como resultado, las redes de datos son típicamente de conmutación de paquetes o de conmutación de celdas para asegurar el control y la recuperación de errores necesaria que certifique una transferencia fiable. 7.1.3. Tráfico de video El video es similar a la voz en un aspecto y a los datos en otros. Con el tráfico de datos porque requiere de confiabilidad de transporte de extremo a extremo, mientras que comparte los requerimientos de timing del tráfico de voz. El tipo de red ideal para información de video es la red ATM de conmutación de celdas, el cual provee calidad de servicio garantizado y entrega rápida de paquetes (fast packet). 7.1.4. Convergencia del tráfico de red Las interconexiones LANs cumplen con la necesidad de transmitir todo tipos de tráfico a través de las WAN, los que da como resultado la convergencia de las redes de datos y de voz. La convergencia se refiere a la combinación de dos o más tecnologías, en este caso las redes de voz y de datos, y puede darse a distintos niveles: * Convergencia al nivel de transmisión: convergen voz, video y datos a través de medios de transporte físico, los cuales pueden ser cables de cobre, de fibra óptica o inalámbrico. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 7 2 17 72 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N))) * *

Convergencia al nivel de red: convergen voz, datos y video a través de redes multiprotocolos. Convergencia al nivel de aplicación: convergencia de programas de aplicación a través de redes de aplicaciones inteligentes.

La convergencia de cada nivel tiene su impacto sobre las telecomunicaciones, haciendo que los operadores de red y los proveedores de servicio adapten sus redes para transportar todo tipo de tráfico de red. Las redes de voz están transportando cantidades incrementales de tráfico de datos, mientras que el tráfico de voz está migrando hacia el transporte a través de redes de datos.

88.. IINNNFFFLLLUUUEEENNNCCCIIIAAASSS DDDEEESSSIIISSSTTTEEEM M A E X T E R N O MA ASSS E EX XT TE ER RN NO OSSS Se verán los problemas que influencian el desarrollo e implementación de los métodos de transporte y de acceso WAN, incluyendo las organizaciones que fijan los estándares de interoperabilidad, y las regulaciones del gobierno que establecen el precio y el uso, así como las tecnologías origen que definen las tasas o velocidades estándares de transmisión y las velocidades o tasas de muestreo. Para comprender esto se debe hacer lo siguiente: • Comparar y contrastar los proveedores de servicio que tarifan y los que no lo hacen. • Identificar las grandes organizaciones de estándares WAN y sus funciones. • Comparar y contrastar señales analógicas y señales digitales. • Identificar los distintos métodos de conversión de señales analógicas a digital.

1.

2.

3.

Existen tres influencias primarias que afectan el desarrollo e implementación WAN: Influencias económicas: esencialmente indican que las nuevas tecnologías WAN deben ser aprovechables o rentables, antes de que los proveedores de servicio las ofrezcan a los consumidores. Las influencias económicas como las tarifas a menudo determinan si los proveedores de servicio están deseosos de invertir y ofrecer nuevas tecnologías. Influencias legislativas: son introducidas por los cuerpos de gobierno de la industria de telecomunicaciones, los cuales dictan todo lo concerniente a los estándares específicos de interoperabilidad y de tarifación, los cuales a su vez pueden influenciar la rentabilidad, que para las prácticas competitivas determinan quienes ofrecerán sus servicios dentro de una región. Las influencias incluyen decisiones impuestas por agencias del gobierno, como la FCC y las recomendaciones de organizaciones de estándares como ITU, IETF y ANSI. Influencias tecnológicas: su influencia es cada vez menor debido al desarrollo de las nuevas tecnologías, las cuales no pueden igualmente implementarse debido a los contrastes económicos y legislativos. Mas bien, existen una variedad de influencias del sistema que se basan en los orígenes de las comunicaciones WAN en el ambiente de telefonía (como los métodos de conversión analógico digital) así como aquellos introducidos por la convergencia de redes de voz y datos.

8.1.1. Influencias económicas Hay una variedad de factores económicos que afectan el desarrollo e implementación de una WAN, pero de todos la tarifación es la influencia mayor. Por definición, una tarifa es un honorario publicado de tasas o cargos por una cantidad especifica de equipamiento, facilidades o tipo de servicio provisto por un carrier o proveedor común. Los carriers comunes son las organizaciones que proveen acceso publico a los servicios de telecomunicaciones, incluyendo las ILECs o CLECs, que provee servicio telefónico local, y los IECs y CAPs, que proveen servicios de larga distancia y de intercambio entre LECs. Las tarifas fijan por lo general tasas que tienen en cuenta los costos del proveedor de servicios más un monto aceptable de ganancia. Aun cuando esto se pueda diseñar para proteger los derechos del consumidor, esto puede también producir retardos en la entrega de servicios emergentes que podrían beneficiar potencialmente al consumidor. Los niveles de ganancia fijados por las tarifas pueden no ser suficientes para atraer la inversión de una T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 7 3 17 73 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Telco ó, el costo de inversión podría ser tan alto que la tarifa resultante se torna inconsistente con el precio que el mercado debería pagar. En Norteamérica, los servicios de telecomunicaciones metropolitanos más rentables subsidiaban a los servicios de telecomunicaciones rurales menos rentables. La desregulación rompió este balance, a un incremento en la competición se tuvo un decremento en los márgenes de ganancia, lo que forzó un incremento de los costos. Las ILECs fueron muy impactadas, y debieron abrir sus facilidades a CLECs, CAPs y en algunos casos a IECs, las cuales pudieron ofrecer a los usuarios servicios competitivos dentro del intercambio local. Las menores ganancias en las áreas urbanas impacto sobre la habilidad de las Telcos, y sobre su deseo de invertir en nuevos servicios en áreas no urbanas. Existen también proveedores no tarifarios cuyos servicios no están sujetos a las tasas reguladas por el gobierno. Entre estos proveedores se incluyen el gobierno (bases militares y centros de gobierno) y las grandes instituciones educacionales (colegios y universidades). En nuestro país, ocurrió lo mismo cuando se desregularizaron los servicios de telecomunicaciones, solo que en nuestro caso el numero de proveedores de servicios de telecomunicaciones es mucho menor y los precios competitivos no variaron mucho. 8.1.2. Influencias legislativas En adición a la influencia económica de la lista de tarifas fijadas por las agencias reguladoras, existe una variedad de influencias legislativas gubernamentales y no gubernamentales que impactan sobre el desarrollo e implementación de la WAN. Los tipos más comunes de influencias legislativas incluyen las definiciones de estándares y especificaciones para la operatoria WAN. Tales documentos pueden incluir definiciones para la interoperabilidad de hardware y software, estándares de transporte, o problemas considerando la seguridad y protección de las facilidades (medios, equipos, sistemas, etc). Los estándares se originan de diversas fuentes y se basan generalmente en las practicas y usos aceptados ampliamente. Sin embargo, las variaciones en las preferencias y practicas de telecomunicaciones globales dan como resultado estándares que son adoptados e interpretados por una amplia variedad de organizaciones. 8.1.3. Influencias tecnológicas Mientras que el impacto de las nuevas tecnologías de networking tiene el potencial para impactar significativamente sobre las operaciones WAN, el arribo de un nuevo servicio puede mantenerse atrás debido a los factores económicos y legislativos. Es mas, el efecto de las decisiones de tecnologías pasadas continua influenciando la WAN dado que muchas de las ideas originales permanecen estándares hoy en día.

99.. O G A N Z A C O N E D E E T Á N D A R E ORRRG WA AN N GA AN NIIIZ ZA AC CIIIO ON NE ESSS D DE EE ESSST TÁ ÁN ND DA AR RE ESSS W Las WAN utilizan el enfoque de división en capas del modelo de referencia OSI para el encapsulamiento, al igual que las LAN, pero el enfoque se centra principalmente en las capas física y de enlace de datos. Los estándares WAN normalmente describen los métodos de entrega de la capa física y los requisitos de la capa de enlace de datos, incluyendo direccionamiento, control de flujo y encapsulamiento. Los estándares, normas y regulaciones también influencian el desarrollo e implementación de los métodos de transporte y de acceso WAN; es decir están incluidos como factores externos a la misma. Los estándares de las WAN son definidos y administrados por una serie de autoridades reconocidas, como, por ejemplo: • Sector de normalización de las telecomunicaciones de la Unión Internacional de Telecomunicaciones (ITU, International Telecommunications Union), antiguamente denominada Comité Consultivo Internacional Telegráfico y Telefónico (CCITT, Consultive Committee for International Telegraph and Telephone). • Organización Internacional de Normalización (ISO) • Fuerza de Tareas de Ingeniería de Internet (IETF, Internet Engineering Task Force): la IETF es una comunidad internacional de operadores de redes, diseñadores, vendedores, e investigadores, a los que les interesa principalmente la evolución y desarrollo de la arquitectura de operaciones de Internet. El trabajo técnico actual del IETF es realizado por los miembros IETF de los grupos de trabajo, quienes están organizados en áreas de interés o áreas temáticas como ser ruteo, transporte, seguridad y comercio. EL IETF utiliza un RFC (Request for Comment, Requisitos para Comentarios) para que los miembros den curso a sus inquietudes sobre una variedad de problemas de estandarización. Por ejemplo, el RFC 1483 define Ethernet sobre ATM y el RFC 1577 cubre el IP clásico. Los RFCs se dividen en dos categorías: 1. Los FYI, que identifican a los RFCs que documentan apreciaciones generales sobre tecnologías y hacen una introducción a los temas que la componen. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 7 4 17 74 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V • • •

• •

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

2. Los STD, que identifican a los RFCs que pasan a ser estándares de Internet. Asociación de Industrias Electrónicas (EIA). Asociación de la Industria de las Telecomunicaciones (TIA). ATM Forum: es una organización internacional no lucrativa cuya meta es desarrollar especificaciones de interoperabilidad que faciliten el uso, cada vez mayor, de los servicios y productos ATM. El ATM Forum también anima la cooperación entre las industrias y emprende esfuerzos promocionales y educacionales para incrementar el conocimiento de la tecnología ATM. El ATM Forum está conformado por un comité técnico internacional, tres comités de marketing que atienden la industria ATM en Norteamérica, Europa y Asia / Pacifico, y un comité de usuario que atiende las necesidades de los usuarios finales de ATM. El ATM Forum colabora estrechamente con el Frame Relay Forum en el armado y dictado de las especificaciones. Frame Relay Forum: es una asociación de vendedores, carriers, usuarios, y consultantes que se dedican a la educación, promoción e implementación de Frame Relay en concordancia con los estándares aceptados internacionalmente. El IEEE (Institute of Electrical and Electronics Engineers, Instituto de Ingenieros Eléctricos y Electrónicos): es una organización no lucrativa envuelta en el desarrollo y en la estandarización de tecnología, incluyendo un amplio rango de áreas técnicas como las telecomunicaciones. Por ejemplo, el IEEE 802.1 define muchos aspectos de Ethernet.

Mientras las organizaciones de estándares internacionales aún se resisten a la influencia de los estándares y preferencias norteamericanos, muchas de las especificaciones globales tienen su origen en el mercado de norteamericano debido a que es el lugar donde se originaron o fueron implementadas por primera vez. La organización norteamericana con mayor influencia en el mercado de las telecomunicaciones la constituye la compañía Telcordia Technologies (consultoría, ingeniería y software de telecomunicaciones), originalmente formada como Bellcore. Telcordia hizo grandes contribuciones al avance y estandarización de las redes PSTN norteamericanas, así como en el desarrollo de especificaciones para Internet, telefonía internacional, multimedia y comunicaciones inalámbricas. Telcordia ofrece muchos servicios, pero es mejor conocida por la publicación de sus especificaciones: • Requerimientos genéricos (GR-xxx): son especificaciones técnicas para servicios y tecnologías existentes o emergentes que pueden cubrir un amplio rango de tópicos incluyendo ingienría, operaciones, mantenimiento y performance. • Sistema para la Construcción de Equipamiento de Red (NEBS, Network Equipment Building System): estándares que identifican los requerimientos físicos y eléctricos para los sistemas de acceso WAN posibilitando una operación segura y confiable. El hardware del proveedor de servicios deber ser certificado NEBS para poder utilizarse en un ambiente WAN. Mientras que Telcordia es la organización de estándares más influyente de Norteamérica, el ANSI (Instituto Nacional de Estándares Americanos, American National Standards Institute) es quizás su mejor representante legal. El objetivo del ANSI es promover el desarrollo y adopción de los estándares americanos a nivel internacional. Esto lo logran presionando por políticas nacionales y por posiciones técnicas entre las organizaciones de estándares regionales y las internacionales. Al mismo tiempo, alientan a las organizaciones norteamericanas a adoptar los estándares internacionales cuando consideran que sirven a los intereses de la comunidad de usuarios. Al igual que Telcordia y ANSI en los Estados Unidos, los grupos de estándares internacionales como BSI (Instituto de Estándares Británico, British Standards Institute) y ETSI (Instituto Europeo de Estándares de Telecomunicaciones, European Telecommunications Standards Instiute) están involucrados con el desarrollo y adopción de los estándares nacionales a escala global. Por ejemplo, el ETSI es una organización europea de estándares cuyo objetivo es alinear los estándares de telecomunicaciones europeos e internacionales trabajando en conjunto con el ITU. 9.1.1. Organizaciones reguladoras En adición a las acciones legislativas que dictaminan los estándares para la WAN, la industria de las telecomunicaciones está sujeta a la regulación que dictamina que servicios WAN se soportarán y que servicios pueden cobrarse y las tarifas por las velocidades de esos servicios. En Estados Unidos, la agencia regulatoria por excelencia es la FCC (Comisión Federal de Comunicaciones, Federal Communucations Comission), cuyo rol es el de regular las comunicaciones internacionales e interestatales sobre radio, televisión, alambres, satélites y cable. Mientras que sus acciones son típicamente legislativas por naturaleza, esas decisiones pueden tener un impacto de gran alcance sobre el desarrollo de estándares para operaciones WAN. Entre los roles de la FCC, en los Estados Unidos, se incluyen: 1. Regulación de los proveedores comunes. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 7 5 17 75 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V 2. 3.

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Asignación de frecuencias de transmisión. Otorgar y resolver licencias de transmisión (radio, TV, línea de señal –láser, microondas).

Las regulaciones son impuestas por agencias de gobierno. Además de los Estados Unidos, en otros países se tienen las siguientes agencias regulatorias: • OFTEL (Oficina de Telecomunicaciones, Office of Telecommunications): regula la industria de telecomunicaciones en el Reino Unido y lo reporta al departamento de Marcas e Industrias. • OFTA (Oficina de la Autoridad de Telecomunicaciones, Office of the Telecommunications Authority): agencia del gobierno que regula la industria de las telecomunicaciones en Hong Kong. • Korea Telecom: organización del gobierno que regula la industria de telecomunicaciones en Corea del Sur.

1100.. A O ACCCCCCEEESSSO WA AN N OW Para poder obtener ventajas de los servicios WAN, los usuarios individuales y las redes locales deben seleccionar un método para obtener un acceso. Los proveedores de servicio ofrecen un amplio rango de opciones de acceso a la WAN, cada una de las cuales está diseñada para cumplir con un conjunto específico de necesidades de transmisión en forma eficiente y con una relación costo efectividad. Se verán los componentes de hardware y las tecnologías asociadas con los servicios de acceso WAN. Como se dijo, para poder tomar ventaja de los servicios WAN, se debe obtener primero el acceso desde un proveedor de servicios o carrier, el cual facturará por el servicio provisto. La facturación es un aspecto clave del acceso WAN, debido a que los consumidores son facturados actualmente por una tarifa o tasa plana o por una cuota de uso del canal de comunicaciones provisto para satisfacer una necesidad de transmisión en particular. Existen dos formas comunes de referirnos al canal de comunicación físico entre dos puntos de red: • Línea (line): se refiere al circuito que conecta un teléfono a la oficina central (CO), o al enlace (link) que conecta una computadora a la red. • Troncal (trunk): se refiere a las conexiones de alto ancho de banda diseñadas para transportar simultáneamente señales de voz y datos entre centros de conmutación de red (switching). Los troncales pueden también usarse para soportar accesos de gran volumen entre el sitio de un consumidor y la oficina central.

10.0. Componentes de hardware WAN Mientras que el desarrollo actual del hardware puede variar dependiendo de los servicios WAN específicos requeridos, los siguientes tipos de equipamientos están siempre presentes: • Equipo Terminal del Abonado (CPE, Customer Premises Equipment): es hardware que es propio o bien alquilado por el usuario, reside en la propiedad del consumidor el cual es el responsable de su mantenimiento. • Componentes de acceso: proveen el ancho de banda requerido para la conexión del usuario a la WAN. Mientras el hardware de acceso es generalmente propietario y mantenido por el proveedor de servicios, el equipamiento puede ser también alquilado o de propiedad del consumidor y puede residir en la propiedad del usuario. • Componentes de agregación: consolidan el ancho de banda para el transporte a través del backbone WAN, también conocido como “núcleo” de la red. Los componentes de agregación pueden también residir en la propiedad del usuario, pero por lo general son propietarios y mantenidos por el proveedor de servicios. • Componentes de transporte: proveen transmisión de alta velocidad de ancho de banda agregado a través del núcleo de la red WAN (el backbone propiamente dicho). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 7 6 17 76 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Los avances en la tecnología durante la última década han puesto a disposición de los diseñadores de red una gran cantidad de soluciones WAN adicionales. Al seleccionar una solución WAN adecuada, se debe evaluar los costos y los beneficios de cada una de ellas con los proveedores de servicios. Cuando su organización se suscribe a un proveedor de servicios WAN externo para los recursos de red, el proveedor le otorga requisitos de conexión al suscriptor, tales como el tipo de equipo que se debe utilizar para recibir servicios. Como se indica en la figura, los siguientes son los términos de uso más común relacionados con las partes principales de los servicios WAN: • Equipo terminal del abonado (Customer Premises Equipment, CPE): los dispositivos ubicados físicamente en las instalaciones del suscriptor. Incluye tanto los dispositivos que son propiedad del suscriptor como los que el proveedor de servicios le alquila al suscriptor. El equipo terminal incluye terminales, teléfonos y módems, suministrados por la compañía telefónica, instalados en los sitios del cliente, y conectados a la red de la compañía telefónica. • Demarcación (demarc): el punto donde termina el CPE y comienza la porción de loop local del servicio. A menudo se ubica en el POP de un edificio. • POP (Point of Presence, Punto de Presencia): lugar donde ingresa el cableado del proveedor. Punto de interconexión entre las facilidades de comunicación brindadas por la compañía telefónica y la facilidad de distribución principal del edificio o MDF (Main Distribution Facility). • Loop local (o “última milla”): cableado (por lo general de cobre) que se extiende desde la demarcación hacia la oficina central del proveedor de servicios WAN. • Switch CO (de la oficina central): servicio de conmutación que suministra el punto de presencia más cercano para el servicio WAN del proveedor. • Red suministrada: switches e instalaciones colectivas (denominados enlaces troncales) dentro de la nube del proveedor de WAN. El tráfico del que realiza la llamada puede atravesar un enlace troncal hacia un centro primario, luego hacia un centro de sección y luego hacia un centro de portadora regional (o internacional) a medida que la llamada recorre la gran distancia hacia el destino. Veremos a continuación el CPE y los componentes de acceso WAN. Los componentes de transporte y agregación se verán mas adelante, cuando se traten los temas de multiplexación (FDM, TDM y WDM) y transporte WAN en el núcleo (core) WAN, respectivamente. Resumiendo, diremos que los componentes de acceso WAN proveen el portal para el tráfico del consumidor. Los componentes de agregación consolidan esas entradas. Los componentes de transporte soportan la conectividad total del ambiente WAN en el núcleo de la nube (multiplexores, switches, repetidores, DACS, ATM DXI, FUNI).

10.1. CPE y dispositivos WAN: DTE y DCE Es el primer componente de hardware WAN dentro del acceso WAN. A continuación se exponen ejemplos de CPEs usados comúnmente. Los componentes actuales que se presentan variarán dependiendo de las necesidades de acceso. Los dispositivos conectados a una WAN se dividen en dos categorías principales: * Equipo Terminal de Datos (Data Terminal Equipment, DTE): se refiere a los dispositivos que generan o leen datos desde la red. Esto puede incluir uno o más de los siguientes elementos: a. Teléfonos analógicos o digitales para transmitir y recibir señales de voz. b. PBX (Private Branch Exchange, Centralitas Privadas de Conmutación): sistema de conmutación telefónico de entre casa que T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 7 7 17 77 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

interconecta extensiones telefónicas privadas, analógicas y digitales, consolidando el tráfico de voz para su transporte a la WAN del proveedor de acceso. c. Computadoras Personales (PCs) equipadas con NICs (Network Interface Card, Tarjeta de Interfase de Red) para transmitir y recibir señales de dato. Los servicios de acceso WAN pueden ser provistos para una PC individual o para una LAN entera. d. Equipo de videoconferencia, para transmitir y recibir señales de video, conformado por una cámara de ángulo amplio, un monitor de video y un receptor / transmisor de video. * Equipo de Terminación de Circuitos de Datos o Equipo de Comunicación de Datos (Data Circuit-terminating Equipment, DCE): provee una interfase entre el DTE y la WAN. Por ejemplo, un modem, que convierte los pulsos digitales de una computadora a frecuencias de audio para transportarlo sobre líneas de teléfono analógicas. No deben confundirse estos dispositivos con los cablemódems, los cuales son en esencia hubs Ethernet que proveen acceso WAN digital de alto ancho de banda sobre líneas coaxiales de CATV (cable TV). Los DTEs generalmente son considerados equipos terminales para una red especifica y por lo gral. se encuentran ubicados en las instalaciones de propiedad de un cliente. Ejemplos de dispositivos DTE son las terminales, computadores personales, routers y bridges o puentes. Los DCE son generalmente dispositivos de internetworking que pertenecen a las portadoras (compañía telefónica) pero también pueden ser de propiedad de un cliente. Normalmente, el DTE es el router y el DCE es el dispositivo que se utiliza para convertir los datos del usuario del DTE en una forma que sea aceptable para la instalación del servicio WAN. El DCE adapta la interfase física del DTE a la señalización usada por el carrier de red. El DTE es el dispositivo final que será la fuente o destino de la comunicación de datos. Estas estaciones finales transmiten señales a otras estaciones a través de los DCEs, como muestra la figura. El propósito del equipo DCE es proporcionar servicios de temporización y conmutación en una red, por lo que son los dispositivos que realmente transmiten datos a través de una nube WAN. Como se indica en la figura, el DCE es el módem conectado, la Unidad de Servicio de Canal/Unidad de Servicio de Datos (CSU/DSU) o el Adaptador de Terminal/Terminación de la Red 1 (TA/NT1) de ISDN. En la mayoría de los casos, son switches WAN de paquetes. Esta interfaz clave DTE/DCE se produce en el sitio del cliente y utiliza diversos protocolos (tales como HSSI y V.35) que establecen los códigos que utilizan los dispositivos para comunicarse entre sí. Esta comunicación determina cómo opera la configuración de llamada y cómo atraviesa la WAN el tráfico de usuario. La interfaz DTE/DCE actúa como límite cuando la responsabilidad por el tráfico está compartida por el suscriptor de WAN y el proveedor de WAN. La ruta de la WAN entre los DTE se denomina enlace, circuito, canal o línea. El DCE primariamente suministra una interfaz para el DTE hacia el enlace de comunicación en la nube WAN. La conexión entre un dispositivo DTE y un dispositivo DCE consiste en un componente de capa física y un componente de capa de enlace de datos. El componente físico define las especificaciones mecánicas, eléctricas, funcionales y de procedimiento necesarias para la conexión entre dispositivos. Una de las especificaciones de interfase de capa física más comúnmente utilizadas es la especificación estándar recomendada RS-232. El componente de capa de enlace define el protocolo que establece la conexión entre el dispositivos DTE, como un router, y el dispositivo DCE, como un switch Frame Relay (generalmente, en la CO de la compañía telefónica). Como vemos en la figura el camino de comunicaciones de extremo a extremo entre dos DTEs consiste de tres segmentos: DTE-DCE, DCE-DCE y DCEDTE. Se debe administrar un conjunto de elementos de cableado y configuración para cada segmento. Los DCEs generalmente residen dentro de las WANs operadas por un portador.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 7 8 17 78 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

10.2. Componentes de acceso Es el segundo componente de hardware WAN dentro del acceso WAN. Los componentes de acceso a usar variarán dependiendo del tipo de servicio de acceso provisto, y del requerimiento de ancho de banda de la conexión. Sin embargo, se incluyen uno o más de los siguientes componentes: • Si el servicio de larga distancia de 4 hilos es de propiedad de la compañía telefónica, entonces el DSU / CSU sirve como un punto de demarcación entre el equipamiento de usuario y el equipamiento del proveedor. Ante un evento mayor de falla en el CPE se enviarían altos voltajes a través de la conexión de acceso, pero las protecciones de la CSU / DSU deberían prevenir al proveedor de los daños de la red. Si no existen problemas en la línea del suscriptor, la CSU /DSU proporcionará un modo “loopback” (retroalimentación) que el proveedor podría usar para realizar pruebas de diagnostico. o La CSU termina la línea externa en las premisas del consumidor. Esta también provee diagnostico y permite testeo remoto. Si los dispositivos de comunicación del consumidor son T1 y tienen la interfase apropiada, entonces no se requerirá de CSU, solo de DSU. o La DSU realiza la recepción y transmisión de la señal y provee buffering y control de flujo. La DSU y la CSU permanecen en la misma unidad. La DSU puede construirse también dentro del multiplexor, usado comúnmente para combinar señales digitales para su transmisión sobre líneas T1/E1/J1. • Un codec es un dispositivo que convierte señales analógicas en señales digitales para transmisión sobre líneas de alta velocidad. • Una tarjeta de línea es cualquier placa de circuito impreso que provee un puerto de recepción y transmisión para un protocolo en particular (por ejemplo una tarjeta de línea ATM). Las line cards se insertan dentro del switch de la Telco, del switch de red, del router o en cualquier otro dispositivo de comunicaciones. Una tarjeta de línea realiza una función similar a la NIC de una PC, a excepción de que hay una sola NIC dentro de una maquina cliente. Una tarjeta de línea puede soportar múltiples dispositivos. 10.2.1. Dispositivos WAN fundamentales • • •

Las WAN utilizan varios tipos de dispositivos, incluyendo los siguientes: Routers, que ofrecen varios servicios, entre ellos puertos de interfaz LAN y WAN. Switches WAN, que se conectan al ancho de banda de las WAN para la comunicación de voz, datos y vídeo. Generalmente son conmutadores de “tramas” (longitud variable) Frame Relay y X.25. Módems, que hacen interfaz con los servicios de grado de voz. Los módems incluyen los dispositivos CSU/ DSU y TA/NT1 que hacen interfaz con los servicios RDSI. Servidores de comunicación, que concentran las comunicaciones de usuarios de discado entrante y discado saliente. También llamados Access Server, fueron (y aún son) muy utilizados por los ISPs (Internet Services Provider) en sus principios. Switches ATM: conmutadores de “celdas” (longitud fija) a nivel de hardware usando una tecnología llamada “fast packet” (paquete rápido) (como Frame Relay y SMDS) que no realiza verificación de errores ni recuperación de celdas. Alcanza velocidades muy superiores a otros switches de tramas (alcanza los Gigabits por segundo) utilizando SONET (Red Óptica Síncrona). Multiplexores: la multiplexación combina múltiples señales dentro de una única línea para la transmisión; en el extremo receptor las señales se demultiplexan. Un multiplexor es el dispositivo que combina y separa las señales. Los multiplexores pueden mezclar tráfico de voz y datos y transportarlos sobre líneas de alta velocidad.

10.2.1.1. Routers WAN T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 7 9 17 79 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Los routers son dispositivos que implementan servicios de red. Proporcionan interfaces para una amplia gama de enlaces y subredes, con una gran variedad de velocidades. Los routers son dispositivos de red activos e inteligentes y por lo tanto pueden participar en la administración de una red. Los routers administran las redes suministrando un control dinámico sobre los recursos y soportando las tareas y los objetivos para las redes. Estos objetivos son conectividad, desempeño confiable, control de administración y flexibilidad. Aunque se pueden utilizar routers para subdividir las LAN de campus para limitar el tamaño de los dominios de broadcast y ayudar a mantener la seguridad, en general se usan con mayor frecuencia para interconectar las LAN formando WAN. El router es la interfaz o gateway desde la LAN a la WAN. En las WAN de la mayoría de las organizaciones, cada ubicación tiene por lo menos un router con una interfaz o enlace a una o más ubicaciones en la WAN. Esto se logra normalmente a través de una CSU/DSU. Hoy en día, inclusive las organizaciones pequeñas con una sola ubicación necesitan un router para conectarse a la WAN más grande del mundo, Internet. Los routers a seleccionar para una conexión WAN deben ofrecer las interfaces que soportarán dichos servicios WAN, como las siguientes: • Serial asíncrona: soporta conexiones dial-up asíncrona usando un módem. • Serial síncrona: soporta líneas leased, Frame Relay y X.25. • Interfaz Serial de Alta Velocidad (High Speed Serial Interface, HSSI): soporta líneas seriales de alta velocidad, como T3. • BRI: soporta conexiones BRI ISDN. • T1 o E1: soporta conexiones como líneas arrendadas, dial-up, ISDN PRI, y Frame Relay. • DSL: soporta líneas ADSL (Asymmetric Digital Subscriber Line, Línea del Subscriptor Digital Asimétrica), DSL Simétrico (SDSL), o ISDN DSL (IDSL). • ATM: soporta conexiones ATM. Algunos routers ofrecen configuraciones de interfase fija. Una configuración fija es una que no puede cambiarse o actualizarse. La ventaja de una configuración de interfaz fija es que no se tiene que comprar e instalar módulos de interfaces WAN o LAN. El número y tipo de interfaces están predeterminados para cada modelo específico de router. Un router de configuración fija puede ser apropiado para oficinas remotas pequeñas o para teleconmutadores. En estos casos, no merece la pena el gasto adicional y la complejidad permitida por la flexibilidad del diseño modular. En cambio, un router de configuración fija puede ofrecer la solución WAN más económica y simple, para la oficina pequeña. En oposición a un router de configuración fija, un router con configuración de interfase modular permite agregar, quitar, e intercambiar interfaces para satisfacer las necesidades de una red creciente. Normalmente, los routers modulares y los servidores de acceso se construyen con una o más ranuras (slots) que permiten personalizar la configuración de la interfase. Si se tiene una router modular, se puede escoger alguna o todas las interfaces del router para instalar tarjetas, módulos de red, o interfaces WAN. Aunque los routers modulares requieren de la compra por separado de cada tarjeta de interfase, son más escalables que sus colegas de configuración fija. Por esta razón, los routers modulares se instalan, por lo gral., en grandes sitios remotos, conectados siempre al sitio central. A la larga, es más barato agregar nuevos módulos de interfase, en lugar de reemplazar un router entero. 10.2.1.2. Switches WAN T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 8 0 18 80 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N))) Un switch WAN es un dispositivo de networking multipuerto, que normalmente conmuta tráfico, como Frame Relay, X.25 y SMDS. Los switches WAN normalmente operan en la capa de enlace de datos del modelo de referencia OSI. La figura ilustra dos routers en extremos remotos de una WAN, conectados a través de switches WAN. En este ejemplo, los switches filtran, envían e inundan tramas basándose en la dirección destino de cada trama. 10.2.1.3. Descripción de los módems en una WAN

Un módem es un dispositivo que interpreta señales digitales y analógicas modulando y demodulando la señal, permitiendo que los datos se transmitan a través de líneas telefónicas de grado de voz. En el origen, las señales digitales se convierten a una forma adecuada para su transmisión a través de las instalaciones de comunicación analógica. En el destino, estas señales analógicas se devuelven a su forma digital. La figura ilustra una conexión de módem a módem simple a través de una WAN. 10.2.1.4. Las

CSU/DSU en una WAN

Una Unidad de Servicio de Canal/Unidad de Servicio de Datos (CSU/DSU) es un dispositivo de interfaz digital, o a veces dos dispositivos digitales separados, que adaptan la interfaz física en un dispositivo DTE (como una terminal o un router) a la interfaz de un dispositivo DCE (como un switch) en una red de portadora conmutada. La CSU/DSU provee señal de sincronización (timing) para la comunicación y se usa para hacer interfase con la facilidad de transmisión digital. La figura ilustra la ubicación de la CSU/DSU en una implementación WAN. En este caso al ser una sola CSU/DSU, el dispositivo de interfase digital se utiliza para conectar un router (DTE) a un circuito digital tal como un T1. En el caso de algunos routers, la CSU se encuentra incorporada o puede estar instalada en una ranura modular. Esencialmente, la CSU/DSU es usada por un router para conectarse a una línea digital de la misma manera que una PC usa un módem para conectarse a una línea analógica. La CSU/DSU es clasificada normalmente como DCE. En redes internas de laboratorio (para simulación) no hay CSU/DSU, entonces uno de los routers en cada enlace WAN simulado debe representar el papel del DCE para proporcionar la señal de temporización síncrona. 10.2.1.5. Adaptadores de terminal RDSI en una WAN Un Adaptador de Terminal (Terminal Adapter, TA) RDSI es un dispositivo que se utiliza para realizar las conexiones de la interfaz de acceso básico (BRI) RDSI a otras interfaces, tal como una EIA/TIA 232 en un router. Un adaptador de terminal es esencialmente un modem ISDN, aunque se denomina adaptador de terminal porque no convierte realmente señales analógicas a digitales. 10.2.1.6. Servidores de Acceso Un Access Server actúa como punto concentración para las conexiones telefónicas hacia interior y hacia el exterior. La figura ilustra un servidor acceso que concentra conexiones telefónicas hacia exterior en una WAN.

de el de el

10.2.2. Siglas de las WAN En el campo de la informática y del networking se utiliza una enorme cantidad de siglas y abreviaturas, a veces denominadas TLA (Three Letter Acronyms – Acrónimos o Siglas de Tres Letras). Algunas se relacionan con el networking de Área Amplia (WAN, otra TLA). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 8 1 18 81 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Cuando se habla sobre las WAN con los colegas de trabajo o con los representantes de la industria es importante comprender el significado de estas siglas o por lo menos ser capaz de definir las palabras que las forman. 10.2.3. Tecnología de transmisión WAN Los servicios de acceso WAN conectan el equipamiento ubicado en el CPE (como teléfono, módem o una PBX) con los componentes de acceso WAN (DSU/CSU, line card o banco de canales), los cuales pueden residir en cualquier lugar entre la locación del usuario y la oficina de intercambio local (LX, Local Exchange) del proveedor de servicios. Después de ver el equipamiento utilizado para el acceso WAN, consideraremos la variedad de métodos usados. Existe una variedad de métodos de acceso diferentes, cada uno de los cuales está listo para cumplir con los requisitos de ancho de banda y de velocidad de transmisión para un tipo especifico de tráfico de red: • La mayoría de los métodos de acceso WAN más comunes se basan en el estándar de cable de par trenzado de 2 hilos del loop o lazo local analógico, incluyendo los POTS, DLC (Digital Loop Carrier), X.25, ISDN, BISDN, y DSL (Digital Subscriber Loop). • Otras tecnologías ofrecen métodos alternativos para el acceso WAN, incluyendo servicio celular móvil, cables coaxiales híbridos (CATV), líneas leased T1/E1/J1 y Frame Relay. El aumento de la demanda por alta velocidad, incrementa la necesidad de accesos WAN de alto ancho de banda. Se están desarrollando métodos más rápidos y costo efectivos para cubrir las necesidades de networking de los usuarios de telecomunicaciones. Si estas tecnologías trabajan dentro del contexto de una infraestructura PSTN existente, o dependen del incremento del desarrollo de conexiones de fibra óptica, ellas continuaran incrementando la disponibilidad y la accesibilidad para un amplio rango de servicios de telecomunicaciones modernos. Se verán a continuación las siguientes tecnologías de transmisión de acceso WAN: • Loop local analógico. • Loop digital del proveedor o carrier (DLC). • Tecnología celular o inalámbrica. • Acceso por cable (CATV). • X.25 • Líneas leased o arrendadas, incluyendo las jerarquías digitales plesiócronas y síncronas (PDH y SDH) y SONET. • Frame Relay. • ISDN (BRI y PRI). • Loop digital del suscriptor (DSL). 10.2.3.1. Loop local analógico

El método más común de acceso a la WAN es la conexión telefónica a través del loop local analógico hacia la red telefónica publica conmutada (PSTN), comúnmente conocida como POTS (Plain Old Telephone Service, Servicio Telefonico Plano Antiguo). El servicio de lazo analógico provee una conexión de 2 hilos (alambres o wire) a una tarjeta de linea (line card) ubicada en la oficina de intercambio local (LX). La tarjeta de línea soporta las siguientes funciones: • Provee el voltaje para alimentar eléctricamente el loop local, que se verifica por la presencia de un tono de discado (dial tone). • Interpreta las señales transmitidas por el CPE, las cuales pueden incluir pulsos rotatorios de discado o DTMF (Dual-Tone Multi-Frequency, Tono Dual Multifrecuencia), también conocido como servicio “touch tone” (tono por contacto). Convierte las señales analógicas a señales digitales para la conmutación en el LX.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 8 2 18 82 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Las líneas telefónicas analógicas pueden también conectarse a una PBX, la cual consolidará todas las líneas para el acceso a la WAN a través de una línea leased hacia el carrier local. 10.2.3.2. Loop digital del proveedor La tecnología DLC (Digital Loop Carrier) incrementa la capacidad del loop local analógico convirtiendo las señales analógicas a señales digitales para luego multiplexarlas antes de transferirlas a la oficina LX. Esto permite que varias cientos de conversaciones se transporten sobre los cables de pares trenzados de 2 hilos existentes. El Área de Servicio del Proveedor o CSA (Carrier Serving Area) atendida por una línea DSL (línea digital) consiste de una Terminal de Intercambio Local (LET, Local Exchange Terminal), en la oficina de intercambio local (LX), y de una Terminal Remota de Suscriptor (RST, Remote Subscriber Terminal) ubicada generalmente en una habitáculo bajo tierra o en una casilla cerrada a una distancia de una milla del CPE. Cuanto más cercano este el DLC al consumidor, mas corta será la línea analógica y mayor será la performance general. 10.2.3.3. Acceso celular La red celular es un sistema de comunicaciones móvil que usa una combinación de transmisión de radio y conmutación telefónica convencional para permitir comunicaciones telefónicas hacia y desde suscriptores móviles ubicados dentro de un área de cobertura especifica. Los dispositivos de comunicación móvil (por ejemplo teléfonos celulares y pagers) envían y reciben señales desde una estación celular base, la cual provee el servicio dentro de un área de cobertura conocida como celda (cell). El área de cobertura celular del proveedor se conforma de múltiples celdas, cada una de las cuales tiene un numero especifico de frecuencias para asignar a los usuarios que requieren del servicio. El tamaño real y el numero de celdas dentro de un área de cobertura depende de la disponibilidad de frecuencias. A medida que aumenta el numero de suscriptores dentro de un área de cobertura, el numero total de celdas tiende a incrementarse mientras que el tamaño de cada celda decrementa. Los Centros de Conmutación Móviles (MSC, Mobile Switching Centers) proporcionan la interfase entre las estaciones celulares base, basadas en radio, y las PSTN. El MSC realiza todas las funciones de señalización requeridas para establecer llamadas hacia y desde las estaciones móviles. 10.2.3.4 Acceso por cable (CATV) Las conexiones de alta velocidad por cable constituyen un método de acceso común en aumento para los accesos remotos desde oficinas hogareñas. Los proveedores de acceso por cable están instalando redes HFC (Hybrid Fiber Coax, Híbrida, Coaxial Fibra) que combinan la confiabilidad y alto ancho de banda de la fibra óptica con el bajo costo de las líneas de cable coaxial. El cable de fibra se extiende desde el POP del proveedor de acceso hasta el barrio del usuario, desde donde se extiende el cable coaxial para conectar el CPE del consumidor. Los módems de cable o cablemódems usan una técnica llamada PSK (Phase-Shift Keying, Modulación por Cambio de Fase) para transmitir información sobre las redes de cable coaxial. PSK codifica digitalmente la información cambiando la fase de la señal que se está transmitiendo, mientras mantiene constante la frecuencia y la amplitud. 10.2.3.5. X.25 Es una tecnología orientada a la conexión desarrollada en los 70’s como protocolo estándar del Intercambio Conmutado de Paquetes (PXE, Packet Switch Exchange). Las especificaciones fueron publicadas con posterioridad por el CCITT, actual ITU. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 8 3 18 83 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Las redes X.25 consisten de un DTE, un DCE y un PAD que soporta ensamble de paquetes para los datos salientes, desensamble de paquetes para los datos entrantes, y buffering. Debido a X.25 esta diseñado para la transmisión de paquetes de datos sobre facilidades analógicas con ruido, el chequeo de errores es realizado en cada nodo. Mientras que la latencia y el retardo resultante del chequeo de errores permiten una transferencia confiable de datos, X.25 no es capaz de transmitir voz y video en tiempo real. Muchos predijeron que X.25 permitiría el desarrollo de una red publica de datos, así como PSTN lo es para la voz. Sin embargo, los proveedores de servicio norteamericanos mostraron poco interés debido a las limitaciones e incompatibilidades con el equipamiento existente. Como resultado, a X.25 no se lo encuentra comúnmente en las redes norteamericanas. Debido que X.25 provee una conexión confiable de circuito conmutado a través de la WAN, es todavía utilizada en algunos países para transacciones electrónicas de baja velocidad, incluyendo verificaciones de bases de datos para tarjetas de crédito y maquinas automáticas en fabricas. 10.2.3.6. Líneas leased o arrendadas A pesar de que los soportadores de X.25 visionaron conexiones WAN de bajo costo a través de redes publicas de datos, la mayoría de los operadores de red de Estados Unidos prefirieron arrendar líneas dedicadas. Además de proporcionar acceso WAN de alta velocidad y una variedad de diferentes anchos de banda, las líneas leased son facturadas con una tarifa plana. Mientras el ancho de banda dedicado puede ser costoso, el costo predecible elimina la incertidumbre financiera asociada con el uso medido o mesurado. Las líneas leased digitales están disponibles en opciones de cobre y de fibra óptica. Veremos, a continuación las estructuras de líneas, basadas en cobre, de la Jerarquía Digital Plesiócrona (PDH, Plesiochronous Digital Hierarchy); después veremos las estructuras de líneas, basadas en transmisión por fibra óptica, de la Jerarquia Digital Sincrona (SDH, Synchronous Digital Hierarchy) y de la Red óptica Síncrona (SONET, Synchronous Optical Network). Las tres jerarquías se tratarán con más detalle en otros capítulos. 10.2.3.7. Jerarquía PDH La jerarquía PDH define un conjunto de sistemas de transmisión los cuales utilizan pares de dos hilos (uno para transmitir y uno para recibir) y multiplexación TDM (por división de tiempo) para entrelazar múltiples canales de voz y datos digitales. La palabra plesiócrono se origina del griego “plesio” (cercano a o junto a) y “chornos” (reloj, cronometro), las cuales señalan a dos relojes que están cercanos uno a otro, en sincronía o timing, pero no son exactamente iguales o no están en perfecta sincronía. El término plesiócrono contrasta con isócrono, el cual indica “el mismo reloj”, y con síncrono, el cual indica “al mismo tiempo”. Existen tres sets diferentes de estándares PDH utilizados en el mundo de las telecomunicaciones (ver tabla de la figura): 1. T-n, el cual define el estándar PDH norteamericano. T1 es el estándar norteamericano de transmisión digital de 1,544 Mbps. El T1 consiste de 24 canales de voz y datos entrelazados a 64 Kbps (el canal a 64 Kbps es llamado DS0). La longitud de una trama T1 estándar es de 193 bits (24 canales de voz/datos * 8 bits + un bit de timing usado para sincronización), la cual se transmite a una velocidad o tasa de 8000 frames por segundo (fps). Es decir 193 bits/frame * 8000 fps = 1.544.000 bps o 1,544 Mbps. El “robo” de un simple bit para señalización limita la tasa de transferencia de voz/datos actual del T1 a 56 Kbps. La tasa de bits (bit rate) y el formato de frame de un T-n es clasificado por las DS-n (Digital Signal, Señal Digital), donde DS-0 es la unidad individual más pequeña (generalmente 64 Kbps). Mientras que los términos DS-n y T-n se usan intercambiablemente, en realidad, DS-n representa el formato de transmisión y T-n representa el equipamiento que genera y transporta los frames o tramas. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 8 4 18 84 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

2.

3.

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Muchas Telcos permiten comprar canales DS-0 individuales, lo cual se conoce como acceso T1 fraccional. El punto de división típico para un T1 fraccional es de 8 canales DS-0, por arriba de este numero, el costo del T1 fraccional ya es comparable al alquiler de una línea T1 entera. Las facilidades T1 son la opción más popular de líneas alquiladas (leased) para conectar LANs a WANs. Los proveedores de servicio usan también líneas T1s para conectarse al backbone WAN, el cual se conforma por lo gral. de conexiones rápidas tipo T3. E-n, el cual define el estándar PDH europeo. E1 es el estándar europeo de transmisión digital de 2,048 Mbps. El E1 consiste de 32 canales de voz y datos entrelazados a 64 Kbps (DS-0). También se dispone de accesos a E1 fraccional. La longitud de la trama E1 estándar es de 256 bits (30 canales de voz/datos * 8 bits + dos canales reservados para sincronización y señalización), la cual se transmite a una velocidad o tasa de 8000 frames por segundo (fps). Es decir 256 bits/frame * 8000 fps = 2.048.000 bps o 2,048 Mbps. Debido a que E1 usa canales separados para señalización, la transmisión no se limita a 56 Kbps como con el T1. J-n, el cual define el estándar PDH japonés. J1 es el estándar japonés de transmisión digital de 1,544 Mbps. El J1 consiste de 24 canales entrelazados a 64 Kbps (canales DS-0). También se dispone de accesos a J1 fraccional. La longitud del frame J1 estándar es de 193 bits (24 canales de voz/datos * 8 bits + un bit de timing usado para sincronización), la cual se transmite a una velocidad o tasa de 8000 frames por segundo (fps). Es decir 193 bits/frame * 8000 fps = 1.544.000 bps o 1,544 Mbps. Como con T1, el “robo” de un simple bit para señalización limita la tasa de transferencia de voz/datos actual del J1 a 56 Kbps. Las tasas de transferencia de J1 y J2 concuerdan con T1 y T2, pero el timing varía desde J3 para arriba.

Los tres tipos de estándares proporcionan conexiones leased digitales punto a punto, pero el timing (sincronía o cronometraje) es incompatible por arriba de los 64 Kbps y la translación, entre los distintos sistemas, puede ser muy costosa e ineficiente. 10.2.3.8. Jerarquía SDH/SONET SONET es el estándar norteamericano del sistema de transmisión por fibra óptica definido en la especificación B-ISDN (Broadband ISDN). SDH es la versión europea y es un estándar de transporte por fibra óptica aceptado internacionalmente.

Los sistemas de transmisión SONET/SDH están diseñados para superar las limitaciones de compatibilidad de los sistemas de transmisión PDH. La estructura escalable de los sistemas SONET/SDH soportan también tecnologías de red broadband (banda ancha) y networking óptico. Los niveles de servicio SONET/SDH incluyen: T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 8 5 18 85 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V • • •

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Transporte Óptico (OC, Optical Carrier): define velocidades de transmisión SONET para señales ópticas en incrementos de 51,84 Mbps. Transporte de Señal Síncrona (STS, Synchronous Transport Signal): define velocidades de transmisión SONET para señales eléctricas en incrementos de 51,84 Mbps. Modo de Transporte Síncrono (STM, Synchronous Transport Mode): define velocidades de transmisión SDH para señales eléctricas y ópticas en incrementos de 155,52 Mbps.

Mientras que el arrendamiento de las líneas de cobre y de fibra óptica permanece como la opción más popular para el acceso a la WAN, el costo de las mismas puede ser prohibitivo. Como resultado de ello, se introdujeron otras soluciones para satisfacer el crecimiento de la infraestructura digital. 10.2.3.9. Frame Relay Frame Relay es una tecnología de conmutación de paquetes orientada a la conexión que ofrece una alternativa costo efectivo a las líneas leased, usado para interconectar LANs soportando baja latencia y altas demandas de ancho de banda, en redes publicas y privadas. Frame Relay esta definido como acceso WAN entre la premisa del consumidor (CPE) y el POP del proveedor de servicio. Las conexiones Frame Relay están disponibles en una variedad de anchos de bandas, los cuales pueden tarifarse como una tarifa plana, como una línea leased T1 o como una tasa variable de velocidades incluyendo el servicio T1 fraccional basado en el ancho de banda disponible (por ejemplo, 56 Kbps, 128 Kbps o 384 Kbps). Frame Relay no especifica como deben transportarse los frames a través del núcleo WAN. Como resultado, las operaciones internas de una red Frame Relay se representan como una nube. Cada frame contiene un DLCI (Data Link Connection Identifier, Identificador de Conexión de Enlace de Datos), el cual se usa para mapear la conexión Frame Relay a un circuito virtual (VC, Virtual Circuit) el cual proporciona el transporte a través del núcleo (core) WAN hacia el dispositivo Frame Relay ubicado en el otro extremo. 10.2.3.10. ISDN La Red Digital de Servicios Integrados (ISDN, Integrated Services Digital Network) provee acceso WAN para servicios de voz y datos, conmutados por circuitos, sobre líneas digitales de 64 Kbps llamados canales B o canales portadores (bearer channels). Las señales de control se envian sobre un canal separado llamado canal D (canal delta) que permite opciones como identificador de llamante, retransmisión de llamadas, y conferencia de llamadas. Mientras que el suscriptor ISDN típico es una teleconmutador que necesita acceso remoto a la red corporativa, el enlace ISDN se usa comúnmente solo como backup cuando un enlace primario (mas costo efectivo) se torna indisponible o cuando no puede proveer el ancho de banda requerido para una aplicación especifica. Los canales ISDN pueden también usarse para soportar acceso Frame Relay y X.25. Los tipos de servicios ISDN son: • Interfase o Acceso de Velocidad Básica (BRI o BRA, Basic Rate Interface o Access): típicamente se usa para proporcionar acceso WAN a suscriptores residenciales o de pequeños negocios. BRI/BRA provee 2 canales B de 64 Kbps y un canal D de 16 Kbps (2B+D), aunque los canales B pueden combinarse para lograr tasas de datos mayores a 128 Kbps. • Interfase o Acceso de Velocidad Primaria (PRI, Primary Rate Interface): típicamente se usa para proveer acceso WAN a redes empresarias o de campus, conectando un dispositivo concentrador de linea como una PBX o un multiplexor. Altas tasas de datos se logran uniendo diversos canales B lo que permite una alta calidad y aplicaciones de alto ancho de banda como videoconferencia. Hay dos estándares de servicio diferentes para PRI: o En Norteamérica, PRI proporciona 23 canales B * 64 Kbps y un canal D a 64 Kbps (23B+D) para machear la capacidad de una línea T1 de 24 canales.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 8 6 18 86 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N))) o

En Europa, PRI provee 30 canales B * 64 Kbps y un canal D a 64 Kbps (30B+D) para machear la capacidad de una línea E1.

10.2.3.11. B-ISDN Mientras que el ISDN banda angosta (narrowband ISDN, N-ISDN) tradicional está diseñado para operar sobre una infraestructura de telecomunicaciones que está compuesta mayormente de cables de cobre, el B-ISDN (Broadband ISDN, ISDN de Banda Ancha) es una iniciativa de diseño de red avanzado que se basa en la infraestructura de fibra óptica emergente. Propuesta inicialmente como una extensión de ISDN, el ITU definió subsecuentemente estándares para la integración servicios de voz, video y datos a alta velocidad. Estas velocidades llegan hasta los 155 Mbps usando enlaces SONET/SDH y servicios de conmutación ATM. BISDN depende completamente del desarrollo continuo de los enlaces con fibra óptica, por lo que hasta la fecha no se la ha implementado en forma completa. 10.2.3.12. Línea digital del suscriptor (DSL) Al igual que DLC, la tecnología DSL (Digital Suscriber Line) está diseñada para incrementar la capacidad digital del loop local analógico que conecta a los usuarios comerciales o residenciales con la PSTN. La DSL divide (splits) las frecuencias disponibles para que tanto la voz como los datos puedan transmitirse a través de los dos hilos del par trenzado de la línea telefónica existente. Los datos digitales se entregan directamente a la computadora mientras que la voz analógica es entregada al teléfono. El divisor DSL (splitter) puede instalarse dentro del CPE o puede localizarse remotamente, en la oficina del LX. La tecnología DSL se usa principalmente para acceso a Internet, proporcionando una combinación de versiones asimétricas de largo alcance (la bajada de la conexión -downstream- más rápida que la subida de la conexión -upstream-) y versiones simétricas de corto alcance (la misma tasa en ambos sentidos) operando sobre las líneas telefónicas existentes. Como resultado, las velocidades de transmisión DSL son extremadamente dependientes de la distancia entre el consumidor y el POP del proveedor DSL. Si el proveedor implementó enlaces de fibra óptica, la Unidad Óptica de Red (ONU, Optical Network Unit) que termina la fibra, identifica al POP. La ONU se localiza generalmente dentro de un barrio, un edificio o una residencia de usuario. En forma contraria al acceso por cable, donde la competencia por ancho de banda se incrementa con el número de suscriptores dentro del área de incremento, el ADSL opera sobre nuestra línea telefónica, así que el ancho de banda no es compartido. Además DSL ofrece una operación “constante”, como opuesto a ISDN, el cual provee servicio de acceso digital a través de la PSTN o “por llamadas”. El servicio DSL está disponible 24 horas al día, los siete días de la semana, es una conexión dedicada permanente. El tráfico DSL es “agregado” a la oficina LX usando un Multiplexor de Acceso DSL (DSLAM, DSL Access Multiplexor) antes de retransmitirlo al ISP apropiado o a la red de datos. Genéricamente conocidas como xDSL, existe una variedad de opciones de tecnologías DSL: • DSL Asimétrico (ADSL, Asymmetrical DSL): es el más común de los accesos DSL residenciales debido a que la mayoría del ancho de banda duplex (dos vías) se dedica a enviar datos al usuario (aproximadamente 6.1 Mbps de bajada -downstream-) y un pequeño porcentaje se reserva para recibir pedidos del usuario (aproximadamente 640 Kbps de subida -upstream-). ADSL permite al usuario acceder a la línea de datos y usar al mismo tiempo la línea de voz. o El ADSL basado en splitter, también conocido como Multitono Discreto (DMT, Discrete Multitone) o Amplitud de Fase sin Portadora (CAP, Carrierless Amplitude Phase), requiere la instalación de un splitter DSL en el CPE del usuario para separar la voz y las señales ADSL de la línea. o El ADSL sin splitter (splitterless) también conocido como G.Lite o ADSL Universal, divide las señales remotamente, eliminando la necesidad de instalar un splitter dentro del CPE. Si se T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 8 7 18 87 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

• •

• • •

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

conectan otros teléfonos a la misma línea de usuario, puede requerirse un filtro “pasa bajo” (lowpass) para aislar las frecuencias ADSL. DSL del Consumidor (CDSL, Consumer DSL): es una versión asimétrica que es más lenta que el ADSL, y que está diseñada para soportar acceso DSL usando un módem V.90 estándar de 56 Kbps. DSL de Alta Tasa de Bits (HDSL, High Bit Rate DSL): es la tecnología DSL más ampliamente usada. Ofrece servicio duplex simétrico tanto para usuarios residenciales como comerciales. Debido a que HDSL trasmite y recibe a la misma velocidad (simétrico), la tasa máxima de datos es más baja que la del ADSL. La demanda por HDSL crece debido a que soporta velocidades de transmisión T1 y E1 (1,544 Mbps y 2,048 Mbps respectivamente), sin que requiera de un acondicionamiento especial para los circuitos T1 y E1 actuales. Sin embargo, HDSL no puede compartir la línea con el teléfono. DSL ISDN (IDSL): proporciona servicios DSL a velocidades ISDN. Sin embargo, IDSL no soporta voz, ni pasa a través de la red telefónica conmutada como lo hace ISDN. DSL de Tasa Adaptativa (RADSL, Rate Adaptative DSL): es una versión asimétrica de DSL que permite ajustar la velocidad basándose en la calidad de la línea del consumidor. DSL de una Sola Línea (SDSL, Single Line DSL): es una variación del HDSL que usa solamente un par trenzado en lugar de dos, soportando comunicación unidireccional, a 1,544 Mbps en Norteamérica o a 2,048 Mbps en Europa sobre una sola línea duplex. Al igual que HDSL, SDSL no puede compartir la línea con un teléfono. DSL de Muy Alta Tasa de Bits (VDSL, Very High Bit Rate DSL): está emergiendo como una solución para la bajada final entre un punto de unión de fibra óptica y la locación del consumidor. VDSL está diseñado para proveer acceso de alta capacidad para una oficina compleja o edificio sin instalar una nueva infraestructura de fibra. Como ADSL, VDSL puede compartir la línea con el teléfono.

10.3. Componentes de agregación Es el tercer componente de hardware WAN dentro del acceso WAN. Una vez familiarizados con los métodos que permiten que los usuarios accedan a la WAN, es necesario considerar los requerimientos de sincronización (timing) y de formato especifico asociado con cada tipo de acceso. Como se sabe, los diferentes tipos de tráficos de red tienen características diferentes; como resultado, cada tipo de tráfico concuerda o machea con un tipo de acceso que reúne o cumple con las necesidades de transmisión requeridas. Para todo esto veremos lo que es el entramado (framing), el timing (reloj de sincronía) y las consideraciones de cómo múltiples canales de voz y datos son agregados antes de ser transportados a través del núcleo de la red. También se verá la señalización WAN y cuales son los métodos para el transporte de la señalización de control a través de la red. Como se dijo antes, los componentes de agregación consolidan el ancho de banda para el transporte a través del backbone WAN (core WAN), es decir agrupan la entrada de los datos hacia el núcleo WAN (y viceversa en el camino inverso, es decir, desagrupan la salida de datos provenientes del núcleo WAN). 10.3.1. Multiplexación La disponibilidad y conveniencia de accesos WAN de alta velocidad y bajo costo, abrió la puerta para el incremento de gran cantidad de tráfico de red. Las transmisiones de voz, video y datos están aumentando, alimentadas por usos como Internet, líneas telefónicas múltiples, módems y videoconferencia. Como la demanda de ancho de banda continua en incremento, existe la necesidad creciente por maximizar el uso de las facilidades de red. Al mismo tiempo, la entrada de tráfico demanda la necesidad de una camino eficiente de agregar información antes de que sea transportado a través del núcleo de red. La multiplexación es el proceso usado para combinar múltiples señales (analógicas o digitales) para su transmisión a través de un medio de conexión simple. El dispositivo que realiza esta función se denomina multiplexor o simplemente “MUX”. Se analizan a continuación, las categorías de multiplexación: 1. Multiplexación por División de Frecuencias (FDM, Frequency División Multiplexing): usada para combinar múltiples señales analógicas. Fue desarrollada en los 1930 por la T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 8 8 18 88 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

2.

3.

4.

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

industria telefónica para combinar múltiples señales de voz analógicas sobre un solo cable. Los operadores de televisión por cable adoptaron posteriormente la técnica para transmitir canales multiplexados a los suscriptores hogareños, con un sintonizador (tuner) que separaba las señales y las asociaba con sus respectivos canales. FDM divide el ancho de banda disponible en subcanales (subcarrier) individuales, donde cada señal (de cada subcanal) tiene un rango único de frecuencias. La frecuencia del canal (carrier) es modulada luego para la señal de la información, si es voz, video o datos. En el extremo receptor, un demultiplexor filtra la salida de las diferentes señales de los diferentes subcanales. Por ejemplo, consideremos tres señales entrantes de 1 Kbps (señales X, Y y Z) que se multiplexan por frecuencia en un flujo de datos (stream) de 3 Kbps. A cada una de ellas se le asigna un rango de frecuencias específico para transporte hacia el extremo receptor donde un demultiplexor segmenta la señal compuesta, de acuerdo a la frecuencia, y restaura las señales individuales. Mientras que FDM trabaja bien en casos donde el canal está siempre ocupado (como un canal de televisión), es menos eficiente para señales de telefonía donde los niveles de tráfico varían. En el ejemplo anterior, si la entrada se reduce a dos señales entrantes (X e Y) la señal compuesta será aún de 3 Kbps porque las frecuencias no usadas también se transmiten. Aun cuando las técnicas de multiplexación digital dominan las telecomunicaciones, FDM permanece con uso limitado dentro de las redes de cable y redes celulares, así como para combinar señales de voz para acceso a la WAN a través de troncales analógicos. Multiplexación por División de Tiempo (TDM, Time División Multiplexing): es una técnica de agregación usada para combinar múltiples señales digitales. Esta tecnología cambio la cara del ambiente de telefonía, permitiendo la migración de los troncales analógicos a sistemas de troncales digitales (T1/E1/J1 y Sonet/SDH). La tecnología TDM se implementa en bancos de canales en el LX, permitiendo que 24 canales de voz analógica se combinen dentro de una conexión digital T1. TDM divide las señales entrantes en segmentos muy pequeños y asigna esos segmentos a un intervalo de tiempo fijo dentro de una señal compuesta más grade. Los segmentos de tiempo (time slots) entrelazados son organizados dentro de un frame. En el extremo receptor, un demultiplexor separa las tramas originales y regenera las señales individuales. Por ejemplo, consideremos tres señales entrantes de 1 Kbps (X, Y y Z) que fueron combinadas, usando TDM, dentro de un stream compuesto de 3 Kbps (XXYYZZXXYYZZXXYYZZ). Si la entrada se redujo a dos señales entrantes (X e Y), la señal compuesta debería permanecer a 3 Kbps (XXYY_XXYY_XXYY) y se perdería 1 Kbps de ancho de banda. Multiplexación Estadística por División de Tiempo (STDM, Statistical Time División Multiplexing): es una extensión de la técnica TDM que analiza el tráfico entrante y cambia dinámicamente el patrón de la señal compuesta para maximizar el uso del ancho de banda disponible. Al igual que el TDM tradicional, STDM divide las señales entrantes en segmentos muy pequeños y asigna a esos segmentos a un intervalo de tiempo especifico dentro de una señal compuesta más grande. Los slosts de tiempo se repiten en la misma forma de rotación, pero el STDM es más flexible para ajustar los intervalos de tiempo cuando se obtiene ancho de banda adicional disponible. Por ejemplo, consideremos 3 señales entrantes: X a 2 Kbps e Y y Z a 1 Kbps. Usando STDM, las 3 señales se entrelazan dentro de una sola señal compuesta (XXYZXXYZXXYZ). Si la señal Z detiene su transmisión, se libera 1 Kbps el cual puede reasignarse a otra señal entrante (XXYAXXYAXXYA) o simplemente la señal compuesta puede reducirse a 3 Kbps (XXYXXYXXYXXY). STDM tiene dos variantes: o STDM de longitud variable: es un método basado en frame usado por Frame Relay e ISDN. o STDM de longitud fija: es un método basado en celdas usado por ATM y SMDS/CBDS. Multiplexación por División de Ondas (WDM, Wave División Multiplexing): al igual que las conexiones basadas en cobre, existe una demanda para maximizar el número de señales que pueden transportarse a través de las facilidades de fibra existente. WDM logra transmitir múltiples señales de luz a través de una sola fibra óptica, utilizando para ello eficientes amplificadores ópticos de alto poder (lasers).

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 8 9 18 89 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

La funcionalidad de WDM es similar a FDM, en el sentido de que las señales se asignan a una única longitud de onda (frecuencia), o banda de color, la cual es luego modulada de acuerdo al tipo específico de tráfico (voz, video o datos). El número de señales que pueden combinarse dentro de una sola fibra con WDM depende del ancho de banda específico del amplificador óptico, el cual es capaz de tasas o velocidades medidas en terabits (trillón) por segundo (tps). La naturaleza escalable de los sistemas WDM permite a los proveedores de servicio ajustar sus redes para satisfacer los incrementos de demanda por ancho de banda. Debido a que las funciones WDM son independientes del tráfico que transporta, se la utiliza para agregar tráfico para transportarlo a través del backbone WAN. Como resultado, una simple fibra puede transportar celdas ATM, y paquetes IP y SONET/SDH. 10.3.2. Emulación de circuitos ATM Antes de considerar las distintas estructuras utilizadas para entrelazar el tráfico de red, consideraremos como el trafico TDM dependiente del tiempo, como voz y video en tiempo real (en vivo), se adapta para su transporte a través de un protocolo orientado a conexión como ATM. El Servicio de Emulación de Circuitos (CES, Circuit Emulation Services) es un proceso que provee un acceso mejorado del equipamiento TDM tradicional y del tráfico dependiente del tiempo a una red ATM. Los circuitos virtuales (VCs, Virtual Circuits) emulan conexiones T1/E1/J1 que permiten que el tráfico de tiempo real, como voz y video, sean transportados a través de la nube ATM. Cualquier cosa que entre de un lado de la nube saldrá por otro lado en el mismo orden y con la misma cantidad de información. Se tiene dos tipos de servicios de emulación de circuitos: 1. CES no estructurado (Unstructured CES): también conocido como “canal limpio”, usa VCs punto a punto para emular conexiones T1/E1/J1 completas a través de una red ATM. Notar en la figura que hay 8 teléfonos (lado izquierdo). El banco de canales necesita ensamblar una T1 con 24 slots de tiempo, así que algunos de los time slots estarán vacíos, como se indica en la figura (cuadraditos blancos). Con CES no estructurado, los slots de tiempo vacíos se convierten en celdas vacías, las cuales se transportan a través de la red ATM para que en el extremo receptor sean trasladadas nuevamente a slots de tiempo vacíos. 2. CES estructurado (Structured CES): también conocido como T1/E1/J1 canalizado”, usa VCs punto a punto y punto a multipunto para emular uno o más canales DS0 a través de una red ATM. En la figura, notar que hay 8 teléfonos (a la izquierda). El banco de canales necesita ensamblar una T1 con 24 slots de tiempo, así que algunos de los slots estarán vacíos. Sin embargo, cuando los slots de tiempo se trasladan a celdas (ATM), los slots vacíos no se tendrán en cuenta. Cuando alcancen el otro lado de la nube, el frame T1 completo se presenta al banco de canales con muchos de los slots de tiempo vacíos. Por lo general, el orden de los slots de tiempo permanece como en el origen, sin embargo esto puede alterarse. 10.3.3. Entramado Para poder multiplexar múltiples canales de información dentro de un único enlace, debe haber un camino para identificar los segmentos de datos individuales dentro de un stream (flujo o corrientes de datos). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 9 0 19 90 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Mientras que las técnicas de multiplexación basadas en frecuencia (FDM y WDM) usan filtros para extraer señales individuales de una señal compuesta, los streams de información TDM requieren de un método más sincronizado. El entramado (framing) se refiere al proceso de inserción de “bits de entramado” especiales que permiten identificar y remover porciones de datos de un frame. Los bits de framing son asignados por lo gral. a un slot de tiempo dedicado dentro del frame. Para demultiplexar la señal TDM el extremo receptor debe estar sincronizado al bit de entramado para poder reensamblar las señales de tráfico individuales. Consideraremos varias estructuras de trama tradicionales. 1.

Estructura de trama T1: T1 es el estándar PDH norteamericano para transmisión digital, el cual consiste de 24 canales DS0 (un DS0 tiene capacidad para 64 Kbps). DS0 = 8 bits / muestra * 8000 muestras / segundo = 64 Kbps Cada muestra de 8 bits o “byte DS0” se asigna a un slot de tiempo individual dentro de la trama T1 de 24 canales. Trama T1 = 24 * bytes DS0 = 192 bits Debido a que se inserta un solo bit de entramado dentro de cada frame (para sincronización), los canales T1 se restringen a 56 Kbps. Los 24 canales DS0 hacen una señal compuesta de 1,536 Mbps, y no 1,544 Mbps como la capacidad total de un T1. Los 8 Mbps remanentes se reservan para sincronización de entramado. 24 * DS0 = 192 bits de datos = 1.536 Kbps = 1,536 Mbps. 1 bit de entramado * 8000 muestras / segundo = 8 Kbps = 0,008 Mbps. 1,536 Mbps + 0,008 Mbps = 1,544 Mbps. 2.

Estructura de supertrama T1 (SF, Superframe T1): se combinan múltiples tramas con el objetivo de que los bits de entramada combinados puedan usarse para proveer sincronización de tramas. El SF es un formato portador T multitrama hecho de hasta 12 frames T1 consecutivos. Se forma de: • 8 bits forman un byte DS0. • 24 canales DS0 mas un bit de entramado forman una trama T1 simple. • 12 tramas T1 forman un simple SF. • Los 12 bits de entramado asociados del SF siguen un patrón especifico (100011011100) que permite que el extremo receptor establezca la sincronización de tramas.

A la SF se la asocia a menudo con la codificación de línea AMI (Inversión Alternada de Mascara). 3.

Estructura de supertrama T1 extendida (ESF, Extended Superframe T1): es un formato portador T multitrama formado de hasta 24 tramas T1 consecutivas. ESF requiere de menos secuencia de sincronización que el formato portador T SF original, liberando slots de entramado para transportar otros tipos de información de red. Los 24 bits de entramado del ESF se usan de la siguiente manera: • La sincronización de entramado usa 6 de los bits de entramado numerados (4,8,12,16,20,24). • Otros 6 bits de entramado numerados (2,6,10,14,18,22) se reservan para CRC, un esquema de detección de errores que se usa para identificar errores en la señal recibida. • Los 12 bits de entramado numerados remanentes (1,3,5,7,9,11,13,15,17,19,21,23) proporcionan facilidades de enlace de datos (FDL, Facility Data Link). El proveedor puede usar el FDL para cualquier propósito, incluyendo performance de red, testeo y diagnostico, conmutación de protección y configuración remota. A la ESF se la asocia a menudo con la codificación de línea B8ZS (Substitución de Cero Bipolar 8).

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 9 1 19 91 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

4.

Estructura de trama E1: es el equivalente europeo del T1, pero con 32 canales. La estructura de trama extendida estándar de un E1 es definida por la ITU como G.703. Es similar en función a un ESF, pero el formato G.703 es diferente: * 8 bits hacen un canal DS0. * 30 canales DS0 más un canal de entramado y un canal de señalización conforman una trama E1 simple, también conocida como CEPT-1 (Conference Europeenne des Administrations des Postes et des Telecommunications-1). * 16 tramas E1 conforman un frame G.703 simple.

5.

Estructura de trama SONET/SDH: así como los 64 Kbps de un T1 es la tasa de transmisión básica de Norteamérica, el OC-1 (Optical Carrier Level 1, Portadora Óptica de Nivel 1) de 51,84 Mbps es la tasa de transmisión básica de la jerarquía SONET norteamericana, y STM-1 (Synchronous Transport Signal Level 1, Señal de Transporte Síncrono de Nivel 1) de 155,52 Mbps es la tasa de transmisión básica de la jerarquía europea SDH. Las tramas SONET/SDH se miden ya sea por la longitud del frame (125 microsegundos) o por la tasa de frames (8000 frames por segundo, fps). - Estructura de trama SONET (Red Óptica Síncrona): la trama OC-1 consiste de 9 filas de 90 bytes de columnas, para un total de 810 bytes. 90 columnas * 9 filas * 8bits / byte * 8000 tramas / segundo = 51,84 Mbps. Las columnas de 1 a 3 se reservan para la cabecera de transporte (transport overhead, 9 filas * 3 columnas = 27 bytes), la cual incluye la cabecera de sección (SOH, section overhead) y la cabecera de linea (LOH, line overhead). La columna 4 se reserva para la cabecera de camino (POH, path overhead). Las columnas remanentes (de 5 a 90) comprimen el contenedor de carga útil síncrono (SPE, Synchronous Payload Envelope) para una tasa real de datos de 49,536 Mbps. 86 columnas * 9 filas * 8 bits / byte * 8000 tramas / segundo = 49,536 Mbps. Si se observa la forma OC-3c, la “c” indica “concatenado” (enlazado). Mientras el estándar SONET no concatenado es de 810 bytes (90 columnas * 9 filas), la trama SONET concatenada entrelaza tres tramas STS-1 para formar un frame de 2430 bytes (270 columnas * 9 filas). La ventaja de esto es el reducido overhead (encabezado o cabeceras), con solo tres columnas reservadas para el total de 270 columnas. 267 columnas * 9 filas * 8 bits / byte * 8000 frames / segundo = 153,792 Mbps. - Estructura de trama SDH (Jerarquía Digital Síncrona): la trama STM-1 consiste de 9 filas de 270 bytes de columnas, para un total de 2430 bytes. 270 columnas * 9 filas * 8 bits / byte * 8000 frames / segundo = 155,52 Mbps. Las columnas de 1 a 9 se reservan para la cabecera de transporte (9 filas * 9 columnas = 81 bytes), la cual incluye la cabecera de sección (SOH) y la cabecera de línea (LOH). Las columnas 10 a 12 se reservan para la cabecera de camino (POH). Las columnas remanentes (de 13 a 270) comprimen el contenedor de carga útil síncrono (SPE) para una tasa real de datos de 148,608 Mbps. 258 columnas * 9 filas * 8 bits / byte * 8000 tramas / segundo = 148,608 Mbps. - Cabeceras SONET/SDH: existen tres áreas de cabecera: * Cabecera de sección (SOH): incluye los bytes de entramado (framing) que indican el comienzo de trama. Incluye los bytes BIP-8 reservados para paridad. Incluye canales especiales reservados para el proveedor y para mantenimiento, control, alarmas, monitoreo, gestión, etc.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 9 2 19 92 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V *

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N))) Cabecera de línea (LOH): incluye los bytes punteros (pointers) que indican el comienzo de la carga útil (payload). Incluye bytes de paridad, canales especiales y bytes APS (Automatic Protection Switching, Conmutación Automática de Protección) usado para identificar un camino secundario redundante ante una falla en el enlace primario. * Cabecera de camino (POH): está adherido o atachado al payload hasta que este es reensamblado en el extremo receptor. Soporta cuatro clases diferentes de operaciones: o La clase A soporta funciones de carga útil independientes y es requerido por todos los tipos de cargas útiles. o La clase B soporta funciones dependientes de mapeo y no es requerido por todos los tipos de cargas útiles. o La clase C soporta aplicaciones de funciones específicas. o La clase D soporta funciones indefinidas y esta reservada para uso futuro.

10.3.4 Conmutación Automática de Protección (APS) El APS está diseñado para identificar uno o más caminos de transmisión redundantes ante eventos de falla sobre un camino de transmisión primario. Cuando la conmutación de protección se activa, las conexiones SONET/SDH se restaran generalmente dentro de los 50 microsegundos. Existen dos tipos básicos de conmutación de protección: 1. Protección lineal: soporta redundancia entre dos puntos cualquiera. Si el enlace primario falla, las tramas SONET/SDH se conmutan automáticamente al enlace secundario. 2. Protección basada en anillo: está diseñada para loops SONET/SDH cerrados. Si la falla ocurre sobre el loop, las tramas SONET/SDH se conmutan automáticamente a una ruta alternativa el cual enruta la conexión rodeando el elemento de red (NE) fallado. 10.3.5. Codificación de línea La codificación de líneas digitales define la forma en que los bits de datos se representan sobre el enlace de comunicaciones físico. El objetivo de la codificación de línea (line encoding) es hacer mínima la densidad de bits consecutivos sobre un circuito con el fin de que las facilidades de conexión más viejas no pierdan la sincronización de entramado. Para lograr esto, un stream de unos lógicos se representa eléctricamente como una alternación de pulsos. Existen reglas de cómo y en que dirección va un pulso, lo cual permite detectar fácilmente “violaciones” simples de bits. Se definen a continuación algunos esquemas de codificación. Algunos de estos métodos se usan en Norteamérica (por ejemplo B8ZS para T1), mientras que otros se usan en Europa (por ejemplo, HDB3 para E1): • Inversión Alternada de Mascara (AMI, Alternate Mark Inversión): es un estándar temprano de codificación de línea que representa cada sucesión lógica de bits 1s con “marcas” bipolares alternas, mientras que cada bit lógico 0 se representa con un “espacio”. • Sustitución Bipolar cada Tres Ceros (B3ZS, Bipolar Three-Zero Substitution): es un estándar de codificación de línea norteamericano para STS-1 y T3 que inserta automáticamente violaciones bipolares dentro de un string de datos que contiene 3 o más ceros consecutivos. • Sustitución Bipolar cada Ocho Ceros (B8ZS, Bipolar Eight-Zero Substitution): es un estándar de codificación de línea norteamericano para T1 que inserta automáticamente violaciones bipolares dentro de un string de datos que contiene 8 o más ceros consecutivos. El proceso típico es insertar bits 1s lógicos T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 9 3 19 93 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

• • •

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

en los lugares del cuarto, quinto, séptimo y octavo cero consecutivo. El primer 1 substituto machea incorrectamente al 1 previo, y el tercer 1 substituto machea incorrectamente la polaridad del segundo 1 substituto. Densidad Bipolar Alta (HDB3, High Density Bipolar): es un estándar europeo de codificación de línea E1 basado en AMI que inserta automáticamente violaciones bipolares dentro de un string de datos que contenga 4 o mas ceros consecutivos. Sin Retorno a Cero (NRZ, Non Return to Zero): estándar de codificación donde todos los bits lógicos 1s se representan por una posición significante y todos los bits lógicos 0s se representan por otra, sin posición neutral. Sin Retorno a Cero Invertido (NRZI, Non Return to Zero Inverted): estándar de codificación donde todos los bits lógicos 0s se representan manteniendo la posición del bit previo, y cada bit lógico 1 se representa con cambio de posición.

10.3.6. Relojes de sincronización (timing) Como se dijo antes, todos los componentes de red de una conexión necesitan estar sincronizados (encadenados) a una fuente de timing, de sincronía o cronómetro, para poder capturar los bits de entramado. Sin timing, el bit de framing “flotará” o “divagará”, provocando “jitter” (retardo a intervalos) en la información que se está transmitiendo. El timing es definitivamente necesario para el tráfico dependiente del tiempo como voz y video en tiempo real, pero puede no ser necesario para datos. Sin timing, la voz probablemente tenga muchos saltos y ruidos. En el caso del video, los problemas de timing pueden originar fallas en la señal vertical. Los sistemas de timing o de sincronía se conforman de Fuentes de Referencia Primarias (PRS, Primary Reference Sources) de alto nivel, y de Fuentes de Referencia Secundarias (SRC, Secondary Reference Sources) de bajo nivel. Consideremos los estándares de sincronización norteamericanos. Stratum 1 2 3 SMC 4

Bit Slips 2,5 / año 11 / día 130 / hora 10 / minuto 15 / minuto

Exactitud 1 * 10 E-11 2 * 10 E-8 5 * 10 E-6 2 * 10 E-5 3 * 10 E-5

10.3.6.1. Stratum Stratum es una jerarquía de referencia para las fuentes de timing, que identifica cuatro niveles de reloj. El stratum 1 ofrece el nivel más alto de exactitud y de estabilidad de salto del bit (bit slip), mientras que el stratum 4 ofrece el nivel más bajo. El reloj SONET SMC (SONET Minimum Clocking) se ubica entre el stratum 3 y el stratum 4. Otra forma de medir el stratum es la demora o suspensión (holdover), el cual mide cuanto tiempo puede estar un nodo separado de otro reloj antes de que ocurra un desplazamiento de bit (bit slip). Esto es particularmente importante si se desea que la red alcanza la menor cantidad de fallas. En el caso de la pérdida de un PRS, un nodo puede requerir de 15 segundos para conmutarse a otro SRS. Si este es el caso, el periodo de demora debe ser de al menos 15 segundos. 10.3.6.2. Arquitectura de timing Hay dos consideraciones básicas para una arquitectura de timing: T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 9 4 19 94 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V 1. 2.

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Cada nodo en una red deberá tener activa una única señal de referencia de entrada. Si hay más de una referencia de entrada activa, por nodo, pueden ocurrir loops de timing ante un evento de falla en el PRS. Excepto para el SRS, todos los nodos deberán tener un SRS entrante. Sin un SRS de entrada, pueden aparecer islas de timing, ante un evento de falla en el PRS.

En el diagrama de la figura, el nodo A es el PRS y el nodo B es el SRS. Notar que no existen loops de timing o islas de timing. Se considera a continuación los métodos comunes usados para transportar señalización de red. 10.3.6.3. Señalización de canal asociado (CAS) El CAS (Channel Associated Signaling), también llamado Señalización de Llamada Asociada (Call Associated Signaling), es un método in-band (en banda) que transmite bits de señalización junto con la voz y los datos digitalizados. Debido a que debe reservarse ancho de banda para señalización, como en el caso del T1 estructurado, a CAS también se lo conoce como “señalización de bit robado” (robbed-bit signaling). En el ejemplo del T1 de la figura, se reserva un bit para CAS en cada uno de los 24 canales de llamada. Esto deja 7 bits para voz, una pérdida de calidad que raramente se notifica. Cada canal incluye 56 Kbps de voz y 8 Kbps de señalización. Mientras que CAS trabaja bien para voz, la limitada flexibilidad y la falta de control de error lo hace menos ideal para otros tipos de información. 10.3.7. Señalización de canal común El CCS (Common Channel Signaling) es un sistema de señalización más eficiente dado que usa un canal de señalización separado, fuera de banda, que está separado de la información del usuario. En el T1 no estructurado de la figura, se reserva un canal entero de 64 Kbps para CCS junto a los 23 canales de llamada restantes de 64 Kbps. Esto mantiene los 8 bits para voz, lo que permite un transporte más eficiente y una mayor calidad de señal. En Europa, E1 reserva los slots 16 y 32 para señalización y overhead, manteniendo 30 canales de voz a 64 Kbps. El protocolo CCS incluye: * Sistema de Señalización 7 (SS7, Signaling System 7): es el protocolo CCS usado en la PSTN y para seteo de llamada en ISDN y para facilidades como identificación del llamante, rellamada automática y retransmisión de llamadas. * Red privada CCS: es un protocolo estándar no propietario usado para señalización entre unidades PBXs. * QSIG: es un método de señalización europeo no propietario usado para señalización entre unidades PBXs. * Señalización del canal D de ISDN: es el método CCS para el ambiente ISDN. * Q.931: usado para mensajes de control de conexión en el ambiente ISDN. * LAPD: es otro método de señalización ISDN que usa un mensaje Q.931 encapsulado para proveer transferencia libre de errores a través de la interfase red-usuario (UNI). Como resumen a los componentes de agregación diremos que existen tres métodos básicos, de multiplexación, para agregación de tráfico de red para su transporte a través de un único enlace físico, ellos son FDM, TDM (y la variante STDM) y WDM. El CES estructurado y no estructurado usa circuitos virtuales para permitir transportes de señales TDM de tiempo real, punto a punto y punto a multipunto, a través de una red ATM. La estructura de framing provee un camino estándar de encapsulación agregado información de cabeceras y de payload para su transporte a la WAN. Los bits de entramado permiten sincronización y extracción de información de usuario. Además para mantener la sincronización de los nodos de red, debe referenciarse una fuente de timing común. En adición a la información de usuario, la red usa señalización para comunicar información que incluye categorías como performance, testeo y configuración. Los tipos comunes de señalización vistos son CAS y CCS. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 9 5 19 95 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

10.4 Transporte WAN Es el cuarto componente de hardware WAN dentro del acceso WAN. En los puntos anteriores se vieron los tres primeros componentes de hardware WAN que indicaban como el tráfico de voz, video y datos obtenían acceso a la WAN, como se asociaba cada estructura de entramado particular con cada tipo de acceso y como las señales eran agregadas dentro de señales compuestas de alta velocidad para su transporte a través del núcleo WAN. Mientras que el transporte de información a través del núcleo (core) WAN es netamente transparente para el usuario, este provee la infraestructura de conexión critica para todas las operaciones WAN. Se verán entonces como se usan los componentes de hardware y las tecnologías claves para transportar voz, video y datos a través del núcleo WAN. 10.4.1. Componentes de transporte WAN

*

*

Los componentes de acceso WAN proveen un portal para el tráfico de los consumidores. Los componentes de agregación consolidan esas entradas; pero la conectividad total del entorno WAN es soportada por los componentes de transporte que enlazan al núcleo los siguientes elementos: * Multiplexores: entrelazan o mezclan diversas transmisiones de baja velocidad dentro de una única transmisión de alta velocidad (y viceversa). * Switches: conectan enlaces, retransmiten información a través de la WAN y dictaminan los servicios provistos por la WAN. * Repetidores: son dispositivos de capa física que amplifican o regeneran señales analógicas y digitales para su transmisión por largas distancias a través de un enlace físico. * Switch de Conexión Cruzada de Acceso Digital (DACS, Digital Access Cross-Connect Switch): agrega DS0s y T1 fraccional para conectarlos luego a un canal/es T1/T3 completo. Interfase de Intercambio de Datos ATM (ATM DXI, Data Exchange Interface): posibilita que los routers no-ATM existentes soporten celdas ATM proporcionando interfaces “frames in, cells out” (entran tramas, salen celdas) entre un router y el DSU/CSU que identifica el punto de demarcación entre el CPE y el equipamiento del proveedor. Interfase Usuario-Red Basada en Frames (FUNI, Frame-Based User to Network Interface): proporciona una interfase “frames in, cells out” a un switch ATM.

10.4.2. Protocolos de transporte WAN Entre tanto existe un gran numero de protocolos de networking que actúan en el borde de la nube WAN, el número de protocolos que se encuentran dentro del núcleo (core) es relativamente bajo. El transporte en el núcleo requiere de tecnologías multiprotocolo, de alta velocidad, que sean escalables y fácilmente configurables para permitir que la red se adapte a un conjunto cambiante de demandas de red. Para ello se considerarán los siguientes protocolos de transporte WAN: • Servicio de Datos Multimegabit Conmutado, SMDS. • Servicio de Datos de Banda Ancha Sin Conexión, CBDS. • Modo de Transferencia Asíncrono, ATM. • Ethernet Conmutado. • Red Fotónica (networking óptico). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 9 6 19 96 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N)))

Consideraremos primero los servicios de transporte basados en celdas: SMDS, CBDS y ATM. 10.4.2.1. SMDS El SMDS (Switched Multimegabit Data Service) es una tecnología de networking de alta velocidad, sin conexión (connectionless), de conmutación de paquetes desarrollada en loe mediados de los 90’s por Bellcore (actualmente Telcordia Technologies) para proporcionar conexiones LAN de alto desempeño a través de una WAN pública. Ofrecida inicialmente por las compañías de teléfono en las áreas metropolitanas, SMDS otorgó a los operadores de red una alternativa a las conexiones de líneas leased. Al igual que la tecnología ATM, de uso más amplio, SMDS usa celdas de 53 bytes. Sin embargo SMDS no soporta la facilidad de Calidad de Servicio (QOS, Quality of Service) requerida por el tráfico dependiente del tiempo como voz y video, por lo que su uso de limita principalmente a datos. Además, SMDS requiere del uso de un servidor sin conexión (connectionless server) para mantener el estado sin conexión a través de las redes ATM que la enlazan al núcleo de la mayoría de las WANs públicas. Este servidor representa un punto de falla simple así como también un cuello de botella potencial puesto que todo el tráfico de difusión pasa a través del mismo. 10.4.2.2. CBDS El CBDS (Connectionless Boadbanda Data Service) es un SMDS alternativo usado en Europa para networking WAN basado en datagramas, de paquetes conmutados y de alta velocidad. Como su contraparte norteamericana, CBDS transfiere paquetes que son direccionados y conmutados independientemente, sin necesidad de tener una conexión de red permanente. La naturaleza escalable y sin conexión de SMDS y CBDS los hace una alternativa costo efectivo con relación a Frame Relay, el cual requiere del uso de PVCs para hacer conexiones a través de la red. Desgraciadamente, existen muy pocos carriers que soportan SMDS en Norteamérica, lo que hace muy dificultoso su acceso y aprovisionamiento. Sin embargo, CBDS ha sido más popular en Europa donde se continúa con el desarrollo de nuevos servicios. 10.4.2.3. Modo de transferencia asíncrono (ATM) El ATM (Asynchronous Transfer Mode) es una tecnología de conmutación de alta velocidad, orientada a la conexión que usa celdas de longitud fija de 53 bytes para transmitir, simultáneamente y en forma confiable, tráfico de voz, video y datos. Las redes ATM son predominan dentro del núcleo de una red WAN, pero también ocupan posiciones prominentes a lo largo del borde WAN (edge WAN). La facilidad de Calidad de Servicio (QOS) permite a los proveedores WAN optimizar el uso del ancho de banda y ajustarse fácilmente a los requerimientos de retardo y pérdida de aplicaciones especificas. En la tabla se resume las categorías de servicio que definen los atributos de tráfico requeridos para los tipos generales de conexiones ATM. Clase de Servicio CBR Real time-VBR No-real time-VBR T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

Aplicaciones soportadas video y voz en tiempo real voz paquetizada, video comprimido datos interactivos 1 1 9 7 19 97 7

Prioridad alta alta alta G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV V

R R Á A W A N D S D M P A REEED DEEES SD DEEE Á ÁRRREEEAAAA AM MP PLLLIIIA A (((W WA AN N))) ABR UBR

datos interactivos ATM orientados datos en ráfaga (bursty)

baja baja

La calidad de servicio (QOS, Quality of Service) se refiere a la habilidad de una red ATM para definir niveles de desempeño (performance) para los distintos flujos de información del usuario. Las redes ATM especifican modos de servicio que aseguran un desempeño óptimo para tráficos como voz y video en tiempo real. La calidad de servicio tiene su mayor aplicación en Internet y en redes empresariales, debido al constante incremento de transporte de voz y video sobre redes de datos basadas en IP. 10.4.2.4. Ethernet conmutado El Switched Ethernet utiliza conmutadores (switches) Ethernet de alta velocidad (en lugar de hubs) para proporcionar transporte WAN entre dos o más LANs Ethernet. En lugar de compartir 10 Mbps (Ethernet) o 100 Mbps (Fast Ethernet) entre todos los usuarios del segmento de red, la totalidad de ancho de banda está disponible para ambos extremos (dos) de una conexión. Además, si el switch Ethernet y las tarjetas de interfase de red (NIC) soportan operación full duplex (bidireccional), el ancho de banda total se incrementa entre 20 Mbps y 200 Mbps entre nodos. Una de las ventajas significativas del uso del Ethernet conmutado para conectar LANs Ethernet a través de la WAN es la posibilidad de usar la NICs Ethernet existentes. 10.4.2.5. Redes fotónicas Fotónico (Photonics) es un protocolo de telecomunicaciones emergente que usa circuitos de luz basados en fotones en lugar de circuitos eléctricos basados en voltajes. La fibra óptica transporta transmisiones de luz, generadas por generadores de señal de láser, a través de una red óptica completa, la cual incluye switches ópticos, multiplexores ópticos, dispositivos de conexión cruzada ópticos y detectores ópticos que pueden convertir la fuente de luz de nuevo a una señal eléctrica. Un ejemplo concreto de este tipo de tecnología es SONET y la jerarquía SDH. Como resumen, diremos que la tecnología ATM, en el núcleo WAN, proporciona transporte para la mayoría de las conexiones a través de la red. La habilidad para convertir múltiples protocolos, incluyendo Frame Relay, hace de ATM una de las soluciones más robustas para transporte en el núcleo WAN. A medida que las tecnologías emergentes, como la red óptica (SONET), crezcan, el rol de ATM se ira acercando hacia el borde de la WAN, mientras continúa jugando un rol critico para las conexiones de transporte WAN.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

1 1 9 8 19 98 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIII

S S T 1 O S SEEERRRVVVIIICCCIIIO OS ST T1 1

SSEERRVVIICCIIOOSS T T11 11.. C CAAARRRAAACCCTTTEEERRRÍÍÍSSSTTTIIICCCAAASSS G GEEENNNEEERRRAAALLLEEESSS Los servicios T1, introducidos en 1962 como parte de los sistemas de transmisión de Bell System, son el origen de todos los servicios de telecomunicaciones. Representan el servicio de telecomunicación más ampliamente utilizado en el mundo, sólo en Norteamérica la cobertura mediante enlaces T1 es superior a 1500 Kms. Asimismo, los servicios T1 se encuentran entre los servicios de comunicaciones WAN más fiables y económicos disponibles hoy en día. Aun hoy, T1 es el estándar respecto al cual se comparan el resto de los protocolos WAN.

1.1. Definición de T1 Los servicios T1 constituyeron un parte importante en la evolución y transición de los servicios de telecomunicaciones de analógico a digital. T1 es el mayor y uno de los componentes de más rápido crecimiento de los sistemas de transmisión tanto de los suministradores de servicios de comunicación local como de los suministradores de servicios de comunicación a larga distancia, además de ser el servicio de transmisión más común en las grandes redes privadas. T1 es el nombre tanto del servicio de transmisión como de los medios de transmisión de un servicio de comunicaciones que utiliza multiplexación por división en el tiempo para concentrar hasta 24 canales digitales de 64 Kbps en un circuito full-duplex de cuatro hilos. Esto significa que un servicio T1 completo tiene un ancho de banda total de 1,544 Mbps. Como se sabe, 64 Kbps es el ancho de banda de un canal de voz estándar transmitido a través de un servicio digital. Por lo tanto, como puede suponerse, T1 tiene sus orígenes en la tecnología de transmisión de voz. A pesar de ello, es un servicio extraordinariamente flexible y ha llegado a servir bien para las comunicaciones de datos. Nota: en la conversión de analógica a digital, la velocidad de muestreo para la frecuencia de la voz analógica es de 8000 veces por segundo. Estas muestras son codificadas en bytes de 8 bits. Por tanto, 8000 muestras x segundos x 8 bits = 64.000 bits por segundo o 64 Kbps de ancho de banda.

1.2. Multiplexación por división de tiempo (TDM) El multiplexor por división en el tiempo agrupa las señales mediante la asignación de ranuras de tiempo a las diversas señales de transmisión. Para ello, el multiplexor divide el canal de transmisión en ranuras de tiempo y las asigna a las distintas señales de transmisión. Por ejemplo, la transmisión 3 podría tener cada tercera ranura de tiempo, la transmisión 2 podría tener cada cuarta ranura de tiempo y así sucesivamente. Esta es otra forma de lograr que diferentes transmisiones puedan compartir el mismo canal sin colisionar la una con la otra. Se denomina Multiplexación por División de Tiempo (Time Division Multiplexing. TDM), tal y como se ilustra en la figura, y constituye la base de las operaciones con tramas T1.

1.3. Operaciones con tramas T1 En el servicio T1 los dispositivos denominados concentradores de canales, un tipo especial de multiplexor digital como el mostrado en la figura, convierte las señales analógicas en tramas digitales. Un concentrador de canal se sitúa entre las líneas analógicas de voz y el sistema digital T1. Una trama contiene una muestra de 1 byte de cada uno de los 24 canales de 64 Kbps que están siendo transmitidos a través del T1, más un único bit de trama para labores de temporización y alineación. Los concentradores de canales además de las funciones de conversión de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 0 1 20 01 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIII

S S T 1 O S SEEERRRVVVIIICCCIIIO OS ST T1 1

analógico a digital, proporcionan interfaces de señalización para la troncal de acceso a la central de conmutación o para el bucle de abonado. Esto significa que la conversión y la multiplexación no son visibles para el usuario. 1.3.1. El bit de trama El bit de trama T1 proporciona un mecanismo de sincronización que el servicio T1 utiliza para establecer las velocidades y duración de la señal, así como, los intervalos de muestreo. En una red TDM completamente síncrona, todos los nodos involucrados deben emplear la temporización suministrada por un único reloj maestro de la red. Como se verá enseguida, el bit de trama también proporciona los medios para transmitir información de gestión y control. El servicio de transmisión T1 combina las tramas en grupos de 12, denominados supertramas, como muestra la figura. A continuación, las supertramas se combinan en grupos de dos (lo que representa un total de 24 tramas), denominados supertramas extendidas, tal y como se muestra en la otra figura. Con el paso de los años, los ingenieros y desarrolladores del servicio T1 crearon códigos de señalización y control para T1. Y ¿dónde, podría pensarse, se sitúan estos códigos, teniendo en cuenta que la única sobrecarga de la trama es el bit de trama?. Se realiza de dos maneras. Primero, se crean patrones mediante la modificación del bit de trama después de cada trama. Por tanto, realmente el que transmite la información de señalización no es el estado del bit de trama sino el patrón de estados de una secuencia de bits de tramas. Otra manera en que los servicios T1 transmiten la información de gestión y control es mediante la utilización de las tramas intermedias de una supertrama o de una supertrama extendida (ejemplo, tramas 6 y 12 respectivamente, en una muestra de 24 tramas) para transmitir esta información.

1.4. Señalización T1 El sistema de transmisiones de larga distancia, en gran parte del mundo, se diseño para transmitir señales de voz a través de enlaces de transmisión de alta capacidad tales como fibra óptica, cables coaxil y microondas. Parte de la evolución de estas redes de telecomunicaciones hacia la tecnología digital consistió en la adopción de estructuras de transmisión TDM síncronas. En Estados Unidos AT&T desarrolló una jerarquía de estructuras TDM con diferentes capacidades; esta estructura se adoptó también en Canadá y Japón. Una jerarquía análoga, aunque no idéntica, fue adoptada internacionalmente por la ITU-T. La base de la jerarquía TDM (Norteamérica y Japón) es el formato de transmisión DS-1. Como se dijo antes, una señal T1 contiene 24 canales de 64 Kbps. Esta señal de 24 canales recibe el nombre de DS-1 y tiene un ancho de banda total de 1,544 Mbps. Cada canal individual de 64 Kbps se denomina DS0 (un canal de voz). Cuando se multiplexan dos señales DS1, la señal de 48 canales resultante se denomina DS1-C. De hecho, existe toda una jerarquía de señalización T1 que puede solicitarse, como se muestra en la tabla siguiente. En esta tabla, cuanto más alta es la designación de la señal DS mayor es el ancho de banda que el medio de transmisión T1 debe soportar. Por ejemplo, un DS1-C requiere un medio de transmisión T1 que sea capaz de soportar un ancho de banda de 3,152 Mbps. Una señal de1 nivel DS2, consistente en cuatro señales DS1 (96 canales DS0) requiere un medio de transmisión de 6,312 Mbps.

Velocidades de señales T1 en el mundo DS (Digital Signal) DS-0 DS-1 DS-1B DS-1C DS-2 DS-2B T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

N° canales de voz (64 Kbps) 1 24 30 48 96 120

Ancho banda (EEUU) (T1) 64 Kbps 1,544 Mbps

Ancho Banda Japón/Europa (J1/E1) 64 Kbps 2,048 Mbps

3,152 Mbps 6,312 Mbps 8,45 Mbps 2 2 0 2 20 02 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIII

S S T 1 O S SEEERRRVVVIIICCCIIIO OS ST T1 1

Velocidades de señales T1 en el mundo DS (Digital Signal) DS-3 DS-3B DS-3C DS-3D DS-4A DS-4B DS-4C DS-5

N° canales de voz (64 Kbps) 480 672 1,344 1,440 1,920 4,032 5,760 7,680

Ancho banda (EEUU) (T1) 32,06 Mbps 44,73 Mbps 91,053 Mbps 97,73 Mbps

Ancho Banda Japón/Europa (J1/E1) 34,64 Mbps

139,26 Mbps 274,17 Mbps 397,2 Mbps 565,15 Mbps

Jerarquía de señalización TDM. Servicio T1 ofrecido en el mundo

Nota: advertir que en la tabla los anchos de banda totales para cada nivel de señal T1 son mayores que la suma de los canales de voz. Por ejemplo, un DS1 tiene un ancho de banda total de 1,544 Mbps y aunque se realice el cálculo (24 canales x 64 Kbps/canal), se obtiene un total de 1,536 Mbps. La diferencia la constituye el bit de trama.

22.. M O D E T R A N M Ó N MEEEDDDIIIO T11 OSSS D DE ET TR RA AN NSSSM MIIISSSIIIÓ ÓN NT Las señales T1 se envían a través de un medio formado por cuatro hilos. Este medio o cable tiene dos pares de hilos los cuales se denominan tip y ring, tip 1 y ring 1. Cada par de hilos transporta información en una única dirección: tip y ring transmiten, y tip 1 y ring 1 reciben. La figura ilustra este proceso. Los cables de cuatro hilos son más adecuados para transmisiones de larga distancia porque son capaces de transportar señales más lejos sin ninguna perdida o distorsión. Son más caros que los cables de dos hilos, por lo que no es habitual emplearlos dentro de los edificios. Sin embargo, a pesar del incremento de coste, en ciertas ocasiones tiene sentido utilizar los cables de cuatro hilos en los edificios porque pueden conectarse directamente a 1os medios metálicos de transmisión a larga distancia, que son siempre cables de cuatro hilos.

2.1. Transmisión T1 en el exterior de la central Durante años, el servicio T1 necesitó un repetidor cada Km. Este repetidor regeneraba completamente la señal y la retransmitía. Actualmente, sin embargo, el T1 sin repetidor se está convirtiendo en el sistema preferido de transmisión T1. Utiliza un repetidor rediseñado que sólo necesita regeneración cada 5 Km, ahorrando, por consiguiente, en costes de equipo. Así pues, si se está pensando en construir un nuevo sistema T1 privado probablemente debería considerarse el T1 sin repetidor.

2.2. Sistemas T1 portadores La figura ilustra cómo funcionan conjuntamente todos los componentes de un sistema portador T1 típico. Este sistema particular consta de un DS1 (24 canales) en una red (de un carrier de comunicaciones) de larga distancia. Los bancos de canales conectan la red de área local a las unidades CSU/DSU, quienes transmiten la señal de datos al TDM ubicado en la oficina central del LEC (proveedor local). La señal multiplexada se envía al POP del IXC (proveedor de larga distancia) a través de su central de conmutación de paso local y a continuación se transmite por medio del sistema de transmisión inter-LATA del IXC. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 0 3 20 03 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIII

S S T 1 O S SEEERRRVVVIIICCCIIIO OS ST T1 1

Además de proporcionar una interfase al sistema de la oficina central, los CSU/DSU realizan funciones de acondicionamiento de la línea, corrección de errores, administración de señal, sincronización y comprobación de circuitos. Nota: el acondicionamiento de la línea es realmente el arte de situar los repetidores en los intervalos correctos para compensar la pérdida de señal.

2.3. Preparación del T1 Debe tenerse en cuenta que el bucle de abonado local puede no estar preparado para T1. Esto es debido a que el par de cable local puede tener “derivaciones” (la compañía telefónica, al realizar una nueva instalación, tira una línea desde la instalación del nuevo usuario y utiliza como parte del tendido un bucle local no utilizado ya existente, abandonado por un usuario anterior). Tales conexiones pueden provocar distorsión en la señal, que no afecta a las señales analógicas, pero pueden hacer estragos en el T1. Por tanto, debe eliminarse cualquier derivación. A continuación, el LEC tendrá que comprobar la línea para eliminar cualquier dispositivo que se hubiera instalado para acondicionar las líneas analógicas (acondicionar significa ajustar las líneas para reducir la distorsión de la señal). Ejemplos de estos dispositivos son los denominados impedancias de balanceo, que reducen la distorsión de las señales analógicas, pero causan distorsión en las señales digitales. Finalmente, el LEC comprobará si la línea satisface las especificaciones T1, si no la compañía telefónica tendrá que instalar otra línea. 2.3.1. Formatos de señal bipolar DS1 Las señales se envían a través de un medio de transmisión T1 en el formato binario habitual, conocido como bipolar. En el formato bipolar, la alternancia de pulsos positivos y negativos representa el estado de señal uno binario; en otras palabras, cada vez que la señal cambia de positivo a negativo o de negativo a positivo (un cambio del estado de la señal conocido como un pulso) se transmite un 1 binario. Cuando la señal no cambia de estado, o pulso, se transmite un 0 binario. Nota: realmente, el escenario descrito previamente sólo es cierto en la señalización por Inversión de Señales Alternas (Alternate Mark Inversion, AMI). La inversión de señales alternas es un antiguo tipo de señal que actualmente está siendo sustituido por otro tipo de señalización, conocido como Inversión de Espacios Alternos (Alternate Space Inversion, ASI), en el cual los pulsos transmiten 1's binarios y la ausencia de pulsos transmite 0's binarios. Sin embargo, la mayoría de los sistemas T1 en Norteamérica utilizan la señalización conforme a AMI; por lo tanto, se asumirá la señalización AMI. En la transmisión de largas cadenas de 0's y 1's existe siempre el peligro de que las tramas pierdan la sincronización. Ello se debe a que en la transmisión de voz se envía una trama compuesta solo de 0's para indicar que se está transmitiendo una señal de voz. Esto significa que si la temporización, tanto en el extremo emisor como en el receptor, no es precisa, el extremo receptor podría, por ejemplo, interpretar una trama como parte del canal 1cuando realmente formaba parte de los datos del canal 2. Mientras que en la transmisión de voz este hecho no significa un gran problema (una conversación de voz puede entenderse fácilmente aunque se pierdan unos pocos muestreos) en datos esto es nefasto. Los equipos no saben completar los espacios vacíos de los bits perdidos o mal interpretados. Recuérdese que T1 fue desarrollado originalmente para transmisión de voz y que por consiguiente, no contenía ningún mecanismo para la detección y corrección de tales leves errores de sincronización. 2.3.2. Un bit de solución y un bit de problema Con el objetivo de prevenir el desastre causado en la sincronización del canal T1 por las tramas compuestas de sólo 0's, los desarrolladores e ingenieros del T1 comenzaron a beneficiarse de una diferencia en la codificación entre la tecnología analógica y digital. Recordar que las técnicas de codificación de voz requieren sólo 7 bits de los 8 bits de un byte. Por esta razón, en la codificación de voz, el octavo bit se emplea para la señalización del estado de la llamada. En la señalización digital, el octavo bit es siempre un 0, indicando de esta manera que se trata de una señal digital. Cuando no hay datos que transmitir, en lugar de enviar una trama de 0's, como se hace en la señalización de voz, el canal envía una serie de tramas similares a la de la figura, con un 0 en la octava posición y 1's en las posiciones de la segunda a la séptima. De esta manera se evita una serie de ocho 0's consecutivos, la señal “nada que transmitir” de la transmisión de voz. Esto resolvía el problema de la sincronización, pero introducía otro problema: codificación ineficiente. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 0 4 20 04 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIII

S S T 1 O S SEEERRRVVVIIICCCIIIO OS ST T1 1

Cuando de una trama de 8 bits únicamente están disponibles siete bits para datos, un canal T1 de 64 Kbps sólo puede transportar 56 Kbps de datos útiles. Esta ineficiencia era indeseable pero tolerable hasta la llegada de la utilización de T1 como interfaz para los servicios ISDN que exigen un canal de datos de 64 Kbps completo. Afortunadamente, los ingenieros del T1 desarrollaron dos formatos de señalización alternativos para suministrar un canal T1 de 64 Kbps completo y bien sincronizado: B8ZS y ZBTSI. 2.3.3. Bipolar con 8-bit Zero Substitution (B8ZS) B8ZS reemplaza la señal analógica “nada que transmitir”, consistente en un bloque de ocho 0's consecutivos, por un código en el que se inserta un 1 binario, ilustrado en la figura. Mientras que esta técnica de codificación libera la totalidad de los ocho bits para la transmisión de datos, desgraciadamente también viola las reglas de codificación de la técnica de codificación AMI, previamente mencionada. En AMI, cada señal 1 binaria debe ser codificada con la polaridad opuesta a la de la señal 1 binaria precedente. Como se observa en la figura el bit 5 y el bit 7 son ambos 0's, rompiendo de esta forma el protocolo de codificación AMI. Por tanto, cualquier equipo de la red T1 tendría que ser sustituido antes de implementar la señalización B8SZ; lo cual por supuesto es una propuesta muy costosa. 2.3.4. ZBTSI una solución para la supertrama extendida Afortunadamente, existe una alternativa a la codificación B8SZ para obtener un canal T1 a 64 Kbps completos. Se desarrolló otro método denominado Zero Byte Time Slot Interface (ZBTSI). ZBTSI, en vez de utilizar un bit de cada byte para identificar y sincronizar las tramas de datos, codifica toda esa información relativa a una supertrama extendida completa (24 tramas) en una única trama (la sexta trama) dentro de cada supertrama extendida. ZBTSI funciona de la siguiente manera: después de examinar todos los bits de datos de la supertrama extendida, el CSU/DSU emisor genera una suma de verificación basada en un CRC. Esta suma de verificación CRC se codifica en una trama de la supertrama extendida. El CSU/DSU receptor utiliza este código CRC para verificar los errores en los datos.

2.4. Equipos T1 El servicio T1 requiere de una variedad de equipos, además de los routers y puentes necesarios para cualquier servicio o protocolo WAN. A continuación se presenta una lista de los equipos que pueden necesitarse. • CSU/DSU: una unidad de servicio de canal/unidad de servicio digital conecta un servicio digital como el T1 a un concentrador de canal o a otro tipo de multiplexor. Realiza diversas funciones, incluyendo regeneración de señal, acondicionamiento de línea, corrección de errores, gestión de señal, sincronización y funciones de comprobación del circuito. • Multiplexor digital: convierten las tramas analógicas en tramas digitales. Los concentradores de canales son un ejemplo de multiplexores digitales sencillos. Existen, también, multiplexores muy sofisticados capaces de soportar muchos niveles diferentes de entrada, desde una fracción de un DS0 hasta múltiples canales DS0, convirtiendo todos ellos en trasmisiones digitales. Algunos son, incluso, autoconfigurables, de manera que el servicio de transmisión continua, aunque una parte de la red T1 se haya caído. • Sistema Digital de Conexión Cruzada (Digital Cross-Connect System, DCS): el DCS, mostrado en la figura, es un nuevo tipo de multiplexor que transmite por separado los canales de 64 Kbps desde un sistema de transmisión T1 a otro sin tener que pasar a través de interfaces adicionales. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 0 5 20 05 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIII

S S T 1 O S SEEERRRVVVIIICCCIIIO OS ST T1 1

Antes de la llegada de los DCS, la transmisión T1 se complicaba rápidamente. Como se ilustra en la figura, si se quería transmitir señales de datos desde un canal de un sistema T1 a otro sistema T1, debían demultiplexarse todas las señales, asignar el canal que tenia que conectarse al siguiente T1 en el concentrador de canales, atravesar una central de conmutación y acudir a otro concentrador de canales para volver a ser multiplexado en la señal que el siguiente T1 transportaría. Obviamente, esto exigía una gran cantidad de equipos y de tiempo, hasta la llegada de las DCS. La utilización del DCS permitió al administrador de red enviar tráfico desde cualquiera de los 24 canales de 64 Kbps de un T1 a cualquier otro T1 conectado al mismo DCS. Los dispositivos digitales de conexión cruzada hacen que el servicio T1 sea más rentable, porque permiten separar canales para transportar diferentes tipos de datos sin necesidad de un volumen elevado de equipamiento extra. Estos dispositivos se presentan, además, en una gran variedad de tamaños, desde sólo 4 u 8 canales DS0 hasta más de 100 canales DS0. Los dispositivos DCS ofrecen, también, la posibilidad de reconfigurar 1a red T1 ad hoc, es decir un dispositivo es capaz de reencaminar las señales desde un servicio T1 no operativo hacia uno que funcione correctamente. Esta característica mejora la probabilidad de que el servicio T1 continúe incluso en el caso de un fallo de un servicio T1. Sin embargo, uno de los aspectos más importantes que el sistema digital de conexión cruzada ha aportado al servicio T1 es la posibilidad de vender por separado los canales de 64 Kbps como T1 Fraccionario, que se tratará más adelante.

33.. C O N A L E CAAARRRAAACCCTTTEEERRRÍÍÍSSSTTTIIICCCAAASSS AAADDDIIICCCIIIO ON NA AL LE ESSS 3.1. Flexibilidad Una de las razones predominantes de la popularidad del T1 es su extrema flexibilidad. Como se sabe, el servicio T1 se encuentra disponible en una amplísima variedad de anchos de banda que varían desde 1,544 Mbps hasta 274,176 Mbps. Una de las denominaciones mas conocidas del T1 recibe el nombre de servicio T3, consistente en 672 canales de 64 Kbps. También es posible contratar una capacidad inferior a la ofrecida por el T1 completo. El servicio T1 contratado en anchos de banda inferiores a 1,544 Mbps se denomina T1 fraccionario.

3.2. T1 fraccionario T1 ofrece la posibilidad de subdividirlo y contratarlo por canales. Por tanto, aunque la totalidad del T1 no sea necesaria para el acceso local, es posible beneficiarse de la velocidad, economía y flexibilidad del servicio T1 del IXC. Nota: el proveedor de comunicación local (LEC) puede no ofrecer e1 servicio T1 fraccionario. Esto puede dar lugar a que se tenga que pagar por un servicio alternativo complicado y muy caro, proporcionado por el LEC, para transmitir los datos de la “ultima milla” entre la dependencia del usuario y el punto de acceso del suministrador. Antes de contratar los servicios del IXC, se debe comprobar que el LEC soporta una interfaz T1 fraccionario. T1 fraccionario no es realmente una fracción de 1,544 Mbps. Como se muestra en la figura, es la totalidad del servicio. Esto es así porque el T1 fraccionario es verdaderamente sólo una estructura tarifaria del servicio T1 (es el nombre que las empresas de telecomunicaciones han dado a la utilización básica del servicio T1). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 0 6 20 06 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIII

S S T 1 O S SEEERRRVVVIIICCCIIIO OS ST T1 1

Con el T1 fraccionario es posible obtener toda la interfase T1 con un ancho de banda como mínimo de 1,544 Mbps. Simplemente, sólo se paga por el número de canales de ancho de banda que se solicitan. 3.2.1. Gran variedad de servicios El formato DS-1 se emplea también para proporcionar servicios de datos digitales. Por cuestiones de compatibilidad con la voz se usa la misma velocidad de 1,544 Mbps. En este caso existen 23 canales de datos. El canal 24 se reserva para un carácter especial sync que permite una recuperación mas rápida y fiable de la delimitación tras un error en la misma. El formato DS-1 se puede usar también para transportar una mezcla de canales de voz y de datos. En este caso se utilizan los 24 canales, no existiendo octeto sync. Además, 24 canales separados de 64 Kbps ofrecen la opción de utilizar interfaces T1 para transportar otras clases de servicios, como acceso local al punto de presencia (POP) de un proveedor de larga distancia (IXC). Adicionalmente, T1 soporta estos servicios mediante sistemas dedicados o conmutados. Nota: recordar que el servicio dedicado es un servicio de acceso local que un LEC dedica a único usuario para su uso exclusivo y con dedicación completa. Estas tasas son, por lo general, planas, tasas mensuales fijas que no varían con la utilización. Un servicio compartido es un acceso local que un LEC ofrece a muchos clientes quienes lo comparten. Los usuarios sólo pagan por el servicio de acceso y por los servicios que utilizan.

3.3. Disponibilidad El servicio T1 puede encontrarse prácticamente por todas partes. Sin embargo, tal como se muestra en la tabla, otros países han establecido nombres y ofertas estándares de ancho de banda diferentes para sus servicios T1. Esto implica que la interoperabilidad no es necesariamente automática. Por tanto, si la red WAN se extiende más allá de un país, es necesario conocer exactamente las necesidades para hacer el servicio T1 interoperable con el servicio equivalente en el país receptor.

3.4. Costo T1 es probablemente el servicio de telecomunicaciones WAN de menor costo, disponible en todo el mundo. Es fiable, fácil de manejar e instalar, relativamente barato y muy conocido en toda la industria de las telecomunicaciones. Ofrece una variedad de anchos de banda y los sistemas T1 pueden transportar diversas señales.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 0 7 20 07 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

C MÓ ÓD DEEM MSS COONNEEXXIIOONNEESS DDIIAALL--UUPP ((DDIISSCCAADDAASS)) AASSÍÍNNCCRROONNAASS YY M 11.. IINNNTTTRRRO O D U C C Ó N OD DU UC CC CIIIÓ ÓN N Las conexiones discadas por líneas conmutadas analógicas asíncronas son una solución WAN barata de acceso remoto, disponible al momento. Por estas razones, virtualmente todas las organizaciones usan módems y líneas telefónicas analógicas en alguna forma. Tanto los routers como los puestos de trabajo pueden configurarse para conexiones dial-up con módems. Como profesional de redes, se debe entender cómo trabajan los módems, además de saber poder cablear y configurar una conexión dial-up. Se hará una introducción básica a los conceptos, funciones y configuración del modem, así como al networking dial-up.

22.. FFUUUNNNCCCIIIO O N E D E L M Ó D E M ON NE ESSS D DE EL LM MÓ ÓD DE EM M 2.1. Conversión digital a analógica Al seleccionar una solución de acceso remoto para oficinas remotas y usuarios hogareños, los diseñadores de red optan a menudo por conexiones dial-up analógicas porque se soportan sobre las líneas telefónicas ordinarias. Las líneas de teléfono ordinarias, también llamadas Servicio Telefónico Básico Antiguo o POTS (Plain Old Telephone Service) fueron originalmente diseñadas para llevar voz usando señalización analógica. Como se dijo anteriormente las transmisiones de datos se categorizan como analógicas o digitales. Las transmisiones analógicas electrónicas manipulan la frecuencia, amplitud, y fase de una forma de onda electromagnética continua. Al principio, toda la transmisión de radio y teléfono se basaron en la tecnología analógica. Hoy, la transmisión digital es común. Aunque la mayoría de los loops locales a residencias y pequeños negocios permanece analógica, los grandes negocios y organizaciones arriendan loops locales digitales, como se muestra en la figura. Las comunicaciones digitales representan la información con números binarios 1s y 0s usando pulsos de electricidad, luz, o algún otro método. Aunque las computadoras representan y almacenan datos digitalmente, un medio de transmisión digital es ideal para conectar redes de computadoras. Para usar líneas de teléfono analógicas para transmisión de datos, las señales digitales de una computadora deben convertirse a un tono analógico que puedan ser transportados por los POTS. Además, las señales analógicas deben convertirse de nuevo a señales digitales para que la computadora receptora descifre la información. Un módem realiza estas conversiones. Un módem es un modulador y un demodulador. La palabra módem viene de una combinación de estas dos palabras. Un modulador toma la señal digital de la PC y modula (es decir, convierte la señal a analógica variando la amplitud, frecuencia, o fase) la onda portadora para transmitir la información. Un demodulador convierte una portadora analógica en señalización digital. Por consiguiente, los módems modulan la forma de onda analógica de distintas formas para poder transmitir lo que fue una señalización digital sobre los POTS. Los módems también pueden recibir ondas analógicas y convertirlas a digital para que las computadoras receptoras puedan entenderlas. La figura ilustra que áreas residenciales y oficinas pequeñas acceden a la Red Telefónica Publica Conmutada (PSTN, Public Switched Telephone Network) vía los loops locales analógicos. Sin embargo, casi todas las compañías de telecomunicaciones (telcos) usan medios digitales dentro de sus propias redes. Mediante el uso de la transmisión digital, las telcos pueden transmitir eficientemente datos entre sus switches y mantener tasas de error mínimas. Retransmitir señales analógicas es menos eficiente porque las señales analógicas requieren amplificación, la cual a su vez amplifica cualquier ruido en la señal y crea errores. Por otro lado, los señales digitales son repetidas por regeneradores de señal, el cual es un proceso más confiable; el estado de “on” u “off” de la señal es determinado en forma fácil por el dispositivo de red y luego recreado.

2.2. El papel del módem Los módems conectan computadoras digitales a la red digital de las telcos vía loops locales analógicos (también conocidos como ultima milla). Cuando el switch de la telco recibe la señal analógica del módem, debe codificar la señal para que pueda atravesar la red digital. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 1 1 21 11 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

Las telcos usan un dispositivo llamado codec (codificador/decodificador, coder/decoder) para codificar las formas de onda analógicas en pulsos digitales (conversión analógica a digital), y viceversa. El estándar para codificación analógico a digital es una técnica llamada PCM (Pulse Code Modulation, Modulación por Código de Pulso). PCM y sus variantes trabajan sampleando (tomando muestras) una señal analógica miles de veces por segundo. Cada muestra es entonces medida, o cuantificada, para que pueda ser codificada como un valor binario (típicamente ocho bits). Estos valores aproximados pueden usarse para reconstruir digitalmente la forma de onda. La recuperación y amplificación de la señal digital reduce y elimina el ruido que podría crearse si se utilizaran señales analógicas para el mismo proceso. Si se amplifica una señal analógica se amplifica también cualquier ruido existente en la señal. Amplificar una señal digital permite recrear solamente el estado on u off de la señal. Las telecomunicaciones de hoy en día confían ciegamente en este tipo de conversión digital-analógica, y analógica-digital. Para entender completamente las soluciones de acceso remoto y los requisitos de cableado, se debe estar familiarizado con los términos DTE y DCE (ver capítulo anteriores), que se usan para describir la función general de un dispositivo. Las estaciones finales, o hosts, de la figura actúan como DTEs. Ejemplos de DTEs incluyen a dispositivos como PCs, terminales, routers, y mainframes. Un DTE es un dispositivo final que será la fuente o destino de la comunicación de datos. Estas estaciones finales transmiten señales a otras estaciones a través de DCEs, como muestra la figura. Los ejemplos de DCEs incluyen los módems y CSU/DSUs. El camino de comunicación de extremo a extremo (end to end) entre dos DTEs se conforma de 3 segmentos: DTE-DCE, DCE-DCE y DCEDTE; se deben administrar las facilidades de cable y los elementos de configuración para cada segmento.

2.3. Cableado y señalización del módem Para comunicarse con los DTEs remotos, un dispositivo DTE (origen) debe comunicarse con un dispositivo DCE conectado directamente. Por ejemplo, la interfaz WAN de un router (DTE) normalmente se conecta directamente a un CSU/DSU (DCE) para que el router pueda acceder a un loop local digital. El CSU/DSU proporciona funciones de loopback (retroalimentación) y diagnóstico, y “traduce” entre el método de señalización del router y el método de señalización del loop local del carrier. Diferentes estándares definen la señalización entre un DTE y un DCE sobre un cable serial directamente conectado, algunos de los cuales se listan en la figura. El estándar a usar depende del tipo de DTE, la funcionalidad del DCE, y el tipo de conexión obtenida del proveedor de servicios. Algunos de los estándares de señalización DTE-DCE, que con más probabilidad encontrará cuando se conecten routers a las líneas de telecomunicaciones son: * RS-232 (oficialmente EIA/TIA-232-C). * V.35. * HSSI (Interfaz Serial de Alta Velocidad). Los módems seriales asíncronos están conectados a las estaciones finales y a los routers (ver las figuras) usando EIA/TIA-232. EIA/TIA-232 es la interfaz asíncrona más usada para comunicaciones de datos analógicas. Si se conecta un router a un loop local digital usando una CSU/DSU sobre una línea arrendada, es probable que se use V.35 o HSSI. El estándar V.35 es apropiado para líneas leased T1/E1, mientras que los 52 Mbps de throughput del HSSI lo hacen insustituible para líneas T3/E3.

2.4. La norma EIA/TIA-232

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 1 2 21 12 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

2.

3.

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

El estándar EIA/TIA-232 se emitió en 1962 como RS-232 (RS especifica “estándar requerido”, Requested Standard), y se revisó en 1969 como RS-232-C. Esta norma de señalización fue adoptada por EIA/TIA, y ahora es oficialmente conocida como EIA/TIA-232-C. La norma EIA/TIA-232 especifica un cable con un conector de 25-pines (DB-25). Sin embargo, solo se usan ocho pines del DB-25 por conectar un DTE a un DCE. Muchos cables RS-232 usan un conector DB-9 o un conector RJ-11/RJ-45 en lugar del DB-25. La figura muestra los pines del EIA/TIA-232 y sus definiciones. También se muestra gráficamente, mas adelante, como se comunican el DTE (ej. un router) y el DCE (ej. módem). Notar que los pines usados y la dirección de la señal identifican el emisor y el receptor. Los ocho pines que se usan en la señalización DTEDCE pueden agruparse en tres categorías de acuerdo a su funcionalidad: 1. Grupo de transferencia de datos: RS-232 usa los pines 2, 3, y 7 para transferencia de datos. Al pin 2 (TxD) lo usa el DTE para transmitir datos al DCE, el pin 3 (RxD) lo usa el DCE (el módem) para transmitir datos al DTE. El pin 7 provee a ambos dispositivos de la referencia a tierra para mediciones de voltaje. Grupo de control de flujo de hardware: los pines 4 y 5 se usan para controlar el flujo de señal entre el DTE y el DCE. El pin 4 (RTS) es controlado por el DTE. Cuando el DTE eleva el voltaje en el pin 4 (RTS), está emitiendo un Request To Send (pedido para enviar). El DTE está diciéndole al DCE que está listo para enviar datos. Una vez que el módem establece la llamada, el DCE levanta el voltaje en el pin 5 (CTS), el cual le dice al DTE que está Clear To Send (libre para enviar) y que puede empezar a transferir datos en el pin 2 (TxD). El módem puede también bajar el voltaje en el pin 5 (CTS) para señalar que su espacio de buffer está lleno. Grupo de control de módem: tanto el DTE como el DCE usan los pines 6, 8, y 20 para iniciar, terminar, y supervisar el estado de la conexión. El pin 6 (DSR) y el pin 20 (DTR) controlan cómo opera el módem. Cuando se enciende el módem, el voltaje sobre el pin DSR se eleva, informando a la computadora conectada que el DCE está listo para usarse (es decir, Data Set Ready). Igualmente, el DTE eleva el voltaje en el pin 20 (DTR) para alertar al DCE que el DTE esta conectado y disponible para recibir datos (es decir, Data Terminal Ready). Normalmente, el DTE eleva el voltaje en el pin DTR en el encendido, pero en algunos casos el voltaje del pin DTR se controla por software. Al pin 8 (CD) lo controla el DCE. El módem eleva el voltaje en este pin para indicar que se estableció una señal portadora aceptable con un DCE remoto (es decir, Carrier Detect). En otras palabras, el pin CD le dice al DTE que se estableció una conexión DCE-a-DCE. La figura muestra distintos tipo de conexiones EIA/TIA.

2.5. Terminación de comunicación DTE Un DTE, como una computadora o un router, puede terminar la conexión dropeando (cortando la sesión de comunicación) la señal DTR. Al cortar esta señal, el router (DTE) comunica que ya no esta conectado ni disponible para recibir datos; el módem (DCE) debe terminar su conexión con el módem remoto y volver a su seteo base. Al usar un módem con un router, se lo puede configurar manualmente para que interprete la pérdida de señal DTR como un evento de fin de llamada. En algunos módems, la configuración predefinida puede funcionar apropiadamente, pero en otros, habrá que programarlo para que responda a la pérdida de DTR. Si un módem remoto pierde la señal CD debido a que el DTE remoto finalizo la transmisión, el módem local debe alertar al router local (DTE) que la sesión terminó. Por defecto, la mayoría de los módems entiende que T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 1 3 21 13 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

un corte en la señal CD indica que la llamada será terminada. Sin embargo, se puede tener que configurar el módem a mano para reaccionar apropiadamente ante la pérdida de la señal CD. Cuando el módem no está configurado apropiadamente, pueden aparecer los siguientes síntomas: • El módem no cuelga (hang up) cuando se sale de la sesión. Esto significa que el DTR no termina o no se reconoce, por lo que el módem no entiende que debe romper la conexión. • Se termina en una sesión diferente, por lo que la señal CD no se termina o no es reconocida. Esto puede pasar cuando un llamado A termina su sesión dial-up y el módem no pasa el verdadero estado del CD al DTE. El router (DTE) no sabe que el llamado A terminó su sesión, asi que mantiene la línea para dicho llamado A. Cuando un nuevo llamado B, entra a través de la misma línea (interfaz), el router continúa con la sesión anterior comenzada por el llamado A en lugar de empezar una nueva. Por consiguiente, la llamada B termina la sesión de A sin tener que autenticar. Es muy importante pasar el verdadero estado de la señal CD al DTE, para que el router termine las sesiones cuando las llamadas se cuelgan.

33.. C O M P O N E N T E D E C A B L E A D O D E M Ó D E M CO OM MP PO ON NE EN NT TE ESSS D DE EC CA AB BL LE EA AD DO OD DE EM MÓ ÓD DE EM M Saber qué tipos de cable, adaptadores, e interfaces se deben usar para conectar los módems al DTE dependerá del tipo específico y modelo de equipo que se tenga. Para seleccionar los cables y adaptadores apropiados, usted debe estar familiarizado con las condiciones siguientes: • Cable straight-through: si se sostiene los dos extremos de un cable RJ-45 lado a lado, se verán ocho tiras coloreadas, o pines, en cada extremo. Si el orden de los pines coloreados es el mismo en cada extremo, entonces el cable es recto (straight). • Cable rollover: si el orden de los colores está invertido en cada extremo, entonces el cable es invertido (rolled). Un ejemplo de cable rollover es el cable usado para conectar la computadora al puerto de consola de un router. • Adaptador de terminal DB-9: adaptador terminal DTE usado para conectarse a un puerto serial de PC de 9 pines o a un puerto de consola de 9 pines sobre un router. • Adaptador de terminal DB-25: adaptador terminal DTE (raramente usado) que se conecta al puerto serial de 25 pines de una PC o al puerto de consola de 25 pines sobre un router. • Adaptador de módem DB-25: también llamado adaptador de módem DCE, se usa para conectarse a un módem. Este adaptador está etiquetado MODEM y se usa para conectar un módem a un puerto AUX (auxiliar). Como regla, los módems externos se construyen con un puerto DB-25 hembra (DCE) para conexión a un dispositivo controlador como una PC o un router. Las siguientes tablas incluyen información sobre cableado requerido y tipos de puertos físicos de routers al que puede conectarse un módem. No se pueden mezclar y hacer coincidir estos componentes al azar. Sólo trabajarán las combinaciones mostradas en las tablas. Puerto del router DB-25 DTE

Donde se encuentran

Cableado requerido

AUX DB-25 macho en routers.

DB-25 DCE

Puerto de consola DB-25 en routers.

DB-60

Interfaces Sync/Async de routers.

RJ-45

Puertos AUX y CON de routers.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

Cable RS-232 straight through DB-25F – DB-25M. Cable RS-232 módem nulo DB-25M – DB25M cable RS232. Cable invertido RJ-45/RJ45 con adaptadores CAB-25AS-MMOD en ambos extremos. Cable CAB-232MT de Cisco. Cable DB-60 del lado del router y DB-25 del lado del módem. Cable invertido RJ-45/RJ-45 con adaptador marcado MODEM (CAB-25AS-MMOD).

2 2 1 4 21 14 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

Puerto del router

Donde se encuentran

Cableado requerido Partes CAB-OCTAL-ASYNC y CAB-OCTALMODEMz.

68 pines

Algunos routers.

Smart Serial

Tarjetas de interfaz WAN (WIC) Parte CAB-SS-232MT. en algunos routers.

Puerto AUX/Consola

Cable RJ-45 Invertido (rolled)

Estilo DB25 DTE

Se conecta a: Terminal

AUX/Consola AUX/Consola

Recto (straight) Invertido (rolled)

DCE no-módem DCE modem

Terminal Modem

El pinout (disposición de los pines) específico a ser usado con una interfaz RJ-45 para EIA-232 no está definida por cualquier estándar. Cisco define el RJ-45 como un pinout DTE (ver figura anterior). 3.1.1. Conectar un módem a un router La conexión de un módem a un router dependerá del modelo específico del router y del módem que se usen. Los módems externos pueden conectarse a diferentes tipos de puertos de routers: 1. Puerto AUX (auxiliar): no todos los modelos de routers tienen un puerto AUX, la mayoría si. El puerto AUX se usa para conectar un módem a un router para que pueda ser administrado en forma remota fuerade-banda o para que el router pueda enviar y recibir datos en-banda (DDR). La mayoría de los puertos AUX son RJ-45, aunque los modelos de routers más viejos pueden usar DB-9 o DB-25. Para conectar un módem al puerto AUX de un router por lo gral. se usa un cable rollover y un adaptador módem DCE macho RJ-45 a DB-25. El adaptador DCE se conecta a la interfaz EIA/TIA 232 del módem y el cable rollover se conecta al adaptador. El otro extremo del cable rollover se acopla o enchufa (plug) directamente al puerto AUX del router (si el puerto AUX no es RJ-45, entonces se usa el adaptador hembra DTE apropiado). 2. Puerto de consola: todas los routers tienen puerto de consola, pero los módems raramente se conectan a ellos. Esto se debe a que el puerto de consola no soporta control de flujo por hardware. Los pines RTS y CTS no son soportados como en el puerto AUX. El principal trabajo del puerto de consola es permitir que una terminal conectada serialmente administre el router. Para conectar una PC al puerto de consola de un router, se usa un cable rollover y un adaptador DB-9 o DB-25 en uno o en ambos extremos de conexión, si es necesario. Si se quiere, se puede conectar un módem al puerto de consola usando un cable rollover y un adaptador DCE RJ-45 a DB-25 macho, el cual se conecta al módem. Aun cuando no se soporta control de flujo se debe limitar la velocidad del módem a 9600 bps. También, se debe configurar el puerto de consola para que requiera una contraseña de inicio de sesión (login password), pues esto no esta definido por defecto. 3. Interfaz serie e Interfaz asíncrona (en algunos modelos): no todos los routers tienen interfaz serial, la mayoría sí. Entre los routers que la tienen, algunos soportan comunicaciones asíncronas de baja velocidad. Para conectar un módem a la interfaz serie de un router, se necesitará usar un cable EIA/TIA-232 diseñado específicamente para el tipo de interfaz serie del router (Smart Serial, DB-60, etc.). 3.1.2. Conectar un módem a un servidor de acceso - Líneas Async Cualquier router que este configurado para emitir y recibir llamadas con el propósito de enrutar datos puede llamarse un servidor de acceso (access server). En término de nombres de productos, Cisco aplica el término “access server” solo a los dispositivos construidos especialmente como puntos de concentración para llamadas entrantes (dial-in) y salientes (dial-out). Algunos de estos dispositivos pueden ofrecer cientos de interfaces asíncronas. El cableado de un servidor de acceso con puertos de alta densidad puede ser complejo. Para simplificar el cableado, se agrupan múltiples interfaces asíncronas en un solo puerto físico del servidor. Por ejemplo en un access server (router) con dos puertos de 68 pines para conexiones asíncronas, pueden conectarse un conjunto de hasta ocho módems, u otros dispositivos, a un solo puerto de 68 pines a través de un cable octal de salida (un conector de 68 pines con ocho cables físicos). Esta interfaz octal es muy común y se usa para conectar módems, o incluso puertos de consola de otros routers (para administración). 3.1.3. Conectar un módem a una PC La PC de hoy trae generalmente un módem interno, ya sea incorporado a la placa madre de la PC (onboard) o instalada como una placa de expansión. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 1 5 21 15 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

Si se compra un módem externo, se le deberá proporcionar un cable EIA/TIA-232 diseñado para conectar el módem a la PC. También se puede conectar un módem externo con un cable rollover y un adaptador DCE macho RJ-45 a DB-25 que se conecta al módem. Un extremo del cable rollover se conecta al adaptador DB-25 del modem; el otro extremo se conecta a un puerto serie de 9 o 25 pines PC (también llamado puerto COM). Si la PC no tiene un jack RJ-45, se tendrá que usar el adaptador hembra DB-9 o DB-25 para conectarse al cable rollover. 3.1.4. Conectar un DTE directamente a otro DTE - Módem nulo Cuando dos dispositivos DTEs (por ejemplo, un access server y una workstation) están cercanos tiene sentido querer conectarlos directamente sin necesidad de hacerlo a través de una red telefónica y dos módems. En este caso no funciona un cable EIA/TIA-232 común porque ambos dispositivos DTEs transmiten sobre el mismo pin 2 (TxD), y los dos esperan la recepción en el pin 3 (RxD). En este caso se requiere de un cable especial llamado cable de módem nulo, para la conexión DTE a DTE. Los cables módems nulos DB-25 entrelazan los pines 2, 3, y otros pines correspondientes para que los dos dispositivos DTEs se puedan comunicar, tal como lo muestra la figura. Algunos dispositivos pueden ser configurados para que operen como un DTE o un DCE. La configuración normal de un dispositivo DCE establece que este recibe datos sobre el pin 2 y transmite datos sobre el pin 3. Por ejemplo, muchas impresoras seriales se configuran como dispositivos DCE para que puedan conectarse directamente a un DTE (por ejemplo, una PC o un terminal server) a través de un cable EIA/TIA-232 normal, eliminando la necesidad de uso de un cable de módem nulo.

44.. EESSSTTTÁÁÁNNNDDDAAARRREEESSS DDDEEEM M O D U L A C Ó N D E M Ó D E M MO OD DU UL LA AC CIIIÓ ÓN ND DE EM MÓ ÓD DE EM M La función de un módem es convertir las señales digitales (DTE a DCE) en señales analógicas (DCE a DCE), y viceversa. Las técnicas de la modulación determinan cómo los módems convierten los datos digitales en señales analógicas. Una forma de onda analógica puede modularse en términos de su amplitud, su frecuencia y su fase (posición de las ondas seno), o por una combinación de estas cualidades. La figura lista diversos estándares de modulación desarrollados por manufactureros de modem y organizaciones de estándares incluyendo la ITU-T (Unión Internacional de Telecomunicaciones, sector de estandarización de telecomunicaciones, anteriormente llamado CCITT). La “serie de recomendaciones V”, de la ITU-T, son las normas de modulación mas usadas y disfrutan de la aceptación internacional. A pesar de estas normas internacionales, las técnicas propietarias no son raras. Así, la interoperabilidad entre diferentes tipos de módems no siempre se logra fácilmente. Las normas de modulación pasan por lo menos una revisión. Cuando se introduce una segunda versión de la norma, se agrega el sufijo “bis” a su nombre. Bis significa dos. Así, la segunda versión de la norma V.32 se llama V.32bis. El sufijo “ter” se aplica al tercer release de una modulación normal; ter significa tres. Antes de la Serie de Recomendaciones V, AT&T estableció sus propios estándares, Bell 103 y Bell 212A. Estas normas soportaron velocidades de transferencia bajas, 300 bps. Alterando la amplitud (altura), frecuencia, y fase (posición) de las formas de onda analógicas, la Serie de Recomendaciones V mejoraron incrementalmente las velocidades de transferencia. La figura lista los estándares ITU-T más comunes asi como las velocidades de transferencia máximas. En general, cuando los módems inicialmente se conectan, se “saludan” (handshake) y acuerdan la velocidad de transferencia estándar más alta que puedan soportar. Los módems pueden lograr rendimientos (throughputs) que van desde los 300 bps a los 56000 bps (56 Kbps), dependiendo del estándar de modulación soportado. Para lograr la máxima velocidad soportada la mayoría de los módems adaptará su tasa de transmisión de acuerdo a diversos factores, incluyendo la mejor velocidad soportada por el módem remoto y la mejor velocidad soportada por el loop local. Para lograr 56 Kbps, ambos módems, local y remoto, deben soportar el mismo estándar de transmisión de 56 Kbps (por ejemplo, X2 a X2, K56Flex a K56Flex, V.90 a V.90). Además, la conversión de la señal de digital a analógico y a digital debe hacerse una sola vez. Por consiguiente, la PSTN debe ser completamente digital, y un T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 1 6 21 16 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

extremo de la conexión (normalmente el ISP) debe tener un loop local digital a la oficina central. Aun cuando se reúnan estos requisitos, los módems de 56 Kbps no pueden exceder los 53.3 Kbps por las reglas de la FCC que ponen un límite a la amplitud (fuerza de la señal). El access server (servidor de acceso) está desprevenido de las modulaciones debido a que solo está envuelto, en forma directa, con la comunicación DTE-DCE. Sin embargo, la velocidad access server-módem debe relacionarse con la velocidad de modulación y la tasa de compresión para obtener una óptima performance de extremo a extremo. Estándar de Modulación V.22 V.22 bis V.32 V.32 bis V.34 V.34 bis V.90

Tasa de Transferencia Máxima 1200 bps 2400 bps 9600 bps 14.400 bps 28.800 bps 33.600 bps 56.000 bps

4.1.1. Control de errores y compresión de datos Los métodos de detección y corrección de errores se desarrollaron para asegurar la integridad de los datos a cualquier velocidad. Juntos con las normas ITU-T, se incluyen otros métodos de amplio uso como el MNP (Microcom Networking Protocolo, Protocolo de Red de Microcom) y el LAPM (Procedimiento de Acceso al Enlace para Modems, Link Access Procedure fot Módems). Los algoritmos de compresión requieren de algoritmos de corrección de errores. Los algoritmos de compresión más comunes incluyen V.42bis y MNP 5. Estos dos tipos de compresión operan en conjunto con las normas de corrección de error, LAPM y MNP 4. Qué tan bien trabajen los algoritmos de compresión de módem dependerá del tipo de archivos que se transfieran. En general, se podrá lograr el doble de velocidad para transferir un archivo de texto normal. El decremento de un 50 por ciento indica que se puede doblar el rendimiento de la línea para que un módem de 9600 bps pueda transmitir eficazmente a 19200 bps. Sin embargo, los módems V.42bis y MNP 5 no pueden comprimir un archivo que ya está comprimido por software. En algunos casos, el módem intentará comprimir un archivo precomprimido y luego expandirlo, reduciendo la transferencia de archivo. Aun cuando exista software de aplicación que soporten compresión de datos, es mucho mejor dejar que el módem comprima los datos para transmisión. Los algoritmos de compresión de datos que corren en el módem (por hardware) son más rápidos que aquellos realizados por el software del host. Si dos módems acuerdan usar compresión V.42bis, se necesita inhabilitar la capacidad de compresión de la aplicación. Esto significa transferir los datos a una mayor velocidad sobre la interfaz entre el DTE y el DCE. Se presenta a menudo confusión entre la velocidad de modulación DCE-DCE y la velocidad DTEDCE. La conexión DCE-DCE representa cuan rápido se comunican los módems entre sí a través de la red telefónica (56 Kbps o menos). La conexión DTE-DCE representa cuan rápido se comunica la computadora con el módem atachado. Para obtener un total beneficio de la compresión en una situación ideal, el DTE (la PC) debe enviar al DCE (el módem) pruebas de velocidades que macheen la tasa de compresión potencial (ver figuras). El DTE deberá setear el reloj del módem a su tasa de transferencia más rápida para aprovechar la compresión (normalmente 115,200 Kbps). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 1 7 21 17 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

Un módem inadecuadamente configurado podría ajustar automáticamente las velocidades DTE-DCE para machear las velocidades DCE-DCE establecidas. A esto se llama a menudo desigualdad de velocidades (speed mismatch). Para evitar la desigualdad de velocidades, se debe trabar la velocidad DTE-DCE para que permanezca constante, como se configuró originalmente. La figura muestra las velocidades máximas teóricas que son posibles con los estándares de modulación de módems. También se muestra las velocidades posibles si se usa la compresión V.42bis con los mismos estándares. 4.1.2. Configurar Interfaces Asíncronas y Líneas Terminales 4.1.2.1. Conectarse al módem - Telnet inverso Una vez conectado físicamente el módem al servidor de acceso o router, se debe configurar el software del módem. Los módems tienen una configuración de software predefinida que es seteada por el vendedor, en la fábrica. En la mayoría de los casos, se necesitará modificar esta configuración para satisfacer necesidades propias. Por ejemplo, se puede configurar el módem para responder llamadas en un segundo anillo o bloquear su velocidad, etc., Algunos módems pueden configurarse usando un panel sobre la unidad; sin embargo, la mayoría de los módems no tienen paneles de configuración. Se debe acceder al software del módem vía otro dispositivo como un servidor de acceso. Al usar un access server, se podrá configurar el módem manualmente ó automáticamente usando un script. Las configuraciones manuales se realizan usando una técnica llamada Telnet inverso o Telnet reverso (reverse Telnet). Los access server soportan líneas de conexión asíncronas entrantes y salientes. Como muestra la figura, las conexiones entrantes son conexiones hacia adelante (forward connections). Las conexiones salientes son conexiones inversas o reversas (reverse connections). Un usuario terminal remoto que disca a un servidor de acceso a través de una línea asíncrona hace una conexión hacia adelante. Un usuario que se conecta a través de un servidor de acceso a un módem atachado hace una conexión inversa. Esta conexión inversa, llamada Telnet inverso, puede usarse para configurar módems. Se pueden hacer conexiones Telnet inversas a varios tipos de dispositivos atachados, como módems, routers, y terminales. Como su nombre lo indica, las sesiones Telnet inversas se establecen usando el protocolo Telnet. El daemons Telnet (demonio) (término Unix que se refiere a un proceso o servicio que opera en background) “escucha” o sondea el puerto 23 TCP (puerto de Telnet) para pedidos de conexión. Si quiere comunicarse y configurar un módem atachado a un router, se debe hacer Telnet a la dirección IP del router (no al puerto TCP por defecto, el 23); o hacer Telnet a un puerto TCP diferente (al número de línea asignado a la interfase a la cual el módem se conecta). Cuando un módem se conecta a la interfase de un router, el router mapea esta interfase a un número de línea (número de puerto). El número de línea se usa cuando se hace Telnet inverso. Asi para conectarse a un modem atachado a una línea síncrona 7, se deberá hacer Telnet a la dirección IP sobre el puerto 2007 (no 23). Al usar Telnet inverso, se puede usar el comando Telnet para conectarse a cualquier dirección IP configurada en el router, siempre y cuando la interfase asociada con la dirección IP esté levantada (up). En general se puede configurar el access server con una dirección IP de loopback. Una interfase loopback es una interfase lógica, no susceptible a fallas físicas. Asi, si se asigna el loopback 0 a la dirección 10.10.10.1, esta podrá usarse para todas las sesiones Telnet inversas. 4.1.3. Tipos de líneas y numeración • • •

En general, los dispositivos (routers, access server, switches, etc) tienen cuatro tipos de líneas: CON (línea de Consola): típicamente usado para hacer login al router con el fin de configurarlo; a esta línea también se la llama CTY. AUX (línea Auxiliar): puerto DTE EIA/TIA-232 usado como puerto asíncrono de backup (TTY); se puede conectar un módem al puerto AUX. TTY (línea Asíncrona): igual que una interfaz asíncrona; usada típicamente para sesiones discadas remotas con protocolos como SLIP y PPP. Una interfaz serial configurada como asíncrona es una conexión TTY. El numero de una línea TTY depende de la configuración física (numero y disposición de las interfaces en el sistema) de un router en particular o access server. Se debe determinar el número de línea de una interfase asíncrona para realizar un Telnet inverso a ella.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 1 8 21 18 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII •

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

VTY (línea de Terminal Virtual): usada para Telnet entrante, transporte de área local (LAT), paquetes PAD X.25, y conexiones de translación de protocolo en puertos síncronos (por ejemplo, Ethernet e interfaces seriales) sobre el router.

Los diferentes modelos de routers numeran los tipos de líneas de diferentes maneras. La tabla muestra las reglas de numeración de Cisco, donde n representa la primer línea física después de la línea de consola, y m se refiere al numero de línea VTY. Por ejemplo, la línea VTY 4 corresponde a la línea 14 en un router con ocho puertos TTY. Debido a que la línea 0 es para la consola, las líneas 1 a 8 son líneas TTY, la línea 9 es para el puerto auxiliar, y las líneas 10 a 14 son para las VTY de 0 a 4. Línea o Puerto Físico CON TTY n AUX VTY n

Identificación Line = 0 Line = n Line = ultima TTY + 1 Line = ultima TTY + 2 + m

Las líneas TTY corresponden a interfaces asíncronas sobre la base uno-a-uno, y las líneas VTY son líneas virtuales que se asignan dinámicamente a interfaces síncronas. Las líneas VTY aceptan sesiones Telnet entrantes. Las conexiones Telnet inversas a una línea individual pueden usarse para comunicarse y configurar un dispositivo adjunto. Para conectarse a una línea individual, el host o terminal remota debe especificar un puerto TCP particular sobre el servidor de acceso. Para Telnet inverso, este puerto es el 2000 más el número de la línea. Por ejemplo: telnet 10.10.10.1 2007 Este comando indica una conexión Telnet a la línea 7 (2000 + 7). Si se quiere hacer Telnet inverso a un módem en la línea 14, se usaría el puerto TCP 2014. Los puertos en el rango de 2000 a 2999 se reservan para sesiones Telnet inversas a líneas individuales. Rangos adicionales están reservados para grupos rotatorios y otros servicios, como TCP raw y XRemote. 4.1.4. Configuración de Telnet inverso Para que el Telnet reverso pueda trabajar se debe configurar la linea del access server con comandos que habiliten el “protocolo de entrada” y la “entrada/salida (in/out)” del módem. Estos comandos son propios del sistema operativo del router (por ejemplo el IOS de Cisco) y permiten, en este caso, configurar que protocolo o protocolos permitirán conexiones entrantes (LAT, MOP, PAD, Rlogin, Telnet, etc). Cada protocolo puede ser especificado en forma individual o bien habilitar a todos en forma general. Si no se especifica Telnet o “todos” se recibirá un mensaje de “conexión rechazada” cuando se intente establecer una conexión Telnet reversa. Los comandos de “in/out” del módem se requieren para permitir conexiones entrantes/salientes sobre una línea dada.

55.. IINNNTTTEEERRRFFFAAACCCEEESSS AAASSSÍÍÍNNNCCCRRRO O N A Y C O N F G U R A C Ó N D E L N E A ON NA ASSS Y YC CO ON NF FIIIG GU UR RA AC CIIIÓ ÓN ND DE EL LÍÍÍN NE EA A Los servidores de acceso tienen líneas terminales (TTYs), qué los diferencian de otros routers. Los módems se conectan a estas líneas terminales. El sistema operativo asigna una interfaz lógica a cada línea terminal física, o grupo de líneas terminales. Las interfaces asíncronas se corresponden con las líneas terminales físicas (TTY). Esto significa que, para una conexión que usa la TTY 8, pueden aplicarse comandos de configuración a la interfaz lógica (la interfaz async 8) y a la línea física (línea 8). Los comandos para las interfaces asíncronas permiten configurar parámetros específicos del protocolo para las interfaces asíncronas. Los comandos de configuración de línea permiten configurar los aspectos físicos del puerto de la línea. Las interfaces asíncronas tienen dos componentes: la interfaz en si misma, la cual se configura para cumplir con las funciones lógicas (de capas superiores), y la línea, la cual se configura para cumplir con las características y funciones de la capa física. Puede pensarse que los comandos de interfaz son para la configuración lógica, mientras que los comandos de línea configuran características físicas de la configuración. Para simplificar la configuración podrían agruparse interfaces asíncronas en una sola interfaz lógica (se tendría una sola interfase asíncrona de grupo). 5.1.1. Configuración básica de línea terminal Si se quiere configurar la línea terminal (TTY) de un servidor de acceso para comunicarse asincrónicamente con un modem, los comandos más comunes utilizados para configurar la línea TTY, permiten setear los siguientes parámetros: • Inicio de sesión (login): habilita el acceso del usuario, el cual dispondrá de una password. • Velocidad de la línea: setea la velocidad de transmisión (en ambos sentidos) entre el módem y el access server. Según el hardware del router, la velocidad de las líneas TTY varían entre los 50 y 115200 bps, por T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 1 9 21 19 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

• • •

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

defecto es 9600 bps. Por lo gral. se fija el valor a la velocidad máxima soportada por ambos dispositivos. Se debe también bloquear la velocidad del módem para que machee la configuración de línea del router. Control de flujo en la línea: setea el tipo de control de flujo usado sobre la linea. Las opciones son software, hardware y ninguna. Número de bits de parada: setea el numero de bits de parada (1,1.5, o 2). Por defecto se setea en 2. El módem y el router deben usar el mismo numero de bits de parada. Reducir el numero de bits de parada de 2 a 1 mejorará el rendimiento al reducir el “overhead” del entramado asíncrono. Módem inout: habilita al módem para iniciar llamadas salientes o aceptar llamadas entrantes.

Es esencial que las líneas TTY se configuren antes de configurar/inicializar el modem, caso contrario no se podrá hacer Telnet reverso al módem. Es más, si se cambia la velocidad de la línea después que el módem se inicializo, este no se comunicará con el router hasta que se establezca una nueva velocidad. 5.1.2. Configuración del puerto auxiliar básico El puerto AUX se configura como una interfaz serial asíncrona en aquellos routers que no disponen de líneas terminales incorporadas. Dependiendo del hardware, un puerto AUX no puede desempeñarse de la misma manera que una linea TTY incorporada. La mayoría de los puertos AUX se limitan a 38400 bps, aunque hay routers que soportan velocidades de 115200 bps. Es más, los puertos AUX no soportan facilidades como buffering DMA y conmutación IP rápida (fast switching). Para configurar el puerto AUX como una interfaz asíncrona, se lo debe configurar con comandos de línea, como cualquier TTY. 5.1.3. Configuración del puerto de consola para usar un módem Existen varias ventajas de conectar un módem al puerto de consola de un router en lugar del puerto AUX; sin embargo, las desventajas son significativas. Las ventajas de conectar un módem al puerto de consola son: * Las contraseñas pueden recuperarse remotamente. * Es un método conveniente para conectar un segundo módem al router sin puertos async. Esto es beneficioso si se necesita acceder al router para configuración o administración mientras se deja el puerto AUX libre y disponible para DDR. * Algunos routers no tienen puertos AUX. Si se quiere conectar un módem al router y dejar los puertos seriales libres para otras conexiones, la consola es la única opción.

1.

2.

3.

4. 5.

6.

Las desventajas de conectar un módem al puerto de consola son: El puerto de consola no soporta control de módem EIA/TIA-232 (DSR/DCD, (Data Set Ready/Data Carrier Detect), y DTR)). Asimismo, cuando una sesión termina (logout), la conexión del módem no termina (drop) automáticamente y el usuario necesita desconectar la sesión manualmente. Si la conexión del módem termina, la sesión no se reinicia automáticamente. Esto puede presentar un agujero de seguridad, dado que llamadas subsecuentes a ese módem permitirán el acceso a la consola sin entrar una contraseña. El agujero puede hacerse más pequeño poniendo un timeout (exceso de tiempo) en la línea. Sin embargo, si la seguridad es importante, se recomienda usar un módem que pueda proveer un pedido de contraseña. A diferencia de otras líneas async, el puerto de consola no soporta control de flujo por hardware (CTS/RTS). Se recomienda no usar ningún control de flujo, pero si se aparecen desbordamientos de datos, puede habilitarse, sin embargo, control de flujo por software (XON/XOFF). El puerto de consola, en la mayoría de los sistemas, soporta velocidades de hasta 9600 bps. El puerto de consola no tiene capacidad para Telnet inverso. Si el módem pierde su string de inicialización, el único remedio es desconectar físicamente el módem del router y atacharlo a otro dispositivo (como un puerto AUX o una PC) para reinicializarlo. Si un módem en un puerto AUX pierde su string de inicialización, se puede usar remotamente Telnet inverso para corregir el problema. Un puerto de consola no se puede usar para DDR; no tiene ninguna interfaz async asociada.

5.1.4. Configurar una interfaz serial para usar un módem Dependiendo del hardware del router, una interfaz serial puede configurarse como una línea asíncrona de baja velocidad. Para configurar una interfaz serial como asíncrona, se debe usar el comando del sistema operativo correspondiente sobre la interfaz. Si el router no reconoce este comando, entonces no soporta esta configuración. 5.1.5. Configuración de interfaces asíncronas

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 2 0 22 20 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

Como se dijo antes, los módems se atachan a líneas asíncronas (TTYs y AUX), que a su vez se mapean a interfaces asíncronas (interfase async 1, interfase async 2, etc.). Las interfaces asíncronas reciben configuraciones lógicas (encapsulaciones de Capa 2, direcciones de Capa 3, etc), que le permiten al servidor de acceso enrutar tráfico sobre líneas terminales. Las interfaces asíncronas, de los servidores de acceso, pueden configurarse para proporcionar lo siguiente: * Soporte de protocolos de red como IP, IPX, o AppleTalk. * Soporte de encapsulaciones como PPP. * Opciones de direccionamiento IP cliente (predeterminado o dinámico). * Opciones de direccionamiento de red IPX. * Autenticación PPP. Si no se configura la línea correspondiente a la interfaz asíncrona, solo se podrá usar la línea para discar al router y establecer una sesión de administración (EXEC). Por lo gral., sin embargo, las líneas async se usan para proveer acceso a los recursos de red a los usuarios remotos, lo cual indica que el access server debe poder rutear tráfico vía la interfaz async. La figura muestra algunos comandos de uso común usados para configurar interfaces asíncronas para PPP e IP, así como comandos para soportar DDR.

66.. C O N F G U R A C Ó N D E M O D E M CO ON NF FIIIG GU UR RA AC CIIIÓ ÓN ND DE EM MO OD DE EM M 6.1. Métodos de configuración de módem Anteriormente en este capítulo, se especifico como acceder a un módem para configuración manual usando Telnet inverso. Una vez establecida una sesión Telnet inversa al módem, se pueden enviar comandos especializados al módem, llamados “attention (AT) commands”, para configurarlo. La figura muestra que los módems también pueden configurarse automáticamente a través de un router atachado. Se puede configurar al router para que descubra y configure automáticamente al módem. Alternativamente, se puede especificar un string precargado de comandos de configuración de módem que el router podrá enviar para configurar el módem. Estos comandos de configuración precargados se guardan en una base de datos como parte del software del router. Hay tres métodos de configuración de módem: • Manual (típicamente vía Telnet inverso). • Descubrimiento automático (automatic discovery). Llamado autodiscovery (autodescubrimiento). • Configuración automática mediante el uso de una base de datos. Llamado autoconfigure (autoconfiguración). 6.1.2. Configuración manual de módems con comandos estándar Para configurar manualmente un módem, se podría usar Telnet inverso y teclear en el módem comandos AT. Es muy improbable que la configuración predefinida (por default) de un módem satisfaga sus necesidades. Por lo gral. se deberá configurar el módem para hacer lo siguiente: * Responder una llamada. * Realizar control de flujo por hardware. * Bloquear la velocidad del DTE para asegurarse de que el módem se comunicará siempre con el servidor de acceso a la velocidad especificada. Como ejemplo, cuando se use una interfase async, se bloqueará la velocidad a su máximo teórico de 115.2 Kbps. * Colgar (hang up) cuando se sale de una sesión. * Permitir que la señal CD refleje en forma verídica el estado de la portadora. Desgraciadamente, los comandos AT usados para hacer éstas y otras configuraciones pueden variar entre los diferentes tipos de módems. Esencialmente, cada vendedor de módem tiene su propio set de comandos de

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 2 1 22 21 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

módem. Sin embargo, los comandos AT mostrados en la tabla son los más comúnmente usados por la mayoría de los vendedores. Comando AT%F ATS0=1

Descripción Carga el seteo por defecto de fábrica (solo lectura) Fija al módem para responder automáticamente todas las llamadas entrantes en el primer ring (se recomienda fijar en 2 en líneas con caller ID) AT&C1&D3 Activa el control del modem (CD y DTR) Fija el echo off (sin eco). El módem no repite el tecleo ATE0 Apaga la salida de audio externo del modem ATM0 Ignora el comando +++. Los caracteres +++ setean al módem en modo comando. ATS2=255 El comando ATS0=1 configura el módem para responder llamadas al primer ring. Notar que, debido a que la función de “identificación de llamada” (Caller ID) se activa en el segundo ring, los hackers atacan a aquellos módems que contestan en el primer ring; por lo que se recomienda elevar el numero de rings. Por consiguiente, se aconseja poner por lo menos ATS0=2, más aún si la línea tiene Caller ID. Cuando se trabaja con comandos AT es de notar el uso de caracteres como el ampersand (&), el porcentaje (%), y el dólar ($). Estos símbolos se usan para diferenciar los sets de comandos AT. La tabla lista algunos de estos juegos de comandos. Set de comandos AT Alfabético Caracter $ Caracter % Caracter & Paréntesis Asterisco Caracter @ Caracter # Caracter :

Ejemplo de comando AT Q0 habilita la salida de codigos de resultado $Bn fija la velocidad del puerto serial a n bps, por ejemplo $B 115200 %Bn fija la tasa de datos del puerto del módem, por ejemplo %B 33600 &D3 setea el módem a on-hook y reseta cuando detecta una transición de on a off del DTR )M1 autoajusta el nivel de corriente (power) de los modems celulares *I displaya el identificador del modem @E arroja un detalle de llamadas del módem #E0 habilita la secuencia de escape en una respuesta :Dn fija el discado manual

6.1.3. Configuración manual de módems con comandos no estándar Muchos comandos de módem no están estandarizados, y varían de un vendedor a otro. Las siguientes configuraciones de módem y comandos son esenciales para módems que están atachados a servidores acceso: • Control de flujo por hardware: usa señalización CTS y RTS. • Bloqueo de la velocidad del DTE: setea el puerto serial del módem a una velocidad de transferencia de datos fija. Bloquea la velocidad entre el módem y el dispositivo DTE previniendo negociar la velocidad hacia abajo durante la llamada inicial. • Corrección de errores: setea el control de errores. • Compresión: usa el mejor algoritmo de compresión que puede negociarse entre los dos módems comunicados. • Mostrar la configuración: muestra el seteo actual del módem. • Permitir ayuda: muestra todos los comandos AT para el módem específico. • Grabar la configuración: salva la configuración ingresada en la RAM no volátil (NVRAM) del módem. La tabla muestra ejemplos de comandos AT usados por los módems de tres vendedores. Para comandos de módem no estándar, se debe mirar el manual del vendedor que viene con el módem. Comando Control de flujo por hardware Bloqueo de la velocidad del DTE Corrección de errores Compresión Mostrar configuración Permitir ayuda Grabar configuración

Microcom AT\Q3 AT\J0 AT\N6 AT%C1 AT\S1 AT$H AT&W

Hayes AT&K3 AT&Q6 AT&Q5 AT&Q9 AT&V AT$H AT&W

US Robotics AT&H1&R2 AT&B1 AT&M4 AT&K1 ATI4 AT$ AT&W

6.1.4. Strings de inicialización de módem T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 2 2 22 22 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

Los strings (cadena de caracteres) de inicialización se usan para configurar el módem a un estado conocido. Ellos son una serie de parámetros de seteo que se envían al módem para configurarlo para interactuar con el servidor de acceso de una manera especificada. Se muestran algunos ejemplos de strings de inicialización de módem en la figura. Debido a que los comandos del módem varían entre los vendedores, siempre se debe referir al manual de usuario del vendedor para conseguir los comandos apropiados. 6.1.5. Configuración automática de módems En lugar de usar Telnet inverso para entrar a mano comandos AT, se puede preferir aprovechar la configuración automática del módem. Al usar configuración automática, el IOS del router puede emitir strings de inicialización automáticamente para la mayoría de los tipos de módems. Recordar que un string de inicialización de módem es una serie de parámetros de seteo que se envían a su módem para configurarlo para interactuar con el servidor de acceso de una manera especificada. Los strings de inicialización predefinidos se almacenan en la base de datos de capacidad de módems, o modemcap (módem capability database) que se detalla mas adelante en este capítulo. Hay tres propuestas para configuración automática del módem: 1. Usar módem autodiscovery: se configura al router para inicializar el módem ejecutando cada uno de los strings guardados en la base de datos de capacidad del módem hasta que uno parezca trabajar. Si bien la manera más fácil de configurar un módem es usando la facilidad del router de descubrimiento automático del modem, esta propuesta tiene desventajas sustanciales. Con autodiscovery, el router envía comandos de módem hasta que consigue una respuesta esperada. De las respuestas recibidas, el router intentará clasificar al módem como uno de los módems de su base de datos modemcap. Aunque esta propuesta es simple, debe evitarse en lo posible el módem autodiscovery por las siguientes razones: El router puede fallar en reconocer a un módem, aun cuando sea parte de la base de datos • modemcap. Si ninguno de los strings es el apropiado se deberá usar Telnet reverso. El router puede confundir a un modem (con otro), arrojando resultados inesperados. • El autodiscovery es más lento que la autoconfiguración. • En la práctica, se debe usar en lo posible la autoconfiguración, no autodiscovery. Al especificar exactamente que string de módem usar fuera de la base de datos modemcap, la autoconfiguración es más rápida y más predecible que el autodiscovery. 2. Usar autoconfiguración de modem: se configura al router para inicializar el módem especificando explícitamente uno de los distintos strings precargados en el modemcap. El camino preferido para configurar un módem atachado es usar autoconfiguración. La autoconfiguración requiere que se determine cuál de los strings del modemcap trabaja con el módem. Si ninguno de los strings incluidos trabaja, se puede crear un string propio y usar el rasgo de autoconfiguración. Al definir el string específico, se elimina el overhead y la asociación impredecible del autodiscovery. Con el modo de configuración automática cada vez que un módem se reinicia (resetea), se ejecuta un “script de charla” (chat script) que envía un string de comandos de configuración de módem (comandos AT) al módem. Este string de comandos de configuración se genera automáticamente siempre que el módem se enciende. 3. Usar autoconfiguración de módem después de editar la base de datos modemcap: configurar el router para inicializar el módem usando un string definido por el usuario y guardado en el modemcap. Se puede crear una nueva entrada a la base de datos o se puede usar una entrada existente como plantilla. 6.1.6. Base de datos de capacidad de módems La base de datos de capacidad de módem (modemcap) es una lista de módems con un conocido conjunto de comandos de configuración AT para setear los atributos para cada tipo de módem. Por ejemplo, muchos módems usan el string AT&F para reiniciar el módem a sus atributos de fábrica por defecto. Las entradas del modemcap del sistema quedan determinadas por el hardware y el software IOS en particular que esté instalado. El módem por defecto definido en el modemcap adopta valores para la mayoría de los atributos de módems más comunes, no contiene strings para todos los atributos porque estos varían ampliamente para los distintos tipos de módems, como bloqueo de velocidades, control de flujo por hardware, o tratamiento de la compresión y corrección de errores. El usuario puede crear entradas en el modemcap para agregar nuevos módems o extender la funcionalidad de un módem en la base de datos. No pueden editarse o borrarse strings de módem precargados incluidos en IOS. 6.1.7. Poner a punto la autoconfiguración del módem T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 2 3 22 23 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

Si ninguno de los strings del modemcap inicializa apropiadamente al módem, se lo debe configurar manualmente o añadir una entrada a la base de datos modemcap. Para configurar el módem a mano, se puede usar Telnet inverso para conectarse al módem y escribir comandos AT, como se explico antes. Alternativamente, se puede usar autoconfiguración para crear un string de módem en la base de datos modemcap. 6.1.8. Scripts de charla para líneas async Un chat script es un string de texto que incluye comandos que pueden enviarse a un dispositivo para realizar una tarea específica. Por ejemplo, un router puede usar un script de charla para enviar comandos AT a un módem, instruyéndolo para realizar una llamada. Debido a que los comandos de módem no son estándares, se deben escribir chat scripts personalizados para realizar ciertas tareas, incluyendo: • Instruir al módem para dial-out (discado saliente) (script de modem o módem-script). • Logonearse en un sistema remoto (script del sistema o system-script). Incluso después de inicializar al módem, el router tiene que pasar comandos al módem para instruirlo a discar o logonearse en un sistema remoto. La estructura de un chat-script es simple, aunque los chat-scripts actuales se ven más complejos. Los chat-scripts están escritos en la forma string esperado (expect-string), string enviado (send-string). El par esperarenviar define a ambos, al string que el sistema local espera ver del dispositivo remoto y la contestación que el sistema local deberá enviar. Note que los chat-script pueden también usarse para pasar información de inicio de sesión (login) a un sistema remoto. A estos scripts, se los llama scripts del sistema (system scripts). El siguiente es un ejemplo de creación de un chat-script llamado “tesis”. Router (config)#chat-script tesis ABORT ERROR ABORT BUSY “ ” “ATZ” OK “ATDT\T” TIMEOUT 30 CONNECT \C El ejemplo anterior crea un script de charla llamado “tesis”. La presencia del comando ABORT en la entrada indica que el script falló. En este caso, si el módem devuelve ERROR o BUSY, el router determinará que el script falló. Se detiene el chat-script debido a un error. El primer par esperar-enviar (“” “ATZ”) le dice al router que no espere nada y emita la orden ATZ al módem para reiniciarlo usando el perfil almacenado. El próximo par (OK “ATDT\T”) le dice al router que espere a que el módem retorne un OK, para que recién después emita el siguiente comando (ATDT \ T). El comando ATDT\T es crítico cuando se escribe un script de charla para realizar llamadas (conocido como modem-script). El string ATDT instruye al módem para realizar discado por tonos a un número. La “D” indica “dial", mientras que la segunda “T” indica “tono”. El router reemplaza el \T (tercer T en el string) por un número de teléfono pre-configurado antes de enviar el string al modem. El comando TIMEOUT 30 CONNECT establece el tiempo a esperar por el string CONNECT. El timeout (tiempo expirado) predefinido es de 5 segundos. Para módems V.90 se recomienda un timeout de 60 segundos. En el ejemplo es de 30 segundos. El parámetro \C es una secuencia de escape del módem y define el fin del chat-script. En este ejemplo, el chat-script, tesis, se usa como un modem-script; el cual aplica inmediatamente comandos a la línea. Hay varias maneras de invocar un chat-script; el comando dialer map es el más común. 6.1.9. Conexión por línea conmutada en PCs Windows Hasta ahora, este capítulo se enfocó en usar módems con servidores de acceso. Pero también, un profesional de red debe enfocarse en los usuarios finales. Para conectarse al sitio central los usuarios móviles deben usar los POTS a través de un módem conectado a la PC. Los sistemas operativos de PC de hoy pueden configurar automáticamente los módems sin exigir por parte del usuario conocimiento sobre los comandos AT. Sin embargo, a pesar de las simplicidades en cableado y configuración, todavía queda trabajo de configuración por hacer. Una PC debe configurarse con información de dial-up como números de teléfono, contraseñas, y protocolos. En este apartado se explicarán los principios de configuración de PCs Windows (95/98, XP, NT, y 2000). Windows 95/98 incluye un componente de software especializado llamado DUN (Dial-Up Networking, Conexión por Línea Discada). Este software permite configurar los parámetros de conexión por línea conmutada para que se pueda enviar y/o recibir datos desde sistemas remotos. Si el DUN no está T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 2 4 22 24 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIII

C C D A U P O N X O N S CO ON NEEEX XIIIO ON NEEES SD DIIIA ALLL---U UP P

instalado en la PC, puede agregarse fácilmente usando la opcion Add/Remove Programs del Panel de Control de Windows. Para instalar el software el usuario debe tener acceso a los archivos .CAB de Windows. Cuando se instala DUN, cualquier protocolo de Capa 3 que esté instalado queda automáticamente habilitado para uso del dial-up. Windows 95/98 incluye soporte para TCP/IP, IPX/SPX, y los protocolos de red NetBEUI de la capa de transporte (ver figura). Una vez instalado el DUN, se puede crear una conexión mediante el uso del asistente de “nueva conexión” (en acceso telefónico a redes) e ingresar la información necesaria para definir la conexión, tal como numero de teléfono, tipo de módem y nombre de la computadora a llamar. Esta información se ingresa una sola vez por cada conexión creada. Para completar la configuración del cliente Dial-Up, se debe ingresar en las “propiedades” del DUN y configurar entre otras cosas el tipo de servidor de acceso remoto, algunas opciones avanzadas y el/los tipos de protocolos habilitados. Una vez definida una conexión de acceso remoto, la misma puede usarse de dos maneras diferentes: * Haciendo doble click en el icono de conexión creado (en la ventana DUN) y luego click en el botón “conectar”. * Conectándose a los recursos remotos de una red de una aplicación que no sea la del DUN. Si no se pueden encontrar los recursos de red, Windows responde activando automáticamente el DUN. Después de establecer o finalizar una conexión, no se necesita reiniciar la PC o Windows. Windows inicia automáticamente el DUN cuando: * Se intenta acceder a los recursos de red y la PC no está conectada a la red. * La aplicación especifica un nombre UNC (Universal Naming Convention, Convención Universal de Nombres) el cual usa la forma \\servername\sharename y que no puede ser accedido mediante el uso de una LAN. * Se hace doble clic sobre un enlace que apunta a un objeto de red remoto (por ejemplo una aplicación que intenta conectarse a un archivo sobre un servidor de red o a un objeto OLE remoto).

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 2 5 22 25 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIIIIII

E E S N C A P S U A M N O S EN NC CA AP PS SU ULLLA AM MIIIEEEN NTTTO OS SS SEEERRRIIIAAALLLEEESSS

E MIIEEN NTTO OSS S ENNCCAAPPSSUULLAAM SEERRIIAALLEESS 11..11.. IINNNTTTRRRO O D U C C Ó N OD DU UC CC CIIIÓ ÓN N Una vez estudiadas las tecnologías de red de área amplia (WAN), es importante comprender que las conexiones WAN son controladas por protocolos que ejecutan las mismas funciones básicas que los protocolos LAN de Capa 2, como Ethernet. En un entorno LAN, para mover los datos entre dos nodos o routers cualquiera, se debe establecer una ruta de datos y se deben establecer procedimientos de control de flujo para asegurar el envío de datos. Esto también es aplicable para el entorno WAN y se logra utilizando protocolos WAN como SLIP, PPP, HDLC, Frame Relay, etc. Los dos encapsulamientos WAN punto a punto más comunes son HDLC y PPP. Todos los encapsulamientos de línea serial comparten un formato de trama común, con los siguientes campos, tal como se indica en la figura: • Señalador: Indica el comienzo de la trama y usa el modelo hexadecimal (base 16) 7E. • Dirección: Campo de 1 ó 2 bytes para direccionar la estación final en entornos multipunto. • Control: Indica si la trama es de información, supervisión o sin numerar. También contiene códigos de función específicos. • Datos: Datos encapsulados. • FCS: Secuencia de verificación de trama (FCS). • Señalador: Identificador de señalador de información final 7E Cada tipo de conexión WAN utiliza un protocolo de Capa 2 para encapsular el tráfico mientras atraviesa el enlace WAN. Para asegurarse de que se utiliza el protocolo de encapsulamiento adecuado, es necesario configurar el tipo de encapsulamiento o de Capa 2 que se debe utilizar para cada interfaz serial en el router. La elección del protocolo de encapsulamiento depende de la tecnología WAN y del equipo de comunicación. Los protocolos de encapsulamiento que se pueden utilizar con los tipos de conexión WAN que se abarcan en este capítulo son SLIP, PPP y HDLC. 1.2. Enlaces punto a punto Para permitir que un protocolo de capa 3 atraviese la WAN, sobre un enlace dedicado o dial-up, este debe ser encapsulado por un protocolo de la capa 2. La figura muestra que los nodos remotos conectados a un access server (un router) pueden usar TCP/IP u otros protocolos de capa de red. También se muestra que los protocolos PPP, SLIP y ARAP (Appletalk Remote Access Protocol, Protocolo de Acceso Remoto de Appletalk) trabajan en la capa de enlace de datos (capa 2) para encapsular estos protocolos enrutados. Aun cuando algunas organizaciones proveen acceso remoto a hosts usando Novel IPX y Appletalk, TCP/IP es ahora el protocolo dominante en las redes corporativas. Por esta razon este estudio se enfoca en la encapsulación TCP/IP. En esencia hay dos protocolos de capa de enlace usados para encapsular TCP/IP: SLIP y PPP. PPP es un estándar más reciente que SLIP e igualmente es el protocolo de encapsulación de capa 2 mas preferido sobre enlaces dial-up asíncrono. Aunque SLIP y PPP se diseñaron con IP en mente, SLIP está limitado principalmente a usarse con IP, mientras que PPP puede usarse con otros protocolos de red como IPX y Appletalk. Además PPP soporta facilidades esenciales como alocación dinámica de direcciones, autenticación PAP y CHAP y PPP multienlace. SLIP no soporta estas facilidades. Como tecnologías legadas, SLIP y ARAP son raramente implementadas en los nuevos diseños de red, aunque ambos protocolos permanecen en uso. HDLC es el protocolo de encapsulación por defecto para interfaces seriales e ISDN sobre routers Cisco. El HDLC no es necesariamente compatible con las implementaciones HDLC de otros vendedores. En cambio, las implementaciones PPP siguen un estándar abierto y T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 2 9 22 29 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIIIIII

E E S N C A P S U A M N O S EN NC CA AP PS SU ULLLA AM MIIIEEEN NTTTO OS SS SEEERRRIIIAAALLLEEESSS

son siempre compatibles. PPP es el protocolo a optar cuando se configuran enlaces seriales en ambientes multivendedor. Es importante notar que actualmente PPP usa a HDLC como base para la encapsulación de datagramas. Sin embargo, PPP es más expandible que HDLC porque agrega extensiones a la capa de enlace.

22.. H HD DLLC C El Control de Enlace de Datos de Alto Nivel (HDLC) es un protocolo de la capa de enlace de datos que se deriva del protocolo de encapsulamiento de Control de Enlace de Datos Síncrono (Synchrounous Data Link Control, SDLC). HDLC es el encapsulamiento por defecto de Cisco para las líneas seriales. Esta implementación es muy simplificada; no usa ventanas ni control de flujo y sólo se permiten las conexiones punto a punto. El campo de dirección siempre se establece en todos unos. Además, se inserta un código propietario de 2 bytes después del campo de control, lo que significa que el entramado HDLC no puede interoperar con equipos de otros proveedores. Si ambos extremos de una conexión de línea dedicada son routers o servidores de acceso que ejecutan el software IOS (Sistema Operativo de Internetworking de Cisco), normalmente se utiliza el encapsulamiento HDLC. Como los métodos de encapsulamiento HDLC pueden variar, se debe utilizar PPP con dispositivos que no utilizan el IOS.

33.. SSLLIIPP El Protocolo de Internet de Línea Serial (Serial Line Internet Protocol, SLIP) define un método de envío de paquetes de Internet sobre líneas seriales asíncronas RS-232 estándar. SLIP es un protocolo estándar para conexiones seriales punto a punto, usando TCP/IP. SLIP fue un predecesor de PPP. En general, SLIP se usa hoy como un medio barato para permitir a PCs remotas acceder a recursos sobre una red. SLIP puede ser usado sobre módems de discado asíncronos, permitiendo que las computadoras en los hogares de las personas sean conectadas a una red sin el costo de una línea arrendada; también pueden usarse en sitios remotos que necesitan conectividad ocasional o de respaldo. Aunque se han propuesto varias implementaciones, la versión de Berkeley surgió como un estándar de facto. SLIP no posee detección de errores, y puede correr solo sobre la suite de protocolos TCP/IP. Hay dos formas de implementar SLIP: 1. Modelo servidor de red: cada línea SLIP tiene su propio numero de red o subred. Puede existir otra red del otro lado del cliente SLIP (la PC); los protocolos de enrutamiento de Internet se usan para intercambiar información sobre como alcanzar los hosts sobre esa red. EL cliente SLIP puede recoger su propia dirección de Internet pretendiendo ser un router entre el enlace SLIP y su propia red (si la dirección del en lace es fija), o negociando la dirección de esa interfase con el servidor. Este modelo tiene la ventaja de permitir que los hosts tengan direcciones y nombres de Internet permanentes. Tiene la desventaja de necesitar una red o subred completa para cada conexión SLIP, lo que hace más complejo al enrutamiento. Este modelo permite que un enlace SLIP conecte a dos redes completas, en lugar de un único host y una red. 2. Modelo servidor de terminal: cada línea SLIP tiene una dirección de Internet única. El servidor responde a los pedidos del Protocolo de Resolución de Direcciones (ARP) de esas direcciones, actuando como un transceiver Ethernet multipuerto. Cada cliente SLIP debe tener una dirección de Internet asignada sobre la misma red o subred que la interfase de red del servidor de terminales. Solo es posible una dirección de Internet del otro lado, a saber la dirección para la cual el servidor de terminal está configurado. Por lo tanto, el cliente SLIP no puede servir como un router a otra red. El servidor de terminales visualiza en forma de texto la dirección que espera que tenga el cliente SLIP cuando el usuario emite el comando que activa el modo SLIP. El cliente SLIP puede también determinar su dirección usando el Protocolo de Booteo (BootP).

44.. PPPPPP A fines de la década del ´80, el protocolo SLIP representaba una limitación para el crecimiento de Internet. El Protocolo Punto a Punto (PPP, Point to Point Protocol) se creó para solucionar los problemas de conectividad remota de Internet. Surgió originalmente como un protocolo de encapsulamiento para transportar tráfico IP sobre enlaces punto a punto. PPP también estableció un estándar para la asignación y la administración de direcciones IP en forma dinámica, el encapsulamiento asícrono (inicio/parada) y síncrono orientado al bit, la multiplexión de protocolos de red, la configuración y prueba del enlace, la detección de errores y la negociación de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 3 0 23 30 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIIIIII

E E S N C A P S U A M N O S EN NC CA AP PS SU ULLLA AM MIIIEEEN NTTTO OS SS SEEERRRIIIAAALLLEEESSS

opciones para características tales como negociación de dirección de capa de red y negociación de compresión de datos. PPP es un método de encapsulamiento de línea serial estándar. Es un protocolo no-propietario definido por una serie de estándares de Internet abiertos llamados RFC (Requests for Comments, Requerimientos para Comentarios), mas específicamente RFC 1332 y RFC 1661. Por esta razón a PPP se lo referencia como un “protocolo basado en estándares”. Este protocolo WAN de capa 2 puede, entre otras cosas, verificar la calidad del enlace durante el establecimiento de la conexión (puede negociar dinámicamente opciones de enlace) y puede soportar múltiples protocolos de Capa 3. Además, tiene soporte para autenticación a través del Protocolo de Autenticación de Contraseña (PAP) y el Protocolo de Autenticación de Saludo (CHAP). PPP es el protocolo WAN más popular y más ampliamente utilizado porque ofrece todas estas funciones: • Control de la configuración del enlace de datos. • Proporciona asignación dinámica de direcciones IP. • Multiplexión de protocolo de red. • Configuración de enlace y verificación de la calidad del enlace. • Detección de errores • Opciones de negociación para destrezas tales como negociación de la dirección de capa de red y negociaciones de compresión de datos. PPP es utilizado habitualmente por las PCs para conectarse a un Proveedor de Servicios de Internet (ISP, Internet Services Provider) a través de una línea de acceso telefónico (host a red asíncrono) o como un método de encapsulamiento WAN entre varias LAN (router a router síncrono). PPP es un protocolo de red de área amplia (WAN) que proporciona servicios de capa de enlace de datos de OSI para las conexiones router a router y host a red a través de circuitos síncronos y asíncronos utilizando una interfaz serial (dial-up y/o líneas leased). PPP es un protocolo internacional, estandarizado y utilizado ampliamente, desarrollado por la Fuerza de Tareas de Ingeniería de Internet (IETF). PPP se considera parte del conjunto de protocolo TCP/IP y soporta una cantidad de protocolos LAN, como IP e IPX, y diversos métodos de autenticación de seguridad, como PAP y CHAP. PPP se puede utilizar en diversos medios físicos, incluyendo cable de par trenzado, fibra o transmisión satelital. Utiliza una variante del HDLC para el encapsulamiento de paquetes, aunque PPP está más estandarizado, y brinda mejor seguridad y soporte para las conexiones de discado. Es el estándar de facto para las conexiones WANs dedicadas y dial-up (discadas).

4.1. Componentes de PPP PPP busca resolver los problemas de conectividad de Internet y de interoperabilidad entre dispositivos de networking de diferentes fabricantes mediante tres componentes básicos: 1. Un método para encapsular datagramas a través de enlaces seriales. PPP utiliza HDLC como base para encapsular datagramas a través de enlaces punto a punto. 2. Un Protocolo de Control de Enlace (Link Control Protocol, LCP) para establecer, configurar y probar la conexión de enlace de datos. Este protocolo, convergencia de capa física, negocia la interoperabilidad de la línea básica. Cuando los hosts negocian una conexión PPP, intercambian paquetes LCP con el fin de negociar opciones de enlace, como ser, autenticación, compresión y MLP. 3. Una familia de Protocolos de Control de Red (Network Control Protocol, NCP) para establecer y configurar distintos protocolos de capa de red y opciones tales como compresión. PPP está diseñado para permitir el uso simultáneo de múltiples protocolos de capa de red. Cada protocolo de capa 3 tiene su propio NCP, como IPCP (Protocolo de Control IP) para T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 3 1 23 31 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIIIIII

E E S N C A P S U A M N O S EN NC CA AP PS SU ULLLA AM MIIIEEEN NTTTO OS SS SEEERRRIIIAAALLLEEESSS

IP, IPXCP para IPX y ATALKCP para Appletalk. En la actualidad, PPP soporta otros protocolos además de IP, incluyendo IPX (Intercambio de Paquetes de Internetworking) y Appletalk. Como se indica en la figura, PPP utiliza su componente de NCP para encapsular múltiples protocolos. EL NCP puede establecer y terminar múltiples sesiones de protocolos de Capa 3 sobre un enalce. Esta capacidad se denomina “multiplexación de protocolo”. Cuando se termina una sesión, el NCP termina la sesión de Capa 3 y luego el LCP termina el enlace. Cuando se negocia el enlace PPP, se negocia un protocolo de control de enlace para establecer el enlace y luego se negocian protocolos de control de red adicionales.

4.2. Funciones de capa PPP PPP utiliza una arquitectura dividida en capas, como se indica en la figura. Con sus funciones de nivel inferior, PPP puede utilizar: • Medios físicos síncronos: prácticamente todos los enlaces WAN que se usan en internetworking son “seriales”, lo que significa que transmiten bits uno después del otro en una serie por el alambre o cable de fibra. Los routers tienen puertos seriales síncronos para las conexiones WAN asi como los medios que conectan las redes RDSI. • Medios físicos asíncronos, como los que utilizan el servicio telefónico básico para las conexiones de acceso telefónico del módem. Mediante sus funciones de nivel superior, PPP soporta o encapsula varios protocolos de capa de red con los NCP. Estos protocolos de nivel superior incluyen los siguientes: • BCP - Protocolo de Control de Puente. • IPCP - Protocolo de Control de Protocolo Internet. • IPXCP - Protocolo de Control de Intercambio de Paquetes de Internetworking. Estos son campos funcionales que contienen códigos estandarizados que indican el tipo de protocolo de capa de red que encapsula PPP Nota: los puertos seriales síncronos de los routers no son lo mismos que los puertos de conexión seriales asíncronos de los PCs. Los seriales síncronos pueden ofrecer velocidades de transferencia de datos mucho más altas. Muchos routers tienen por lo menos un puerto serial síncrono para las conexiones WAN y dos puertos seriales asíncronos; un puerto de consola para la conexión local y un puerto AUX para la configuración remota del router. 4.2.1. Requisitos de la Capa Física PPP es capaz de operar a través de cualquier interfase DTE/DCE. Los ejemplos incluyen EIA/TIA- 232C (ex RS-232C), EIA/TIA-422 (ex RS-422), EIA/TIA-423 (ex RS-423), y la V.35 del Sector de Estandarización de Telecomunicaciones dela ITU-T (ex CCITT). El único requisito absoluto impuesto por PPP es la provisión de un circuito dúplex, dedicado o conmutado, que pueda operar en modo serial de bit asíncrono o síncrono, transparente a los frames de capa de enlace de PPP. PPP no impone ninguna restricción sobre la velocidad de transmisión mas que la impuesta por la interfase DTE/DCE particular que se use. 4.2.2. Capa de Enlace PPP PPP utiliza los principios, la terminología, y la estructura de frame de los procedimientos HDLC (ISO 3309-1979) de la ISO, y las modificaciones ISO 3309-1984. ISO 3309-1979 especifica la estructura de frame HDLC para entornos síncronos; ISO 3309-1984 especifica las modificaciones propuestas a ISO 3309-1979 para su uso en entornos asíncronos. Los procedimientos de control de PPP usan las definiciones y las codificaciones del campo de control estandarizados en ISO 4335-1979. La figura de “tipos de encapsulamientos WAN” muestra que el frame PPP es similar al frame HDLC, salvo por el campo “protocolo” de PPP que contiene el ID del protocolo de Capa 3. Además, el LCP puede hacer modificaciones a la estructura estándar del frame PPP dependiendo de si se negocia autenticación, compresión, etc. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 3 2 23 32 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIIIIII

E E S N C A P S U A M N O S EN NC CA AP PS SU ULLLA AM MIIIEEEN NTTTO OS SS SEEERRRIIIAAALLLEEESSS

4.2.2.1. Entramado PPP El RFC 1662 describe la implementación de PPP en un entramado de tipo HDLC. Hay diferencias en la forma en que se implementa PPP en enlaces asíncronos y síncronos. Cuando uno de los extremos del enlace utiliza PPP síncrono (como un router RDSI) y el otro utiliza PPP asíncrono (como un TA RDSI conectado a un puerto serial de PC), hay dos técnicas disponibles para suministrar compatibilidad de entramado. El método preferido es habilitar la conversión de trama de PPP síncrona a asíncrona en el TA RDSI. Como se indica en la figura, los campos de una trama PPP son los siguientes: • Señalador: Indica el comienzo o el fin de una trama y está formado por la secuencia binaria 01111110. • Dirección: Está formada por la dirección de broadcast estándar, que es la secuencia binaria 11111111. PPP no asigna direcciones de estaciones individuales. • Control: 1 byte formado por la secuencia binaria 00000011, que requiere la transmisión de datos del usuario en una trama no secuencial. Se suministra un servicio de enlace no orientado a conexión similar al del Control de Enlace Lógico (LLCC) de Tipo 1. • Protocolo: 2 bytes que identifican el protocolo encapsulado en el campo de datos de la trama. • Datos: 0 o más bytes que contienen el datagrama para el protocolo especificado en el campo de protocolo. El fin del campo de datos se detecta ubicando la secuencia de cierre del señalador y dejando 2 bytes para el campo de la Secuencia de Verificación de Trama (FCS). La longitud máxima por defecto del campo de datos es 1.500 bytes. • FCS (Frame Ckeck Sequence): Por lo general, 16 bits (2 bytes). Se refiere a los caracteres adicionales que se agregan a una trama para fines de control de errores. 4.2.3. Establecimiento de sesiones PPP PPP suministra un método para establecer, configurar, mantener y terminar una conexión punto a punto. Para establecer comunicaciones a través de un enlace punto a punto, PPP atraviesa cuatro fases distintas: 1. Establecimiento del enlace y negociación de la configuración: en la fase de establecimiento del enlace y negociación de la configuración, cada dispositivo PPP envía paquetes LCP para configurar y establecer el enlace de datos. Los paquetes LCP contienen un campo de opción de configuración que permite que los dispositivos negocien el uso de opciones, como la Unidad Máxima de Transmisión (MTU), la compresión de determinados campos PPP y el protocolo de autenticación de enlace. Si no se incluye ninguna opción de configuración en un paquete LCP, se adopta el valor por defecto para esa configuración. Antes de que se pueda intercambiar cualquier datagrama de capa de red (por ejemplo, IP), LCP primero debe abrir la conexión y negociar los parámetros de configuración. Esta fase se completa cuando se ha enviado y recibido una trama de acuse de recibo de configuración. 2. Determinación de la calidad del enlace: LCP permite una fase opcional de determinación de la calidad del enlace a continuación de la fase de establecimiento del enlace y negociación de la configuración. En esta fase, el enlace se prueba para determinar si la calidad del enlace es lo suficientemente buena como para establecer los protocolos de capa de red. Además, una vez que se ha establecido el enlace y que se ha elegido el protocolo de autenticación, se puede autenticar la estación de trabajo del cliente o usuario. La autenticación, en caso de que se utilice, se lleva a cabo antes de que comience la fase de configuración del protocolo de la capa de red. LCP puede retardar la transmisión de la información del protocolo de la capa de red hasta que esta fase se haya completado. PPP soporta dos protocolos de autenticación: Protocolo de Autenticación de Contraseña (PAP) y Protocolo de Autenticación de Saludo (CHAP). Ambos protocolos se describen en detalle en RFC 1334, "Protocolos de autenticación PPP". Estos protocolos se describen posteriormente en este capítulo en la sección “Autenticación PPP”. 3. Negociación de la configuración del protocolo de capa de red: cuando LCP finaliza la fase de determinación de la calidad del enlace, los protocolos de capa de red pueden ser configurados T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 3 3 23 33 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIIIIII

4.

E E S N C A P S U A M N O S EN NC CA AP PS SU ULLLA AM MIIIEEEN NTTTO OS SS SEEERRRIIIAAALLLEEESSS

individualmente por el NCP adecuado y se pueden activar y desactivar en cualquier momento. En esta fase, los dispositivos PPP origen envían tramas NCP para seleccionar y configurar uno o varios protocolos de capa de red (como IP e IPX). Cuando se ha configurado uno de los protocolos de capa de red elegidos, se pueden enviar datagramas desde cada uno de los protocolos de capa de red a través del enlace. Si LCP cierra el enlace, informa esto a los protocolos de la capa de red, de modo que puedan tomar las medidas adecuadas. Terminación del enlace: el enlace permanece configurado para la comunicación hasta que las tramas LCP o NCP cierran el enlace o hasta que se produzca algún hecho externo (por ejemplo, el vencimiento de un temporizador de inactividad o la intervención de un usuario). Esto generalmente se realiza a pedido del usuario, pero puede ocurrir debido a un suceso físico, como la pérdida de una portadora o la expiración de un límite de tiempo. Las tramas LCP se utilizan para cumplir con el trabajo de cada una de las 4 fases LCP. Hay tres clases de tramas LCP: • Tramas de establecimiento de enlace: se utilizan para establecer y configurar un enlace. • Tramas de terminación del enlace: se utilizan para terminar un enlace. • Tramas de mantenimiento del enlace: se utilizan para administrar y depurar un enlace.

4.3. Opciones LCP de PPP PPP ofrece un conjunto de opciones que se configuran por LCP durante el establecimiento del enlace. Las opciones de configuración negociadas a través de LCP son: • Autenticación: con PAP o CHAP, se usa como medida de seguridad con PPP. La autenticación permite identificar a cualquier cliente de dialup como un cliente válido si dispone de un nombre de usuario (username) y contraseña (password) preasignado. • Callback: es que una opción de PPP usada para proveer consolidación de facturación entre la llamada y la conexión discada. • Compresión: reduces el tamaño de los frames de datos a ser transmitidos sobre un enlace de red lo cual reduce el tiempo requerido para transmitir el frame por la red. • Multienlace (MLP, Multilink PPP): este rasgo proporciona balanceo de carga sobre múltiples enlaces WAN, mientras provee interoperabilidad multivendedor, secuenciamiento apropiado, y cálculo de carga en el tráfico entrante y saliente. Los datagramas son divididos, secuenciados, transmitidos por múltiples enlaces, y luego recombinados en el destino. El agrupamiento de múltiples enlaces se denomina “bundle” (manojo, racimo). El multilink es útil especialmente con configuraciones ISDN BRI, en el cual ambos canales B pueden usarse para lograr un rendimiento de 128 Kbps. MLP también trabaja con módems para proporcionar ancho de banda adicional. 4.3.1. Callback PPP El “retorno de llamada” o callback PPP es una opción de LCP que se usa sobre enlaces discados (línea conmutada). El callback PPP proporciona una relación cliente/servidor entre los “puntos extremos” (endpoints) de una conexión punto a punto. El callback PPP le permite al cliente dial-up solicitar al servidor de dial-up que lo vuelva a llamar. Esta facilidad del callback puede usarse para tener control de acceso y cobro de costo entre los hosts. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 3 4 23 34 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIIIIII

E E S N C A P S U A M N O S EN NC CA AP PS SU ULLLA AM MIIIEEEN NTTTO OS SS SEEERRRIIIAAALLLEEESSS

Cuando dos routers se configuran con callback PPP, el router origen (el que solicita la llamada, el cliente callback) pasa información de autenticación al router remoto (el servidor callback) el cual usa el hostname y el string de autenticación del origen para determinar si inicia o no una llamada de retorno. Si la autenticación tiene éxito, el servidor de callback se desconecta, y luego inicia una llamada de retorno. El username remoto de la llamada de retorno se usa para asociarlo con la llamada inicial, para que los paquetes puedan transmitirse. Ambos routers del enlace de punto a punto deben configurarse para callback PPP; uno debe funcionar como un cliente de callback, y el otro debe configurarse como un servidor de callback. El cliente callback debe configurarse para iniciar pedidos de callback PPP, y el servidor callback debe configurarse para aceptar pedidos de callbacks PPP y colocar llamadas de retorno. 4.3.2. Funcionamiento del callback PPP

2. 3. 4.

5. 6.

7. 8.

Las facilidades callback asíncronas soportan sesiones EXEC, PPP, y ARAP. Las principales motivaciones del uso del callback son: la consolidación de facturas telefónicas y reducción de costos de discado. El callback no es necesariamente una opcion de seguridad; sin embargo, si se asigna el número de callback en la base de datos de autenticación, se fuerza la seguridad porque los “retornos de llamada” sólo se realizan a números de teléfono preasignados. Las llamadas entrantes pasan por el proceso de login normal y deben pasar la autenticación antes de que ocurran los callback. Un ejemplo de callback con CHAP se muestra en la siguiente figura. Para que el callback trabaje apropiadamente, se debe asegurar que el mismo este configurado para cada protocolo definido (autoselect protocol) y para cualquier usuario remoto. Por otra parte, el proceso de dial-in remoto autoselect podría trabajar, y no ocurrir ningún callback. La operación callback PPP se conforma de los siguientes eventos: 1. El cliente callback comienza la llamada. El cliente pide el callback usando la opción de callback durante la fase de negociación LCP de PPP. El servidor callback reconoce los pedidos de callback y chequea su configuración para verificar que el callback este habilitado. El cliente callback y el servidor se autentican usando autenticación PAP o CHAP. El username se usa para identificar el string de dial para la llamada de retorno. Después de la autenticación inicial exitosa, el router-server de callback identifica el string dial de callback. El servidor de callback compara el username de la autenticación con el hostname en la tabla de discados (dialer). El string de dial puede identificarse a través de una tabla de mapeo o por el campo Callback Option Message durante la negociación LCP de PPP. Si el username autenticado está configurado para callback, la llamada de inicio es desconectada por el servidor de callback. El servidor de callback usa el string de dial para comenzar el callback. Si la llamada de retorno falla, no se intentan llamadas adicionales. El callback no se negocia en la llamada de retorno. La autenticación ocurre durante el callback. La conexión se establece y se intercambian los datos.

Note que si un “llamador” (dialer) pide un callback pero el servidor no esta seteado para aceptar callbacks, el router “contestador” mantiene la llamada inicial. 4.3.3. Compresión de datos PPP puede también maximizar la performance mediante el uso de la compresión de datos, posibilitando obtener el más alto rendimiento de datos en enlaces de baja velocidad (ver figura). La compresión es una opción negociada por LCP, y habilitada siempre y cuando el extremo al que se llama esté configurado para ello. En la siguiente figura se muestran algunos esquemas de compresión soportados. La mejor proporción o tasa de compresión se alcanza con los archivos de texto. Algunos formatos de archivos, como JPEG o MPEG, ya están comprimidos. También, aplicaciones como Winzip y Stufflt pueden T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 3 5 23 35 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIIIIII

E E S N C A P S U A M N O S EN NC CA AP PS SU ULLLA AM MIIIEEEN NTTTO OS SS SEEERRRIIIAAALLLEEESSS

comprimir archivos antes de ser enviados sobre la red. Si un router aplica un algoritmo de compresión a un archivo que ya está comprimido, el resultado es una tasa de compresión de 1:1, o incluso menos. Si se transfieren datos ya comprimidos, como gráficos y video, se debe considerar si se quiere o no usar compresión. Intentar comprimir datos ya comprimidos puede tomar mucho más tiempo que transferir datos sin compresión. Idealmente, se puede lograr una tasa de compresión de 2:1 o 3:1 para información que no se comprimió previamente. Espere un promedio de compresión de 1.6:1 para fuentes de datos mixtas, comprimidas y descomprimidas. Por lo gral., se debe configurar la compresión sólo en los enlaces de bajo velocidad debido a que el router comprime los datos usando software, lo cual requiere tiempo de CPU y memoria del router. Algunos algoritmos son de uso intensivo de memoria; otros son de uso intensivo de CPU (ver tabla). Uso intensivo de memoria implica un mayor uso de memoria RAM. Uso intensivo de CPU implica un mayor uso de ciclos de CPU. En ambos casos, la habilidad del router para enrutar paquetes se ve dañada por la perdida de recursos. Tipo de Compresión

Recurso Afectado

Descripción

Determina si los datos ya están comprimidos por otra aplicación; si lo están no los vuelve a comprimir. Algoritmo de compresión basado en Lempel-Ziv (LZ) que mira los datos y envía solo los “tipos de datos” con información que indica donde ocurre el Stacker “tipo” dentro del string de datos. Este protocolo (RFC 2118) permite a los routers intercambiar datos MPPC comprimidos con clientes Microsoft. MPPC usa algoritmos basados en LZ. Compresión de Este tipo de compresión, conocido como compresión de Van Jacobson, se usa solo para comprimir cabeceras TCP. header TCP Predictor

Uso intensivo de memoria. Uso intensivo de CPU. Uso intensivo de CPU.

Se debe considerar el uso de la memoria y de la CPU al implementar la compresión en un router. Algunos routers con CPUs lentas o memorias inadecuadas pueden ser sobrecargados cuando se configuran para tráfico comprimido. Predictor usa más memoria intensiva y menos CPU intensiva, mientras que Stacker y MPPC son más CPU intensivos y menos memoria intensiva. Estos tipos de compresión se realizan por software y pueden afectar la performance del sistema. Se recomienda que se desactive la compresión si la carga de la CPU excede el 65 %. La compresión Predictor es recomendable cuando el cuello de botella es causado por una “alta carga” en el router; la compresión Stacker es recomendable cuando el cuello de botella es causado por las limitaciones de ancho de banda de la línea. La compresión de cabeceras TCP es también una opción negociada por LCP. La técnica de compresión de headers TCP, a menudo referida por el nombre de su creador, Van Jacobson, se describe en el RFC 1144. Es soportada en líneas seriales que usan HDLC, PPP, o encapsulación SLIP. Se debe permitir compresión TCP en ambos extremos de la conexión para que pueda trabajar. Sólo los headers TCP son comprimidos, los headers UDP no son afectados. La compresión de headers es particularmente útil en redes con un gran porcentaje de paquetes pequeños, como aquéllas que soportan muchas conexiones Telnet. 4.3.4. PPP Multienlace PPP Multienlace (Multilink PPP, MLP) es una opción de LCP que provee balanceo de carga sobre múltiples interfaces WAN (ISDN, interfaces síncronas, y asíncronas), mientras provee interoperabilidad multivendedor, fragmentación de paquetes, secuenciamiento y calculo de carga sobre tráfico entrante y saliente. MLP puede mejorar el rendimiento (throughput) y puede reducir la latencia entre los sistemas al fragmentar o dividir (splitting) los frames de Capa 2, secuenciarlos y enviar los fragmentos sobre circuitos paralelos en enlaces agrupados (bundled), tal como lo muestra la figura. Estos fragmentos son reensamblados en el destino. Es importante recordar que MLP trabaja dividiendo los paquetes en fragmentos, no por el balanceo de carga completo de los paquetes hacia su destino.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 3 6 23 36 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIIIIII

E E S N C A P S U A M N O S EN NC CA AP PS SU ULLLA AM MIIIEEEN NTTTO OS SS SEEERRRIIIAAALLLEEESSS

Un host que soporte MLP indica a su par que puede combinar múltiples enlaces físicos en un “bundle” (racimo, manojo). Normalmente, los múltiples enlaces físicos son los dos canales B en una interfase ISDN BRI o múltiples canales B en una interfase ISDN PRI. Antes de la adopción de MLP (descrito primero en el RFC 1717), no había ninguna manera estandarizada de usar los dos canales B del BRI ISDN y asegurarse el secuenciamiento apropiado. MLP es interoperable entre la mayoría de los routers que cumplan con la norma más reciente de MLP, el RFC 1990. El RFC 1990 se refiere a los fragmentos MLP como “paquetes”, término que puede ser confundido (con los paquetes de capa 3 de OSI) dado que los “paquetes” son en realidad frames o tramas de Capa 2 fragmentados. Es típico usar MLP con aplicaciones que tengan requisitos de ancho de banda dinámicos, como las aplicaciones LAN de acceso remoto para teleconmutadores, pequeñas oficinas y ambientes de oficina hogareñas (SOHO). Cuando el tráfico de usuario excede un umbral predefinido, puede usarse un enlace físico adicional (como un canal B) para ocuparse del tráfico excedente. Si el flujo de tráfico pesado es constante, entonces debe implementarse una línea leased de alta capacidad o alguna otra solución de acceso remoto. 4.3.4.1. Operación y configuración de MLP Durante la negociación de opciones LCP, un sistema indica a su par que quiere usar MLP como parte de la opción inicial de negociación LCP, como se muestra en la figura. Ambos lados de la conexión deben estar configurados para MLP. Si la autenticación PPP no esta configurada correctamente, MLP no trabajará en forma apropiada. La decisión de agrupar canales se basa en la autenticación del nombre del router remoto, en forma independiente en cada lado del enlace. Cada router deberá usar un único hostname para autenticarse, con una password compartida. La opción específica que se negocia en LCP se denomina MRRU (Maximun Received Reconstructed Unit, Unidad Máxima Reconstruida Recibida). Los sistemas MLP deben poder hacer lo siguiente: • Combinar múltiples enlaces físicos en un enlace lógico (bundle). • Recibir y reensamblar PDUs de capas superiores. • Recibir PDUs de un tamaño negociado. Los canales de transmisión en el bundle no tienen que ser necesariamente del mismo tipo. Aunque es raro, pueden usarse simultáneamente enlaces asíncronos y síncronos para transmitir fragmentos de un datagrama. Por ejemplo, una conexión ISDN puede establecerse cuando la carga sobre un enlace Frame Relay supere un cierto umbral. Los enlaces ISDN y Frame Relay pueden trabajar juntos como parte del mismo “manojo” MLP para compartir la carga. La configurando MLP típica se hace usando BRI de ISDN. El multienlace PPP puede configurarse en las siguientes interfaces: • Interfaces seriales asíncronas, en grupos de discado rotatorio. • Interfaces seriales síncronas. • BRI de ISDN. • Múltiples BRIs en grupos de discado rotatorio. • Múltiples BRIs usando perfiles de discado. • Canales B PRI en grupos de discado rotatorio.

4.4. Autenticación PPP La autenticación de PPP se utiliza para suministrar seguridad principal en RDSI y otros enlaces encapsulados de PPP. Los protocolos de autenticación de PPP, PAP y CHAP, se definen en el RFC 1334. Una vez que LCP ha establecido la conexión de PPP, puede implementar un protocolo de autenticación opcional antes de continuar con la negociación y establecimiento de los programas de control de la red. Si es necesaria la autenticación, se debe negociar como una opción en la fase de establecimiento de LCP. La autenticación puede ser bidireccional (cada uno de los lados autentica al otro, CHAP) o unidireccional (un lado, generalmente el lado que recibe la llamada, autentica al otro, PAP). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 3 7 23 37 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIIIIII

E E S N C A P S U A M N O S EN NC CA AP PS SU ULLLA AM MIIIEEEN NTTTO OS SS SEEERRRIIIAAALLLEEESSS

Por lo general, las líneas asíncronas siempre se configuran para que requieran autenticación. Con PPP, se tiene la posibilidad de que los usuarios “llamadores” se autentiquen usando uno o dos protocolos de autenticación, PAP o CHAP. Si se usa PPP sobre líneas leased punto a punto, la autenticación no es necesaria y por lo tanto no debe ser configurada. Los usuarios “llamadores” pueden ser autenticados de tres maneras posibles: 1. sin autenticación, 2. autenticación a través de una base de datos local con pares “nombre de usuario/contraseña” o, 3. autenticación a través de una base de datos de un servidor de seguridad centralizado usando TACACS o RADIUS. A continuación se detallan los pasos del proceso de autenticación: 1. Cuando un usuario inicia una sesión PPP, el sistema determina el tipo de autenticación configurada. Si no está configurada la autenticación, 2.

3.

entonces el proceso PPP se inicia inmediatamente. Caso contrario, el sistema determina el método de autenticación a usar y realiza una de las siguientes acciones: a. Chequea una base de datos local para verificar si el par “username/password” machea (CHAP o PAP). b. Envía un requerimiento de autenticación a un servidor de seguridad (TACACS+ o RADIUS). El sistema chequea la respuesta de autenticación devuelta por el servidor de seguridad o la base de datos local. Si la respuesta es positiva, el access server arranca el proceso PPP. Si el resultado es negativo, el access server rechaza al usuario inmediatamente.

La figura muestra los pasos del proceso de autenticación PPP. La fase de autenticación de una sesión PPP es opcional. Una vez que se ha establecido el enlace, y que se ha seleccionado el protocolo de autenticación, se puede autenticar el igual. La autenticación, en caso de que se utilice, se lleva a cabo antes de que comience la fase de configuración del protocolo de la capa de red. Las opciones de autenticación requieren que la parte del enlace que realiza la llamada introduzca información de autenticación para ayudar a garantizar que el usuario cuenta con el permiso del administrador de red para realizar la llamada. Los routers iguales intercambian mensajes de autenticación. Al configurar la autenticación PPP, puede seleccionar el Protocolo de Autenticación de Contraseña (Password Authentication Protocol, PAP), el Protocolo de Autenticación de Saludo de Llamada (Challenge Handshake Authentication Protocol, CHAP) o ambos. En general, el protocolo preferido es CHAP. 4.4.1. PAP Como se indica en la figura, PAP ofrece un método simple para que un nodo remoto establezca su identidad, utilizando el saludo de dos vías. Una vez que se completa la fase de establecimiento del enlace PPP, el nodo remoto envía un par de nombre de usuario/contraseña de forma reiterada a través del enlace hasta que se acusa recibo de la autenticación o la conexión se termina. PAP no es un protocolo de autenticación sólido. Las contraseñas se envían a través del enlace en texto no cifrado, y no hay protección contra la reproducción o los ataques reiterados de ensayo y error. Entonces, cuando es necesario usar PAP?, cuando los hosts que ejecuten software legado (legacy), en gral. software propietario, no puedan soportar CHAP, y en cuyo caso PAP es la única opción de autenticación. Al usar PAP el nodo remoto tiene el control de la frecuencia y la temporización de los intentos de conexión (login requests), y esto es no deseable, dado a que el access server debe responder a todos los pedidos de login, aún a los repetidos intentos de un hacker por “invitarse” con una combinación “username/password”. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 3 8 23 38 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C V O CAAAPPPIIITTTUUULLLO OV VIIIIIIIII

E E S N C A P S U A M N O S EN NC CA AP PS SU ULLLA AM MIIIEEEN NTTTO OS SS SEEERRRIIIAAALLLEEESSS

Existen dos métodos de autenticación PAP: de una vía y de dos vías. La figura anterior muestra la autenticación de una vía, la cual se usa típicamente entre un host y un router; mientras que la autenticación de dos vías se usa entre dos routers. 4.4.2. CHAP CHAP se utiliza para verificar periódicamente la identidad del nodo remoto, utilizando un saludo de tres vías, tal como se indica en la figura. Esto se realiza durante el establecimiento inicial del enlace y se puede repetir en cualquier momento una vez que se ha establecido el enlace. CHAP ofrece funciones tales como verificación periódica para mejorar la seguridad; el access server configurado con CHAP tiene el control de los intentos de login. Esto hace que CHAP sea más efectivo que PAP. PAP realiza la verificación sólo una vez, lo que lo hace vulnerable a los “hackers” y a la reproducción por módem. Además, PAP permite que la persona que realiza la llamada intente realizar la autenticación a voluntad (sin antes recibir un pedido de verificación), lo que lo hace vulnerable a los ataques, mientras que CHAP no permite que la persona que realiza la llamada intente realizar la autenticación sin recibir un pedido de verificación. Una vez que se ha completado la fase de establecimiento del enlace PPP, el server debe enviar un mensaje de comprobación o paquete desafío (challenge packet) al nodo remoto. El paquete desafío consiste de un ID, un número aleatorio y el nombre del router local. El nodo remoto responde con un valor que consiste de dos partes: • Un valor hash (valor de encriptación) calculado usando el ID, la password secreta local y el número aleatorio. • El nombre del dispositivo remoto o el nombre del usuario en el dispositivo remoto. Cuando el access server recibe la respuesta, este verifica la password secreta realizando la misma operación de encriptación que la de la respuesta y comprobando el hostname o el username con su propio valor. Si los valores concuerdan, se produce un acuse de recibo de la autenticación. De otro modo, la conexión se termina. Por medio de este método la password secreta nunca es transmite en texto claro, evitando su uso ilegal. CHAP suministra protección contra los intentos de reproducción a través del uso del valor de comprobación variable (función hash de una via, por lo gral. MD5 –Message Digest 5) que es exclusivo e impredecible. El uso de comprobaciones reiteradas tiene como fin limitar el tiempo de exposición ante cualquier ataque único. El router local (o un servidor de autenticación de terceros, como Netscape Commerce Server) tiene el control de la frecuencia y la temporización de las señales. CHAP puede usar una base de datos local o un servidor de seguridad dedicado. CHAP usa desafíos variables que no están sujetos al agujero de seguridad del texto claro encontrado en PAP. 4.4.2.1. Adición de un nombre de usuario Para configurar la autenticación PPP debe agregar una entrada de nombre de usuario para cada sistema remoto con el que se comunica el router local. También debe agregar una entrada de nombre de usuario para cada sistema remoto del cual el router local requiere autenticación. Por ultimo, el dispositivo remoto también debe tener una entrada de nombre de usuario para el router local. Para habilitar al router local para que responda a las señales CHAP remotas, una de las entradas de nombre de usuario debe ser igual a la entrada de nombre de host que ya se le ha asignado al dispositivo. Con CHAP, se deben utilizar contraseñas secretas que sólo el autenticador y el igual conocen.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 3 9 23 39 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X CAAAPPPIIITTTUUULLLOOOIIIX X

X X 2 5 X...2 25 5

X X..2255 111... IIINNNTTTRRRO O D U C C Ó N OD DU UC CC CIIIÓ ÓN N Es probablemente el protocolo de transporte de datos WAN más incomprendido y todavía, también, el más venerable. Aunque es, sin duda, el abuelo de todos los protocolos de transporte de datos WAN, ni mucho menos está dando su último aliento, aunque la presión de la industria y los expertos parecen haberlo enterrado. Las tecnologías de discado (por línea conmutada), como los POTS y BRI ISDN, limitan a los usuarios a conexiones intermitentes y de bajo ancho de banda. Tales circuitos WAN, por demanda, no proporcionan el ancho de banda y la conectividad constante requerida por muchas de las aplicaciones de hoy. La tendencia de las oficinas pequeñas y los usuarios hogareños es hacia conexiones de Internet de alta velocidad usando DSL o cable. Sin embargo, para muchas sucursales de oficinas y sitios remotos, los servicios de una red de conmutación de paquetes (PSN, Packet Switched Network) proporcionan la solución WAN más económica, flexible y segura. Las PSNs ofrecen conexiones permanentes “que siempre están”, así como circuitos conmutados temporales. Estos circuitos pueden proveer ancho de banda garantizado a un fracción del costo de las líneas arrendadas (leased). X.25 es un estándar que define la conexión entre una terminal y una PSN. En otros términos, X.25 es una especificación de interfases. No especifica las características de la PSN propiamente dicha. A pesar de esto, la industria del networking usa normalmente el término X.25 para referirse a la suite entera de protocolos X.25. X.25 fue el primer protocolo estándar de una red de datos pública (PDN, Public Data Network). Se definió por primera vez en 1976. En ese año, el CCITT de la ITU publicó sus recomendaciones para conectar equipos terminales de datos a redes de datos de conmutación de paquetes. La recomendación X.25 se había desarrollado, principalmente, para conectar terminales sin inteligencia (bobas o tontas) a computadoras centrales remotas (mainframes y minicomputadoras), a través de líneas telefónicas analógicas. Después, la capacidad de X.25 fue extendiéndose para soportar una variedad protocolos de networking, incluyendo TCP/IP, Novell IPX, y AppleTalk. Así, su flexibilidad y fiabilidad hicieron de ella una plataforma perfecta sobre la que basar una generación entera de estándares de comunicación de datos. En resumen, X.25 es una interfase orientada a conexión para una red WAN de conmutación de paquetes que utiliza circuitos virtuales para enviar paquetes individuales de datos a su correspondiente destino en la red. No todo el protocolo X.25 concierne a operaciones en la red de área local. El protocolo X.25 encamina los paquetes hasta la WAN más próxima a sus direcciones destino. En ese punto, el protocolo X.25 envía los paquetes al dominio de encaminamiento de los protocolos LAN. Aunque el protocolo ha sido revisado múltiples veces (la última en 1993) ya se ha quedado algo anticuado y no es en la actualidad un servicio interesante, salvo en algunos casos, debido a su baja eficiencia y velocidad; normalmente no supera los 64 Kbps, aunque se pueden contratar conexiones de hasta 2.048 Kbps. A pesar de estas desventajas conviene conocer los aspectos básicos de X.25 pues aun existe una gran cantidad de usuarios de este tipo de redes. Además, en el protocolo X.25 se definieron por primera vez muchos de los conceptos en que se basa Frame Relay y ATM, que podemos considerar en cierto sentido como sus descendientes. La figura muestra el tráfico LAN (IP, Appletalk, Vines, XNS, DECnet, ISO CLNS, TCP comprimido, bridging) que pasa de una LAN a otra, atravesando la nube X.25 a través de un circuito virtual (VC). X.25 puede transportar paquetes LAN, de un extremo a otro, a través de una red de conmutación de paquetes. Se establece un VC y los datagramas LAN usan la red de paquetes X.25, la cual es confiable y orientada a conexión.

222... P O T O C O L O P O//O OSSII X..2255 EEEIISSO LO OSSSX OT TO OC CO OL PIIILLLAAADDDEEEPPPRRRO X.25 apareció mucho antes de que la ISO finalizara su modelo de protocolos OSI, de manera que no fue definido exactamente en los mismos términos que el modelo de siete niveles. En su lugar, la especificación para X.25 describe tres niveles, como muestra la figura, que corresponden, más o menos, a los tres niveles inferiores del modelo OSI. Estos niveles son el nivel físico, el nivel de acceso al enlace y el nivel de paquete. La suite de protocolos X.25 incluye el Protocolo de la Capa de Paquetes (PLP, Packet Layer Protocol), el Protocolo Balanceado para Acceso al Enlace, (LAPB, Link Access Procedure, Balanced), y distintas interfaces seriales de capa fisica (X.21bis, EIA/TIA-232, EIA/TIA-449, EIA-530, y G.703). PLP opera en la capa de red (capa 3) mientras que LAPB opera en la capa de enlace de datos (capa 2). PLP y LAPB incluyen mecanismos de verificación de errores, control de flujo, y fiabilidad. Estos mecanismos, incluidos en la capa 2 y capa 3, proporcionan a X.25 un alto nivel de fiabilidad (que fue crítica en las primeras implementaciones de X.25). Dichas implementaciones usaban circuitos analógicos que eran propensos a una alta TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

2 2 4 3 24 43 3

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C X CAAAPPPIIITTTUUULLLOOOIIIX X

X X 2 5 X...2 25 5

tasa de errores. En una red que se construye sobre circuitos inestables, la verificación de errores de transmisión a nivel de hardware (capa de enlace de datos) es más eficaz que la de procesos en software (capa de red y superiores). El precio por tener un alto nivel de fiabilidad en X.25 es un overhead relativamente alto. Las facilidades de transmisión digitales de hoy y los enlaces de fibra óptica tienen una tasa de error mucho más baja que sus predecesoras. Por consiguiente, X.25 hace “trabajo extra” cuando se implementa sobre enlaces WAN modernos. Las nuevas tecnologías, como Frame Relay, toman ventaja de las bajas tasas de error de los medios y proporcionan un enlace de datos no confiable, sin correcciones por hardware, confiando en la detección y corrección errores por parte de las capas superiores (típicamente la capa de transporte). Las aplicaciones actuales demandan, en forma creciente, por más ancho de banda y velocidad WAN. Debido al overhead inherente de X.25, solo se lo utiliza para soportar aplicaciones legadas (propietarias) o cuando tecnologías más modernas no están disponibles.

2.1. Nivel físico A nivel físico se definen en X.25 dos interfaces, la X.21 cuando se usa señalización digital (cosa poco habitual) y la X.21bis (un subconjunto de la EIA-232D/V.24) cuando es analógica. En terminología X.25, al nivel físico se denomina interfase X.21. Esta interfase especifica las interfaces eléctrica y física entre el equipo terminal de datos (DTE) y la red X.25. Aunque X.25 tiene su propia y especializada interfase física en X.21, en las primeras épocas, se usaba la alternativa analógica RS232C o V.35 en lugar de la interfaz X.21. Después se definieron otras interfaces seriales como EIA/TIA-449, EIA-530, y G.703 (en su mayoría digitales).

2.2. Nivel de acceso al enlace El nivel de acceso al enlace del modelo X.25 corresponde al nivel de acceso al medio del modelo OSI. El nivel de acceso al enlace describe el tipo de transmisión de datos y composición de la trama que permite X.25, así como el protocolo LAPB (versión modificada del estándar ISO DIC), utilizado para establecer conexiones virtuales, gestionar el control de flujo de una sesión asíncrona balanceada y liberar los circuitos cuando finaliza la transmisión. En este nivel se definen la composición de la trama, los procedimientos de control de flujo y los mecanismos de comprobación de errores. LAPB incluye un método para confirmar la recepción de cada paquete en la estación destino.

2.3. Nivel de paquete El protocolo utilizado a nivel de red se conoce como X.25 PLP (Packet Layer Protocol). En este nivel se realizan todas las funciones de control de flujo, confirmación y direccionamiento. Cada NSAP (Network Services Access Point) en una red X.25 viene representado por una interfase de un conmutador X.25, y tiene una dirección única. Las direcciones son numéricas y típicamente pueden tener entre nueve y quince dígitos. Las redes X.25 públicas de muchos países están interconectadas, como ocurre con las redes telefónicas. Para facilitar su direccionamiento la CCITT ha establecido un sistema jerárquico análogo al sistema telefónico en la recomendación X.121 (un ejemplo es la red ARPAC, la red X.25 pública). En el nivel de paquete, X.25 establece las conexiones virtuales fiables a lo largo de la red de conmutación de paquetes que permiten a X.25 proporcionar el envío punto a punto, u orientado a conexión, de paquetes de datos en vez del envío no orientado a conexión, o punto a multipunto, de paquetes que tiene lugar en otros protocolos de transporte. En X.25, al ser un servicio confiable y orientado a conexión, los paquetes llegan en el mismo orden con que han salido. Una vez establecido un circuito entre dos NSAPs la información se transfiere en paquetes que pueden ser de hasta 128 bytes (aunque en muchas redes se permiten tamaños de hasta 4 KB). En la red los paquetes son transferidos de un conmutador al siguiente (almacenamiento y reenvío), y solo son borrados cuando se recibe la notificación de recepción. Un mismo NSAP puede tener establecidos varios VCs (PVCs y/o SVCs) hacia el mismo o diferentes destinos. 2.3.1. Encapsulación X.25

TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

2 2 4 4 24 44 4

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C X CAAAPPPIIITTTUUULLLOOOIIIX X

X X 2 5 X...2 25 5

La entrega de los datos de la capa de red a través de la interred involucra normalmente la encapsulación de paquetes de capa 3 dentro de tramas o frames de capa 2. El tipo y formato del frame de capa 2 depende del tipo de medio de comunicación usado. En un entorno X.25, se usa un frame LAPB. Cuando la trama LAPB llega al router, se quita la cabecera de capa 2, el router analiza el paquete de capa 3 y luego lo coloca dentro de un nuevo frame para ser remitido. En una WAN X.25, el paquete de capa 3 debe incluir el protocolo PLP X.25. La cabecera PLP de capa 3 provee confiabilidad a través del secuenciamiento, y administra el intercambio de los paquetes entre dispositivos DTE a través de circuitos virtuales. Entonces, si X.25 incluye una cabecera de capa 3, como hacen los protocolos de capa 3, como IP e IPX, para ensamblarse?. Las figura muestra que la encapsulación de capa 3 ocurre dos veces en un paquete X.25 TCP/IP: una vez para el datagrama IP y una vez para X.25 PLP. Al configurar la interfase X.25 de un router, se puede escoger entre varios tipos de encapsulación, así en el caso de los routers de Cisco se tiene encapsulación propietaria y encapsulación IETF. El router puede ser un dispositivo DTE X.25, el cual se usa típicamente cuando se tiene una PSN X.25 usada para transportar distintos protocolos. También configurarse como un dispositivo DCE X.25 usado por lo gral. cuando el router actúa como un switch X.25. El header de capa 3 de X.25 posee los siguientes componentes: • Un identificador de formato general (GFI, General Format Identifier): es un campo de 4 bits que indica el formato general del header del paquete. • Un identificador de canal lógico (LCI, Logical Channel Identifier): es un campo de 12 bits que identifica el circuito virtual. El LCI solo tiene significado local para la interfase DTE/DCE. • Un identificador de tipo de paquete (PTI, Packet Type Identifier): este campo identifica a uno de los 17 tipos de paquetes de X.25. Así, en un ambiente X.25, la información del circuito virtual (el LCI) se acarrea en el header de capa 3. Se establece un circuito virtual de extremo a extremo en el PSN vía dos canales lógicos, cada uno con un LCI independiente, sobre dos interfaces DTE/DCE. 2.3.2. X.121 – El estándar de direccionamiento X.25 Los campos de direccionamiento de los paquetes PLP de seteo de llamada proporcionan direcciones DTE fuente y destino, los cuales se usan para establecer los circuitos virtuales que constituyen la comunicación de X.25. La recomendación X.121 de ITU-T, especifica los formatos de dirección fuente y destino. Las direcciones X.121 (denominadas números internacionales de datos, o IDNs, International Data Numbers) varían en longitud pudiendo llegar hasta los 15 decimales de largo. Los primeros cuatro dígitos de un IDN se denominan código de identificación de red de datos (DNIC, Data Network Identification Code). El DNIC se divide en dos partes, los primeros tres dígitos especifican el país y el último digito especifica a la propia PSN. Los restantes dígitos del IDN se denominan número nacional de terminal de red (NTN, National Terminal Number) y se usan para identificar al DTE específico en la PSN. El formato de direcciones X.121 se muestra en la figura. Para saber el código DNIC específico, se debe consultar al proveedor de servicios. Para obtener un listado, con las asignaciones de códigos del ITU-T para los distintos países, se debe mirar la recomendación X.121. Una muestra de códigos DNIC de distintos países se muestra en la figura. Los proveedores de servicion establecen TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

2 2 4 5 24 45 5

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C X CAAAPPPIIITTTUUULLLOOOIIIX X

X X 2 5 X...2 25 5

las direcciones especificas a acceder y usan la red PSN. Para obtener una conexión X.25, el suscriptor debe usar la dirección X.121 asignada. Debido a que cada conexión X.25 requiere de una dirección X.121, a estas se las denomina direcciones X.25. Para que diferentes protocolos de red se comuniquen a través de X.25 es necesario ingresar, en el router, distintas sentencias de mapeo. Estas sentencias mapean la dirección de capa de red de próximo salto a una dirección X.121 (ver figura). Por ejemplo, una dirección IP de capa de red se mapea a una dirección X.121 para identificar el host de próximo salto ubicado al otro lado de la red X.25. En una LAN Ethernet, se usa el protocolo ARP para definir la asociación de direcciones. En X.25, una sentencia de mapeo proporciona la asociación de direcciones sobre un enlace serial. Con protocolos como ARP, una dirección de capa 3 es mapeada a una dirección de capa 2. En forma similar, una dirección X.121 es mapeada a una dirección de capa 3, como IP. Una diferencia importante es que en X.25 no hay un protocolo de resolución de direcciones que automatice esta operación, se lo debe hacer manualmente. 2.3.3. Dispositivos de red X.25 Los dispositivos de red X.25 se agrupan en tres categorías generales: * Equipo terminal de datos (DTE, Data Terminal Equipment). * Equipo de terminación de circuito de datos (DCE, Data Circuit-terminating Equipment). * Intercambio y conmutación de paquetes (PSE, Packet Switching Exchange). Los dispositivos DTE son los sistemas extremos que se comunican por la red X.25. Por lo gral. son terminales, routers, o hosts de red, localizados en el área individual del subscriptor (CPE). Los dispositivos DCE son dispositivos de comunicación como módems y conmutadores de paquetes (switches). Proporcionan la interfase entre los dispositivos DTE y un PSE. Los DCEs X.25 se localizan normalmente en el área del carrier. El protocolo X.25 implementa circuitos virtuales entre el DTE X.25 y el DCE X.25. Los PSEs son switches que conforman la nube de red del portador. Transfieren datos desde un dispositivo DTE a otro a través de la PSN X.25. La figura ilustra las relaciones entre los tres tipos de dispositivos de red X.25. La señalización X.25 sucede entre un dispositivo DTE y un DCE. La señalización entre equipos de conmutación DCE en la nube, es propietaria. El entendimiento de DTE y DCE es independiente del típico “género del enchufe” (si el conector es macho o hembra) y de las definiciones de “fuente del reloj” utilizados en la capa física (ver figura). 2.3.4. Por qué usar paquetes ? ¿Por qué, complicarse la vida en cortar un largo flujo de información en un montón de pequeños paquetes? Porque los paquetes son muy eficientes y fiables, ese es el motivo. Por ejemplo, supongamos que un enlace de comunicación se rompe en mitad de una transmisión de datos. Si esta fuera una comunicación basada en circuitos, la transmisión se detendría y la estación emisora debería reiniciar la comunicación a través de otra ruta y, a continuación, retransmitir todos los datos. Sin embargo, si fuera una transmisión basada en paquetes, tan pronto como la estación receptora (o cualquiera de las otras estaciones en la ruta) advirtiera que la ruta no se encuentra operativa, los paquetes serán inmediatamente reencaminados a través de otro camino de transmisión. Además, sólo aquellos paquetes que realmente se hubieran perdido serían retransmitidos. Así pues, ¿de donde vienen los paquetes?. El proceso de formación de los paquetes dentro del marco del modelo OSI se explica en el apartado “encapsulamiento” del capitulo 2. 2.3.5. Conexiones de paquetes X.25 es un protocolo orientado a conexión (ver Capitulo 1). Establece una conexión entre las estaciones emisora y receptora previa a la transmisión de datos. Sin embargo, por cada conexión realizada, sólo se transmite un paquete de datos. Esto da lugar á uno de los principales problemas de las comunicaciones orientadas a conexión: el TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

2 2 4 6 24 46 6

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C X CAAAPPPIIITTTUUULLLOOOIIIX X

X X 2 5 X...2 25 5

colapso de un canal hasta que todos los datos se hayan transmitido. Este es el motivo por el que, en el caso de X.25, “todos los datos” significa un paquete. La figura siguiente ilustra lo dicho. Al mismo tiempo, X.25 mantiene la fiabilidad de las comunicaciones orientadas a conexión. Obviamente, si los datos se transmiten a la velocidad de un sólo paquete por conexión, ello da lugar, por lo general, a varios miles de conexiones para completar una única transmisión de datos basada en paquetes. Este elevado número de conexiones y de dispositivos que realizan las transmisiones conforma la red de conmutación de paquetes X.25 (ver en capitulo 4 “redes de conmutación de paquetes”). El paquete incluye un campo con información del nivel de red y contiene seis componentes principales: 1) Delimitador de comienzo de trama: es una secuencia de 8 bits que indica el comienzo del paquete. El delimitador de comienzo de trama y el delimitador de final de trama son cruciales en la determinación de cuándo comienza y finaliza un paquete, puesto que los paquetes no son de longitud fija. 2) Campo del nivel de enlace: este campo contiene información para tratar los paquetes erróneos y el control de flujo. Las funciones de nivel de enlace gestionan la corrección y recuperación de errores, así como la detección de la existencia de buffer insuficientes en el manejador de paquetes del destino para recibir el paquete. 3) Campo del nivel de red: este campo contiene la información necesaria para el establecimiento de una conexión extremo a extremo entre las estaciones emisora y receptora. El nivel de red es responsable de establecer y liberar la conexión para cada paquete transmitido, así como de suministrar algunos procedimientos de control de flujo. 4) Campo de datos de usuario: estos son los datos “útiles” del paquete. Generalmente su tamaño es de 4 K o inferior. 5) Secuencia de verificación de trama: es un campo de dos bytes que contiene la suma de comprobación para determinar si el paquete ha sido dañado durante la transmisión. A la trama recibida se le calcula la correspondiente suma de comprobación y se compara con el campo FCS, que fue calculado por el emisor. El paquete se descarta si no son iguales y las estaciones finales deben resolver la pérdida del paquete. Si se observa la estructura del paquete X.25, este protocolo conlleva un procesamiento exhaustivo del paquete. No sólo se establece una conexión para todos y cada uno de los paquetes enviados, sino que, tanto los protocolos de nivel de red como la secuencia de verificación de trama, realizan una comprobación de errores del paquete. Además el nivel de enlace y el nivel de red proporcionan un intensivo control de flujo, que controla la velocidad a la que los dispositivos transmiten paquetes al conmutador X.25. Si el switch receptor, debido a su congestión, es incapaz de aceptar más paquetes de la estación emisora no podrá confirmar la recepción de los paquetes. Además, emitirá un mensaje de “no enviar más paquetes” al dispositivo emisor. Cuando en el switch receptor finaliza la congestión, éste envía el pertinente mensaje “OK para enviar de nuevo” al dispositivo emisor. De esta manera, se garantiza que el switch de recepción nunca tenga que descartar datos por motivos de insuficiente capacidad de almacenamiento y al mismo tiempo se ofrece un nivel más de fiabilidad en la transmisión de datos. Los desarrolladores del protocolo consideraron necesario este nivel de procesamiento de paquete, debido a la escasa seguridad de los enlaces de transmisión disponibles en aquella época. Posteriormente se verá que, si bien estos exhaustivos mecanismos de verificación de error y control de flujo aseguran el envío del paquete, también ralentizan la transmisión de los mismos y, por tanto, reducen el rendimiento global del sistema. 2.3.6. PAD En las comunicaciones basadas en paquetes, una unidad de información se fracciona en muchos paquetes de datos más pequeños, cada uno con su dirección. La estación emisora envía estos paquetes a través de la red de comunicaciones hacia la estación destino. En la estación destino los paquetes son ensamblados, recomponiéndose la unidad de información original para procesarse a continuación. El equipo que fragmenta, gestiona y posteriormente ensambla los paquetes recibe el nombre de Ensamblador/Desensamblador de Paquetes o PAD (Packet Assembler-Disassembler). El PAD dispone de múltiples puertos. A través de un PAD un usuario de una PC, o incluso de una terminal “tonta”, puede conectarse a un host de una red X.25 y trabajar como un terminal remota de aquel. Dos computadoras de un lugar utilizan su PAD local para acceder a diferentes computadoras. Por ejemplo, una PC llama al PAD y solicita un circuito virtual a un lugar X. Otra PC llama al mismo PAD, pero solicita un circuito virtual a un ordenador central de un lugar Y. El PAD toma los datos de ambas computadoras, empaqueta los datos y los reenvía a través de una única línea de alta velocidad a la red X.25. Los dispositivos de conmutación de red encaminan los paquetes a sus destinos. El PAD es un dispositivo de uso común, en redes X.25. Se usa cuando un dispositivo DTE, como una terminal modo caracter, es demasiado simple como para implementar, en forma completa, la funcionalidad X.25. El PAD se localiza entre un dispositivo DTE y un dispositivo DCE, y realiza tres funciones primarias: * buffering (almacenamiento temporal). * ensamble de paquetes. * desensamble de paquetes. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

2 2 4 7 24 47 7

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C X CAAAPPPIIITTTUUULLLOOOIIIX X

X X 2 5 X...2 25 5 Los buffers de datos de los PADs “envían a” o “desde” el dispositivo DTE. También ensamblan los datos salientes en paquetes y los remiten al dispositivo DCE. Esta operación incluye la adición de un header X.25. Finalmente, el PAD desensambla los paquetes entrantes antes de remitir los datos al DTE. Esto incluye remover el header X.25. La figura ilustra el funcionamiento básico del PAD cuando recibe paquetes desde una WAN X.25. La operación de la interfase terminalPAD, los servicios ofrecidos por un PAD, y la interacción de control host-PAD están definidas

por las recomendaciones del sector de estandarización de la ITU-T. Algunas recomendaciones ITU-T que definen al PAD son: • X.3: especifica los parámetros para las funciones de manejo de terminal (por ejemplo, tasa de baudios, control de flujo, eco de caracter, y otras funciones) para una conexión a un host X.25. Los parámetros X.3 son similares en función a las opciones Telnet o a los comandos de atención (AT) de seteo de módems. Especifica realmente como el PAD ensambla y desensambla los paquetes de datos. • X.28: especifica la interfase de usuario para controlar localmente un PAD. X.28 identifica las teclas que se deberían entrar en una terminal para setear el PAD, similar a los comandos AT para los módems. Define la interfase entre la terminal de datos asíncrona y el PAD. • X.29: especifica un protocolo para setear los parámetros X.3 vía una conexión de red. Cuando se establece una conexión, el host destino puede pedir que el PAD o la terminal cambien sus parámetros usando el protocolo X.29. Un PAD no puede decirle al host de destino que cambie sus parámetros X.3, pero si puede comunicar que sus propios parámetros fueron cambiados. Define la interfase entre el equipo de comunicaciones de datos (la red X.25) y el PAD. • X.75: especifica la entrada (gateway) a la nube. Define el sistema de señalización entre dos PDNs. X.75 es esencialmente una Interfase Red a Red (NNI, Network to Network Interfase). El uso conjunto de estos tres protocolos permite iniciar una sesión interactiva desde un terminal conectada a un PAD con un ordenador remoto, por lo que se le conoce como el logon remoto XXX. Cuando un usuario en un ordenador conectado a X.25 desea establecer una conexión como terminal remota de otro ordenador a través de una red X.25 lo hace mediante un programa en su ordenador que emula el comportamiento de un PAD (PAD Emulation). El logon remoto XXX ofrece en redes X.25 un servicio equivalente al de Telnet en TCP/IP. Para el caso de usuarios que no dispongan de un PAD propio muchas compañías telefónicas ponen a su disposición un servicio de acceso a PADs por PDN o PSN (red telefónica básica o conmutada). Este servicio se denomina normalmente X.28, por ser este estándar el que define el protocolo de comunicaciones entre el terminal de usuario y el PAD.

33.. X X...222555 YYYCCCIIIRRRCCCUUUIIITTTO O V R T U A L E OSSSV VIIIR RT TU UA AL LE ESSS Una conexión X.25 permite tanto los circuitos virtuales permanentes (PVC) o, más normalmente, un circuito virtual conmutado (SVC) (ver “circuitos virtuales” en el Capitulo 4). Esto le hace más flexible que otros muchos protocolos de conmutación de paquetes. Por ejemplo, Frame Relay admite sólo circuitos virtuales permanentes, aunque, actualmente, en los comités de normalización se encuentra en discusión la especificación de un modo de circuito virtual conmutado para Frame Relay. La figura muestra los dos tipos de VCs. El rendimiento que se obtiene de un VC X.25 depende de muchos factores: velocidad de los accesos físicos implicados, número de VC simultáneos, tráfico en cada uno de ellos, carga de la red, infraestructura, etc. En la jerga de X.25, el término circuito virtual (VC) se usa intercambiablemente con los siguientes términos: identificador de canal lógico (LCI, Logical Channel Identifier), número de circuito virtual (VCN, Virtual Circuit Number), número de canal lógico (LCN, Logical Channel Number) e identificador de canal virtual (VCI, Virtual Channel Identifier). Un PVC es similar a una línea arrendada (leased). Tanto el proveedor de red como el subscriptor X.25 atachado deben aprovisionar al VC. Los PVCs no usan seteo de llamada ni liberación de llamada lo cual está claro para el subscriptor. El PVC siempre está presente, aun cuando no se transfiera datos. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

2 2 4 8 24 48 8

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C X CAAAPPPIIITTTUUULLLOOOIIIX X

X X 2 5 X...2 25 5

Múltiples protocolos pueden ser enrutados sobre el mismo PVC. También, pueden establecerse, múltiples circuitos sobre una misma interfase creando múltiples PVCs. Un SVC existe sólo el tiempo de duración de una sesión. Tres fases se asocian con los SVCs X.25: • Seteo de llamada (call setup). • Transferencia de información. • Liberación de llamada (call clear). El protocolo X.25 ofrece servicio simultáneo a muchos hosts. Una red X.25 puede soportar configuraciones de múltiples SVCs y PVCs sobre el mismo circuito físico atachado a la interfase X.25. Los routers Cisco proveen enumeración para hasta 4095 VCs por interfase X.25. Los VCs se identifican mediante el LCI. 3.1.1. Beneficios del servicio orientado a conexión en X.25 Los servicios orientados a conexión a través de circuitos virtuales en una red de conmutación de paquetes combinan los beneficios de una red de conmutación de circuitos con los de una red de conmutación de paquetes. Los paquetes se transmiten de manera ordenada desde la estación emisora hasta la estación receptora y, sin embargo, pueden ser reencaminados para eludir los fallos y congestiones de la red. Debido a que la ruta ha sido predefinida, se minimizan o incluso se eliminan los retardos asociados a la determinación de la ruta. La estación receptora puede ensamblar los paquetes con un retardo mínimo. 3.1.2. Beneficios de una red de conmutación de paquetes X.25 Las PSNs ( Packet Switched Network) (no confundir con el acrónimo PSN de redes conmutadas publicas que pueden o no ser conmutadas por paquetes) usan medios de transmisión compartidos para proporcionar servicios WANs rentables (costo efectivo) para los clientes. Antes de que las PSNs estuvieran ampliamente disponibles, los clientes debían escoger entre una conexión discada (dial up), por línea conmutada, o una conexión dedicada. Ambos tipos de conexiones eran ineficaces para aplicaciones que involucren transferencia de datos intermitentes o en ráfaga (bursty). Un servicio PSN como X.25 o Frame Relay, puede hacer uso del ancho de banda y tener la flexibilidad suficiente para conducir transacciones hacia múltiples locaciones. Las PSNs proporcionan a las oficinas remotas conexiones permanentes o conmutadas que ofrecen altos niveles de rendimiento (típicamente hasta DS-1). Una importante ventaja de las PSNs es que ofrecen a los clientes un camino para compartir los medios con otros clientes, permitiendo reducir el costo del servicio WAN. Esto se logra mediante el uso de los circuitos virtuales, los cuales hacen posible que un sitio remoto mantenga conexiones a múltiples sitios sobre la misma interfase física. En redes X.25, la información de VC se denomina LCI (identificador de canal lógico) y está incluido en el header del paquete. Las PSNs permiten a los proveedores cobrar a sus clientes sobre la base del número de paquetes transmitidos, de esta manera el cliente puede pagar “por lo que envía” y las PSNs pueden proporcionar una óptima relación costo-efectividad. La PSN X.25 fue una de las tecnologías de red de conmutación de paquetes más tempranas y la primera en ser desarrollada mundialmente. De hecho, PSN X.25 todavía se usa en países en vías de desarrollo y para conexión de equipos legados (legacy, propietarios) y continúa siendo la tecnología de red de conmutación de paquetes más popular del mundo, y que puede encontrarse en virtualmente cada región que soporte comunicaciones de datos.

444... T A D E L Ó N G U R A C N O T WA AN NX X..2255 LA AW ND DE EL CIIIÓ ÓN GU UR RA AC ON NFFFIIIG TAAARRREEEAAASSSDDDEEECCCO Cuando se selecciona X.25 como protocolo WAN, es necesario setear los parámetros de interfase apropiados. Las tareas de configuración de interfase incluyen: • Definir la encapsulación X.25 (por lo gral. en el DTE). El router puede ser un dispositivo DTE X.25, el cual se usa cuando la red PSN X.25 transporta varios protocolos; o puede ser un dispositivo DCE X.25, el cual se usa cuando el router actúa como switch X.25. La encapsulación puede ser de distintos tipos: IETF, Cisco, etc. • Asignar las direcciones X.121 (proporcionadas normalmente por el proveedor de servicios PDN). Esta define la dirección local del router. Se define una sola dirección por interfase. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

2 2 4 9 24 49 9

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C X CAAAPPPIIITTTUUULLLOOOIIIX X •

X X 2 5 X...2 25 5

Definir las sentencias de mapeo para asociar las direcciones X.121 con las direcciones de los protocolos de nivel superior (una dirección IP por ejemplo). Provee un mapeo estático de una dirección de alto nivel a una dirección X.25. Mapea la dirección de capa de red del host remoto a una dirección X.121 del host remoto. Configurar los parámetros para conectarse a una red X.25 (configuración SVC o PVC). Una vez mapeadas las direcciones IP a direcciones X.25 (o X.121) el/los routers intentarán establecer SVCs o PVCs entre las direcciones X.121 fuente y destino. Una vez aceptada la dirección IP remota de la dirección X.121 fuente y establecida la conexión, se conecta el SVC (o PVC) la cual se usa como un enlace punto a punto por parte del destino identificado. Incluir parámetros de configuración adicional. pueden realizarse otras tareas de configuración para controlar el rendimiento de los datos y asegurar la compatibilidad con la red X.25 del proveedor de servicios. Los parámetros usados normalmente pueden ser los siguientes: o rango de los VCs: X.25 puede mantener hasta 4095 VCs (de 1 a 4095, el VC 0 no está permitido), identificados por su LCI. Los valores para este parámetro deben ser iguales en ambos extremos del enlace X.25. Para conectarse a una PDN, estos valores deben ser asignados por la red. Un rango está inutilizado si su limite superior e inferior esta fijado en cero. o tamaños de los paquetes: especifica el tamaño de paquete de entrada / salida máximo. El tamaño por defecto es de 128 bytes. Los valores soportados son: 16, 32, 64, 128, 256, 1024, 2048, y 4096. Los valores de entrada y salida deben coincidir a menos que la red soporte transmisiones asimétricas. Si la estación de una conexión X.25 está en conflicto con el tamaño de paquete máximo del VC, entonces el VC no trabajará. La fragmentación es una facilidad de X.25; el PAD reensamblará el paquete IP en el destino. El tamaño de paquete por defecto provisto mundialmente por las PDNs es de 128 bytes. En Estados Unidos y Europa, el tamaño de paquete por defecto es de 1024 bytes. Otros países establecieron tamaños mayores. o parámetros de ventana: X.25 usa ventanas deslizantes para control de flujo. Las ventanas más grandes permiten más paquetes en tránsito. El tamaño de ventana especifica el número de paquetes que pueden recibirse o enviarse sin recibir o enviar un reconocimiento (ACK). Ambos extremos de un enlace X.25 deben usar el mismo tamaño de ventana. Un tamaño de ventana de VC más grande permitirá que más paquetes transiten por la red entre los dos puntos extremos del VC. El valor de tamaño de ventana por defecto es de 2. Este valor solo se usa en VCs que no negocian un tamaño de ventana. El tamaño de ventana mínimo es de 1 paquete. Un tamaño de ventana LAPB más grande permitirá que más frames transiten entre una conexión DTE/DCE inmediata. X.25 es un protocolo de flujo controlado. Los parámetros predefinidos de control de flujo deben concordar en ambos lados del enlace. Las desigualdades, debido a configuraciones inconsistentes, pueden causar severos problemas de internetworking.

55.. O OTTTRRRO O A E C T O E N U N A R E D OSSSA ASSSPPPE EC CT TO OSSSE EN NU UN NA AR RE ED DX X..2255 Como en toda red de conmutación de paquetes es una bueno mantener reducido el tamaño de los paquetes, evitando así que un paquete (o paquetes) se corrompan, y poder retransmitir solo aquellos paquetes que contengan errores. Por tanto, cuanto más pequeños sean los paquetes, menos tiempo es necesario para la retransmisión. Además, paquetes de tamaño grande son devoradores de recursos, colapsando los recursos de la transmisión más tiempo del necesario. En general, cuanto más pequeño es el paquete más eficiente es la transmisión de datos.

5.1. Flexibilidad La multiplexación permite que múltiples usuarios se comuniquen con otros muchos usuarios de manera simultánea a través de la misma red de conmutación de paquetes. Esto significa que cualquier sistema con un punto de acceso a la nube X.25 puede enviar paquetes a cualquier otro sistema con un punto de acceso a la nube X.25. Esto es muy diferente a los sistemas de circuitos dedicados, que proporcionan ancho de banda dedicado únicamente entre dos puntos.

TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

2 2 5 0 25 50 0

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C X CAAAPPPIIITTTUUULLLOOOIIIX X

X X 2 5 X...2 25 5

5.2. Rendimiento En 1976, el estándar X.25 admitía una velocidad máxima de transmisión de 64 Kbps. Desgraciadamente, la sobrecarga debida a la exhaustiva verificación de errores del protocolo consumía la mayoría de este ancho de banda. En 1992, la ITU editó una revisión del estándar X.25 que, entre otras mejoras, incrementó la velocidad máxima soportada a 2,048 Mbps. De hecho, France Telecom lleva años ofreciendo el servicio X.25 a 2,048 Mbps. El escaso ancho de banda de sus primeras implementaciones ha dado a X.25 una mala e inmerecida fama de protocolo de baja velocidad. Realmente, X.25 posee potencial para lograr rendimientos tan elevados como Frame Relay, e incluso más altos. Por supuesto, la naturaleza basada en paquetes de X.25 puede tener un efecto negativo en el rendimiento. Por ejemplo, cuando el tráfico es extremadamente elevado, los retardos de los envíos son casi inevitables, debido a que los paquetes comparten los puertos del router. Incluso aunque los routers puedan dirigir los paquetes de modo que eludan las zonas más congestionadas de la red, los usuarios experimentarían todavía un descenso del rendimiento. Por otra parte, su naturaleza de conmutación de paquetes da a X.25 la posibilidad de acomodarse a las ráfagas de tráfico que exceden del ancho de banda promedio. Las redes de conmutación de circuitos, en el otro extremo, sólo pueden ofrecer una cantidad limitada e inflexible de ancho de banda entre las estaciones emisora y receptora. Debido a que este ancho de banda es fijo, no es capaz de gestionar las ráfagas de tráfico que sobrepasan del ancho de banda especificado.

5.3. Sobrecarga Excesiva La sobrecarga en X.25 es exhaustiva, comparada con la mayoría de los otros protocolos de conmutación de paquetes. Esto se debe a los rigurosos mecanismos de comprobación de errores y de fiabilidad de la transmisión. En X.25, cada router y switch a lo largo del camino de los datos debe recibir completamente cada paquete, comprobar su dirección de destino y, a continuación, realizar las rutinas de comprobación de errores antes de enviarlo a la siguiente etapa de su viaje. Como resultado, cada nodo en X.25 mantiene una tabla con información de administración, control de flujo y verificación de errores contra la cual comprueba cada paquete. Además, las estaciones destino en la red X.25 son responsables de la detección de paquetes perdidos o dañados y de solicitar la retransmisión.

5.4. Fiabilidad X.25 posee una fiabilidad e integridad de datos acorazadas. X.25 desempeña estas labores mediante un intrincado proceso de confirmación de paquetes de datos y comprobación de errores. Cada vez que una estación emisora transmite un paquete, la estación receptora debe enviar un paquete de respuesta en contestación. Usualmente, aunque el funcionamiento interno de los switches de paquetes X.25 no se encuentra definido por los estándares y, por tanto, es propietario, la mayoría de las redes X.25 requieren de una confirmación del nivel de enlace de datos de cada uno de los nodos a través de los cuales pasa el paquete y de una confirmación del nivel de red de la estación receptora, como muestra la figura.

A primera vista, esto parece excesivo, pero no es necesariamente cierto. Las confirmaciones no tienen porque ir contenidas en paquetes distintos y separados. En su lugar, las confirmaciones pueden estar incluidas en los paquetes de datos que viajan en la dirección opuesta (hacia la estación emisora), como muestra la figura siguiente. Esta variación de la operación full-duplex hace un uso eficiente de los recursos de la red, y sitúa el “retardo” provocado por las confirmaciones en su correcta perspectiva. Un switch de paquetes X.25 diseñado adecuadamente puede, incluso, aplazar los mensajes de confirmación hasta que éstos puedan ser expedidos junto con datos que viajan en otro paquete incrementando, de esta manera, el rendimiento del switch y de la totalidad de la red. Por supuesto, si dentro de un período de tiempo razonable no existieran paquetes de datos que viajaran en la dirección opuesta, el switch tendría que enviar un paquete de confirmación independiente, poniendo de manifiesto un incremento de la latencia (el tiempo entre la llegada de un paquete a un puerto del switch y la salida del paquete desde otro puerto) del switch. TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

2 2 5 1 25 51 1

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C X CAAAPPPIIITTTUUULLLOOOIIIX X

X X 2 5 X...2 25 5

5.5. Contratación de X.25 Las redes X.25 son razonablemente fáciles de instalar y mantener. De hecho, si se tiene mucha predilección, es posible prescindir por completo de los operadores públicos y construir una red privada de conmutación de paquetes X.25. Todo lo que hay que hacer es instalar PADs de paquetes en las LANs, conectarlos a los routers X.25 en cada dependencia local y conectar la dependencia local mediante líneas dedicadas alquiladas, tal y como muestra la figura. Por supuesto, habitualmente es más fácil y económico seguir la referencia del operador público. En Estados Unidos la oferta de X.25 está generalizada, siendo ofrecido por muchos y diferentes proveedores de servicios, y proveedores de servicios de valor añadido. X.25 es un servicio contractual en vez de un servicio sujeto a tarifa, por lo que los costes varían según el operador. El precio se basa en el número de paquetes transmitidos y/o en el tiempo de conexión. Nota: antes de firmar, se debe analizar si X.25 es realmente el mejor servicio para la WAN considerada. A menos que se disponga de un elevadísimo número de nodos para conectar, probablemente X.25 no sea una elección rentable. Otros servicios, como las antiguas y simples líneas conmutadas dedicadas o incluso Frame Relay, proporcionarán un servicio de mayor velocidad a un coste inferior. Este es el motivo por el que, en Estados Unidos, X 25 se emplea principalmente como complemento de líneas dedicadas. Sin embargo, fuera de los Estados Unidos es posible que X.25 sea la única posibilidad disponible para la transmisión de datos WANs. En muchas empresas las líneas alquiladas son casi imposibles de obtener de los operadores públicos y/o lleva meses o años de gestión anticipada conseguirlas. Además, en otros países, a los usuarios de telecomunicaciones no se les permite utilizar módem en una red de un operador público.

5.6. X.25 y Frame Relay Mucho se converso comparando X.25 con Frame Relay, incluso sobre como Frame Relay es tan solo una versión más rápida de X.25 y como Frame Relay, finalmente, reemplazará a su primo más antiguo. En su mayoría son simples boberías. Mientras que Frame Relay es más eficiente que X.25, el viejo protocolo ofrece muchos aspectos no disponibles en Frame Relay. El beneficio más obvio es el tratamiento de errores. Los sistemas de transmisión son mucho más fiables de lo que solían ser y los paquetes de datos perdidos y sus consecuentes retransmisiones no constituyen ya el continuo problema que fue en el pasado. A pesar de ello, cuando la fiabilidad lo es todo, Frame Relay no puede rivalizar con los mecanismos de envío garantizado de paquete y de comprobación de errores de X.25. Además, X.25 ofrece a los proveedores la posibilidad de enriquecer en gran medida los servicios de transmisión X.25, incluyendo características como: * Redes de datos privadas virtuales de área extensa (WAN VPN). * Retransmisión de paquetes: las estaciones receptoras pueden designar una estación de respaldo para la recepción de paquetes cuando la estación receptora principal se encuentre ocupada o no operativa. * “Cobro de llamadas”, las estaciones emisoras pueden indicar (con la autorización de la estación receptora) que la dirección de destino pague la transmisión. * Grupos cerrados, un grupo de estaciones puede ser nominado colectivamente como un único destino de manera que el tráfico dirigido a una estación puede ser recibido por cualquier estación del grupo cerrado (este aspecto está relacionado con el reenvío de paquetes). Frame Relay no proporciona (y no esta diseñado para ello) los servicios opcionales para los que X.25 fue concebido. Mientras que X.25 es un vehículo todo terreno totalmente equipado, Frame Relay es un jeep. Ambos son capaces de desplazarse con soltura por la arena. Y lo que es más, el jeep puede superar al todo terreno en casi todas las situaciones. Pero, si se tuviera que realizar un duro viaje, elija el todo terreno.

66.. C C O N C L U Ó N X CO ON NC CL LU USSSIIIÓ ÓN NX X..2255 Los protocolos X.25 se diseñaron pensando en los medios de transmisión de los años setenta, líneas de baja velocidad con una elevada tasa de errores. El objetivo era aprovechar lo mejor posible las lentas líneas de transmisión existentes, aun a costa de hacer un protocolo de proceso pesado. Por si esto fuera poco, las redes X.25 TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

2 2 5 2 25 52 2

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C X CAAAPPPIIITTTUUULLLOOOIIIX X

X X 2 5 X...2 25 5

casi siempre se utilizan para encapsular tráfico correspondiente a otros protocolos, por ejemplo TCP/IP, SNA o DECNET (podríamos decir que los paquetes de estos protocolos viajan “disfrazados” en paquetes X.25). Cuando se encapsula un protocolo como TCP/IP en X.25 se realizan de forma redundante las tareas de la capa de red, con lo que el resultado es aún más ineficiente. Estos exhaustivos mecanismos de verificación de error y control de flujo aseguran, sin duda, el envío del paquete. Sin embargo, también ralentizan la transmisión de los paquetes y, por tanto, reducen el rendimiento global de la red. Afortunadamente, sucedieron dos acontecimientos que han ayudado a hacer estos mecanismos menos importantes. El primero fue la llegada de sistemas de transmisión de alta velocidad capaz de enviar paquetes con muchos menos errores. El segundo fue el desarrollo de aplicaciones para estaciones de usuario final diseñadas para detectar y recuperar los paquetes erróneos. Como resultado de estas dos innovaciones, los diseñadores de redes se encontraron ansiosos por deshacerse de estos engorrosos (y ahora innecesarios) procedimientos de comprobación de errores. Para resolver este tipo de problemas a partir de 1990 se empezaron a crear redes basadas en Frame Relay.

TTTRRRAAABBBAAAJJJOOOFFFIIINNNAAALLLDDDEEEA A APPPLLLIIICCCAAACCCIIIÓÓÓNNN

2 2 5 3 25 53 3

G G R D GOOONNNZZZÁÁÁLLLEEEZZZ,,, R RIIICCCAAARRRDDDOOOD DAAANNNIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

R REEDD D DIIGGIITTAALL DDEE SSEERRVVIICCIIOOSS IINNTTEEGGRRAADDOOSS 11.. D Ó N G E N E R A L DEEESSSCCCRRRIIIPPPCCCIIIÓ ÓN NG GE EN NE ER RA AL L La evolución de la familia RDSI ha sido un proceso largo y difícil. Se ha oído hablar acerca de la Red Digital de Servicios Integrados (RDSI) o Integrated Services Digital Network (ISDN), durante casi una década o más. Desde su concepción fue proclamada por los expertos en telecomunicaciones como la interfase del teléfono público y de las telecomunicaciones del futuro. Pero, durante años, no se concretó en ninguna solución práctica, productiva y rentable. Hoy día, sin embargo, RDSI está en alza. Ahora está disponible en la mayoría de las redes metropolitanas, donde los proveedores de servicios se encuentran con peticiones en espera (principalmente de las áreas residenciales). Puesto que RDSI integra voz, datos y señal de vídeo en una línea telefónica digital (por contraposición a la analógica), puede proporcionar una manera eficiente y rentable de conexión entre LAN con servicios digitales de gran ancho de banda, así como poner a disposición de los “teletrabajadores” los mismos servicios digitales a los que están acostumbrados a tener en sus oficinas. Todavía más, RDSI ha desarrollado estándares internacionales para proveedores de servicios digitales, haciendo más fácil la expansión de las redes de datos a través de países y continentes. Existen distintos tipos de tecnologías WAN para solucionar los problemas de conectividad para los usuarios que necesitan tener acceso de red desde ubicaciones remotas, una de ellas es la RDSI, diseñada específicamente para solucionar los problemas de ancho de banda bajo de las pequeñas oficinas y de los usuarios dial-up de los servicios telefónicos tradicionales. Hace más de 30 años atrás los investigadores reconocieron las limitaciones inherentes de los POTS (Sistemas Telefónicos Planos) y visionaron que ISDN proveería un canal digital con acceso integrado a un amplio rango de servicios, entre los que se incluyen: voz, conmutación de paquetes y video. A través de los años se fueron agregando estándares con el fin de llegar a la red digital de alta velocidad para oficinas y negocios. A pesar de la extensa serie de normas ISDN, los carriers o portadores no han implementado uniformemente la tecnología, por lo que las configuraciones y precios pueden variar significativamente entre un lugar y otro. El origen de la familia RDSI es el estándar RDSI de Banda Estrecha (RDSI-BE) o Narrowband-ISDN (N-ISDN). En 1984 apareció el primer estándar RDSI para definición de interfaces digitales punto a punto, definido por el CCITT. El CCITT definió estándares adicionales en 1988 para una red de alta velocidad denominada RDSI de banda ancha o Broadband ISDN (BISDN), la cual introdujo una nueva arquitectura protocolar, llamada ATM. RDSI (de banda ancha) fue considerada como un gran avance por dos razones. En primer lugar, porque especificaba servicios para redes digitales que operarían a través de las redes telefónicas digitales existentes. En segundo lugar, ofrecía un límite de rendimiento de 2 Mbps en el enlace local y 64 Kbps o 128 Kbps en el área extensa. En los orígenes de RDSI banda estrecha el límite de velocidad de los módem era de 9.600 bps.

1.1. Terminología ISDN 1.1.1 ¿Qué es RDSI? Las compañías telefónicas desarrollaron RDSI para suministrar servicios digitales a través de una red totalmente digital. Estos servicios pueden incluir voz, datos y vídeo. RDSI se desarrolló para utilizar el sistema de cableado existente y funciona de forma similar a un teléfono. RDSI fue desarrollado para reemplazar las centrales del sistema telefónico analógico estándar de la PSTN (Red de Telefonía Pública Conmutada). Los estándares RDSI definen el hardware y los esquemas de configuración de llamadas para la conectividad digital de extremo a extremo. Es un servicio de discado que se utiliza ampliamente, no sólo en los EE.UU sino en todo el mundo. Cuando se realiza una llamada de datos con RDSI, el enlace WAN se activa durante la duración de la llamada y se desactiva cuando la llamada se completa. Es muy similar a lo que ocurre cuando se realiza una llamada telefónica y luego se cuelga cuando la conversación termina. RDSI permite que las señales digitales se transmitan a través del cableado telefónico existente. Esto se hizo posible cuando se actualizaron las centrales analógicas de la compañía telefónica para que manejaran señales digitales. RDSI generalmente se considera como una alternativa para las líneas arrendadas, que se pueden utilizar para teleconmutar y conectar oficinas pequeñas y remotas a la LAN. RDSI es un servicio flexible que conmuta rápidamente entre los diferentes dispositivos conectados a él. Por ejemplo, proporcionará servicios digitales a un teléfono, un fax o una PC, todos los cuales estarán conectados a T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 5 7 25 57 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

la misma interfase RDSI. RDSI también se puede utilizar como enlace de acceso local a redes Frame Relay y X.25. RDSI utiliza dos tipos de canales, uno para transmisión de datos y otro para manejo de señalización de gestión y control de la llamada. Los proveedores de RDSI han combinado estos dos tipos de canales, en diferentes números, para construir diferentes estándares de ofertas de servicios, denominados accesos RDSI (los accesos BRI y PRI, como se verán mas adelante). Estos dos tipos de canales son: 1) Canales portadores (bearer channels): su única función es la de transportar datos. De ahí su nombre “portador”. Estos canales transportan información de usuario a través de la red RDSI. Los canales portadores (canales B) son canales de conmutación de circuitos a 64 Kbps del mismo tipo de los utilizados para manejar una llamada telefónica normal, aunque los canales B de RDSI son digitales, en lugar de los canales analógicos que utiliza el servicio telefónico tradicional. Los canales B se establecen y se liberan cuando finaliza la llamada. Pueden conectar dos puestos RDSI cualesquiera. 2) Canales de señalización (signaling channels): RDSI especifica también un segundo tipo de canal, denominado canal de señalización o canal D. El canal de señalización esta separado de los canales B, proporcionando señalización fuera de banda para establecimiento, control y liberación de la llamada. Dado que esta señalización de control se hace en un canal separado, la llamada se establece mucho más rápidamente que si la información de señalización tuviera que compartir el ancho de banda con los datos. Por ejemplo, el canal D proporciona a la red el número de interlocutor al que se llama mientras los datos esperan en los canales B a ser transmitidos. De esta manera, la transmisión puede comenzar tan pronto como se establezca la llamada. La señalización del canal D es una función de los niveles físico, enlace y red del modelo de protocolo OSI. 1.1.2. Interfase abonado-red Se vio que una de las de las ventajas de RDSI es la digitalización que se traduce en un medio muy fiable de transportar información. La segunda gran ventaja es la señalización que, como se verá, está estructurada en dos capas (las capas 2 y 3 de RDSI, respectivamente) pero el aspecto más importante que trae la elaboración de las normas de RDSI es el de la Interfase Red -Usuario (UNI, User Network Interfase), que es la vista de la pantalla cuando el usuario disca a la red y usa las capacidades de red.. El bucle de abonado ha sido lo último en digitalizar y normalizar y un gran esfuerzo se hizo para cubrir todas las demandas existentes. Fue en el acceso básico, el destinado a sustituir el bucle de abonado analógico, el que requirió una mayor atención por parte de las personas que trabajaban en la elaboración de las nuevas normas. Lo primero que se determinó fue que existían dos necesidades. Por un lado definir una interfase que se adaptara a las muy distintas líneas existentes, que fuera además a dos hilos para poder mantener la infraestructura de la red analógica, y finalmente que fuera suficientemente robusto frente a errores e interferencias. Por otro se determinó que era fundamental disponer de una interfase flexible que permitiera a varios terminales funcionar sobre el mismo acceso. Así la solución que se adoptó fue la de dividir el acceso de abonado en dos interfaces distintas: La primera es la interfase U o punto de referencia U como lo denomina el ITU-T. Esta interfase cubre la mayor distancia entre abonado y central, a él se conecta el NT1 (lo suministra el proveedor del servicio RDSI). El NT1 queda ubicada entre la interfase U y la interfase S, administrativamente la interfase de abonado. La segunda es la interfase o punto de referencia S. Esta interfase a cuatro hilos (el terminal transmite por un par y el lado central por otro) permite adoptar diversas configuraciones de tal manera que se adapta de una manera bastante flexible a las necesidades concretas de cada abonado, siendo posible incluso hacer modificaciones posteriores con muy pocas o ninguna actuación sobre la NT1. En general la instalación correspondiente a la interfase S es corta y por tanto no importa mucho el utilizar cuatro hilos en lugar de dos. Como se dijo anteriormente el acceso básico sustituye al bucle de abonado analógico y lo hace de manera completa, así una característica de este es que también se suministra la telealimentación. La telealimentación que en definitiva es el suministro de una cantidad limitada de energía por parte de la central al acceso permite que terminales sencillos, teléfonos, puedan funcionar sin necesidad de conectarse al suministro eléctrico de las viviendas. Esto en definitiva es un concepto de seguridad ya que aunque fallara el suministro eléctrico al menos un teléfono estaría operativo. En el caso del acceso básico la telealimentación se hace a través de las dos interfaces U y S. La estandarización de los servicios para el suscriptor hace que sea posible asegurar la compatibilidad internacional. Los estándares RDSI definen los esquemas de hardware y de configuración de llamadas para la conectividad digital de extremo a extremo, que ayudan a cumplir con el objetivo de lograr conectividad a escala mundial al asegurar que las redes RDSI se puedan comunicar fácilmente entre sí. Básicamente, la función de digitalización se realiza en el sitio del usuario en lugar de realizarse en la compañía telefónica. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 5 8 25 58 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

La aptitud de RDSI para otorgar conectividad digital a los sitios locales tiene muchas ventajas, incluyendo las siguientes: * RDSI puede transportar una gran cantidad de señales de tráfico de usuario. Suministra acceso a servicios de vídeo digital, datos conmutados por paquete y red telefónica. * RDSI ofrece una configuración de llamada mucho más rápida que las conexiones de módem porque utiliza “señalización fuera de banda” (canal D, o de señalización). Por ejemplo, algunas llamadas RDSI se pueden establecer en menos de un segundo. * RDSI suministra una velocidad de transferencia de datos mucho más rápida que la de los módems al utilizar el canal principal (canal B de 64 Kbps). Con múltiples canales B, RDSI brinda a los usuarios más ancho de banda en las WAN que algunas líneas arrendadas. Por ejemplo, si fuera a utilizar dos canales B, la capacidad de ancho de banda es de 128 Kbps, ya que cada canal B administra 64 Kbps. * RDSI puede suministrar una ruta de datos limpia a través de la que se pueden negociar los enlaces PPP. Sin embargo, en la fase de diseño WAN debe asegurarse de que el equipo seleccionado cuente con un conjunto de funciones que aproveche la flexibilidad de RDSI. Además, debe tener en cuenta los siguientes temas de diseño RDSI: * Temas de seguridad: como en la actualidad los dispositivos de red se pueden conectar a través de la Red Telefónica Pública Conmutada (PSTN), es fundamental diseñar e implementar un modelo de seguridad sólido para proteger la red. * Temas de costo y contención: uno de los objetivos principales de la selección de RDSI para la red es evitar el costo de los servicios de datos de tiempo completo (como las líneas arrendadas o Frame Relay). Por lo tanto, es sumamente importante evaluar los perfiles de tráfico de datos y monitorear los modelos de uso de RDSI para asegurarse de que los costos WAN estén controlados. 1.1.3. Componentes básicos de RDSI Los componentes ISDN incluyen terminales, adaptadores de terminal (TA), dispositivos de terminación de red (NT), equipo de terminación de línea y equipo de terminación de intercambio. La primer figura muestra un resumen de los componentes RDSI. Las terminales RDSI vienen en dos tipos, Tipo 1 o Tipo 2, como se indica en la segunda figura. Las terminales RDSI especializadas se denominan TE1. Las terminales que no son RDSI, como el equipo terminal de datos (DTE), más antiguos que los estándares RDSI, se denominan TE2. Los TE1 se conectan a la red RDSI a través de un enlace digital de par trenzado de cuatro cables. Los TE2 se conectan a la red RDSI a través de un TA. El TA RDSI puede ser un dispositivo autónomo o una placa dentro del TE2. Si el TE2 se implementa como un dispositivo autónomo, se conecta al TA a través de una interfaz estándar de la capa física. Más allá de los dispositivos TE1 y TE2, el siguiente punto de conexión en la red RDSI es el dispositivo de terminación de red de tipo 1 (NT1) o de terminación de red de tipo 2 (NT2) Estos son dispositivos de terminación de red que conectan el cableado de cuatro cables del suscriptor con el loop local de dos cables convencional. En Estados Unidos, NT1 es un dispositivo del equipo terminal del abonado (CPE). En la mayoría de los países del mundo, además de Estados Unidos, NT1 forma parte de la red suministrada por la portadora. NT2 es un dispositivo más complicado, que habitualmente se encuentra en las PBXs digitales, que ejecutan servicios de protocolo de Capa 2 y Capa 3. También hay un dispositivo NT1/2, que es un dispositivo único que combina las funciones de NT1 y NT2. ISDN es un set de tecnologías bien definido. El ITUT agrupa y organiza los protocolos ISDN, o “reglas”, según los temas generales (ver mas adelante protocolos E, I, Q). Si bien no es necesario el conocimiento de todas las “reglas”, es importante familiarizarse con las designaciones E, I y Q y con los temas generales que representan. Además de definir los protocolos, los estándares ISDN también especifican la función de un dispositivo dado en la red. BRI puede involucrar muchos dispositivos funcionales, también conocidos como “grupos funcionales”. Los siguientes grupos funcionales se ilustran en la figura: • Equipo Terminal Tipo 1 (TE1, Terminal T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 5 9 25 59 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

• •

• • • •

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

Equipment): designa un dispositivo que es compatible con la red ISDN. Los ejemplos de TE1 incluyen un teléfono digital, un router con una interfase ISDN, o un equipo facsímil digital. Un TE1 se conecta a un NT de tipo 1 o tipo 2. Equipo Terminal Tipo 2 (TE2, Terminal Equipment): designa un dispositivo que no es compatible con ISDN y requiere un adaptador de terminal (TA), como un router sin una interfase ISDN. Adaptador de Terminal (TA, Terminal Adapter): convierte las señales eléctricas normales en una forma usada por ISDN, así los dispositivos no-ISDN pueden conectarse a la red ISDN. Un ejemplo es convertir un V.35 o un EIA/TIA-232 a ISDN. Terminación de Red Tipo 1 (NT1, Network Termination Type): conecta el cable de cuatro alambres del subscriptor ISDN al loop local convencional de dos alambres. En Estados Unidos el NT1 es parte del CPE y en Europa parte del intercambio local (LE). Terminación de Red Tipo 2 (NT2, Network Termination Type): dirige el tráfico hacia y desde los diferentes dispositivos de subscriptores y los NT1. El NT2 es un dispositivo inteligente que realiza conmutación y concentración. A menudo, el dispositivo NT2 es una PBX. Terminación de Línea (LT, Line Termination): se localiza en el lado del intercambio local. Sus funciones son idénticas a los de un NT1. Terminación de Intercambio (ET, Exchange Termination): son tarjetas de línea del subscriptor en el área de intercambio ISDN. LT y ET a veces se denominan LE. Intercambio Local (LE, Local Exchange): es la oficina central (CO) ISDN que aloja el switch ISDN. El LE implementa el protocolo ISDN y es parte de la red. Hay dos tipos de DTEs que pueden usar servicios ISDN, ellos son TE1s y TE2s. Esencialmente, un TE1 es un dispositivo como un teléfono, router, o PC que tienen incorporados (nativo) soporte para ISDN. Recíprocamente, un TE2 es un dispositivo que no tiene soporte incorporado para ISDN. Un TE2 requiere de un TA para conectarse a ISDN. BRI exige un NT1 para conectarse al switch ISDN del portador. En Europa, el proveedor de servicios mantiene el NT1. En América del Norte, el NT1 pertenece al cliente que es responsable de comprarlo e instalarlo. Algunos dispositivos, como los routers, pueden combinar

funcionalidades de un TE1 y un NT1 en la misma unidad. Físicamente un acceso básico esta formado por un dispositivo NT1 que dispone de un conector RJ45 donde el usuario conecta su terminal RDSI (teléfono, fax, alarma, ordenador, etc.). Es posible conectar a un mismo acceso básico hasta ocho dispositivos diferentes con selección en base a subdirecciones (utilización de un dígito adicional al efectuar la llamada) o al tipo de dispositivo llamante (un fax llama a otro fax, un ordenador a otro, etc.). Un acceso primario en Europa esta formado por una interfaz G.703 (dos cables coaxiales para transmisión y recepción de 75 ohmios con conectores BNC); se trata exactamente de la misma interfase física que se suministra para una línea E1. 1.1.4. Switches e Identificadores de Perfil de Servicios RDSI (SPIDs) Para que RDSI funcione correctamente, es importante configurar el tipo de switch correcto en el dispositivo RDSI. En los Estados Unidos, el tipo más común es 5ESS de AT&T y DMS-100 de Nortel. En Japón, el tipo más común es NTT. En el Reino Unido, los tipos más comunes son Net3 y Net5. Los proveedores de servicios RDSI utilizan una diversidad de tipos de switch para los servicios RDSI. Los servicios que ofrecen las portadoras varían considerablemente de un país a otro y de una región a otra. Algunos proveedores usan switch por hardware para emular otro tipo de switch en software. Como en el caso de los módems, cada tipo de switch opera de forma levemente distinta y tiene un conjunto específico de requisitos de configuración de llamada. Como resultado, antes de poder conectar un router a un servicio RDSI, se debe saber cuáles son los tipos de switches que se utilizan en la CO. Esta información se especifica durante la configuración del router, de modo que el router pueda realizar llamadas al nivel de red RDSI y enviar datos. Si el router no está configurado con el tipo de switch correcto, no se podrá comunicar con el switch ISDN (del proveedor) usando Q.931 en la capa 3. En otras palabras, no se podrá discar o recibir llamadas ISDN. Además del tipo de switch que utiliza el proveedor de servicios, también debe saber cuáles son los Identificadores de Perfil de Servicio (SPID, Service Profile Identifier) asignados a la conexión. El SPID es un número provisto por el carrier ISDN para identificar la configuración de línea del servicio de acceso. Los SPID son un conjunto de caracteres (que pueden ser similares a los números de teléfono) que lo identifican ante el switch en la T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 6 0 26 60 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

CO. Una vez que está identificado, el switch enlaza los servicios que ha pedido con la conexión. Los SPID permiten que múltiples dispositivos RDSI, como dispositivos de voz y datos, compartan el loop local. Recordar que RDSI normalmente se utiliza para la conectividad de discado. Los SPID se procesan durante cada operación de configuración de llamada. Como se dijo, el proveedor de servicios RDSI asigna este valor, que por lo general es un número telefónico de 10 dígitos con algunos dígitos adicionales. No hay ningún número de SPID definido por defecto. No hay ningún formato estándar para los SPID. Como resultado, los números de SPID varían según el fabricante del switch y la portadora. Para mantener simple los números de SPIDs, la mayoría de las Telcos usan parte del número de teléfono ISDN en el sistema de denominación del SPID y le agregan algunos números opcionales. Por ejemplo el SPID para el número de teléfono (888) 555-1212 podría ser 888555121200. Cada SPID se refiere a la configuración de línea y a la información de configuración. Cuando un dispositivo intenta conectarse a la red RDSI, ejecuta un proceso de inicialización de capa 2 del Canal D que hace que se asigne un TEI (ver más adelante) al dispositivo. Luego el dispositivo intenta realizar una inicialización de capa 3 del canal D. Si los SPID son necesarios pero no están configurados o no están configurados correctamente en el dispositivo, la inicialización de capa 3 falla y los servicios RDSI no se pueden utilizar. Debido a que pueden aplicarse múltiples SPIDs a un solo canal B, múltiples servicios pueden ser soportados simultáneamente. Por ejemplo, el primer canal B puede configurarse para datos, mientras que el segundo canal B puede configurarse para voz (usando un teléfono ISDN) y para datos. Como se puede ver, el SPID identifica procesos lógicos individuales conectados a la interfase RDSI y previene la contención entre procesos diferentes en el bus RDSI en el caso de que se reciban llamadas entrantes mientras un dispositivo está utilizando el canal B. Este es el procedimiento de DSS1 que permite conectar varios dispositivos a una línea RDSI. Es más, el SPID, junto a otro parámetro requerido por DSS1, el Identificador Terminal de Punto Extremo (TEI, Terminal End-Point Identifier), identifica el equipo RDSI conectado a la interfase RDSI. Un único TEI puede tener múltiples SPID asociados a él. La negociación entre SPIDs es compleja, tanto que algunos proveedores RDSI han visto más sencillo admitir la contención en el bus, y permitir por lo tanto un único SPID por canal portador.

22.. R Ó N E N T R E M O D E L O REEELLLAAACCCIIIÓ DN N YYYEEELLLM OSSII ÓN NE EN NT TR RE E IISSD MO OD DE EL LO OO 2.1. Estándares UIT-T de las tres primeras capas de RDSI RDSI utiliza un conjunto de estándares UIT-T que abarcan las capas física, de enlace de datos y de red del modelo de referencia OSI: • Capa física: la especificación de capa física BRI RDSI se define en UIT-T I.430. La especificación de capa física PRI RDSI se define en UIT-T I.431. • Capa de enlace de datos: la especificación de capa de enlace de datos RDSI se basa en LAPD y se especifica formalmente en UIT-T Q.920, UITT Q.921, UIT-T Q.922 y UIT-T Q.923. • Capa de red RDSI: la capa de red RDSI se define en UIT-T Q.930 (también denominado I 450) y UIT-T Q.931 (también denominado I.451). De forma conjunta, estos dos estándares especifican conexiones de usuario a usuario, conmutadas por circuitos y conmutadas por paquetes. 2.1.1. Capa física de RDSI El protocolo para el nivel físico de RDSI establece una conexión basada en conmutación de circuitos de 64 Kbps. También admite la interfase física para el adaptador de terminal de red (network terminal adapter, NTA), el cual permite la conexión de múltiples dispositivos simultáneamente. Finalmente, este protocolo gestiona funciones de verificación y supervisión. También soporta la conexión de varios dispositivos funcionales ISDN. Los canales B y D comportan esta capa. Los estándares de la capa 1 ISDN incluye: • I.430 para BRI, el cual define la comunicación a través del punto de referencia S/T. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 6 1 26 61 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X • •

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

I.431 para PRI, el cual es una conexión síncrona, serial, punto a punto full duplex. ANSI T1.601 para BRI, el cual define la comunicación a través de la interfase U para Norte América.

Los formatos de trama de esta capa difieren según si la trama es saliente (desde la terminal hacia la red formato de trama NT) o entrante (desde la red hacia la terminal - formato de trama TE). Ambas tramas tienen una longitud de 48 bits, de los cuales 36 bits representan datos. En realidad, las tramas son dos tramas de 24 bits en sucesión formadas por 2 canales B de 8 bits, un canal D de 2 bits y 6 bits de información de entramado (2*(2*8B+2D+6F)=32B+4D+12F=36BD+12F=48BDF). En la figura aparecen ambos formatos de trama de la capa física. Los bits de una trama de capa física de RDSI se utilizan de la siguiente manera: • Bit de entramado: suministra sincronización. • Bit de equilibrado de la carga: ajusta el valor de bit promedio. • Eco de los bits anteriores del canal D: se utilizan para la resolución de contención cuando varias terminales de un bus pasivo se disputan un canal. • Bit de activación: activa los dispositivos. • Bit de repuesto: no asignado. • Bits de canal B1 • Bits de canal B2 • 8 bits de número de bits de canal agregados. • Bits del canal D: se utilizan para los datos de usuario. Tener en cuenta que cada una de las tramas de BRI RDSI se envían a una velocidad de 8000 bits por segundo. Hay 24 bits en cada trama (2*8B+2D+6F=24) para una velocidad de transmisión de bits de 8000*24= 192 Kbps. La velocidad efectiva es 8000*(2*8B+2D)=8000*18= 144 Kbps. Puede haber múltiples dispositivos de usuario RDSI conectados físicamente a un circuito. En esta configuración, se pueden producir colisiones si dos terminales transmiten de forma simultánea. Por lo tanto, RDSI proporciona funciones para determinar la contención del enlace. Estas funciones forman parte del canal D RDSI, que se describe de forma más detallada posteriormente en este capítulo. 2.1.2. Capa de enlace de datos de RDSI El protocolo de señalización RDSI de capa 2 es el Procedimiento de Acceso al Enlace en el Canal D (LAPD, Link Access Protocol, Balanced). LAPD es similar al Control de Enlace de Datos de Alto Nivel (HDLC) y al Procedimiento de Acceso al Enlace Balanceado (LAPB). El protocolo LAPD está formalmente especificado en el ITU-T Q.920 e ITU-T Q.921. LAPD se utiliza a través del canal D para garantizar que la información de control y señalización fluya y se reciba correctamente. Como lo indica la expansión de la abreviatura LAPD, se utiliza a través del canal D para garantizar que la información de control y señalización fluya y se reciba correctamente. Los canales B y D usan diferentes protocolos en esta capa. El canal B entrama datos usando PPP o HDLC; pero debido a que PPP permite autenticación, ISDN se configura por lo general para usar PPP. El canal D, en cambio, entrama datos usando LAPD (especificado por Q.921), versión de LAPB modificada especialmente para el canal D. Con ISDN, todo el direccionamiento de hardware ocurre en la Capa 2, lo mismo que en una LAN. Es posible tener hasta 8 terminales RDSI sobre un bus S/T (ver figura). Para que ISDN diferencie entre los distintos TEs, cada TE debe tener una dirección única. Una parte de la dirección ISDN de capa 2 se llama TEI (Identificador Terminal de Punto Extremo, Terminal End-Point Identifier). El TEI es un número de 7 bits acarreado en el campo dirección del frame LAPD sobre el canal D. Por lo gral. el TEI se asigna dinámicamente a un TE (un router ISDN) por el switch ISDN, cuando este (el switch) recibe del TE un requerimiento (generalmente al prenderse por primera vez). Existen 3 rangos de direcciones TEI: 1. De 0 a 63 para asignaciones TEI no automáticas. 2. De 64 a 126 para asignaciones TEI automáticas. 3. De 127 para asignaciones de grupo o broadcast. Los TEI trabajan juntos con los SAPI (Service Access Point Identifier, Identificadores de Punto de Acceso al Servicio) para completar las direcciones de capa 2. El SAPI es un número de 6 bits usado para identificar T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 6 2 26 62 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

y administrar diferentes tipos de datos para el mismo dispositivo individual conectado a la red ISDN. Los TEI representan el dispositivo ISDN específico, mientras que le SAPI representa el proceso específico que se ejecuta en el dispositivo. Por ejemplo, el SAPI valor 0 se usa para identificar procedimientos de “control de llamada”, mientas que el SAPI valor 63 identifica una función de administración de capa 2. Así como el frame Ethernet contiene la dirección MAC destino y la información del tipo de protocolo, el frame LAPD contiene el TEI y un valor SAPI. En esta capa se define el enlace lógico entre un TE/TA y un NT2/LE. Los campos de control y de señalador de LAPD son idénticos a los de HDLC. El campo de dirección de LAPD puede tener una longitud de 1 ó 2 bytes. Si se establece el bit de dirección extendida del primer byte, la dirección es 1 byte. Si no se ha establecido, la dirección es 2 bytes. El primer byte del campo de dirección contiene el SAPI, que identifica el portal en el que se suministran los servicios de LAPD a la Capa 3. El bit de Comando/Respuesta (C/R) indica si la trama contiene un comando o una respuesta. El campo Identificador Terminal de Punto Extremo (TEI, Terminal End-Point Identifier) identifica un terminal único o múltiples terminales. Si hay sólo unos en el campo TEI, indica un broadcast. 2.1.3. Capa de red de RDSI El nivel de red genera el direccionamiento y la información de encaminamiento que el nivel de enlace utiliza para establecer los circuitos virtuales. Se utilizan dos especificaciones de capa 3 para la señalización RDSI: UITT I.450, también denominada UIT-T Q.930 y UIT-T I.451, también denominada UIT-T Q.931. De forma conjunta, estos protocolos soportan conexiones de usuario a usuario, conmutadas por circuito y conmutadas por paquete. Se especifica una variedad de mensajes de establecimiento de llamadas, terminación de llamadas, información y mensajes diversos, incluyendo configuración, conexión, emisión, información del usuario, cancelación, estado y desconexión. La figura muestra las etapas típicas de una llamada conmutada por circuito RDSI. En esta capa el canal B puede transportar datagramas usando una variedad de protocolos de capa 3, entre los que se incluyen IP, IPX y Appletalk. En tanto el canal D usa el protocolo Q.931, el cual es parte de la suite de protocolos DSS1 (Digital Subscriber Signaling System N° 1), y el cual se usa para establecer y mantener la comunicación entre el switch ISDN del proveedor y el dispositivo TE del usuario (por ejemplo un router) (ver figura). En BRI, este protocolo es transparente para un dispositivo NT1. Cuando se configura un router para una conexión RDSI, se debe especificar el tipo de switch ISDN que se usará. Esto es así debido a que switches RDSI diferentes usan procedimientos de mensajes Q.931 diferentes. Se debe machear el tipo especifico de switch (en cada extremo) porque sino no existirá comunicación sobre el canal D. El proveedor le debe proporcionar la información sobre el tipo de switch ISDN a utilizar.

2.2. Encapsulamientos ISDN Una vez que DDR (o un usuario) crea un camino de extremo-a-extremo sobre ISDN, se necesita algún método de encapsulación de datagramas para transportar los datos. Las encapsulaciones disponibles para ISDN incluyen: • PPP • HDLC • Frame Relay • LAPB • CPP (Protocolo Propietario Combinet) T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 6 3 26 63 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

LAPB también puede usarse para la entrega de datagramas sobre el canal D. Como se explicará, se usará, más probablemente, PPP como protocolo de encapsulación de capa 2. Cuando se distribuyen soluciones de acceso remoto, hay varias opciones de encapsulamiento disponibles. Los dos encapsulamientos más comunes son PPP y HDLC. La opción por defecto para RDSI es HDLC. Sin embargo, PPP es mucho más sólido que HDLC porque ofrece un excelente mecanismo para la autenticación y la negociación de la configuración de protocolos y enlaces compatibles. Las interfaces RDSI permiten un solo tipo de encapsulamiento. Una vez establecida la llamada RDSI, el router puede utilizar una nube RDSI para transportar cualquiera de los protocolos de capa de red requeridos, como IP, a múltiples destinos. La mayoría de los diseños de networking utilizan PPP para el encapsulamiento. PPP es un mecanismo de igual a igual modular y poderoso que se utiliza para establecer enlaces de datos, suministrar seguridad y encapsular el tráfico de datos. Una vez que se ha negociado una conexión de PPP entre dos dispositivos, puede ser utilizada por protocolos de red tales como IP e IPX para establecer la conectividad de red. PPP es un estándar abierto especificado por RFC 1661, diseñado con varias funciones que hacen que sea particularmente útil en aplicaciones de acceso remoto. PPP utiliza el Protocolo de Control de Enlace (LCP) para establecer inicialmente el enlace y acordar la configuración. El protocolo contiene características de seguridad incorporadas, PAP y CHAP, que facilitan la obtención de un diseño de seguridad sólido.

2.3. Configuración del entramado, del código de línea y del clocking Durante mucho tiempo se hicieron pruebas para determinar cuál era el máximo “bitrate” (velocidad de datos) que se podía transmitir sobre los pares analógicos teniendo en cuenta que los cables podían estar multiplexados (varios en paralelo), podían tener distintos calibre y sobre todo podían alcanzar distancias de unos cuantos kilómetros: El resultado (prueba tipo de un tendido genérico) fue de unos 150 Kbps en ambos sentidos. Para ello se desarrolló una técnica denominada cancelación de eco que básicamente permitía a dos terminales transmitir simultáneamente compartiendo frecuencias durante los mismos instantes de tiempo. De forma sencilla se puede decir que aunque un extremo este recibiendo al mismo tiempo la señal del otro (señal deseada) la suya propia (no deseada) puede cancelarla si conoce la respuesta que produce un símbolo suyo en su receptor. Dado el bitrate que se podía alcanzar y dado que la voz se digitalizaba desde hacía mucho tiempo a 64 Kbps (ley A en Europa), se decidió que la interfase transportara 2 canales B y un canal D, el cual transporta en principio lo adicional a la comunicación en si, es decir la señalización (aunque también puede ser utilizado para transmitir datos). Los códigos de línea identifican el método de señalización usado por la capa física para satisfacer los requerimientos de densidad de unos sobre la facilidad digital del proveedor: Sin un número suficiente de unos en la corriente de datos digitales (bitstream), los switches y multiplexores en una WAN pueden perder su sincronización para transmitir y recibir señales. El primer código de línea que se empleó, y que se sigue empleando es el código 4B3T (4 símbolos binarios se convierten en 3 ternarios). Esto reduce el baud rate y por tanto el ancho de banda en una relación de casi ¾ (en realidad no es así pues 4 binarios es menos que 3 ternarios.) Este código tenía la ventaja de que era fácil de decodificar (distinguir entre un valor positivo, un negativo y un cero) pero el ancho de banda usado era más grande que el que se desarrollaría posteriormente. El código 2B1Q (dos binarios se convierten en uno cuaternario (quaternary) reduce el baud rate justamente a la mitad del bit rate, siendo en la actualidad el que se utiliza mayoritariamente. La desventaja de que es más difícil de decodificar (existen dos valores positivos y dos negativos), lo que se resuelve con circuitos más sofisticados. En Norteamérica, el método de señalización B8ZS (binary 8-zero substitution) acomoda los requerimientos de densidad de unos para los medios T1 del carrier, usando codificación de señales bipolares sobre el enlace de transmisión digital. Esto permite el uso completo de los 64 Kbps de cada canal ISDN. Otros códigos de línea son el AMI (alternate mark inversión) usado para líneas T1 PRI y el HDB3 (high density bipolar 3) usado para configuraciones E1 PRI, en Europa. El entramado (framing) se usa para seleccionar el tipo de frame (trama) que usará el proveedor de servicios. Para líneas T1 se usan los siguientes tipos de entramado: • Entramado SF: es el formato de trama “super frame” usada por las viejas configuraciones de líneas T1. • Entramado ESF: es el formato de trama “extended super frame” usada por las configuraciones de líneas T1 PRI. •

Para líneas E1 se usan los siguientes tipos de entramado: Entramado crc4 y no-crc4: este es el formato de trama de “chequeo de redundancia cíclica nro. 4” usada por las configuraciones de líneas E1 PRI.

El clocking se establece mediante comandos del IOS, e indican que dispositivo (switch, router o access server) funcionará como sincronizador (reloj fuente) de la transmisión. Por lo gral. se tendrá un controlador de reloj primario y uno o varios controladores secundarios. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 6 4 26 64 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

33.. U O D E USSSO OSSS D DE ER RD DSSII • • • • • •

RDSI tiene muchos usos en networking (ver figura). A continuación se describen algunos usos de RDSI: Acceso remoto Nodos remotos Conectividad de Oficinas Pequeñas/Oficinas Hogareñas (SOHO). Línea telefónica de respaldo. Acceso a Internet a alta velocidad. Enlace apropiado para ciertas conexiones entre LANs.

3.1.1. Acceso remoto Implica la conexión de usuarios ubicados en ubicaciones remotas a través de conexiones de acceso telefónico/discado. La ubicación remota puede ser el hogar de una persona que trabaja en su casa, la habitación de hotel de un usuario móvil o una pequeña oficina remota. La conexión de discado se puede realizar a través de una conexión analógica que utiliza un servicio telefónico básico o a través de RDSI. La conectividad se ve afectada por la velocidad, el costo, la distancia y la disponibilidad. Los enlaces de acceso remoto generalmente representan el enlace de velocidad más baja en la empresa. Cualquier mejora en la velocidad es conveniente. El costo del acceso remoto tiende a ser relativamente bajo, especialmente para el servicio telefónico básico. Las tarifas del servicio RDSI pueden variar ampliamente, y a menudo dependen del área geográfica, la disponibilidad del servicio y el método de facturación. Es posible que existan limitaciones de distancia para los servicios de discado, especialmente RDSI, como en el caso de una ubicación que se encuentra fuera del área geográfica de cobertura. 3.1.2. Nodos remotos de RDSI Con este método los usuarios se conectan a la LAN local en el sitio central a través de la Red Pública de Telefonía Conmutada (PSTN) mientras dure la llamada (ver primer figura). Además de tener una conexión de velocidad más baja, el usuario puede ver el mismo entorno que ve el usuario local. La conexión con la LAN normalmente se realiza a través de un servidor de acceso, que generalmente combina las funciones de un módem y de un router. Cuando el usuario remoto se conecta, puede acceder a los servidores en la LAN local como si fueran locales. Este método brinda muchas ventajas. Es el método más seguro y flexible, y es el más escalable. Sólo se requiere un PC para el usuario remoto y se dispone de varias soluciones de software para el cliente. El único hardware adicional que se requiere en la ubicación remota es un módem. La desventaja principal de este método es el gasto administrativo adicional que se requiere para soportar al usuario remoto. El trabajador a distancia de tiempo completo es el que generalmente trabaja fuera del hogar. Este usuario generalmente necesita tener acceso a las redes empresariales durante largos períodos de tiempo. Esta conexión debe ser confiable y estar disponible en todo momento. Dicho requisito generalmente favorece a RDSI como el método de conexión (ver segunda figura). Con esta solución, la conexión RDSI se puede utilizar para brindar servicio ante cualquier necesidad telefónica, así como también para conectarse a la estación de trabajo.

3.1.3. Conectividad SOHO Una SOHO compuesta por unos pocos usuarios requiere una conexión que suministre conectividad más veloz y confiable que una conexión de acceso telefónico analógica. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 6 5 26 65 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S En la configuración que se indica en la figura, todos los usuarios en la ubicación remota tienen el mismo acceso a los servicios ubicados en la oficina corporativa a través de un router RDSI. Esto les brinda a los sitios SOHO de tiempo completo u ocasionales la capacidad de conectarse al sitio corporativo o a Internet a velocidades mucho más altas que las que están disponibles a través de las líneas telefónicas y los módems. Los diseños de SOHO normalmente involucran sólo el acceso telefónico (conexiones iniciadas por SOHO) y pueden aprovechar la tecnología de traducción de direcciones emergente para simplificar el diseño y soporte. Con estas funciones, el sitio SOHO puede soportar múltiples

dispositivos, pero aparece como una sola dirección IP. 3.1.4. Línea telefónica de respaldo Se puede utilizar RDSI como el servicio de respaldo para una conexión de línea arrendada entre oficinas remotas y la oficina central. Si la conectividad principal se inhabilita, se establece una conexión conmutada por circuito RDSI, y el tráfico se vuelve a enrutar a través de RDSI. Cuando se restaura el enlace principal, el tráfico se redirige a la línea arrendada, y se envía la llamada RDSI. La línea telefónica de respaldo RDSI también se puede configurar (según los umbrales o límites de tráfico) como un enlace principal dedicado. Si la carga de tráfico supera el valor definido por el usuario en el enlace principal, el enlace RDSI se activa para aumentar el ancho de banda entre los dos sitios. (para mas detalles ver el capitulo DDR). 3.1.5. Acceso a Internet a alta velocidad Sin hablar de las aplicaciones que pertenecen a Internet, y que pueden ser accedidas por RDSI, sí parece oportuno mencionar dos ventajas del acceso por Internet a través de RDSI: • El bit rate que se puede obtener: 64 Kbps, pudiéndose hacer también a 128 Kbps. • La ventaja de no tener la línea bloqueada cuando se está accediendo a Internet. Aunque el hecho de navegar a 128 Kbps y la condición de línea no bloqueada parecen incompatibles no lo son ya que con el servicio de llamada en espera es posible, tener constancia de una nueva llamada (supuestamente de voz) liberar uno de los canales B y completar la llamada entrante.

44.. A Q U T E C T U R A ARRRQ DN N QU UIIIT TE EC CT TU UR RA A IISSD 4.1. ISDN versus conexiones dial-up (discada por línea conmutada asíncrona) Como su nombre lo indica, ISDN usa tecnología digital. ISDN reemplaza el equipo telefónico analógico tradicional con equipo digital de alta velocidad que provee al cliente un loop local digital. Por consiguiente, las transmisiones de ISDN son digitales de extremo a extremo. Debido a que los POTS usan loop local analógico, el carrier debe usar Modulación por Código de Pulso (PCM, Pulse Modulation Code) para codificar las señales analógicas para transmisión digital. Este tipo de conversión analógico-digital introduce latencia no deseada y, potencialmente, ruido. Dado que la transmisión de la señal se hace de forma digital en todo el trayecto, en RDSI el teléfono actúa de códec digitalizando la señal acústica del auricular con una frecuencia de muestreo de 8 KHz, enviando ocho bits por muestra. En el caso de conectar un ordenador a la línea no necesitamos utilizar módem (pero sí un adaptador) y podremos transmitir datos a una velocidad de 64 Kbps. A diferencia de lo que ocurre con las conexiones analógicas aquí los 64 Kbps están asegurados, sin ruidos ni interferencias, y no hay necesidad de negociar la velocidad en función de la calidad de la línea.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 6 6 26 66 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

Además de esto la RDSI tiene otra serie de ventajas respecto a la red analógica, entre las que cabe destacar por su relevancia de cara a la transmisión de datos las siguientes: • La llamada y el establecimiento de la conexión se realizan en un tiempo de 0,5 a 2 segundos, frente a los 5 a 20 segundos que requiere una llamada analógica. Esto permite configurar los equipos para que la llamada se realice de manera automática cuando la aplicación del usuario necesita enviar tráfico por el circuito; en la red analógica esto no es normalmente posible pues el retardo que aprecia el usuario es excesivo. • El número llamante se identifica, por lo que es posible establecer mecanismos de seguridad basados en la comprobación del número llamante.

4.2. Servicios o Accesos ISDN (BRI / PRI) y Canalización E1 y T1 Los usuarios pueden conectarse a un carrier ISDN a través de 2 interfaces físicas diferentes, Interfaz de Acceso Básico (BRI) e Interfaz de Acceso Principal (PRI). Una simple interfase BRI o PRI provee un “racimo” multiplexado de canales B y D (ver figura). BRI es la más lenta de las dos y es una alternativa a los módems de discado. BRI suministra 2 canales B principales (de bearer, portador) de 64 Kbps para voz y datos y un canal D (de delta) de 16 Kbps para información de control y señalización. Esto da un total de 144 Kbps para BRI RDSI. Este servicio está orientado a usuarios domésticos y pequeñas oficinas. PRI normalmente se ejecuta a través de líneas físicas E1 o T1 y suministra 23 (ó 30 en Europa) canales B de 64 Kbps y 1 canal D de 64 Kbps (para un total de 1,544 Mbps o 2,048 Mbps). PRI se considera como una alternativa a las líneas arrendadas dedicadas estándar. Esta orientado a empresas El servicio BRI RDSI ofrece dos canales B de 8 bits y un canal D de 2 bits, que a menudo se denominan 2B+D, como se indica en la figura. Los canales B ISDN, denominados “portadores”, transportan voz, datos y fax en formatos de tramas de capa 2, ya sea HDLC o PPP. La BRI RDSI suministra un ancho de banda total de una línea de 144 Kbps en tres canales individuales (8000 tramas por segundo*(2*canales B de 8 bits+canal D de 2 bits)=8000*16,25 = 144 Kbps). El servicio del canal B de BRI opera a 64 Kbps (8000 tramas por segundo*canal B de 8 bits) y está diseñado para transportar datos de usuario y tráfico de voz. RDSI suministra más flexibilidad al diseñador de la red dada su capacidad para utilizar cada uno de los canales B para aplicaciones individuales de voz y/o datos. Por ejemplo, un documento de gran tamaño se puede descargar desde la red corporativa a través de un canal B de 64 Kbps RDSI, mientras que el otro canal B se utiliza para conectarse y visitar una página Web. El tercer canal, denominado canal D, es un canal de señalización “fuera de banda” de 16 Kbps (8000 tramas por segundo *canal D de 2 bits) que se utiliza para transportar instrucciones (mensajes de control, como seteo de llamada y terminación de llamada) que le indican a la red telefónica cómo debe administrar cada uno de los canales B. El servicio del canal D de BRI opera a 16 Kbps y está diseñado para transportar información de control y señalización, aunque en determinados casos puede soportar la transmisión de datos de usuario. El protocolo de señalización del canal D se produce en las Capas 1 a 3 del modelo de referencia OSI. Usualmente, el canal D emplea LAPD en la capa 2. Las terminales no pueden transmitir al canal D a menos que antes detecten una cantidad específica de unos (que indica que no hay señal) correspondiente a una prioridad preestablecida. Si el TE detecta un bit en el canal de eco (E) que es diferente de los bits D, debe dejar de transmitir inmediatamente. Esta técnica sencilla asegura que solamente una terminal pueda transmitir su mensaje D por vez. Esta técnica es similar y tiene el mismo efecto que la detección de colisiones en las LAN Ethernet. Después de que la transmisión del mensaje D se realiza con éxito, la prioridad de la terminal se reduce ya que se requiere que detecte una mayor cantidad de unos continuos antes de realizar la transmisión. Las terminales no pueden elevar su prioridad hasta que todos los demás dispositivos en la misma línea hayan tenido oportunidad de enviar un mensaje D. Las conexiones telefónicas tienen mayor prioridad que todos los demás servicios, y la información de señalización tiene mayor prioridad que la información que no corresponde a la señalización. El servicio BRI se ofrece sobre un loop local o “lazo” local de cobre que por lo gral. acarrea servicios analógicos de telefonía. La longitud máxima de la mayoría de los loops locales es de 5.5 Kms. El servicio BRI tiene las siguientes características: • Dos canales “portadores” de 64 Kbps. • Un canal “delta” de 16 Kbps. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 6 7 26 67 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X • •

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

48 bits de entramado e información de sincronización. Velocidad total de 192 Kbps.

Cuando se discute sobre el ancho de banda BRI RDSI, es importante saber a cual de las características BRI se referencia. Si se trata del ancho de banda disponible para datos de usuario, ISDN BRI provee 128 Kbps (2 canales B de 64 Kbps). Si se trata del ancho de banda de ambos canales B y el canal D, ISDN BRI provee 144 Kbps. Aunque no es común hacerlo, puede referenciarse al ancho de banda total de un servicio BRI, incluyendo entramado y sincronización, que es de 192 Kbps. El BRI es apropiado para ser utilizado en oficinas pequeñas, redes de área local pequeñas o de tamaño medio, o para teletrabajadores que deseen conectarse a la LAN de su compañía. Algunos proveedores RDSI ofrecen BRI con un único canal B y un canal D, o incluso con un sólo canal D. En efecto, la unidad más pequeña que puede denominarse RDSI es el canal D. El canal D proporciona la señalización fuera de banda que realmente define al RDSI y que hace de dicho servicio lo que es. El servicio de PRI RDSI ofrece 23 canales de 8 bits y 1 canal D de 8 bits más 1 bit de entramado en los Estados Unidos y Japón (también denominado 23B+D), lo que significa una velocidad binaria total de 1,544 Mbps (velocidad DS-1) (8000 tramas por segundo * (23 * canales B de 8 bits + canal D de 8 bits + 1 bit de entramado) = 8000*24,125 = 1,544 Mbps) (el canal D de PRI funciona a 64 kbps). La PRI RDSI en Europa, Australia y otras partes del mundo suministran 30 canales B de 8 bits más un canal D de 8 bits más un canal de entramado de 8 bits (también denominado 30B+D), lo que otorga una velocidad binaria total de 2,048 Mbps (8000 tramas por segundo* (30*canales B de 8 bits + canal D de 8 bits + canal de entramado de 8 bits) = 8000*32 =2,048 Mbps). El servicio ISDN PRI se provee sobre líneas leased T1 (Norteamérica y Japón) y E1 (Europa) entre el CPE y el switch RDSI. A T1 se lo denomina DS-1 (Digital Signal 1), el cual se compone de 24 canales DS0 (ver tabla de la figura). Un BRI simple es un DS-0. En T1/E1 y en las tramas de velocidad de datos superiores los canales B se mueven en línea como los vagones de un tren de carga. Al igual que los vagones en una estación, los canales B se reacomodan y se desplazan a otras tramas a medida que atraviesan la Red Pública de Telefonía hasta que llegan a su destino. Esta ruta a través de la matriz del switch establece un enlace síncrono entre los dos extremos finales. Esto permite comunicaciones de voz continuas sin pausas, datos descartados o degradación. RDSI saca provecho de esta estructura de transmisión digital para la transferencia de datos digitales. El servicio PRI sobre líneas T1, tiene las siguiente características: • 23 canales “portadores” de 64 Kbps. • 1 canal D de 64 Kbps, transportado en 24 slots de tiempo. • 8 Kbps de información de entramado y sincronización. • Velocidad total de 1.544 Mbps. El servicio PRI sobre líneas E1, tiene las siguiente características: • 30 canales “portadores” de 64 Kbps. • 1 canal D de 64 Kbps, transportado en 16 slots de tiempo. • 64 Kbps de información de entramado y sincronización. • Velocidad total de 2.048 Mbps. Los canales B pueden ser fundidos en una de las siguientes configuraciones denominadas, en la terminología de los proveedores de servicios de comunicación local, canales o servicios H: • Canales H0: 384 Kbps (equivalente a 6 canales B), • Canales H10: 1,472 Mbps (equivalente a 24 canales B a 56 Kbps), • Canales H11: 1,536 Mbps (equivalente a 24 canales B), • Canales H12: 1,92 Mbps (equivalente a 30 canales B). Estas líneas pueden utilizarse como troncales de alta velocidad para transferencia de archivos de gran tamaño y de otros flujos de datos continuos o se pueden dividir con un multiplexor para proporcionar canales para T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 6 8 26 68 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

múltiples dispositivos. El suministro de un rango de opciones de servicio permite que el PRI pueda configurarse para manejar vídeo comprimido, videoteléfonos y teleservicios. Ver la tabla de la figura que resume los canales ISDN.

4.3. Puntos de referencia RDSI Como el Equipo Terminal del Abonado (CPE, Customer Premise Equipment) abarca una amplia variedad de aptitudes y requiere una diversidad de servicios e interfaces, los estándares se refieren a las interconexiones por puntos de referencia en lugar de requisitos de hardware específicos. Los puntos de referencia son un conjunto de especificaciones que definen la conexión entre dispositivos específicos, según sus funciones en la conexión de extremo a extremo. Definen como los grupos funcionales, un TE2 y un TA, se conectan unos con otros. Es importante conocer estos tipos de interfaces porque un dispositivo CPE, como un router, puede soportar distintos tipos de referencia. Los puntos de referencia que soportan determinan cuál es el equipo específico que se debe adquirir. La siguiente tabla (también la figura) resume los puntos de referencia que afectan al cliente de la conexión RDSI. Punto de Referencia

R (Rate)

S (System)

T (Terminal)

U (User)

S/T

Descripción Localizado entre un TA y un TE2 (no-ISDN). Referencia la conexión entre un dispositivo no compatible con RDSI y un TA. El TE2 se conecta al TA vía una interfase de capa física estándar. Esos estándares incluyen EIA/TIA 232C (RS-232C), V.24, X.21, y V.35. Por ejemplo conectar un teléfono tradicional al servicio RDSI. El teléfono funcionará, pero no proporcionará todas las características que suministraría un teléfono RDSI conectado a una interfase S/T. Localizado entre el NT2 y un TE1 o TA. Referencia los puntos que se conectan a NT2 o dispositivo de conmutación del cliente. Es la interfase que habilita las llamadas entre las diferentes partes del CPE. Conecta las terminales a la red ISDN. Es la interfase de usuario más importante. En BRI, la interfase T es eléctricamente idéntica a la interfase S. Localizado entre el NT1 y el NT2 (o entre el NT1 y el TE1 o TA, si no hay dispositivo NT2). En BRI, es eléctricamente idéntica a la interfase S. La interfase T referencia la conexión saliente desde la NT2 a la red RDSI o NT1. Generalmente los puntos de referencia S y T se combinan en un sola interfase, referenciada como interfase S/T. Localizada entre el NT1 y el LE (se corresponde con una línea de abonado). Referencia la conexión entre la NT1 y la red RDSI de propiedad de la compañía telefónica. Este punto de referencia es relevante solo en América del Norte, donde la función NT1 no es suministrada por el proveedor de servicio. No hay estándar ITU-T, solo ANSI, para esta interfase en EUA. Esta interfase transmite información full-duplex a través del circuito de dos hilos, es decir que la información viaja en ambos sentidos simultáneamente. La interfase U admite un sólo dispositivo. Define la interfase entre un TE1 y una NT. La S/T también se utiliza para definir la interfase TA a NT. Se ubica en las instalaciones del cliente del NT1. Esta interfase divide la señal RDSI en dos caminos, transmisión y recepción. Cada señal se transporta en un par separado, y permite conectar múltiples dispositivos.

Los puntos de referencia son definiciones arquitecturales que pueden o no existir físicamente en una red como elementos separados. Por ejemplo, algunos routers tienen una o más interfaces U, lo que indica que pueden conectarse directamente al switch ISDN del proveedor. En una red dada, los puntos de referencia S, T y R podrían no existir. Algunos fabricantes definen un punto de referencia V en los LE (Local Exchange, Intercambio Local) T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 6 9 26 69 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

entre el LT y el ET. Este punto de referencia identifica el nodo de interfase de red y es transparente para los usuarios. En la figura aparece una configuración RDSI ejemplo, en la que hay tres dispositivos conectados a un switch RDSI en la Oficina Central (Central Office, CO). Dos de estos dispositivos son compatibles con RDSI, de modo que se pueden conectar a través de un punto de referencia S con los dispositivos NT2. El tercer dispositivo (un teléfono estándar, que no es del tipo RDSI), se conecta a través del punto de referencia R a un TA. Aunque no aparecen en la figura, hay estaciones de usuario similares conectadas al switch RDSI ubicado a la derecha.

En gral., en una configuración típica de abonado de red (modelo simplificado), este verá las interfaces U y S, con un TE que se conecta a la red y un NT1 que es el equipo que suministra el servicio ISDN (ver apartado “Interfase abonado-red”). Sin embargo, existe una configuración completa de acceso de abonado, adoptada por todos los administradores internacionalmente, como estándar de conexión (ver figuras anteriores). Algunos países, como Estados Unidos, adoptaron otro más simplificado eliminando la interfaz S y conectando directamente la terminal de abonado a la interfase U. 4.3.1. Diferenciación entre los protocolos E, I y Q de RDSI La investigación de los estándares para RDSI comenzó a fines de la década del 60. En 1984, se publicó un conjunto completo de recomendaciones para RDSI, que el CCITT (en la actualidad sector de la UIT-T), actualiza constantemente. UIT-T agrupa y organiza los protocolos RDSI como se describe en la tabla de la figura. Q.921 recomienda el proceso de enlace de datos en el Canal D de RDSI. Q.931 maneja la funcionalidad de la capa de red entre el punto final de la terminal y el switch RDSI local. Este protocolo no impone ninguna recomendación de extremo a extremo. Los diversos proveedores y tipos de switch RDSI pueden y, de hecho, utilizan varias implementaciones de Q.931. Se desarrollaron otros switches antes de que los grupos de estándares concluyeran este estándar. Como los tipos de switch no son estándar, al configurar el router es necesario especificar el switch RDSI al que se está conectando.

4.4. Establecimiento de la conectividad BRI Los servicios de BRI o PRI se seleccionan para la conectividad RDSI de cada sitio según la necesidad de las aplicaciones y la ingeniería de tráfico. La ingeniería de tráfico puede requerir múltiples servicios de BRI o múltiples PRI en algunos sitios. Una vez que se ha conectado a la estructura RDSI a través de las interfaces BRI o PRI, se debe implementar el diseño de los servicios de extremo a extremo de RDSI. Cuando se inicia una llamada BRI, el CPE envía el número de llamada al switch ISDN local usando el canal D (ver figura). El switch local usa el Sistema de Señalización 7 (SS7), protocolo que determina un camino T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 7 0 27 70 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

dentro de la red telefónica pública y envía el número de llamada al switch ISDN final. Este switch mantiene el canal D hasta el destino. Recordar que el canal D se usa para seteo de llamada, señalización y terminación de llamada, las cuales son funciones de “control de llamada”. ISDN es una tecnología de loop local; después de que el switch procesa la llamada, se usa SS7 para atravesar la red del carrier. Cuando el CPE final responde, el canal B se conecta de extremo a extremo y transporta la conversación o los datos. Pueden usarse simultáneamente ambos canales B para conectarse a un mismo destino o a destinos diferentes. Normalmente, el canal D se usa solo para señalización y control de llamadas. La señalización Q.931 se usa entre el usuario final y el switch RDSI local. En la red del proveedor de servicios, se usa el SS7 para control de llamadas entre los switches. El loop local BRI termina en la terminal del cliente en un NT1. La interfaz del loop local en el NT1 se denomina punto de referencia U. En las instalaciones del cliente del NT1 se ubica el punto de referencia S/T. La figura muestra una instalación de BRI típica. Hay dos tipos comunes de CPE RDSI para los servicios de BRI. Routers LAN y TA de PC. Algunos dispositivos de BRI ofrecen NT1 integrados y TA integrados para teléfonos analógicos. Los routers LAN RDSI suministran enrutamiento entre la BRI RDSI y la LAN mediante Enrutamiento por Llamada Telefónica Bajo Demanda (DDR). DDR establece y envía llamadas conmutadas por circuito de forma automática, suministrando conectividad transparente hacia sitios remotos basándose en el tráfico de networking. DDR también controla el establecimiento y el envío de canales B secundarios basándose en umbrales de carga. Se utiliza PPP multienlace para suministrar ancho de banda agregado al utilizar múltiples canales B. Algunas aplicaciones de RDSI pueden requerir que el usuario de SOHO asuma control directo sobre las llamadas RDSI. Los TA de PC se conectan a las estaciones de trabajo de PC ya sea por el bus de PC o de forma externa a través de los puertos de comunicación (como RS-232) y se pueden utilizar de forma similar a los módems analógicos externos e internos (como V.34). Los TA de PC pueden suministrar un solo usuario de PC con control directo sobre el inicio y el envío de una sesión RDSI, que es similar al uso de un módem analógico. Se deben suministrar mecanismos automatizados para soportar la adición y eliminación del canal B secundario. 4.4.1. Representación física de los puntos de referencia BRI Para evitar las confusiones que ocasionan todas las abreviaciones y siglas ISDN, es necesario ver a todos los componentes y puntos de referencia como partes del mundo real del networking. Como se muestra en la primer figura, una conexión se hace desde una caja en la pared (wall jack), con un cable estándar de dos alambres, hacia el NT1. Luego, desde el NT1 con una conexión de cuatros alambres al teléfono ISDN, adaptador terminal, router ISDN, o fax ISDN. La interfaz S/T se implementa usando un conector de ocho alambres para permitir “arrancar” el NT y el TE. Debido a que todos los conectores parecen similares (el RJ-11, los RJ-45s, y así sucesivamente), se debe tener cuidado sobre que se enchufa y donde. El punto de referencia S/T es una interfase de cuatro alambres (TX y RX). Es punto a punto y multipunto (bus pasivo). Usa la especificación ITU I.430. La interfase S/T define la interfase entre un TE1 o TA y un NT. La interfase U define la interfase de dos alambres entre el NT y la nube ISDN. La interfase R define la interfase entre el TA y un dispositivo noISDN adjunto (TE2). El dispositivo de combinación entre un NT1 y un NT2 se denomina a veces NTU. Una interfase ISDN regular tipo S puede tener varios dispositivos extremos (endpoint) con diferentes capacidades ocupando el mismo bus (el bus “S”). Cuando el switch se comunica con múltiples dispositivos, se denomina un “multipunto”. Desgraciadamente, esto crea complejidad entre el dispositivo de seteo ISDN y el procesamiento de llamada. Esta complejidad requiere del T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 7 1 27 71 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

uso de Identificadores de Perfil de Servicio (SPIDs, Service Profile Identifiers) e Identificadores de Punto Extremo (EIDs, Endpoint Identifiers). Al seleccionar equipamiento ISDN, es importante saber el punto de referencia que define el tipo de interfaz ISDN que se necesita. En los Estados Unidos, se necesitará una interfaz U para conectarse al proveedor. Eso significa que si se compra un router ISDN con una interfaz S/T, habrá que comprar equipo adicional (un NT1) para conectarse a la red del proveedor. También que, si por error se conecta una interfaz U a un NT1, se puede causar daño permanente a los dispositivos. Entonces, se debe saber que los puntos de referencia ISDN son la clave para seleccionar e instalar apropiadamente los dispositivos ISDN. Las figuras de la animación muestran routers Cisco con interfaces S/T (conectadas a un NT1 y este al switch ISDN del proveedor vía loop local) e interfaces U (conectadas directamente al switch ISDN, vía loop local).

4.5. Puntos de Referencia PRI La rellamada ISDN PRI se entrega vía una línea arrendada T1 o una línea E1. Como se ve en la figura, se requiere una CSU/DSU para conectar el router (TE) a la red del portador. Es común usar CSU/DSUs internos entre las routers modulares. Los puntos de referencia PRI son más sencillos que los puntos de referencia BRI (ver figura) y pueden contener numerosos grupos funcionales en una configuración multipunto. Pero ¿por qué no sólo conseguir una línea arrendada? Después de todo, PRI ISDN requiere una línea arrendada y ofrece el mismo ancho de banda total que una línea arrendada. Es porque, la aplicación primaria de PRI ISDN es la de agregación de módems, no la de conectividad punto a punto de alta capacidad. Si se necesita el rendimiento de una línea digital DS-1 (1,544 Mbps), entonces la solución apropiada es una línea dedicada. Sin embargo, si lo que se necesita es un proveedor de servicios o una compañía grande que soporte docenas de conexiones de acceso remoto por línea conmutada (dial-up), entonces PRI ISDN ofrece una poderosa solución (ver figura). Con DS-1 se soportan conexiones de voz sobre una PBX. Cada DS-1 (también conocido como T1) tiene 24 canales DS0 entramados juntos para que cada canal (timeslot) DS-0 pueda asignarse a un tipo diferente de grupo troncal, si se desea. PRI ISDN soporta acceso dial-up híbrido a través de un simple número de teléfono. Un servicio PRI sobre T1 puede soportar hasta 23 llamadas entrantes (dial-in), las cuales pueden ser llamadas analógicas (POTS) o llamadas digitales PRI ISDN. Los usuarios marcan el mismo número de teléfono, aunque se conectan a canales diferentes. Debido a que cada canal es un DS-0 (64 Kbps), PRI hace llamadas analógicas a 53.3 Kbps (usando módems de 56 Kbps). Es trabajo del canal D identificar si la llamada es una llamada digital por conmutación de circuito o una llamada analógica por módem. Los routers pueden configurarse para decodificar llamadas analógicas de módem y luego enviarlas a los módems onboard. Las llamadas digitales por conmutación de circuito son dirigidas directamente al procesador ISDN en el router. En una configuración típica (ver figura), un servidor de acceso, contiene a un módem digital integrado y a un controlador T1 canalizado. El controlador T1 se conecta a la línea T1 arrendada proporcionando conectividad a la nube ISDN. Este arreglo permite a los routers ISDN y a los módems analógicos conectarse simultáneamente al acces server. 4.5.1. Tareas de configuración PRI Las líneas T1 y E1 proveen un servicio de 2 vias, sobre las redes de conmutación telefónicas, mediante el uso de PRI. Hay cuatro tareas de configuración PRI necesarias: • Especificar el tipo correcto de switch PRI que el router interfaseará con el CO del proveedor. • Especificar el controlador T1/E1, el tipo de entramado, y el código de señalización a usar para el medio del proveedor. • Seleccionar el grupo de slots de tiempo PRI para la línea T1/E1 e indicar la velocidad a usar. • Identificar la interfase que se configurará para trabajar con DDR.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 7 2 27 72 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

Debido a que los routers se conectan a un servicio PRI mediante una línea T1/E1, no hay una “interfase PRI”. En lugar de ello, la interfase física del router que se usa para conectarse a la línea leased, es denominada “controlador T1 o controlador E1”. Este controlador debe estar configurado apropiadamente para que el router haga interfase con la red del carrier. Los canales B y D del PRI se configuran en forma separada del controlador (mediante comandos del IOS).

4.6. Seteo de llamada ISDN Una llamada ISDN puede realizarse de numerosas formas. En una llamada ISDN, la parte llamadora requiere un seteo de llamada (call setup) (ver figura). Antes de la conexión real y del procedimiento de llamada, se podrían ver distintos mensajes, como mensajes de progreso. Estos mensajes opcionales indican cómo se realiza el proceso de llamada. Lo mismo sucede con los mensajes de alertas, los cuales son típicos de los mensajes telefónicos, pero que no se requieren. Los mensajes de alertas no son comunes en las transmisiones de datos. La mayoría del tiempo, se ven mensajes de conexión con llamadas de datos. Diferentes switches ISDN usan diferentes seteos de llamada y procedimientos de terminación de llamada (teardown). Dependiendo del tipo de switch, se podrán o no obtener todos los pasos mostrados en la figura. Como mínimo, deben intercambiarse los mensajes de seteo, procedimiento de llamada, conexión, y reconocimiento de conexión.

4.7. Procedimiento ISDN de fin de llamada Similar al seteo de llamada, el pedido de fin de llamada (teardown) no es una función de extremo a extremo, sino un pedido que se procesa en el switch ISDN. Los procedimientos de liberación (release) se basan en tres mensajes de aceptación: • desconexión (disconnect) • liberación (release) • liberación completa (release complete) El mensaje de liberación (release) se transmite tan rápidamente como sea posible a través de la red. La figura asume que la parte llamada genera la liberación. El proceso se activa por medio de un mensaje “disconnect” sobre el canal D, entre las partes “llamadora” y “llamada” (origen y destino). Después de recibir este mensaje, el intercambio local (LE, oficina central donde está el switch) inicia inmediatamente la liberación del camino (path) al switch que soporta el circuito del canal B. Un mensaje de liberación se envía también, al mismo tiempo, a todos los intercambios (LEs) subsiguientes. El mensaje se pasa a través de la red por todos los LEs intermedios hasta el intercambio de terminación (el LE extremo opuesto). Cuando el intercambio envuelto libera la llamada, un mensaje de “liberado” (released) se transmite al intercambio de terminación. Esta transmisión causa las siguientes acciones: • Este emite un mensaje “disconnect” a la parte llamadora (origen). • Inicia un cronómetro (timer) para asegurarse la recepción del mensaje de liberado. • Desconecta el camino al switch. • Cuando se recibe un mensaje de liberado del intercambio precedente, retorna un mensaje de “liberación completa” (release complete) al intercambio precedente.

55.. C O N F G U R A C O N E O N A L E CO OPPPCCCIIIO ON NF FIIIG GU UR RA AC CIIIO ON NE ESSS O ON NA AL LE ESSS T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 7 3 27 73 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

5.1.1. Agregación del canal B Los dos canales B del BRI ISDN puede usarse simultáneamente para conectarse a diferentes destinos. De hecho, un canal puede usarse para voz o fax, mientras que el otro se usa para transferir datos, como paquetes IP. El ancho de banda de 64 Kbps proporcionado por un solo canal B es más adecuado para llamadas de voz. Sin embargo, para el rendimiento de los datos (throughput), la necesidad de ancho de banda de las oficinas pequeñas de hoy y de los grandes usuarios puede ser de más de 64 Kbps. Generalmente los equipos que se comunican mediante RDSI establecen inicialmente la comunicación utilizando un solo canal B, y cuando el tráfico supera un determinado umbral durante un tiempo superior al establecido (por ejemplo tráfico superior a 48 Kbps durante mas de 20 segundos) se efectúa la segunda llamada (se conecta otro canal B) para disponer así de 128 Kbps. Este proceso de agregación puede seguir hasta agotar los canales libres en alguno de los dos puntos que se conectan (por ejemplo un BRI no podrá agregar mas de dos canales); tanto el número máximo de canales a utilizar como las condiciones en las que se establecerán canales adicionales son configurables por el usuario. El canal D normalmente no se utiliza, aunque a veces se emplea para tráfico X.25. Existen también adaptadores que permiten agregar los tres canales de un BRI obteniendo así una conexión de 144 Kbps. Las interfaces dialer, como las interfaces BRI y asíncronas, pueden configurarse para Ancho de Banda por Demanda (BOD, Bandwidth on Demand). Esto significa que una vez que la carga sobre un enlace dial-up alcanza un cierto umbral, el dialer puede hacer otra llamada al mismo destino. Para que esta segunda llamada tenga lugar necesita estar disponible otra interfase, perteneciente al mismo grupo rotatorio (conjunto de interfaces físicas). Estas son buenas noticias para los usuarios de ISDN porque un canal el B de BRI se encauza automáticamente a otro perteneciente al mismo grupo rotatorio. Eso significa que cuando el primer canal B de un BRI alcanza un umbral predefinido, el segundo canal B se adiciona al anterior doblando el ancho de banda. El BOD trabaja de la misma forma con PRI, sólo que, en este caso, la totalidad de los canales (23 o 30) pueden pertenecer al mismo grupo rotatorio. Aunque es improbable, los 23 canales podrían usarse para conectarse al mismo destino. Los canales B de un PRI no pertenecen por defecto al mismo grupo rotatorio. La práctica de combinar los canales B dentro de un solo “caño” (pipe) ISDN se denomina agregación de canal B (ver figura). Mediante el uso de comandos del IOS, se tienen dos métodos para lograr la agregación de canales B: • BOD propietario de Cisco • Multienlace PPP (MLP) La mayor diferencia entre los dos métodos es que Cisco BOD usa un algoritmo propietario, para calcular la carga y plantear los canales adicionales, mientras que MLP usa un algoritmo basado en estándares. 5.1.2. Ancho de Banda por Demanda - BOD BOD (Bandwidth on Demand) sólo se activa para los niveles de tráfico salientes. Cuando el nivel de tráfico alcanza un nivel configurado, el router de acceso asigna otros canales B para compartir el tráfico. Por ejemplo, se tiene un servidor de acceso que está conectado a un BRI ISDN con BOD configurado, y se usa para comunicaciones un sólo canal B. Si se transfiere un archivo grande, la facilidad BOD detecta el tráfico saliente adicional y asigna un segundo canal B. El balanceo de carga del router equilibra el tráfico entre los dos canales B. Cuando la carga cumulativa de los enlaces está debajo del umbral configurado, el dial desconecta (drop) el segundo enlace. El valor de carga o umbral configurado es un número entre 1 y 255 que está directamente relacionado con el ancho de banda del enlace; este se especifica con un comando IOS. El valor más bajo, 1, fuerza la activación del segundo enlace, así ambos enlaces estarán siempre disponibles sin tener en cuenta la demanda de ancho de banda. Cualquier valor mayor que 1 especifica el porcentaje de ancho de banda, en el primer canal B, que se debe usar antes de que se active para BOD el segundo canal B. El ancho de banda está definido como una proporción de 255, dónde 128 es 50 % y 255 es 100 % del ancho de banda disponible. El cálculo de carga que usa BOD, toma exclusivamente en consideración el tráfico saliente. Si se desea usar el tráfico entrante y el saliente en el cálculo de carga, se debe usar MLP. 5.1.3. PPP multienlace T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 7 4 27 74 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

PPP Multienlace (Multilink PPP, MLP) es una opción de LCP (protocolo de capa 2 de PPP) que provee balanceo de carga sobre múltiples interfaces WAN (ISDN, interfaces síncronas, y asíncronas), mientras provee interoperabilidad multivendedor, fragmentación de paquetes, secuenciamiento y calculo de carga sobre tráfico entrante y saliente. MLP puede mejorar el rendimiento (throughput) y puede reducir la latencia entre los sistemas al fragmentar o dividir (splitting) los frames de capa 2, secuenciarlos y enviar los fragmentos sobre circuitos paralelos en enlaces agrupados (bundled), tal como lo muestra la figura. Estos fragmentos son reensamblados en el destino. Es importante recordar que MLP trabaja dividiendo los paquetes en fragmentos, no por el balanceo de carga completo de los paquetes hacia su destino. Un host que soporte MLP indica a su par que puede combinar múltiples enlaces físicos en un “bundle” (racimo, manojo). Normalmente, los múltiples enlaces físicos son los dos canales B en una interfase ISDN BRI o múltiples canales B en una interfase ISDN PRI. Para mas detalles sobre MLP, ver el capitulo sobre “HDLC y PPP”. PPP multienlace divide los paquetes entrantes en fragmentos pequeños, los secuencia y los envía a través de los enlaces que se “agruparon” (bundled) para formar un solo enlace lógico. En el extremo receptor, se resecuencian y se reensamblan los fragmentos. Al igual que BOD, MLP se activa por carga de tráfico, pero a diferencia de aquel, MLP puede configurarse para tráfico entrante, saliente o ambos. 5.1.4. Identificación ISDN de la llamada entrante Los routers RDSI pueden configurarse para displayar las llamadas entrantes usando la Identificación de Línea de Llamada (CLID, Calling Line Identification). Debido a que el número de teléfono del origen (el que llama) se incluye en el mensaje de pedido de seteo de llamada, el router receptor puede verificar primero el número contra una lista preconfigurada. Si el CLID no coincide explícitamente con un número permitido, puede rechazarse el pedido de seteo de llamada. Una razón para configurar esta opción es la de prevenir los cargos de llamadas hechas por números desautorizados. En algunos casos, el proveedor cobra por los intentos de seteo de llamada. Aun más, si la llamada no pasa la pantalla de identificación de llamada, hay un cargo por el intento. La pantalla de identificación (caller ID screening) está disponible sólo si los proveedores y switches suministran los números de llamada durante la fase de seteo de llamada. Como se muestra en la figura, la aceptación de la llamada no ocurre hasta que el router verifica y machea el número del que llama. La pantalla de identificación requiere un switch local que sea capaz de entregar la identificación del llamador al router o servidor de acceso. Si está habilitada la pantalla de identificación, pero no se está conectado a un switch de ese tipo, no se permitirán entrar llamadas. Sin embargo, se registrarán los números del llamador y se cobrará un cargo. El número es un número de teléfono de hasta 25 caracteres de longitud y se pueden especificar hasta 64 números por interfase.

66.. FFUUUNNNCCCIIIÓ Ó N M A RD DSSII EEENNNEEELLL““SSSIIISSSTTTEEEM WA AN N ÓN NR MA A”” W RDSI supone una divergencia significativa con el resto de los servicios de datos WAN tratados. RDSI y sus equipos asociados analizan gran parte del procesamiento y señalización de datos que anteriormente eran responsabilidad exclusiva de la central de conmutación del proveedor. El hecho de transferir estas funciones desde la central de conmutación a la PC es una de las causas de la gran dificultad que supone adquirir, configurar y resolver los problemas que surgen con RDSI. Por esta razón, se debería dedicar algún tiempo a hablar sobre las funciones en cuestión: qué son, dónde han sido realizadas tradicionalmente y cómo RDSI cambia todo esto. Una llamada tradicional (del tipo analógico que todos conocemos) no requiere de grandes equipos en nuestras casas. Todo el procesamiento de voz y datos tiene lugar en la central de conmutación del proveedor de servicios de comunicación local. Los teléfonos analógicos sencillamente contactan con la central de conmutación de la compañía telefónica y le dicen a quién quieren llamar. La central de conmutación de la compañía telefónica hace el resto. En esencia, nuestros teléfonos analógicos no son mucho más que un amplificador y un marcador. Una llamada RDSI, por el contrario, requiere un equipo en el cliente mucho más sofisticado. Los teléfonos RDSI y los adaptadores de PC deben ser capaces de procesar información y determinar qué tipo de señal (voz, datos, fax, etc) está siendo recibida, y responder encaminando los datos al dispositivo apropiado. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 7 5 27 75 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

En figuras anteriores puede verse la trayectoria de una llamada RDSI desde la instalación del usuario a través de la red pública conmutada hacia su destino. La llamada se establece cuando el equipo consigue establecer una conexión con la central de conmutación utilizando el Sistema de Señalización de Abonado Digital N° 1 (Digital Subscriber Signaling System 1, DSS1). Una vez establecida la llamada entre el origen y la central de conmutación vía DSS1, se establece el siguiente tramo del recorrido. Para bien o para mal, la señalización necesaria para encaminar la llamada dentro de la red pública conmutada no es DSS1. En su lugar; las compañías públicas de telecomunicación utilizan un sistema denominado Sistema de Señalización N.° 7 (Signaling System 7, SS7), capaz de manejar llamadas analógicas y digitales, para encaminar llamadas entre centrales de conmutación. Por tanto, en la central de conmutación las instrucciones DSS1 se transforman en señales SS7. SS7 gestiona el control de llamada, incluido el establecimiento y liberación de la llamada. Cuando una llamada alcanza la última central de conmutación de su trayectoria, se convierte de nuevo a formato DSS1 para ser transmitida desde esta última central de conmutación a su destino final, el interlocutor con el que se deseaba comunicar en un principio. El equipo RDSI debe interactuar con DSS1 y SS7, algo para lo que el teléfono tradicional nunca fue diseñado. Es esta interacción con dos sistemas de señalización externos y complejos la que origina la mayor parte de los problemas asociados con la adquisición, instalación y utilización de RDSI. Aunque es posible desarrollar una carrera larga, feliz y productiva como usuario RDSI sin conocer los detalles de DSS1 y SS7, existe un requisito de DSS1 que afecta inmediatamente, y continua haciéndolo durante el tiempo que se utiliza RDSI. Este requerimiento es el SPID, números identificadores asignados a la línea RDSI en el momento de ser dada de alta por el proveedor de servicios de comunicación local. Este número debe ser anotado y guardado, ya que la tarea de configuración del equipo requerirá la introducción de dicho SPID (para más detalles ver el ítem dedicado a SPIDs).

6.1. Servicios provistos por ISDN Los servicios proporcionados por RDSI operan en niveles de protocolo superiores a los de las simples conexiones telefónicas. Así debe ser, vistas las complicadas negociaciones entre el adaptador RDSI de la computadora, el DSS1 y el SS7. Estos servicios utilizan los canales B para transmisión y los canales D para señalización. Estos servicios son: 1.

Servicios portadores: los servicios portadores RDSI no hacen realmente nada que no hagan otros protocolos. Estos son los servicios que transportan datos de un punto a otro. Existen dos tipos: • Modo circuito: es exactamente lo mismo que la conmutación de circuitos, se establece una conexión entre el origen y su interlocutor y el circuito permanece dedicado a la conversación hasta que uno de ellos se desconecta. La conexión se mantiene por el tiempo que dure la llamada, incluso si no se están transmitiendo datos, todo el ancho de banda asociado con el circuito está dedicado a la llamada: Esto puede constituir un gran desperdicio, ya que muchas conversaciones son en su mayoría “aire muerto”. • Modo paquete: resuelve el problema del ancho de banda dedicado, pero no utilizado. Divide una conversación en pequeñas porciones, asigna a cada una de estas porciones una dirección y un número de secuencia, y las envía por la red junto a otros paquetes de muchas otras conversaciones. Dado que cada paquete tiene su propia dirección, todos pueden compartir el ancho de banda sin alterar las transmisiones de datos. Es más, cada paquete podría tomar un camino diferente hasta el interlocutor. Los servicios portadores RDSI ofrecen servicios de conmutación de circuitos y de conmutación de paquetes. El modo circuito utiliza canales B para transmitir datos y el canal D para controlar la llamada. El modo paquete puede utilizar ambos canales B y D para transmitir datos. Generalmente, los servicios modo circuito son mejores para tráfico de voz y los servicios modo paquete son más adecuados para tráfico de datos, pero esto no siempre es así. Los servicios portadores RDSI modo paquete ofrecen un servicio de circuito virtual que puede manejar tráfico analógico, como voz, bastante bien.

2.

Servicios suplementarios: son servicios añadidos a los servicios portadores que proporcionan funcionalidad adicional. Los servicios suplementarios varían de un proveedor RDSI a otro. Se presentan algunos tipos de servicios que se pueden encontrar disponibles: • Identificación de la línea llamante: identifica el número del que realiza la llamada entrante. • Número de abonado múltiple: Este servicio asigna un número de teléfono diferente a cada dispositivo conectado a una interfase RDSI. Por ejemplo, si se tiene un teléfono, un módem y un fax conectados a una misma interfase RDSI, cada uno de ellos tendría su propio número de teléfono. Nota: en el mundo RDSI, los números de teléfono se conocen como números de directorio (DN Directory Number). • Oferta de llamada: estos son servicios como transferencia de llamada y desvío de llamada que permiten

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 7 6 27 76 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X •

• • 3.

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

controlar dónde dirigir la llamada una vez que llega a su destino. Llamada en espera: al contrario del sistema tradicional, no se interrumpe una conversación cuando llega una llamada a través de la línea RDSI. Esto es debido a que la señalización se hace en un canal D separado. Esto resulta especialmente útil cuando se está utilizando el módem (las llamadas entrantes no interrumpirán la llamada). Es decir, se puede tener activada la llamada en espera mientras se está utilizando el módem. Llamada retenida: RDSI permite retener múltiples llamadas simultáneamente sin necesidad de utilizar conexiones separadas para cada llamada. Esto significa que será difícil tener libre el teléfono. Servicios multiconferencia: se ofrecen diversos servicios multiconferencia como llamada en conferencia.

Teleservicios: son servicios sofisticados que RDSI puede proporcionar porque opera a niveles más altos del modelo de referencia OSI que el sistema tradicional. Algunos de estos teleservicios son: • Telefax: comunicación de fax basada en la recomendación Grupo 4 que emplea información digital a 64 Kbps. • Teletexto: proporciona mensajería punto a punto entre dos dispositivos que utilicen conjuntos de caracteres estándar. • Videotexto: mejora los servicios de Teletext añadiendo buzón de texto y gráficos. • Videotelefonía: proporciona servicio de transmisión de televisión a través de RDSI.

6.2. Como construir una red WAN ISDN Ahora que ya se sabe lo que es RDSI y lo que puede proporcionar, ¿cómo se consigue? Adquirir y configurar el equipo, y los servicios para RDSI no es sencillo. A continuación se presenta una guía básica y una lista de comprobación para asegurar que tanto nosotros como nuestro proveedor de servicios de comunicación local disponemos de los elementos fundamentales para RDSI. 6.2.1. La parte del proveedor de servicios de comunicación local El primer aspecto más crítico y menos controlable es determinar si el proveedor de servicios de comunicación local proporciona RDSI. Si lo hace, es necesario saber cómo está implementado RDSI en el conmutador (con protocolo ISDN NI-1 o ISDN NI-2), para poder configurar los dispositivos de forma que se comuniquen con él, y saber el tipo de conmutador ISDN que poseen. Cuando se configura el equipo RDSI, es necesario proporcionar alguna o incluso ambas informaciones. 6.2.2. El medio El aspecto siguiente es el cableado del loop o lazo local (desde el conmutador RDSI del LEC hasta nuestra dependencia o CPE). Es casi seguro que el bucle de abonado local será de cobre (si es de fibra óptica no hay problemas). En tal caso, el cable de par trenzado para acceso local no debe medir más de 5 Kms de longitud, pues sino la compañía telefónica deberá instalar un repetidor entre la central de conmutación y el CPE. El repetidor regenera la señal RDSI, y duplica la distancia permitida entre la central de conmutación y el CPE. Incluso si el bucle de abonado local cumple estas especificaciones, puede no estar preparado para RDSI. Esto se debe a que el cable local puede tener derivaciones (que no deberían existir), es decir el tendido o instalación de un nuevo cliente/abonado que está unido o conectado a un bucle local existente no utilizado dejado por otro abonado (se reusa parte de un tendido viejo). Estas derivaciones originan distorsión en la señal, que no afecta a las señales analógicas, pero producen estragos en RDSI. Por tanto, se deberían eliminar. Para continuar, el LEC deberá eliminar de la línea cualquier impedancia de balanceo, que son dispositivos que se instalan para acondicionar líneas analógicas. Acondicionar significa ajustar las líneas para reducir la distorsión en la señal. Desgraciadamente, las técnicas de reducción de distorsión para señales analógicas pueden causar distorsión en las señales digitales. Para terminar, el LEC debe comprobar la línea para verificar que cumple las especificaciones RDSI. Si es así, se puede continuar, si no es así, la compañía telefónica debe instalar otra línea. Independientemente de que configuración se adopte siempre se debe cerrar cada interfase con una resistencia de 100 Ohmios. Normalmente el NT1 ya tiene esas resistencias y por tanto lo transmite al cableado, en el punto más alejado se deben poner otras dos. El cableado tiene que tener un tratamiento parecido a una línea de transmisión y como tal hay una impedancia característica la cual debe ser cerrada en ambos extremos por una carga de igual valor. El valor normalizado por el ITU-T que puede aproximarse más o menos a la realidad es de 100 Ohmios. Como caso excepcional algunos NT1 tienen la posibilidad de suministrar resistencias de 50 ohmios o dicho de otra manera suministrar las dos resistencias de 100 ohmios en cada par. Otra posibilidad, casi general, es poder anular las resistencias internas, permitiendo que el NT1 se encuentre en un punto intermedio del bus. En este caso es necesario suministrar cuatro resistencias, dos en cada extremo. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 7 7 27 77 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

El bit rate que se consigue en los canales B si todo está correctamente instalado es muy próximo al máximo (hay que tener en cuenta que independientemente del tipo de conexión a la información útil se le añade información para controlar los posibles errores). Es totalmente posible que en una conexión de horas no se produzca un error de un solo bit. En cuanto al cableado RDSI, los cables RDSI utilizan ocho pines y por tanto requieren conectores RJ-45. Es más, el cableado RDSI es directo, no cruzado como el cableado tradicional. Por tanto, son necesarios cables especiales RDSI para conectar los adaptadores RDSI y/o puentes al conector RDSI. 6.2.3. El usuario Si el LEC es capaz de proporcionarnos servicio RDSI, es necesario seleccionar el equipo adecuado para utilizar este servicio. Existen dos elementos fundamentales en los equipos: un adaptador de terminal de red y un adaptador terminal RDSI o puente RDSI. • Adaptador de Terminal de Red (Network Terminal Adapter, NTA): es un dispositivo que conecta los datos o el equipo telefónico a la línea RDSI del proveedor local. En los Estados Unidos, el abonado compra e instala el NTA, mientras en otros países el proveedor local es su propietario y se encarga de su mantenimiento. El NTA conecta el equipo terminal (terminal equipment, TE) y el adaptador de terminal (terminal adapter, TA) al bucle local. Los dispositivos TE son equipos, teléfonos y computadoras conformes a RDSI. Los TA son interfaces, adaptadores que conectan equipos no-RDSI al servicio RDSI. En Estados Unidos, el NTA se conecta al servicio RDSI del proveedor de servicios de comunicación local a través de la interfase U. El equipo del abonado se conecta al NTA a través de la interfase S/T, que permite al dispositivo NT tener conectados y gestionar hasta ocho dispositivos TE y TA (no todos los dispositivos NT son iguales, algunos pueden tener sólo dos conectores, uno para un equipo de datos y otro para un teléfono). El NTA proporciona tres tipos diferentes de interfaces para permitir la conexión de dispositivos: la interfase U, la interfase S/T y la interfase R. • Los Adaptadores de Terminal RDSI, conocidos como módem RDSI, se ofertan como modelos internos y externos, de la misma forma que los módem analógicos. Estos dos modelos ofrecen los mismos beneficios y responsabilidades que sus primos analógicos: los módem internos admiten velocidades de transmisión más altas, mientras que los módem externos proporcionan más control e información de diagnóstico. Otras consideraciones a tener en cuenta son: Conectividad de puertos serie: al seleccionar un adaptador de terminal RDSI que se conecte a un puerto serie, hay que asegurarse de instalar un manejador de puerto serie que admita el ancho de banda superior de RDSI (64 Kbps). Adaptadores de terminal de red integrados: algunos adaptadores de terminal RDSI tienen dispositivos NTA integrados. Esto permite ahorrar dinero y facilita la configuración de los dispositivos RDSI, sin embargo, también puede limitar el número de dispositivos que se pueden conectar a la línea RDSI al número de puertos S/T que proporciona el vendedor, normalmente mucho menor que el proporcionado por los NTA externos. Múltiples canales-B: no todos los adaptadores de terminal RDSI admiten más de un canal B. Si se desea más de un canal B, hay que cerciorarse de que el adaptador de terminal lo admite. Además, asegurarse de que el equipo seleccionado puede agrupar múltiples canales B, si se espera aprovechar la ventaja de un ancho de banda de 128 Kbps o superior, combinando canales portadores. 6.2.4. RDSI y los teléfonos El servicio RDSI requerirá teléfonos RDSI a menos que nuestro adaptador de terminal disponga de una interfase R. La interfase R admite equipos analógicos como los teléfonos estándar. También se pueden comprar adaptadores separados que convertirán los teléfonos analógicos existentes en teléfonos RDSI. Sin embargo, hay que tener presente que los teléfonos analógicos estándar no pueden aprovechar las ventajas de ciertos servicios RDSI como el de Identificación de Llamada Entrante. 6.2.5. Equipos RDSI para LAN La instalación de equipos RDSI para LAN requiere un puente o un router con una interfase RDSI, como se muestra en la figura. El router RDSI se conecta directamente al cable RDSI, por lo que debe T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 7 8 27 78 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

estar configurado no sólo para encaminar tráfico a los segmentos apropiados, sino también para interactuar con la red RDSI. Esto implica muchas de las mismas tareas necesarias para configurar una PC, incluyendo la correcta introducción del SPID y DN. 6.2.6. Configuración e instalación A medida de que la conectividad RDSI empezó a ser barata y a estar disponible, organizaciones de todos los tamaños se decidieron a instalarla por el incremento de ancho de banda y el consecuente incremento de funcionalidad que ofrece superior a las líneas de 56 Kbps habituales. Sin embargo, la implementación de RDSI no es tan sencilla como instalar esas líneas de 56 Kbps. Cuesta algo más que una simple llamada telefónica al proveedor local. En efecto, no es descabellado afirmar que actualmente para ser un usuario RDSI con éxito y no volverse loco también se ha de ser un conocedor de RDSI. Es necesario comprender lo que implica implementar RDSI antes de acometer una instalación a gran escala. Para ello se muestra una pequeña lista de acciones que hay que realizar antes, durante y después de la instalación RDSI. • Primero, contratar lo que se quiere: no todos los LEC ofrecen RDSI, y no todas las compañías que sí lo hacen, pueden ofrecer el tipo de RDSI necesario en cada caso. Se ofrecen conmutadores diferentes, o configurados para proporcionar diferentes tipos de servicio RDSI. Por tanto, lo primero que hay que determinar es qué características RDSI se quieren, para estar seguros de que nuestro LEC puede proporcionarlos. • ¿Cuál será su uso ?: ¿Cuál es la verdadera razón por la que necesitamos más ancho de banda? ¿Queremos tener videoconferencia? ¿Queremos enviar nuestros fax más rápido? O simplemente queremos que nuestras transferencias de archivos sean más rápidas? ¿Queremos utilizar RDSI para transmisión de voz? ¿Datos? ¿Ambos? ¿Cuál es el máximo ancho de banda que pensamos vamos a necesitar: 64 Kbps?, ¿128 Kbps?, ¿más?. • Se debe confeccionar una lista con todas las aplicaciones consumidoras de ancho de banda que pensemos implementar ahora y en el futuro. Esto es absolutamente vital para seleccionar el servicio RDSI que necesitamos. • ¿Qué se ofrece ?: como se vio, RDSI se presenta en dos tipos de accesos. El BRI, con dos canales portadores a 64 Kbps (canales B), que llevan las señales de transmisión y un canal D a 16 Kbps que transporta las señales que controlan las llamadas en los canales B. El PRI que 23 canales B a 64 Kbps y un canal D a 64 Kbps. El acceso que se elija depende completamente del número de conexiones y del ancho de banda que se vaya a necesitar. • ¿Cuántos canales ?: muchos usuarios veteranos de RDSI piensan que el componente RDSI más pequeño que todavía mantiene las propiedades de RDSI es el BRI. Esto no es así. La verdadera molécula de RDSI es un simple canal D. Por tanto, para un BRI, se podría tener dos canales B y un canal D, o un canal D y un canal B, o simplemente un canal D. Esto ofrece la posibilidad de incrementar gradualmente la conexión RDSI para satisfacer las necesidades. Además, el PRI se presenta en diferentes anchos de banda, como se muestra a continuación: 384 Kbps (6 canales B) 1,472 Mbps (24 canales B a 56 Kbps) 1,536 Mbps (24 canales B) 1,92 Mbps (30 canales B) • Modo RDSI: una vez decidida la cantidad de canales, se necesita averiguar que modo de transmisión de datos se va a utilizar en cada canal; los servicios RDSI son modo circuito o modo paquete. Al momento, RDSI ofrecía 10 servicios diferentes modo circuito y tres servicios modo paquete (en incremento), cada uno diseñado para transmitir diferentes tipos de datos. Generalmente, se prefieren los servicios modo circuito para transmisión de voz y otras transmisiones analógicas, mientras que los servicios modo paquete son más apropiados para datos. Nota: en algunos casos, no hay que olvidar al proveedor de servicios de comunicación de larga distancia y al proveedor de acceso a Internet. Si no es posible encontrar un proveedor de larga distancia que pueda gestionar RDSI, entonces no tiene sentido implementar RDSI para larga distancia. Lo mismo es aplicable en el caso del proveedor de acceso a Internet, si se está considerando utilizar RDSI básicamente como servicio de acceso de alta velocidad. • Llega la confusión: recién ahora es el momento de llamar al LEC para contratar RDSI. Debemos estar preparados para todo tipo de expresiones de confusión y/o desconfianza por parte del LEC. Si nos dicen que RDSI no está disponible debemos pedir que nos contesten el por qué y cuándo estará disponible; si nos dan una respuesta muy tonta o desubicada, entonces no estamos hablando con el proveedor adecuado. Cuando encontremos un proveedor adecuado y que tenga RDSI disponible en el área, entonces se puede comenzar a describir qué tipo de servicio RDSI se necesita. • 56/64 Kbps ?: el LEC puede decir que el servicio disponible de RDSI es a 56 Kbps. Aunque esto no es realmente RDSI, tampoco es necesariamente malo. Este servicio a 56 Kbps es RDSI adaptado para T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 7 9 27 79 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

trabajar en los sistemas T1 existentes y se ofrece frecuentemente en lugares en los que todavía no está disponible RDSI a 64 Kbps. Los protocolos RDSI pueden acomodar servicios a 56 Kbps hasta que el servicio completo RDSI a 64 Kbps esté disponible, por tanto no hay que desecharlo simplemente porque no sea “el auténtico”. Tipos de servicio: un tipo de servicio es un término utilizado en el National ISDN Users' Forum (NIUF) para describir las diferentes combinaciones de canales B (de 0 a 2) con el canal D y los tipos de información (datos modo circuito, datos modo paquete, y/o voz) que se van a transmitir por estos canales. Por ejemplo, tipo de servicio 1 no tiene canales B y tiene un canal D a través del cual se pueden transmitir datos modo-paquete. Tipo de servicio 6 tiene un canal B por el que se puede transmitir voz y un canal D en el que se puede transmitir datos modo paquete. Las diferentes combinaciones de canales y tipos de llamada se identifican por un número, normalmente tipo de servicio 1 hasta tipo de servicio 29. Para evitar memorizar los números de tipo de servicio y sus descripciones, se debe decir al proveedor cuantos canales B y D se quiere y que tipo de información se desea transmitir por ellos, entonces, este hallará el número de tipo de servicio correcto que describe esta configuración. Tipos de características: un tipo de característica es otro término NIUF que describe una combinación de servicios bien modo circuito bien modo paquete y/o servicios de control de llamada. Existen como mínimos diez tipos de características, en los que se detalla todo, desde la tasa de datos hasta opciones como redirección de llamada.

Finalmente, tras seleccionar el número de canales, tipo(s) de llamadas admitidas por dichos canales, y las características e interfaces deseadas, se habrá completado el proceso de solicitud. El LEC debería enviarnos una carta confirmando nuestro pedido y especificando los servicios contenidos en el mismo, incluyendo el/los números de teléfono de nuestra/s nueva/s conexión/es RDSI (conocidos como Números de Directorio o DN), así como nuestro Número de Identificación de Perfil de Servicio o SPID, los cuales se necesitarán a la hora de configurar el equipo RDSI.

77.. C O N A L E CAAARRRAAACCCTTTEEERRRÍÍÍSSSTTTIIICCCAAASSS AAADDDIIICCCIIIO ON NA AL LE ESSS 7.1. Rendimiento RDSI no es realmente un servicio de alta velocidad. El máximo ancho de banda disponible de un BRI RDSI es de 128 Kbps, y esto es sólo considerando que dicho BRI incluye dos canales B, y que los proveedores del equipo y del servicio permiten agrupar los dos canales. El máximo ancho de banda disponible a través de un PRI es de 1,92 Mbps, a través de lo que se llama un canal H12 que consiste en 30 canales B y un canal D a 64 Kbps. De nuevo, el equipo y todos los participantes, el proveedor local, el proveedor de software de acceso y el destinatario, deben soportar la agrupación de los canales B. El estándar RDSI de banda ancha, que se verá más adelante, admite velocidades de transmisión de datos de hasta 622 Mbps. Sin embargo, este estándar aún no está finalizado, por tanto el máximo en RDSI se mantiene en la velocidad de RDSI banda estrecha de 1,92 Mbps.

7.2. Gestión y tolerancia a fallos Mientras RDSI proporciona de manera inherente diferentes servicios de gestión de llamada y de control, algunos de los cuales se han descrito anteriormente, la gestión del servicio RDSI se encuentra totalmente en manos del LEC. La optimización y resolución de problemas del servicio RDSI es una tarea tediosa, y a menudo nada fructíferas, que involucra múltiples llamadas telefónicas al proveedor de servicios y largas esperas a las respuestas del servicio de reparación. En cuanto a tolerancia a fallos, recuérdese que el proveedor RDSI puede tener sólo un conmutador preparado para RDSI por área. Si es así, cuando algo va mal en dicho conmutador, uno se queda fuera de servicio hasta que se repare la avería.

7.3. Escalabilidad RDSI es probablemente el protocolo de alta velocidad para área extensa más escalable de los disponibles. Con el equipo y los servicios apropiados, puede ser expandido desde una simple conexión de módem a 14,4 Kbps hasta 1,92 Mbps. Sin embargo, tal como se vio anteriormente en este capítulo, la configuración del equipo y de los servicios para poder admitir esta escalabilidad no es fácil, y a veces es sencillamente imposible conseguir la cooperación necesaria entre los vendedores para hacerlo realidad.

7.4. Disponibilidad y precio La disponibilidad RDSI está creciendo rápidamente. A medida que crece, los precios de las tarjetas RDSI T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 8 0 28 80 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

para PC disminuyen. Actualmente se puede comprar un módem RDSI con un NT 1 interno por unos 200 dólares. Los precios para RDSI varían enormemente. La instalación puede llegar a costar 400 dólares por línea.

7.5. El futuro: RDSI banda ancha El ITU-T trabaja en las especificaciones del modelo RDSI de banda ancha, que permite la transmisión de datos full duplex de hasta 622,08 Mbps. Estas velocidades tan altas permiten transmisiones bidireccionales muy sofisticadas, almacenamiento y reenvío, difusiones multimedia, y servicios de mensajería y recuperación multimedia. El estándar RDSI-BA es también la base para ATM (tratados en otro capítulo). ATM y RDSI-BA parecen ser la dirección que siguen las redes de voz y datos, todas ellas soportadas por una infraestructura física de fibra óptica (SONET). RDSI-BA ATM SONET

7.6. Ventajas e inconvenientes Ventajas RDSI es un protocolo de alta velocidad asumible y escalable. Su implementación y expansión puede ser bastante barata en las áreas en las que se encuentra disponible. El acceso primario está pensado para grandes oficinas o centros proveedores de servicios. Por ejemplo un proveedor de conectividad Internet puede ofrecer acceso RDSI a sus usuarios (que normalmente emplearán un BRI) y en vez de instalar múltiples accesos básicos instalar un acceso primario que le permitirá atender simultáneamente hasta 30 clientes (o quizá algunos menos si decide permitir que los clientes que lo deseen utilicen dos canales). Las conexiones o llamadas RDSI se pagan de acuerdo con la misma tarifa de uso que la red analógica, y con los mismos ámbitos (metropolitano, provincial, nacional e internacional). El RDSI resulta una alternativa a veces más barata que las líneas dedicadas de 64 Kbps incluso para conexiones permanentes, especialmente en ámbito metropolitano; en estos casos debe estudiarse y valorarse el costo de ambas alternativas. La posibilidad de utilizar RDSI cuando hay picos de tráfico da una gran flexibilidad. También es interesante el uso de RDSI como servicio de desbordamiento; por ejemplo, una oficina que tiene un tráfico constante con su central podría tener una línea dedicada de 64 Kbps y un acceso básico RDSI para disponer en horas punta de un ancho de banda de hasta 192 Kbps (los 64 Kbps de la línea dedicada mas los 128 Kbps de los dos canales B); los equipos pueden configurarse para que la primera y segunda conexiones RDSI se establezcan cuando el caudal de tráfico supere unos valores preestablecidos. Otra ventaja en el uso de RDSI es como servicio de emergencia: dos oficinas unidas normalmente por una línea dedicada pueden en caso de avería de ésta conectar por RDSI en cuestión de segundos, de forma automática y transparente a los usuarios; según el tráfico entre las oficinas la conexión RDSI de reserva deberá ser un acceso básico o primario; en el caso de un acceso primario la capacidad podrá llegar a los 1.920 Kbps (30 canales B). Una aplicación interesante de la RDSI es la videoconferencia. Existen en el mercado equipos que por un precio muy razonable permiten convertir un PC en una estación de videoconferencia; la señal de vídeo es captada por una cámara, enviada al PC para su digitalización y compresión, y enviada después por dos canales B a la estación remota, donde sufre el proceso inverso. En el estado actual de las técnicas de compresión de audio y vídeo con 128 Kbps es posible efectuar una videoconferencia de calidad aceptable. Los sistemas de videoconferencia de mayor calidad utilizan un canal H de RDSI (384 Kbps) o incluso una línea E1 directamente; con 384 Kbps es posible obtener una calidad comparable a la de una emisión de televisión. Para poder llevar la señal digital por el bucle de abonado sin modificación es preciso que la distancia a cubrir no sea superior a 5 Kms.; por este motivo la cobertura de RDSI en áreas rurales es aún muy deficiente. Hoy en día, ISDN se usa principalmente como una tecnología WAN de backup y para proveer acceso remoto a teleconmutadores y pequeñas oficinas. Los proveedores de servicio (carriers o portadoras) y grandes compañías usan ISDN PRI para soportar un gran número de módems analógicos (POTS) y llamadas BRI ISDN. Inconvenientes RDSI presenta grandes inconvenientes a superar; como se describió con detalle antes, contratar servicios RDSI requiere un nivel de experiencia que muchos administradores de red no han tenido tiempo de desarrollar. Llegar a ser un experto en la instalación y configuración de dispositivos RDSI, especialmente en áreas pertenecientes a diferentes LEC, está normalmente fuera de las expectativas de la mayoría de los administradores de red. Esto significa contratar integradores, consultores e implica mucho dinero extra. Aún es más, conseguir la cooperación de varios vendedores y proveedores puede ser complicado. Durante T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 8 1 28 81 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX X

R R D S D D O S N G R A D O S REEED DD DIIIGGGIIITTTAAALLLD DEEE S SEEERRRVVVIIICCCIIIO OS S IIIN NTTTEEEG GR RA AD DO OS S

toda su ya casi larga historia, RDSI sigue siendo poco familiar para la plantilla técnica de muchos proveedores. Puede pasar aún algún tiempo antes de que los LEC puedan formar a sus empleados para proporcionar el nivel de servicio en la contratación, selección, instalación y resolución de problemas que la mayoría de los administradores de red necesitan. El máximo ancho de banda para RDSI banda estrecha también está limitado a un nivel bastante inferior al de otros prometedores protocolos WANs de alta velocidad, por tanto puede que sólo sea una medida provisional en el camino hacia protocolos como ATM. Aun cuando ISDN ofrece un seteo de llamada mucho más rápido y un mayor rendimiento que los POTS, muchos potenciales usuarios de ISDN BRI optan por tecnologías de cable (cablemodem) y DSL (Digital Subscriber Line) puesto que ofrecen un mayor rendimiento a un costo mas bajo. Como ya hemos comentado el estándar RDSI se demoró más de lo conveniente, y como consecuencia de ello lo que hubiera sido un servicio realmente innovador en su momento se ha quedado en una modesta mejora en la velocidad respecto a lo que se obtiene utilizando un módem. Además, en los módems se utilizan de forma generalizada algoritmos de compresión, ya que existen estándares seguidos por muchos fabricantes. En RDSI no existe un estándar para la compresión de datos, por lo que cada fabricante tiene su sistema propio. La aparición de módems de 56 Kbps puede ser otro factor que inhiba el desarrollo de la RDSI.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 8 2 28 82 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

FFRRAAM MEE R REELLAAYY 11.. IINNNTTTRRRO O D U C C Ó N OD DU UC CC CIIIÓ ÓN N Frame Relay (que significa retransmisión de tramas) nació en 1989, a partir de los trabajos de estandarización del servicio de la Red Digital de Servicios Integrados, RDSI (Integrated Services Digital Network, ISDN) como un intento de crear una versión “light” de X.25, que permitiera aprovechar las ventajas de poder definir circuitos virtuales pero sin la baja eficiencia que tenían los protocolos excesivamente “desconfiados” de X.25. Constituye la parte correspondiente al servicio de datos de conmutación de paquetes de RDSI diferenciada y ofrecida como un servicio separado. Frame Relay se desarrolló como un protocolo independiente, de ahí que sus principios básicos puedan aplicarse fuera de los dominios de RDSI. Si bien las propuestas iniciales para la estandarización del Frame Relay fueron presentadas al CCITT en 1984, este no experimentó un uso significativo durante el final de los 80’ por causa de la falta de interoperabilidad y de estandarización completa. Frame Relay, fue diseñado para suministrar un servicio de transmisión de datos de conmutación de paquetes a muy alta velocidad con el objetivo de proporcionar conectividad entre dispositivos, como routers que exigen un alto caudal durante breves periodos de tiempo. Frame Relay permite conectar multiples dispositivos de red en una WAN multipunto, como se indica en la figura. El diseño de las WAN Frame Relay puede afectar determinados aspectos (como el split horizon u horizonte dividido) de los protocolos de capa superior como IP e IPX. Frame Relay se denomina tecnología multiacceso sin broadcast porque no tiene canal de broadcast. Los broadcasts se transmiten a través de Frame Relay enviando paquetes a todos los destinos de red. Frame Relay utiliza circuitos virtuales para realizar conexiones a través de un servicio orientado a conexión. Al igual que X.25, frame Relay define el proceso de interconexión entre el DTE del usuario (un router) y el servicio DCE del proveedor (switch Frame Relay). Frame Relay no define el camino por donde se transmiten los datos dentro de la red de servicio del proveedor (una vez que el tráfico alcanza el switch del proveedor). Además, un proveedor Fram Relay puede usar una variedad de tecnologías, como ATM o PPP, para mover los datos, de un extremo a otro de su red (ver figura). Mientras que en X.25 la capa de enlace y la capa de red eran sumamente complejas, en Frame Relay ambas se intentaron reducir a su mínima expresión, dejando en manos de los equipos finales toda la labor de acuse de recibo, retransmisión de tramas erróneas y control de flujo; de esta forma Frame Relay se convertía en el complemento perfecto a otros protocolos, tales como TCP/IP. En muchos casos se considera que Frame Relay no es un protocolo al nivel de red sino al nivel de enlace (de ahí su nombre), y aun visto como nivel de enlace resulta bastante ligero. Frame Relay provee un chequeo de errores básico, mas que una corrección de errores. Su bajo overhead (X.25 tenia un alto nivel de confiabilidad a costa de un incremento en el overhead) permite una conmutación de paquetes más rápida lo que permite una mayor performance y eficiencia. Los enlaces de fibra óptica y las facilidades de transmisión digitales de hoy, ofrecen tasas de errores muchos mas bajas que sus predecesores de cobre. Por esta razón, se consideraron innecesarios los mecanismos de overhead, de capa 2 y 3, del X.25. 1.1. Qué es Frame Relay Frame Relay, de manera similar a X.25, es un protocolo de conmutación de paquetes que conecta dos redes de área local a través de una red pública de conmutación de paquetes (PSN o PSDN). Es un estándar del ITUT y ANSI, de enlace de datos, orientado a conexión y optimizado para proveer alta performance y eficiencia. En esencia, una trama procedente de una LAN se inserta en, o se encapsula en, una trama Frame Relay. A continuación se transmite por la red Frame Relay hasta la LAN destino. Frame Relay utiliza técnicas de multiplexación estadística para insertar datos procedentes de diversas fuentes en las dependencias del cliente y transmitirlos a la red Frame T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 8 5 28 85 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

Relay. Esencialmente, la multiplexación estadística suministra a la red el ancho de banda bajo demanda, es decir, la red es capaz de obtener el ancho de banda que necesita cuando lo necesita sin tener que reservar por adelantado este ancho de banda y mantenerlo sin usar hasta que se requiera. Cada paquete Frame Relay contiene la información de direccionamiento que la red emplea para encaminarlo a través de las centrales de conmutación de la compañía telefónica. Frame Relay es una alternativa económica para los diseños WAN punto a punto. Cada sitio se puede conectar a los demás a través de un circuito virtual. Un router solo necesita una interfase física hasta la portadora. Frame Relay se implementa especialmente como un servicio suministrado por portadora (servicios de un proveedor público), pero también se puede utilizar para redes privadas. El empleo de una red pública de datos permite a los subscriptores Frame Relay, al dejar la responsabilidad de administración de la infraestructura de red en manos del proveedor del servicio Frame Relay, minimizar los costos de servicio y mantenimiento de equipos. A los subscriptores se les cobra basándose en el uso que hacen de la red. Una red Frame Relay puede componerse de computadores, servidores, etc. en el extremo del usuario y por dispositivos de red Frame Relay como switches, routers, CSU/DSU, o multiplexores. La mayoría de las redes Frame Relay de hoy son redes sobre portadoras publicas. No existe ningún estándar en la actualidad para la conexión cruzada de equipo dentro de una red Frame Relay. Por lo tanto, el soporte de las interfaces Frame Relay no necesariamente implica que se deba utilizar el protocolo Frame Relay entre los servicios de red. De esta manera, se puede utilizar la conmutación por circuito tradicional, la conmutación por paquetes o un enfoque híbrido que combine estas tecnologías. Una implementación común de Frame Relay privada es equipar a un multiplexor T1 con interfaces Frame Relay y no Frame Relay. El trafico, como vemos en la figura, es enviado fuera de la interfase Frame relay hacia los datos. El tráfico no Frame Relay es enviado hacia la aplicación o dispositivo apropiado, como un Conmutador Telefónico Privado (PBX o PABX) para el servicio telefónico o hacia una aplicación de videoconferencia. A menudo se describe a Frame Relay como una versión suavizada de X.25, que no ofrece características robustas, como windowing, secuenciamiento y retransmisión de datos, que se ofrecían en X.25. Esto es así porque Frame Relay opera sobre WANs con servicios de conexión más confiables y con mayor grado de fiabilidad (es decir redes de telecomunicaciones digitales (libre de errores) y estructuras de fibra de alta confiabilidad), que las instalaciones disponibles durante los ’70 y principios de lo ’80 que servían como plataformas comunes para WANs X.25. En comparación con X.25, Frame Relay ofrece un mejor rendimiento debido al muy limitado numero de rutinas de detección y corrección de error, que se describirán en detalle mas adelante. El resultado de este simplificado mecanismo de envío de paquetes permite la transmisión de datos a velocidades típicas, en el rango de 56 Kbps a 2 Mbps, aunque se logran velocidades de hasta 45 Mbps, apropiado para interconexión de LANs.

22.. O O R A M E OPPPEEERRRAAATTTO FRRRAAAM REEELLLAAAYYY OR RIIIA AF ME ER 2.1. Modo de operación Frame Relay, al igual que el protocolo X.25, divide los datos del usuario en paquetes que son transmitidos sobre la red WAN, a través de una serie de switches Frame Relay, y ensamblados en destino. Sin embargo, Frame Relay lo hace de manera mucho más rápida que X.25. A continuación se describe lo que pueden considerarse las interioridades de cómo Frame Relay transmite datos y de cómo lo hace tan rápidamente. Opera en las capas física y de enlace de datos del modelo OSI, pero depende de los protocolos de capa superior como TCP para la corrección de errores. Originariamente estuvo destinado a utilizarse con RDSI. Actualmente, Frame Relay es un protocolo de capa de enlace de datos conmutado de estándar industrial, que maneja múltiples circuitos T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 8 6 28 86 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY virtuales mediante el encapsulamiento HDLC (Control de Enlace de Datos de Alto Nivel) entre los dispositivos conectados. Frame Relay utiliza circuitos virtuales para realizar conexiones a través de un servicio orientado a conexión. 2.1.2. Frame Relay vs. conmutación de paquetes

Frame Relay, como X.25, se basa en el principio de conmutación de paquetes, lo que lo hace muy adecuado para aplicaciones de datos. En Frame Relay, los datos se dividen en tramas de longitud variable que contienen las direcciones de destino. A continuación estas tramas son remitidas a la red Frame Relay para su transferencia. En apariencia este funcionamiento parece idéntico al de conmutación de paquetes. De hecho, la verdadera diferencia entre Frame Relay y conmutación de paquetes se encuentra bajo la superficie: la conmutación de paquetes opera en el nivel 3 del modelo OSI, ilustrado en la figura, mientras que Frame Relay es estrictamente una suite de protocolos de capa 2 (e incluso no implementa todas las funciones del nivel 2). Esto permite a Frame Relay ofrecer una mayor performance y eficiencia en la transmisión que X.25, y lo hace apropiado para las aplicaciones WAN actuales, como la interconexión de LANs.

2.2. Frame Relay como solución Los exhaustivos mecanismos de verificación de error y control de flujo aseguran, sin duda, el envío del paquete; sin embargo, también ralentizan la transmisión de los paquetes y, por tanto, reducen el rendimiento global de la red. Afortunadamente la llegada de sistemas de transmisión de alta velocidad capaz de enviar paquetes con muchos menos errores y el desarrollo de aplicaciones para estaciones de usuario final diseñadas para detectar y recuperar los paquetes erróneos permitió a los diseñadores de redes deshacerse de estos engorrosos (y ahora innecesarios) procedimientos de comprobación de errores. Frame Relay se desarrolló bajo la asunción de que el medio de transmisión es fiable y se encuentra relativamente libre de errores y que las aplicaciones del usuario final pueden detectar y recuperar paquetes erróneos. Por tanto, Frame Relay descarta los paquetes que contienen errores. Igualmente; también, si los buffer de entrada del manejador Frame Relay se llenan, se descartan todas las tramas hasta que la congestión desaparece. Resumiendo, Frame Relay realiza un escaso esfuerzo por detectar errores y congestión, y ninguno por corregirlos. Entonces, ¿qué es lo que hace?. Un switch Frame Relay tiene tres funciones básicas: o Encamina los paquetes recibidos hacia el puerto de salida apropiado. o Comprueba el campo de secuencia de verificación de trama para determinar si la trama contiene algún error, de ser así, descarta la trama. o Comprueba si los buffer están llenos. En tal caso, descarta las tramas entrantes hasta que finalice la congestión. El servicio que suministra Frame Relay consiste básicamente en identificar el principio y final de cada trama, y detectar errores de transmisión. Si se recibe una trama errónea simplemente se descarta, confiando en que el protocolo de nivel superior de los equipos finales averigüe por sí mismo que se ha perdido una trama y decida si quiere recuperarla y como hacerlo. A diferencia de X.25, Frame Relay no tiene control de flujo ni genera acuse de recibo de los paquetes (estas tareas también se dejan a los niveles superiores en los equipos finales), ni establece conexiones; es decir no se realiza ninguna de las funciones del nivel 3. Observando la estructura de la trama Frame Relay mostrada en la figura siguiente se aprecia que la trama ni siquiera contiene campos con la información necesaria para que el switch pueda realizar estas funciones. El tamaño máximo de los paquetes varía según las implementaciones entre 1 KB y 8 KB. La velocidad de acceso a la red típicamente esta entre 56 y 2.048 Kbps, aunque ya se baraja la estandarización de velocidades del orden de 34 y 48 Mbps.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 8 7 28 87 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

2.3. Formato de trama En la figura se muestra la estructura de la trama Frame Relay. El paquete Frame Relay, muy similar al paquete X.25, tiene los siguientes componentes: ♦ Señalador de comienzo/fin de trama: es una secuencia de 8 bits que indica el principio y el final de una trama Frame Relay. ♦ Dirección, campo de nivel de enlace o header Frame Relay: este campo contiene información de direccionamiento y la escasa gestión de control de flujo que Frame Relay realiza. Aunque las direcciones Frame Relay son actualmente todas de 2 bytes de largo, los bits de dirección ofrecen la posibilidad de extender las longitudes de las direcciones en el futuro. El campo de nivel de enlace también detecta si en el manejador de paquetes de destino existen suficientes buffer para recibir el paquete. Este campo tiene dos subcampos: 1. Identificador de Conexión de Enlace de Datos o DLCI (Data Link Connection Identifier): esta es la dirección de la conexión lógica que se encuentra multiplexada en el canal. Consiste en los 10 primeros bits del campo dirección. 2. Control de congestión: los últimos 3 bits del campo de dirección, que controlan los mecanismos de notificación de congestión Frame Relay. Estos son FECN, BECN y bits Posibles para Descarte o DE (Discard Eligibility). Indica si la trama puede ser descartada en el caso de una congestión. ♦ Campo de datos: estos son los datos “útiles” del paquete. Su tamaño es, generalmente, de 4 K o inferior. Campo de longitud variable que contiene datos de la capa superior encapsulados. ♦ Secuencia de verificación de trama (FCS): es un campo de dos bytes que contiene la suma de comprobación para determinar si el paquete ha sido dañado durante la transmisión. En esta figura también se muestra (en la animación se los describe) los componentes de la trama Frame Relay del estándar del IETF.

2.4. Topologías Frame Relay Frame Relay permite interconectar sitios remotos de diversas formas. En una solución Frame Relay se pueden utilizar topologías como las siguientes: • Topología de malla completa: cada dispositivo Frame Relay tiene un PVC hacia cada uno de los demás dispositivos en la WAN multipunto. Cualquier actualización enviada por un dispositivo es detectada por todos los demás dispositivos. Si se utiliza este diseño, toda la WAN Frame Relay se puede tratar como un solo enlace de datos. Este método, aunque costoso, provee conexiones directas desde un sitio a todos los otros sitios permitiendo redundancia. Cuando se cae un enlace, el router de un sitio puede rerutear el tráfico a través de otro u otros sitios. A medida de que el número de nodos aumenta, la topología se torna más cara. La formula para calcular el numero total de PVCs en esta topología WAN es: [n(n-1)]/2, donde n es el número de nodos. • Topología de malla parcial: en esta topología no todos los sitios o nodos en la nube Frame Relay tienen un PVC hacia los demás dispositivos. • Topología de estrella: también conocida como “eje y rayos” (hub and spoke), es la más popular debido a que es la más costo efectiva. En esta topología, los sitios remotos se conectan al sitio central que generalmente provee un servicio o una aplicación. Es la topología menos cara dado que requiere de pocos PVCs. En este escenario, el router provee una conexión multipunto porque solo usa una sola interfase para interconectar los múltiples PVCs.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 8 8 28 88 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

2.5. Dispositivos Frame Relay •

Los dispositivos Frame Relay conectados a una WAN se agrupan en dos categorías: DTEs (Data Terminal Equipment): son considerados como equipos de terminación (de la conexión) para una red especifica. Se localizan, por lo gral, en el área del consumidor (CPE); y de hecho el consumidor puede ser propietario de ellos. Ejemplo de DTEs son los routers y los FRADs. Un FRAD (Frame Relay Access Device, Dispositivo de Acceso Frame Relay) es un dispositivo especializado diseñado para proveer una conexión entre una LAN y una WAN Frame Relay. Su función es la de ensamblador / desensamblador de tramas. DCEs (Data Circuit-Terminating Equipment): son dispositivos de internetworking de propiedad del proveedor. El propósito del DCE es proveer servicios de conmutación y clocking en la red. En la mayoría de los casos son conmutadores (switches) de paquetes, los cuales transmiten realmente los datos a través de la WAN.

2.5.1. Conexiones de red Frame Relay Así pues, ¿cómo viajan estas tramas X.25, parecidas pero no iguales, en una red Frame Relay? Una estación envía un paquete de datos a un router, quien, a su vez, transfiere los paquetes a través de Puertos de Conexión (Port Connections, PC) compuestos por circuitos virtuales PVC o SVC al switch o router Frame Relay, quien lee la dirección destino contenida en el subcampo DLCI de la cabecera Frame Relay. El dispositivo de red dirige, entonces, la trama al destino correcto a través de la red Frame Relay. En el otro extremo de la red, la información Frame Relay es eliminada y los datos son ensamblados en el formato original del paquete, el cual puede ahora ser procesado por la estación receptora. 2.5.2. Puertos de conexión Un puerto de conexión es un punto físico de acceso a la red Frame Relay que define la máxima cantidad de datos que puede ser enviada a la red en cualquier momento a través de todos los PVCs. Una única interface de red puede soportar múltiples puertos. El puerto de conexión es la interface a la red Frame Relay pública o privada, disponible generalmente, a 56/64 Kbps, 128 Kbps, 256 Kbps, 348 Kbps, 512 Kbps, 768 Kbps, 1,024 Kbps y 1,536 Kbps. El puerto de conexión asigna los datos dinámicamente entre los PVC. Frame Relay utiliza una técnica de multiplexación (que se describirá posteriormente) que permite conectar una gran sede central a una red pública Frame Relay, a través de un único puerto de router y mediante una única conexión de alta velocidad a la red. Es posible realizar simultáneamente múltiples transmisiones con diferentes localizaciones, debido a que los circuitos no están dedicados a una ubicación específica, al contrario de lo que sucede con los servicios punto a punto. 2.5.3. Multiplexación estadística y ancho de banda bajo demanda Como interfase entre el equipo del usuario y de red, Frame Relay proporciona un medio para realizar la multiplexación de varias conversaciones de datos lógicas, denominadas circuitos virtuales, a través de un medio físico compartido asignando DLCI a cada par de dispositivos DTE/DCE. Como se mencionó, Frame Relay se diseño para tratar eficientemente el tráfico a ráfagas (trafico burst). La naturaleza de gran parte del tráfico en las redes Frame Relay es en ráfagas, lo que significa que la mayoría del tiempo los dispositivos transmiten pocos datos, o incluso no transmiten nada. En vez de desperdiciar el dinero en ancho de banda no utilizado para un gran número de conexiones a ráfagas, Frame Relay facilita a los administradores de red la posibilidad de conectar varias conexiones de este tipo al mismo segmento. La estrategia se basa en que en muy pocas ocasiones dos o más conexiones enviarán una ráfaga de tráfico al mismo tiempo y en que, cuando alguna de las conexiones lo haga, existirá suficiente capacidad de almacenamiento intermedio en el manejador Frame Relay para capturar las tramas y transmitirlas cuando el ancho de banda se libere. La multiplexación estadística es una técnica T G T FFIIIN A G R D O N A D Ó N O N Á D O N 2 TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL 2 8 9 28 89 9


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

para intercalar datos procedentes de distintos dispositivos en una única línea de transmisión permitiendo un uso más flexible y eficiente del ancho de banda disponible. A cada dispositivo con datos para transmitir se le concede una ranura de transmisión en la red (alocacion dinámica del ancho de banda). Sin embargo, si el dispositivo no tiene nada que transmitir, su ranura de ancho de banda se cede a una estación que sí tenga datos para transmitir. La multiplexación estadística contrasta con la multiplexación por división de tiempo (TDM), la cual se usa sobre circuitos dedicados (líneas leased), puesto que si bien TDM aloca ancho de banda, en slots de tiempo preasignados, para múltiples canales, sobre un unico circuito, no tiene en cuenta si la estación tiene o no datos para transmitir. Así es como Frame Relay acomoda el tráfico que supera el CIR de un subscriptor (hace uso del ancho de banda no utilizado en ese momento por otras estaciones de la red). Por lo tanto, Frame Relay permite a los usuarios compartir el ancho de banda a un costo reducido. Note que X.25 realiza multiplexación estadística usando LCIs, los cuales son parte del header de capa 3 de X.25. A diferencia de X.25, Frame Relay no opera en la capa 3, por lo que la multiplexación se lleva a cabo en la capa 2 usando campos DLCIs. Por ejemplo, supongamos que tiene una WAN que utiliza Frame Relay y que Frame Relay es equivalente a un grupo de rutas. La compañía telefónica generalmente es propietaria de las rutas y está a cargo de su mantenimiento. Puede elegir arrendar la ruta exclusivamente para su empresa (dedicada), o bien puede pagar menos para arrendar una ruta compartiéndola con otras empresas. Por supuesto, Frame Relay también se puede ejecutar totalmente en redes privadas; sin embargo, rara vez se utiliza de esta manera.

33.. IINNNSSSTTTAAALLLAAACCCIIIÓ Ó N Y C O N F G U R A C Ó N ÓN NY YC CO ON NF FIIIG GU UR RA AC CIIIÓ ÓN N Generalmente, a mayor distancia cubierta por una línea leased, mas caro el servicio. Mantener una topología de malla completa con líneas arrendadas a los sitios remotos, es muy costoso para las organizaciones. Del otro lado, las redes de conmutación de paquetes proveen los medios para multiplexar diversas conversaciones lógicas de datos sobre un solo enlace de transmisión físico. Para esto la red de paquetes utiliza circuitos virtuales (VCs) para poder entregar paquetes desde un extremo a otro, sobre la infraestructura compartida. Para ello, el proveedor de servicios utiliza equipos de conmutación para armar y administrar esos VCs. La arquitectura de las redes de paquetes conmutados ofrecen a los proveedores y consumidores una gran forma de control sobre como administrar el tráfico. Los proveedores pueden aumentar o disminuir la velocidad a la cual fluyen los datos mediante la reconfiguración de los equipos de conmutación. Los switches Frame Relay pueden configurarse para dropear tráfico bajo ciertas circunstancias, o priorizar tráfico en otros casos. Ninguno de estos controles se implementa en los circuitos dedicados, como ser líneas T1 punto a punto dedicadas. Al contrario de una línea leased, la cual provee un monto fijo de ancho de banda todo el tiempo, una red de paquetes puede proveer múltiples niveles de servicio y de ancho de banda. En una red Frame Relay, los usuarios podrán “controlar, dar forma o modelar” (shape) al tráfico para que ciertos protocolos y VCs cumplan con velocidades o tasas de transmisión especificas. Los usuarios podrán “modelar tráfico” (ver mas adelante) por medio de una política o de una aplicación. Una aplicación podrá requerir que una interfase dada no exceda una cierta tasa de datos aun cuando la línea física sea capaz de soportar velocidades de transmisión más altas. Un usuario podría también querer modelar el tráfico para evitar que un enlace de alta velocidad sature el router de una sucursal que tiene una conexión de baja velocidad. El modelado de tráfico Frame Relay confía en los parámetros que se utilizan para administrar congestión de tráfico. Estos incluyen el CIR, el FECn, el BECN y el bit DE. Un servicio conmutado de paquetes, como Frame Relay, requiere que el consumidor mantenga un solo circuito (físico), por lo gral una línea T1, hacia la oficina central del proveedor (CO). Frame Relay proporciona una alta relación costo / efectividad dado que un sitio puede conectarse a muchos sitios geográficos distantes usando una sola conexión T1 (y un único CSU/DSU) a la CO local. Una WAN Frame Relay típica se compone de numerosos sitios conectados a una oficina central (CO) a través de loops locales. El Telco identifica cada loop local a través de un número de circuito para simplificar la administración y la resolución de problemas. Un ejemplo de numero de circuito es 05QHDQ101545-080TCOM002. Antes de solicitar el servicio Frame Relay es necesario determinar varios aspectos. Estos son: * Velocidad de acceso: es la velocidad de conexión entre las instalaciones del usuario y la red Frame Relay del proveedor. Es la velocidad medida por reloj (velocidad de puerto) de la conexión (loop local) a la nube Frame Relay (ver figura). Es equivalente a la velocidad a la que los datos viajan hacia dentro o fuera de la red. Existen varias opciones, y la velocidad seleccionada determinará el tipo de línea de acceso requerida: T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 9 0 29 90 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

*

*

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

1. 56/64 Kbps sobre líneas conmutadas Switched-56 o líneas RDSI. 2. 128 Kbps sobre líneas RDSI. 3. 384 Kbps a 1,544 Mbps a través de T1 fraccionario o líneas T1. Ubicación física de los dispositivos Frame Relay en la instalación del usuario: como se ha comentado previamente, será necesario un router con puerto WAN Frame Relay. Adicionalmente, el proveedor tendrá que instalar, en las dependencias del usuario, un dispositivo FRAD (ver mas adelante). CIR, CBR y EBR: antes de solicitar el servicio será necesario determinar los requisitos de tráfico de la red, o las limitaciones del presupuesto.

3.1. Operación Frame Relay Las redes Frame Relay, como X.25, soportan circuitos virtuales, tanto permanentes (PVCs) como conmutados (SVCs). El PVC es el tipo más común, y se usa cuando hay transferencias de datos consistentes y permanentes entre dispositivos DTEs a través de la red Frame Relay. Los SVCs, que se usan cuando hay transferencias esporádicas entre DTEs, requieren de seteo de llamada (call setup) y de terminación de llamada para cada conexión que se realice. Se debe determinar si el carrier soporta SVCs, dado que es más común el soporte de los PVCs. En redes de paquetes, como Frame Relay, a cada extremo de un circuito virtual se le asigna un identificador de conexión. El equipo de conmutación del proveedor de servicios mantiene una tabla que mapea esos identificadores de conexión a puertos salientes. Cuando se recibe un frame, el switch Frame Relay analiza el identificador de conexión y entrega el frame al puerto de salida apropiado. Mientras que en X.25 el identificador de circuito virtual se denomina LCI, en redes Frame Relay un DLCI identifica el circuito virtual entre el DCE y el switch Frame Relay al cual el router está conectado. El switch mapea los DLCIs entre cada par de routers para crear un PVC.

3.2. DLCI de Frame Relay Los estándares Frame Relay direccionan circuitos virtuales permanentes (PVC) que se encuentran administrativamente configurados y administrados en una red Frame Relay identificados por los DLCI, como aparece en la figura. Un DLCI o Identificador de Conexión de Enlace de Datos (Data Link Connection Identifier), es un número que identifica el extremo final en una red Frame Relay. Este número sólo tiene importancia para la red local. El switch Frame Relay asigna los DLCI entre un par de routers para crear un circuito virtual permanente. Es decir que los valores en sí no son únicos en la WAN Frame Relay. Dos dispositivos DTEs conectados por un circuito virtual podrían utilizar un valor DLCI distinto para referirse a la misma conexión, es decir el DLCI de significado local no referencia al otro extremo del circuito virtual. Frame Relay proporciona un medio para realizar la multiplexación de varias conversaciones de datos lógicas. Esta técnica de permitir múltiples canales lógicos para transmitir sobre un solo circuito físico se denomina multiplexación estadística. El equipo de conmutación del proveedor de servicios genera una tabla asignando los valores DLCI a puertos salientes. Cuando se recibe la trama, el dispositivo de conmutación analiza el identificador de conexión y entrega la trama al puerto saliente asociado. La ruta completa al destino se establece antes de enviar la primera trama. Para configurar el router Frame Relay, todo lo que hay que hacer es introducir la información del DLCI suministrada por el proveedor del servicio Frame Relay en las tablas de configuración del router. Mientras el administrador de red será responsable de la conexión LAN al router y de las conexiones del router al FRAD, la compañía de telefonía local será la responsable de la conexión del FRAD a la central de conmutación. Además, la compañía de telefonía local y el proveedor Frame Relay serán conjuntamente responsables de la conexión de la central de conmutación a la red Frame Relay. Obviamente, esta situación deja demasiadas posibilidades para echar la culpa a otros, así pues T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 9 1 29 91 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

es conveniente asegurarse de la experiencia de los proveedores y ser pacientes. Como se dijo, el proveedor de servicio asigna los números DLCI de la WAN de acuerdo al siguiente esquema: • Los DLCIs de 0 a 15 y de 1008 a 1023 están reservados para propósitos especiales. • Los DLCIs de 16 a 1007 son los de uso común. • Los DLCIs de 1019 a 1020 se usan para multicasts. • El DLCI 0 (LMI tipo ANSI/ITU-T) o el DLCI 1023 (LMI tipo Cisco) para uso del LMI. • El DLCI 0 también se usa en transmisiones de información de control de llamada (Q.933) para setear, monitorear y terminar SVCs. En la figura, supongamos que hay dos PVC, uno entre Atlanta y Los Ángeles y uno entre San José y Pittsburg. Los Ángeles utiliza DLCI 12 para referirse a su PVC con Atlanta, mientras que Atlanta hace referencia al mismo PVC como DLCI 82. De la misma forma, San José utiliza DLCI 12 para hacer referencia a su PVC con Pittsburg y Pittsburg utiliza DLCI 62. La red utiliza mecanismos internos para diferenciar con precisión a los dos identificadores de PVC de significación local. 3.2.1. Asignación Frame Relay (Mapeo) La dirección del router de salto siguiente determinada por la tabla de enrutamiento se debe resolver a un DLCI Frame Relay, como se ve en la figura. La resolución se realiza mediante una estructura de datos denominada asignación Frame Relay. La tabla de enrutamiento se utiliza entonces para suministrar la dirección de protocolo del salto siguiente o el DLCI para el tráfico saliente. Esta estructura de datos se puede configurar estáticamente en el router, o bien, la función ARP inverso se puede utilizar para configurar automáticamente la asignación. La tabla de conmutación Frame Relay consta de cuatro entradas: dos para el puerto y DLCI entrante, y dos para el puerto y DLCI saliente, como aparece en la figura. El DLCI se puede, por lo tanto, reasignar a medida que pasa a través de cada switch; el hecho de que se pueda cambiar la referencia de puerto explica por qué el DLCI no cambia aún cuando la referencia de puerto cambia. En resumen, para construir un mapa de direcciones DLCIs a direcciones de capa 3, el router debe saber primeramente que VCs están disponibles. Por lo gral, el proceso de aprendizaje acerca de los VCs disponibles y sus valores DLCIs, es manejado por el estándar de señalización denominado LMI (Local Managemente Interface) (ver más adelante). Una vez conocidos los DLCIs para los VCs disponibles, el router debe aprender que direcciones de capa 3 mapear a que direcciones DLCIs. El mapeo de direcciones puede ser configurado manual o dinámicamente. Por ejemplo, un router A (RTA) puede usar uno de tres PVCs configurados para alcanzar el router B (RTB). Para que el router RTA sepa que PVC usar, las direcciones de capa 3 (IP) deben ser mapeadas a numeros DLCIs. Asi el RTA mapea la dirección IP de RTB, la 1.1.1.3, al DLCI 17. Una vez que RTA sabe el DLCI a usar, encapsula el paquete IP en una trama Frame Relay, la cual contiene el numero DLCI apropiado para alcanzar el destino. 3.2.2. Circuitos virtuales permanentes Un PVC es un camino o ancho de banda dedicado a través de la red Frame Relay que conecta dos puntos y que garantiza un nivel de servicio. Una novedad importante de Frame Relay estriba en que se define un ancho de banda “asegurado” para cada circuito virtual mediante un parámetro conocido como CIR o Velocidad de Información Comprometida o Suscrita (Committed Information Rate), a una estación determinada. La CIR es la velocidad garantizada, en bits por segundo, que el proveedor del servicio se compromete a proporcionar. El administrador de red solicita los PVCs al proveedor del servicio Frame Relay, el cual los configura de acuerdo a las especificaciones del administrador de red. Los circuitos virtuales permanentes permanecen activos y disponibles para la red subscriptora en todo momento. T G T FFIIIN A G R D O N A D Ó N O N Á D O N 2 TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL 2 9 2 29 92 2


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

Un segundo parámetro, conocido como EIR o Tasa de Información Excedida (Excess Information Rate) define el margen de tolerancia que se dará al usuario, es decir, cuanto se le va a dejar “pasarse” del CIR contratado. Por ejemplo, supongamos que un ordenador se conecta a una red Frame Relay mediante una línea de acceso al conmutador de 1.984 Kbps, y tiene dos circuitos establecidos con otros dos ordenadores, cada uno de ellos con un CIR de 256 Kbps y un EIR de 256 Kbps; en este caso cada circuito tendrá asegurado un ancho de banda de 256 Kbps como mínimo, y si la red no está saturada podrá llegar a 512 Kbps; si un circuito intenta utilizar mas de 512 Kbps el conmutador Frame Relay empezará a descartar tramas. Obsérvese que en este caso la línea de acceso nunca llegaría a saturarse, ya que como mucho podrían enviarse 512 Kbps por cada circuito. La especificación del CIR para un circuito virtual se hace de forma independiente para cada sentido de la transmisión, y puede hacerse asimétrica, es decir dar un valor distinto del CIR para cada sentido. Cuando un usuario hace uso del EIR (es decir, genera un tráfico superior al CIR contratado en un circuito virtual) el switch Frame Relay pone a 1, en las tramas excedentes, un bit especial denominado DE (Discard Elegibility) el cual se verá mas adelante. 3.2.3. Circuitos virtuales conmutados Los circuitos virtuales conmutados se incluyeron en el estándar Frame Relay en 1983. Un circuito virtual conmutado es un circuito virtual establecido ad hoc según la necesidad de la estación transmisora, incrementando la flexibilidad del ancho de banda del circuito. Sin embargo, aunque los SVC formen ahora parte del estándar Frame Relay, actualmente ningún suministrador los ofrece, y algunos no planean hacerlo. 3.2.4. Subinterfaces Frame Relay Las subinterfaces son subdivisiones lógicas de una interfase física. En la configuración de una subinterfase, cada PVC puede configurarse como una conexión punto a punto, permitiendo asi que cada subinterfase actúe de forma similar a una línea leased. Otras razones de uso de subinterfaces son: permitir que los protocolos de enrutamiento trabajen apropiadamente en un ambiente de “horizonte dividido” y, permitir la retransmisión de las actualizaciones de ruteo a través de broadcasts en la red Frame Relay (ambos temas no tratados aquí). Las subinterfaces se crean usando comandos del IOS y se les asigna un numero de subinterfase, en un rango muy amplio (desde 1 en adelante; el numero 0 designa una interfase física y no una subinterfase) que permite tener mucha flexibilidad. Una práctica común consiste en asignar como numero de subinterfase el mismo numero que se le asigna al valor DLCI. Cada subinterfase debe tener definida la encapsulación para Frame Relay y también su propia dirección de capa 3 (IP) (si la interfase física tiene una dirección, las subinterfaces no recibirán tramas). Hay dos tipos de subinterfaces Frame Relay: 1. Punto a punto: subinterfase simple utilizada para establecer una conexión PVC a otra subinterfase lógica u otra interfase física, en los routers remotos. En este caso, cada para de interfaces debe tener su propia subred, y cada interfase debe tener un solo DLCI. En este ambiente, los broadcasts no son un problema porque los routers son punto a punto y actúan como una línea leased. 2. Multipunto: subinterfase simple usada para establecer múltiples conexiones de PVCs a múltiples subinterfaces lógicas o múltiples interfaces físicas, en los routers remotos. En este caso, todas las interfaces participantes deben pertenecer a la misma subred, y cada interfase deberá tener su propio DLCI local. En este ambiente los broadcasts deben ser controlados.

44.. A M N T R A C Ó N ADDDM LM MII MIIIN NIIISSST TR RA AC CIIIÓ ÓN NL Realmente el protocolo Frame Relay no incorpora una gestión integrada. Por tanto, la reducida información de gestión que los dispositivos de red requieren para controlar las conexiones entre estaciones finales y el conjunto de la red se suministra fuera de banda, es decir, esta información viaja en un canal virtual separado. Al sistema de gestión que proporciona esta información se le conoce como la Interfase de Gestión o Administración T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 9 3 29 93 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

Local (Local Management Interface, LMI). El LMI es un estándar de señalización, entre el DTE del abonado y el switch Frame Relay, a cargo de la administración de la conexión y el mantenimiento del estado entre los dispositivos. Con el fin de entregar a los usuarios los primeros servicios LMI, tan pronto como fuera posible, los vendedores y cuerpos de estándares trabajaron separadamente para desarrollar e implementar un LMI en las primeras redes Frame Relay. El resultado fue la aparición de tres tipos distintos de LMIs, ninguna de las cuales era compatible con los otras. En 1990, el grupo integrado por Cisco Systems, StrataCom, Northern Telecom y Digital Equipment Corporation desarrolló la especificación LMI conforme al protocolo Frame Relay básico, (LMI tipo cisco) pero extendiéndolo con funciones que proporcionaban capacidades adicionales para entornos de internetworking complejos. Desde que la especificación del consorcio fue desarrollada y publicada, muchos fabricantes anunciaron el soporte para esta definición. ANSI (LMI tipo ansi, estándar T1.617) e ITU-T (LMI tipo q933a, estándar Q.933 anexo A) posteriormente estandarizaron sus propias versiones de las LMI “original”, las cuales son ahora usadas con más frecuencia que la original. La LMI es muy parecida a un sistema de gestión mínimo (reporta el estado de cada PVC configurado), suministrando cuatro funciones básicas: • Determinar el estado operacional de distintos PVC que el router conoce. • Transmitir paquetes de mensaje de actividad para garantizar que el PVC permanezca activo y no se inhabilite por inactividad. • Comunicarle al router que los PVC están disponibles. • Establecer una conexión entre el usuario final y la interfase de red.

4.1. Extensiones LMI Además de las funciones básicas del protocolo Frame Relay para realizar la transferencia de datos, la especificación Frame Relay incluye extensiones LMI que permiten soportar más fácilmente internetworks grandes y complejas. Algunas extensiones LMI se denominan comunes y se espera que todos los que adopten la especificación puedan implementarla. Otras funciones LMI se consideran opcionales. A continuación, presentamos un resumen de las extensiones LMI: • Mensajes de estado de circuito virtual (común): proporcionan comunicación y sincronización entre la red y el dispositivo de usuario, informando periódicamente acerca de la existencia de nuevos PVC y la eliminación de PVC existentes, y brindando información general acerca de la integridad del PVC. Los mensajes de estado de circuito virtual, también llamados mensajes de actividad evitan el envío de datos a través de PVCs que ya no existen. • Multicast o Multidifusión (opcional): permite al emisor transmitir una sola trama pero que sea entregada por la red a múltiples receptores. Así, el multicast soporta la distribución eficiente de mensajes de protocolo de enrutamiento y protocolos de resolución de direcciones que normalmente se deben enviar a varios destinos simultáneamente. • Direccionamiento global (opcional): otorga a los identificadores de conexión (DLCI) significación global más que local, permitiendo que se puedan usar para identificar una interfase específica en relación con toda la red Frame Relay (se dice significado local porque los DLCI se utilizan solamente para el switch local y son entendidos “localmente” por el). El direccionamiento global hace que la red Frame Relay se parezca a una red de área local (LAN) en términos de direccionamiento. Los protocolos de resolución de direcciones (ARPs), por lo tanto, ejecutan su función en Frame Relay exactamente de la misma manera que en una LAN. • Control de flujo simple (opcional): proporciona un mecanismo de control de flujo XON/XOFF (de conexión / desconexión) que se aplica a toda la interfase Frame Relay. Está destinado a dispositivos cuyas capas superiores no pueden utilizar los bits de notificación de congestión y que necesitan algún nivel de control de flujo. • Un mecanismo de estado, que indica el estado en curso de los DLCI que el switch conoce. 4.1.1. Extensión LMI de Direccionamiento Global Además de las características de LMI comunes, algunas extensiones LMI opcionales son sumamente útiles en un entorno de internetworking. La primera extensión LMI opcional importante es el direccionamiento global. Con esta extensión, los valores insertados en el campo DLCI de una trama se convierten en direcciones de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 9 4 29 94 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

significación global para los dispositivos de usuario final individuales (por ejemplo, routers). Además toda la red Frame Relay aparece como una LAN típica para los routers en su periferia. Como se observó anteriormente, la especificación Frame Relay básica (no extendida) soporta sólo los valores del campo DLCI que identifican los PVC con significación local. En este caso, no existen direcciones que identifiquen las interfaces de red ni nodos conectados a estas interfaces. Como estas direcciones no existen, no pueden ser detectadas mediante técnicas de resolución y descubrimiento de direcciones tradicionales (ARP, ARP inverso, etc). Esto significa que con un direccionamiento Frame Relay normal, se deben crear mapas estáticos para comunicar a los routers qué DLCI deben utilizar para detectar un dispositivo remoto y su dirección de internetwork asociada. En la figura, observe que cada interfase tiene su propio identificador. Supongamos que Pittsburg debe enviar una trama a San José, el identificador para San José es 22, de manera que Pittsburg coloca el valor 22 en el campo DLCI y envía la trama a través de la red Frame Relay. Cada interfaz de router posee un valor definido como identificador de nodo, de manera que los dispositivos individuales se puedan distinguir. Esto permite el enrutamiento en entornos complejos. El direccionamiento global ofrece importantes ventajas en una red grande y compleja. La red Frame Relay aparece ahora en la periferia de cada router como cualquier LAN. 4.1.2. Extensión LMI de Multicast y ARP inverso El multicast es otra función LMI opcional importante. Los grupos de multicast son designados por una serie de cuatro valores DLCI reservados (de 1019 a 1022). Las tramas enviadas por un dispositivo que utiliza uno de estos DLCI reservados son replicadas por la red y se envían a todos los puntos de salida en el conjunto designado. La extensión de multicast también define los mensajes LMI que notifican a los dispositivos del usuario acerca del agregado, eliminación y presencia de los grupos de multicast. Para las redes que aprovechan el enrutamiento dinámico, la información de enrutamiento se debe intercambiar entre muchos routers. Los mensajes de enrutamiento se pueden enviar con eficiencia utilizando tramas con un DLCI de multicast. Esto permite que los mensajes se envíen a grupos determinados de routers. Se pueden mapear, en forma manual, en el router, las DLCIs a direcciones de capa 3 usando comandos IOS; sin embargo estos “mapas estáticos” requerirán de una gran tarea administrativa en redes complejas y los mapas podrían no adaptarse a los cambios de topología de la red. A través del intercambio de LMIs, un switch Frame Relay puede anunciar un circuito virtual nuevo y su DLCI correspondiente. Desafortunadamente, el direccionamiento de capa 3 no está incluido en el anuncio. La estación que reciba una indicación aprendería de la nueva conexión, pero no podría direccionar al otro lado. Sin una nueva configuración o sin un mecanismo que descubra la dirección de protocolo del otro lado, el nuevo circuito virtual es inutilizable. El mecanismo ARP inverso le permite al router generar asignaciones Frame Relay (mapeo de un DLCI a dirección de capa 3) automáticamente, como aparece en la figura. El ARP inverso trabaja de la misma forma que el ARP (Protocolo de Resolución de Direcciones) trabaja en una LAN. Una vez que el router aprende del switch acerca de los PVCs y sus DLCIs correspondientes, este puede enviar un requerimiento al otro extremo del PVC. Por cada protocolo soportado y configurado sobre la interfase, el router envía un ARP inverso para cada DLCI. El pedido ARP inverso pregunta a la estación remota por su dirección de capa 3, mientras provee al mismo tiempo al sistema remoto con la dirección de capa 3 del sistema local. La información de retorno desde el ARP inverso se utiliza entonces para generar la tabla de mapeo Frame Relay (DLCI a direcciones de capa 3). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 9 5 29 95 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

Al usar mapeo dinámico de direcciones o mapeo automático, el ARP inverso requiere de una dirección de protocolo de próximo salto por cada PVC activo. En gral, el mapeo dinámico, es una opción por defecto para todos los protocolos habilitados sobre una interfase física. 4.1.3. Los campos del formato de trama LMI La especificación Frame Relay también incluye procedimientos para tramas LMI. Los mensajes LMI se envían en tramas que se distinguen por un DLCI específico del LMI (definidas en la especificación de consorcio como DLCI=1023). En la figura aparece el formato de trama Frame Relay. Después del indicador y de los campos DLCI de LMI, la trama LMI contiene 4 bytes obligatorios. El primero de los bytes obligatorios, el indicador de información sin número, posee el mismo formato que el indicador de trama de información sin número (UI) de LAPB, con el bit de sondeo/final en cero. El siguiente byte se conoce como discriminador de protocolo, que se establece en un valor que indica LMI. El tercer byte obligatorio, el de referencia de llamada, siempre se rellena con ceros. El ultimo byte obligatorio es el campo con el tipo de mensaje. Se han definido dos tipos de mensajes: mensajes de estado y mensajes de petición de estado. Los mensajes de estado responden a los mensajes de petición de estado. Ejemplos de estos mensajes son (1) mensajes de actividad (mensajes enviados a través de una conexión para asegurar que ambos lados sigan considerando la conexión como activa) y (2) un mensaje de estado de un informe individual sobre cada DLCI definido para el enlace. Se espera que estas funciones LMI comunes puedan formar parte de todas las implementaciones de conformidad con la especificación Frame Relay. Juntos, los mensajes de estado y de petición de estado, ayudan a verificar la integridad de los enlaces lógicos y físicos. Esta información resulta fundamental en un medio de enrutamiento, ya que los protocolos de enrutamiento toman decisiones según la integridad del enlace. A continuación, se presenta un campo de elementos de información (IE) de un número variable de bytes. El o los IE se componen de un identificador IE de 1 byte, un campo de longitud IE y 1 o más bytes que contienen los datos en sí.

55.. PPRRRO O V E E D O R M E FRRRAAAM REEELLLAAAYYY OV VE EE ED DO OR RF ME ER Si se está seleccionando un proveedor para la creación de una WAN Frame Relay desde el principio o para proporcionar un dispositivo específico para la WAN Frame Relay existente, a continuación se presentan varias cuestiones a las que se debe responder satisfactoriamente. Aunque cada red Frame Relay es diferente, y cada expansión y actualización en cada red es única, existen cuestiones básicas relevantes para todos los proyectos Frame Relay. Para ayudar en el inicio del proceso de selección del proveedor, se proporciona una lista ejemplo de cinco cuestiones para cada uno de los posibles proveedores. Estas cuestiones se han dividido en aspectos de experiencia, interoperabilidad, rendimiento y administración. Para aquellos que por primera vez estén construyendo una red Frame Relay, se asume que están seguros de que Frame Relay es la elección correcta de protocolo, dado el tráfico, tipo de datos, velocidad, fiabilidad de la transmisión y características de interconexión de redes del proveedor. 5.1.1. La cuestión de la experiencia ¿El proveedor ha realizado esto antes? ¿Los técnicos que lo hicieron continúan en la empresa? Puede parecer una tontería, pero de todas las preguntas podría ser la más importante. No es cuestión de subvencionar el aprendizaje del equipo técnico del proveedor Deben obtenerse referencias y verificarlas detenidamente. Deben solicitarse los nombres de los técnicos que realizaron el trabajo y asegurarse que estos técnicos siguen trabajando para el proveedor. No está de más solicitar una entrevista con ellos. Considérese la posibilidad de incluir los nombres de los técnicos expertos en el contrato. 5.1.2. La cuestión de la interoperabilidad ¿El proveedor es miembro del Frame Relay Forum? Si no lo es, ¿su equipamiento satisface los estándares Frame Relay? Esta pregunta es particularmente relevante para los vendedores de equipos. Es conveniente solicitarles ejemplos junto con las referencias de equipos de otros vendedores con los cuales se han conectado satisfactoriamente. Hay que asegurarse de verificar detalladamente las referencias. Lo último que hay que hacer es limitarse a un único proveedor, porque su implementación Frame Relay se adhiere “casi” a los estándares definidos por el Frame Relay Forum.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 9 6 29 96 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

5.1.3. La cuestión del rendimiento ¿Cuál es actualmente la velocidad máxima de la línea soportada, y de aquí a 12 meses?. Obviamente, el mínimo debe ser 2,048 Mbps. Y por ahora puede ser el máximo. El vendedor debería tener (o al menos hacer planes) para permitir velocidades de hasta 45 Mbps. Y no debería ser doloroso comprobar el costo de la actualización a estas velocidades superiores. ¿Cuáles son las velocidades de conmutación, expresadas en tramas por segundo, entre: a) puertos troncales, b) puertos de acceso, y c) puertos de acceso y puertos troncales? Es necesario informarse de las velocidades para tamaños de tramas que varíen entre 128 bytes y 2.048 bytes. Esta información permite comprobar que el equipamiento puede conmutar tramas tan rápidamente como puede recibirlas. Por ejemplo, un router conectado a una línea de 2,048 Mbps recibirá alrededor de 2.000 tramas de 128 bytes por segundo. Así, si se dispone de un dispositivo que puede ser configurado para admitir más de una línea de 2,048 Mbps, aunque pueda conmutar a un máximo de 2.000 tramas por segundo, realmente el router constituye el cuello de botella. Nota: es lógico esperar que el máximo rendimiento se de en los puertos entre troncales, por tanto, debe hacerse énfasis en conocer, también, la velocidad de conmutación entre un puerto de acceso y un puerto troncal.

66.. C O N A L E CAAARRRAAACCCTTTEEERRRÍÍÍSSSTTTIIICCCAAASSS AAADDDIIICCCIIIO ON NA AL LE ESSS 6.1. Modelado de tráfico Frame Relay Diversos factores determinan la tasa o velocidad a la cual un usuario puede enviar datos sobre una red Frame Relay. La principal limitación de la tasa de transmisión máxima es la capacidad del loop local al proveedor. Si el loop local es un T1, no se podrá enviar mas allá de los 1,544 Mbps. El proveedor posee, por lo gral, una señal de clocking que determina la velocidad del loop local. En terminología Frame Relay, la velocidad del loop local se denomina tasa o velocidad de acceso local. Los proveedores usan el parámetro CIR para proporcionar y regular el uso de los recursos de red. Por ejemplo, una compañía que tiene una conexión T1 a una red PSN, puede acordar un CIR de 768 Kbps, lo cual indica que el proveedor garantiza un ancho de banda de 768 Kbps, en el enlace del usuario, en el intervalo de transmisión. Por lo gral. a mayor CIR mayor costo del servicio. Los usuarios optan por un CIR que se adecue a sus necesidades de ancho de banda, y que sea menor o igual a la tasa de acceso local. Si el CIR del usuario es menor que la tasa de acceso local, tanto el proveedor como el usuario acuerdan si permitirán excederse del mismo, aunque muchas veces el proveedor no garantiza que entregará los frames (tanto el router como el switch Frame Relay etiquetan las tramas excedentes de CIR con el bit DE). Así si la tasa de acceso local es un T1 (1,544 Mbps), y el CIR es de 768 Kbps, entonces la mitad de ancho de banda potencial (según lo determina la velocidad del loop local) permanece disponible. Adicionalmente la especificación Frame Relay incluye mecanismos de control de congestión mediante los bits FECN y BECN en el header del frame. Tanto el switch del proveedor como el router del usuario pueden fijar selectivamente el bit DE para que cuando ocurra una congestión esos frames se descarten. La facilidad de modelado de tráfico Frame Relay puede usarse en las siguientes situaciones: • Cuando se tiene una topología Frame Relay conformada por una conexión de alta velocidad al sitio central (línea T1 o mayor) y conexiones de baja velocidad en los sitios sucursales (56 Kbps o menos). Debido a las velocidades disparejas existe un cuello de botella en el VC cuando el sitio central intenta comunicarse con las sucursales, arrojando tiempos de respuestas bajos para tráficos como SNA o Telnet interactivo, debido a los paquetes largos atascados en la línea de baja velocidad. En el cuello de botella los paquetes son descartados, lo que hace que las sesiones SNA se pierdan y que el sitio central retransmita paquetes de falta de reconocimiento, lo que a su vez hace que los problemas de congestión aumenten. Puede usarse la capacidad de “forzar una velocidad”, del modelado de tráfico, para limitar la tasa a la cual se envían los datos al sitio central a través del VC. La capacidad de “forzar una tasa” puede usarse en conjunción con la capacidad de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 9 7 29 97 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII •

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

“priorizacion DLCI” para proveer una mayor performance a esta situación. Cuando se tiene una red Frame Relay que está construida con muchos VCs, sobre una sola línea física, destinados a diferentes lugares. En este caso los VCs envían el tráfico tan rápido como la línea física lo permite; sin embargo el criterio de “forzar la velocidad o tasa” le permite controlar la velocidad de transmisión, usada por el router, según otro criterio como el CIR o el EIR. Al forzar la tasa se puede prealocar el ancho de banda que cada VC recibe sobre la línea física de la red Frame Relay, con lo que se crea, en forma efectiva, una red TDM virtual. Cuando se tiene aviso de que las conexiones Frame Realy están congestionadas. En este caso se puede querer que el router “mantenga tráfico” en lugar de enviarlo a la red. Esto puede ayudar a prevenir la perdida de paquetes. Esta facilidad del modelado de tráfico “mantiene”, en forma dinámica, los paquetes en los buffers del router, para reducir el flujo de datos desde el router a la red, y se basa en la recepción de etiquetas BECN. La retención se hace por VC y la tasa de transmisión se incrementa dinámicamente a medida que se reciben menos BECNs. Cuando se tiene diferentes tipos de tráfico (IP, SNA e IPX) a transmitir sobre el mismo VC Frame Relay, y se desea asegurar que los diferentes tipos de tráfico reciben un cierto monto de ancho de banda. En este caso se utiliza una combinación de facilidades del modelado de tráfico, como la de forzar la tasa de transmisión, encolamiento por VC y encolamiento de usuario (no tratados aquí), para poder configurar los VCs y que realicen esta tarea.

6.2. Mecanismos de control de congestión Como se explicó, el protocolo Frame Relay no tiene mecanismos de control de flujo explicito por circuito virtual. Por tanto, las redes Frame Relay no disponen de procedimientos para ralentizar o detener la transmisión de datos cuando se congestiona la red. Al estar implementado sobre medios de red confiables, no se sacrifica la integridad de los datos porque el control de flujo se deja a los protocolos de capas superiores. Frame Relay implementa 2 métodos simples para notificar a las estaciones cuando la red se encuentra sobrecargada: 1. Notificación de congestión explícita hacia delante (FECN, Forward Explicit Congestion Notification): Bit establecido en una trama que notifica a un DTE que el dispositivo receptor debe iniciar procedimientos para evitar la congestión. Cuando un switch Frame Relay (DCE) detecta la existencia de congestión en la red, envía un paquete FECN al dispositivo destino (DTE), indicando que se ha producido una congestión en el trayecto hacia el. El DTE puede enviar esta información a un protocolo de capa superior para su procesamiento. Dependiendo de la implementación, puede iniciarse el control de flujo, o ignorarse la indicación. 2. Notificación de congestión explícita hacia atrás (BECN, Backward Explicit Congestion Notification): Bit establecido en una trama que notifica a un DTE que el dispositivo receptor debe iniciar procedimientos para evitar la congestión. Como aparece en la figura cuando un switch Frame Relay detecta congestión en la red, envía un paquete BECN al router origen, instruyendo al router para que reduzca la velocidad a la cual está enviando los paquetes. Las tramas BECN viajan en sentido contrario a las tramas que encontraron la congestión. Si el router recibe cualquier BECN durante el intervalo de tiempo actual, reduce la velocidad de transmisión un 25%. Al igual que el caso anterior, los protocolos de capa superior inician el control de flujo o ignoran la petición. Ahora bien, si la aplicación de la estación no está diseñada para responder a la notificación mediante la suspensión de la transmisión, la estación continuará enviando datos a una red ya atascada. Por tanto, cuando la red se congestiona comienza a descartar tramas. La red puede seleccionar las tramas a descartar según una de las dos siguientes maneras: Selección arbitraria. Apropiada para descartar (Discard Eligibitity, DE). En la selección arbitraria, la red Frame Relay simplemente comienza a descartar paquetes cuando se congestiona. Ciertamente es un método efectivo, pero no distingue entre los paquetes que fueron enviados bajo los auspicios del CIR, y los paquetes que fueron enviados como parte de una ráfaga que superaba el CIR. Y lo que es peor, no distingue entre transmisiones con datos vitales y transmisiones que contienen información no significativa. Este es el motivo por el cual muchos usuarios de Frame Relay eligen expresamente las tramas DE como método de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 9 8 29 98 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

eliminación. El Indicador de posible para descarte (DE) es un bit establecido (en 1 u on) que indica que la trama se puede descartar para darle prioridad a otras tramas si se produce congestión. Cuando el router detecta congestión de red, el switch Frame Relay descarta en primer lugar los paquetes con el bit DE. El bit DE se establece en el tráfico sobresuscrito (es decir, el tráfico recibido después de alcanzar la CIR). Este mecanismo permite a un usuario aprovechar la capacidad sobrante en la red en horas no pico sin perjudicar la calidad de servicio a otros usuarios en horas pico, ya que entonces se verá limitado a su CIR. En realidad el CIR tampoco está garantizado, ya que si la congestión no se resuelve descartando las tramas DE el conmutador empezará a descartar tramas normales (no marcadas como DE) que pertenecen a usuarios que no han superado su CIR. Afortunadamente las redes Frame Relay se suelen dimensionar de forma que el CIR de cada usuario esté prácticamente garantizado en cada momento. En cierto modo podemos imaginar el bit DE como un sistema de “reserva de asiento” en un billete de tren (el bit a 0 significaría en este caso tener hecha reserva). Son los administradores los que designan la idoneidad de las tramas para ser descartadas en una transmisión, configurando sus routers y switches para designar el tráfico apropiado a descartar. Por ejemplo, un cliente puede configurar su router para marcar todo el tráfico administrativo como apropiado para descartar y, sin embargo, no marcar transmisiones relacionadas con el proceso industrial. En esta situación, cuando la red se congestione, se descartarán las tramas procedentes del tráfico administrativo para ser retransmitidas posteriormente por la aplicación cuando la red no se encuentre tan ocupada, mientras que todo el tráfico industrial continúa. La utilización del DE permite determinar qué información es la más importante y asegurar que en la transmisión recibe una prioridad superior respecto a los datos menos importantes. Como se dijo Frame Relay no realiza control de flujo, sin embargo usa un mecanismo común de chequeo de errores conocido como CRC (Chequeo de Redundancia Cíclica), que compara dos valores calculados para determinar si ocurrieron errores durante la transmisión. Frame Relay reduce la sobrecarga de la red implementando una verificación de errores en lugar de una corrección de errores.

6.3. Administración y tolerancia a fallos Una de las ventajas de Frame Relay es que, en el caso de utilizar los servicios de un proveedor público de Frame Relay, las responsabilidades sobre la gestión física son muy limitadas. Las mejoras y modificaciones al servicio no requieren más que una llamada al proveedor. La tolerancia a fallos es también responsabilidad del proveedor, y Frame Relay ofrece reencaminamiento automático de los PVC cuando una conexión falla. Por otro lado, como ya se ha comentado, Frame Relay, como protocolo, no es conocido por su facilidad de administración. Frame Relay ofrece muy pocas facilidades de gestión y éstas se implementan a través de señalización fuera de banda (ver LMI). Frame Relay ofrece, también, en cuanto a la seguridad, la ventaja de tener sólo líneas privadas de acceso al conjunto de la red Frame Relay. Es posible, además, que el proveedor ofrezca, opcionalmente, otros servicios de seguridad, como la protección mediante contraseñas y la posibilidad de desconectar las estaciones de la red después de un período predefinido de inactividad. Además, ¿Cómo gestiona el router la congestión? ¿Cómo realiza la recuperación?. La congestión y el desbordamiento constituyen el problema de gestión número uno en Frame Relay, por tanto esta es una cuestión clave. Hay que informarse de si el equipamiento cumple con los estándares de gestión de congestión CCITT y/o ANSI, y si es así, cómo lo cumple. Debe averiguarse si la implementación del vendedor utiliza el bit de selección de descarte (DE) para permitir al equipamiento o al usuario definir la prioridad de descarte de las tramas. ¿Qué facilidades de gestión ofrecen?. Frame Relay no es famosa por su inherente facilidad de administración. Por tanto; esto se paga gastando parte de un precioso tiempo, aprendiendo las facilidades de gestión suministradas por los sistemas o equipamientos ofrecidos. La notificación de la congestión es la característica principal que debe exigirse puesto que, como se ha indicado anteriormente, la gestión de la congestión será la mayor preocupación en Frame Relay (ver BECN y FECN). Otro tema crítico en la administración es el encaminamiento. El sistema debe proporcionar tanto encaminamiento manual como automático porque, aunque se prefiera el encaminamiento manual para el tráfico prioritario, seria de tontos intentar definir rutas manualmente para cada trama de cada prioridad. Y, como en la mayoría de los sistemas, el sistema Frame Relay debería estar dotado de herramientas para resolución de problemas y diagnósticos. Es de esperar que el sistema suministre estadísticas completas sobre niveles de tráfico, velocidades y tramas descartadas. Esta información, no sólo puede ser utilizada para propósitos de administración de red, sino también para información de contabilidad, en el caso de que la red tenga un sistema de cobro revertido. Por último, si la seguridad es un aspecto de interés, debe solicitarse al vendedor que describa en detalle las características de seguridad para comprobar si satisfacen las necesidades requeridas. La búsqueda de un buen proveedor Frame Relay puede llegar a ser frustrante y tediosa. Sin embargo el esfuerzo merece la pena. Aunque esta lista no es en modo alguno completa, estas cuestiones proporcionan un mapa a seguir durante la búsqueda del proveedor adecuado.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

2 2 9 9 29 99 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

6.4. Disponibilidad y precios Hoy en día, en las principales áreas metropolitanas, la mayoría de los proveedores de Frame Relay ofertan algún tipo de servicio Frame Relay. La tarifación se realiza por dos conceptos: el primero es una cuota fija mensual en función de la velocidad del puerto de acceso a la red; el segundo es una cuota fija al mes por cada circuito según el valor de CIR que se tenga contratado; en ambos casos la tarifa depende de la distancia. El EIR no se especifica en el contrato, y por tanto no se paga, pero tampoco se compromete su valor por parte de la compañía telefónica. La velocidad del acceso físico puede tener valores comprendidos entre 64 y 1.984 Kbps. El CIR puede ser de 0 a 1.984 Kbps. Es posible la conexión internacional con muchas otras redes Frame Relay gracias a acuerdos suscritos con diversos operadores. Como se ha mencionado, la relación precio / prestaciones de Frame Relay puede resultar muy atractiva, especialmente cuando se compara con varias conexiones punto a punto alquiladas. Por lo general, Frame Relay es muy rentable para compañías que tienen distintas oficinas en localizaciones geográficamente distantes. Sin embargo, hay que advertir que a estos servicios debe añadirse un costo de instalación por puerto muy elevado. Si estas tarifas resultan significativamente inferiores a los costes de establecer una línea dedicada punto a punto para conectar las mismas localizaciones, debería considerarse seriamente la utilización de Frame Relay. 6.4.1. Obtener aquello por lo que se pago Como Frame Relay no dispone de mecanismos de control de flujo los usuarios pueden, teóricamente, enviar tantos datos como quieran a la red. Esto significa que el protocolo no tiene medios de evitar que una única estación hambrienta de ancho de banda monopolice la totalidad del ancho de banda. Este es el motivo por el cual los proveedores de servicio Frame Relay han desarrollado el CIR. Cuando se solicita el servicio Frame Relay y sus correspondientes circuitos virtuales es necesario especificar al proveedor el CIR, o sea el ancho de banda mínimo disponible que el proveedor garantizará para los PVC las 24. horas al día, los 7 días de la semana. La Velocidad de Información Comprometida no está, en modo alguno, sujeta a la velocidad de la conexión física. Por tanto, es posible tener una conexión física de 1,544 Mbps pero sólo un CIR de 64 Kbps. El CIR debe determinarse mediante la estimación del tráfico habitual en la red o en función del presupuesto (cuanto mayor es el CIR, mayor es el coste del PVC Frame Relay). Aún más, si la red excede el CIR, no necesariamente se trata de una desgracia. Frame Relay puede, en teoría, admitir ráfagas que excedan del ancho de banda asignado. Por tanto, si la red Frame Relay recibe una transmisión que supera temporalmente el CIR, intentará abrir circuitos adicionales para completar la transmisión. En algunas ocasiones, cuando la red no se encuentra congestionada, es posible enviar ráfagas de datos de hasta dos veces el CIR. Sin embargo, por norma, no debe contarse con la posibilidad de exceder el CIR. La posibilidad de superar el CIR sólo se da cuando la red no está congestionada. Aún así, en previsión de que se planifique enviar algunas ráfagas de tráfico, los diseñadores de red Frame Relay deben construir redes con capacidad suficiente como para tratar el CIR, más una cantidad aceptable de exceso de tráfico puntual sobre el CIR. La mayoría de los proveedores de servicio Frame Relay, con el objetivo de proporcionar a los diseñadores de red Frame Relay de algunas directrices, adoptaron dos velocidades garantizadas adicionales. Estas son Velocidad de Ráfaga Comprometida (Committed Burst Rate, CBR) y Velocidad de Ráfaga en Exceso (Execess Burst Rate, EBR). El CBR o Ráfaga Suscrita es la tasa máxima de datos que el proveedor de red se compromete a transferir en condiciones normales de la red o dicho de otra forma es cantidad máxima de bits que el switch acepta transferir durante un intervalo de tiempo (se abrevia como Bc). El EBR o Ráfaga Excesiva es la tasa máxima de datos superior al CBR que se tratará de mantener; o dicho de otra forma es la cantidad máxima de bits no suscritos que el switch Frame Relay intenta transferir más allá de la CIR. Los datos EBR son marcados automáticamente como DE. La ráfaga excesiva depende de las ofertas de servicio que el distribuidor coloca a disposición, pero se limita generalmente a la velocidad de puerto del loop de acceso local. Nota: en puntos anteriores se menciono la EIR o Tasa de Información Excedida como un segundo parámetro a tener en cuenta después del CIR. Tanto la EIR como la CBR o Velocidad de Ráfaga en Exceso apuntan a la misma cuestión: la máxima cantidad de datos no validados (en bits) que la red intentará enviar durante un intervalo de tiempo. En ambos casos las tramas reciben un tratamiento de descarte selectivo por parte de la red.

6.5. Interoperabilidad Actualmente, Frame Relay ofrece una buena interoperabilidad y mantiene la promesa de una más rápida y fácil interoperabilidad cuando los suministradores públicos admitan los SVC. Los SVC podrán conectar RDSI a las redes Frame Relay y, finalmente, dar a los usuarios la posibilidad de realizar conexiones Frame Relay mediante acceso telefónico: Igualmente es posible considerar la idea de encaminar protocolos de red de área no local a través de Frame Relay. Al principio puede parecer un poco extraño, sin embargo, a menudo, Frame Relay es mucho más T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 0 0 30 00 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

económico que otros protocolos de transmisión WAN, por lo que merece la pena tenerlo en cuenta. Como se dijo anteriormente un FRAD (Dispositivo de Acceso Frame Relay) permite transportar tramas de una red de área local (LAN) a una WAN Frame Relay, pero también permite encaminar protocolos de red de área no local (SNA, X.25) a través de la WAN, por lo que también se lo denomina ensamblador/desensamblador Frame Relay (Frame Relay Assembler/Disassembler, FRAD). El FRAD recibe paquetes de datos de otros protocolos tales como SNA, asíncronos e incluso X.25 y los divide en trozos, encapsula estos trozos de paquete en un paquete Frame Relay y los envía a su destino a través de la WAN Frame Relay. En el otro extremo, a los paquetes recibidos se les retiran las cabeceras Frame Relay y son ensamblados como paquetes del protocolo original, de manera que puedan ser procesados por las estaciones receptoras. La figura ilustra este proceso. 6.5.1. Interconexión FUNI La mayoría de los fabricantes de switches Frame Relay anunciaron la admisión, o al menos la intención de admitir, la conectividad entre Frame Relay y ATM. El ATM Forum ha presentado una propuesta, conocida como Interface de Red Frame a Usuario (Frame-to-user Network Interface, FUNI), con el objeto de establecer los estándares para conectar circuitos entre 56 Kbps y 1,544 Mbps a redes ATM utilizando una estructura de trama muy parecida a la de Frame Relay. 6.5.2. Interconexión NNI Cada proveedor Frame Relay implementa el servicio de manera diferente y como resultado, no es posible la interoperabilidad entre ellos. Los proveedores, a menudo, no sólo utilizan diferentes switches sino que, además, implementan distintos métodos de control de congestión y de señalización. El Frame Relay Forum propuso resolver algunos de estos aspectos de interoperabilidad mediante el desarrollo de un conjunto de especificaciones de interconexión denominado Estándares de la Interface Red-Red (Network-to-Network Interface, NNI). En teoría, si todos los proveedores utilizaran equipamientos Frame Relay conformes a estos estándares, no existirían los problemas de interoperabilidad.

6.6. Rendimiento Generalmente, Frame Relay se encuentra disponible a velocidades de información comprometida que varían desde 56 Kbps hasta 1,544 Mbps. Admite, también, velocidades de ráfaga mucho más altas (hasta, 45 Mbps). Además, Frame Relay tiene una baja latencia de red, alrededor de 20 ms.

6.7. Escalabilidad La escalabilidad es lo mejor de Frame Relay. La facilidad para añadir más ancho de banda mediante el CIR conjuntamente con la posibilidad de enviar picos de tráfico superiores al CIR, hacen de Frame Relay uno de los protocolos WAN más flexibles. Al mismo tiempo, gracias al uso de la multiplexación estadística, el hecho de proporcionar esta flexibilidad no da lugar a un desperdicio del ancho de banda no utilizado.

6.8. Voz y Frame Relay En un principio, debido a la longitud variable de las tramas del protocolo, no se pensó que la voz (o el vídeo) pudiera transmitirse a través de Frame Relay. Sin embargo, actualmente, muchos vendedores, ofrecen multiplexores que integran voz y datos en el ancho de banda de Frame Relay con una rendimiento muy aceptable.

6.9. Frame Relay Forum El Frame Relay Forum es una asociación de usuarios, vendedores y suministradores de servicio Frame Relay ubicada en California. La organización está compuesta por comités encargados de crear especificaciones y acuerdos de implementación con el objetivo de desarrollar estándares Frame Relay. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 0 1 30 01 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

6.10. Resumen de la operación de Frame Relay Se pueden utilizar los siguientes pasos, que se ilustran en las dos figuras siguientes, para implementar Frame Relay: • Paso 1 Solicitar el servicio Frame Relay a un proveedor, o bien, desarrollar una nube Frame Relay privada. • Paso 2 Conectar cada router, ya sea directamente o a través de una CSU/DSU, al switch Frame Relay. • Paso 3 Una vez que el router CPE esté habilitado, enviar un mensaje de consulta de estado al switch Frame Relay. El mensaje notifica al switch sobre el estado del router y solicita al switch el estado de conexión de los demás routers remotos. • Paso 4 Una vez que el switch Frame Relay recibe la petición, responde con un mensaje de estado que incluye los DLCI de los routers remotos a los cuales el router local puede enviar los datos. • Paso 5 Por cada DLCI activo, cada router envía un paquete de petición de ARP inverso, presentándose y solicitando que cada router remoto se identifique respondiendo con su dirección de capa de red. • Paso 6 Por cada DLCI que el router conozca a través de un mensaje de ARP inverso, se crea una entrada de asignación en la tabla de asignación de Frame Relay del router. Esto incluye el DLCI local, la dirección de la capa de red del router remoto, así como el estado de la conexión. Observe que el DLCI es equivalente al DLCI configurado localmente del router, no al DLCI que está utilizando el router remoto. En la tabla de asignación de Frame Relay aparecen tres estados de conexión posibles: * Estado activo: indica que la conexión está activa y que los routers pueden intercambiar datos. * Estado inactivo: indica que la conexión local al switch Frame Relay está funcionando, pero la conexión del router remoto al switch Frame Relay no está funcionando. * Estado eliminado: indica que no se recibe ningún LMI del switch Frame Relay o que no se está produciendo ningún servicio entre el router CPE y el switch Frame Relay. • Paso 7 Cada 60 segundos, los routers intercambian mensajes de ARP inverso. • Paso 8 Por defecto, cada 10 segundos el router CPE envía un mensaje de actividad al switch Frame Relay. El propósito del mensaje de actividad es verificar que el switch Frame Relay todavía esté activo. 6.10.1. Ventajas Frame Relay 1)

Punto a punto y Frame Relay: dos de los tipos más comunes de enlaces de comunicación WAN que se utilizan en la actualidad son: • Circuitos permanentes punto a punto dedicados arrendados (PPP, HDLC) y • Circuitos conmutados por paquete (Frame Relay, ATM, SMDS, etc)

En el primer caso la organización que arrienda el circuito está pagando por el ancho de banda dedicado completo durante las 24 horas del día, los 7 días de la semana, ya sea que realmente se utilice el ancho de banda completo o no. Las redes conmutadas por paquete permiten a las estaciones finales compartir de forma dinámica el medio de red (la nube) y el ancho de banda disponible, y es posible pagar únicamente por el ancho de banda que se necesite, a través del CIR, y a veces, hasta exceder al CIR. Además, Frame Relay requiere menos hardware que los circuitos dedicados. Para los circuitos dedicados como 56 Kbps y T1, debido a su orientación punto a punto, se necesitan dos unidades de servicio de canal (Channel Service Units, CSUs) y dos routers para cada circuito (uno por cada conexión). En el lado opuesto, Frame Relay sólo T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 0 2 30 02 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIII

FFFRRRAAAM R M MEEE R REEELLLAAAYYY

necesita un router y una CSU en cada localización. Reconfigurar una red Frame Relay es más rápido y fácil que una red de circuitos dedicados. La inclusión de una nueva ubicación en una red de circuitos dedicados requiere que el usuario final compre equipos nuevos y solicite nuevas líneas, y además del tiempo necesario para su organización, que puede llevar desde unos pocos días hasta unas semanas. La inclusión de una nueva ubicación en una red Frame Relay es simplemente cuestión de añadir un puerto de acceso y configurar nuevos PVCs, tareas ambas que el proveedor puede realizar y que, a menudo, están finalizadas en un par de días. 2) Ancho de banda potencial compartido: Frame Relay utiliza paquetes de longitud variable para realizar transferencias más eficientes y flexibles entre los distintos segmentos de red (generalmente, a través de las oficinas centrales o CO de las compañías telefónicas) hasta alcanzar el destino. Por medio de técnicas de multiplexación estadística se controla el acceso a la red conmutada y se permite un uso más flexible y eficiente del ancho de banda, especialmente entre los switches que se encuentran dentro de la nube. Los servicios Frame Relay, por lo general, cuestan menos y ofrecen más ancho de banda. Un circuito dedicado proporciona una cantidad fija de ancho de banda y no más. 3) Circuitos virtuales: Frame Relay proporciona una comunicación de capa de enlace de datos orientada a conexión. Este servicio se implementa mediante un circuito virtual Frame Relay, que es una ruta de comunicación lógica bidireccional, creada entre dos dispositivos DTE a través de una red conmutada por paquetes Frame Relay (PSN) e identificados mediante un DLCI. . Un circuito virtual puede pasar a través de cualquier cantidad de dispositivos DCE intermedios (switches) ubicados dentro de la PSN o nube Frame Relay. Una cantidad de circuitos virtuales se pueden multiplexar en un circuito físico único reduciendo así la complejidad del equipo y de la red necesarios para realizar la conexión de múltiples dispositivos DTE. Frame Relay permite compartir las líneas T1 y T3 existentes de propiedad de los proveedores de servicio y lograr un uso potencialmente superior de dichas líneas 4) X.25 y Frame Relay: con respecto a su antecesor, una red Frame Relay podría utilizarse en vez de líneas dedicadas para interconectar conmutadores X.25; a la inversa sería mucho más difícil ya que al ser X.25 una red más lenta los retardos introducidos serían apreciados por los usuarios de Frame Relay. En ocasiones se utilizan redes Frame Relay para transmitir voz digitalizada; esto no es posible con X.25 debido a la lentitud del protocolo, que introduciría unos retardos excesivos; el envío de voz por una red tiene unos requerimientos especialmente severos en cuanto a retardos para que la transmisión se efectúe correctamente. 6.10.2. Recomendado para: • •

Conectar LAN a través de redes WANs. Bases de datos y otras aplicaciones que generan tráfico de datos en ráfagas.

6.10.3. Desventajas Frame Relay Cuando Frame Relay fue propuesto a los comités de normalización en 1988, fue definido y aprobado rápidamente. A continuación, muchos proveedores de servicios de comunicación local y de larga distancia lo implementaron, y ofrecieron soporte. A finales de 1991, Frame Relay se encontraba ampliamente disponible y los usuarios la implementaban de manera generalizada. En aquel momento, la Comisión Federal para las Comunicaciones (Federal Communications Commision, FCC) no consideró a Frame Relay como un servicio básico y, por tanto, no estuvo sujeto a tarifa, es decir, la FCC no exigió a los suministradores publicar y cumplir con un conjunto de tarifas para Frame Relay. En su lugar, el precio de los servicios Frame Relay se negociaba de manera privada y por separado entre el proveedor y cada cliente Frame Relay. El precio acordado se plasmaba en un contrato entre las dos partes. A través de este procedimiento, los clientes más sagaces podían, en ocasiones, negociar precios muy favorables. Sin embargo, en octubre de 1995, la FCC cambió de opinión. Ahora consideraba que la utilización de Frame Relay era tan extendida que constituía un servicio básico. Y como tal, la FCC exigió a los proveedores de Frame Relay que pusieran tarifas a sus servicios. Aunque este hecho puede parecer más equitativo, también elimina la posibilidad de obtener una rebaja, porque los precios de los servicios sujetos a tarifa son mucho menos flexibles que los de los servicios no sujetos a tarifas. 6.10.4. No recomendado para: • •

Tráfico de vídeo y voz, debido a la longitud variable de las tramas Frame Relay. Aplicaciones sensibles al retardo.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 0 3 30 03 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIII

S S M D S SM MD DS S

SSM MD DSS 11.. C G E N E R A L E CAAARRRAAACCCTTTEEERRRÍÍÍSSSTTTIIICCCAAASSS G GE EN NE ER RA AL LE ESSS El Servicio de Conmutación de Datos Multimegabit (Switched Mutimegabit Data Service, SMDS) no es realmente un protocolo, sino más bien un “servicio de área metropolitana (MAN)”. En esencia, se trata de un método de transmisión de celdas ATM (Modo de Transferencia Asíncrono) a través de un bus compartido. Utilizado por primera vez en 1992, obtuvo su respaldo cuando las Regional Bell Operating Companies (RBOC) y otros proveedores de servicios de comunicación local (LEC) comenzaron a sentir la presión de la competencia procedente de las compañías de comunicación de larga distancia (IXC) en los mercados locales y consideraron que la mejor defensa contra la competencia la constituía un sistema de transmisión de datos a alta velocidad. SMDS, gracias a su relativo bajo costo y a su servicio de conmutación de datos a alta velocidad parecía la solución perfecta y muchas de las LECs de las grandes áreas metropolitanas comenzaron a ofrecer el servicio. Hoy en día, sólo los proveedores de comunicación local ofrecen SMDS. SMDS proporciona, bajo demanda, tasas de transmisión en el rango de T1 a T3, de manera que los usuarios sólo pagan por el ancho de banda utilizado. Obviamente, esta elección puede resultar más eficiente y rentable que alquilar líneas punto a punto dedicadas, si estas líneas no se usan en su totalidad.

1.1. Qué es SMDS El Servicio de Conmutación de Datos Multimegabit es la combinación de las características de una LAN de acceso compartido al medio y ATM. Se basa en el protocolo IEEE 802.6 que define la transmisión de celdas ATM en un bus compartido. Sin embargo, las celdas SDMS no son idénticas a las celdas ATM: las primeras utilizan un campo de control de acceso de 8 bits mientras que ATM emplea un campo genérico de control de flujo de 4 bits. Esto es debido a que SMDS es un servicio de acceso compartido al medio y no orientado a conexión y, por tanto, requiere un direccionamiento más detallado que el servicio ATM, conmutado y orientado a conexión (que se tratará en detalle más adelante). SMDS fue desarrollado por Bellcore y se fundamenta en el estándar de red de área metropolitana MAN IEEE 802.6. Es una red de conmutación de paquetes, basada en celdas y no orientada a conexión, enfocada a la transmisión de datos (y solamente datos). Las celdas o células SMDS son conmutadas desde la fuente hasta el destino a través de una o más centrales de conmutación SMDS. Estas centrales de conmutación se conectan mediante troncales de alta velocidad, como los sistemas de transmisión DS1 o SONET, tal y como se muestra en la figura. Nota: aunque SMDS soporta medios compartidos, la adaptación de Bellcore se concentró en la implementación punto a punto. Este hecho es comprensible cuando se considera que casi todos los sistemas de transmisión gestionados por las LEC en aquel momento eran exclusivamente de naturaleza punto a punto y no medios compartidos o anillos. 1.1.1. Basado en celdas Basado en celdas significa que la unidad básica de transferencia de datos es una celda o célula de longitud fija en vez de un paquete de longitud variable. La conmutación de paquetes, que utiliza el ancho de banda sólo cuando existe tráfico de datos, fue desarrollada para tratar tráfico de datos en ráfagas. Sin embargo, los sistemas de conmutación de paquetes no se comportan adecuadamente en el caso de tráfico bidireccional en tiempo real, como video interactivo. La conmutación de celdas supera esta limitación porque emplea celdas o células, que son paquetes de longitud fija en vez de paquetes de longitud variable. Cada celda SDMS está formada por una carga útil de datos de 48 bytes y una cabecera de 5 bytes. Debido a que estos paquetes son idénticos a los paquetes ATM (de hecho, son paquetes ATM), SDMS es considerado por mucho como un paso previo hacia la conectividad ATM. 1.1.2. Conmutado SMDS no emplea ancho de banda compartido. En su lugar, cada puerto de una central de conmutación SDMS se dedica a un único usuario. Una central de conmutación SDMS establece una comunicación virtual entre T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 0 7 30 07 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIII

S S M D S SM MD DS S

un nodo transmisor y un nodo receptor. Esta conexión se realiza en función de la dirección destino de cada celda y dura sólo el tiempo que tarda en transferirse una celda. Estas transferencias de datos pueden tener lugar en paralelo y utilizando la velocidad total de la red. Puesto que la celda se transmite únicamente al puerto asociado con esa dirección de destino específica, ningún otro puerto recibe la celda, lo que proporciona, a la vez, un tráfico reducido y (como valor añadido) de alta seguridad. 1.1.3. No orientado a conexión De la misma manera que ATM, SDMS define un servicio en la interfase de usuario / red. Pero, al contrario que ATM, que es un servicio orientado a conexión, SDMS es un servicio no orientado a conexión, lo cual significa que no se establece conexión entre las computadoras transmisora y receptora antes de la transferencia de datos. Simplemente, los paquetes se transmiten en el medio tan pronto como la interfaz SMDS los recibe. Por tanto, no existe retardo en el establecimiento o liberación de la llamada. Esencialmente, en SDMS, la central de conmutación recibe las celdas de datos no orientados a conexión y les asigna un circuito virtual para que transiten a través de la red. El adaptador de red de la estación sustituye la dirección SDMS de 8 bytes por la dirección de 6 bytes utilizada en los protocolos de LAN heredadas. La transferencia puede ser mediante celdas o en paquetes, como se verá más adelante, pero al usuario final siempre le parece no orientado a conexión.

22.. A Q U T E C T U R A ARRRQ QU UIIIT TE EC CT TU UR RA A Como se ha mencionado, SMDS se basa en el estándar de Red de Área Metropolitana (Metropolitan Area Network, MAN) IEEE 802.6. Este estándar especifica un protocolo de red de alta velocidad para un bus dual compartido de fibra óptica. La red SMDS es un diseño de bus dual que forma un anillo abierto, como muestra la figura. Físicamente parece una estrella y en este sentido es, de alguna manera, similar a Token Ring, que es una topología en anillo lógico que forma una estrella física porque todos sus cables se conectan a un concentrador central. Si el bus SMDS se rompe, la parte abierta se cierra automáticamente para componer el anillo.

2.1. Adhesión a los estándares SMDS no es sólo compatible con el estándar MAN IEEE 802.6 sobre el que se fundamenta, sino también con el modelo de RDSI banda ancha, RDSIBA (Broadband ISDN, B-ISDN), ilustrado en la figura. Como resultado, SMDS permite un tamaño de célula de longitud fija de 53 bytes así como los protocolos 3 y 4 de la Capa de Adaptación ATM (ATM Adaptation Layer, AAL). SDMS proporciona, también, algunos servicios que no se describen en el estándar MAN, como la administración y la facturación, que se verán más adelante.

2.2. Interfase de intercambio de datos Debido a que SMDS admite sólo la transmisión de datos, la mayoría de los datos en la red SDMS se reciben en forma de paquetes procedentes de redes de área local heredadas. Para evitar tener que convertir estos paquetes en celdas, en cada segmento se desarrolló la Interfase de Intercambio de Datos SMDS (SMDS Data Exchange Interface, SMDS-DXI). SMDS-DXI permite encaminamiento en los servicios SMDS. SMDS-DXI se basa en paquetes en vez de en celdas. Utiliza el formato de trama estándar correspondiente al protocolo de Control de Enlace de Datos de Alto Nivel (High-level Data Link Control, HDLC) de manera que (al contrario que las T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 0 8 30 08 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIII

S S M D S SM MD DS S

interfaces basadas en celdas) no necesita hardware adicional para transmitir tráfico basado en paquetes. SMDS-DXI simplifica y abarata la implementación de SMDS porque el hardware SMDS necesario para permitir SMDS-DXI es fácil de obtener, relativamente barato y fiable. SMDS-DXI también admite el acceso de baja velocidad de los protocolos heredados, proporcionando a los administradores de red mayor flexibilidad en la elección del ancho de banda y, por tanto, mayor control sobre los costes (recuérdese que en SMDS los usuarios sólo pagan por el ancho de banda que utilizan).

2.3. Implementación SMDS Mientras los proveedores se preparan para ATM, algunos están instalando SMDS como paso intermedio para ATM. Algunos, por ejemplo, ofrecen SMDS puro; otros, se perfilan como impulsores de la red ATM pura. Puesto que SMDS utiliza la misma tecnología de conmutación de celdas que ATM, los proveedores pueden ofrecer el servicio SMDS utilizando las centrales de conmutación ATM. De hecho, muchos proveedores instalan centrales de conmutación ATM que implementan todas las tecnologías de paquete rápido, incluyendo no sólo SMDS sino también Frame Relay e interfaces X.25. SMDS es una tecnología de paquete rápido (fast packet), lo que significa que el protocolo deja los procedimientos de comprobación de errores y control de flujo a los nodos finales. La creencia es que las tecnologías y sistemas actuales de transmisión de telecomunicaciones transmiten los datos con muy pocos errores, de manera que los complejos y sofisticados mecanismos de comprobación de errores de protocolos anteriores ya no son necesarios. Si se pierde un paquete, el nodo receptor solicita una retransmisión. El propio protocolo de red no sufre la carga de este tipo de comprobación de errores. ATM y Frame Relay son también protocolos de paquete rápido que no incluyen la verificación de errores como función de red.

2.4. Método de acceso El estándar de red de área metropolitana IEEE 802.6 especifica el acceso al bus dual de fibra óptica de medio compartido a través del Bus Dual de Cola Distribuida (Distributed Queue Dual Bus, DQDB). DQDB divide el bus en ranuras de tiempo desocupadas, que cualquier estación conectada puede rellenar con celdas de datos para su transmisión. En cualquier instante, todas las estaciones conectadas pueden acceder al bus hasta que éste se sature. Teóricamente, el método de acceso DQDB permite hasta 512 nodos y funciona a 150 Mbps en una red que puede llegar a medir hasta 160 Km. El nodo transmisor DQDB es capaz de transmitir paquetes de hasta 9.188 bytes. Estos paquetes se dividen en celdas más pequeñas de 53 bytes (48 bytes de datos útiles más una cabecera de 5 bytes) para ajustarse a las ranuras SMDS. Después de la transmisión, son reensamblados en el extremo receptor.

33.. V VEEENNNTTTAAAJJJAAASSS DDDEEESSM MD DSS SMDS, como tecnología de conmutación que es, tiene varias ventajas respecto a las redes privadas circunscritas a un edificio que utilizan líneas digitales dedicadas como T1 o incluso ATM. Estas ventajas incluyen la facilidad de instalación y configuración, escalabilidad y costo. 3.1.1. Instalación y configuración Tal y como muestra la figura, los que instalan una red SMDS sólo necesitan establecer una línea con la red SMDS del proveedor local. En un entorno T1, los usuarios tendrían que establecer líneas entre todos los lugares que necesitarán interconexión. Su naturaleza no orientada a conexión proporciona conexiones de todos con todos entre una variedad de ubicaciones sin los retardos que acompañan a los procedimientos de establecimiento y liberación de la llamada. Por tanto, SMDS ofrece una comunicación tipo LAN en áreas metropolitanas. La información, una vez alcanzada la red SMDS, se conmuta a uno o múltiples sitios. Además, la naturaleza no orientada a conexión del SMDS facilita la adición y eliminación de emplazamientos en sólo unos minutos. Añadir o eliminar ubicaciones en T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 0 9 30 09 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIII

S S M D S SM MD DS S

una red ATM, con su protocolo orientado a conexión, requeriría reconfigurar la totalidad de la red. 3.1.2. Facilidad de administración SMDS ofrece algunos interesantes aspectos de administración que muchos otros protocolos, como ATM, no ofrecen. Por ejemplo, SMDS proporciona una tarifa basada en el uso, así como la característica de controlar el acceso a la red para prevenir que los nodos monopolicen la red. También dispone de una posibilidad de blindaje de direcciones que incrementa la seguridad mediante la limitación de la comunicación a un grupo de direcciones y permite construir una red privada lógica, utilizando la red pública SMDS. SMDS proporciona, igualmente, estadísticas de utilización y otros datos de administración de red directamente a los usuarios finales. Por último, SMDS permite construir paquetes de datos sobre la estructura básica de las celdas ATM, permitiendo así beneficiarse tanto de las características del paquete como de la conmutación rápida de células. 3.1.3. Escalabilidad SMDS es amplio y fácilmente escalable. Gracias a su facilidad en la agregación y eliminación de conexiones (y porque sólo se paga por el ancho de banda utilizado) SMDS puede proporcionar la suficiente flexibilidad y opciones de conexión como para acomodarse rápidamente a las cambiantes necesidades. SMDS, además, no es sólo un servicio MAN. A pesar de su énfasis en el área metropolitana, SMDS es también un servicio WAN que puede alcanzar largas distancias. Esto significa, en teoría, que es fácil expandir una red SMDS a lo largo de una ciudad o un país, sin embargo, deben existir operadores locales y de larga distancia que ofrezcan esta posibilidad. SMDS suministra, también, un amplio rango de velocidades de acceso, desde 56 Kbps hasta 45 Mbps, lo que da muchas opciones para construir segmentos de alta velocidad. Por ejemplo, podría construirse un segmento troncal de 45 Mbps y conectar los lugares de menor tráfico al segmento troncal a 56 Kbps, y recuerde sólo se paga por el ancho de banda utilizado. 3.1.4. Interoperabilidad El Servicio de Conmutación de Datos Multimegabit proporciona un razonablemente alto nivel de interoperabilidad con las infraestructuras de red existentes. Admite la mayoría de los entornos de red existentes, incluyendo TCP/IP, IPX de Novell, AppleTalk, DECnet, SNA y OSI. Además, como se mencionó en el método de acceso DQDB, permite una unidad de datos de hasta 9.188 octetos. Por consiguiente, SMDS puede encapsular paquetes enteros procedentes de la mayoría de las LANs. Quizás, quienes han colaborado de manera más significativa en el desarrollo de especificaciones para la interconexión de los servicios SMDS y ATM, han sido el ATM Forum y el SMDS Interest Group. Sin embargo, si se está considerando SMDS como medio de migración a ATM, debería tenerse en cuenta que SMDS soporta la capa de adaptación ATM. Como se verá, la mayoría de las emulaciones de LANs se basan en la capa 4 de adaptación ATM (AAL4). Esto significa que cuando llegue el momento de integrar las redes de área local existentes al troncal de alta velocidad, es posible que haya que convertirse a ATM para beneficiarse de la Emulación LAN (LAN-E, LAN Emulation). 3.1.5. Rendimiento Como se indicó, SMDS soporta una amplia variedad de velocidades de red y de acceso. Actualmente, para acceso de usuario, ofrece tasas DS1 (1,544 Mbps) y DS3 (45 Mbps). Los accesos a la red requieren de una línea dedicada a una velocidad DS1 o DS3. 3.1.6. Costo En el área metropolitana y extensa (en la que la compra, instalación y mantenimiento del medio de transmisión es relativamente caro) los aspectos económicos de un medio compartido, como el que SMDS ofrece, son seductores. Usualmente, el coste del servicio es una tarifa mensual plana basada en el ancho de banda de los enlaces. Además, SMDS ofrece potencial de expansión. Simplemente hay que pagar por los costos de otro puerto de conexión y por los gastos de utilización asociados. Sin embargo, el comprador debería ser precavido. Porque, como los proveedores de servicios de comunicación local son los principales suministradores de SMDS, habitualmente, en un área determinada no existe competencia por el servicio. Por tanto, debe valorarse el costo del SMDS con relación a otros servicios. Nota: es difícil predecir la utilización de la red. Por consiguiente, para evitar que los costos de utilización del SMDS arruinen el presupuesto, hay que intentar encontrar un proveedor que ofrezca una tarifa de utilización mensual plana o un límite mensual sobre los gastos de SMDS. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 1 0 31 10 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIII

S S M D S SM MD DS S

3.1.7. Soporte El SMDS Interest Group (SIG) es el mayor promotor de SMDS. Es una asociación de vendedores de productos SMDS, suministradores de servicio, operadores y usuarios finales. EL SIG no sólo tiene grupos de usuarios sino, también grupos de trabajo que promueven SMDS y trabajan sobre especificaciones. El grupo de trabajo técnico trabaja sobre mejoras al estándar IEEE 802.6, mientras que el grupo de trabajo interconexión sugiere innovaciones a los estándares que rigen la interconexión y gestión de interconexión SMDS. También patrocinan un grupo de usuarios y, por supuesto, tienen un grupo de relaciones públicas que organiza seminarios y divulga información sobre la disponibilidad de SMDS.

44.. D DEEESSSVVVEEENNNTTTAAAJJJAAASSS SSM MD DSS Aunque SMDS parece una solución satisfactoria y asequible para esperar la llegada de ATM, tiene algunas desventajas significativas. Estas desventajas deben valorarse concienzudamente antes de precipitarse. 4.1.1. Compatibilidad multimedia limitada Como se mencionó al principio de este capítulo, los proveedores de servicios local comenzaron a implementar SMDS como ayuda para competir en el mercado de transmisión de datos a larga distancia. Por tanto, para este servicio, no dedicaron mucho tiempo en el desarrollo que admitiera voz y vídeo. Como resultado, SMDS sólo puede transmitir datos. No ofrece transmisión determinística (como Frame Relay) o envío garantizado y ordenado de paquetes (como ATM). 4.1.2. Utilización limitada Actualmente, sólo alrededor de un par de cientos de compañías en los Estados Unidos están desplegando activamente SMDS. Incluso aunque SMDS se expandiera rápidamente, un mercado tan pequeño puede que no fuera capaz de garantizar suficientes ingresos como para mantener tantos vendedores en el mercado, lo que, en última instancia, limita la elección de equipos y servicios SMDS, así como incrementa su costo. Aunque muchos vendedores de SMDS y analistas de la industria predicen que este número crecerá substancialmente, otros tantos son de la opinión contraria y creen que SMDS está perdiendo su oportunidad a medida que los productos ATM se abaratan y son más completos. 4.1.3. Soporte técnico limitado Como se indicó, SMDS está lejos de alcanzar una explotación universal. No es ofrecido por demasiados proveedores de comunicación local y, actualmente, son muy pocos los operadores de larga distancia que ofrecen SMDS (MCI es el único en EEUU).

55.. C O N C L U Ó N CO ON NC CL LU USSSIIIÓ ÓN N Siendo del todo sincero, SMDS tiene un futuro incierto. Aunque, en comparación, es un método económico de transmitir datos a alta velocidad, su disponibilidad restringida y su orientación exclusiva a datos han limitado su utilidad. Existe también cierta confusión sobre la dirección que debería tomar. A algunos usuarios les gustaría mejorar la DXI, haciéndolo más un servicio complementario de los protocolos orientados a conexión. A otros les gustaría ver a los vendedores y operadores poner más energía en el desarrollo de la compatibilidad multimedia, de manera que SMDS fuera un servicio que por si mismo compitiera con los servicios orientados a conexión. Sin embargo, en ambas áreas, SMDS tiene más que suficientes competidores bien asentados para impedir su amplia adopción. 5.1.1. Recomendado para: * * *

Usuarios que necesiten capacidad de conmutación entre muchos sitios. Conectar LANs con una única área metropolitana. Redes de área metropolitana que en un futuro planeen implementar ATM.

5.1.2. No recomendado para: * *

Aplicaciones terminal-host en tiempo real. Redes de área extensa, debido a la estricta limitación actual en la compatibilidad de área extensa.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 1 1 31 11 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

R RD BAANNDDAA A ANNCCHHAA YY A AT DSSII DDEE B TM M 11.. IINNNTTTRRRO O D U C C Ó N OD DU UC CC CIIIÓ ÓN N Cualquiera que haya leído una publicación especializada sobre redes o haya asistido a una conferencia técnica en los últimos años ha oído hablar de ATM. El Modo de Transferencia Asíncrono parece ser la gran esperanza en el ámbito de las comunicaciones de red tanto del futuro cercano como del distante, incluso algunos vendedores han llegado a denominar a ATM como la tecnología de comunicaciones de red más significativa de esta década. ATM promete integrar las funciones de LAN, las funciones de WAN, voz, vídeo, y datos en un protocolo y diseño único y uniforme. También promete uniformidad y expansión escalonada que, en última instancia, simplificarán el diseño y la administración de las redes. Por tanto, casi todas las tecnologías complementarias planifican su “disposición a ATM” en sus propios desarrollos. 1.1.1. Los orígenes Prácticamente cuando RDSI estaba apareciendo en el mercado la CCITT (actual ITU-T) empezó a trabajar en un nuevo estándar de red digital para servicios avanzados, como parte del encargo de las Naciones Unidas de desarrollar y recomendar estándares internacionales para las tecnologías y operaciones en el ámbito de las telecomunicaciones. Dado que se pretendía que la nueva red digital fuera de elevadas prestaciones, con posibilidad de transmitir vídeo en alta resolución y servicios similares, se la denominó RDSI de Banda Ancha (RDSI-BA), o Broadband ISDN (B-ISDN). RDSI-BA es una extensión de la RDSI de Banda Estrecha (que definía redes de telecomunicaciones digitales públicas) proporcionando mayor ancho de banda y permitiendo un caudal de datos superior a RDSI-BE. Podríamos decir que la RDSI de banda ancha es lo más parecido a las “autopistas de información”. Para no repetir el “fracaso” que supuso la tardía aparición del estándar RDSI (de banda estrecha); la ITUT decidió utilizar en este caso una tecnología realmente novedosa, en la que hacía tiempo pensaban algunos ingenieros de telecomunicaciones (desde 1968) pero que suponía un cambio radical de filosofía; la nueva tecnología se denominó ATM (Asynchronous Transfer Mode). B-ISDN proveía así un circuito virtual digital para transferir paquetes de tamaños fijos (celdas) con una velocidad de 155 Mbps, basado en ATM, que es una tecnología de conmutación de paquetes. Los primeros estándares B-ISDN/ATM se publicaron en 1988; en ese mismo año la ITU-T adoptó un nuevo proceso más ágil de creación de estándares. A pesar de estas innovaciones, la industria consideró que la ITUT no era suficientemente ágil en relación con los estándares ATM y en 1991 se creó el ATM Forum, que en 1994 reunía ya a más de 150 miembros principales (fabricantes de ordenadores y equipos de comunicaciones, compañías telefónicas, vendedores, operadores y usuarios) y que se encargaría de acelerar los acuerdos industriales sobre las interfaces ATM. En resumen, ATM es un protocolo punto a punto, full-duplex, orientado a conexión, basado en conmutación de celdas (que combina las mejores propiedades de la conmutación de circuitos y de paquetes) y que dedica ancho de banda a cada estación para el transporte y conmutación de todo tipo de servicios, bien sea de voz, datos o vídeo, a muy altas velocidades. Utiliza multiplexación TDM asíncrona para controlar el flujo de información en la red. ATM opera en un ancho de banda que varía desde 25 Mbps hasta 622 Mbps, aunque la mayoría del esfuerzo de desarrollo (y de marketing) se orienta hacía ATM a 155 Mbps. A pesar de la exagerada publicidad, ATM promete algunos beneficios que ningún otro protocolo ha ofrecido: * Velocidad: ATM soporta velocidades de transmisión de hasta 622 Mbps. * Escalabilidad: ATM permite incrementar el ancho de banda y la densidad de los puertos dentro de las arquitecturas existentes. * Ancho de banda dedicado bajo demanda: esto garantiza la consistencia del servicio de una aplicación, aspecto no disponible en las tecnologías compartidas. * Despliegue universal: ATM ofrece el potencial de ser una solución extremo a extremo, esto significa que puede utilizarse tanto en un equipo de sobremesa como en un segmento local, en una troncal o en una WAN. * Integración con las redes existentes. * Gestión de la totalidad del rango de tráfico de la red, voz, datos, imagen, vídeo, gráficos y multimedia. * Adaptabilidad a entornos LAN y WAN. Como puede observarse en la figura siguiente, ATM se sitúa directamente sobre el nivel físico del modelo de referencia de RDSI-BA. Sin embargo, no requiere de la utilización de ningún protocolo de nivel de red específico. De esta manera, el nivel físico podría ser FDDI, DS3, SONET o cualquier otro. Más adelante se tratará en detalle el modelo de referencia y sus implicaciones para ATM. La elección de ATM como un mecanismo de transporte para la RDSI-BA, se basó en su capacidad para proporcionar una conexión con el ancho de banda requerido, de manera arbitraria (dinámica) y con el grado de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 1 5 31 5 15

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

servicio adecuado para la aplicación en cuestión; adicionalmente, ATM ofrece la posibilidad de emplear una multiplexación estadística para la mejor utilización de los recursos de transmisión. 1.1.2. Si ATM es la respuesta, ¿cuáles fueron las preguntas? Casi todos los servicios de comunicación vistos hasta ahora fueron diseñados para la transmisión de voz o datos, pero no ambos. La Red Telefónica Básica (RTB) y la red GSM, pensadas para la voz, pueden transmitir datos, pero sólo a muy bajas velocidades. Las líneas dedicadas y redes Frame Relay, pensadas para datos, pueden transmitir voz si se utilizan los equipos apropiados y se respetan ciertas restricciones. El único servicio de los vistos hasta ahora que se diseñó pensando en voz y datos era RDSI (de ahí el nombre de Servicios Integrados). Pero la RDSI tenía dos inconvenientes importantes: • Al ser una red de conmutación de circuitos reales la reserva de ancho de banda se realiza durante todo el tiempo que esta establecida la comunicación, independientemente de que se estén transfiriendo o no datos (o en el caso de transmitir voz independientemente de que se este hablando o se este callado). • El estándar RDSI se empezó a definir en 1984. En aquel entonces las líneas dedicadas eran de 9,6 Kbps, en el mejor de los casos, y hablar de enlaces a 64 Kbps parecía algo realmente avanzado; sin embargo el proceso de estandarización tardó mas de lo previsto (cosa que ocurre a menudo) y cuando aparecieron los primeros servicios RDSI diez años más tarde la red “avanzada” resultaba interesante sólo en entornos domésticos y de pequeñas oficinas; se había quedado corta para nuevas aplicaciones. (La RDSI original también pretendía integrar todos los servicios en una única red digital, aunque como se vio llegó demasiado tarde). Además de la transmisión de voz o datos, las redes de comunicaciones permiten transmitir también otros tipos de información como imágenes en movimiento (videoconferencia o vídeo), que tienen unos requerimientos distintos. De forma muy concisa se resume, en la siguiente tabla, las características esenciales de cada tipo de tráfico: Tipo de información

Capacidad

Datos Variable Audio en tiempo real, monólogo Baja (64 Kbps) Audio en tiempo real, diálogo Baja (64 Kbps) Vídeo en tiempo real Alta (2 Mbps)

Pérdida tolerable Muy baja Baja Baja Media

Retardo

Jittter

Alto Bajo Muy bajo Bajo

Alto Muy bajo Muy bajo Bajo

Necesidades de los diversos tipos de tráfico

Cuando una red está preparada para transmitir audio, vídeo y datos informáticos se dice que es una red multimedia. Generalmente el tráfico multimedia tiene unas necesidades muy variables de ancho de banda, se dice que es un tráfico a ráfagas (bursty traffic). Cuando se tiene tráfico a ráfagas resulta especialmente útil disponer de una red de conmutación de paquetes con circuitos virtuales, ya que así unos usuarios pueden aprovechar en un determinado instante el ancho de banda sobrante de otros. Sin embargo las redes de este tipo que hemos visto hasta ahora (X.25 y Frame Relay) no son apropiadas para tráfico multimedia porque el retardo que introducen, el jitter (retardo de a intervalos) y la falta de garantías en el ancho de banda hacen que el servicio se degrade con rapidez cuando la red está cargada, además de la lentitud de las mismas (especialmente X.25). Debido a esto, las compañías telefónicas venían trabajando desde hace bastante tiempo (desde 1968, cuando se concibió en los laboratorios Bell el primer sistema de “transmisión de celdas”) en el diseño de una red adecuada al tráfico multimedia que permitiera aprovechar las ventajas de la conmutación de paquetes, para así utilizar de forma más eficiente las infraestructuras y ofrecer nuevos servicios, tales como videoconferencia o vídeo bajo demanda. Esta tecnología resultó ser ATM. A1 igual que todos los protocolos descritos hasta ahora, ATM se desarrolló como una alternativa a los protocolos de transporte existentes, como Ethernet y Token Ring, que se encontraban, obviamente, limitados en su ancho de banda y escalabilidad. Sin embargo, ATM fue también diseñado para gestionar múltiples tipos de datos simultáneamente y con eficiencia incremental. Se vieron la ventaja que suponen las redes de conmutación de paquetes en lo que a aprovechamiento del T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 1 6 31 6 16

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

ancho de banda se refiere; los momentos de inactividad de un usuario son aprovechados por otro; esto es especialmente útil cuando el tráfico se genera a ráfagas, cosa habitual en los datos. Pero la irregularidad no es una característica exclusiva de los datos, por ejemplo: una conversación telefónica es silencio en su mayor parte, ya que de entrada el canal de comunicación que se establece es full dúplex y normalmente está hablando una persona (como mucho). La mayoría de la gente no concibe el tráfico de voz basado en conmutación de circuitos como tráfico a ráfagas, sin embargo, así es. De hecho, una conversación de voz basada en conmutación de circuitos utiliza bastante menos de la mitad del ancho de banda disponible. Del mismo modo, el ancho de banda ocupado por el vídeo digitalizado es muy irregular, ya que los modernos sistemas de alta compresión aprovechan la redundancia de información que normalmente hay entre fotogramas sucesivos de una película, lo cual hace que se transmita mucha más información cuando se trata de una escena cambiante que cuando se trata de una imagen estática. Por consiguiente, ATM tenía que ser capaz de transmitir una amplia variedad de velocidades de bit y soportar comunicaciones en ráfaga, puesto que tanto el tráfico de voz, como el de datos y vídeo exhibe, en todos los casos, un comportamiento en ráfagas; además de cubrir las necesidades del retardo y del ancho de banda. La idea fundamental de ATM consistió en aplicar la filosofía de la conmutación de paquetes a todos los tipos de tráfico de que hemos hablado, pudiendo coexistir todos ellos sin problemas en la misma red y discurrir por los mismos medios de transmisión. Para evitar los problemas de retardo y saturación se contemplaron varias medidas, entre las que se pueden destacar: • Un tamaño de paquete fijo de 53 bytes. El tamaño fijo simplifica el proceso de los paquetes, algo crucial en redes de alta velocidad. Al ser pequeño se asegura que un paquete con alta prioridad no se verá retrasado de forma importante por esperar a que termine de enviarse el paquete en curso. • Una amplia diversidad de tipos de tráfico. El usuario puede utilizar el más adecuado a sus necesidades según el tipo de aplicación; el costo normalmente dependerá del tipo de tráfico utilizado. • No se pueden usar los conmutadores de división de espacio ni de tiempo con ATM (ver conmutadores ATM), tampoco se pueden usar los loops locales existentes. La conversión a ATM representa un cambio enorme.

22.. C O N M U T A C Ó N CO ON NM MU UT TA AC CIIIÓ ÓN N 2.1. Celdas ATM La conmutación de paquetes, que utiliza el ancho de banda sólo cuando hay tráfico de datos, se desarrolló para gestionar el tráfico a ráfagas de datos. Sin embargo, los sistemas de conmutación de paquetes no se comportan de manera adecuada en el caso de tráfico bidireccional en tiempo real, como el vídeo interactivo. ATM supera esta limitación gracias a la utilización de células o celdas, que son paquetes de longitud fija, en vez de emplear paquetes de longitud variable. Cada célula ATM está compuesta por un campo de datos de 48 bytes y una cabecera de 5 bytes, como muestra la figura. Todas las celdas ATM son del mismo tamaño, al contrario que los sistemas de retransmisión de tramas (Frame Relay) y las redes de área local que tienen tamaños de paquetes variables. La utilización de células del mismo tamaño permite: 1. Posibilidad de conmutación mediante hardware: puesto que el procesamiento de las celdas de tamaño fijo es sencillo, predecible y fiable, es posible realizar la conmutación ATM al nivel de hardware en vez de requerir de un costoso y complejo software para gestionar el control de flujo, buffer y otros aspectos de administración. A corto plazo esto dará lugar a un mayor caudal de información y con el tiempo, la tecnología podrá continuar sacando partido de la mejora de la relación precio/prestaciones a medida que se incremente la potencia de los procesadores y se reduzca el coste. 2. Nivel de servicio y ancho de banda garantizados: los retardos de espera en las colas sufridas en la red y en los conmutadores son más predecibles en el caso de celdas de datos de tamaño fijo. Por tanto, es posible diseñar los conmutadores para que proporcionen niveles de servicio garantizados para todo tipo de tráfico, incluso para servicios sensibles al retardo, como voz y vídeo. 3. Procesamiento paralelo y alto rendimiento: las celdas de longitud fija permiten a los conmutadores encargados de retransmitir las celdas procesar en paralelo las células, alcanzando velocidades que exceden con mucho las limitaciones de las arquitecturas de conmutación basadas en bus. Grandes volúmenes de datos pueden fluir de manera concurrente a través de una única conexión física. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 1 7 31 17 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII 4.

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

Prioridad de los datos: aunque las celdas ATM únicamente requieren ancho de banda cuando existe tráfico, aun así pueden proporcionar el equivalente a una ranura de tiempo, como la generada por un multiplexor por división en el tiempo, para tráfico continuo. De esta manera, ATM es capaz de gestionar igualmente bien tráfico continuo en tiempo real como la voz digitalizada y tráfico a ráfagas como las transmisiones LAN. ATM puede enviar una respuesta determinística, aspecto esencial para transportar comunicaciones “sensibles a la latencia” como vídeo animado y audio, o tráfico interactivo de datos correspondiente a aplicaciones críticas.

La celda ATM se emplea para transportar los datos que se transmiten entre los conmutadores. Un segmento de 48 bytes, correspondiente a los datos útiles del usuario, se sitúa en una celda junto a una cabecera de 5 bytes, formando una celda ATM de 53 bytes. La cabecera de la celda transporta la información necesaria para la operación de conmutación.

2.2. Conmutación ATM y conexiones virtuales En cierto modo ATM es la evolución natural de X.25 y Frame Relay, y como descendiente de ellos comparte algunas de sus características. En primer lugar, la red se constituye por medio de un conjunto de conmutadores ATM interconectados. BISDN es una combinación de conmutación de circuitos y de paquetes. El servicio es orientado a la conexión pero es implementado con conmutación de paquetes, pudiendo establecer dos clases de conexiones, a las que se denomina “circuitos”. La creación de un circuito en ATM es el proceso de encontrar un camino por la red. Los conmutadores en la ruta guardan entradas en una tabla y de poder reservan recursos. Cuando un paquete llega a un conmutador, se busca a qué “circuito” pertenece el encabezamiento del paquete y se determina sobre qué línea se debiera reenviar el paquete. Para comunicarse a través de la red, las aplicaciones deben, en primer lugar, establecer una conexión virtual (Virtual Connection, VC) entre los conmutadores. Un VC es un camino de transmisión para una celda de datos ATM. El VC se extiende a través de uno o más conmutadores, estableciendo una conexión extremo a extremo para la transmisión de los datos de la aplicación mediante celdas ATM. Los VC se pueden establecer de dos maneras: 1. la primera, el administrador de red puede configurar manualmente un Circuito Virtual Permanente (Permanent Virtual Circuit, PVC). Un PVC consiste en un ancho de banda dedicado que garantiza un nivel de servicio a una determinada estación. Los administradores de red podrían configurar PVCs para aplicaciones criticas que siempre deben considerarse de alta prioridad o para conexiones permanentes como las existentes entre switches y puentes. Estos circuitos permanecen en vigor mientras no se altere la configuración inicial, independientemente de que haya o no tráfico, los recursos que solicitan se reservan de manera permanente, su tiempo de conexión es nulo y son lo más parecido a líneas dedicadas “virtuales”. Persisten meses o años. 2. la segunda manera de establecer un VC es el Circuito Virtual Conmutado (Switched Virtual Circuit, SVC). Un SVC es un VC establecido ad hoc según las necesidades de la aplicación. Son temporales. Se establecen por software cuando se los solicita o de forma automática cuando se detecta la necesidad, y terminan cuando cesa el tráfico o cuando el usuario así lo requiere; necesitan un tiempo para establecer la conexión y ésta no está garantizada, es posible que no pueda establecerse si los recursos solicitados no están disponibles. 2.2.1. Identificador de circuito virtual

* *

La cabecera de la célula también contiene dos campos de direcciones: el Identificador de Trayecto Virtual (Virtual Path Identifier, VPI) y el Identificador de Canal Virtual (Virtual Channel Identifier, VCI)

los cuales, conjuntamente, ocupan 3,5 bytes y definen el Identificador de Circuito Virtual (Virtual Circuit Identifier) que constituye la ruta de la celda a un determinado conmutador. Estos campos son actualizados por cada uno de los conmutadores de la ruta. Los identificadores de circuito virtual marcan las células de una conexión particular y a continuación los conmutadores transfieren los datos en el VC mediante mecanismos de conmutación basados en hardware, e insertan la marca de la conexión VC definida en la cabecera de la célula. Los problemas de conexión y “encaminamiento VC” (entiéndase encaminamiento a través de los switches ATM y no a través de routers) se encuentran todavía pendientes en el proceso de normalización. El control de la congestión es importante porque un pequeño nivel de pérdida de células (por ejemplo, 0,1 por 100) se amplifica hasta un preocupante alto nivel de pérdida de tramas (por ejemplo, 20 por 100). Esto es inaceptable, por lo que se encuentran en estudio y evaluación varias políticas alternativas de control de la congestión.

2.3. Conmutadores ATM T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 1 8 31 8 18

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

ATM no emplea ancho de banda compartido. En su lugar, cada uno de los puertos de un conmutador ATM (switch ATM) se dedica a un único usuario. Un conmutador ATM establece una conexión virtual entre un nodo transmisor y un nodo receptor. Esta conexión se realiza en función de la dirección destino de cada celda, y sólo dura lo que tarda en transferir una celda. Estas transferencias de datos pueden tener lugar en paralelo y a la velocidad total de la red. Puesto que la celda transmite únicamente al puerto asociado con una dirección de destino específica, ningún otro puerto recibe la celda, lo cual proporciona un tráfico reducido y, como valor añadido, alta seguridad. Un conmutador ATM típico es un equipo modular formado por un chasis con un procesador central que controla sus funciones y en el que puede instalarse un número variable de interfaces de varios tipos, también llamadas ports, puertos, puertas o líneas de input o entrada. Normalmente sólo algunas de interfaces están disponibles (ver tabla anterior), pero siempre estará la correspondiente a 155,52 Mbps. Un conmutador pequeño puede soportar por ejemplo 16 puertas de 155,52 Mbps, mientras que uno grande puede soportar 1000 o incluso más. El rendimiento o throughput de un conmutador ATM suele medirse por la suma de velocidades de todas sus puertas en la configuración máxima posible; así por ejemplo un conmutador que admita un máximo de 16 puertas de 155,52 Mbps tendrá un rendimiento de 2.488 Mbps. Los conmutadores ATM suelen distinguirse claramente en dos tipos: los pequeños con capacidades de hasta 1 Gbps, también llamados de campus, y los grandes, generalmente con capacidades a partir de 10 Gbps, denominados de oficina central y pensados para compañías telefónicas. Imagínense un conmutador con 16 puertas de 155,52 Mbps. Recordar en primer lugar que cada puerta es full dúplex, por lo que tiene una capacidad de 155,52 Mbps en entrada y 155,52 Mbps en salida. Se puede por tanto imaginar este conmutador como formado por 16 puertas de entrada y 16 de salida. A esta velocidad el conmutador recibe por cada una de sus puertas una celda cada 2,726 ms (53*8/155.520.000=2,726*10-6 seg) o 360.000 celdas por segundo (una celda cada 2,7 microsegundos o con el ATM más rápido cada 700 nanosegundos). Si suponemos que el conmutador funciona de forma perfectamente síncrona con un ciclo básico de funcionamiento de 2,726 mseg, de forma que en cada ciclo entra una celda por cada una de sus interfaces (suponiendo también que todas estén recibiendo tráfico). El proceso de cada celda requiere normalmente varios ciclos, pero afortunadamente el conmutador puede funcionar en modo pipeline, es decir, una vez llena la “cadena de montaje” se empieza a emitir una celda por ciclo. El conmutador ha de redirigir cada celda a la puerta correspondiente procurando descartar el mínimo posible y no alterando nunca el orden de las celdas. Para esto el conmutador dispone de una tabla que le indica para cada circuito virtual cual es la puerta de entrada y cual la puerta de salida. Normalmente los circuitos virtuales son full dúplex, por lo que esta información será simétrica, es decir si un determinado circuito entra por la puerta 3 y sale por la 7 habrá otro que entre por la puerta 7 y salga por la 3. Es posible que dos circuitos virtuales diferentes tengan distintas puertas de entrada pero la misma puerta de salida. En este caso si en el mismo ciclo llega una celda por cada circuito se encontrarán que desean salir ambas por la misma puerta a la vez. El conmutador no puede descartar ninguna de ambas, ya que esto produciría una pérdida inaceptable de celdas (la tasa de pérdida debe ser muy baja, 1 celda cada 1012, por ejemplo). Algunos conmutadores optan en estos casos por retener una de las dos celdas en un buffer en el puerto de entrada, hasta el ciclo siguiente en que puede ser procesada hacia su destino. Esto tiene el inconveniente de retener entretanto el tráfico en esa línea para otros circuitos virtuales que podrían tener despejado el resto de su camino, produciendo una disminución en el rendimiento en situaciones de elevado tráfico; este fenómeno se conoce como bloqueo en la cabecera de la línea (head of-line blocking) y era frecuente observarlo en conmutadores ATM de primera generación. Una solución más eficiente es poner la celda en un buffer de espera en el puerto de salida, de forma que la celda pueda ser enviada en el ciclo siguiente. De esta forma se evita bloquear la línea de entrada. En cualquiera de ambos casos es necesario disponer de buffers generosos para poder almacenar las celdas en tránsito. Un conmutador ATM tiene normalmente capacidad para almacenar varias decenas de miles de celdas. Algunos conmutadores tienen buffers asignados estáticamente por interfase, mientras que otros disponen de una zona común que se va distribuyendo según lo requieren las necesidades. Evidentemente ningún conmutador ATM será capaz de resistir indefinidamente la entrada de dos flujos de 155,52 Mbps que intenten salir por una misma puerta de 155,52 Mbps; en estos casos es preciso que haya retención en el tráfico por parte del emisor, o habrá necesariamente descarte de celdas. Los conmutadores ATM permiten la conexión de un equipo de escritorio por puerto. Algunos conmutadores ATM son no bloqueantes, lo que significa que tienen la capacidad de admitir un enlace troncal equivalente a la suma de las velocidades de los puertos de entrada. Además, los conmutadores no bloqueantes transfieren el tráfico directamente desde la entrada a la salida sin un proceso de almacenamiento y reenvío. Se emplea almacenamiento en buffer sólo si múltiples entradas intentan acceder a la misma salida simultáneamente. A pesar del ocasional almacenamiento en buffer, ATM todavía es superior a la lenta operación de almacenamiento y reenvío de los encaminadores tradicionales (routers). Los elementos de conmutación por hardware, escalables, son la base de las redes troncales de velocidades del orden de gigabit que pueden construirse con ATM. Aunque la conmutación gigabit parece estar más allá de las necesidades de los equipos de escritorio actuales de 10 Mbps, las LAN no bloqueantes sin un conmutador del orden de gigabit en la red dorsal se encuentran restringidas a un reducido número de puertos. El primer conmutador ATM comercial apareció en 1991. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 1 9 31 9 19

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

2.3.1. Punto de control del conmutador ATM La función de conmutación ATM consta realmente en dos partes: el hardware del conmutador, que realiza verdaderamente la conmutación y el punto de control del conmutador, que gestiona el modo de operación de la conmutación. El punto de control del conmutador ATM lleva a cabo la operación del conmutador mediante: * La gestión de las solicitudes de conexiones virtuales (VC). * El aprendizaje de la topología de la red ATM. * El mantenimiento de las bases de datos de encaminamiento. * Permitiendo la gestión basada en SMNP de la red ATM.

33.. C CAAARRRAAACCCTTTEEERRRÍÍÍSSSTTTIIICCCAAASSS A ATTM M 1.

2.

3.

4.

5.

Es un protocolo orientado a conexión: significa que debe establecerse una conexión entre las computadoras transmisora y receptora antes de la transferencia de datos. Cada punto de conmutación intermedio debe ser identificado e informado de la existencia de la conexión. Cada paquete se reencamina de manera independiente y, por tanto, debe incorporar la dirección completa de su destino final. Se garantiza que todas las celdas llegan a su destino en el mismo orden en que han salido; sin embargo no se garantiza que lleguen todas las celdas, en situaciones de severa congestión se considera aceptable que haya una pérdida muy reducida de celdas (por ejemplo una en 1012). Es full-duplex: permite la transmisión a través de un par de hilos y la recepción a través de otro par de hilos de manera simultánea, lo que proporciona una utilización casi completa de ambos pares y unas elevadas tasas de datos constantes. A1 soportar el modo de operación full-duplex, ATM duplica el ancho de banda efectivo de la transmisión half-duplex habitual utilizada por la mayoría de los protocolos de red. Es punto a punto: como se mencionó antes, las redes ATM deben establecer una conexión entre las emisor y receptor antes de la transmisión de la celda. Esta conexión entre las dos estaciones es la única preocupación del conmutador ATM. Al contrario que un encaminador (router), un conmutador ATM no intenta definir una conexión unívoca dentro del contexto de todas las posibles conexiones de la red. En su lugar, el conmutador ATM selecciona la ruta entre la estación emisora y la estación receptora y, a continuación, informa a los conmutadores intermedios a lo largo de esta ruta, con el objetivo de asegurar que los recursos necesarios para transmitir la celda a través de la red son asignados. Una vez establecida una ruta de transmisión para la celda, el conmutador ATM asigna un número de conexión a cada uno de los enlaces punto a punto existente a lo largo de esta ruta. Los números de conexión se eligen de manera independiente para cada uno de los enlaces punto a punto en el camino de transmisión. Un camino puede estar formado por un número cualquiera de estos enlaces, estando los enlaces unidos por conmutadores. Esto significa que una célula transporta, potencialmente, un número de conexión distinto en cada enlace diferente del camino de conexión. Un conmutador modifica los números de conexión de cada célula a medida que transfiere la célula de un enlace a otro. Este cambio de los números de conexión en la unión de dos enlaces implica que los campos de número de conexión sólo necesitan ser los suficientemente grandes como para distinguir las conexiones mantenidas por un único enlace. Esta orientación punto a punto de la conexión en ATM y la modificación de los números de conexión en cada salto de conmutador permiten a ATM emplear números de conexión reducidos en vez de las grandes direcciones necesarias en la mayoría de los protocolos. Esto hace a ATM más eficiente porque los números de conexión pequeños preservan el espacio en las celdas y, por tanto, el ancho de banda y también más rápido, porque reduce la búsqueda en las tablas de los conmutadores. Ancho de banda dedicado: la eficiente utilización del ancho de banda no es un problema que preocupe solamente a la tecnología ATM. De hecho, diferentes tipos de tráfico requieren diferente comportamiento respecto al retardo, variación del retardo y características de pérdida. ATM proporciona calidades de servicio diferentes para acomodarse a esas diferencias. Igualmente asigna ancho de banda a cada una de las estaciones activas. La estación solicita la cantidad de ancho de banda apropiada para cada conexión y la red, automáticamente, asigna este ancho de banda al usuario. En realidad, verdaderamente, el ancho de banda no se dedica per se. Se comparte con otros usuarios, pero la red asegura el nivel de servicio solicitado. La red puede hacer esto porque controla el número de conversaciones simultáneas en la red. Para acceder a la red, la estación solicita un circuito virtual entre los extremos transmisor y receptor. Durante el establecimiento de la señal, la estación receptora puede solicitar la calidad de servicio que necesita para adaptarse a los requerimientos de la transmisión, y los conmutadores ATM garantizarán la solicitud si existen suficientes recursos de red disponibles. El nivel de servicio garantizado del acceso por conmutación basado en células es particularmente útil para transportar comunicaciones interactivas en tiempo real como la voz y el vídeo. ATM utiliza un protocolo denominado Interfase del Usuario a la Red (User-to-Netwvork Interface, UNI) para establecer los niveles de ancho de banda dedicados a las estaciones y aplicaciones. ATM es asíncrono: por contraste con T1, no hay ningún requerimiento de que las celdas de fuentes distintas se alternen rígidamente. Los ordenes aleatorios e incluso las brechas en el flujo son permisibles.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 2 0 32 0 20

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII 6.

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

ATM no especifica el medio: es posible el uso de cables como de fibras, con conexiones punto-a-punto y full duplex. La velocidad principal es 155,52 Mbps, la alternativa es 622,08 Mbps (compatibles con SONET).

3.1. Interfaces usuarios - red (UNI) El protocolo UNI de ATM proporciona múltiples clases de servicio y reservas de ancho de banda durante el establecimiento de la llamada de una conexión virtual conmutada. UNI define la interoperabilidad entre el equipo del usuario y el puerto del conmutador ATM. Una UNI define el interfase con una red ATM pública y, por lo general, soporta una interfase SONET o DS3. Una UNI privada, por otra parte, define una interfase ATM entre el usuario final y un conmutador ATM privado, que muy probablemente tenga una interfase de cable de cobre o de fibra óptica. Mientras que el ATM Forum ha conseguido con éxito estabilizar el protocolo UNI, existen un par de aspectos clave que los administradores de red deberían considerar a la hora de elegir los productos. En los protocolos UNI seleccionados por el ATM Forum se debe coordinar el ancho de banda asignado localmente entre otros conmutadores y segmentos de LAN interconectados. También debe soportar diversos sistemas operativos de red para garantizar múltiples clases de servicio. Estos aspectos afectan a la interoperabilidad de la red ATM y, por tanto, los administradores de red deberían seleccionar los productos que permiten el diseño y los equipos actuales de la red.

3.2. Modo de operación La combinación de la conmutación de celdas y de las conexiones punto a punto, con los consiguientes números de conexión reducidos, permiten a ATM dividir la tarea principal de interconexión en dos componentes separados: determinación de la ruta y reenvío de datos (más conocidos como encaminamiento y conmutación), cada uno de ellos tratado por una tecnología diferente. Para ilustrar completamente esta separación de funciones, primero se describirá cómo se transmite la celda a través de una red ATM. 3.2.1. Determinación de la ruta La determinación de la ruta es una función que exige un procesamiento intensivo por parte de la computadora, usualmente basado en software, y que requiere un conocimiento dinámico de la topología global de la red. La determinación de la ruta en ATM se realiza mediante el establecimiento de conexiones virtuales y se produce sólo una vez por sesión de transferencia de datos. ATM elige un camino para las celdas de la conexión (encamina la conexión) durante el establecimiento de la conexión y todas las celdas de la conexión siguen el mismo camino. Después del establecimiento de la conexión, sólo se realizan sencillas operaciones de transferencia de celdas (operaciones que implementan las decisiones de encaminamiento tomadas durante la fase de establecimiento de la conexión). De esta manera, la transferencia de datos se mantiene simple y eficiente, pero requiere de un sistema separado para el establecimiento de la conexión. La parte correspondiente al establecimiento de la conexión en ATM es, y debe ser, basada en protocolos no orientados a conexión. La diferencia principal entre ATM y las soluciones tradicionales de interconexión es que estas últimas deben resolver ambos componentes del problema de interconexión simultáneamente. Por consiguiente, cada paquete en una red tradicional transporta la información de encaminamiento significativa para la totalidad de la red, y cada paquete deber ser procesado por los conmutadores antes de poder transmitir los datos. Esta evocación continua a la función de determinación de la ruta constituye una utilización considerablemente desaprovechada de un recurso costoso y se convierte en el cuello de botella de la red, debido al elevado coste de los encaminadores (routers). Para ilustrar el problema del encaminamiento que la arquitectura ATM resuelve, considérese una red troncal o de respaldo. Supóngase que debe realizarse una copia de seguridad de 2 gigabytes de datos ubicados en un servidor de una red que emplea encaminadores (routers). El programa encargado de realizar la copia de seguridad probablemente creará 10 millones de paquetes de 200 bytes, puesto que 200 bytes es el tamaño de la unidad de transferencia más común permitido en las redes que utilizan conmutadores. A cada uno de estos 10 millones de paquetes se le asignará una dirección de encaminamiento (utilizando un número de red grande) y cada encaminador (router) a lo largo del camino procesará separadamente estos 10 millones de paquetes (incluso aunque sean transmitidos continuamente a través de la misma ruta). Esto significa que cada encaminador a lo largo del camino debe examinar la cabecera del nivel de red de cada paquete, calcular la ruta de nuevo para cada paquete por separado, a pesar del hecho de que la ruta es idéntica para la totalidad de los 10 millones de paquetes. ¡Qué desperdicio de capacidad de procesamiento!. El escenario es muy diferente en el caso de ATM. El conmutador ATM (switch) establece la ruta sólo una vez con una conexión virtual (VC). A continuación, el conmutador asigna un identificador de conexión para marcar la ruta. Se informa a los conmutadores de la ruta de los requerimientos de ancho de banda del VC y se les dan instrucciones para interpretar adecuadamente el identifícador de conexión. Después de esto, todas las celdas con ese identificador de conexión son conmutadas mediante hardware a T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 2 1 32 21 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

lo largo de la ruta, permitiendo a la función de determinación de la ruta dar servicio a las nuevas peticiones en vez de atender continuamente las peticiones de establecimiento de sesiones. Por tanto, las celdas no contienen complejas direcciones de encaminamiento. En su lugar, son marcadas con un pequeño identificador temporal de conexión, que los conmutadores ATM, instruidos para ello, hacen corresponder con la ruta definida por el VC. 3.2.2. Reenvío de datos El reenvío de datos, por otra parte, es una función que exige un procesamiento de hardware intensivo, que requiere una capacidad de conmutación del orden de gigabytes. La conmutación basada en celdas ATM permite una conmutación sencilla que, al igual que la conmutación Ethernet, puede ser realizada enteramente por hardware. Los conmutadores ATM realizan esta función procesando las celdas ATM y se ha optimizado la definición de la celda ATM para implementar una capacidad de conmutación basada en hardware y capaz de soportar gigabytes. Por tanto, las celdas son conmutadas mediante hardware a lo largo del camino previamente establecido por el VC para la sesión. ATM es principalmente un formato para ser utilizado por los conmutadores y no incluye un protocolo de arbitraje del acceso. Cada puerto de un conmutador se comporta, en muchos sentidos, como una estación. La información de la cabecera de la celda en la celda recibida se utiliza para localizar la información de transmisión necesaria para encaminar la celda dentro del conmutador. La comprobación de errores se realiza en la cabecera de la celda y las celdas erróneas son rechazadas. En cada conmutador esta información de direccionamiento de la cabecera de la celda se modifica para describir la ruta en el siguiente conmutador. La dirección de la celda ATM tiene significación local para el conmutador, en contraste con la dirección MAC, que identifica a los usuarios individuales con valores únicos ya sea local o globalmente.

3.3. Consideraciones sobre el cableado La topología ATM es una malla de conmutadores. Esto significa que es posible llegar a cualquier punto de la red desde cualquier otro punto a través de múltiples rutas que conllevan conexiones independientes entre los conmutadores. Para realizar esta tarea, ATM no requiere de ningún protocolo de nivel físico específico. ATM no tiene otras limitaciones de distancia que las impuestas por las características de atenuación del medio utilizado. Esto simplifica la creación de la instalación de cableado, por que, en la realidad, no existe ninguna regla que restringa el diseño. Sin embargo, esto hace de la documentación lo más importante de todo, porque sin reglas que sirvan como directrices sería casi imposible descifrar una instalación de cableado no documentada. 3.3.1. El medio en ATM La independencia del medio es un principio impulsor de ATM. Se especifican muchos niveles físicos, comenzando por 25 Mbps, incluyendo algunos para 100 y 150 Mbps, y continuando hasta 622 Mbps. ATM a 155 Mbps incluirá soporte para redes de área local que utilicen UTP Categoría 3,4 y 5, STP Tipo 1, cable de fibra óptica, multimodo y monomodo.

3.4. Interfaces físicas e interfaces WAN Como se sabe una conversación telefónica ocupa siempre un canal de 64 Kbps (multiplexación PDH y SDH), y los conmutadores por división por tiempo basan su funcionamiento en este principio. En ATM la conversación ocupa un ancho de banda variable en función de lo mucho o poco que hablen los dos interlocutores; sus silencios son literalmente aprovechados para intercalar otras conversaciones sobre el mismo medio o sistema de transmisión. Esto supone un cambio radical en un planteamiento que había permanecido inalterado desde que Graham Bell inventara el teléfono hace más de cien años. En lo que a medios físicos se refiere, los que están estandarizados para el transporte de celdas ATM son los siguientes: Velocidad (Mbps) 1,544 2,048 6,312 25,6 34,368 44,736 51,84 100 139,264 T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

Tipo de conexión T1 (PDH) E1 (PDH) T2 (PDH) E3 (PDH) T3 (PDH) STS-1 (SONET) FDDI (LAN) E4 (PDH) 3 3 2 2 32 22 2

Interfase Eléctrica (cable coaxial) Eléctrica (cable coaxial) Eléctrica (cable coaxial) Eléctrica (cable categoría 3) Eléctrica (cable coaxial) Eléctrica (cable coaxial) Óptica (fibra monomodo) Óptica (fibra multimodo) Óptica (fibra multimodo) G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M Velocidad (Mbps)

Tipo de conexión

155,52

Fiber Channel

Óptica (fibra multimodo)

155,52 155,52 622,08 2.488,32

Interfase

STS-3c (SONET), STM-1 (SDH) STS-12c(SONET), STM-4(SDH) STS-48 (SONET), STM-16(SDH)

Eléctrica (cable categoría 5) Óptica (multimodo y monomodo) Óptica (multimodo y monomodo) Óptica (monomodo)

Interfaces ATM estándares

Para cada interfase el estándar especifica de que forma se han de acomodar las celdas en la trama correspondiente (esto es lo que se conoce como “mapping” ATM). Todos los medios de transmisión ATM son full dúplex y en todos la transmisión y la recepción utilizan medios físicos independientes. No todas las interfaces que aparecen en la tabla anterior son de uso frecuente. La velocidad más utilizada es 155,52 Mbps. Las velocidades bajas (T1 y E1) se usan muy raramente ya que la funcionalidad ATM es poco aprovechable a estas velocidades y el costo que supone la información de cabecera resulta elevado. La interfase WAN de 155 Mbps para los proveedores de redes públicas se basará en la Red Optica Síncrona (SONET). Como se verá, SONET es un sistema de transporte de nivel físico internacionalmente admitido y desarrollado a principios de los años ochenta.

3.5. Instalación y configuración La administración de ATM es diferente a la de cualquier protocolo de LAN. Mientras que los procesos de instalación y configuración no son difíciles físicamente, si son complejos; y requieren de un nivel detallado de conocimiento sobre ATM, así como de una elaborada planificación. Por tanto, hay que estar preparado para gastar dinero y tiempo en formación, planificación y consultoría antes de llevar a cabo una implementación de ATM.

3.6. Escalabilidad ATM puede incrementar la escalabilidad de las redes con protocolos heredados. Por ejemplo, en la figura, la red se encuentra conectada mediante tres conmutadores Ethernet de 24 puertos, cada uno de ellos con dos enlaces 100BaseTX conectados a los otros dos conmutadores para formar una malla. Esta red podría suministrar servicio no bloqueante a 60 usuarios Ethernet (menos de los actualmente conectados). Además, a medida que creciera el número de usuarios y conmutadores debería dedicarse mayor capacidad de conmutación a los enlaces troncales que a las interfaces de los equipos de escritorio. La utilización de un conmutador ATM a 155 Mbps añadiría diez puertos ATM, cada uno a 155 Mps, como ilustra la figura a continuación. Sólo se requiere un puerto ATM de cada uno de los conmutadores Ethernet para proporcionar conectividad entre todos los puertos. Mientras que la red conmutada sólo podía admitir 60 usuarios, la red Ethernet ATM puede suministrar servicio no bloqueante a 240 usuarios Ethernet dedicados, con posibilidades de ampliación. Hoy en día, los conmutadores o switches LAN ATM escalables existentes en el mercado son capaces de soportar hasta 100 puertos de 155 Mbps en una configuración no bloqueante. Junto con los dispositivos específicos de acceso a Ethernet, estos conmutadores proporcionan la base para una red no bloqueante de 1.000 usuarios Ethernet dedicados. A medida que el mercado madure será posible lograr redes no bloqueantes con 1.000 puertos a 155 Mbps o 10.000 puertos Ethernet. No es necesario justificar la necesidad de redes no bloqueantes o conexiones de alta velocidad para equipos de escritorio. Aunque ATM es más ventajoso cuando se emplea en una configuración de LAN no bloqueante, también puede ser empleada en una configuración bloqueante para incrementar la utilización de ancho T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 2 3 32 3 23

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

de banda. En una configuración bloqueante, la suma de los anchos de banda de los puertos de los usuarios excede el ancho de banda del enlace dorsal y puede ocurrir que se produzca contención por los enlaces dorsales. La construcción de una red potencialmente bloqueante puede ser una solución económica para los clientes que se hallen en los primeros estadios de la migración a ATM. Para los clientes que se encuentren instalando la conexión entre ATM y los equipos de escritorio, las cargas de procesamiento de las actuales estaciones de trabajo pueden todavía no exigir la utilización completa del ancho de banda disponible. En esta situación, es posible añadir más usuarios a la red de los que el enlace troncal podría soportar en una configuración no bloqueante. Cuando se empleen aplicaciones devoradoras de ancho de banda en las estaciones de trabajo, será posible ajustar el ancho de banda y la capacidad de conmutación para producir una configuración no bloqueante. Una red ATM bloqueante, combinada con las apropiadas técnicas de gestión de tráfico, es capaz de superar el rendimiento de una LAN de acceso compartido. La gestión de tráfico permite a las LAN convencionales con usuarios de relativa baja velocidad beneficiarse de ATM con configuraciones bloqueantes económicas.

3.7. Facilidad de administración Los enlaces dorsales ATM son más fáciles de administrar que los de la mayoría de las redes que emplean encaminadores (routers), porque ATM elimina gran parte de la complejidad requerida para configurar grandes redes interconectadas que poseen diferentes esquemas de direccionamiento y procedimientos de encaminamiento. Los concentradores ATM proporcionan conexiones entre dos puertos cualquiera del concentrador, con independencia del tipo de dispositivo conectado a él. Las direcciones de estos dispositivos están predefinidas, facilitando el envío de un mensaje, por ejemplo, de un nodo a otro, independientemente del tipo de red a que están conectados los nodos. De hecho, para muchos usuarios, la razón principal para migrar a una solución basada en ATM puede ser la simplificación de la administración de la red antes, incluso, que los requisitos de rendimiento que dicta la transición.

3.8. LAN virtuales El establecimiento de filtros y restricciones entre los diferentes grupos de usuarios resulta difícil y costoso, utilizando los puentes y switches convencionales. Los administradores de red piensan en términos de grupos de trabajo, no en la posición física de los usuarios. Por tanto, no debería tener que establecer unas series de normas de filtrado basadas en los puertos físicos. La naturaleza orientada a conexión de ATM y el rendimiento de la conmutación de celdas mediante hardware permiten la creación de redes virtuales. En vez de configurar y reconfigurar los switches cada vez que una estación cambia de sitio, los administradores de red pueden implementar LAN virtuales. Una LAN virtual es una lista de direcciones MACs de los dispositivos o direcciones de red independientes del puerto físico, muy parecida a una lista de acceso utilizada por algunos vendedores de encaminadores. Sin embargo, las LAN virtuales tienen significado en la totalidad de la red. Un dispositivo puede acceder a cualquier otro dispositivo de la misma red virtual. Las LAN virtuales pueden definir filtros entre ellas mismas, al igual que los routers. Dispositivos en distintos medios pueden ser miembros de la misma LAN virtual. Además, los usuarios pueden trasladar las estaciones a cualquier segmento dentro de la subred virtual sin necesidad de reconfigurar la dirección. Las LAN virtuales permiten a los administradores de red agrupar los dispositivos lógicamente, con independencia de la ubicación física, y suministrar a cada uno de ellos ancho de banda y servicios específicos. Los usuarios pueden conectarse a cualquier puerto de la red y la LAN virtual se encarga del resto. Además de gestionar los filtros, las LAN virtuales también proporcionan: * Simplificación de los traslados, adiciones y modificaciones. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 2 4 32 4 24

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII * *

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

Asignación del ancho de banda. Características de seguridad.

3.8.1. Simplificación de los traslados, adiciones y modificaciones Uno de los principales problemas que los administradores de red tienen en las grandes redes que emplean routers es el considerable esfuerzo administrativo requerido para realizar traslados, adiciones y modificaciones. Esto es particularmente cierto en las redes con protocolo Internet (IP), donde cada LAN física se encuentra asociada a una subred lógica. Si un usuario necesita trasladarse de una planta a otra de un edificio, por lo general, la estación de trabajo tiene que ser reconfigurada con una dirección IP válida en la nueva subred. Para gestionar tales traslados, los administradores de las redes existentes han de reconfigurar manualmente los routers. Las LAN virtuales, sin embargo, suprimen la labor manual de resolución y reconfiguración de direcciones. Las LAN virtuales permiten a los administradores de red agrupar los dispositivos de manera lógica independientemente de su localización física, y proporcionar ancho de banda y servicios específicos a cada uno. Si bien las redes, obviamente, requieren de la posibilidad de encaminamiento, a los administradores de red les gustaría evitar tener que reconfigurar manualmente las asignaciones de direcciones de red cada vez que los usuarios se trasladan de un segmento de red a otro. Las redes virtuales les permiten hacer precisamente eso mediante la identificación de la dirección física de un nuevo dispositivo y su asociación con una dirección de nivel de red, basada en una asignación predefinida sin intervención humana en el sistema o en las estaciones. Los usuarios pueden conectarse a cualquier puerto de la red y la LAN virtual realiza el resto.

3.9. Rendimiento Los conmutadores ATM proporcionan una transferencia de datos de alto rendimiento. Al contrario que los routers o conmutadores de paquetes, que se ven forzados a procesar paquetes relativamente grandes y de tamaño variable mediante procesos de software, ATM o los conmutadores de retransmisión de celdas siempre tratan con unidades de datos de tamaño pequeño y uniforme. Esto permite que las funciones básicas de conmutación sean implementadas por hardware. El resultado es un procesamiento y conmutación de células muy rápido y la capacidad de construir grandes redes al mismo tiempo que los retardos de propagación se mantienen aceptables. Esto es crítico para permitir aplicaciones multimedia como vídeo y voz, donde la información es dependiente del tiempo y debe ser transmitida con una latencia baja y regular. 3.10. Tolerancia a fallos En el área de la tolerancia a fallos ATM es una bendición con aspectos positivos y negativos. ATM permite conexiones redundantes, lo que incrementa la tolerancia a fallos y, consecuentemente, la fiabilidad. Sin embargo, para permitir a una red ser lo suficientemente rápida como para admitir tasas de transferencia del orden de multimegabits, ATM no proporciona detección de errores ni retransmisiones, así pues el comprador deber ser precavido.

3.11. Seguridad Como se menciono antes, la naturaleza orientada a conexión de ATM conlleva potenciales ventajas adicionales relacionadas con la seguridad. La utilización explícita de procedimientos de establecimiento de llamada permite que la seguridad sea implementada en función de la llamada en contraposición a la basada en paquete, de manera que los usuarios no tienen acceso automático a otros recursos. La red podría determinar de forma inteligente qué tráfico debería dejar pasar en función de las entidades emisora y destino. Además, es posible implementar la T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 2 5 32 5 25

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

autentificación de usuario que restringe a los usuarios el acceso a la totalidad de los recursos de la red. La naturaleza orientada a conexión de ATM asegura, también, que el tráfico sólo es enviado al destino al que iba dirigido: no existe desperdicio de recursos de la red con innecesarias difusiones ni riesgos en la seguridad. Este protocolo elimina la necesidad de difusiones o filtros en el protocolo para mejorar la eficiencia. 3.11.1. Seguridad y LANs virtuales Las LANs virtuales pueden incrementar la seguridad en las redes ATM. Los administradores pueden utilizar LANs virtuales para definir restricciones de filtrado entre los grupos de dispositivos, proporcionando una elevada seguridad. Los conmutadores ATM, además, ofrecen seguridad al nivel de puerto, al permitir a los administradores restringir las subredes virtuales a determinados puertos físicos.

3.12. El coste de la propiedad Posiblemente, ATM sea la tecnología más cara entre muchas. Los productos ATM tienen un coste relativo superior debido, según todos los indicios, al ensamblado de celdas y a los servicios adicionales. Sin embargo, no sólo los adaptadores y conmutadores ATM son caros, sino que, actualmente, son de propiedad privada. Esto significa que la formación y la experiencia en el producto serán específicas del vendedor. Si se cambia de vendedor, por consiguiente, los costes incluirán, con toda certeza, unos elevados gastos de formación e integración.

44.. EELLLM M O D E L O D E R E F E R E N C A ATTM M MO OD DE EL LO OD DE ER RE EF FE ER RE EN NC CIIIA AA La relación de ATM con el modelo OSI supera al de la mayoría de los protocolos de transporte. Por tanto, para beneficiarse completamente de ATM, así como para integrarlo en las redes existentes basadas en protocolo heredados, las aplicaciones deben desarrollarse de manera que soporte las implicaciones del nivel superior del Modo de Transferencia Asíncrono. ATM tiene su propio modelo de referencia, constituido por tres capas: 1. la capa física, formada por dos subcapas: • la subcapa PMD (Dependiente del Medio Físico, Physical Media Dependent): describe la interfase física con el medio y el tipo de transmisión. Equivale a la capa física del modelo OSI. • la subcapa TC (Convergencia de Transmisión, Transmission Convergence): se encarga de los aspectos independientes del medio de transmisión empleado. Se ocupa de “deshacer” las celdas en bits para pasarlos a la subcapa PMD en el envío, y de recibir los bits de la subcapa PMD para reconstruir las celdas en la recepción. Si consideramos la celda como equivalente a la trama en el modelo OSI esta subcapa haría la función de la capa de enlace. Por este motivo se estudia la subcapa TC en la capa de enlace. 2. la capa ATM, que trata de la estructura de las celdas y su transporte. También realiza las tareas de señalización, es decir establece y termina los circuitos virtuales, y realiza el control de congestión. Sus funciones son una mezcla de la capa de enlace y la capa de red en el modelo OSI. Lo tratado hasta ahora son operaciones que tienen lugar en esta capa. Si ATM fuera como otros protocolos, estos serían los únicos niveles afectados por ATM y la descripción podría acabar aquí. Sin embargo, para asegurar los niveles de servicio a las estaciones o aplicaciones mediante ancho de banda dedicado, así como para integrar redes de otros protocolos de transporte en la red ATM, es necesario explorar el nivel superior siguiente del modelo de referencia ATM. Se recoge en las recomendaciones 1.150 e 1.361. 3. la capa de adaptación ATM (capa AAL o ATM Adaptation Layer), se sitúa sobre la capa ATM. En esta capa es donde ATM convierte el tráfico de usuario procedente de las aplicaciones en formato ATM y donde proporciona el soporte para las aplicaciones orientadas a conexión y no orientadas a conexión, las aplicaciones de tasa de bit variable (como X.25 y el tráfico LAN, respectivamente), además de las T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 2 6 32 6 26

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

aplicaciones de tasa de bit constante (como vídeo y multimedia). Se recoge en las recomendaciones I.362 e I.363. En este nivel es donde se registra una mayor actividad de estandarización, estando dividido en cuatro/cinco clases, en función de las características del tráfico. La capa de adaptación ATM está compuesta por dos subcapas: • la inferior, denominada subcapa SAR (Segmentación y Reensamble, Segmentation And Reassembly): antes de que la aplicación transmita los datos a través de una red ATM, la SAR segmenta los datos en celdas de datos ATM de 48 bytes. Una vez que las celdas ATM alcanzan su destino, la SAR reensambla las celdas en datos de nivel superior y transmite estos datos a sus dispositivos locales correspondientes. • la subcapa CS (Subcapa de Convergencia, Convergence Sublayer) se ocupa de suministrar distintos tipos de servicio adecuados al tipo de tráfico (vídeo, audio, datos. etc.) y permitir la retransmisión del mismo a través de la misma infraestructura de conmutación. La capa AAL corresponde en sus funciones a la capa de transporte del modelo OSI. Obviamente, las operaciones y funciones realizadas por la CS varían en función del tipo y formato de los datos recibidos. Observe que en el modelo de referencia ATM no se habla de aplicaciones. En realidad el modelo contempla la existencia de capas por encima de la capa AAL, pero no se especifican sus funciones ni características. El modelo deja total libertad a los implementadores sobre como diseñar las aplicaciones que funcionen sobre ATM. Actualmente el principal uso de ATM es como medio de transporte para otros protocolos; hay muy pocas aplicaciones que hayan sido diseñadas para funcionar de manera nativa, es decir, directamente sobre la capa AAL. AAL-5: Puesto que ATM puede transportar múltiples tipos de tráficos, en la Subcapa de Adaptación existen varios protocolos de adaptación, todos ellos funcionando simultáneamente. Por ejemplo, las redes de área local utilizan, con frecuencia, el protocolo de adaptación AAL-5, diseñado específicamente para tratar este tipo de tráfico de datos de velocidad variable. En la Subcapa de Convergencia AAL-5, se añade un campo de 8 bytes (incluyendo la longitud de los datos y una suma de verificación de detección de errores) a una trama (o bloque) de información de usuario (hasta 64 KB de longitud) procedente de la aplicación de nivel superior. A continuación, la subcapa de segmentación y reensamblado fragmenta la trama AAL-5 en un flujo de celdas de datos de 48 bytes y las envía a su destino. En la estación receptora, la SAR reensambla las celdas en tramas y la CS las procesa, eliminado, entonces, el campo de 8 bytes correspondiente a la longitud de los datos y a la suma de verificación de detección de errores. A continuación se pasa la trama al protocolo del nivel superior. AAL-5 es la base de la emulación LAN, una tecnología clave en la integración y migración a ATM.

4.1. Distinción entre STM y ATM y las jerarquías digitales La principal distinción con el Modo de Transferencia Síncrono (STM) consiste en la existencia de una cabecera en la celda, conteniendo información para establecer la ruta (ver gráfico de la celda ATM). Con STM, bien usando la PDH o SDH (Jerarquía Digital Plesiócrona o Síncrona), la capacidad de transmisión de un determinado enlace se divide en tramas (PDH) o en contenedores virtuales (SDH). A cada canal individual se le asigna una localización específica (time slot) dentro de la trama y la información del mismo se transporta en este time slot. El direccionamiento está implícito en la localización del time slot dentro de la estructura de multiplexación. En contraste, con la tecnología ATM, al igual que sucede con otros modos orientados a paquetes como X.25 o Frame Relay, se considera a los enlaces como un medio en el que las celdas pueden ser insertadas cada vez que se requiere. Como modo portador para ATM, aunque puede usarse con PDH, sólo SDH (VC4 a 155 Mbit/s es el modo preferido, aunque están definidos otros contenedores a menor velocidad) ofrece la flexibilidad y el rendimiento adecuado para manejar tanto ATM como otro tipo de tráfico con eficiencia. ATM sobre SDH representa la convergencia de la conmutación y transporte, proporcionando una vía adecuada de migración y la independencia para soportar los servicios futuros, tal como son los multimedia. Cada celda contiene información específica de dirección en su cabecera, por lo que pueden viajar en cualquier orden por el enlace, permitiendo la multiplexación estadística de varios canales ATM sobre el mismo. Sólo la capacidad del enlace y los procedimientos de asignación de ancho de banda limitan los bit/s que pueden ser asignados a un canal ATM. Un conmutador ATM no lleva a cabo ningún tipo de detección de errores sobre las celdas, por lo que el paso de las mismas a través de ellos es sumamente rápido, evitando al máximo la necesidad de disponer de buffers de almacenamiento, cuestión fundamental para aplicaciones como voz o vídeo.

4.2. Aspectos de la migración a ATM La instalación de ATM probablemente requería algunos cambios drásticos en el diseño y equipos de la red. Los conceptos y reglas de ATM son muy diferentes a los utilizados en 1a mayoría de los protocolos LAN y WAN. Por ejemplo, casi todos los protocolos LAN son, por naturaleza, no orientados a conexión y, por tanto, entran T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 2 7 32 27 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

en conflicto en un nivel muy básico con el protocolo orientado a conexión de ATM. Otro ejemplo es el direccionamiento. Puesto que el objetivo último de ATM es el de ofrecerse como una red pública de área extensa, se requieren tamaños de direcciones grandes para acomodarse a los millones de potenciales dispositivos en una red ATM pública. Como resultado, tendrá que desarrollarse un plan para resolver el conflicto entre las direcciones más reducidas de LAN y las direcciones grandes de ATM. Existe también un problema con los estándares y la interoperabilidad: productos ATM de diferentes vendedores no interoperan entre sí y las LAN ATM sólo tienen una capacidad limitada de interoperabilidad con otros protocolos de LAN. El establecimiento de la conexión y otros aspectos son un obstáculo en la interconexión de ATM y las LAN existentes. El conocimiento de los aspectos a considerar y el de las preguntas a realizar ayudaran a asegurar la toma de la decisión correcta, tanto para el presente como para el futuro. Por tanto, cualquier integración y/o migración desde las redes de protocolos heredados al entorno de conmutación, dedicado y orientado a conexión de ATM requerirá una planificación y ejecución cuidadosa. 4.2.1. Especificaciones de interfaces incompletas Mientras que la interfase de usuario-red (UNI) es una especificación razonablemente bien establecida y estable, el ATM Forum debe describir y normalizar algunas otras interfaces para asegurar la interoperabilidad de las redes ATM. La interfase de red-red para redes privadas, o P-NNI, es una de esas interfaces críticas. La P-NNI, todavía inestable y propietaria, trata: * El establecimiento de la conexión virtual. * El control de congestión. * La gestión de la topología. * Sin una P-NNI estable, los vendedores no pueden desarrollar equipamiento ATM interoperable.

55.. EEM M U L A C Ó N D E LA AN N ((LLA AN N--EE)) MU UL LA AC CIIIÓ ÓN ND DE EL El mayor obstáculo para la aceptación global de ATM en las principales LAN es la integración de los protocolos existentes como Ethernet, Token Ring y FDDI. A1 ser ATM un protocolo punto a punto, orientado a conexión, no soporta de manera natural la forma de funcionamiento de los protocolos de LAN heredados. La base instalada de Ethernet no va a desaparecer pronto. De hecho, continuará creciendo durante algún tiempo, especialmente por su muy bajo coste, el nivel de estandarización, las nuevas extensiones de la tecnología, como los productos Ethernet conmutados y la enorme base instalada. Obviamente, por tanto, sin un plan de integración para esta gran base instalada, ATM permanecerá como un nicho tecnológico sólo al alcance de los bolsillos de algunos usuarios finales de alto nivel. Nota: hoy en día existen aproximadamente alrededor de 40 millones de nodos Ethernet instalados, y cerca de 10 millones de nuevos nodos se contratan cada año. La emulación de LAN para ATM es la tecnología de migración que permite a las estaciones de usuario final ejecutar las aplicaciones existentes (incluso aquellas que requieren de características únicas del protocolo heredado) adaptarse a los servicios ATM. La emulación de LAN es un programa que emula, el modo de operación convencional de la red de área local. Proporciona una especie de puente entre los protocolos heredados y los segmentos ATM. La emulación de LAN es engañosa porque ATM, en muchos sentidos, es muy diferente de los protocolos de transporte de LAN habituales como los de Ethernet y Token Ring. Por ejemplo, como se ha indicado, ATM es orientado a conexión, mientras que Ethernet y Token Ring son no orientados a conexión, lo que significa que los paquetes llegan a todas las estaciones de la red y son aceptados sólo por la estación a la que van dirigidos. También, las estaciones ATM tendrán que admitir las operaciones de difusión y multidifusión que son tan habituales en Ethernet y Token Ring. Además, ATM emplea un esquema de direccionamiento de 20 bytes mientras que Token Ring y Ethernet utilizan ambos direcciones MAC de 48 bits. Por consiguiente, la emulación de LAN tiene que resolver las diferencias en las direcciones MAC y ATM.

5.1. Modo de operación LAN-E Existen muchos aspectos que dificultan la implementación de la emulación de LAN. Entre ellos se encuentran: 1. Resolución de direcciones. 2. Compatibilidad con difusión y multidifusión. 3. Velocidad: con el objeto de proporcionar el rendimiento necesario para una conexión satisfactoria entre las redes existentes y ATM, los dispositivos de emulación de LAN deben realizar una total conversión y conmutación a alta velocidad. 4. Establecimiento de la conexión: como se dijo, ATM es un servicio de transporte orientado a conexión. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 2 8 32 8 28

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

Los protocolos heredados, por otra parte, son no orientados a conexión, lo que implica que envían paquetes al medio, conteniendo la dirección completa de la estación sin establecer primero una conexión con la estación receptora. La estación receptora supervisa todos los paquetes que se encuentran en el medio y acepta aquellos dirigidos a ella. Con sólo 5 bytes de cabecera, una celda no puede transportar la dirección de destino completa de cada celda. Por tanto, el mayor reto es adaptar los protocolos de nivel de red existentes que requieren de la dirección de destino completa a la conmutación de celdas orientada a conexión de ATM. La Interfase Usuario-Red de la Emulación LAN (LAN Emulation User-toNetwork Interface, LUNI) se desarrolló con el propósito de solucionar el tema de la interoperabilidad. Los protocolos LUNI permiten a la red ATM y a sus dispositivos conversores (edge devices) controlar lar conexiones virtuales necesarias para la transmisión y emular la naturaleza no orientada a conexión de una LAN. 5.1.1. Dispositivos encaminadores-conversores ATM (ATM Edge-Routing Devices) Los dispositivos encaminadores / conversores ATM convierten los paquetes procedentes de una LAN Ethernet o Token Ring a la estructura de celda de una red ATM y viceversa. Para incorporar el tráfico a la red ATM, los dispositivos situados en el límite (edge), de la red convierten los flujos de tráfico no ATM en celdas. La inclusión de nuevos tipos de tráfico sólo requiere de un nuevo dispositivo conversor, ubicado donde exista demanda para ese tráfico. El encaminador / conversor ATM constituye una divergencia radical respecto a los encaminadores convencionales (routers). Los encaminadores convencionales son productos basados en multiprocesadores simétricos diseñados para tratar una carga balanceada de tráfico entrante y saliente. Cada CPU se dedica a una función, ya sea cálculo y gestión de la ruta, establecimiento y administración de la conexión ATM o reenvío de datos. Los encaminadores conversores, por otra parte, tienen un diseño asimétrico para crear una estructura de pequeños encaminadores modulares que puedan expandirse indefinidamente mediante el aprovechamiento del enorme ancho de banda y redundancia de una red troncal ATM altamente interconectada. Los encaminadores / conversores están también diseñados para resolver un problema de los encaminadores convencionales: la latencia media del router multiprotocolo es relativamente alta (varía desde cientos a miles de microsegundos). Además, la latencia es también impredecible. Sin embargo, los encaminadores conversores se encuentran diseñados para latencias determinísticas de 50 microsegundos por dispositivo. Este rendimiento es un buen resultado para las latencias ATM que, por lo general, se miden en decenas de microsegundos, las cuales, a su vez, son un buen objetivo para los datos sensibles al retardo, como la voz y el vídeo. 5.1.2. Visión general de la emulación LAN La emulación LAN es una colección de servicios que realizan la conversión entre los protocolos de nivel superior de los servicios de protocolo no orientado a conexión y los protocolos ATM orientados a conexión de nivel inferior, como muestra la figura. La capa AAL, situada sobre la capa ATM, da formato a los datos dentro de la carga útil de 48 bytes de la celda ATM, proceso conocido como segmentación. Una vez las celdas ATM llegan a su destino, son reconstruidas, formando los datos de nivel superior y transmitidas al correspondiente dispositivo local en un proceso conocido como reensamblado. Puesto que ATM puede transportar múltiples tipos de tráfico, en la capa de adaptación existen varios protocolos de adaptación, cada uno de ellos funcionando simultáneamente. La emulación LAN se basa en el protocolo de adaptación AAL-5. La emulación LAN se ubica sobre AAL-5 en la jerarquía de protocolos. En el convertidor ATM a LAN situado en el extremo de la red, la emulación LAN resuelve los problemas de interconexión de datos para todos los protocolos (encaminables y no encaminables) mediante la resolución de las direcciones LAN y ATM en el nivel MAC. La emulación LAN es totalmente independiente de los protocolos, servicios y aplicaciones de niveles superiores. Debido a que la emulación de LAN se produce en los dispositivos conversores y en los sistemas finales, es enteramente transparente a la red ATM y a los dispositivos host Ethernet y Token Ring. 5.1.3. Funcionamiento de la emulación LAN T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 2 9 32 9 29

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

La siguiente figura muestra el funcionamiento de la emulación de LAN en una red de área local heredada. Las PC en un entorno Ethernet acceden a los servidores con interfaces nativas ATM a través de un conmutador LAN/ATM. Puesto que la emulación de LAN hace que ATM parezca como una LAN clásica, las técnicas estándares de conexión permiten al conmutador LAN/ATM proporcionar conectividad independiente del protocolo. No se requieren cambios en las PC existentes, aunque estas experimentan un incremento del rendimiento debido a la alta capacidad de entrada / salida del servidor, posible gracias a la interfase ATM de alta velocidad. Además, las PC se benefician del ancho de banda dedicado suministrado por la implementación de LAN conmutada. 5.1.4. Múltiples emulaciones de LAN El estándar de emulación LAN del ATM Forum permite también la implementación de múltiples emulaciones de LAN dentro de una única red ATM. La implementación de la emulación de LAN se realiza a través de un modelo cliente/servidor. El funcionamiento es el siguiente: un cliente de la emulación de LAN, como el software de una estación de trabajo, resuelve las direcciones MAC en direcciones ATM. Cada cliente se conecta al servidor mediante una conexión virtual. Únicamente aquellos clientes conectados al mismo servidor pueden conocerse entre sí y comunicarse directamente. La segmentación lógica de la red a través de varias funciones de servidor (que pueden ser dispositivos independientes, software residente en sistemas finales o módulos de conmutación ATM) permite la existencia simultánea de múltiples emulaciones de LAN en la misma red física. La figura muestra la visión física y lógica de la emulación de LAN. Desde el punto de vista físico, el encaminador ejecuta dos clientes de la emulación de LAN (A2 para el departamento de contabilidad y M2 para el departamento de fabricación). Cada servidor departamental mantiene la pista de sus clientes a través de una base de datos local. Cuando el usuario A1 del departamento de contabilidad envía un paquete al usuario M1 del departamento de fabricación, el servidor del departamento de contabilidad busca en la base de datos su correspondencia. A1 no encontrarla, asocia la dirección MAC al encaminador (A2/M2), quien retransmite el paquete al servidor del departamento de fabricación para su envío a M1. La visión lógica simula la disposición física de las LAN actuales y es consistente con el objetivo de la emulación de LAN. Los clientes departamentales se comunican directamente entre sí, directamente con los servidores e indirectamente con los otros departamentos a través del encaminador de la red.

5.2. Emulación LAN y LAN virtuales conmutadas Actualmente existen productos disponibles, que permiten a los administradores de red definir múltiples emulaciones de LAN. Cuando varias emulaciones de LAN diferentes se comunican a través de uno o más conmutadores en una red ATM, el resultado es una LAN Virtual Conmutada. La gestión de las LAN virtuales puede ser difícil porque no es suficiente con la gestión de la conectividad física. Hay que ser capaz de supervisar y gestionar la interconexión lógica a través de la LAN. Con las LAN virtuales conmutadas, el encaminamiento ya no es un cuello de botella, sino una función lógica de procesamiento que puede ser gobernada eficientemente por los conmutadores ATM. Las emulaciones de LAN virtuales conmutadas ofrecen los mismos beneficios que las LAN virtuales T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 3 0 33 30 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII típicas: * * * *

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

Traslados, adiciones y modificaciones simplificados. Seguridad en grupos de trabajo. Cortafuegos contra las tormentas de difusiones. Control de flujo para mejorar la utilización del ancho de banda de la red.

Ofrece estos servicios sin la necesidad de comprar nuevos equipos ni de modificar los segmentos de red. Los administradores de red pueden gestionar los segmentos simplemente con redefinir los grupos en el sistema de administración de la red y/o reconfigurar el software en los dispositivos finales y/o conmutador ATM.

5.3. Aspectos de encaminamiento Aunque la emulación LAN en ATM simplifica en gran medida la creación de grupos de trabajo virtuales, no cambia el papel de los encaminadores (routers) en las LAN virtuales. Los encaminadores (en este caso routers de capa 3 y no switches de capa 2) son todavía necesarios para gestionar las difusiones y la resolución de direcciones, como ilustra la figura. A medida que la red evoluciona hacia enlaces troncales de mayor velocidad, el encaminador debe procesar el tráfico procedente de esos enlaces a gran velocidad para evitar la creación de un cuello de botella. 5.3.1. ATM y encaminadores convencionales (routers) Aunque actualmente algunos encaminadores de última tecnología tienen interfaces ATM diseñadas para retransmitir paquetes a velocidad ATM de 155 Mbps, los encaminadores convencionales o routers simplemente no están diseñados para beneficiarse completamente de las posibilidades de rendimiento de ATM. Hoy en día, los routers están optimizados para una carga balanceada de trafico entrante y saliente a través de un número de interfaces, al contrario que los encaminadores conversores ATM que se han descrito anteriormente. Una arquitectura de LAN ATM escalable utiliza de manera distribuida todas las funciones de un encaminador. Esto permite a la función de encaminamiento crecer escalonadamente (conjuntamente con la red ATM). La arquitectura distribuida de un router separa las funciones de retransmisión de paquetes de las funciones de encaminamiento. Las funciones de encaminamiento consumen gran capacidad de procesamiento, pero son relativamente infrecuentes. Las funciones de retransmisión de paquetes, por otra parte, requieren poco procesamiento pero sí un alto rendimiento. En un encaminador distribuido, los dispositivos de acceso a la red realizan las funciones de retransmisión de paquetes, como muestra la figura. Los conmutadores ATM están diseñados para realizar muchas de las funciones que ejecutan los routers, seleccionar la ruta óptima en la red, proporcionar una interfase LAN y WAN eficiente, y suministrar seguridad interna, control de flujo y gestión del ancho de banda. Como resultado, los routers están evolucionando hacia los dispositivos conversores con la función principal de conectar múltiples LAN al conmutador ATM. La manera más sencilla que tiene un encaminador para utilizar ATM es emplear PVC a través de la infraestructura de conmutación. Pero esto invalida dos de los puntos más fuertes de ATM: la conexión y la asignación de ancho de banda dinámicas. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 3 1 33 31 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

5.3.2. Encaminadores virtuales ATM Aunque actualmente los encaminadores / conversores son los encaminadores preferidos entre los vendedores ATM, gran parte de la industria está comenzando a hablar de un nuevo tipo de encaminador ATM denominado encaminador virtual. Un encaminador virtual funciona de manera muy diferente a como lo hace un encaminador / conversor. Combina un servidor de encaminamiento central y un número de conmutadores multinivel (dispositivos basados en hardware que son casi tan rápidos como un conmutador convencional, pero más inteligentes) que enlazan las LAN existentes. La idea que reside tras esta arquitectura virtual reconoce que los encaminadores convencionales (routers) constituyen un cuello de botella porque, como se mencionó previamente, calculan las rutas en función de cada uno de los paquetes. En un encaminador virtual, por otra parte, se logra la interconexión LAN mediante el conmutador multinivel. El conmutador multinivel retransmite en función de los campos MAC o de nivel de red del paquete. No se encarga de hallar la ruta o de las actualizaciones de la topología. El servidor de encaminamiento realiza estas funciones. A cada puerto del conmutador multinivel se le puede asignar su propia dirección de subred, como en un router (encaminador convencional). También, como en el caso de un encaminador / conversor, varios puertos pueden compartir la misma dirección de subred. El servidor de encaminamiento ejecuta los protocolos de encaminamiento y mantiene una imagen de la topología de ATM y de las redes interconectadas. El servidor de encaminamiento puede actuar, incluso, como servidor de difusiones y resolver consultas sobre direcciones. En lo que respeta a las estaciones finales, el encaminador virtual realiza todas las funciones de un encaminador físico: procesamiento del protocolo, conexión, encaminamiento y filtrado. 5.3.3. Líneas de producto incompletas Las líneas de producto incompletas son, probablemente, el problema más grande y temido asociado con la migración a una red ATM. Muchos vendedores tiene una línea de producto ATM, pero muy pocos vendedores ofrecen una gama completa desde adaptadores de red hasta conmutadores troncales. Actualmente, pocos vendedores pueden ofrecer una completa red ATM que comprenda todos los conceptos, por tanto será necesario mezclar y emparejar productos de diferentes vendedores. Dada la naturaleza propietaria de ATM y la consiguiente carencia de compatibilidad entre productos ATM, la interoperabilidad es esencialmente imposible. La falta de una adecuada planificación detallada para la arquitectura ATM por parte de los vendedores es el principal obstáculo. 5.3.4. Dificultades en la formación Muchas de las estrategias ATM de los vendedores son altamente complejas y exigen a los usuarios ser expertos en las líneas de producto de múltiples vendedores. Dado que estos productos son propietarios, la formación sobre el conmutador ATM o la tecnología de emulación de LAN de uno de los vendedores no garantiza un conocimiento aplicable a los productos ATM de otro vendedor. Además, el ATM Forum se halla todavía en el proceso de desarrollo de muchas de las especificaciones necesarias para implementar la interoperabilidad entre redes ATM, por consiguiente no es posible una formación sólida en estas interfaces porque la información simplemente no se encuentra disponible.

66.. IINNNTTTRRRO O D U C C Ó N G R A D U A L OD DU UC CC CIIIÓ ÓN NG GR RA AD DU UA AL L Actualmente ATM es una tecnología muy cara, por tanto su utilización generalizada en toda la red probablemente sea prohibitiva. Adicionalmente, la mayoría de los segmentos no necesitan su ancho de banda de 155 Mbps a 622 Mbps. Por tanto, la migración hacía una red basada en conmutación debe considerarse como un proceso, una serie de pasos progresivos a medida que paulatinamente se introducen nuevas tecnologías. Así pues, la implantación debe planificarse por fases: primero los enlaces troncales (especialmente en los campus), segmentos de vídeo e incluso el tráfico de voz sobre troncales procedente de las PBX. La transición a ATM debe tener en cuenta la consideración de los conjuntos de protocolos tanto en las ubicaciones especificas como en la totalidad de la empresa. En algunos casos, inicialmente, ATM se encontrará limitado a unas pocas estaciones de trabajo conectadas directamente, mientras que el resto se beneficiará del empleo de ATM en la red troncal, permitiendo accesos a alta velocidad a los recursos compartidos como servidores. Esto implica que será importante el acceso de las redes heredadas a ATM. El enfoque progresivo de la migración a ATM combina lo mejor de varias tecnologías mediante la mejora de las inversiones en las redes existentes en tres sentidos: • La utilización de ATM alarga la vida de los equipos de red instalados al incrementar el rendimiento. • ATM, combinado con posibilidades como la emulación de LAN, mejora la gestión y las operaciones de red al permitir configuraciones de red virtuales. • Las actualizaciones incrementales minimizan los riesgos técnicos y de inversión mientras la tecnología ATM madura.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 3 2 33 32 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

Las figura muestra una forma de cómo empezar a introducir gradualmente ATM. Se comienza con la implementación de un switch ATM como troncal, luego la red progresará con el objetivo de añadir segmentos ATM de trabajo en grupo, utilizando la emulación de LAN para permitir a todos los usuarios de la red comunicarse entre sí, y finalmente se tendrá un único encaminador de alto rendimiento conectando múltiples segmentos en una red lógica. 6.1.1. Aspectos de la migración de los equipos de escritorio Aunque por lo general se considera a ATM principalmente una solución troncal, hoy en día la mayoría de las redes ATM son grupos de trabajo en los que las estaciones de trabajo y servidores se conectan directamente a un conmutador ATM. A pesar de que los grupos de trabajos son usualmente de tamaño reducido y geográficamente centralizados, simplificando de esta manera la implementación, existen todavía varios aspectos a considerar: * El medio: revisar la infraestructura de red existente. La mayoría de los productos ATM actuales emplean fibra multimodo y par trenzado no apantallado Categoría 5 de cobre a velocidades que varían entre 25 Mbps y 155 Mbps. Debido a las características de atenuación del cobre, la distancia máxima para el cable de Categoría 5 es, habitualmente, de 100 metros. La fibra multimodo, por otra parte, tiene una longitud de cable máxima de 2.000 metros. Hay que asegurarse que la planificación del cableado satisface estos requerimientos. * Aplicaciones: ¿ pueden las aplicaciones existentes funcionar en una red ATM ? Generalmente, este no es problema puesto que ATM es un protocolo de nivel inferior. En la mayoría de los casos estas aplicaciones se basan en TCP/IP, PC, Novell NetWare o Microsoft Windows. Sin embargo, ¿las aplicaciones que van a utilizarse se encuentran optimizadas para beneficiarse de las posibilidades de ancho de banda dedicado y de la prioridad en los datos de ATM?. Para obtener un beneficio completo de ATM deben elegirse, siempre que sea posible, aplicaciones que admitan estas características. * Compatibilidad entre sistemas: en un grupo de trabajo ATM, cada estación de trabajo debe tener una tarjeta de interfase de red ATM. La NIC ATM debe ser compatible con el tipo de bus de la estación de trabajo, así como con la estación de trabajo y los sistemas operativos de red. Es importante que la NIC haya sido verificada tanto con el tipo de estación de trabajo como con el tipo de conmutadores ATM que se estén empleando. 6.1.2. Aspectos de la integración WAN Aunque a menudo se puede integrar ATM con redes WANs sin tener que reemplazar ningún equipo, se necesitará algún equipamiento adicional, un conocimiento completo de las interfaces ATM aplicables y una planificación detallada. Existen cuatro protocolos básicos necesarios para una interconexión con éxito en un WAN. Estos son: 1. Interfase pública usuario-red (User to Network Interface, UNI): el protocolo UNI de ATM proporciona múltiples clases de servicio y la reserva del ancho de banda durante el establecimiento de la llamada de una conexión virtual conmutada. UNI define la interoperabilidad entre el equipo de usuario y el puerto del conmutador ATM. Una UNI pública define la interfase con la red ATM pública y, por lo general, admite una interfase SONET o DS-3. 2. Interfase pública red-red (Network-to-Network Interface, NNI): el protocolo NNI, proporciona arbitraje de la conexión virtual, control de congestión y gestión de la topología para las conexiones a redes privadas o públicas ATM. 3. Interfase de interconexión (Intercarrier Interface, ICI): define los mecanismos de interconexión en las redes ATM de área extensa. 4. Interfase de intercambio de datos (Data Exchange Interface, DXI): proporciona una interfase estándar ATM para los equipos heredados. Permite encaminamiento en ATM porque el DXI se basa en paquetes en vez de en celdas. Utiliza el formato de trama HDLC, de manera que, al contrario que las interfaces basados en celdas, no necesita hardware adicional para transmitir el tráfico basado en paquetes. Por tanto, es el protocolo que permite conectarse con una red ATM existente. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 3 3 33 33 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

Para ilustrar como cada uno de estas interfaces afectan a la implementación de una red ATM, obsérvese la red de la figura siguiente. Ésta muestra como una red troncal WAN ATM debería integrase con una red existente, FDDI y 10BaseT. FDDI tiene un ancho de banda total de 100 Mbps compartido por todos los dispositivos conectados. El conmutador ATM de WAN de la figura tiene ocho puertos, cada uno de ellos de 155 Mbps. Puesto que aquellos 155 Mbps se dedican a cada uno de los dispositivos conectados, el ancho de banda total es 8 por 155 Mbps o, aproximadamente, 1,2 Gbps. Se ha instalado una UNI ATM en el encaminador FDDI y en el conmutador 10BaseT, de manera que ambos dispositivos puedan conectarse al conmutador ATM. La conexión WAN al conmutador ATM se realiza a través de una DXI a un multiplexor de servicios, generalmente un CSU/DSU especial. Gracias a la DXI, el multiplexor de servicios, además de multiplexar el tráfico en el enlace de área extensa, realiza la segmentación y reensamblado correspondiente a la capa de adaptación ATM, permitiendo a dispositivos no ATM acceder a la red ATM sin reemplazar el hardware. 6.1.3. Otros aspectos a considerar La implementación de un enlace troncal con ATM conlleva muchos de los aspectos y preocupaciones comunes a otros protocolos. Algunos de estos son: • Seguridad • Tolerancia a fallos • Requerimientos de ancho de banda • Sistemas de administración. 6.1.4. Disponibilidad de suministradores de servicios ATM Uno de los grandes desafíos que se encuentran ante la implementación de una red ATM WAN es el de encontrar un proveedor de servicios que ofrezca tanto ATM como un precio razonable. Aunque la mayoría de los proveedores de servicios digitales ofrecen ATM, éste no se encuentra todavía lo suficientemente extendido debido a la carencia de una demanda fuerte y generalizada. Debe disponerse de los contratos de los proveedores de servicios para asegurarse tanto de la disponibilidad como del precio, aunque obtener un contrato puede requerir algo de persistencia y habilidades de negociación. Los proveedores de servicios habituales reconocen que ATM es definitivamente el futuro de la comunicación en la red WAN. Entienden que ATM suprime las barreras entre LAN y WAN, que son: • El descenso del rendimiento entre protocolos LAN y protocolos de redes públicas. • Retardos producidos por dispositivos de conexión WAN basados en el mecanismo de almacenar y retransmitir, como los encaminadores. Sin embargo, no todos los proveedores de servicios de comunicación local (LEC) ni los proveedores de servicios de comunicación de larga distancia (IXC) han instalado redes digitales ATM/SONET integradas para ofrecer servicios económicos de red de datos privada virtual. Cuando lo hagan, es de suponer que harán recaer los elevados gastos de instalación de estas nuevas redes en los consumidores. Las buenas noticias son que ATM transporta más tráfico a un coste reducido, lo que igualmente permitirá un ahorro para el consumidor. Pero esto puede que se encuentre bastante lejano en el tiempo, por consiguiente es preciso prepararse para los elevados gastos del servicio ATM en la WAN.

77.. A M E ATTM M,, X X..2255 YYYFFRRRAAAM REEELLLAAAYYY ME ER T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 3 4 33 34 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

En cierto sentido ATM puede verse como una evolución de Frame Relay. La principal diferencia es que los paquetes ATM tienen una longitud fija de 53 bytes (5 de cabecera y 48 de datos) frente al tamaño variable y mucho mayor de las tramas Frame Relay. Debido a su tamaño pequeño y constante los paquetes ATM se denominan celdas (cell), y por esto en ocasiones a ATM se le denomina Cell Relay (retransmisión de celdas). Manejar celdas de un tamaño tan reducido tiene la ventaja de que permite responder con mucha rapidez a tráfico de alta prioridad que pueda llegar inesperadamente mientras se están transmitiendo otro menos urgente, algo muy importante en tráfico multimedia. El hecho de que todas las celdas sean del mismo tamaño simplifica el proceso en los nodos intermedios, cuestión esencial cuando se quiere que dicho proceso sea lo más rápido posible. En el lado negativo está el hecho de que la eficiencia de una conexión ATM nunca puede superar el 90% (48/53) debido a la información de cabecera que viaja en cada celda. Al igual que en X.25 o Frame Relay, una red ATM se constituye mediante conmutadores ATM normalmente interconectados por líneas dedicadas, y equipos de usuario conectados a los conmutadores. Mientras que en X.25 o Frame Relay se utilizan velocidades de 64 Kbps a 2 Mbps, en ATM las velocidades pueden llegar a 155,52 Mbps, 622,08 Mbps o incluso superiores. La elección de precisamente estos valores se debe a que son los que se utilizan en el nuevo sistema de transmisión sobre fibra óptica en redes WAN denominado SONET/SDH (Synchronous Optical NETwork/Synchronous Digital Hierarchy), que es el que están utilizando las compañías telefónicas actualmente en las infraestructuras. ATM también puede utilizarse a velocidades inferiores, 34 Mbps e incluso 2 Mbps. Dos equipos conectados a una red ATM pueden establecer entre si un circuito virtual, permanente o conmutado, y transmitir por él información digital de cualquier tipo. ATM da al usuario muchas mas facilidades que X.25 o Frame Relay para controlar las características de su circuito virtual: se puede fijar un ancho de banda máximo permitido, un margen de tolerancia sobre dicho máximo, un ancho de banda mínimo garantizado, un ancho de banda asimétrico, un perfil horario de forma que el ancho de banda fluctúe con la hora del día de una forma preestablecida, etc. Además es posible definir prioridades y distintos tipos de tráfico, de forma que se prefiera fiabilidad o rapidez, tráfico constante o a ráfagas, etc. 7.1.1. ATM y voz Aunque algunos apuntan el hecho de que ATM es adecuado para transportar tráfico de voz, se ha progresado escasamente en desarrollar la tecnología ATM para voz. Actualmente, ATM no dispone de un protocolo para la capa de adaptación ATM optimizado para tratamiento de tráfico de voz. Los protocolos AAL existentes gestionan el tráfico de voz de manera muy ineficiente, debido a esto, las redes T1/T3 estándares basadas en multiplexación TDM pueden transportar muchas más conexiones de voz que la redes ATM T1/T3. Por consiguiente, a menos que el presupuesto permita una costosa actualización a SONET (y una vez que se tiene SONET, las interfaces de voz convencionales proporcionan tanto ancho de banda, que probablemente no será necesario considerar ATM), es mejor alejarse de la idea de implementar ATM para voz.

88.. FFUUUTTTUUURRRO O D E ATTM M OD DE EA Probablemente ATM sea el acrónimo que este mas de moda en el mundo de las telecomunicaciones actualmente. Prácticamente cualquier revista del área incluye uno o varios artículos sobre algún aspecto de ATM o tema relacionado. En los últimos años hubo bastante debate sobre si ATM se consolidaría o no como la tecnología de red del futuro, cosa que hoy en día ya pocos ponen en duda. Una de las razones que ha hecho prosperar a ATM es que las compañías telefónicas han visto en esta red su oportunidad para competir con los servicios que ofrecen las compañías de televisión por cable. Aunque seguirán durante mucho tiempo ofreciéndose todos los tipos de servicios que hemos visto anteriormente, es muy probable que en unos años la infraestructura básica de las compañías telefónicas esté formada por conmutadores ATM unidos mediante enlaces SONET/SDH; y todos los demás servicios utilicen esta red como medio de transporte (de forma análoga a como X.25 puede utilizar Frame Relay). Existen aun muy pocas experiencias de servicios públicos ATM; una de las mayores se ha puesto en marcha en Finlandia, país que se encuentra a la cabeza de Europa en muchos aspectos de telecomunicaciones. Estos servicios están orientados a clientes con grandes necesidades de transmisión de datos multimedia; solo se permite la constitución de PVCs; las velocidades de acceso van de 512 Kbps a 155 Mbps. Este servicio puede ser una alternativa interesante a las líneas dedicadas de alta velocidad, ya que además de su precio más interesante permiten contratar servicios de acuerdo a horarios preestablecidos, por ejemplo un periódico que necesita transmitir todos los días un circuito de 4 Mbps entre sus dos oficinas principales de 1 a 2 de la mañana para transmitir la edición del día siguiente. Curiosamente uno de los campos donde ATM ha encontrado más éxito es como base para constituir redes locales de alta velocidad. Existen hoy en día equipos en el mercado que permiten interconectar redes locales tradicionales (Ethernet, Token Ring, FDDI) a través de conmutadores ATM, pudiendo conectar directamente a ATM a 155 Mbps los servidores más importantes; de esta forma se consiguen prestaciones y funcionalidades mejores que las de cualquier red local actual. Esta por ver si las redes locales de alta velocidad del futuro se basarán en ATM, pero no hay duda de que esta tecnología WAN tiene un papel que jugar también en la LAN. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 3 5 33 35 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X O CAAAPPPIIITTTUUULLLO OX XIIIIIIIII

R R D S B A T M O A D B A N D Y RD DS SIII---B BRRRO OA AD DB BA AN ND DY YA AT TM M

En su conjunto, ATM representa una excelente promesa para casi todas las redes. Proporciona rendimiento y funciones que nunca antes habían estado disponibles para: * Transferencia electrónica de fondos. * Anotaciones verbales de memorandos. * Videos de formación interactivos. * Desarrollo de tareas de diseño y fabricación, en el que los esfuerzos cooperativos involucran objetos de datos complejos que residen en diferentes y geográficamente dispersos procesadores. Probablemente ATM es el futuro de los protocolos de transporte y de las comunicaciones a través de redes en general. Sin embargo, el futuro no ha llegado todavía. Como se ha mencionado anteriormente, muchos vendedores se han apresurado a anunciar planes para productos y sistemas ATM pero, en estos momentos, simplemente, no hay ningún sistema ATM interoperable, viable y totalmente abierto disponible. 8.1.1. Recomendado para: * * * *

Aplicaciones multimedia y video, debido a su capacidad para dedicar ancho de banda predefinido a las aplicaciones y su posibilidad de establecer prioridades en los datos. Enlaces troncales gracias a su expansión escalonada, alto rendimiento y seguridad. Redes de área extensa por su integración transparente, de alto rendimiento, entre WAN y LAN. Redes ampliamente dispersas debido a su carencia de limitaciones de distancia.

8.1.2. No recomendado para: * *

Redes pequeñas debido a su elevado coste. Redes que deban conservar una base instalada de diferentes protocolos de red heredados debido a la falta actual de interfaces estándares ATM para integrar varios protocolos.

8.1.3. Puntos fuertes: * * * * *

Alto rendimiento. Escalabilidad. Ancho de banda dedicado. Potencial para un despliegue universal. Seguridad.

8.1.4. Puntos débiles: * * *

Interoperabilidad (actualmente). Alto coste. Tolerancia a fallos moderada.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 3 6 33 36 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XIIIV V

D D D R DD DR R

D DD DR R 11.. IINNNTTTRRRO O D U C C Ó N OD DU UC CC CIIIÓ ÓN N El Enrutamiento por Llamada Telefónica bajo Demanda (DDR, Dial on Demand Routing) es una técnica en la cual un router puede iniciar y cerrar sesiones conmutadas por circuito de forma dinámica cuando las estaciones finales que realizan la transmisión lo necesitan. Cuando el router recibe tráfico destinado a una red remota, se establece un circuito y el tráfico se transmite normalmente. El router mantiene un temporizador de espera que se reinicia sólo cuando se recibe tráfico interesante. Por “tráfico interesante” se entiende el tráfico que el router necesita enrutar. Si el router no recibe tráfico interesante antes de que expire el temporizador de espera, sin embargo, el circuito se termina. De la misma manera, si se recibe tráfico que no es interesante y no existe un circuito, el router descarta el tráfico. Cuando el router recibe tráfico interesante, inicia un nuevo circuito. DDR permite realizar una conexión telefónica estándar o una conexión RDSI sólo cuando así lo requiere el volumen de tráfico de red. DDR puede resultar menos costoso que una solución de línea dedicada o multipunto. DDR significa que la conexión se produce sólo cuando un tipo específico de tráfico inicia la llamada o cuando se necesita un enlace de respaldo. Línea telefónica de respaldo es un servicio que activa una línea serial de respaldo. Esta línea se puede utilizar como un enlace de respaldo cuando el enlace principal falla o como origen de ancho de banda adicional cuando la carga de tráfico en el enlace primario alcanza el umbral. Estas llamadas conmutadas por circuito, indicadas por las líneas punteadas en la figura (mas adelante) se realizan mediante redes RDSI. DDR sustituye las líneas dedicadas cuando no se requiere la disponibilidad de circuito constante. Además, DDR se puede usar para sustituir los enlaces punto a punto y los servicios WAN multiacceso conmutados. DDR se puede usar para proporcionar carga compartida de respaldo y respaldo de interfaz. Por ejemplo, se puede disponer de varias líneas seriales, pero es necesario usar la segunda línea serial sólo cuando la primera está muy ocupada, para que se pueda producir la carga compartida. Cuando las líneas WAN se utilizan para aplicaciones críticas, se puede agregar una línea DDR configurada por si las líneas primarias se desconectan. En este caso, se establece la línea secundaria para que el tráfico pueda pasar. En comparación con la networking LAN o basada en campus, el tráfico que usa DDR es normalmente de bajo volumen y periódico. DDR inicia una llamada WAN a un sitio remoto sólo cuando hay tráfico para transmitir.

22.. C O N D E R A C O N E A C E R C A D E CO DD DR R ON NSSSIIID DE ER RA AC CIIIO ON NE ESSS A AC CE ER RC CA AD DE ED Al crear aplicaciones de networking, se debe determinar cómo se inician, establecen y mantienen las conexiones RDSI. DDR crea conectividad entre los sitios RDSI estableciendo y enviando conexiones conmutadas por circuito según sea necesario para el tráfico de networking. DDR puede suministrar enrutamiento de red y servicios de directorio de varias maneras para dar la ilusión de conectividad total a través de conexiones conmutadas por circuito. Para ofrecer control total sobre cuando se realizan las conexiones DDR, se debe considerar cuidadosamente los siguientes temas: • ¿Cuáles son los sitios que pueden iniciar conexiones basadas en el tráfico? • ¿Los sitios SOHO requieren discado saliente? ¿Se requiere discado saliente para la administración de red o estación de trabajo? ¿Cuáles son los sitios que pueden terminar conexiones basadas en enlaces inactivos? • ¿Cómo se soportan los servicios de directorio y las tablas de enrutamiento a través de una conexión inactiva? • ¿Cuáles son las aplicaciones que se deben soportar a través de conexiones de DDR? ¿Para qué cantidad de usuarios se deben soportar? • ¿Cuáles son los protocolos inesperados que pueden provocar conexiones de DDR? ¿Se pueden filtrar? T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 3 9 33 39 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XIIIV V

D D D R DD DR R

Al configurar para DDR, se deben introducir los comandos de configuración que indiquen qué paquetes de protocolo constituyen tráfico interesante para iniciar la llamada. Para hacer esto, se deben introducir sentencias de lista de control de acceso (ACLs) para identificar las direcciones fuente y destino, y seleccionar los criterios de selección de protocolo específico para iniciar la llamada. Entonces, se deben establecer las interfaces donde se inicia la llamada de DDR. Este paso designa un grupo de discado. Para discar una llamada de WAN el grupo de discado asocia los resultados de la especificación de la lista de control de acceso referida a los paquetes interesantes para las interfaces del router. DDR permite usar módems de discado o dispositivos ISDN para establecer conexiones de red periódicas de bajo volumen sobre redes de conmutación de circuitos. Al implementar DDR, se debe configurar al router con una lista de marcado. Una lista de marcado define qué tráfico es “interesante” es decir, digno de establecer una llamada. Un router sólo establece una llamada si recibe tráfico interesante que necesita ser ruteado. Se debe asegurarse que la lista de marcado del router se configure correctamente. Con DDR, las conexiones iniciadas por las oficinas remotas o teleconmutadoras se plantean sobre una base necesaria. Esto produce una reducción sustancial de costo para la compañía. En los escenarios DDR, los routers no se conectan por largos períodos de tiempo. Debido a que ISDN proporciona un mayor rendimiento y un seteo de llamada más rápido que los POTS, DDR se usa más a menudo con ISDN. Hay cuatro pasos básicos en la configuración de DDR: 1. Definir que constituye tráfico interesante (con el uso de ACLs). 2. Asignar esta definición de tráfico a una interfase del router. 3. Definir la dirección destino, nombre de host, y número de teléfono a marcar. 4. (Opcional) Definir los parámetros de llamada.

33.. D Ó N D E T R Á F C O N T E R E A N T E Y D E P A R Á M E T R O D E L L A M A D A DEEEFFFIIINNNIIICCCIIIÓ ÓN ND DE ET TR RÁ ÁF FIIIC CO O IIIN NT TE ER RE ESSSA AN NT TE EY YD DE EP PA AR RÁ ÁM ME ET TR RO OSSS D DE EL LL LA AM MA AD DA A Se usan comandos del Sistema Operativo del Router (IOS) para definir qué tipo de tráfico “es interesante”. Un router “levantará” la interfase DDR (si no lo esta) para conmutar y rutear el tráfico interesante. Una vez establecida la llamada, el router no desconectará la llamada mientras continúe recibiendo tráfico interesante para enrutar sobre el enlace DDR. Mientras el enlace esté activo (up), el “tráfico no interesante” (tráfico no definido como interesante) puede ser enrutado. Sin embargo, si el enlace está ocioso (idle) por un período configurable de tiempo, el router desconectará la llamada. El router considera que el enlace está ocioso si no se lo usa para enrutar tráfico interesante. Cada vez que la interfase DDR rutea tráfico interesante el “idle timer” (reloj de espera) se reinicia. Por consiguiente, el tráfico no-interesante no mantendrá una llamada DDR ya establecida. La forma más simple de los comandos de filtrado de tráfico permiten especificar que suite de protocolos, como IP o IPX, permitirá activar una llamada DDR. Las formas más complejas de los comandos de filtrado referencian a las “listas de acceso” (ACL), para permitir un control mas fino en la definición de tráfico interesante. Una vez definido lo que constituye tráfico interesante, se debe proveer a la interfase responsable de iniciar la llamada con la totalidad de parámetros necesarios para alcanzar el destino (comando del IOS brindan información del router destino, así como del número de teléfono a discar). Al usar DDR entre más de dos sitios, es muy importante usar autenticación PPP y relacionar las direcciones de protocolo con los nombres de usuarios autenticados, en la tabla de marcado para las llamadas entrantes. Las conexiones dial-up están sujetas a un “reloj de espera” (idle timer) que mantiene un registro de cuánto tiempo pasó desde que se enrutó tráfico interesante fuera de la interfase. Por defecto, el “idle timeout” (reloj de espera excedido) es de 120 segundos. Se puede personalizar este valor para hacer más agresivo al reloj, o se puede aumentar el valor del “time out” (tiempo excedido) para mantener por más tiempo a la conexión. Cuando el router espera por usar una línea para hacer otra llamada, usa un “idle timeout” (interrupción de espera) más agresivo llamado “fast idle”; el cual indica el número de segundos que la línea permanecerá en espera u ociosa antes de desconectar la llamada actual para permitir que otra llamada que está esperando use la línea. Se puede configurar este valor usando comandos IOS. El valor predefinido es de 20 segundos. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 4 0 34 40 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XIIIV V

D D D R DD DR R

3.1.1. Uso de rutas por defecto y rutas estáticas Las rutas estáticas y por defecto se usan por lo gral. en redes de acceso remoto. El nodo remoto es alcanzado desde la red por una ruta estática. El nodo remoto envía todo el tráfico para el cual no tiene una ruta a la ruta por defecto. Las rutas por defecto y estáticas eliminan los costos a los que se incurrirían si se enviarán actualizaciones de ruteo. Se debe saber que el DDR involucra asignación de ruta o ruteo. Los routers hacen determinaciones de ruta o camino basados en la información que obtienen de sus tablas de ruteo. Estas tablas se construyen a partir de las rutas definidas administrativamente (las rutas estáticas) y/o por rutas aprendidas dinámicamente (ruteo dinámico). En un ambiente de DDR, la asignación dinámica de rutas o ruteo dinámico puede ser una fuente de problemas. Los protocolos de ruteo como RIP y OSPF confían en la comunicación regular entre enlaces compañeros. Si los routers se conectan vía un enlace dial-up, las conexiones activas son normalmente intermitentes. Aunque esto propone problemas sobre los enlaces DDR, el ruteo dinámico puede ser todavía necesario en redes complejas. Los protocolos de ruteo de vector de distancia simple, como RIP e IGRP, se usan por lo gral. sobre conexiones DDR. Sin embargo, es probable que el centro de la WAN (core) de una empresa implemente protocolos de ruteo de convergencia rápida, como OSPF o EIGRP. OSPF puede usarse sobre DDR configurando circuitos OSPF por demanda. Cuando el centro WAN y los sitios remotos ejecutan protocolos diferentes, la redistribución de ruta puede ser necesaria para “compartir” información de ruteo entre los diferentes protocolos. Finalmente, se pueden usar rutas estáticas y predefinidas (por defecto) para direccionar el desafío de enrutar sobre una red DDR. También se puede usar ruteo dinámico, incluyendo redistribución de ruta, para propagar las rutas. Las rutas estáticas se ingresan manualmente, eliminando la necesidad de un protocolo de ruteo que envíe actualizaciones de ruta a través de la conexión DDR. Las rutas estáticas son eficaces en redes pequeñas que no cambian frecuentemente. La figura anterior muestra un acceso remoto al sitio central configurado con una ruta estática a la dirección o direcciones de red del sitio remoto. Aun cuando, por lo gral., el sitio remoto es una red stub (única red), el router está configurado con una ruta por defecto (se suele usar ruta estática). Esta ruta apunta al router del sitio central, y a la red corporativa (representada por la nube). En el sitio central, se puede ingresar la ruta estática que apunte a la dirección de red del sitio remoto, ip route 172.24.2.0 255.255.255.0 10.2.3.2 Si una router DDR configurado con la ruta estática anterior recibe un paquete interesante destinado para la red 172.24.2.0 /24, el router buscaría en su configuración por una tabla que mapeara un número de teléfono con la dirección IP de próximo salto (next hop), 10.2.3.2 (ver figura). Es posible usar una primer ruta para definir la dirección IP de próximo salto y una segunda para definir la interfase sobre la cual encontrar el próximo salto (y la tabla de marcado). Así, se puede configurar una ruta estática usando la interfase local desde la cual debe salir el tráfico para alcanzar la red destino (vea la Figura). Es necesaria por lo menos una ruta estática apuntando a la dirección IP de próximo salto para permitir que DDR trabaje. Normalmente una ruta por defecto es la única ruta que necesita una red remota que tiene una sola conexión de red externa. Las redes que tienen un sólo camino al mundo externo se denominan redes stub. La mayoría de las oficinas remotas son redes stub, y por consiguiente se configuran a menudo con una ruta por defecto. Para configurar una ruta por defecto estática (al igual que las rutas estáticas), se deben usar comandos del IOS del router, como ser: ip route 0.0.0.0 0.0.0.0 {dirección próximo salto | interfase de salida} La figura muestra los comandos necesarios para configurar una ruta por defecto en el router SOHO. Una vez configurado con la ruta por defecto y la tabla de marcado, el router SOHO enrutará todo el tráfico no-local sobre el enlace discado (dial-up). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 4 1 34 41 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XIIIV V

D D D R DD DR R El protocolo de asignación de ruta o de ruteo seleccionado para un enlace DDR es típicamente un protocolo de vector de distancia como RIP, RIP V2, EIGRP, IGRP, o RTMP. Puede usarse OSPF si se configura el rasgo de Circuito por Demanda. Generalmente se recomienda seleccionar el protocolo más simple que satisfaga las necesidades de diseño de la interred y que sea soportado por los routers DDR.

44.. H O HAAACCCIIIAAAEEELLLNNNUUUEEEVVVO OD DD DR R Se puede decir que en un principio existió lo que se denominó “legacy DDR” (legacy es lo heredado, lo legado, algo recibido del pasado). En este caso el “legacy DDR” se refiere al “viejo” camino de configuración, el cual se caracterizaba por la aplicación de comandos de discado (del IOS), aplicados en forma directa a la interfase física (BRI, Async, etc) o por el uso de grupos rotatorios (rotary groups). Sin embargo, esta configuración presentaba algunas debilidades por lo que se definió un método de configuración DDR alternativo que, mediante el uso de perfiles de discado (dialer profiles), permitió una mayor flexibilidad y eficiencia en las configuraciones dialup.

4.1. Legacy DDR Este DDR, es poderoso y comprensivo. Soporta protocolos Frame Relay, ISO CLNS, LAPB, ruteo instantáneo, y todos los protocolos enrutables de routers. Sin embargo, también tiene limitaciones que afectan adversamente al crecimiento de la red. Por caso, legacy DDR se basa en un lazo estático entre la especificación de llamada por destino y la configuración de la interfase física. El problema con este método es que el DDR bloquea o encierra una interfase física con una única configuración. Por ejemplo, DDR BRI puede tener una sola dirección IP, un solo tipo de encapsulación y un seteo de timers de discado. Las configuraciones legacy DDR usan sentencias de discado que son convenientes cuando una sola interfase física es responsable de llamar a un solo destino (relación llamada por destino y configuración de la interfase física). 4.1.1. Legacy DDR y múltiples destinos Como se dijo antes, las sentencias legacy DDR funcionan bien, siempre y cuando se establezca una relacion uno a uno (una llamada un destino), sin embargo estas sentencias también pueden usarse si el router llama a múltiples destinos, siempre y cuando estos utilicen los mismos parámetros de comunicación (como ser la autenticación, los idle timers, etc). Pero que pasa si el router debe llamar a tres locaciones que usan parámetros de comunicación diferentes?. Una solución (con legacy DDR) es definir los parámetros de llamada bajo tres interfaces físicas separadas, cada una de ellas conectadas a líneas separadas. Este escenario representa una pérdida de recursos y dinero, dado que se necesita un router con tres interfaces WAN dialup y se debe pagar por tres líneas que podrían usarse solamente por unos pocos minutos diarios. Se podría tener una solución más eficiente si las interfaces físicas no estuvieran asociadas con configuraciones permanentes. En ese caso el mecanismo asumiría que los parámetros de llamada se basan en la necesidad de realizarla y no como antes. Cuando la llamada finalizara, la misma interfase se liberaría de la configuración previa y estaría lista para servir o atender otro destino de llamada. Este método llamado DDR con perfiles de discado (dialer profiles) se tratará mas adelante. Ahora, que pasa si se tienen múltiples interfaces físicas que necesitan estar configuradas con los mismos parámetros de comunicación?. Por ejemplo, ocho interfaces asíncronas que deben atender llamadas usando la misma dirección IP, la misma encapsulación y los mismos comandos de configuración. La solución es usar grupos de discado rotatorios.

4.2. Grupos rotatorios T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 4 2 34 42 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XIIIV V

D D D R DD DR R

El grupo rotatorio de discado permite aplicar la configuración lógica de una sola interfase a un conjunto de interfaces físicas. Esto es muy útil en ambientes que tiene múltiples llamadores y destinos de llamada. El grupo rotatorio se define especificando una “interfase de discado” (interfase dialer), la cual no es una interfase física, sino una entidad que permite propagar la configuración de una interfase a múltiples interfaces. La interfase de discado se define con un numero (interfase de discado n) y con los parámetros para la interfase. Luego se asignan las interfaces físicas al grupo rotatorio de discado. Las interfaces físicas heredan los parámetros de configuración de la interfase dialer. La compañía de teléfonos también usa grupos rotatorios, denominados “grupos hunt”, los cuales permiten discar a un numero de teléfono y conectarse a uno de varios números de teléfonos diferentes. Es decir, que el grupo hunt (grupo de caza) consiste de una serie de líneas telefónicas programadas para que cuando arrive una llamada se use la primer línea disponible. Por ejemplo, si la primera línea está ocupada se intenta con la segunda línea, y luego con la tercera y así sucesivamente hasta encontrar una línea libre. De esta forma una llamada entrante no tendrá una señal de ocupado. De esta manera, si se dispone de un grupo hunt de la componía telefónica, se puede configurar un grupo rotatorio en el router. Un ejemplo de uso de esta facilidad la dan los ISPs (Proveedores de Servicio de Internet); la mayoría usa grupos hunt para los accesos discados de sus usuarios. Esta es la explicación de porque distintos usuarios de un ISP pueden discar al mismo numero de teléfono y conectarse al mismo tiempo. Los grupos rotatorios se pueden usar también para llamadas salientes. Después de propagar la configuración lógica a un conjunto de interfaces físicas, se pueden usar esas interfaces para llamadas DDR. De esta forma si arriva tráfico a ser ruteado mediante DDR, se usa una interfase dialer del grupo; cuando arriva tráfico para un host diferente se usa otra interfase del grupo. El usar interfaces dialer permite especificar un conjunto de mapas de discado que pueden aplicarse a múltiples líneas físicas. El grupo rotatorio puede definirse sobre cualquier tipo de interfase: dial-up, asíncrona, BRI, PRI y serial. Una interfase física puede pertenecer a un solo grupo rotatorio, es decir las interfaces físicas pueden usar una sola configuración lógica. Esto ultimo es la mayor limitación del legacy DDR, puesto que es posible, para un access server, tener interfaces físicas disponibles pero no poder usarlas para responder o realizar llamadas, dado que las interfaces pertenecen a grupos rotatorios distintos.

55.. PPEEERRRFFFIIILLLEEESSS DDDEEEDDDIIISSSCCCAAADDDO O O Los perfiles de discado conforman la nueva manera de configurar DDR. Los perfiles de discado separan la configuración lógica de la interfase física que recibe o realiza llamadas. Los perfiles pueden dfinir encapsulación, listas de control de acceso, así como habilitar o no facilidades. Con los perfiles de discado, las configuraciones lógicas y físicas se enlazan dinámicamente unas a otras basadas en las llamadas, lo que permite que las interfaces físicas tengan diferentes características basadas en las llamadas entrantes o salientes. Al igual que los grupos de discado rotatorios, los perfiles de discado usan las interfaces dialer para separar la configuración lógica (dirección IP, encapsulación de capa 2 y parámetros de discado) de la interfase física que recibe o envía llamadas. Pero a diferencia del grupo de discado rotatorio, una interfase física puede ser usada por múltiples interfaces de discado. Esencialmente, cada interfase de discado es un perfil de discado que se enlaza a cualquier miembro de un pool de discado. Se puede configurar un perfil de discado para cada sitio remoto con quien se quiera establecer una llamada; así cuando se necesite realizar una llamada el access server mirará el perfil de discado correcto, intentará encontrar una interfase física disponible, para poder enlazar el perfil de discado con la interfase, y hará la llamada (ver figura). En la figura siguiente hay tres perfiles de discado. Cuando se usan perfiles de discado los mapeos de números de teléfono a direcciones IP y la identificación de los nombres de hosts remotos, se definen de manera T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 4 3 34 43 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XIIIV V

D D D R DD DR R

diferente a como se lo hace en legacy DDR. Con perfiles de discado, se configuran perfiles para cada host remoto al cual se conectara el router, permitiendo así conectar múltiples destinos sin problemas. Los tres perfiles de discado están configurados para usar cualquier interfase en el pool de discado 1. Un pool de discado es una colección de interfaces que pueden usarse para un perfil de discado. En el ejemplo de la figura las interfaces BRI0, BRI1 y BRI2 pertenecen al pool de discado 1. La principal diferencia entre un grupo de discado rotatorio y un perfil de discado es que la interfase física participa en un solo grupo rotatorio, mientras que con el perfil de discado, la interfase física puede pertenecer a muchos pools diferentes. Se pueden configurar ambos, grupos de discado rotatorios y perfiles de discado, para crear interfaces de discados (en la figura, dialer 0, dialer 1, etc). Cualquiera de los perfiles de discado definidos en la figura puede usar cualquiera de las interfaces que pertenecen al pool de discado 1. Si más de una interfase del pool está disponible, se puede usar una opción de prioridad para indicar que interfaces se deberán usar primeras. El valor de prioridad se puede setear entre 0 (mas bajo) y 255 (más alto). Las interfaces con prioridad más alta se seleccionan primero para el discado. Si es necesario, se puede configurar una interfase para que pertenezca a múltiples pools de discado. Igualmente, un perfil de discado puede configurarse para usar interfaces desde múltiples pools de discado. Cada perfil de discado, sobre un router, puede especificar un grupo de discado diferente. Los perfiles de discado permiten controlar que constituye tráfico interesante.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 4 4 34 44 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV V

M M S O O N D A S Y MIIICCCRRRO OO ON ND DA AS SY YS SAAATTTÉÉÉLLLIIITTTEEESSS

M MIICCRROOOONNDDAASS YY SSAATTÉÉLLIITTEESS 11.. D Ó N D E L E P E C T R O E L E C T R O M A G N É T C O DIIIVVVIIISSSIIIÓ ÓN ND DE EL LE ESSSP PE EC CT TR RO OE EL LE EC CT TR RO OM MA AG GN NÉ ÉT TIIIC CO O Con objeto de hacer un uso racional y práctico del espectro electromagnético, éste fue dividido por la ITU en diferentes bandas, mostradas en la tabla de la figura, cada una adecuada para un tipo específico de servicio. La zona del espectro electromagnético que tiene interés para la transmisión de datos incluye las partes denominadas radiofrecuencia (10 KHz a 300 MHz), microondas (300 MHz a 300 GHz), e infrarroja (300 GHz a 400 THz). Cuando se trata de radiofrecuencia o microondas es normal referirse a las ondas por su frecuencia, en cambio cuando se habla del infrarrojo se suele utilizar la longitud de onda. Recordemos que ambas magnitudes están relacionadas por la fórmula l f = c, donde l es la longitud de onda, f la frecuencia y c la velocidad de la luz en el vacío. Así por ejemplo, una onda de 30 GHz, que corresponde a la zona de microondas, tiene una longitud de onda de 1 cm. Las diferencias entre las ondas de radio y las microondas son: * Las microondas son unidireccionales y las ondas de radio omnidireccionales. * Las microondas son más sensibles a la atenuación producida por la lluvia. * En las ondas de radio, al poder reflejarse estas ondas en el mar u otros objetos, pueden aparecer múltiples señales "hermanas".

22.. EENNNLLLAAACCCEEESSS PPPO O R M C R O O N D A OR RM MIIIC CR RO OO ON ND DA ASSS Las características de transmisión de las ondas en el aire dependen en gran medida de la frecuencia de la onda que se transmite. En la zona de radiofrecuencias el comportamiento es poco direccional y las ondas pueden atravesar obstáculos de cierto tamaño sin dificultad (su poder disminuye con el cubo de la distancia). Por ello se utiliza esta parte del espectro para emisiones de radio principalmente. Conforme nos acercamos a las microondas la transmisión es cada vez más direccional y sensible a los obstáculos; a partir de 100 MHz la transmisión se hace en línea recta y los obstáculos (un edificio o una montaña) impiden la comunicación; a partir de unos 10 GHz incluso la lluvia absorbe parte de la potencia, reduciendo la señal recibida. Los primeros sistemas de microondas se emplearon para la transmisión de señales de radar, TV y de telefonía, con técnicas de multiplexación de frecuencia, siendo en la actualidad utilizados ampliamente para la transmisión digital de datos, mediante técnicas de multiplexación temporal. En la práctica el rango de frecuencias más utilizado para la transmisión de datos es el de las microondas porque permite elevadas velocidades de transmisión dado su ancho de banda, tienen un alcance razonable y está relativamente exento de interferencias de los fenómenos más comunes. La elevada direccionalidad impone la condición de la visión directa, lo cual obliga a instalar repetidores cuando se cubren grandes distancias, pero es también una ventaja ya que permite disponer de la misma frecuencia en haces próximos sin interferencia, y concentrar la potencia de emisión en un solo sentido. La anchura del haz transmitido varía entre 1 y 5 grados, en función de la frecuencia y de la antena utilizada. En ciertas aplicaciones nos puede interesar un haz muy estrecho para conseguir un haz muy direccional. En otras, como el caso de transmisiones de señales de TV, nos interesa un haz lo más ancho posible para obtener la mayor difusión de la señal; para ello el satélite es el medio más adecuado y práctico. Para la transmisión de señales, vía radio, se utilizan dos estaciones, una emisora y otra receptora, que han de tener un enlace visual (ver figura) y utilizar antenas parabólicas de dimensiones adecuadas, según la longitud de onda (frecuencia) de la señal a transmitir (localizada principalmente en la banda SHF) y de los márgenes de potencia T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 4 7 34 47 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV V

M M S O O N D A S Y MIIICCCRRRO OO ON ND DA AS SY YS SAAATTTÉÉÉLLLIIITTTEEESSS

disponibles. Las antenas empleadas radian una pequeña potencia, por lo que han de emplearse antenas cóncavas para concentrar la señal recibida y, al igual que sucede con las transmisiones por satélite, el tamaño de las mismas disminuye conforme la frecuencia aumenta, razón por la que interesa aumentar esta última. Se suelen utilizar en sustitución del cable coaxial o las fibras ópticas ya que se necesitan menos repetidores y amplificadores, aunque se necesitan antenas alineadas. Se usan para transmisión de televisión y voz. Antes de la aparición de las fibras ópticas las microondas eran el sistema preferido por las compañías telefónicas para cubrir grandes distancias con anchos de banda elevados; aún hoy en día se basa en este sistema buena parte de la infraestructura, ya que es barato y efectivo. Es bastante típico utilizar radioenlaces de 2, 34 y 140 Mbps. Los sistemas de microondas tienen muchas ventajas, sin embargo presentan algunos inconvenientes adicionales, por el hecho de estar localizados sobre la superficie terrestre; destacando entre ellos: * Atenuación debida a objetos sólidos, y a la niebla, nieve y lluvia, debido a las altas frecuencias utilizadas. * Reflexión sobre superficies planas, tales como lagos y estructuras metálicas. * Difracción alrededor de los objetos interpuestos en el haz, dando lugar a una dispersión de la señal. * Refracción del haz debido a la atmósfera.

33.. SSIIISSSTTTEEEM M A D E T R A N M Ó N P O R A T É L T E MA ASSS D DE ET TR RA AN NSSSM MIIISSSIIIÓ ÓN NP PO OR R SSSA AT TÉ ÉL LIIIT TE E Los sistemas de comunicaciones actuales vía radio que utilizan microondas requieren que exista un enlace visual directo entre el emisor y el receptor. Esto, muchas veces limita sus aplicaciones a pesar de que se alcanzan sus límites en cuanto a distancia, debido a las características del terreno, obligándonos a colocar varias estaciones repetidoras, con el coste que ello implica, o utilizar la propiedad de la reflexión de las ondas de radio en la ionosfera (capa situada a 100 Km de la superficie terrestre - sistemas troposcatter) en las bandas UHF y SHF. Una manera de evitar este problema consiste en colocar un único repetidor (satélite), situado a gran distancia de la Tierra en una órbita geoestacionaria (36.000 Km sobre el Ecuador, una vuelta cada 24 horas), desde el que tenemos visión hacia una gran zona, un continente incluso (figura 7.8). Otro tipo de órbita es la denominada orbita geosíncrona, que implica una vuelta cada 24 horas, pero situándose el satélite en un plano distinto al del ecuador. Intelsat VAF11 y VAF12 o Eutelsat F4 y F5 cubren Europa con transponders (repetidor que recoge la señal, la traslada de frecuencia y la reenvía) de baja potencia, mientras que Astra y TDF1 lo hacen con transponders de media/alta potencia.

3.1. Características del enlace La transmisión se origina en un sólo punto; desde una estación terrestre se envía hacia el satélite, que actúa como repetidor, enviando la señal recibida desde múltiples estaciones. Debido al largo camino que ha de recorrer la señal (71.800 Kms), existe un retardo entre el momento en que se emite ésta y el momento en que es recibida (normalmente de 240 mseg.), por lo que hay que tomar precauciones. Este no influye en las transmisiones en un sólo sentido, tales como radio y TV, pero sí en aquellas bidireccionales, como las conversaciones telefónicas y la transmisión de datos, debiéndose tener en cuenta (mediante el empleo de canceladores de eco) para evitar sus efectos. Los satélites de comunicaciones se encuentran equipados con múltiples repetidores o transponders, de 6 a 20, que pueden ser asignados a diferentes usos, permitiendo de esta manera el tratamiento simultáneo de infinidad de señales; siendo típicos anchos de banda de 36 MHz en la banda de frecuencias comprendida entre 4 y 6 GHz (banda C) que soporta entre 960 y 1.800 canales, 11 (12)/14 GHz (banda Ku) y 20/30 GHz (banda Ka), con menores longitudes de onda en las dos últimas. Existe una gran diferencia entre las comunicaciones vía satélite y las que usan otros medios de transmisión; básicamente: Gran capacidad de transmisión, con una capacidad por repetidor de unos 3.000 canales, pudiendo utilizar • diferentes bandas de frecuencia de microondas. Capacidad para una transmisión de radiodifusión, pues la antena transmisora puede enviar señal a una • amplia zona, permitiendo a multitud de usuarios la captación de las señales de radio y TV, así como la realización de videoconferencias. Coste de transmisión independiente de la distancia entre el emisor y el receptor, por lo cual es un medio • muy interesante para realizar comunicaciones entre continentes o entre países alejados, aunque esta gran cobertura trae consigo el problema de su poca seguridad, a menos que la información se codifique. Debido a que existe un apreciable retraso en la propagación de la señal; dado que puede llegar a 1 • segundo, ciertas aplicaciones no son adecuadas para utilizar este sistema. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 4 8 34 48 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV V •

M M S O O N D A S Y MIIICCCRRRO OO ON ND DA AS SY YS SAAATTTÉÉÉLLLIIITTTEEESSS

Posibilidad de cubrir toda la superficie terrestre con sólo tres satélites geoestacionarios (órbita de 36.000 Kms), tal como imaginó Arthur C. Clarke en un artículo publicado en 1945 en la revista Wireless World, situados a intervalos de 120°.

El satélite recibe las señales y las amplifica o retransmite en la dirección adecuada. Para mantener la alineación del satélite con los receptores y emisores de la tierra, el satélite debe ser geoestacionario. Se suele utilizar este sistema para: * Difusión de televisión. * Transmisión telefónica a larga distancia. * Redes privadas. 3.1.1. Sistemas de acceso múltiple Puesto que no todos los equipos que tienen la posibilidad de interconectarse lo hacen simultáneamente, se han desarrollado sistemas de conmutación de circuitos y multiplexores de datos, para ser aplicados en enlaces telefónicos y en las comunicaciones de datos, respectivamente. Compartir los recursos de las estaciones terrestres y de los satélites es algo habitual, existiendo dos tipos de acceso múltiple: a) Acceso múltiple por división de frecuencia (FDMA): es un caso particular de la técnica de multiplexación por división en frecuencia (FDM), ampliamente utilizada en la transmisión de voz y de datos, consistente en asignar porciones del ancho de banda disponible a cada uno de los diferentes usuarios que hacen uso del sistema. b) Acceso múltiple por división en el tiempo (TDMA): al igual que en la técnica anterior, la idea básica es compartir los recursos disponibles. En este caso se utiliza la multiplexación por división en el tiempo (TDM), consistente en enviar la información dividida en tramas, de tal manera que se encuentran perfectamente sincronizadas las de diferentes usuarios, para poder después proceder a su separación. Esta técnica, que está reemplazando a la anterior, es, sin embargo, más compleja y crítica por las oscilaciones del satélite en su órbita; sin embargo permite mayores potencias al existir solamente una señal portadora por cada repetidor, reduciéndose de esta manera la distorsión por intermodulación.

3.2. Tecnología actual de los satélites La transmisión de información, desde unas estaciones terrestres a otras utilizando microondas y satélites como estaciones repetidoras ha ido siguiendo en cierta medida los avances de la técnica aeroespacial, apoyándose siempre en ella. El primer satélite artificial (SPUTNIK-I) fue lanzado al espacio en 1957 por la Unión Soviética; en la década de los años 60 se empezaron a utilizar satélites de comunicaciones (el primero, lanzado en 1958 por la NASA, fue el SCORE, seguido en 1960, por el denominado ECHO, un balón reflectante de 33 metros de diámetro, que actuaba como un reflector pasivo para señales en la banda de 960 a 2.390 MHz), pero debido a la limitada potencia de los cohetes que los ponían en órbita, sólo se podían situar a 6.OOO millas de la superficie terrestre. Esta órbita baja daba lugar a que el satélite se moviera más rápidamente que la Tierra, obligando a las estaciones de seguimiento a variar continuamente la orientación de sus antenas para seguir su órbita, necesitándose además gran número de ellas. Los primeros satélites eran totalmente pasivos, reflejando la señal transmitida de nuevo hacia la Tierra, como si fuesen un espejo, lo que limitaba en gran medida su uso. El primer satélite activo fue el TELSTAR I (1962); el primero en alcanzar una órbita geoestacionaria el SYNCON II; el primero de uso comercial el EARLY BIRD (INTELSAT I), lanzado desde Cabo Kennedy en junio de 1965 para enlazar Estados Unidos con Europa, y el primero español, el HISPASAT (1992). Los satélites actuales se sitúan en órbitas geoestacionarias, es decir, permanecen rotando conservando su posición relativa, con lo cual, las antenas terrestres pueden permanecer inmóviles. Hasta un 40% de la superficie terrestre puede ser cubierta por esta clase de satélites. 3.2.1. Bandas de frecuencias empleadas Las transmisiones se realizan normalmente en las bandas de 3,7 a 4,2 y de 5,9 a 6,4 GHz., Ilamada “banda C”, para el enlace descendente (downlink) y ascendente (uplink) respectivamente, lo que permite el funcionamiento en full-duplex y siendo normal que incorporen entre 6 y 20 repetidores, con un ancho de banda por cada uno de 35 MHz, necesitándose una separación entre satélites de al menos 720 Kilómetros para evitar interferencias. En general, cuanto mayor es la frecuencia empleada mayor es la direccionalidad, pero sin embargo las pérdidas aumentan significativamente. Cada vez más se están usando bandas de 11,7 a 12,2 y de 14,0 a 14,5 GHz, dentro de la “banda Ku” y la de 17,7 a 21,2 y 27,5 a 31,0 GHz “banda Ka”, que, por ser en ellas las longitudes de onda usadas menores, permiten una menor separación entre satélites, factor importante si tenemos en cuenta que ciertas zonas empiezan ya a estar T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 4 9 34 49 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV V

M M S O O N D A S Y MIIICCCRRRO OO ON ND DA AS SY YS SAAATTTÉÉÉLLLIIITTTEEESSS

saturadas, aparte de que el tamaño de las antenas es mucho menor. En aplicaciones militares se utiliza la “banda X”, con frecuencias de 7,2 a 7,7 y de 7,9 a 8,4 Ghz, y en otras de telecomunicaciones la “banda Ku”, con frecuencias de 10,7 a 11,7 y de 12,7 a 13,2 GHz, además de la “banda L” (1,5 a 2,7 GHz) y “banda S” (2,5 a 2,7 GHz). Véase un resumen en la tabla de la figura. El rango de frecuencias para la recepción del satélite debe ser diferente del rango al que este emite, para que no haya interferencias entre las señales que ascienden y las que descienden. Debido a que la señal tarda un pequeño intervalo de tiempo desde que sale del emisor en la Tierra hasta que es devuelta al receptor o receptores, ha de tenerse cuidado con el control de errores y de flujo de la señal. El empleo de una nueva generación de satélites, en la banda Ku, permite el uso de antenas con un diámetro comprendido entre 0,6 y 2,5 metros (VSAT Very Small Aperture Terminals) para un servicio interactivo (bidireccional) de transmisión de datos (figura siguiente). El problema que presentan estas bandas se debe a las interferencias, producidas principalmente por la polución y la lluvia, que origina una gran atenuación, fenómeno que es fácilmente observable para todo aquél que disponga en su domicilio de un sistema de recepción de TV por satélite.

3.3. Evolución y cobertura Todo hace prever que en el futuro estos sistemas sean de pleno uso, tanto por el perfeccionamiento que se está consiguiendo en las nuevas generaciones de fibra óptica y de microondas, así como por el avance que han experimentado los cohetes encargados de poner en órbita los nuevos satélites de comunicaciones (véase en la figura 7.11 la última generación de la ESA) y la tecnología de integración de componentes, que consigue eliminar peso y reducir espacio. El empleo de fibras ópticas para enlaces terrestres, de corta y media distancia, y el de satélites de comunicaciones para enlaces internacionales, a gran distancia, supone un gran avance dentro del campo de la transmisión de datos; debido por una parte a la gran capacidad de transferencia de información que es posible con su uso, y por otra a la gran cobertura geográfica que con ambos sistemas se puede conseguir. La implantación de estos sistemas, con las estaciones repetidoras necesarias, permite una cobertura muy amplia, llegando hasta puntos de muy difícil acceso; el proyecto IRIDIUM, de Motorola, para la creación de una red de telefonía móvil mundial, mediante la disposición de una serie de 77 satélites de baja órbita (LEO), es uno de los primeros ejemplos de ello, al que seguirán otros tanto o más ambiciosos. El uso, en un futuro muy próximo, de técnicas digitales que integren voz, datos e imágenes permitirá el óptimo aprovechamiento de estos medios, facilitando la prestación de nuevos servicios, tales como la telefonía móvil, las ayudas a la navegación o la videoconferencia, entre otros. Asimismo, se conseguirá una reducción muy importante en sus costes, tanto de fabricación, instalación, como de mantenimiento, que son, quizá, el factor determinante para su más amplia difusión, y puesto que son capaces de transmitir una gran cantidad de información, hoy por hoy, no tienen competidores, aunque los avances de la tecnología son tales y tan rápidos, que es difícil prever lo que será posible dentro de 10 años.

3.4. Sistemas de órbita baja (satélites LEO) El empleo de satélites que permiten no sólo la retransmisión de señales, sino su procesamiento a bordo gracias a los avances en las tecnologías de integración, lleva a pensar en una utilización distinta a la tradicional, de simple retransmisión. El fundamento teórico de los sistemas de órbita baja o LEO (Low Earth Orbit) data de 1987, año en el que en una serie de estudios teóricos se definieron una serie de familias de constelaciones de satélites en órbita polar circular, capaces de proporcionar una cobertura sencilla o múltiple con ángulos de 10 grados o superiores en cualquier latitud. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 5 0 35 50 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV V

M M S O O N D A S Y MIIICCCRRRO OO ON ND DA AS SY YS SAAATTTÉÉÉLLLIIITTTEEESSS

En tales estudios se llega a un compromiso entre el número de satélites necesarios para la cobertura continua de la superficie terrestre y el coste de los mismos, frente a los otros sistemas, dando como resultado una órbita entre los 400 y 1.000 Km. A partir de éstos, surgen proyectos como el mencionado Iridium u otros como Leosat, Orbcomm y Vitasat (por debajo de 1 GHz) y Aries, Globalstar y Odyssey (por encima de 1 GHz), para servicios de radiolocalización, telefonía y datos. Uno de ellos, el de Teledesic Corporation, participada conjuntamente por las empresas Microsoft y McCaw Cellular (telefonía móvil), con el objetivo de crear una gran red de telecomunicaciones por satélite operativo en el año 2001 y utilizará 840 satélites de baja órbita. Como ejemplo baste mencionar algunas de las características de concepción y diseño del Iridium, sustancialmente diferente al actual sistema promovido por la organización Inmarsat: * Satélites en órbita circular polar, no geoestacionaria. * Concepto de sistema celular con 77 satélites en órbita, distribuidos en 7 planos, aunque inicialmente constará de 66. * Altitud orbital de 765 Kilómetros. * Procesamiento de la señal a bordo. * Enlaces intersatélites, además de los tierra-espacio-tierra. * Utilización de las “bandas K” (intersatélites y con las estaciones terrenas fijas) y “banda L” (entre móviles y satélites). La red Iridium proporcionará el uso de terminales móviles semejantes a los actuales, en cualquier punto del globo, empleando un patrón de reutilización de frecuencias 7-en-1 que, en conjunto, permite reutilizar más de 200 veces las frecuencias disponibles. Una curiosidad a destacar es que las células, de tamaño aproximadamente constante, se mueven en el tiempo conforme lo hacen los satélites que les dan servicio, lo que hace que sea la célula la que pasa de unos usuarios a otros y no al revés, como sucede en los sistemas celulares actuales, necesitándose por tanto de la función de handover para el seguimiento de la llamada. Además de los satélites de baja órbita (LEO) existen otros con órbitas distintas de la geoestacionaria (GEO, Geoestationary Earth Orbit), como son la ICO (Orbita Circular Intermedia, Intermediate Circular Orbit) y la MEO (Orbita Circular Media, Medium Earth Orbit), situadas en la banda de 7.000 a 12.000 Kms sobre la superficie terrestre. Otras menos frecuentes son las conocidas como HEO (Orbita Elíptica Alta, Highly Elliptical Orbit), en las que el punto de mayor aproximación se puede situar sobre los 500 Kms y el de menor sobre los 20.000 Kms.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 5 1 35 51 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIII

X D S X XD DS SLLL

SSEERRVVIICCIIOOSS DDEE LLÍÍNNEEAA DDIIGGIITTAALL DDEE AABBOONNAADDOO YY M MÓ ÓD DEEM M PPA AR RA AC CA ABBLLEE 11.. IINNNTTTRRRO O D U C C Ó N OD DU UC CC CIIIÓ ÓN N En Estados Unidos el nuevo entorno regulador que trajo consigo el Acta de la Telecomunicaciones de 1996 ofreció nuevas oportunidades de negocio a las compañías de telecomunicaciones, entre estas oportunidades estuvieron la posibilidad para las compañías telefónicas y de televisión por cable de ofertar servicios de información interactivos empleando sus redes actuales (el ejemplo más claro sería el acceso a Internet). Esto mismo ya está sucediendo en nuestro país en algunas áreas. Las tecnologías que lo están haciendo posible son la Línea Digital de Abonado (Digital Subscriber Line, DSL) y los Módem para Cable o Cablemodems. Aunque los servicios de línea digital de abonado y módem para cable, tanto por su tecnología como por su precio, están principalmente dirigidos para su empleo en los hogares, también pueden constituir un importante servicio de interconexión de área extensa de alta velocidad para teletrabajadores, pequeños negocios y empresas situadas en el área metropolitana.

22.. LLÍÍÍNNNEEEAAADDDEEEAAABBBO O N A D O D G T A L ON NA AD DO OD DIIIG GIIIT TA AL L Los servicios de la línea digital de abonado son un producto de reciente oferta por las compañías de servicios de comunicación local, con grandes expectativas como servicios de acceso de alta velocidad a Internet. Los servicios DSL proporcionan transmisión digital unidireccional utilizando dos pares de hilos (e1 mismo cable de par trenzado que se encuentra en millones de hogares de abonados telefónicos, hoy en día). DSL es una tecnología extremo a extremo, lo que significa que la señal no requiere conversión de analógica a digital. En su lugar, DSL utiliza adaptadores inteligentes para dividir el cable de par trenzado existente en dos canales: hacia la red (upstream) y desde la red (downstream). El canal downstream transmite datos desde la red de la compañía telefónica hasta las instalaciones del abonado. Todo ello mientras el servicio telefónico en las instalaciones del abonado permanece virtualmente igual. Además de la utilización de la instalación de cableado y de las redes existentes, DSL posee la ventaja de suministrar un tremendo ancho de banda a las instalaciones del abonado. Se puede transmitir el tráfico desde la red a velocidades de hasta 60 Mbps (empleando DSL de muy alta velocidad, más adelante) y tráfico hacia la red a velocidades que varían entre 576 Kbps y 1 Mbps. Adicionalmente, los DSL son fáciles de configurar. Esto representará un alivio para cualquiera que haya tenido que luchar con la configuración y empleo de la red digital de servicios integrados (RDSI). Una DSL es bastante más sencilla de configurar y usar que RDSI. Por ultimo, debido a todas las ventajas expuestas hasta ahora (utilización de la infraestructura existente y sencillez de uso) los servicios DSL son bastante baratos, especialmente en términos de ancho de banda. Otra de las principales desventajas de los servicios DSL es su sensibilidad a la distancia. Esto significa que sólo es realmente bueno para suministrar servicio en distancias cortas. Sin embargo, la señal puede mantener su potencia hasta 6 Km (utilizando una línea de abonado digital asimétrica, dependiendo del ancho de banda que admita) desde la central de conmutación sin amplificación ni acondicionamiento.

2.1. Equipos DSL La transmisión de la señal DSL requiere de un nuevo dispositivo en ambos extremos de la línea, el usuario y la compañía telefónica. Este dispositivo funciona de manera más parecida a un adaptador de red que a un módem (puesto que la señal DSL es digital en todo su recorrido). En la figura se muestra un enlace ADSL entre un usuario y la central local de la que depende. En dicha figura se observa que además de los módems situados en casa del usuario (ATU-R, ADSL Terminal Unit-Remote) y en la central (ATU-C, ADSL Terminal UnitCentral), delante de cada uno de ellos se ha de colocar un dispositivo denominado splitter. Este dispositivo no es más que un conjunto de dos filtros: uno paso alto y otro paso bajo. La finalidad de estos filtros es la de separar las señales transmitidas por el bucle de modo que las señales de baja frecuencia (telefonía) de las de alta frecuencia (ADSL).

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 5 5 35 55 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIII

X D S X XD DS SLLL

2.2. Servicios DSL ofertados Puesto que es una señal digital, los servicios DSL pueden beneficiarse del ancho de banda bidireccional mucho más de lo que quisieran los diseñadores. Esto sirve para explicar porque existen tantos tipos diferentes de servicios de línea de abonado digital: * Línea digital de abonado asimétrica (Asymmetric Digital Subscriber Line, ADSL). * Línea digital de abonado de alta velocidad (High bit-rate Digital Subscriber Line, HDSL). * Línea digital de abonado de muy alta velocidad (Very high bit-rate Digital Subscriber Line, VDSL). * Línea digital de abonado simétrica (Symmetric Digitat Subscriber Line, SDSL). * Línea digital de abonado ajustable a la velocidad (Rate Adaptative Digital Subscriber Line, RADSL). 2.2.1. Línea de abonado digital asimétrica (ADSL) Probablemente, la línea de abonado digital asimétrica sea la DSL sobre la que más se ha hablado. Es el más popular para la prensa y los analistas de la industria. Originalmente, ADSL fue diseñado para transmitir vídeo animado desde las compañías telefónicas a los hogares de sus abonados. Por consiguiente, ADSL utiliza lo que es conocido como corrección de error anticipada. Las aplicaciones de transmisión de vídeo digital, actualmente no pueden emplear procedimientos de control de error en el nivel de red. La corrección de error anticipada se asegura que la línea está libre de ruido y errores antes de la transmisión de datos. Sin embargo, la corrección de error anticipada hace que ADSL sea también muy interesante para todo tipo de transmisiones, puesto que reduce los errores de datos causados por el ruido de la línea. ADSL recibe el nombre de “asimétrico”, porque no suministra el mismo ancho de banda para los canales de transmisión hacia la red y de recepción desde la red. Teniendo en cuenta (por ahora, como mínimo) que la mayoría de los usuarios descargan desde la red más información de la que transmiten hacia ella, la versión original de ADSL proporciona una ancho de banda para recepción de 1,544 Mbps (la misma velocidad que un T1) y ancho de banda para transmisión que se sitúa en el rango de 64 Kbps (la misma velocidad que RDSI). Sin embargo, las actuales versiones disponen de un ancho de banda para recepción de 6 Mbps y un ancho de banda para transmisión que oscila entre 576 Kbps y 640 Kbps. Y lo que es más, la transmisión de datos en la red ADSL puede tener lugar simultáneamente con llamadas telefónicas de voz, utilizando el mismo par telefónico. Esto se consigue mediante una técnica de multiplexación que reserva un tercer canal (4 KHz de ancho de banda) para una conversación telefónica de voz. ADSL es sencillo y barato, puesto que su utilización se realiza empleando la infraestructura de red existente. Por tanto, una vez comercialmente disponible, sería posible implementarlo rápidamente con solo instalar un adaptador ADSL y conectarlo a la red de la compañía telefónica (la compañía telefónica debería haber instalado un ADSL en su POP). 2.2.1.1. Estándares de señalización ADSL Actualmente, existen dos estándares de señalización ADSL totalmente incompatibles que compiten por el predomino en el mercado: a. Modulación por Amplitud sin Portadora (Carrierless Amplitude Modulation, CAP): es la técnica de modulación utilizada por las compañías de TV por cable. Emplea métodos de modulación por fase y amplitud (FM), como muestra la figura, que transmiten una única señal a través del cable a velocidades de hasta 2,5 Mbps. El principal impulsor de CAP es AT&T, lo que le concede cierta influencia, por supuesto. b. Multitono Discreto (Discrete Multitone, DMT): es la técnica de modulación respaldada por el ANSI. Ha sido desarrollado más recientemente que el CAP, por lo tanto el producto DMT acaba de aparecer en el mercado. La señalización DMT divide el ancho de banda total en canales de 4 KHz (en 256 canales de 4 kHz), como lo muestra la Figura 16.2. Cada uno de estos canales más pequeños transporta una porción de los datos que se transmiten. La totalidad de los datos transportados por estos pequeños canales se reagrupa en el extremo receptor del canal. El ADSL que emplea DMT posee las características adecuadas para permitir sistemas operativos de 32 bits multitarea y multithreaded. Gracias a que todos sus canales se multiplexan al instante en canales de 4 KHz más lentos, es posible realizar múltiples operaciones interactivas simultáneas y en tiempo real. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 5 6 35 56 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIII

X D S X XD DS SLLL

Sin duda alguna todas estas “guerras de estándares” producen algo de miedo. Lo último que se necesita es un enlace WAN propietario, especialmente si es en el que confían todos los usuarios (como el de acceso a Internet). Sin embargo, no hay que preocuparse. Para ayudar a conseguir una paz duradera en esta insurrección de los estándares, en 1994 se formó el ADSL Forum. Su propósito es promover los estándares ADSL y difundir la doctrina ADSL, y hoy en día tiene más de 60 miembros procedentes de toda la industria de las telecomunicaciones. Entre los proyectos actuales prioritarios del ADSL Forum se encuentra una interfase orientada a bit para conectar directamente ADSL a ATM. De hecho, la asignación dinámica de ancho de banda de DMT también permitirá a ADSL impulsar la utilización generalizada de ATM, al facilitar la asignación del mucho o poco ancho de banda necesario para acomodar los flujos conmutados de células de 53 bytes. De hecho, el ATM Forum ha reconocido a ADSL como uno de los protocolos de transmisión de nivel físico soportado por ATM que emplee medios de par trenzado no apantallado. En los estándares sobre el ADSL, desde el primer momento se ha contemplado la posibilidad de transmitir la información sobre el enlace ADSL mediante células ATM. La información, ya sean tramas de vídeo MPEG2 o paquetes IP, se distribuye en celdas ATM, y el conjunto de celdas ATM así obtenido constituye el flujo de datos que modulan las subportadoras del ADSL DMT. Si en un enlace ADSL se usa ATM como protocolo de enlace, se pueden definir varios circuitos virtuales permanentes (CVPs) ATM sobre el enlace ADSL entre el ATU-R y el ATU-C. De este modo, sobre un enlace físico se pueden definir múltiples conexiones lógicas cada una de ellas dedicadas a un servicio diferente. Por ello, ATM sobre un enlace ADSL aumenta la potencialidad de este tipo de acceso al añadir flexibilidad para múltiples servicios a un gran ancho de banda. Otra ventaja añadida al uso de ATM sobre ADSL es el hecho de que en el ATM se contemplan diferentes capacidades de transferencia (CBR, VBR-rt, VBR-nrt, UBR y ABR), con distintos parámetros de calidad de servicio (caudal de pico, caudal medio, tamaño de ráfagas de células a velocidad de pico y retardo entre células consecutivas) para cada circuito. De este modo, además de definir múltiples circuitos sobre un enlace ADSL, se puede dar un tratamiento diferenciado a cada una de estas conexiones, lo que a su vez permite dedicar el circuito con los parámetros de calidad más adecuados a un determinado servicio (voz, vídeo o datos). Al nivel de enlace, algunos suministradores de equipos de central para ADSL han planteado otras alternativas al ATM, como PPP sobre ADSL y frame-relay sobre ADSL, pero finalmente no han tenido mucho predicamento. 2.2.2. Línea de abonado digital de alta velocidad (HDSL) HDSL es probablemente el servicio DSL más conocido. En su diseño original HDSL utilizaba dos pares de hilos de cobre para transmitir 1,544 Mbps de ancho de banda en cada dirección. Podía soportar estas transmisiones bidireccionales de velocidad idéntica a la de T1 en una distancia de hasta 4 Km y tan sólo por una fracción del coste del servicio T1 convencional. Así pues, HDSL muestra alguno de sus mayores potenciales en la economía del transporte del servicio telefónico a zonas de difícil acceso. Sin embargo, HDSL no está exento de problemas. Además de soportar únicamente dos tercios de la distancia de ADSL, también requiere dos pares de cable. Nota: existe una versión de HDSL que utiliza sólo un par de hilos de cobre, pero solamente permite transmisión bidireccional hasta 768 Kbps. Esto es suficiente para la mayoría de las necesidades de transferencia de datos, incluyendo la mayor parte de las videoconferencias. Otro inconveniente de HDSL es que no puede soportar tráfico de voz tan fácilmente como ADSL. Para gestionar una conversación de voz normal utilizando HDSL se requerirían convertidores y módem especiales que no son necesarios en el caso de ADSL. 2.2.3. Línea de abonado digital de muy alta velocidad (VDSL) Concebida originalmente como una tecnología sustitutiva de los protocolos que requerían cables de fibra óptica y coaxial, VDSL proporciona un ancho de banda para recepción que varía entre 51 Mbps y 55 Mbps. Es muy similar a ADSL, en el sentido que divide la señal transmitida entre varios canales que dinámicamente asignan el ancho de banda y que pueden transmitir RDSI o conversaciones de voz. El canal de transmisión soporta un caudal hacia la red de entre 1,6 Mbps y 2,3 Mbps. Sin embargo, VDSL sólo es capaz de transportar estas señales de gran ancho de banda en el caso de distancias cortas (inicialmente en el rango de entre 300 metros y 5 Kms) lo que significa que el número de lugares donde tiene sentido su aplicación puede ser muy limitado. 2.2.3.1. Estándares de señalización VDSL VDSL está experimentando con ADSL la misma batalla que enfrenta a las señalizaciones CAP y DMT. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 5 7 35 57 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIII

X D S X XD DS SLLL

Sin embargo, VDSL no se encuentra ni mucho menos próxima a ser una tecnología estandarizada. Ahora mismo, VDSL se halla muy alejada de estar comercialmente disponible, estandarizada o no. Una de las razones actualmente es el elevado coste del sistema de circuitos de silicio de los adaptadores VDSL. 2.2.4. Línea de abonado digital simétrica (SDSL) Esta es la versión de ADSL que soporta igual ancho de banda tanto para el canal receptor como para el transmisor. Actualmente, SDSL soporta un ancho de banda simétrico de 348 Kbps por canal. Aunque es mucho más lento que las otras variedades del servicio de línea de abonado digital, aún así es más que suficiente para videoconferencia. Sin embargo, hasta el momento presente todavía no se había comenzado ninguna prueba comercial de SDSL. 2.2.4.1. Estándares de señalización SDSL A1 igual que en el caso de ADSL, SDSL se enfrenta a estándares de señalización incompatibles que rivalizan por el predominio. En un principio, existían dos técnicas de señalización adicionales además de la señalización por amplitud sin portadora (CAP) y la señalización multitono discreta (DMT), pero, recientemente, la batalla parece haber finalizado para estos dos estándares de señalización. Nota: varias técnicas de señalización rivales son más un problema para los vendedores de equipos que para el usuario final. La compañía telefónica indicará que tipo de señalización admite y el usuario únicamente tendrá que comprar el equipo que permita ese tipo de señalización. No obstante, diversas técnicas de señalización incrementan la complejidad y la confusión de la implementación de DSL, así como limitan la interoperabilidad de los sistemas DSL. 2.2.5. Línea de abonado digital ajustable a la velocidad (RADSL) La línea de abonado digital ajustable a la velocidad es un tipo de servicio ADSL que se adapta por sí mismo a la red en la que transmite los datos. Esto significa que RADSL ajusta su velocidad en función de la calidad de la señal y de la distancia a la cual la señal debe transmitirse. RADSL permite una amplia variedad de velocidades digitales en una línea y es capaz de adaptarse a cualquiera de esas velocidades instantáneamente. Por tanto, no importa lo lejos que haya que transmitir una señal compleja, RADSL se asegurará de hacerla llegar intacta. En principio, las compañías telefónicas desarrollaron RADSL para transmitir películas a los hogares de los abonados. El canal de recepción de RADSL puede admitir transmisiones de hasta 7 Mbps, mientras que el canal de recepción puede transmitir desde la instalación del usuario a la red, con un ancho de banda máximo de 1 Mbps. 2.2.5.1. Estándares de señalización RADSL Extrañamente, RADSL también padece la batalla entre CAP y DMT. En un primer momento, podría parecer que la naturaleza adaptativa de RADSL le hiciera tender, casi de manera exclusiva, hacia los múltiples canales de 4 Khz de DMT. Sin embargo, hasta hoy día, el único vendedor que oferta comercialmente RADSL es una filial de AT&T, que es el mayor propulsor de la codificación CAP. Se espera que el buen hacer del ADSL Forum pueda ayudar a resolver estos conflictos en los estándares de señalización, y permita a los vendedores de RADSL y a los usuarios dedicarse a los negocios.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 5 8 35 58 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIII

X D S X XD DS SLLL

33.. M O D E M P A R A C A B L E O C A B L E M O D E M MO OD DE EM MP PA AR RA AC CA AB BL LE EO OC CA AB BL LE EM MO OD DE EM M Los módem para cable son simplemente eso: módem que conectan la computadora o la red de área local (LAN) a la red de televisión por cable (CATV, Community Antenna Televisión). Los módem para cable prometen velocidades de 40 Mbps para recepción y 2,5 Mbps y superiores para transmisión. Desdichadamente, la mayoría de las instalaciones de CATV no operan en ambos sentidos. Esto significa que no pueden admitir ambos tráficos de datos, recepción y transmisión. Después de todo, fueron diseñados como un sistema de envío de datos, no como un enlace de área extensa interactivo. De hecho, para superar esta infraestructura unidireccional, algunos módem para cable, utilizan la infraestructura de cable coaxial combinada con un módem telefónico tradicional. El cable proporciona el camino de recepción, conforme a lo que fue diseñado, mientras que la transferencia de datos en el sentido de transmisión la realiza el módem.

3.1. Método y función Un módem para cable, por su propia naturaleza, funciona de manera diferente a como lo hace un servicio de línea de abonado digital. Los servicios DSL proporcionan a cada usuario una conexión dedicada. Los usuarios de módem para cable, por otra parte, compartirán una conexión a Internet (véase el Capítulo dedicado a WAN e Internet) con el resto de los usuarios de su región. El ancho de banda de esta conexión a Internet es igual al de un canal de televisión por cable, con paquetes de datos dirigidos a todos los usuarios viajando en el mismo canal. Cada paquete de datos contiene una identificación de usuario en su cabecera y el módem para cable sólo recogerá aquellos paquetes dirigidos a él. Si se piensa que esto suena parecido a una red de área local, es cierto. De hecho, gran parte de los módem para cable propuestos y de los sistemas de acceso a Internet por CATV utilizan un protocolo de transporte similar en su modo de funcionamiento al de 10BaseT. Por supuesto, esto implica que los módem para cable van a tener los mismos problemas de tráfico debido al uso que los protocolos de transporte de las LAN con las colisiones. Cuantos más usuarios haya en la red, menor será el ancho de banda que corresponderá a cada uno de ellos. Por consiguiente, aunque la compañía indique que se va a disponer de una conexión de área extensa de 10 Mbps, el usuario sólo obtendrá una parte de esa conexión. Y cuantos más usuarios estén conectados al canal y lo estén usando activamente, menor será la ranura de ancho de banda del canal que corresponderá a un usuario individual. Además, actualmente no existe ningún estándar sobre el formato del módem para cable. Y probablemente no lo habrá durante algún tiempo, porque demasiadas compañías tendrían que actualizar sus instalaciones para admitir conexiones bidireccionales de las que nadie sabe a qué futuro sistema de cable se parecerán.

3.2. DSL vs. Cablemódem Así pues, ¿cuál es la mejor opción, un servicio DSL o un módem para cable? Para aquellos usuarios que se encuentran en edificios de un área de negocios, parece bastante claro que dispondrán del servicio DSL antes de que el cable módem sea una opción real. Después de todo, las redes de cable CATV se desarrollaron y diseñaron principalmente para dar servicio a las áreas residenciales, por tanto no es casualidad que las compañías de cable no se concentren en la actualización de sus redes en las áreas de negocios. Además, no hay que olvidar que las compañías telefónicas no tendrán que actualizar sus redes de la misma forma que tendrán que hacerlo las compañías de cable. Sin embargo, tanto las compañías de CATV como las compañías telefónicas deberán actualizar sus sistemas para convertirse en proveedores de servicio Internet (Internet Service Providers, ISP). Esto significa que necesitarán encaminadores o routers y sistemas de servicio de alta velocidad en todas sus centrales de conmutación. Adicionalmente, el servicio DSL, dado que depende de un único par de cable estándar, permitirá elegir despreocupadamente entre distintos proveedores de DSL, al igual que actualmente es posible seleccionar indiscriminadamente entre proveedores de larga distancia. Sin embargo, el servicio de módem para cable CATV sólo lo suministra el operador local de CATV (y únicamente de acuerdo a las técnicas de transmisión que elija ofertar). Por otra parte, si se está situado en un área residencial donde los servicios DSL y módem para cable se encuentran en igualdad de condiciones, hay que recordar que el servicio DSL lleva varios meses o incluso años (dependiendo del lugar de residencia) comercialmente disponible. El servicio DSL es ofrecido actualmente por las compañías CATV (siempre que la infraestructura del operador de CATV pueda gestionar transmisiones bidireccionales). En este caso, debe tenerse en cuenta que las actualizaciones de las instalaciones de CATV serán caras y que este gasto repercutirá sobre los usuarios. También hay que tener en cuenta que existen muchos más vendedores de módem para cable que vendedores de adaptadores DSL y que la mayor competencia seguramente reducirá los precios. Por supuesto, independientemente de dónde se encuentre el usuario, existirán posibilidades de utilizar alguno de estos servicios. Ambos aportan importantes beneficios, mientras que ambos tienen, hoy en día, auténticos retardos y escollos. DSL probablemente se convierta en un servicio de área extensa de alta velocidad para los T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 5 9 35 59 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIII

X D S X XD DS SLLL

negocios muy viable y popular, mientras que los módem para cable se convertirán en el servicio predilecto de los teletrabajadores y de los negocios particulares (hasta que el incremento de su utilización obstruya las redes y reduzca el rendimiento hasta niveles inaceptablemente lentos). A pesar de ello, ambos tienen el potencial de incrementar la velocidad de acceso a la red de área extensa (especialmente el acceso a Internet) por tanto, merece la pena esperar.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 6 0 36 60 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

SSO ON NE ET T//SSD DH H 11.. IINNNTTTRRRO O D U C C Ó N OD DU UC CC CIIIÓ ÓN N 1.1. Transmisión y Conmutación Dentro del estudio de las telecomunicaciones, caben considerar dos aspectos muy importantes: uno, el relativo a las técnicas de conmutación y dos, el relativo a las de transmisión. El primero de ellos ya ha sido objeto de estudio en capítulos anteriores al abordar las redes de conmutación de circuitos y de paquetes, quedando por tratar el segundo, que es el objetivo de este capítulo. La evolución de la red telefónica tradicional hacia la RDSI-BA (Red Digital de Servicios Integrados de Banda Ancha), basada en ATM, y la adopción de la JDS (Jerarquía Digital Síncrona), son varios aspectos significativos a considerar cuando se habla de las nuevas tecnologías que soportarán las aplicaciones multimedia que ya empiezan a difundirse y utilizarse en entornos privados y profesionales. En lo referente a las técnicas de transmisión, es interesante abordar las nuevas tecnologías digitales, que con una gran velocidad, van sustituyendo a las actuales, aportando una mayor velocidad y fiabilidad, todo ello con un menor coste (ver figura, que muestra la capacidad de ancho de banda y la distancia que consiguen las distintas técnicas de transmisión). Existen ya técnicas de banda ancha que, apoyándose en medios de transmisión como es la fibra óptica, permiten velocidades de 655 Mbps o incluso más. Debido a la gran difusión de las tecnologías actuales y de su uso mayoritario, se realizará un estudio en detalle sobre cuáles son las jerarquías de transmisión empleadas, cómo se utilizan y algunas de las técnicas para su aprovechamiento. La transmisión suele representar el mayor porcentaje del coste de la red corporativa; por tanto las soluciones que aprovechen mejor el ancho de banda disponible son las más adecuadas.

1.2. Jerarquías Digitales 1.2.1. Jerarquías Asíncronas Las arquitecturas de redes de telecomunicaciones se suelen definir conforme a un modelo de capas, bastante útil para su estudio. Las capas de circuito son las portadoras de los teleservicios y se soportan por las capas de trayecto, que suministran el transporte entre las capas de circuitos; las capas de medios de transmisión suministran la transmisión entre los nodos de la capa de trayecto. La evolución de la red de transporte durante los últimos años ha sido hacia su digitalización, basada en servicios portadores, isócronos (servicios a intervalos de tiempo precisos) y de 64 Kbps en la capa de circuito y la aplicación de técnicas de multiplexación plesiócrona en la capa de transporte, con una codificación de línea generalmente propietaria. El sistema de multiplexación PDH (Jerarquía Digital Plesiócrona, Pleisocronous Digital Hierarchy) fue desarrollado a principios de los sesenta por AT&T en los Estados Unidos. Un poco más tarde en Europa la ITUT (entonces CCITT) diseñó otro sistema pero tomando decisiones diferentes en cuanto a la forma de multiplexar los canales, lo cual produjo un sistema incompatible con el americano, tanto en las velocidades de la jerarquía como en la estructura de las tramas. Por su parte Japón decidió seguir la versión americana de PDH hasta el nivel 2 de la jerarquía (6,312 Mbps) pero creó la suya propia a partir del nivel 3; hay por tanto tres sistemas incompatibles de PDH. Dicho en pocas palabras, el sistema telefónico digital mundial basado en PDH es un desastre. Como consecuencia de ello los enlaces telefónicos transoceánicos necesitan el uso de costosas y caras cajas negras que conviertan un sistema en otro. Así se tuvo que los estándares norteamericano y europeo evolucionaron de diferentes tasas básicas de señal en la jerarquía no-síncrona. Mientras que en Norteamérica el TDM (multiplexación por división de tiempo) combinaba 24 canales de 64 Kbps (señales DS0s) en una sola señal DS1 de 1,54 Mbps, en Europa el TDM T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 6 3 3 36 63 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

multiplexaba 32 canales de 64 Kbps (señales E0s) en una señal E1 de 2,048 Mbps (formato CEPT). La siguiente tabla compara las jerarquías de transmisión no-síncronas (asíncronas) de estos lugares (que se volvieron común en la mayor parte del mundo). Jerarquía Norteamericana Señal Velocidad Canales DS-0 64 Kbps 1 DS-0 DS-1 1,544 Mbps 24 DS-0s DS-2 6,3 Mbps 96 DS-0s DS-3 44,8 Mbps 28 DS-1s No definido

Señal E-0 E-1 E-2 E-3 E-4

Jerarquía Europea Velocidad Canales 64 Kbps 1 E-0 2,048 Mbps 32 E-0s 8,45 Mbps 128 E-0s 34 Mbps 16 E-1s 140 Mbps 64 E-1s

Además de la incompatibilidad intercontinental el sistema PDH tiene otros dos inconvenientes importantes: 1. Fue diseñado pensando en sistemas de transmisión de cable coaxial y microondas, y no en fibra óptica; por consiguiente la PDH no utiliza la transmisión por fibra óptica con toda la eficiencia que sería posible. Carece de la flexibilidad, disponibilidad y facilidad de gestión que las nuevas aplicaciones demandan. 2. El hecho de ser una transmisión plesiócrona (uso de múltiples relojes en las jerarquías 2 y superiores) impide extraer directamente canales cuando viajan en tramas de jerarquía superior a T1 o E1. Por ejemplo para extraer (o sustituir) un sólo canal de una línea E4 es necesario desmultiplexar todos los niveles hasta el E1 correspondiente. Este segundo punto requiere una explicación. En PDH la multiplexación de tramas se lleva a cabo basándose en la posición. Supongamos que en una trama E1 estamos interesados en desmultiplexar el octavo de los 32 canales que viajan en ella. Para esto deberemos extraer los bits 57 al 64 (ambos inclusive) de cada trama. Podemos imaginar la trama E1 como provista de un reloj especial que marca un “tick” cada vez que pasan ocho bits, es decir un tick que identifica la frontera de byte, o cuando empieza un nuevo canal en la trama; dicho reloj deberá pues marcar 32 ticks cada 125 mseg, o sea un tick exactamente cada 3,90625 mseg (125/32). Obsérvese que este tick debe ser muy preciso, pues un desplazamiento de solo la mitad de un bit (0,244140625 mseg, 3,90625/16) podría provocar la desmultiplexación errónea del canal. Supongamos ahora que en algún momento dicha trama E1 se multiplexa junto con otras tres en una trama E2, al tratarse de cuatro tramas en principio independientes, el tick (o reloj) de cada una normalmente será diferente, pero al multiplexarlas es preciso “alinearlas” a frontera de byte o sincronizarlas, es decir asignarles un reloj común, pero esto ha de hacerse de forma que al desmultiplexarlas sea posible restaurar cada trama con su reloj original. La forma de hacer esto es añadir bits de relleno al principio de cada trama E1 en cantidad suficiente para forzar la alineación en frontera de byte, y por tanto la sincronización con el resto de tramas E1 (obviamente nunca harán falta más de 7 bits de relleno). El proceso se repite de la misma forma cuando cuatro tramas E2 se multiplexan para dar una trama E3, y así sucesivamente. Aparte de su complejidad la utilización de bits de relleno para sincronizar las tramas tiene la desafortunada consecuencia de que para extraer un canal de una trama E2 es necesario proceder previamente a desmultiplexarla en las correspondientes tramas E1, ya que solo así podremos saber los bits de relleno que contiene, información que es necesaria para poder proceder a la desmultiplexación. Análogamente, si se quiere desmultiplexar un canal de una trama de jerarquía superior es preciso desmultiplexar toda la jerarquía. Para resolver estos dos últimos problemas los ingenieros de Bellcore (laboratorio de investigación de las compañías telefónicas en Estados Unidos) empezaron a trabajar en 1985 en un estándar que denominaron SONET (Red Óptica Síncrona, Synchronous Optical Network). SONET es una norma de transporte óptico, propuesta por ANSI (T1.106), para la multiplexación de señales digitales de alta velocidad sobre fibra óptica. Permite el transporte tanto de los niveles jerárquicos americanos como europeos, así como la extracción / inserción de señales a baja velocidad. Posteriormente fue incorporado por el CCITT (actual ITU-T) en las recomendaciones de la SDH (se lo puede considerar un subconjunto de SDH). SONET define tanto los niveles de transporte óptico como su equivalente eléctrico para transporte de señales síncronas. En SONET la técnica de bits de relleno se sustituyó por la utilización de punteros que indican exactamente en que bit empieza cada una de las tramas multiplexadas, para de esta forma poder acceder de forma directa a la información de un canal determinado y extraer la información deseada sin tener que perturbar al resto de los canales. SONET pretendía ser una jerarquía síncrona que sustituyera a la PDH americana por encima del nivel T3 (que era el más utilizado). La velocidad básica que se definía con la nueva tecnología era de 49,9 Mbps, adecuada para encapsular de manera relativamente eficiente una línea T3 (los 5 Mbps adicionales eran necesarios para información de gestión del sistema, otro de los puntos en que SONET mejoraba considerablemente las facilidades respecto a PDH). Sucesivos valores se construían sencillamente como múltiplos de esta velocidad. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 6 4 3 36 64 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

1.2.2. Jerarquía Síncrona El problema entre Norteamérica y los creadores de estándares del CCITT envolvían como acomodar eficientemente ambas jerarquías asíncronas de 1,5 Mbps y 2 Mbps (DS-1 y E-1 básicos) en un único estándar de sincronización. Dado que la conectividad transoceánica era uno de sus principales problemas, Bellcore propuso a la CCITT en 1987 la adopción de SONET como estándar internacional. La propuesta no fue bien recibida en Europa, ya que las dos jerarquías mas utilizadas (E3 y E4) no encajaban bien en los valores elegidos por los americanos: la E3 desperdiciaba mucha capacidad de los 49,9 Mbps, y la E4 no cabía con la información de gestión en 149,7 Mbps, por lo que tenía que utilizarse para su transporte una trama de 199,6 Mbps, que de nuevo desperdiciaba mucha capacidad. Por su parte Japón, con su sistema peculiar, tenía también sus objeciones. Todos tuvieron que ceder en parte de sus pretensiones, y finalmente se llegó a un acuerdo. La velocidad básica de SONET se estableció en 51,584 Mbps. Esta se denomina OC-1 (Optical Carrier 1, Portadora Óptica) para la interfase óptica y STS-1 (Synchronous Transfer Signal 1, Transferencia Síncrona de Señal) para la interfase eléctrica. El módulo básico de transporte es el STS-1, con una velocidad de 51,584 Mbps, correspondiéndose el tercer nivel STS-3 (155,52 Mbps) con el STM-1 de la jerarquía SDH (ver la tabla más adelante). Es decir, el acuerdo especificó una tasa de transmisión básica de 51 Mbps para SONET y una tasa básica de 155 Mbps para SDH. Los valores superiores son múltiplos de la velocidad STS-1 y se denominan OC-n o STS-n donde n es el número de veces que contiene el valor básico. No todos los múltiplos están permitidos. Debido a la ineficacia de la PDH en los nuevos requerimientos, el CCITT estableció, en 1989, en una serie de recomendaciones (las G.707, G.708, G.709 y G.703 son las más significativas) el estándar internacional que se denominó SDH (Synchronous Digital Hierarchy, Jerarquía Digital Síncrona) basándose en SONET que, con menos capas de trayecto administrativas, una gestión mejorada y normalización en la capa del medio de transmisión para la conexión directa de fibras ópticas entre el equipo nodal y transparencia de tramas de 64 Kbps permitió la inserción / extracción, mediante multiplexores, de forma simplificada. Utiliza como velocidad fundamental o módulos de transporte básico el OC-3, es decir 155,52 Mbps, que se denomina STM-1 (Synchronous Transfer Module 1, Modulo de Transferencia Síncrono). Los valores superiores son múltiplos de esta velocidad, y se denominan STM-n, donde n es el número de veces que contiene un STM-1. Por ejemplo OC-12 = STS-12 = 12 * 51,84 Mbps = 622,08 Mbps = STM-4. No todos los múltiplos están permitidos. La siguiente tabla resume las velocidades actualmente definidas para SONET/SDH: SONET Eléctrico STS-1 STS-3 STS-9 STS-12 STS-18 STS-24 STS-36 STS-48 STS-96 STS-192 STS-255*

Óptico OC-1 OC-3 OC-9 OC-12 OC-18 OC-24 OC-36 OC-48 OC-96 OC-192 OC-255

SDH

Velocidad (Mbps)

Óptico STM-1 STM-3 STM-4 STM-6 STM-8 STM-12 STM-16 STM-32 STM-64 STM-85

Total Datos 51,84 50,112 155,52 150,336 466,56 451,008 622,08 601,344 933,12 902,016 1.244,16 1.202,688 1.866,24 1.804,032 2.488,32 2.405,376 4.976,64 4.810,752 9.953,28 9.621,504 13.219,20 12.778,560 (*) Velocidad máxima teórica (no estandarizada) Así sobre un OC-1 se transporta en América un T3, en Europa un E3 y en Japón un J3.1 (32,064 Mbps). Sobre un OC-3 se transporta en Europa un E4 y en Japón un J3.2 (97,728 Mbps) y sobre un OC-9 se transporta en Japón un J4 (397,2 Mbps). En cada caso el grado de aprovechamiento varía. La compatibilidad internacional está garantizada por la existencia de velocidades comunes en todos los países a partir de 155,52 Mbps. A este estándar se le conoce habitualmente como SONET/SDH. La comunicación en SONET/SDH es siempre full dúplex y simétrica. En la tabla anterior se especificó la velocidad total y de datos en cada caso. A partir de ellas se puede calcular el tamaño de trama, por ejemplo una trama STM-1 tiene un tamaño de 2430 bytes (155.520.000/8.000/8) de los cuales 2349 son aprovechables; quedando los 81 restantes reservados para información de gestión del sistema. Las interfaces OC-3 (STM-1) y OC-12 (STM-4) que corresponden a 155,52 Mbps y 622,08 Mbps están especificadas en la capa física de ATM. La velocidad de 155,52 Mbps es la más utilizada en estas redes; a menudo se la suele referir como 155 Mbps (aunque sería más correcto decir 156 Mbps). La capacidad de transmisión que proporciona la trama STM es divisible dinámicamente mediante los denominados “contenedores”, de los que existen varios tipos (C-12 para las señales primarias en Europa a 2,048 Mbps, C-11 para las americanas de 1,544 Mbps, C-4 para las señales cuaternarias a 140 Mbps, etc.), siendo estos contenedores los que proporcionan la transmisión de las señales procedentes de las distintas jerarquías. A éstos se T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 6 5 3 36 65 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

les añade, además, una cabecera (POH, Path OverHead) que aporta información sobre estado del trayecto, canales, errores, para formar lo que se denomina un contenedor virtual (CV). Luego se emplean los “punteros” para indicar la posición relativa de cada CV dentro de la estructura de la trama, facilitando las operaciones de inserción / extracción, contrariamente a lo que sucede en la jerarquía PDH. La multiplexación se lleva a cabo combinando (o entrelazando) múltiples señales de baja velocidad u orden (1,5 Mbps, 2 Mbps, etc.) dentro de circuitos de alta velocidad (51 Mbps, 155 Mbps, etc.). El cambiar el estándar SONET de entrelazado al bit a entrelazado al byte hizo posible que SDH acomodara ambas jerarquías de transmisión, la europea y la norteamericana. Esta modificación permitió también que una señal STM-1 acarreara múltiples señales de 1,5 Mbps o 2 Mbps, y que múltiples señales STM puedan ser agregadas para transportar velocidades SONET de orden mayor o tributarios SDH. Las recomendaciones SDH definen métodos para subdividir el área de carga útil de un frame STM-1 de varias formas para que puedan acarrear combinaciones de tributarios síncronos y asíncronos. Usando este método, los sistemas de transmisión síncronos pueden acomodar señales generadas por equipos que operan en distintos niveles de la jerarquía asíncrona. 1.2.3. PDH y SDH Las redes actuales de transmisión están diseñadas para el manejo de tráfico telefónico (es decir vocal): servicios con pequeño ancho de banda que, cuando se suman, siguen unos patrones estadísticos bastante predecibles. Los sistemas de transmisión PDH se introdujeron para reducir costes a la vez que para proporcionar una mayor capacidad de ancho de banda, con los sistemas de cableado existentes. Sin embargo, como contrapartida, presentan una estructura muy rígida de la red (jerarquía), costosa de mantener y con un rendimiento incierto. SDH nació para facilitar la compatibilidad entre distintos equipos de gestión y transmisión, por medio de un mayor número de funciones normalizadas que las existentes en los equipos actuales, siendo su objetivo la definición de redes abiertas de alta velocidad basadas en la utilización de la fibra óptica como medio de transmisión. La evolución de las redes plesiócronas a las síncronas se está produciendo a un ritmo bastante acelerado, debido quizá a una mayor demanda de flexibilidad para soportar nuevos servicios, como puede ser la incorporación de RDSI, o la adecuación de SDH para soportar multimedia basada en conmutación ATM. La posibilidad existente en SDH de crear redes en anillo, frente a las tradicionales jerárquicas en estrella/árbol de la PDH, permite una utilización más eficaz, flexible y económica del ancho disponible, pudiéndose asignar éste dinámicamente a cualquiera de los nodos, lo que no es posible en las otras, en la que debe estar planificado de antemano. La ultima diferencia, como vimos anteriormente, es que con PDH extraer un canal a 2 Mbit/s de una trama superior implica un proceso bastante complejo de desmultiplexación y multiplexación para recuperar el canal de orden superior, mientras que en SDH se accede directamente a un canal en cualquier trama sin necesidad de su descomposición y debido a que la trama STM-1 se sincroniza a lo largo de toda la red, la insercìón/extracción de señales se simplifica mucho. Además los punteros SDH permiten adaptar la velocidad de la fuente a la que ofrece el contenedor, mediante la justificación por relleno de bits, lo que permite el empleo de SDH con señales tanto síncronas como plesiócronas, bastando en muchos casos reemplazar unos equipos PDH en la red por otros SDH, sin más.

22.. SSO ON NEETT Es una norma para transporte óptico desarrollada por el ECSA (Asociación de Proveedores para el Desarrollo de Estándares) para el ANSI. El estándar fue iniciado por Bellcore en nombre de las RBOCs y otras compañías con el siguiente propósito: Mantener la compatibilidad de equipamiento entre todos los grandes vendedores (networking • multivendedor). Incorporarse al networking síncrono, para mejorar el cronómetro de referencia de los elementos de red. • Mejorar las operaciones, la administración, el mantenimiento y el aprovisionamiento. A esto se lo • denomina OAMP (operations, administration, maintenance y provisioning). Tener una multiplexación de adición / extracción (ADM, add/drop multiplexing) más eficaz. • Mantener las arquitecturas de redes en anillos basados en estándares (llamados “sobrevivientes”). • Soportar redes para el transporte de nuevos servicios, como ATM. • Los sistemas de transmisión basados en SONET/SDH son la base de las modernas infraestructuras de telecomunicaciones. Para la transmisión de datos SONET/SDH suministra un transporte extremadamente fiable, tanto por la baja tasa de errores de la fibra óptica y el sistema de transmisión síncrono, como por la posibilidad de disponer de caminos físicos redundantes con conmutación automática en caso de avería. Algunas compañías telefónicas están poniendo a disposición de sus grandes clientes el uso de infraestructuras SONET/SDH, especialmente para la constitución de redes privadas virtuales, es decir la creación de redes integradas de voz y datos de alta capacidad. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 6 6 3 36 66 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

Las velocidades de SONET/SDH son tan elevadas que estas infraestructuras se utilizan normalmente para transportar múltiples canales de datos, voz, etc. Estos pueden ser canales SDH de velocidad inferior, por ejemplo un STM-4 transportando cuatro STM-1, o canales PDH, o combinaciones de ambos (por ejemplo un STM-4 transportando dos STM-1, un E4, dos E3 y 21 E1). Existen unas reglas que especifican las capacidades máximas, que son siempre inferiores a lo que cabría esperar de la simple suma de velocidades. Los canales que se agrupan en uno de velocidad superior se denominan tributarios de éste.

2.1. Capas SONET Las normas SONET actuales contienen las especificaciones para las interfaces “fibra a fibra” a nivel físico (fotónico). Estas determinan la velocidad de la línea óptica, la longitud de onda, los niveles de energía, las formas del pulso, y la codificación. Los estándares también definen, en forma completa, la estructura del frame, las cabeceras, y el mapeo de la carga útil. La capa física de SONET/SDH se subdivide en cuatro subcapas: la subcapa más baja se denomina subcapa fotónica y especifica las características físicas de la luz y la • fibra utilizadas, que pueden ser monomodo o multimodo y siempre trabajan en la segunda ventana. la subcapa de sección se ocupa de los enlaces punto a punto entre elementos contiguos cualesquiera • (repetidores, multiplexores o conmutadores). la subcapa de línea se encarga de la multiplexación y desmultiplexación de tributarios entre dos • multiplexores. la subcapa de rutas se ocupa de los problemas relacionados con la comunicación extremo a extremo. • Como podemos ver existe un cierto paralelismo entre las cuatro subcapas de SONET/SDH y las cuatro primeras capas del modelo OSI.

2.2. Multiplexación SONET La figura siguiente muestra la estructura básica de multiplexación de SONET. Cualquier tipo de servicio, desde voz a datos a alta velocidad y video, pueden ser aceptados por los distintos tipos de adaptadores de servicio. Un adaptador de servicio mapea la señal dentro del contenedor de carga útil del STS-1 o “tributario virtual” (VT, Virtual Tributary). Los nuevos servicios y señales pueden transportarse agregando nuevos adaptadores de servicio en el borde de la red SONET. Todas las entradas se convierten a un formato base de una señal STS-1 síncrona (51,84 Mbps o superior). Las velocidades de entrada más bajas, como un DS-1, son multiplexadas primeras (por bit o byte) dentro de los tributarios virtuales o STSs. Luego, los distintos STS-1s síncronos se multiplexan juntos, en un proceso de una o dos fases, para formar una señal STS-n eléctrica (n = uno o más). La multiplexación de STSs es realizada por un multiplexor síncrono entrelazado al byte. Básicamente, los bytes se intercalan juntos en un formato tal que las señales de baja velocidad son visibles. No ocurre ningún proceso adicional de la señal excepto la conversión directa de eléctrica a óptica para formar una señal OC-n. Los elementos básicos de la multiplexación SONET/SDH en redes integradas (voz y datos) son: Multiplexores terminales, que insertan las señales tributarias en los contenedores virtuales para • incorporarlos en la trama de alta velocidad. Multiplexores de inserción / • extracción, que permiten introducir o extraer una señal tributaria a/de la trama principal, de manera flexible. Multiplexor central, para la • inserción / extracción en configuraciones en anillo, de alta velocidad. Multiplexor de interconexión, • para conexión de centrales en redes interurbanas y nacionales.

2.3. Formato del Frame SONET SONET T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 6 7 3 36 67 7

usa

la

tasa

de

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

transmisión básica de STS-1 (51,84 Mbps). Los señales de nivel superior son múltiplos enteros de la tasa base. Por ejemplo, STS-3 es tres veces la tasa de STS-1 (3 x 51.84 = 155.52 Mbps). La tasa de STS-12 sería 12 x 51.84 = 622.08 Mbps. 2.3.1. Bloque STS-1 El formato de trama de la señal STS-1 (ver figura) puede dividirse en dos áreas principales: cabecera de transporte y contenedor de carga útil síncrona (SPE, Snchronous Payload Envelope). El contenedor de carga útil síncrono también puede dividirse en dos partes: la cabecera de camino STS y la carga útil (payload). La carga útil es el tráfico que es transportado y enrutado sobre la red SONET. Una vez que la carga útil es multiplexada dentro del SPE, puede transportarse y conmutarse a través de SONET sin tener que ser examinado y posiblemente desmultiplexado en los nodos intermedio. De esta forma se dice que SONET es independiente del servicio o transparente. La carga útil de STS-1 tiene capacidad para transportar hasta: • • •

28 señales DS-1s. 1 señal DS-3. 21 CEPT-1s (señales CCITT de 2.048 Mbps) o una combinación de los anteriores.

El formato de frame STS-1 normalmente se dibuja como una matriz de nueve filas de 90 bytes cada una (ver figura). La señal se transmite byte a byte empezando por el byte uno (de izquierda a derecha desde la fila uno a la nueve). El frame entero se transmite en 125 microsegundos. SONET provee sustancial información de cabecera, permitiendo una multiplexación más simple y capacidades OAMP muy extendidas. La información de cabecera tiene diversas capas (ver figuras). la cabecera de nivel de camino (path level overhead) es transportada de extremo a extremo; se agrega a • la señal DS-1 cuando se mapean dentro de los tributarios virtuales (VT) y para la carga útil STS-1 que viaja de extremo a extremo. la cabecera de línea • (line overhead) es para señales STS-n entre multiplexores STS-n. la cabecera de sección • (section overhead) se usa para comunicaciones entre elementos de red adyacentes, como ser regeneradores. La cabecera de transporte se compone de la cabecera de sección y de la cabecera de línea. La cabecera de camino STS-1 es parte del SPE. Las cabeceras contienen bastante información para permitir operar a la red y permitir comunicaciones OAMP entre controladores de red inteligentes y nodos individuales. 2.3.2. Tributarios Virtuales (VTs) Además del formato STS-1 base, SONET también define formatos síncronos por debajo de los niveles STS-1. La carga útil del STS-1 puede subdividirse en tributarios virtuales (VT, Virtual Tributaries) que son señales síncronas usadas para llevar transmisiones de baja velocidad y/o señales asíncronas. Los VTs están contenidos dentro del STS-1, de ahí que sean subniveles de este. Hay tres tamaños de VTs que se reflejan en la tabla de la figura. Así un VT-1.5 es un tributario virtual que contiene una señal DS-1 (1,544 Mbps) (asíncrona). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 6 8 3 36 68 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

Las cargas útiles de los VTs y las cabeceras de camino de los VT comprimen el contenedor de carga útil síncrono del VT y se hacen similar a la carga útil del STS. Dentro de un frame STS-1, cada VT ocupa un numero de columnas. Dentro del STS-1, muchos de los grupos de VT pueden mezclarse entre si para formar una carga útil STS-1 (ver figura). 2.3.2.1. Grupos de VTs Para acomodar diferentes mezclas de VTs de manera eficiente, el SPE STS-1 se divide en siete grupos (los grupos de VT están intercalados). Un grupo de VT debe contener un VT-6, tres VT-2s, o cuatros VT-1.5s. Un grupo de VT debe contener un único tamaño de VTs, pero diferentes tipos de grupos de VT pueden mezclarse dentro de un SPE STS-1. 2.3.2.2. Visibilidad DS-1 En la figura se muestra la trama SONET STS-1 junto con las DS-1s visibles individualmente (ubicadas juntas para su fácil identificación). A causa de que la multiplexación es síncrona, los tributarios de baja velocidad (señales de entrada) pueden multiplexarse juntos pero aun así son todavía visibles por las transmisiones más altas. Un VT individual que contiene un DS-1 puede extraerse sin desmultiplexar el STS-1 entero. Esta mejor accesibilidad mejora la conmutación y la asistencia (grooming) de los VT o niveles STS. En un frame DS-3 asíncrono, los DS-1s pasan por dos niveles de multiplexación (DS-1 a DS2; DS-2 a DS-3) lo cual incluye la adición de relleno y bits de entramado. Las señales DS-1 son mezcladas en alguna parte, en los campos de información de bits y no pueden ser fácilmente identificados sin desmultiplexar el frame entero. Para la multiplexación se usan diferentes técnicas de sincronización. En los sistemas asíncronos existentes, el temporizador para cada Sistema de Transmisión por Fibra Óptica (FOTS) terminal no se bloquea o cierra con un reloj común. Por consiguiente, pueden ocurrir grandes variaciones de frecuencia. Los bits de relleno (bit stuffing) son una técnica para sincronizar las distintas señales de baja velocidad a una tasa común antes de la multiplexación. 2.3.2.3. Punteros SONET usa los “punteros” para compensar las variaciones de frecuencia y de fase. Los punteros permiten el transporte transparente del payload (carga útil) síncrono (STS y/o VT) a través de los límites plesiócronos. El uso de punteros evita retardos y pérdida de datos asociadas con el uso de grandes buffers para sincronización (frames de 125 microsegundos). Los punteros proveen un medio simple, dinámico y flexible, para alinear fases de cargas útiles STS y VT, mientras permite facilidad de extracción, inserción, y conmutación de estas cargas útiles en la red. Las señales de transmisión atenuadas y el jitter pueden también minimizarse con el uso de punteros. En la figura se muestra un puntero STS-1 que permite separar al SPE de la cabecera de transporte. El puntero es simplemente un valor de desplazamiento que apunta al byte dónde empieza el SPE. El diagrama muestra el caso típico del SPE que se solapa con dos frames STS-1. Si existe una variación de frecuencia o de fase entre el frame STS-1 y su SPE, el valor del puntero aumentará o disminuirá para T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 6 9 3 36 69 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

mantener la sincronización. 2.3.2.4. Mapeo de los VTs Hay distintas opciones para mapear las cargas útiles dentro de un VT. El mapeo VT de modo bloqueado sobrepasa (bypass) el uso de los punteros con un mapeo fijo orientado al byte de flexibilidad limitada. El mapeo VT de modo flotante usa los punteros para permitir que la carga útil “flote” dentro de la carga útil del VT. Hay tres tipos diferentes de mapeo de modo flotante. el asíncrono, el síncrono al bit, y el síncrono al byte. 2.3.3. Cargas útiles concatenadas Para futuros servicios, el STS-1 puede no tener bastante capacidad para transportar algunos servicios. SONET ofrece la flexibilidad para concatenar STS-1s para proveer el ancho de banda necesario. Así por ejemplo se pueden concatenar tres STS-1s de 155,52 Mbps para proveer la capacidad de transportar un canal H4 de video digital. Los STS-1s puede concatenarse hasta un STS-3c, después la concatenación se hace en múltiplos de STS-3c. Para los servicios ATM, el concatenamiento se hace en múltiplos de STS-12c. Los tributarios virtuales pueden concatenarse hasta un VT-6 en incrementos de VT-1.5, VT-2, o VT-6.

33.. EELLLEEEM M E N T O D E R E D ON NEETT ME EN NT TO OSSS D DE ER RE ED D SSO Un sistema SONET/SDH está formado por un conjunto de conmutadores, multiplexadores y repetidores, todos interconectados por fibra óptica. Si por ejemplo se quiere interconectar dos ordenadores mediante un STM-1 se enchufarán físicamente a dos multiplexores SDH (también llamados ADM, Add-Drop Multiplexor), que a su vez estarán interconectados mediante dos fibras (una para cada sentido). Según la distancia que separe los ADMs puede ser necesaria la utilización de repetidores. Se puede conectar varios multiplexores en forma de anillo, en cuyo caso los datos viajan siempre en el mismo sentido, con lo que se consigue comunicación full dúplex utilizando una sola fibra para constituir el anillo; sin embargo lo normal es utilizar dos fibras y tener una de ellas de reserva para caso de avería, con conmutación automática en cuestión de milisegundos. Se puede hacer también topologías más complejas, malladas, utilizando conmutadores SDH. La fibra que une directamente dos equipos SDH cualesquiera (multiplexores, conmutadores o repetidores) se denomina sección; a la unión entre dos multiplexores contiguos (posiblemente a través de repetidores) se la conoce como línea; por último la definición de un camino completo de comunicación entre dos multiplexores para la interconexión de dos equipos finales (que puede atravesar varios repetidores y multiplexores intermedios) se llama ruta. Aunque los elementos de red (NEs, Network Elements) son compatibles al nivel de OC-n, estos pueden diferir en algunas características entre un vendedor y otro. SONET no restringe a los fabricantes a proveer un solo tipo de producto, ni les exige proveer todos los tipos. Por ejemplo, un vendedor podría ofrecer un multiplexor add/drop con acceso DS-1 solamente, mientras que otro podría ofrecer acceso simultáneo a DS-1 y DS-3. Las redes de transporte SONET actuales emplean diferentes topologías para satisfacer los objetivos de simplicidad de red, contención de costos, eficiencia del ancho de banda y mantenimiento en el tiempo. Por ejemplo se puede usar una configuración de hubs ópticos para eliminar la necesidad del uso de una configuración costosa y complicada con elementos de red back to back. En forma similar, puede desarrollarse una red de anillo autoreparable con el fin de asegurar un servicio continuo a través de caminos dispersos geográficamente y redundantes.

3.1. Terminal punto a punto Esta es la topología de transmisión clásica, o configuración tradicional, en donde la totalidad de la carga útil SONET (payload) es entregada a cada punto extremo de una conexión de fibra o ruta. Los sistemas punto a punto se emplean por lo gral. en aplicaciones de transporte básico denominados “sistema simple / solución de ruta simple”. Aunque no están diseñados específicamente para ser totalmente seguros, la confiabilidad de un sistema punto a punto puede ser ampliada a través del uso de rutas alternativas o caminos de protección dispersos geográficamente. Cuando una ruta alternativa o ruta diversa excede su alcance normal de transporte, puede emplearse uno o más regeneradores o amplificadores ópticos para reconstituir la señal óptica.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 7 0 3 37 70 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

3.1.2. Compartición del canal de protección Este es un elemento multired, de una configuración punto a punto, que conserva pares de fibra para permitir que los múltiples sistemas compartan un canal de protección común. En aplicaciones con demandas de tráfico de crecimiento rápido, la implementación de la protección 1:N puede aplazarse, o ser evitada, dado los grandes costos asociados y el tiempo que demanda la implementación de un nuevo cableado de fibra óptica. Si ocurre una falla o una degradación de señal en el canal óptico utilizado, el tráfico afectado es reruteado automáticamente por el canal de protección a través del loop de protección internodo (inter-shelf protection loop) y de los nodos de protección dedicados ubicados en cada extremo del tendido de fibra (span). Cada nodo puede estar equipado con un juego completo mixto de tipos de tributarios ópticos y eléctricos. Si se desea, los nodos de protección, en configuración de protección 1:N, y el ancho de banda de protección, generalmente “vacío”, pueden ser utilizados para transportar tráfico extra no protegido. En el campo de la industria existe un dispositivo que permite que 11 sistemas punto a punto compartan un canal de protección común (se tiene protección 1:11), unos de los más altos niveles de compartición de canal de protección. Dicho dispositivo es el S/DMS TransportNode.

3.2. Multiplexor Add/Drop (ADM) Un multiplexor / demultiplexor de fase simple podría multiplexar varias entradas dentro de una señal OCn. Solamente aquellas señales que lo necesiten serán extraídas o insertadas, el tráfico restante continuará a través del elemento de red sin requerir unidades especiales o procesamiento de señal. La configuración ADM provee acceso directo a los canales VT/STS (que entran o salen), ubicados en los sitios intermedios a lo largo de la ruta de fibra (sin tener que multiplexar / desmultiplexar innecesariamente a medida que pasa el tráfico). Ofrece reducción de costos y mejor confiabilidad en comparación con los sitios intermedios equipados con configuraciones de terminales back to back complejas. Al igual que las terminales punto a punto, las rutas ADM pueden extenderse geográficamente a través de distintos caminos de protección (rutas alternativas o diversidad de rutas). 3.2.1. Extraer y repetir SONET permite “extraer y repetir” (drop and repeat), también conocido como “extraer y continuar”, una capacidad importante en aplicaciones de telefonía y CATV. Con esto, una señal termina en un nodo, se duplica (repite), y se envía al próximo nodo y a los nodos subsecuentes. En redes en anillo, provee ruteo alternativo del tráfico atravesando anillos interconectados. Si la conexión en uno de los nodos falla, la señal se repite y pasa a través de una ruta alternativa al nodo destino. En aplicaciones de distribución multinodo, un canal de transporte puede llevar eficazmente el tráfico entre múltiples nodos de distribución. Por ejemplo, cuando se transporta video se entrega (extrae) cada canal de programación al nodo y se repite para la entrega al próximo y nodos subsecuentes.

3.3. Conexión cruzada digital de “banda ancha” Una conexión cruzada SONET (cross-connect) acepta varias tasas (rates) o velocidades de portadores T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 7 1 3 37 71 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

ópticos (OCs), accesos a señales STS-1, y switches. Se usa como un “hub” SONET. La mayor diferencia entre un BDCC (Broadband Digital Cross Connect) y un ADM es que el BDCC se puede usar para interconectar un número mayor de STS-1s. El BDCC se puede usar para asistencia (grooming) (consolidando o segregando) de los STS-1s o para administrar tráfico de banda ancha.

3.4. Conexión cruzada digital de “banda amplia” Este tipo es similar al BDCC excepto que la conmutación se hace a niveles de VT (similar a los niveles DS-1/DS-2). Acepta DS-1s, DS-3s, y está equipado con interfaces ópticas para aceptar señales OCs. La mayor ventaja del WDCC (Wideband Digital Cross Connect) es que requiere menos desmultiplexación y multiplexación debido a que sólo se acceden y conmutan los VTs requeridos.

3.5. Anillos SONET autoreparables La arquitectura SONET de anillos autoreparables conforman la solución preferida para aplicaciones donde la “supervivencia” (duración en el tiempo) adquiere suma importancia. Esto se logra protegiendo el anillo de los cortes de cable y proporcionando duplicación de rutas y rutas alternativas para cada servicio. Continuamente un selector de camino monitorea las señales de protección y de trabajo, en cada extremo del camino, y conmuta automáticamente a la señal de protección ante la ocurrencia de un evento en la fibra o por falla o degradación de un nodo. Para asegurar la supervivencia de una extremo a otro, de los servicios que atraviesan múltiples anillos, pueden interconectarse anillos adyacentes mediante el uso de nodos gateways interanillo concordantes (matched node inter-ring gateways). Existen tres tipos de anillos SONET: 1. UPSR (Unidirectional Path Switched Rings, Anillos Conmutados de Camino Unidireccional): en este caso existe un flujo de tráfico unidireccional único. El tráfico de trabajo viaja en una sola dirección en el anillo (en una fibra), mientras que se provee un segundo camino de protección unidireccional en dirección opuesta (en otra fibra). Se usa en redes de acceso donde la mayoría del tráfico (de los múltiples CSA) termina en un hub en una oficina central. Por lo gral., usa velocidades OC-3. 2. BLSR de 2 fibras (Bidirectional Line Switched Rings, Anillos Conmutados de Línea Bidireccional): los elementos de red se interconectan en un loop cerrado usando tramos (span) bidireccionales de 2 fibras entre los nodos; cada fibra maneja una dirección de transmisión (similar a las topologías ADM lineal y punto a punto). El perímetro del anillo puede medir los 1200 Kms y soportar hasta 16 nodos de terminación de trafico (pueden usarse regeneradores o amplificadores ópticos). Exactamente la mitad del ancho de banda disponible entre nodo adyacentes se usa para el trafico de trabajo mientras que la otra mitad del ancho de banda se reserva para protección (no hay, como en UPSR otra fibra separada). Esto particionamiento del ancho de banda se logra mapeando (asignando) el trafico en canales STS-1 o slots de tiempo; así para una línea OC-48 se usan los canales de 1 a 24 para trafico de trabajo y los canales de 25 a 48 para protección. Es usado en redes de acceso, redes de malla distribuidas y redes interoficina con un patrón de tráfico altamente distribuido. Opera con tasas OC-12, OC-48 u OC192. 3. BLSR de 4 fibras: a diferencia del anillo anterior este anillo usa 4 fibras (o dos pares de fibra bidireccionales) que enlazan los nodos adyacentes del anillo. Las fibras adicionales extienden la arquitectura en dos formas: duplica la capacidad de manejo de trafico y ofrece dos modos de conmutación de protección, la automática (fallan las fibras de trabajo y de protección) y la tradicional (fallan las fibras de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 7 2 3 37 72 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H trabajo solamente). La alocacion de ancho de banda es similar a las topologías ADM y punto a punto. Un par de fibras transporta el tráfico de trabajo y el otro par sirve como facilidad de protección. Es usado con aplicaciones que requieran capacidad muy alta y/o protección contra múltiples fallas concurrentes. Mientras que cada tipo de anillo soporta completamente la operación de autoreparable, diferentes características pueden hacer prevalecer a una arquitectura en ciertas ocasiones. Por ejemplo, un BLSR de 2 fibras es una buena opción para redes con un patrón de tráfico altamente distribuido en “malla”.

3.6. Hubs ópticos Los hubs ópticos consolidan el tráfico proveniente de múltiples rutas dentro un canal óptico y las extiende a los sitios remotos. La configuración elimina el costo y complejidad de los arreglos multinodo, que en caso contrario se deberían usar para pasar el tráfico proveniente de diversas fibras (por lo gral. de baja velocidad) a un solo sistema de fibra (por lo gral. de alta velocidad). Las ventajas del hub óptico se aplican por igual tanto para los sistemas de anillos como para los sistemas punto a punto y ADM lineales.

3.7. Regeneradores Un regenerador extiende el alcance de un sistema reconstituyendo la señal óptica en un punto intermedio entre los dos sitios de terminación del servicio. De ser necesario, pueden desarrollarse múltiples cascadas de regeneradores para extender el alcance a cientos de kilómetros. En oposición a algunas soluciones de amplificadores ópticos, los regeneradores trabajan estrechamente con los bytes de la cabecera de sección SONET para una mayor flexibilidad de las operaciones de acceso y un rápido aislamiento de problemas, de una sección especifica, a lo largo de la ruta de fibra. Los regeneradores son generalmente de uno de dos tipos: Regenerador de ruta no diversa: soporta dos canales ópticos bidireccionales en cada dirección para • reconstituir la señal óptica, tanto en los pares de fibras de trabajo como en los pares de fibra de protección, de un sistema punto a punto protegido o de un sistema lineal sin diversidad de rutas (o rutas alternativas). Regenerador de ruta diversa: soporta un solo canal óptico bidireccional asociado con BLSRs de 2 fibras • u otros arreglos con diversidad de rutas.

3.8. Síncrono versus Asíncrono Tradicionalmente, los sistemas de transmisión fueron asíncronos, con cada terminal en la red corriendo con su propio reloj. En transmisión digital, el “clocking” (cronómetro) es una de las consideraciones más importantes. El clocking usa una serie de pulsos repetitivos para mantener la velocidad o tasa de bits de datos (bit rate) constante e indica donde se localizan los unos y ceros en una corriente (stream) de datos. Estos relojes corren totalmente libre y no están sincronizados, produciendo grandes variaciones en la tasa o velocidad reloj (clock rate) y en la tasa o velocidad de bits de la señal. Por ejemplo, una señal DS-3 a 44,736 Mbps + 20 ppm (partes por millón) pueden producir una variación de hasta 1789 bps entre un DS-3 entrante y otro. La multiplexación asíncrona usa múltiples fases. Los señales asíncronas, como un DS-1, son multiplexadas, adicionadas con bits de relleno (bit stuffing), para responder a las variaciones de cada stream individual, y combinadas con bits de entramado (framing bits) para formar un stream DS-2. Los bits de relleno se usan nuevamente para multiplexar hasta un frame DS-3. Los DS-1s no son visibles ni accesibles dentro de un frame DS-3. Los DS-3s son multiplexados a velocidades mayores de la misma manera. En las velocidades o tasas asíncronas más altas, las señales no pueden ser accedidas sin desmultiplexación. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 7 3 3 37 73 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

En un sistema síncrono, como SONET, la frecuencia promedio de todos los relojes del sistema será la misma (síncrona) o cercana a la misma (plesiócrona). Cada reloj puede referenciar a una fuente altamente estable. Así, las velocidades STS-1 permanecen al valor nominal de 51,84 Mbps, permitiendo que muchas señales síncronas STS-1 puedan ser apiladas juntas cuando se multiplexan sin bits de relleno. Así, los STS-1s son fácilmente accedidos en las velocidades STS-n más altas. Los VTs síncronos de baja velocidad son también fáciles de entrelazar y transportar a velocidades mayores. A velocidades bajas, los DS-1s se transportan por señales VT-1.5 síncronas a una tasa constante de 1,728 Mbps. La multiplexación de un solo paso hasta el STS-1 no requiere bits de relleno y los VTs se acceden fácilmente. Los punteros acomodan las diferencias entre las frecuencias de fuentes de referencia y previene las diferencias de frecuencia durante las fallas de sincronización. 3.8.1. Jerarquía de sincronización Los conmutadores (switches) digitales y los sistemas de conexión cruzadas (DCC, Digital Cross Connect) son empleados normalmente en la jerarquía de sincronización de red digital. La red está organizada en una relación maestro / esclavo con los relojes de los nodos de mayor nivel alimentando las señales de sincronía o cronometraje (timing) de los relojes de los nodos de nivel más bajo. Todos los nodos pueden guiarse por una fuente de referencia primaria, un reloj atómico (Stratum 1) con una exactitud y estabilidad extremadamente alta. Los relojes menos estables están adecuados para soportar los nodos más bajos. La red de la figura ilustra la jerarquía de sincronización de una red digital, con todos los relojes operando (normalmente) a la misma frecuencia que una fuente de referencia. Una red más grande puede comprimir la interconexión de muchos de los “clusters” (racimos) de nodos, cada uno operando en forma plesiócrona. 3.8.2. Sincronización SONET La figura ilustra cómo puede sincronizarse una red SONET. El reloj interno de una terminal SONET puede derivar o tomar su señal de cronometro (timing) desde un Equipo Integrado Proveedor de Cronómetros (BITS, Building Integrated Timing Suply) usado por los sistemas de conmutación y otros equipos. De este modo, la terminal servirá como “maestro” para los demás nodos SONET, proporcionando su timing a la señal OC-n saliente. Los demás nodos SONET operarán en modo “esclavo” (o loop timing) con sus relojes internos cronometrados por la señal OC-n entrante. Los estándares actuales especifican que una red SONET podrá derivar su cronometro (timing) desde un reloj Stratum 3 o mayor.

44.. BBEEENNNEEEFFFIIICCCIIIO O D E L U O D E ON NEETT OSSS D DE EL LU USSSO OD DE E SSO La red de transporte que usa SONET proporciona capacidades de networking mucho más poderosas que las existentes en los sistemas asíncronos. Los beneficios claves proporcionados por SONET son: 4.1.1. Configuraciones multipunto La siguiente figura ilustra la diferencia entre sistemas punto a punto y multipunto. La mayoría de los sistemas asíncronos existentes son convenientes sólo para configuraciones punto a punto, mientras que SONET soporta multipunto o configuración con hubs (concentrador o punto central). Un hub es un sitio intermedio desde el cual se distribuye el tráfico a tres o más puntas (spurs). El hub permite que cuatro sitios o nodos se comuniquen como una sola red en lugar de tres sistemas separados. El hub reduce los requisitos para T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 7 4 3 37 74 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

multiplexar / desmultiplexar “hacia atrás” (back to back), y ayuda a comprender los beneficios de la asistencia (grooming) de tráfico. Los proveedores de red ya no necesitan poseer y mantener equipamiento localizado en el área del cliente. Una aplicación multipunto permite interconexión OC-n, posibilitando a los consumidores optimizar el uso compartido de la infraestructura SONET. 4.1.2. Asistencia 30 La “asistencia” (grooming) se refiere a la consolidación ó segregación de tráfico para hacer más eficaz el uso de los medios. Consolidar significa combinar tráfico de diferentes locaciones dentro de una sola facilidad. En la figura, por ejemplo, los enlaces de fibra desde el nodo A al nodo C y del nodo B al nodo C están subutilizados. En lugar de conectar dos fibras desde A a D, se consolida el tráfico a lo largo de una sola fibra hacia el nodo D, maximizando la utilización del medio. La segregación es la separación del tráfico. Por ejemplo, el tráfico desde el nodo D debe ir a los nodos A y B. Con los sistemas existentes, se podría usar la embarazosa técnica de “arrastre hacia atrás” (backhauling) para reducir el gasto de la multiplexación y desmultiplexación. En ese caso, el tráfico para el nodo A se transporta antes que el del nodo C hacia B. El tráfico para el nodo A es extraído (dropped) y el tráfico para el nodo B es ruteado de nuevo hacia C (routed back) debido al exceso de capacidad. Después del tráfico del nodo A el tráfico del nodo B alcanza su destino (de C hasta B). En contraposición, un sistema SONET puede segregar tráfico de un STS-1 o nivel VT para enviarlo a los nodos apropiados. La asistencia (grooming) elimina las técnicas ineficaces como la del backhauling. Es posible asistir tráfico sobre sistemas asíncronos, pero para hacer esto se requerirá de configuraciones “hacia atrás” (back to back) muy caras y paneles DSX manuales o conexiones cruzadas electrónicas. La asistencia puede también proporcionar segregación de servicios. Por ejemplo, en un punto de interconexión, una línea SONET entrante puede contener diferentes tipos de tráfico, como voz conmutada, datos y video. Una red SONET podría segregar, convenientemente, el tráfico conmutado del no conmutado. 4.1.3. Reducción de la multiplexación “hacia atrás” La evolución de un multiplexor terminal de fibra se inicio con elementos de red separados utilizados para convertir una señal DS-1 a una señal OC-n. Se usaban multiplexores M13 separados (de DS-1 a DS-3) y terminales FOTS (de fibra óptica) para multiplexar una señal DS1 a una señal DS-2, de DS-2 a DS-3, para luego recién pasar la señal DS-3 a una velocidad de línea óptica. El próximo paso de la evolución fue una terminal fibra / multiplexor mecánicamente integrada. En el formato asíncrono existente, se debe tener cuidado al rutear circuitos para evitar multiplexar / desmultiplexar demasiadas veces dado que se requiere de la electrónica (y su costo de capital asociado) cada vez que se procesa una señal DS-1. Con SONET, los DS-1s pueden multiplexarse directamente a la velocidad OC-n. Debido a la sincronización, la señal óptica entera no tiene que ser desmultiplexada, sino sólo aquellas señales VT o STS que necesiten ser accedidas. 4.1.4. Reducción de cableado y eliminación de paneles DSX A los sistemas asíncronos se los denomina también terminales “hacia atrás” (back to back) porque la arquitectura FOTS asíncrona es ineficaz para redes que no sean punto a punto. Se requiere el uso excesivo de la multiplexión / desmultiplexión para transportar una señal de un extremo a otro, y se requieren T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 7 5 3 37 75 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H muchas bahías cruzadas (crossconnect) DSX-1 y paneles DSX3 para interconectar los sistemas. Los costos asociados incluyen: paneles, bahías, cableado, labor de instalación, y las molestias asociadas por ampliar el espacio del piso y los armarios de cableado (racks) congestionados. El sistema SONET permite una configuración en hub, lo que permite reducir la necesidad de terminales back to back. La “asistencia” se realiza electrónicamente a los paneles DSX no utilizados excepto cuando se requiere una interfase con un equipo asíncrono existente. 4.1.5. OAMP mejorado

SONET permite redes OAMP integradas, en concordancia con la filosofía de mantenimiento de “extremos simples”. En otras palabras, una conexión puede alcanzar todos los elementos de red; no se requieren enlaces separados para cada elemento de red. El suministro remoto proporciona mantenimiento centralizado y reduce el viaje de personal de mantenimiento lo que se traduce en economía de gasto. 4.1.6. Monitoreo mejorado de performance SONET proporciona importante información de cabecera para permitir una rápida resolución de problemas y localización y resolución de fallas, antes de que estos degraden a niveles serios. 4.1.7. Nuevos servicios: ATM Uno de los beneficios más importantes de SONET es su habilidad para posicionar la red para transportar nuevos servicios. Con su arquitectura modular, independiente del servicio, SONET proporciona inmensas capacidades en términos de flexibilidad de servicios. Los servicios conmutados por paquete de alta velocidad, el transporte LAN, y la televisión de alta definición (HDTV, High Definition Television) son ejemplos de nuevos servicios soportados por SONET. Muchos de éstos servicios de banda ancha pueden usar ATM; una técnica rápida de conmutación de paquetes que usa paquetes de longitud fija llamados celdas. ATM multiplexa la carga útil dentro de celdas que pueden generarse y enrutarse cuando sea necesario. Debido a la capacidad de ancho de banda que ofrece, SONET es un portador lógico para ATM. En principio, ATM es bastante similar a otras técnicas de conmutación de paquetes; sin embargo, el detalle de funcionamiento de ATM es algo diferente. Cada célula ATM está hecha de 53 octetos, o bytes. De éstos, 48 octetos constituyen el campo de información de usuario y cinco octetos constituyen la cabecera. La cabecera de la celda identifica el “camino virtual” a usarse para que la celda atraviese la red. El camino virtual define las conexiones a través de las cuales se rutea la celda para alcanzar su destino. Una red basada en ATM es de ancho de banda “transparente”, es decir permite el manejo dinámico de una mezcla variable de servicios de anchos de banda diferentes (ver figura). ATM también acomoda fácilmente tráfico de velocidades variables. Un ejemplo de un servicio que se identifica con los beneficios de una interfase de tasa variable es el del servicio basado en video. Las señales de video pueden codificarse en señales digitales y paquetizadas dentro de celdas ATM. Durante los períodos de alta actividad del video, aumentará la tasa de paquetes a transferir. Desde una tasa promedio de transferencia (por debajo de la capacidad máxima de la capa física), hasta una tasa de paquetización por encima del máximo normal, durante los picos de actividad. La velocidad o tasa de celdas que pueden transmitirse a través de la red es dependiente de la capa física de red usada para el transporte de las celdas. La velocidad de la interfase, presentada al usuario, puede variar entre una tasa mínima y una tasa máxima. Por períodos de tiempo, este máximo puede ser mayor que la tasa agregada del mecanismo de transporte físico. Esto es posible por el buffering de las celdas ATM, en las interfaces del usuario, para transmitirlos durante los períodos de inactividad del usuario. La adopción de ATM como modo de transferencia para ISDN de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 7 6 3 37 76 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

banda ancha (BISDN) y otras aplicaciones de banda ancha, asegura una utilización mucho más eficaz del ancho de banda disponible para el usuario final. 4.1.8. Interconexión óptica Debido a los diferentes formatos ópticos existentes entre los productos asíncronos de los vendedores, no es posible conectar ópticamente una terminal de fibra de un vendedor con otro. Por ejemplo, un fabricante puede usar una velocidad de línea de 570 Mbps y otro 565 Mbps. Un valor SONET mayor es el que permite cumplir con la compatibilidad multivendedor. Las normas SONET actuales contienen las especificaciones para las interfaces “fibra a fibra” a nivel físico (fotónico). Estas determinan la velocidad de la línea óptica, la longitud de onda, los niveles de energía, las formas del pulso, y la codificación. Los estándares también definen, en forma completa, la estructura del frame, las cabeceras, y el mapeo de la carga útil. Están desarrollándose mejoras para definir los mensajes en los canales cabeceras para proveer funcionalidad OAMP extendida. SONET permite la interconexión óptica entre los proveedores de red sin tener en cuenta quién diseña el equipamiento. El proveedor de una red puede comprar equipamiento de un vendedor y convenientemente unirlo con equipamiento SONET de otros vendedores ubicados en sitios o locaciones del carrier o del cliente diferentes. Los usuarios pueden obtener equipamiento OC-n de su elección y coordinar con su proveedor de red la opción de nivel OC-n conveniente.

55.. O OA AM MPP SSO ON NEETT La OAMP y la administración de la red son las mayores preocupaciones entre los proveedores. Dado que la transmisión de red crece continuamente y existen muchos vendedores y tipos de equipamiento, los proveedores de red deben poder administrar, monitorear, proveer, y controlar la red desde una sitio central. El comité de estándares para la Administración de Redes de Telecomunicaciones (TMN, Telecommunications Management Network) aceptó una especificación de la arquitectura OAMP y está formulando normas de implementación para esta arquitectura. SONET mejora la administración de red proporcionando ancho de banda extra y funcionalidad en su estructura de cabeceras. Soporta canales de datos OAMP, mientras habilita las comunicaciones entre controladores inteligentes y nodos de red individuales así como comunicaciones internodos. A los canales OAMP se los denomina canales de comunicaciones de datos.

5.1. Aprovisionamiento remoto y reconfiguración SONET permite que los circuitos se habiliten o deshabiliten en forma remota para transportar o remover tráfico. Esta flexibilidad permite que la red sea reconfigurada dinámicamente ante situaciones de falla (restauración de red), variaciones de tráfico, o por necesidades del cliente. Otros beneficios incluyen: la instalación de circuitos más rápida, lo cual es importante para necesidades de servicios especiales; reducida necesidad de personal para distribuir circuitos; y facilidad de reconfiguración, lo que permite que el sistema sea más sensible a los cambios.

5.2. Compatibilidad de evolución SONET soporta la evolución de los sistemas de operaciones (OSs, Operations Systems), así como de aquellos que se están desarrollando por Bellcore. Soporta la arquitectura TMN para comunicaciones de datos OAMP.

5.3. OAMP integrado 5.3.1. En redes asíncronas: se usan OSs separados para proveer • mantenimiento centralizado de los “puntos extremos”. se usa una red de enlace datos separada para • conectar cada OS a cada elemento de red (NE). el ancho de banda OAMP y la información • están limitados. 5.3.2. En redes síncronas como SONET estos T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 7 7 3 37 77 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

problemas se resuelven de la siguiente manera: OAMP pasa a ser una parte integral del estándar de transmisión permitiendo aprovechar el ancho de • banda y obtener información para OAMP. proporciona más información al nivel de operaciones, lo que simplifica actividades como el monitoreo de • performance. se conforma una red de datos integral, una LAN. • se hace más fácil implementar OAMP en forma centralizada. • En la figura anterior se ilustra un elemento importante de OAMP integrado. En redes asíncronas, hay muchos elementos de red provistos por diferentes vendedores. Los canales de cabecera internos para cada sistema no son transportados de un sistema a otro y, por lo gral., los FOTS A y FOTS B se comportan como dos sistemas separados. Además se necesitan interfaces de captación separadas para realizar las funciones OAMP, y las comunicaciones de cabeceras no se transportan a través de la conexión cruzada. En una red SONET, las comunicaciones de cabecera se mantienen de un sistema a otro cada vez que las señales SONET los atraviesan. Esta filosofía, llamada “mantenimiento simple de puntos extremos” permite controlar la red entera desde un simple elemento de red (NE).

5.4. Monitoreo mejorado de performance Las cabeceras SONET se organizan en tres capas: las cabeceras de sección, de línea y de camino. Ellas mantienen abundante información para alarmas de vigilancia y monitoreo de performance. La mayoría de los bytes de las cabeceras SONET se asignan para la Paridad Entrelazada de 8 Bits (BIP-8, Bit Interleave Parity-8), un método de monitoreo de errores. El BIP-8 es en realidad un byte (ocho bits) que crea una paridad par sobre una secuencia de bits en la señal de transmisión. Puede generarse un conjunto completo de estadísticas de monitoreo de performance con este formato, lo que ayuda a localizar condiciones de degradación antes de que se tornen serias. EL BIP-8 permite sectorizar las alarmas y el mantenimiento simple de los puntos extremos. La información de performance está disponible para todos los niveles bajos de los niveles VT, lo cual indica que la información de error de paridad está disponible para los DS-1s sobre una base de extremo a extremo. Los sistemas FOTS presentes sólo proveen información de error de paridad para la velocidades de línea y tasas DS-3. Con el monitoreo de performance mejorado y la vigilancia SONET, se reduce el tiempo que toma restaurar un servicio. También, se requieren menos acciones de mantenimiento dado que las fallas pueden ser más fácilmente sectorizadas.

5.5. Arquitectura de Administración de Redes de Telecomunicaciones (TMN) La arquitectura para comunicaciones OAMP está definida por la ITU-T. Esta provee un armazón para que un OS pueda comunicarse con la red y viceversa. Un OS (sistema de operaciones) es un programa de aplicación sofisticado encargado de administrar la red entera. Un OS puede recoger información de la red, así como de las alarmas y de las estadísticas de performance y de estado. También puede realizar testeos de circuitos remotos o tareas de administración de red. Un OS puede contener información sobre medios disponibles y puede usarse para habilitar o desactivar circuitos mediante comandos remotos de control. El OS se comunica con los elementos de red (NE) en forma directa o a través de dispositivos de mediación. Los dispositivos de mediación pueden soportar múltiples funciones como consolidación de enlaces de comunicación de los distintos elementos de red de un mismo lugar, conversión de protocolos de un lado a otro, y administración de datos de monitoreo de performance. La ventaja de SONET es que el canal de comunicación de datos puede usarse como parte de la Red de Comunicaciones de Datos, tal como se muestra en la arquitectura TMN.

66.. N W O R K N G NEEETTTW ON NEETT WO OR RK KIIIN NG G SSO 6.1. Tendencias del networking SONET El aumento de demanda por servicios como líneas privadas no-conmutadas revelan, cada vez más, el desarrollo de multiplexores T1 (bancos de canales inteligentes) para los grandes usuarios finales. Algunos incluso, implementan servicios T3 de fibra (DS-3) para cumplir con esas demandas. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 7 8 3 37 78 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

ISDN y B-ISDN permitirán una multitud de nuevos servicios que proveerán ancho de banda por demanda. Los usuarios de una red de servicios integrados, los cuales ofrecen voz, datos, y video sobre la misma red, tiene nuevos requerimientos, entre los que se incluye ancho de banda variable, alto ancho de banda, control de usuario, medida de performance de tráfico, y suministro rápido de servicio. Para proporcionar el ancho de banda necesario, se despliega, cada vez más, la fibra en el área de acceso (conexiones entre el nodo de un proveedor de servicios y el usuario).

6.2. La red tradicional Las dos figuras siguientes ilustran la forma en que se presenta una red tradicional. Las redes tradicionales se pueden dividir en dos áreas principales: área de acceso e internodo. La red internodo se conforma con troncales utilizados para interconectar los nodos del proveedor de servicio o para conectar esos nodos con los sitios de intercambio de larga distancia del proveedor de servicios (IXC, InterExchange Carrier). Las rutas de fibra consisten de sistemas punto a punto con conexiones cruzadas en los paneles DSX-3. El sistema de fibra es simétrico, con terminales idénticas en un extremo y otro del sistema. Una señal DS-3s entra en un extremo, sale por el otro, y ocasionalmente puede ser accedida en los sitios intermedios de extracción / inserción (drop/insert). Los desarrollos SONET actuales se presentan como terminales de fibra configuradas como punto a punto, anillos de fibra, o sistemas multipuntos (1 a n). La red de acceso (loop local) está compuesta principalmente de cables de cobre trenzados (UTP) usados para conectar un switch a un teléfono u otro equipo terminal. En algunas áreas, se usan líneas T1 o de fibra óptica para conectar un switch a una terminal remota (se usa loop digital del carrier, DLC, digital loop carrier), la que a su vez conecta los pares de cobre con los usuarios individuales en un área de servicio del proveedor (CSA, Carrier Serving Área). Se están desarrollando loops digitales SONET de próxima generación (Next Generation DLCs), los cuales combinan la funcionalidad de acceso disponible de los DS-0s con las capacidades de transmisión SONET desde DS-1 hasta OC-n. La red de transporte está evolucionando hacia una arquitectura multipunto y SONET admite las nuevas configuraciones que soportan esta evolución. El multiplexor SONET add/drop (ADM) y las configuraciones con hubs pueden proporcionar capacidades de administración de tráfico mas eficientes, tanto para las áreas de acceso como para las áreas internodo.

6.3. Supervivencia extendida / Anillos Conmutados La supervivencia de la red es otra tendencia importante. Los anillos supervivientes y la diversidad de rutas son soluciones rentables para un ambiente metropolitano. SONET puede implementar en el lugar, con la más alta eficacia, esquemas de restauración con los sistemas asíncronos. Estos incluyen diversidad de ruta (rutas alternativas), anillos autoreparables (anillos supervivientes o sobrevivientes), y conexiones cruzadas digitales.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 7 9 3 37 79 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

Los BLSRs basados en SONET proporcionan “ancho de banda reusable” para un transporte internodo más eficiente en redes “malladas”. Una red “mallada” indica que el tráfico se distribuye, más o menos uniformemente, entre todos los nodos en lugar de ser encasillado a través de unos pocos sitios mediante hubs. Cuando un tributario de tráfico cae (falla) en un nodo de un BLSR, la capacidad sobrante se torna disponible para “reuso” para recoger el tráfico que se origina en ese nodo; si no hay tráfico nuevo, el tributario continúa con otro nodo dónde podrá recoger el tráfico que se origina para su locación. Esto es posible porque la mitad del ancho de banda disponible en un BLSR se asigna como “ruta de trabajo” y la otra mitad se reserva como “ruta de protección”. Así, en una línea OC-48, el tráfico de trabajo se coloca en los primeros 24 slots de tiempo o ranuras STS-1, mientras que las ranuras de 25 a 48 sirven o actúan como facilidad de protección. SONET soporta BLSRs para redes internodo y UPSRs para las redes de acceso. SONET puede desarrollarse fácilmente en redes internodo dado que es compatible con DS-3, la señal sobre la cual se basan los sistemas de transporte de fibra asíncronos existentes (ver figura). Un proveedor de red puede empezar a desarrollar SONET en aquellos lugares donde existan sistemas asíncronos que agotaron su capacidad de canal óptico. La ventaja inicial es la de poder proporcionar transporte síncrono sobre los DS-3 existentes (o incluso tráfico DS1) y permitir asistencia (grooming) simplificada. La estrategia de implementación más simple comienza con el desarrollo de sistemas SONET punto a punto. Cuando la red evoluciona, se agregan hubs para asistencia o restauración. Éstos pueden ser multiplexores SONET add/drop (ADM) o hubs SONET. A medida que se adicionan más elementos de red SONET, la red se torna cada vez más integrada y homogénea en términos de control y facilidades OAMP. 6.3.1. Ejemplo de implementación de una red internodo local (MAN) La siguiente figura enseña cómo SONET puede penetrar la red internodo local. El área encerrada en el circulo es el centro urbano, un área donde puede implementarse SONET debido a su crecimiento, capacidad de canales ópticos exhaustos, y programas de modernización T1. Aquí, SONET puede implementar troncales internodo con capacidad para crecimiento futuros. A largo plazo, el desarrollo SONET podría extenderse al área suburbana y nodos de conmutación rural. Se tornan comunes las topologías con hubs como circuitos para consolidar las rutas que se dirigen al centro urbano. Se usan multiplexores SONET add/drop (ADM), a lo largo de las rutas, para insertar o extraer el tráfico. 6.3.2. Ejemplo de implementación de una red de largo alcance (WAN) La figura anterior muestra una red SONET típica, utilizada para aplicaciones de intercambio de larga distancia del proveedor de servicios (IXC). Una red SONET de larga distancia (WAN SONET) implementa una red de transporte OC-n de alta velocidad que envuelve o solapa una red asíncrona existente que usa FOTS a 565 Mbps. Los principales elementos de red SONET son el multiplexor SONET ADM, usado en configuración de terminales y repetidores, T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 8 0 3 38 80 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

y el BDCC (cross connect de banda ancha), usado para administración de tráfico. 6.3.3. Implementación SONET en la red de acceso Como se muestra en las figuras siguientes, SONET puede implementarse en la red de acceso, sobre todo en aquellos lugares donde se esté instalando fibra nueva y/o existan rutas que estén extenuadas, para proporcionar nuevas capacidades de networking y transporte de nuevos servicios. A continuación se describen los diferentes escenarios de aplicación: 1. Punto a punto simple: una aplicación punto a punto es relativamente fácil de implementar. En lugar de un enlace como el de pares trenzados de cobre, se usa fibra para conectar una terminal de control desde un switch, en un nodo de conmutación, a una terminal remota. SONET transportará las múltiples señales DS-1s al CSA, que tendrá la capacidad de crecimiento suficiente para soportarlas. Los canales de cabecera enlazan conjuntamente todos los sistemas para tener un OAMP integrado. 2. Aplicación Add/Drop: el sistema SONET transporta el tráfico desde un nodo de conmutación a una terminal en el CSA o área del cliente (CPE). Para extraer o insertar tráfico adicional, se usan multiplexores SONET add/drop intermedios en los CSAs localizados a lo largo del camino. Los ADMs también pueden conectarse en una topología de loop cerrado OC-n para conformar una topología de anillo superviviente. 3. Hubs de aplicación: fibras de menor capacidad se conectan al hub SONET, el cual consolida (junta) todo el tráfico en una sola fibra para su transporte al nodo de conmutación. En el nodo de conmutación, el tráfico se segrega (separa) en conmutado y no-conmutado (servicio especial de líneas dedicadas), DS-1 y DS-3, o cualquier combinación de estos. 4. Interconexión ATM: SONET promete a los proveedores de red, incluyendo compañías de teléfono u otros proveedores de servicios, entregar eficazmente servicios de banda ancha (broadband) y de banda amplia (wideband) para sus clientes. Con un multiplexor ATM o un switch ATM desplegado en el sitio del proveedor, pueden entregarse, directamente, señales DS-1, DS-3 y anchos de banda OC3 a las locaciones del usuario. El dispositivo ATM puede unir productos de transporte ofrecidos por varios vendedores. Servicios de banda estrecha, como ISDN (narrowband ISDN), pueden ser entregados sobre distintos productos de acceso NGDLC usando OC-3 u OC-12 conectados al nodo de conmutación del host.

6.4. Uso de anillos SONET para administrar ancho de banda en redes de ciudades pequeñas T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 8 1 3 38 81 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

La administración eficiente del tráfico DS-1 es una función extremamente importante en cada red interoficina aun cuando la mayoría de los servicios se transporta en la capa VT/DS-1. Deben buscarse soluciones efectivas para ruteo de tráfico, asistencia, consolidación, y para como debe ponerse todo en su lugar para evitar incrementos de costos operacionales, congestión, y necesidades prematuras de expansión de la red. Las estrategias de administración de ancho de banda van desde la reestructuración manual de los paneles de conexión cruzadas (crossconnect) en pequeñas oficinas a sofisticados sistemas de conexión cruzadas digitales (DCSs) en oficinas con duras demandas de tráfico. Mientras los DCSs ofrecen un alto grado de flexibilidad y una sustancial economía, su costo-efectividad empieza a disminuir cuando la demanda de tráfico cae por debajo de los 36 canales STS-1s/DS-3s requeridos para la asistencia de la capa VT/DS-1. Es decir, la efectividad disminuye a medida que se reduce el tamaño de las oficinas. Además la inmensa mayoría de las oficinas centrales están por debajo de ese nivel (de 36 canales). Para manejar eficazmente el ancho de banda, a un costo razonable, en redes metropolitanas de pequeña y mediana capacidad, muchos proveedores de servicios adoptaron una arquitectura de hubs crossconnect (es decir un DCS central, como un hub) (ver figura). Esto permite que un solo DCS, en el sitio del hub, pueda manejar toda la administración de ancho de banda, necesaria para una red entera que contiene numerosas oficinas pequeñas. El tráfico que requiera asistencia y consolidación es transportado primero “hacia atrás” (back hauled) al sitio del DCS antes de ser ruteado hacia su destino final. Las desventajas incluyen, incremento de la complejidad operacional y requerimiento de ancho de banda adicional para soportar canales “hacia atrás” (back-haul). 6.4.1. Soluciones de administración de ancho de banda basadas en BLSRs OC-12 Las soluciones basadas en BLSRs OC-12 VTadministrados ofrecen una alternativa atractiva de administración de ancho de banda para redes metropolitanas de pequeña y mediana capacidad. Un anillo de administración de ancho de banda (TBM) y VTs administrados proporciona una capacidad crossconnect distribuída que puede extender la arquitectura de hub crossconnect existente o eliminar la necesidad de un DCS externo completo (ver figura siguiente). La asignación de slots de tiempo VT-1.5 del administrador de ancho de banda de transporte (TBM, Transport Bandwidth Manager) ofrece asistencia, consolidación, y ruteo de tráfico sin el engorroso ruteo “hacia atrás” a un DCS compartido. Esto conserva la capacidad de la fibra así como los valiosos puertos del DCS y los recursos del núcleo de red. Además, se mejora la supervivencia de extremo a extremo dado que los servicios no necesitan salir del anillo para asistencia. La capacidad de la fibra y el ahorro de los recursos DCS son consecuencias de dos importantes ventajas de los anillos BLSR VT-administrados: El eficiente empaquetado del tráfico DS-1 en canales STS-1. • Los pocos servicios llevados “hacia atrás”, al sitio del hub, para asistencia. • Estos ahorros que podrían ser importantes, dependen de la estrategia de administración de red deseada por los proveedores de servicios individuales. En el caso de la red de una ciudad pequeña, por ejemplo, un anillo TBM con VT administrados, reducirá el número de puertos DCS requeridos y podrá manejar aplicaciones que no podrían ser manejadas con un anillo BLSR OC-12 y STS administrados (ver figura anterior). T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 8 2 3 38 82 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

Además del ahorro de puertos DCS y de recursos del núcleo, un anillo BLSR OC-12 VT administrado reduce los requisitos de hardware de los nodos tributarios de transporte debido a la eficiente concentración de tráfico a un número mínimo de mapeadores de señales DS-1. Los ahorros de ancho de banda de fibra aumentan la capacidad efectiva de la red y evitan la necesidad de pares de fibra adicionales y más elementos de red. El resultado neto es una sustancial reducción en los costos de capital en las redes de pequeñas ciudades. También, se reducen los costos operacionales (y de trabajo) porque a menor cantidad de servicios “hacia atrás” se tiene menos complejidad de administración.

6.5. Multiplexación por división de ondas WDM (Wave División Multiplexing) multiplica (hasta ocho veces) la capacidad de los tendidos de fibra existentes mediante la combinación de dos o más señales ópticas, de diferentes longitudes de onda, en una sola fibra. Debido a que esto evita grandes desembolsos de capital y de tiempos asociados con el tendido de nuevo cable de fibra, la multiplexación por división de ondas es una solución ideal para rutas críticas de alto crecimiento y con una necesidad inmediata de más ancho de banda. Un dispositivo de acoplamiento externo realiza el mezclado real de las diferentes señales ópticas. En la WDM unidireccional, múltiples longitudes de onda viajan en la misma dirección dentro de una fibra óptica mientras que en los arreglos WDM bidireccionales viajan en direcciones opuestas. La WDM bidireccional es a menudo la mas preferida, sobre todo en aplicaciones que emplean dos longitudes de onda para obtener una asociación uno-auno entre un sistema de transporte individual y una fibra óptica individual. La WDM puede clasificarse en tres tipos, dependiendo de las longitudes de onda involucradas: wideband (de banda amplia), también llamada crossband, narrowband (de banda estrecha) y densa. 6.5.1. WDM de banda amplia La WDM wideband duplica la capacidad de un tramo de fibra combinando la longitud de onda de 1310 nm (nanómetros) con una segunda longitud de onda, en la ventana de “pérdida baja” de la fibra óptica, entre 1528 y 1560 nm. Un ejemplo de configuración WDM wideband bidireccional basado en longitudes de onda de 1310 y 1550 nm de un administrador de ancho de banda (TBM) aparece en la figura anterior. 6.5.2. WDM de banda estrecha Como con WDM wideband, el método WDM narrowband proporciona un aumento doble de la capacidad del tramo de fibra. Emplea dos longitudes de onda de “pérdida baja”, típicamente 1533 y 1557 nm. Un ejemplo de nodo de transporte con líneas OC-48 y OC-192, y opciones de longitud de onda que soportan completamente WDM bidireccional de banda estrecha, aparece en la siguiente figura. En rutas de largo alcance, dónde el alcance del sistema es una consideración importante, WDM narrowband es normalmente una mejor opción que WDM wideband. Además, WDM de banda estrecha ofrece mejor compatibilidad con líneas de producto de amplificadores ópticos en rutas OC-48/192 de un solo salto (single hop) y de múltiples saltos (multi hop). Esto significa que pueden lograrse ventajas económicas de la capacidad expandida de la fibra y extender el alcance que puede lograrse con la misma aplicación. 6.5.3. WDM densa T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 8 3 3 38 83 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIII

S S O N E T S D H SO ON NE ET T /// S SD DH H

La tecnología avanzada WDM densa emplea hasta ocho longitudes de onda para aumentar la capacidad del tramo de fibra hasta ocho veces. Estas longitudes de onda se agrupan dentro de dos bandas: una banda azul entre 1529 y 1541 nm y una banda roja entre 1549 y 1557 nm. Cada banda se dedica a una dirección particular de transmisión. Se ofrecen soluciones WDM densas bidireccionales para OC-48, OC-192, y aplicaciones híbridas OC-48/192. La figura siguiente ilustra una configuración OC-192 de corto alcance y ocho longitudes de ondas bidireccionales. Para permitir extender el alcance de las aplicaciones WDM densas, los nodos de transporte pueden incluir Repetidores Ópticos de Múltiples Longitudes de Onda (MOR, Multi-Wavelength Optical Repeater) para manejar las longitudes de ondas asociadas, las de las bandas rojas y las de las bandas azul.

6.6. SONET, BISDN y ATM En un principio, y aun hoy, muchas redes ofrecían, en forma separada, servicios de comunicación a sus suscriptores. Los POTS lo hacía a través de canales de voz, conectados a redes de conmutación de circuitos. En forma paralela, podía usarse una red de conmutación de paquetes para la comunicación de datos, ofreciendo métodos de entrega de datos más rápidos. Luego apareció una tecnología que prometía integrar en una sola red digital el manejo de voz, datos y video (es decir una red multimedia). Esta red, que en un principio se denominó ISDN de banda estrecha, se aplico tradicionalmente al mundo de la telefonía narrowband (de banda estrecha). Posteriormente mejoró y se convirtió en la ISDN de banda ancha (broadband) o BISDN, la cual conformada con switches y terminales ISDN, podía soportar LANs de alta velocidad, televisión digital, y otros servicios de video, dispositivos de comunicación de datos, equipos de telemetría y canales de voz, e integrar todo dentro de una única red digital. Para completar el cuadro, BISDN usaría una nueva arquitectura de referencia, la BISDN / ATM. Para completar, aun más todo esto, SONET proveyó del ancho de banda necesario para transportar la información entre los switches o terminales BISDN. Así, por ejemplo, un OC-3 (155 Mbps) se podía usar para transportar un canal digital de banda ancha tipo H4, acarreando la transmisión de señales de TV de alta calidad. En una convergencia, no muy lejana, las redes publicas y privadas estarán basadas en tecnología ATM / cell relay, el estándar de CCITT que soporta voz basada en celdas, datos, video y comunicación multimedia en una red pública bajo BISDN. Para ello, SONET provee la flexibilidad de “carga útil” (payload) necesaria para que pueda usarse como el basamento del sistema de transporte de las celdas BISDN ATM.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 8 4 3 38 84 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

D DIISSEEÑÑOO W WA AN N 11.. D O DIIISSSEEEÑÑÑO OL LA AN N 1.1. Objetivos de diseño LAN El primer paso en el diseño de una red de área local (LAN) es establecer y documentar los objetivos de diseño. Estos objetivos son específicos para cada organización o situación. Sin embargo, hay requisitos generales que tienden a aparecer en la mayoría de los diseños de red: * Funcionalidad: la red debe funcionar. Es decir, debe permitir que los usuarios cumplan con sus requisitos laborales. La red debe suministrar conectividad de usuario a usuario y de usuario a aplicación con una velocidad y confiabilidad razonables. * Escalabilidad: la red debe poder aumentar de tamaño. Es decir, el diseño original debe poder expandirse sin que se produzcan cambios importantes en el diseño general. * Adaptabilidad: la red debe estar diseñada teniendo en cuenta las tecnologías futuras y no debe incluir elementos que limiten la implementación de nuevas tecnologías a medida que se tornan disponibles. * Facilidad de administración: la red debe estar diseñada para facilitar su monitoreo y administración para asegurar una estabilidad de funcionamiento constante. Estos requisitos son específicos para ciertos tipos de redes y más generales en otros tipos de redes. 1.1.2. Aspectos de diseño de red LAN Para que una LAN sea efectiva y satisfaga las necesidades de los usuarios, se debe implementar siguiendo una serie sistemática de pasos planificados durante el proceso de diseño, haciendo uso frecuente de un diario de ingeniería. Si se siguen estos pasos y se documenta la información en el marco de un informe formal, esto ayudará a estimar costos y desarrollar un presupuesto para la implementación de una LAN. El primer paso en el proceso es reunir información acerca de la organización. Esta información debe • incluir: Historia de la organización y situación actual. ° Crecimiento proyectado. ° Políticas de operación y procedimientos administrativos. ° Sistemas y procedimientos de oficinas. ° Opiniones del personal que utilizará la LAN. ° Es de esperar que este paso también ayude a identificar y definir cualquier cuestión o problema que deba tratarse (por ej., encontrar alguna sala alejada en el edificio que no tenga acceso a la red). El segundo paso es realizar un análisis y evaluación detallados de los requisitos actuales y proyectados de • las personas que usarán la red. El tercer paso es identificar los recursos y limitaciones de la organización. Los recursos que pueden • afectar la implementación de una nueva LAN son: hardware informático, recursos de software, y recursos humanos. Es necesario documentar cuál es el hardware y software existentes de la organización, y definir las necesidades proyectadas de hardware y software. Se debe determinar cuánta capacitación se necesita y cuántas personas se necesitarán para soportar la LAN. Preguntas a realizar: ¿Cuáles son los recursos financieros disponibles de la organización?, ¿De qué manera se relacionan y comparten actualmente estos recursos?, ¿Cuántas personas usarán la red?, ¿Cuáles son los niveles de conocimiento sobre informática de los usuarios de red?, ¿Cuáles son sus actitudes con respecto a los computadores y las aplicaciones informáticas?. 1.1.3. Proceso general de diseño 1. 2. 3.

Al diseñar la red se pueden tomar en consideración varias tecnologías (por ejemplo, Token-Ring, FDDI y Ethernet). En general se utilizará la tecnología Ethernet por ser la mas usada. Se deberá desarrollar una topología de LAN de Capa 1. Se deberá determinar el tipo de cable o medio (el más común es UTP CAT 5) y la topología física o cableado a utilizar (la topología en estrella extendida). Se deberá decidir cuál de las distintas topologías de Ethernet deberá utilizar. Dos tipos comunes de topologías Ethernet son 10BaseT y 100BaseTX (Fast Ethernet). Se puede utilizar 100BaseTX en toda la red o para conectar el servicio de distribución principal (punto de control central de la red) con otros servicios de distribución intermedios. Se podrá usar hubs, repetidores y transceptores en el diseño, junto con otros componentes de la Capa 1 tales como enchufes, cables, jacks y paneles de conexión. Para terminar el diseño de la Capa 1, deberá generar una topología lógica y una física. Como siempre, una parte importante del diseño incluye la documentación del trabajo.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 8 7 38 87 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII 4.

5.

6. 7.

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

El siguiente paso es desarrollar una topología de LAN de Capa 2, es decir, agregar dispositivos de Capa 2 a la topología para mejorar su capacidad. Se puede agregar switches para reducir la congestión y el tamaño del dominio de colisión. También es posible reemplazar los hubs por switches y otros dispositivos menos inteligentes de Capa 1 por dispositivos más inteligentes de la Capa 2. El siguiente paso consiste en desarrollar una topología de Capa 3, es decir, agregar dispositivos de Capa 3, para aumentar las capacidades de la topología. En la Capa 3 es donde se implementa el enrutamiento. Se pueden usar routers para desarrollar internetworks escalables (LAN, WAN, redes de mayor tamaño), o para imponer una estructura lógica a la red, o bien usarlos para segmentación (es decir, los routers dividen los dominios de colisión y de broadcast, los puentes y switches dividen dominios de colisión y no de broadcast y los hubs y repetidores no dividen ningún dominio). El diseño de red debe tener en cuenta la ubicación de elementos tales como servidores de archivo, bases de datos y otros recursos compartidos, así como el enlace de la LAN a las WAN e Internet. Finalmente, se deberá documentar las topologías físicas y lógicas del diseño de red, así como cualquier idea emergente, matrices de solución de problemas y cualquier otra nota que haya realizado en la etapa de toma de decisiones.

1.1.4. Componentes fundamentales del diseño de LAN Con el surgimiento de tecnologías de alta velocidad que se produjo en los últimos años, tales como ATM y las arquitecturas de LAN más complejas que utilizan la conmutación de LAN (switched LAN) y las VLAN (Virtual LANs), muchas organizaciones actualizaron las LAN existentes o planificaron, diseñaron e implementaron nuevas LAN. Para diseñar las LAN para tecnologías de alta velocidad y aplicaciones basadas en multimedia, los diseñadores de red deben hacer frente a los siguientes componentes críticos del diseño general de las LAN: Función y ubicación de los servidores: una de las claves para diseñar una red exitosa es comprender la • función y la ubicación de los servidores que son necesarios para la red. Los servidores suministran archivos compartidos, impresión, comunicación y servicios de aplicación. Existen servidores empresariales y servidores de grupo de trabajo. Un servidor empresarial soporta todos los usuarios en la red ofreciendo servicios, tales como correo electrónico o DNS, que son servicios que cualquier persona de una organización necesita porque son funciones centralizadas. En cambio el servidor de grupo de trabajo soporta un conjunto de usuarios específicos brindando servicios (como archivos compartidos), que sólo unos pocos grupos de personas necesitan. Los servidores empresariales se deben colocar en el servicio de distribución principal (MDF). De esta forma, el tráfico hacia los servidores empresariales sólo tiene que viajar hacia el MDF y no es necesario que se transmita a través de otras redes. En tanto lo ideal es que los servidores de grupo de trabajo se coloquen en el servicio de distribución intermedia (IDF) más cercano a los usuarios que acceden a las aplicaciones en estos servidores, asi el tráfico sólo debe viajar a través de la infraestructura de la red hacia ese IDF y no afecta a los demás usuarios en ese segmento de red. Simplemente debe conectar los servidores directamente al MDF o IDF. Dentro del MDF y los IDF, los switches de LAN de Capa 2 deben tener 100 Mbps o menos asignados para estos servidores. Detección de colisiones: se debe decidir cuidadosamente la selección y ubicación de los dispositivos de • networking que se utilizarán en la LAN para reducir la detección de colisiones y la contención de medios en una red. Contención se refiere a las colisiones excesivas en Ethernet provocadas por el exceso de dispositivos, cada uno de ellos con una gran demanda del segmento de red. La cantidad de broadcasts se torna excesiva cuando hay demasiados paquetes de clientes que solicitan servicios, demasiados paquetes de servidores que ofrecen servicios, demasiadas actualizaciones de tablas de enrutamiento y demasiados broadcasts de otro tipo que dependen de los protocolos, como por ejemplo, ARP (Protocolo de Resolución de Direcciones). Cuando una red Ethernet aumenta de tamaño para incluir mayor cantidad de nodos en el segmento o cable compartido, y estos nodos tienen más y más mensajes para transmitir, la probabilidad de que el nodo dispute con éxito su parte del cable se torna más difícil y la red se atasca. La desventaja principal de Ethernet es el hecho de que la contención de acceso a los medios (CSMA) no es escalable ni permite el crecimiento. A medida que el tráfico en los medios compartidos aumenta, la tasa de colisiones también aumenta excesivamente y reduce (a veces drásticamente) el ancho de banda disponible. En la mayoría de los casos, el ancho de banda real disponible se reduce a una fracción (alrededor del 35% al 40%) de la totalidad de los 10 Mbps. Esta reducción en el ancho de banda se puede solucionar segmentando la red utilizando puentes, switches o routers. Segmentación: es el proceso por el cual un solo dominio de colisión se divide en dos o más dominios de • colisión. Los puentes o switches de capa 2 se utilizan para segmentar una topología de bus lógica y crear dominios de colisión separados, lo que da como resultado que haya una mayor cantidad de ancho de banda disponible para las estaciones individuales. Sin embargo aunque los puentes y los switches no envían colisiones si envían paquetes de broadcast por lo que se sigue teniendo un solo dominio de broadcast. Los broadcast deben ser visibles para todos los hosts en el dominio de broadcast para poder establecer la conectividad. La escalabilidad del dominio de ancho de banda depende de la cantidad total de tráfico y la escalabilidad de un dominio de broadcast depende del broadcast total del tráfico. Es T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 8 8 38 88 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

importante recordar que los puentes y los switches envían tráfico de broadcast (FF-FF-FF-FF-FF) y que los routers no lo hacen. Dominios de ancho de banda versus dominios de broadcast: dominio de ancho de banda es todo lo que está relacionado con un puerto en un puente o switch. En el caso de un switch Ethernet, el dominio de ancho de banda también se denomina dominio de colisión. Todas las estaciones de trabajo dentro de un dominio de ancho de banda compiten por el mismo recurso de ancho de banda de LAN. Todo el tráfico desde cualquier host en el dominio de ancho de banda es visible para todos los demás hosts. En el caso de un dominio de colisión Ethernet, dos estaciones pueden transmitir al mismo tiempo, provocando una colisión.

1.1.5. Documentación del diseño de red Quizás, la parte más importante del proceso de diseño de red sea el diseño de acuerdo con los estándares industriales de ANSI/EIA/TIA e ISO/IEC. La siguiente lista incluye parte de la documentación que debe generarse durante el diseño de la red: Diario de ingeniería • Topología lógica • Topología física • Plan de distribución • Matrices de solución de problemas • Tomas rotulados • Tendidos de cable rotulados • Resumen del tendido de cables y tomas • Resumen de dispositivos, direcciones MAC y direcciones IP •

1.2. Metodología de diseño 1.2.1. Que problemas se intenta resolver? La decisión de usar un dispositivo de internetworking depende de los problemas del cliente que se pretenden resolver. Algunos de estos problemas pueden ser: * Contención de medios: la contención de los medios se refiere a las colisiones excesivas en Ethernet provocadas por el exceso de dispositivos, todos ellos con una gran demanda del segmento de red. * Broadcasts excesivos: la cantidad de broadcasts se torna excesiva cuando hay demasiados paquetes de clientes que solicitan servicios, demasiados paquetes de servidores que ofrecen servicios, demasiadas actualizaciones de tablas de enrutamiento y demasiados broadcasts de otro tipo que dependen de protocolos tales como ARP. * Necesidad de transportar nuevas cargas: incluye la necesidad de ofrecer servicios de voz y de vídeo. * Necesidad de mayor ancho de banda: los servicios de voz y video requieren un ancho de banda mucho mayor que el que está disponible en la red o el backbone. * Backbone sobrecargado: el mayor requerimiento de las aplicaciones exige un backbone de mayor ancho de banda. * Aspectos de direccionamiento de la capa de red: incluyen la posibilidad de que se agoten las direcciones IP, la necesidad de separar físicamente las subredes y otros aspectos que dependen de los protocolos. 1.2.2. Desarrollo de una topología LAN Después de reunir los requisitos para la red en general, se puede desarrollar una topología o modelo general para la LAN. Las partes principales de este diseño de topología pueden dividirse en tres categorías exclusivas del modelo OSI. 1. Capa 1: Incluye los tipos de medio de cable, como UTP CAT5 y cable de fibra óptica, junto con el estándar TIA/EIA-568-A de diseño y conexión de esquemas de cableado. Objetivo de diseño: desarrollar esta capa del modelo OSI con funciones de velocidad y expansión. 2. Capa 2: incluye la selección de los dispositivos de Capa 2 tales como puentes o switches LAN, utilizados para interconectar los medios de Capa 1 a un segmento LAN. Los dispositivos de esta capa determinan el tamaño de los dominios de colisión y de broadcast. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 8 9 38 89 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

3.

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Objetivos de diseño: crear un punto de concentración dentro de los MDF o IDF, donde los hosts finales se pueden agrupar al nivel de Capa 1 para formar un segmento de LAN físico. Instalar dispositivos de conmutación LAN que utilicen la microsegmentación para reducir el tamaño del dominio de colisión. Crear un punto de la topología de Capa 2), donde los usuarios se pueden agrupar en grupos de trabajo virtuales (VLAN) y dominios de broadcast exclusivos. Capa 3: incluye la selección de dispositivos de Capa 3, como los routers, que se usan para crear segmentos LAN únicos, y permitir la comunicación entre segmentos sobre la base del direccionamiento de Capa 3, como el direccionamiento IP. Objetivos de diseño: crear una ruta entre los segmentos LAN que filtrará el flujo de paquetes de datos. Aislar los broadcasts de ARP. Aislar las colisiones entre segmentos. Filtrar los servicios de Capa 4 entre segmentos.

1.2.3. Desarrollo de topología LAN de Capa 1 Examinaremos las topologías en estrella y en estrella extendida de la Capa 1. Como se explico, la capa física controla la forma en que se transmiten los datos entre el nodo origen y el nodo destino. El tipo de medios y topología seleccionadas determinarán la cantidad y la velocidad de los datos que pueden transportarse dentro de la red. 1.2.4. Topología en estrella extendida En las redes de mayor tamaño no es inusual que haya más de un armario de cableado si hay hosts que necesitan conectividad de red, pero se encuentran más allá del límite de 100 metros del cable Ethernet UTP Categoría 5. Al crear múltiples armarios de cableado, se crean múltiples áreas de captación. Los armarios de cableado primarios se denominan Servicios de Distribución Principal (MDF, Main Distribution Facility) y los secundarios se denominan Servicios de Distribución Intermedia (IDF, Intermediate Distribution Facility). El estándar TIA/EIA- 568-A especifica que los IDF se deben conectar al MDF mediante cableado vertical. Este cableado vertical es normalmente cable de fibra óptica, porque este tipo de cable se puede tender a mayores distancias. En los MDF e IDF la diferencia principal reside en la implementación de otro panel de conexión, que puede ser la Conexión Cruzada Vertical (VCC, Vertical Cross Connect). Esta VCC se usa para interconectar los diferentes IDF al MDF central. Como las longitudes del cableado vertical normalmente superan el límite de 100 metros para el cable UTP CAT 5, normalmente se utiliza cableado de fibra óptica. Sugerencia de diseño: como el cableado vertical transporta todo el tráfico de datos entre los IDF y los MDF, la velocidad de esta conexión debe establecerse para que sea el enlace rápido de la red. En la mayoría de los casos este enlace debe ser de por lo menos 100 Mbps. También se deben instalar tendidos de cable vertical adicionales, para permitir el futuro crecimiento de la red.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 9 0 39 90 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

1.2.5. Desarrollo de topología LAN de Capa 2 El propósito de los dispositivos de Capa 2 en la red es proporcionar control de flujo, detección de errores, corrección y reducción de la congestión en la red. Los dos dispositivos más comunes de Capa 2 (además de la NIC, que todos los hosts de la red deben tener) son los puentes y los switches LAN. Las colisiones y el tamaño de los dominios de colisión son dos factores que afectan de forma negativa el desempeño de una red. Mediante la conmutación LAN, se puede desarrollar la microsegmentación de la red, eliminando efectivamente de este modo las colisiones y reduciendo el tamaño de los dominios de colisión. Otra de las características importantes del switch LAN es la manera en que puede asignar ancho de banda por puerto, permitiendo de este modo mayor ancho de banda para el cableado vertical, los uplinks y los servidores. 1.2.6. Conmutación al nivel de Capa 2 Con la instalación de la conmutación LAN en el MDF y los IDF podemos empezar a verificar el tamaño de nuestros dominios de colisión y la velocidad para cada tendido de cable horizontal y vertical. Como el cable vertical debe transportar todo el tráfico de datos entre el MDF y los IDF, la capacidad de este tendido debe ser mayor. En el diseño de la estructura de Capa 1 se debe instalar cable de fibra óptica, que permite velocidades de 100 Mbps. Los tendidos de cable horizontal utilizan UTP CAT 5 y ninguna derivación de cable supera los 100 metros, lo que nos permite utilizar estos enlaces a 10 Mbps o 100 Mbps. En un entorno normal, 10 Mbps es bastante adecuado para la derivación del cable horizontal. Como los switches LAN asimétricos permiten que se mezclen puertos de 10 Mbps y 100 Mbps en un solo switch, la siguiente tarea es determinar la cantidad de puertos de 10 Mbps y 100 Mbps que se necesitan en el MDF y en cada uno de los IDF. Esto se puede determinar volviendo a los requisitos de usuario que se refieren a la cantidad de derivaciones de cableado horizontal por habitación y la cantidad total de derivaciones en cualquier área de captación, así como también la cantidad de tendidos de cableado vertical. Ejemplo: los requisitos de usuario establecen que se deben instalar 4 tendidos de cable horizontal en cada habitación. El IDF que brinda servicios a un área de captación abarca 18 habitaciones. Por lo tanto, 4 derivaciones ×18 habitaciones = 72 puertos de switch LAN. 1.2.7. Router de Capa 3 para segmentación La implementación de los routers permite la segmentacion de la LAN en redes logicas y físicas exclusivas. Permiten la conectividad a las WAN (como Internet) y determinan el flujo de tráfico entre los segmentos de red fisicos basándose en el direccionamiento de capa 3, como IP. El router envía paquetes de datos basándose en las direcciones destino. Un router no envía broadcasts basados en LAN, como, por ejemplo, peticiones ARP. Por lo tanto, la interfase del router se considera como el punto de entrada y salida de un dominio de broadcast y evita que los broadcasts lleguen hasta los otros segmentos de LAN. En las implementaciones que incluyen múltiples redes físicas, todo el tráfico de datos desde la red 1 destinado a la red 2 tiene que pasar por el router. En esta implementación, hay 2 dominios de broadcast. Ambas redes tienen esquemas exclusivos de direccionamiento de red/subred IP de Capa 3. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 9 1 39 91 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

En un esquema de cableado estructurado de Capa 1, se pueden crear con mucha facilidad múltiples redes físicas, simplemente conectando el cableado horizontal y vertical en el switch de Capa 2 adecuado utilizando cables de conexión. Como se puede ver, esto proporciona una implementación de seguridad sólida. El tráfico entre las dos redes se puede controlar en el router. El router también es el punto central en la LAN para el tráfico destinado al puerto WAN. Los routers proporcionan escalabilidad porque pueden servir como firewalls para los broadcasts. Además, como las direcciones de Capa 3 generalmente tienen estructura, los routers pueden proporcionar mayor escalabilidad al dividir las redes y las subredes, agregando, por lo tanto, estructura a las direcciones de Capa 3. La tecnología de enrutamiento filtra los broadcasts y los multicast de enlace de datos. Al agregar puertos de router con direcciones de red o subred adicionales, se puede segmentar la interred según sea necesario. El direccionamiento y el enrutamiento de protocolo de red suministran escalabilidad incorporada. Un router divide las subredes y las redes y estructura una internetwork (interred). Si se tiene un problema relacionado con los protocolos en lugar de la contención, los routers son la solución adecuada. Los routers solucionan los problemas de broadcasts excesivos, protocolos que no son escalables, temas de seguridad y direccionamiento de capa de red. Sin embargo, los routers son más caros y más difíciles de configurar que los switches. 1.2.8. Ubicación del servidor Si los servidores deben distribuirse en toda la topología de la red según su función, las Capas 2 y 3 de la red se deben diseñar para adaptarse a esto. Dentro del MDF y los IDF, los switches LAN de Capa 2 deben tener puertos de alta velocidad (100 Mbps) asignados para estos servidores.

22.. D O DIIISSSEEEÑÑÑO WA AN N OW 2.1. Descripción general Los administradores de redes de hoy deben administrar redes WANs complejas para soportar el número creciente de aplicaciones de software que se desarrollan en torno del Protocolo Internet (IP) y la Web. Estas WAN exigen una gran cantidad de recursos de la red, y necesitan tecnologías de networking de alto desempeño. Las WAN son entornos complejos que incorporan múltiples medios, múltiples protocolos, e interconexión con otras redes, como Internet. El crecimiento y la facilidad de administración de estos entornos de red se logran mediante la a menudo compleja interacción de protocolos y funciones. A pesar de las mejoras en el desempeño de los equipos y las capacidades de los medios, el diseño de una WAN es una tarea cada vez más difícil. El diseño cuidadoso de las WAN puede reducir los problemas asociados con los entornos crecientes de networking. Para diseñar WAN confiables y escalables, los diseñadores de red deben tener en mente que cada WAN posee requisitos de diseño específicos. En este capítulo se presenta una descripción general de las metodologías utilizadas para diseñar las WAN.

2.2. Objetivos del diseño WAN El diseño de una WAN puede ser una tarea sumamente difícil. Las discusiones siguientes describen varias áreas que se deben analizar cuidadosamente al planificar una implementación WAN. Los pasos que se describen aquí pueden llevar a mejorar el costo y desempeño de la WAN. Las empresas pueden mejorar constantemente sus WAN incorporando estos pasos al proceso de planificación. El diseño e implementación de las WAN tienen dos objetivos primarios: T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 9 2 39 92 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII • •

• • •

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Disponibilidad de aplicaciones: las redes transportan información de aplicaciones entre computadores. Si las aplicaciones no están disponibles para los usuarios de la red, la red no está cumpliendo su función. Costo total de propiedad: el presupuesto de los departamentos de Sistemas de Información a menudo alcanzan cifras millonarias. A medida que las empresas aumentan el uso de los datos electrónicos para administrar las actividades empresariales, los costos asociados con los recursos informáticos seguirán creciendo. Una WAN bien diseñada puede ayudar a equilibrar estos objetivos. Cuando se implementa correctamente, la infraestructura de la WAN puede optimizar la disponibilidad de las aplicaciones y permitir el uso económico de los recursos de red existentes. En general, las necesidades de diseño de la WAN deben tener en cuenta tres factores generales: Variables de entorno: las variables de entorno incluyen la ubicación de hosts, servidores, terminales y otros nodos finales, el tráfico proyectado para en el entorno y los costos proyectados de la entrega de diferentes niveles de servicio. Límites de performance: los límites de desempeño consisten en la confiabilidad de la red, el rendimiento de tráfico, y las velocidades de computación host/cliente (por ejemplo, tarjetas de interfaz de red y velocidades de acceso del disco duro). Variables de networking: las variables de networking incluyen la topología de la red, capacidades de línea y tráfico de paquetes.

El objetivo general del diseño WAN es minimizar el costo basándose en estos elementos, proporcionando servicios que no comprometan los requisitos de disponibilidad establecidos. Hay dos aspectos fundamentales: disponibilidad y costo. Estos aspectos se encuentran esencialmente en posiciones antagónicas. Cualquier aumento en la disponibilidad en general debe reflejarse en un aumento en los costos. Por lo tanto, se debe analizar cuidadosamente la importancia relativa de la disponibilidad de recursos y el costo general. El primer paso en el proceso de diseño es comprender los requisitos de la empresa; este tema se analiza mas adelante. Los requisitos de la WAN deben reflejar los objetivos, características, procesos empresariales y políticas de la empresa en la que opera.

2.3. Requisitos de diseño WAN La comunicación WAN se produce entre áreas geográficamente separadas. Cuando una estación final local desea comunicarse con una estación final remota (es decir, una estación final ubicada en un sitio diferente), la información se debe enviar a través de uno o más enlaces WAN. Los routers dentro de las WAN son puntos de conexión en una red. Estos routers determinan la ruta más adecuada a través de la red para las corrientes de datos requeridas. Como se dijo, la comunicación WAN a veces se denomina servicio porque el proveedor de la red a menudo le cobra a los usuarios por los servicios WAN que proporciona. Las tecnologías de conmutación por circuito y por paquete son dos tipos de servicios WAN, cada uno de los cuales presenta ventajas y desventajas. Por ejemplo, las redes conmutadas por circuito ofrecen a los usuarios ancho de banda dedicado al que otros usuarios no pueden acceder. Por otro lado, la conmutación por paquete es un método en el que los dispositivos de red comparten un solo enlace punto a punto para transportar paquetes desde un origen hasta un destino a través de una red portadora. Las redes conmutadas por paquete tradicionalmente han ofrecido mayor flexibilidad y uso más eficiente del ancho de banda de red que las redes conmutadas por circuito. Tradicionalmente, las características de la comunicación WAN han sido rendimiento relativamente bajo, alto retardo y elevados índices de error. Las conexiones WAN también se caracterizan por el costo del alquiler de los medios (es decir, los cables) a un proveedor de servicios para conectar dos o más campus entre sí. Como la infraestructura WAN a menudo se arrienda a un proveedor de servicio, el diseño WAN debe optimizar el costo y eficiencia del ancho de banda. Por ejemplo, todas las tecnologías y funciones utilizadas en las WAN son desarrolladas para cumplir con los siguientes requisitos de diseño: * Optimizar el ancho de banda de WAN * Minimizar el costo * Maximizar el servicio efectivo a los usuarios finales Actualmente, las redes tradicionales de medios compartidos se están viendo sobrecargadas debido a los siguientes nuevos requisitos de las redes: * El uso de las redes aumenta a medida que aumenta el uso por parte de las empresas de aplicaciones cliente/servidor, multimedia, y otras aplicaciones para aumentar la productividad. * La velocidad de los cambios en los requisitos de las aplicaciones se acelero y lo seguirá haciendo (por ejemplo, las tecnologías impulsadas por Internet). * Cada vez más, las aplicaciones requieren calidades de servicio de red diferenciadas debido a los servicios que proporcionan a los usuarios finales.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 9 3 39 93 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII * * *

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Una cantidad sin precedentes de conexiones se establece entre oficinas de todos los tamaños, usuarios remotos, usuarios móviles, sitios internacionales, clientes/proveedores e Internet. Crecimiento explosivo de las redes internas y externas corporativas que crea una mayor demanda de ancho de banda. El mayor uso de los servidores empresariales continúa creciendo para satisfacer las necesidades de las organizaciones.

En comparación con las WAN actuales, las nuevas infraestructuras WAN deben ser más complejas, deben basarse en nuevas tecnologías y deben poder manejar combinaciones de aplicaciones cada vez mayores (y en rápido proceso de cambio), con niveles de servicio requeridos y garantizados. Además, con un aumento estimado del 300% en la cantidad de tráfico para los próximos cinco años, las empresas sufrirán una presión aún mayor para limitar los costos de las WAN. Los diseñadores de redes están usando las tecnologías WAN para soportar estos nuevos requisitos. Las conexiones WAN generalmente manejan información importante y están optimizadas en el aspecto del precio y desempeño del ancho de banda. Los routers que conectan campus, por ejemplo, generalmente aplican optimización del tráfico, múltiples rutas para redundancia, respaldo de discado para la recuperación de desastres y calidad de servicio para las aplicaciones críticas. La tabla resume las diferentes tecnologías WAN que soportan estos requisitos WAN. El trabajo de los diseñadores de redes de datos es parcialmente intuitivo y parcialmente analítico. Mientras que el único camino para tomar ventaja de lo intuitivo es a través de la experiencia y el entrenamiento, la utilización de herramientas analíticas para el trabajo requiere meramente del aprendizaje de como aplicar fórmulas matemáticas. Aún cuando el uso de fórmulas no es por demás complicado y puede ser resuelto con una calculadora, es un trabajo tedioso, que consume tiempo y está sujeto a errores. Por otra parte, el diseño de redes de datos es una cuestión de optimización de costos y servicios, el cual a menudo requiere de cálculos reiterativos, con lo que los diseñadores experimentados pueden multiplicar su eficiencia con la ayuda de herramientas de diseño computarizado. Existen distintos programas de diseño de redes disponibles en servicios de tiempo-compartido o como paquetes de software, tanto para mainframes como para PCs. Aún cuando estos programas difieren técnicamente, unos de otros, ellos comparten una característica: son expandibles. Para quienes trabajan regularmente diseñando redes, el costo de estos programas es bien valorado, pero para aquellos que diseñan solo ocasionalmente, el costo es difícil de justificar. Las redes son diseñadas por uno de los tres siguientes métodos: a) Modelamiento analítico: esta técnica usa fórmulas para predecir la performance de los componentes de la red. Aún cuando ninguna red conforma exactamente la fórmula de modelamiento, los resultados prácticos, de un buen funcionamiento, están condicionados a que las presunciones de diseño del modelo sean razonablemente precisas y correctas. b) Simulación: este método utiliza una computadora para representar el número de intentos de conexión, la longitud de los mensajes, y otras características de la red. Si el modelo es correcto, una computadora puede simular, con precisión, la performance de la red. Sin embargo las simulaciones son costosas tanto en el esfuerzo de programación como cuando se quiere expandir las simulaciones sin tener pérdidas. c) Método de tiempo-límite: el cual consiste en adicionar tráfico de carga hasta que el servicio se degrada en un nivel inaceptable. Este método es, probablemente, el que más prevalece, porque puede ser rápidamente aplicado y no requiere de ningún equipamiento especial o conocimiento. Sin embargo, cuando la carga excede la capacidad, el tiempo de respuesta se degenera y los costos incrementan. 2.3.1. Aspectos de la integración LAN/WAN Las aplicaciones distribuidas necesitan cada vez más ancho de banda, y la explosión en el uso de Internet hace que muchas arquitecturas LAN se utilicen hasta el límite. Las comunicaciones de voz han aumentado significativamente, con mayor uso de los sistemas centralizados de correo de voz para las comunicaciones verbales. La red es la herramienta crítica para el flujo de información. Es necesario que las redes cuesten menos, pero que al mismo tiempo soporten las aplicaciones emergentes y la mayor cantidad de usuarios con aumento en el desempeño. Hasta ahora, las comunicaciones de área local y amplia habían permanecido lógicamente separadas. En la LAN, el ancho de banda es gratuito y la conectividad se encuentra limitada únicamente por los costos de hardware e T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 9 4 39 94 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

implementación. En la WAN, el ancho de banda es el costo más importante, y el tráfico sensible a los retardos, como el tráfico de voz, ha permanecido separado del de datos. Las aplicaciones de Internet como voz y vídeo en tiempo real requieren un rendimiento de LAN y WAN mejor y más predecible. Estas aplicaciones multimedia rápidamente se están transformando en herramientas fundamentales de productividad empresarial. A medida que las empresas empiezan a tener en cuenta la implementación de nuevas aplicaciones multimedia basadas en redes internas, que exigen una gran cantidad de ancho de banda, como capacitación en vídeo, vídeoconferencias y voz a través de IP, el impacto de estas aplicaciones sobre la infraestructura existente de networking se transformará en un problema serio. Por ejemplo, si una empresa utiliza su red corporativa para el tráfico IP fundamental para la empresa y desea integrar una aplicación de capacitación por vídeo, la red debe poder proporcionar calidad de servicio garantizada. Esta calidad de servicio debe entregar el tráfico multimedia, pero no debe permitir que interfiera con el tráfico crítico para la empresa. Como consecuencia, los diseñadores de la red necesitan mayor flexibilidad para resolver múltiples problemas de internetworking sin crear múltiples redes o basarse en las inversiones de comunicación de datos existentes. 2.3.2. Caracterización del tráfico La caracterización del tráfico de red es fundamental para la planificación exitosa de los diseños WAN, pero pocos planificadores ejecutan correctamente esta tarea clave, si es que lo hacen en absoluto. Los tipos de tráfico que la WAN transportará incluyen: • Voz/fax • Datos de transacción (por ejemplo, SNA) • Datos de cliente/servidor • Mensajería (por ejemplo, correo electrónico) • Transferencias de archivos • Datos en lote • Administración de red • Videoconferencia El análisis y categorización del tráfico es la base para las decisiones de diseño clave. El tráfico influencia la capacidad, y la capacidad influencia el costo. Existen procesos comprobados para la medición y estimación del tráfico para las redes tradicionales, pero no para las WAN. Las características del tráfico incluyen: • Volumen pico y promedio • Conectividad y flujos de volumen • Orientación de las conexiones • Tolerancia a la latencia, incluyendo la longitud y la variabilidad • Tolerancia a la disponibilidad de la red • Tolerancia al porcentaje de errores • Prioridad • Tipo de protocolo • Longitud promedio de los paquetes. Como muchos planificadores de redes no conocen las técnicas de planificación y diseño necesarias para manejar las complejidades e incertidumbres del tráfico WAN, normalmente adivinan la capacidad de ancho de banda, lo que da como resultado redes costosas, excesivamente complicadas, o redes demasiado simplificadas con desempeño pobre. 2.3.3. Medición de tráfico – Modelado de la carga de trabajo El modelado, empírico, de la carga de trabajo consiste en la instrumentación de una red funcionando y en el monitoreo del tráfico para un número dado de usuarios, aplicaciones y topología de red. Intenta caracterizar la actividad de throughput a lo largo de un día normal de trabajo en términos de tipo de tráfico pasado, nivel de tráfico, tiempo de respuesta de los hosts, tiempo para ejecutar transferencia de archivos, y más. Si las características de las redes probadas son cerradas para la nueva red, se podría intentar extrapolar el número de usuarios, aplicaciones y topologías de la nueva WAN. Esta técnica, bien sustentada, permite un acercamiento para estimar el tráfico dada la indisponibilidad de herramientas para caracterizar, en forma detallada, el comportamiento del tráfico. Según el tipo de tráfico, se debe usar una de las siguientes cuatro técnicas para analizar y medir el tráfico: • Software de administración de red: para algunos tipos de tráfico, se puede usar software de administración de red para analizar las estadísticas de tráfico. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 9 5 39 95 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII • •

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Mediciones existentes: se puede colocar equipo de análisis de red en los servidores, y analizar los flujos de paquetes de las estadísticas del router para los segmentos de red existentes. Proceso de estimación: cuando no se pueden obtener las mediciones existentes (por ejemplo, la aplicación no existe aún), se puede usar un proceso de estimación. Se debe trabajar junto con los diseñadores de la aplicación y el administrador de red para estimar las tasas de transacciones, longitudes y flujos para derivar estadísticas de tráfico. Fuentes comparativas: en adición al monitoreo pasivo de una red existente se puede encontrar una red conocida que probablemente posea características similares y ajustar las estadísticas de tráfico en consecuencia.

Un problema en el modelado de las cargas de trabajo de redes es la dificultad para definir en forma precisa y exacta la carga de tráfico y el desempeño de los dispositivos de red como función del número de usuarios, tipos de aplicaciones y situación geográfica. Esto es especialmente verdad sin una red real en el lugar. Vamos a considerar los siguientes factores que influyen en la dinámica de la red: * La natural dependencia de tiempo de los accesos de red: los períodos picos pueden variar; las medidas deben reflejar un rango de observaciones que incluyan las demandas picos. * Diferencias asociadas con el tipo de tráfico: el tráfico enrutado y/o conmutado origina demandas de tráfico diferentes en los protocolos y dispositivos de la WAN; algunos protocolos son sensibles a los paquetes dropeados (rotos); algunos tipos de aplicaciones requieren más ancho de banda. * La naturaleza aleatoria (no determinista) del tráfico de red: el tiempo de llegada exacto y los efectos específicos del tráfico de red son imprevisibles. 2.3.4. Determinación de requerimientos para conexiones WAN Una vez presentados los distintos tipos de enlaces WAN y de dónde vienen, y se tiene una ligera idea de lo que se puede esperar de las comunicaciones WANs futuras, es el momento de introducirse en la tarea de planificar la WAN. ¿Qué tipo de velocidad, seguridad y flexibilidad son necesarios en las comunicaciones de área extensa?. 2.3.4.1. El ancho de banda: ¿cuánta velocidad? Antes de hacer algo, es preciso tener una idea sobre cuánto se va a utilizar la conexión en la red WAN. Evidentemente, cuanto más tráfico vaya a viajar por la red, mayor ancho de banda será necesario en la WAN para proporcionar un rendimiento aceptable. Nota: recordar que los enlaces WAN simplemente no admiten los protocolos de elevado ancho de banda de las redes de área local. La mejor manera de estimar el tráfico que viajará sobre el enlace WAN es tomar una muestra del tráfico actual de la red WAN. El proveedor de telecomunicaciones debe poder llevar a cabo un estudio del tráfico del enlace WAN que muestre exactamente cuanto ancho de banda o cuantos minutos de servicio de comunicaciones WAN se están utilizando y en qué periodos de tiempo a lo largo del día. El informe debe incluir como mínimo un mes completo de estudio de tráfico. Un análisis de un día o de una semana no es suficiente para desvelar los patrones de uso. Otra forma de calcular el uso es analizar la factura de teléfono, pero sólo es válido si se dispone de un servicio basado en el uso. Un servicio basado en el uso factura sólo por la cantidad de servicio que se utiliza, medido bien en minutos, o bien en ancho de servicio de telecomunicaciones. Por supuesto, una muestra y análisis de tráfico es una opción viable sólo para aquellos que ya tengan uno o más enlaces WAN. Si se está intentando construir por primera vez un enlace WAN, será preciso estimar el tráfico de telecomunicaciones. Una de las mejores formas de realizarlo es llevar a cabo una encuesta entre los usuarios de red. Se debe preguntar a estos usuarios, que tendrán acceso al enlace WAN, con qué frecuencia se comunicarán con las personas y recursos en la localización remota, y qué harán durante dicha comunicación: transferencias de archivos?, ¿videoconferencia?, ¿ correo electrónico?. No se debe olvidar preguntar a los usuarios en qué momentos del día, días de la semana o del mes utilizarán el enlace WAN. Esto no sólo ayudará a determinar cuanto ancho de banda necesita el enlace, sino que puede ayudar a ahorrar dinero, Ello se debe a que, de la misma manera que las líneas aéreas y los hoteles, las compañías de telecomunicaciones cobran sus servicios más barato durante los periodos fuera de pico. Por lo tanto, se podría planificar la utilización más intensa durante los períodos fuera de pico (fines de semana o vacaciones). Finalmente, asegurarse que se miden los patrones de uso y se calcula el uso estimado del área extensa para ambos lados del enlace. Esto afectará seriamente a los requerimientos de ancho de banda. 2.3.4.2. No diseñar para un día medio T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 9 6 39 96 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Se puede estudiar el análisis de tráfico y asumir que todo lo que hay que hacer es dividir el tráfico total obtenido durante un mes entre el número de días en ese mes. Se podría pensar que si se obtiene una media de los días de tráfico intenso y los días de tráfico ligero, despreciando los fines de semana y las vacaciones, se obtendrá una cantidad media de ancho de banda que cubrirá las necesidades medias de negocio de la compañía. Esto es un error. Si se diseña el enlace WAN para transportar sólo el ancho de banda medio requerido a lo largo del mes, durante los períodos de tráfico intenso la mitad de los usuarios no van a ser capaces de acceder a la oficina remota a través de la WAN. Sin embargo, el objetivo no es construir una red que maneje todo el tráfico en los días de más carga con un rendimiento máximo, puesto que esto significaría que la mayor parte del tiempo el ancho de banda de la WAN estaría desocupado. La relación entre rendimiento y coste no sería satisfactoria. Por tanto, se va a diseñar el enlace de área extensa para acoger el tráfico de todos los días excepto los de máxima ocupación. Para ello, se debe identificar y cuantificar los días y las horas de máxima ocupación. En la mayoría de los negocios, ciertos días de la semana están habitualmente mucho más ocupados que otros. Por ejemplo, los centros de reservas de líneas aéreas están mucho más ocupados los días de diario que los fines de semana. Esto significa que no se puede utilizar simplemente la media de tráfico diario como requerimiento mínimo diario de ancho de banda para la WAN. En lugar de esto, se debería calcular la media de un día ocupado, que es el tráfico medio de los cinco días de más tráfico de un mes normal. Después, se debe observar cómo varían los requerimientos de ancho de banda de la WAN a lo largo de un día normal. De la misma forma que antes se podía advertir fácilmente los fines de semana y las vacaciones, se puede ver cuándo llega la gente a la oficina, cuándo van a comer y cuándo salen. Si se analiza el tráfico WAN durante un mes o más, probablemente se descubrirá que hay dos períodos de ocupación durante el día, uno por la mañana y otro por la tarde, que son casi iguales en duración y densidad de tráfico. Se toma el tráfico medio en estos dos períodos y se divide por el número total de horas de duración del período. Por ejemplo, para el tráfico de un dia (en sus distintas horas), se calcularía la media de tráfico de hora ocupada como se describe a continuación. Los ingenieros de tráfico profesionales han determinado que una hora ocupada representa entre el 12 por 100 y el 16 por 100 del tráfico total del día. Por tanto, si no se puede obtener información detallada de llamadas por hora en la red WAN, probablemente se acertará, asumiendo que una hora de tráfico intenso es igual a aproximadamente el 14 por 100 del tráfico total del día. 2.3.4.3. Analizadores de protocolo: herramienta esencial A continuación, se debe traducir esos minutos y horas de tráfico a paquetes enviados y recibidos. Esto significa que se necesita calcular el tamaño medio de paquete de la red WAN. Actualmente, el tamaño medio de paquete para una LAN es de 512 bytes. Sin embargo, utilizando un analizador de protocolo se puede determinar el tamaño medio de los paquetes que viajan a través de una red particular. Es posible configurar un analizador de protocolo para monitorizar paquetes para la topología y protocolo específicas del segmento, permitiendo monitorizar el tráfico del segmento al que está conectado. Un analizador de protocolo ayudará a determinar no sólo la media de utilización del ancho de banda en el segmento, sino también la media de tamaño de paquete y su composición. Además, un analizador de protocolo puede ayudar a descubrir tendencias del tráfico, períodos de tráfico pico y dispositivos que generan paquetes defectuosos o que están actuando como cuello de botella. Si no se dispone de un analizador de protocolo, se puede alquilar uno o incluso contratar a alguien que además de aportar el analizador de protocolo realice la monitorización de tráfico y el análisis de protocolo. La mayoría de las firmas de integración de redes ofrecen servicios de análisis de protocolo. En cualquier caso, no se debe comenzar a hacer planes para implementar una red WAN si antes no se ha monitorizado la red con un analizador de protocolo, y se está familiarizado con los tamaños de paquetes y los modelos de tráfico en la LAN. Como consejo se debe tener presente que a la hora de calcular las necesidades de ancho de banda, es preciso considerar el tamaño de paquete del protocolo WAN que se utilice. Esto variara de un protocolo a otro, por lo que, cuando se reduzca la selección de protocolos a dos o tres opciones, se debería recalcular las necesidades de ancho de banda para cada protocolo individual, utilizando el tamaño de paquete de cada uno de ellos. 2.3.4.4. ¿Qué significa esto en ancho de banda? Una vez calculadas las cargas horarias y diarias, el administrador de la WAN dispone de una idea general sobre el ancho de banda necesario para acoger el tráfico WAN. Esto ya permite determinar si se deberán adquirir protocolos WANs de alta velocidad o servicios más pedestres. Una vez seleccionado el servicio WAN o protocolo, sería atinado pedir al proveedor de servicio de telecomunicaciones que realice cierto análisis de ingeniería de tráfico, para determinar la cantidad ideal de recursos (ya sea medido en circuitos o en velocidades de información comprometidas) y para cubrir las necesidades de la red de manera rentable. Los proveedores de servicios de telecomunicaciones disponen de departamentos dedicados por completo a la ingeniería de tráfico, y se deben aprovechar esos servicios para asegurarse el mejor y más económico ancho de banda para la WAN. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 9 7 39 97 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Para aclarar un poco las cosas, a continuación se brinda una definición muy breve de los términos y ecuaciones utilizadas en ingeniería de tráfico. • Erlang: es una medida de tráfico de telecomunicaciones. Un erlang equivale a una estación transmisora, utilizando el 100 por 100 de un recurso de transporte el 100 por 100 del tiempo. El erlang se desarrolló como medida de probabilidad de espera de tráfico en 1917 por un matemático danés, A. K. Erlang, y ha sido la medida estándar desde entonces. La fórmula para calcular la carga erlang en un enlace de telecomunicaciones de datos es: (nro. paquetes / seg.) * (nro. bytes / paquete) * (nro. bits / byte) / (bits / seg.) Esta ecuación proporciona una medida de la carga en un circuito de transporte único de un determinado ancho de banda. La clave es que el número de circuitos proporcionados debe ser igual o mayor que los erlangs de tráfico. De otra manera, se empezarán a encolar los paquetes a una velocidad superior a la que los circuitos de transporte pueden transportarles y en consecuencia se perderán. •

Probabilidad de bloqueo en el circuito: la ecuación para determinar la probabilidad de bloqueo se denomina ecuación erlang-B, y sin introducirse en una disertación sobre teoría de probabilidades y de colas, indíquese simplemente que esta es la forma recursiva de dicha ecuación: B(a, k) = (a * B(a, k - 1)) / k+ a*B(a, k - 1) donde a = erlangs, b = número de recursos (circuitos), B(a, k) = probabilidad de bloqueo del circuito.

Probabilidad de pérdida de paquetes debido al bloqueo del circuito: la ecuación para determinar la probabilidad de que se pierdan paquetes debido a que el circuito se ha bloqueado se denomina ecuación erlang-C: C(a, n) = (B(a, n)) / (1- a / n x (1- B(a, n))) donde a = erlangs, n = numero de recursos (circuitos), B(a, n) = ecuación erlang-B, C(a, n) = probabilidad de pérdida de paquetes debido al bloqueo del circuito.

Determinación del tiempo medio de retardo: con los dos cálculos anteriores, se puede determinar el tiempo medio de retardo bajo una carga de tráfico determinada de la siguiente forma: T= L/C + (C(a, n) * L) / ((1- a/n) * n * C) donde a = erlangs, L = longitud del paquete (en bits), n = numero de recursos (cicuitos), C = velocidad de la línea (en bits/segundo), C (a,n) = probabilidad de bloqueo, T = tiempo medio de retardo del mensaje.

Determinación de la longitud media de la cola. finalmente, se puede determinar la cantidad media de tiempo que un paquete tendrá que esperar en cola bajo una carga de tráfico determinada, utilizando la ecuación siguiente: q = (C(a, n)xa/n)(1—a/n) donde a = erlangs, n = número de recursos (circuitos), C(a, n) = ecuación erlang-C, q = número medio de paquetes en cola.

Conocidos los erlangs, continuemos. Por tanto, para determinar el tipo de servicio más rentable para un tráfico dado para cada tipo de protocolo o servicio se considera: 1. Calcular el erlang. 2. Redondear el erlang al entero más próximo y utilizar este número como el número de recursos. 3. Ejecutar las ecuaciones para tiempo medio de retardo y longitud media de la cola, variando el número de recursos (circuitos) hasta que el tiempo medio de retardo / longitud media de la cola sea menor que el tiempo de transmisión de un único paquete (en bits por segundo) y la longitud media de la cola sea menor que la longitud de un paquete (en bits). 4. Multiplicar el número de recursos (circuitos) por el coste de un circuito. Hecho esto, ya se dispone de la cantidad de ancho de banda más rentable que cubre las necesidades de tráfico de la WAN. ¿Se comprende porqué se recomienda que el proveedor de servicio de telecomunicaciones lo haga por nosotros? De todas formas si se decide hacer los cálculos anteriores uno mismo, se puede necesitar hacerlos varias veces, puesto que existe una gran variedad de servicios y protocolos WAN entre los que elegir. En los EE.UU., los servicios de telecomunicaciones sujetos a tarifa más populares son las siguientes ofertas de conmutación de circuito: Circuito a 56 Kbps. • Circuitos múltiples a 56 Kbps. • Un circuito DS1 (1,544 Mbps). •

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 9 8 39 98 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Es más, existe una variedad de protocolos de red disponibles a través de contratos negociados con proveedores de telecomunicaciones que son incluso más apropiados para tráfico basado en paquetes en WANs de alta velocidad, como el tráfico de LAN. Estos servicios incluyen: SMDS. • X.25. • Frame relay. • RDSI (ISDN). • ATM. • ADSL. • 2.3.4.5. Flexibilidad Si el tráfico WAN varía ampliamente de un día a otro o de una hora a otra, será necesario investigar la flexibilidad del servicio o protocolo que se está considerando. Muchos servicios y protocolos se han diseñado para pagar sólo por el tráfico que se utiliza, mientras que otros son capaces de admitir las ráfagas de tráfico que superan el ancho de banda contratado. Frame relay, por ejemplo, permite fijar un ancho de banda promedio, denominado velocidad de información comprometida (CIR), permitiendo que el tráfico de la WAN supere esta tasa cuando el tráfico total sobre el recurso lo permita. 2.3.4.6. Recomendaciones Después de determinar los requerimientos particulares para un protocolo o servicio WAN, deben considerarse algunos puntos. Las siguientes son algunas recomendaciones sobre los servicios y protocolos apropiados para cada tipo de función WAN. 1.

2.

3.

4.

Transferencia de archivos: si simplemente se va a hacer una transferencia de archivos desde una oficina a otra, la recomendación es utilizar un servicio de circuito tradicional. Si las transferencias de archivos son ligeras y/o intermitentes, un servicio de conmutación de circuitos será suficiente. Sí las transferencias son constantes y/o extensas, un servicio de circuito dedicado puede resultar más rentable. Multimedia y videoconferencia: los que estén contemplando la idea de utilizar multimedia y videoconferencia sobre la red WAN podrían investigar la utilización combinada de una RDSI e isoEthernet. Grupo de trabajo (workgroup) de área extensa: para aplicaciones de grupo de trabajo, como Lotus Notes, utilizando área extensa, es aconsejable los servicios de circuito tradicionales. Son sólidos, relativamente baratos, y de fácil instalación y mantenimiento. Acceso a Internet: Frame relay se está convirtiendo en una de las tecnologías favoritas para acceso a Internet. Esto se debe a que es flexible, barato, y de fácil instalación y mantenimiento.

2.4. Fase de reunión de requisitos del diseño WAN Al diseñar una WAN, en primer lugar es necesario reunir datos acerca de la estructura y los procesos de la empresa. A continuación es necesario determinar cuáles son las personas más importantes que lo pueden ayudar a diseñar la red. Es necesario hablar con los principales usuarios y averiguar su ubicación geográfica, sus aplicaciones actuales y sus necesidades proyectadas. El diseño final de red debe reflejar los requisitos de los usuarios. En general, los usuarios primariamente necesitan disponibilidad de las aplicaciones en sus redes (a esto denominaremos efectividad de la red). Los componentes principales de la disponibilidad de las aplicaciones son: • Tiempo de Respuesta: es el tiempo que transcurre entre la introducción de un comando o presión de una tecla y la ejecución por parte del sistema del host del comando o la entrega de una respuesta. Las aplicaciones en las que el tiempo rápido de respuesta se considera crítico incluyen los servicios interactivos en línea, como los cajeros automáticos y las máquinas de punto de venta. • Throughput o Rendimiento: el throughput es definido como el número de bits de información que la red puede transportar por unidad de tiempo. Las aplicaciones que lo necesitan generalmente involucran actividades de transferencia de archivos. Sin embargo, las aplicaciones que necesitan gran cantidad de rendimiento normalmente tienen requisitos bajos de tiempo de respuesta. De hecho, a menudo se pueden programar en los momentos en los que el tráfico sensible a los tiempos de respuesta es bajo (por ejemplo, después de las horas normales de trabajo). • Confiabilidad o Fiabilidad: aunque siempre es importante, algunas aplicaciones tienen requisitos genuinos que superan las necesidades típicas. Las organizaciones que llevan a cabo todas sus actividades en línea o por teléfono requieren casi 100% de tiempo de actividad. Los servicios financieros, bolsas de valores y las operaciones de emergencias, policía y militares son algunos ejemplos. Estas situaciones requieren un alto nivel de hardware y redundancia. La determinación del costo del tiempo de inactividad (downtime) es fundamental para determinar la importancia de la confiabilidad de la red. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

3 3 9 9 39 99 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Hay varias maneras de analizar los requisitos de los usuarios. Cuanto más involucrados estén los usuarios en el proceso, más probabilidades hay de que la evaluación sea precisa. En general, se pueden usar los siguientes métodos para obtener esta información: * Perfiles de comunidad de usuarios: esquema de lo que necesitan los diferentes grupos de usuarios. Este es el primer paso en la determinación de los requisitos de red. Aunque la mayoría de los usuarios generales tienen los mismos requisitos de correo electrónico, también pueden necesitar otras cosas, como compartir los servidores de impresión en sus áreas. * Entrevistas, grupos de enfoque y encuestas: otra fuente para obtener información de base para la implementación de una red. Se debe comprender que algunos grupos pueden requerir acceso a servidores comunes. Otros pueden necesitar que se les permita acceso externo a recursos informáticos internos específicos. Ciertas organizaciones pueden requerir sistemas de soporte de sistemas de información que se puedan administrar de una manera específica, según algún estándar externo. * Entrevistas con grupos de usuarios clave: método menos formal de obtener información. Los grupos de enfoque también se pueden usar para reunir información y generar discusiones entre diferentes organizaciones que tengan intereses similares (o distintos). Finalmente, se pueden usar encuestas formales para obtener una lectura estadísticamente válida de las opiniones de los usuarios con respecto a un nivel de servicio en particular. * Pruebas de factores humanos: el método más caro, más demorado y posiblemente más revelador de evaluación de los requisitos de los usuarios es realizar una prueba que involucre a los usuarios representativos en un entorno de laboratorio. Esto se puede aplicar mejor cuando se evalúan los requisitos de tiempo de respuesta. Por ejemplo, se pueden configurar sistemas de trabajo y hacer que los usuarios ejecuten actividades de host remoto normales desde la red de laboratorio. Mediante la evaluación de las reacciones de los usuarios ante las variaciones en la capacidad de respuesta del host, se pueden crear umbrales de referencia para el desempeño aceptable. Después de reunir datos acerca de la estructura corporativa, es necesario determinar dónde fluye la información en la empresa. Averiguar dónde residen los datos compartidos y quiénes los usan. Determinar si se puede acceder a los datos que se encuentran fuera de la empresa. Asegurarse de que comprende los aspectos relacionados con el desempeño de cualquier red existente. Si el tiempo lo permite, analizar el desempeño de la red existente. 2.4.1. Evaluación de topologías de red La tarea del diseñador de red es la de configurar la red, de tal manera que los componentes extremos (envio-recepción) perjudiquen el throughput de la red lo menos posible. Los diseñadores de red requieren, después del paso anterior, seleccionar una topología: esto es, el patrón general o configuración en la cual los dispositivos están conectados al host. La topología más simple es la del circuito punto-a-punto. Para aplicaciones batch, el problema de diseño es el de maximizar el throughput; para aplicaciones interactivas, el objetivo es minimizar el tiempo de respuesta. En la topología estrella, las líneas de comunicación radian desde un servidor central a estaciones individuales; típicamente, esas líneas son diseñadas como si fueran circuitos punto-a-punto individuales. Computar el tiempo de respuesta de un circuito punto-a-punto es bastante sencillo, simplemente realice un cálculo del tiempo de respuesta, envolviendo para ello, el delay en el acceso a la red, el tiempo de transmisión de un bloque de datos, y el tiempo de respuesta del servidor. Esta tarea no es una función del diseño de red, y es llevada a cabo, más tarde, por el diseñador de la red. La topología en árbol, presenta un problema de diseño diferente, porque el circuito es compartido por múltiples dispositivos con el objeto de reducir costos por circuito; lo feo de esto es la sobrecarga (overhead) impuesta por la estrategia de compartir circuitos. El método más común de compartición es el del polling, en el cual un Host envía un mensaje de reconocimiento a cada terminal, en forma secuencial; esta responde con un mensaje o un EOT (end of text, fin de texto), señal que indica que no tiene tráfico que enviar. En general, el throughput de una red con polling es más bajo que el de una red punto-a-punto, debido a que los mensajes de polling adicionan bits de overhead (sin datos). Debido a que las redes poleadas se usan primariamente para aplicaciones interactivas, el cálculo del tiempo de respuesta es de suma importancia. El diseño de redes de datos poleadas es más complicado debido a la variabilidad de las longitudes de los mensajes. Para calcular el tiempo de respuesta, el diseñador debe recoger información estadística acerca de los overheads de los mensajes de polling, la distribución de las longitudes de los mensajes, y la probabilidad de ocurrencia de cada tipo de mensaje. La estadística principal y la varianza son usadas en fórmulas de cálculo del tiempo de respuesta. En un tercer tipo de topología, la jerárquica, para conservar los costos por circuito, los circuitos de las terminales están concentrados en ramales; las terminales son asignadas a concentradores o multiplexores y comparten un circuito central al Host (backbone). Los lugares en donde irán los concentradores son seleccionados para minimizar los costos por circuito mientras se satisfacen los objetivos de tiempo de respuesta. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 0 0 40 00 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

El número de posibles topologías en una red jerárquica compleja es demasiado grande para manejar por fórmula (determinar la localización del concentrador, llamada optimización topológica, es empíricamente complejo). Ante las distintas clases de problemas, el diseñador debe decidir como adecuar los equipos compartidos. Los problemas comunes pueden ser por ejemplo determinar el número de puertos de dial-up en una computadora de tiempo compartido, determinar el número de circuitos entre un concentrador o multiplexor y el Host, determinar el número de dispositivos en un pool de módems, etc. Las técnicas para hacer esos cálculos están basados en la Teoría de Colas, la cual ha sido largamente aplicada por los ingenieros telefónicos para determinar el número de circuitos requeridos para servir un grupo común de usuarios. Las fórmulas para esas aplicaciones son complejas y algunas imprácticas de resolver manualmente. Los diseñadores de circuitos, por lo usual, usan tablas estándares, computadoras, gráficas ploteadas, etc. para resolver esos cálculos. El punto de arranque de todo diseño de red es el de un pronóstico válido. Pronosticar es probablemente la tarea más dificultosa del diseñador, y a su vez, es indudablemente la responsable por más fallas de diseño que cualquier otro factor. Un pronóstico comienza con una medición del uso corriente e inferencias del futuro uso, por medio de técnicas estadísticas. La dificultad que genera la recolección de información no debe ser subestimada. En una aplicación nueva, por ejemplo, la información usada puede no estar disponible, indicando que el diseñador debe relacionar estrechamente el uso esperado con algún otro factor. El diseñador tiene dos estrategias primarias para desarrollar un pronostico. El primero es usando una técnica de curva gráfica apropiada para proyectar información histórica al futuro. Diversas técnicas, como regresión lineal, curva exponencial, y movimiento promedio, son usadas para ello. La segunda estrategia es la de relacionar el uso de la información con otro factor conocido o precisión asumida. Una técnica estadística llamada análisis de regresión es usada para proyectar un factor a partir de otro. El período pronosticado depende del grado de control que el administrador de red tenga sobre las reconfiguraciones de la red. Si los circuitos pueden ser dinámicamente reordenados por control de software, entonces, una demanda de pronóstico diario o semanal es una herramienta invaluable para cambios de administración. Pronósticos de largo alcance son usados para proyectar circuitos o adicionar equipos y reordenarlos teniendo en cuenta el uso de diagramas colectados a lo largo de semanas o meses. Con un pronóstico de demanda y la topología de red optada, el diseñador está listo para comenzar la configuración de la red. Ahora es momento de usar un programa de propósito general que permita, mediante la manipulación matemática, la optimización de la red de datos; este deberá aceptar fórmulas algebraicas con cualquier grado de complejidad o bien aceptar diversos tipos de fórmulas y suplir el resultado en una fórmula subsecuente. El resultado deberá ser representado como un valor, tabla, curva o gráfico dependiendo de como el usuario construya el problema. También cuestiones del tipo “if” deberán ser tratadas, ya sea cambiando valores y recalculando o bien dando al programa un rango de valores a computar. Veremos a continuación un ejemplo para maximizar el throughput y minimizar el tiempo de respuesta de un circuito punto a punto. El throughput es una función de diversas variables: tiempo de inversión de un módem, tiempo de demora de propagación en el medio de transmisión (delay o retardo), cantidad promedio de errores de línea, número de overhead o bits sin información, velocidad de transmisión, longitud del bloque de datos. El diseñador tiene un pequeño control sobre algunos de estos factores. El delay de propagación y la tasa de error están en función del tipo de circuito seleccionado. El número de bits de overhead y de bits por caracter está en función del protocolo. La inversión del módem varía por cada tipo de módem. Mientras los diseñadores tienen cierto control sobre estos factores, su tarea usual es seleccionar la velocidad del módem y la longitud del bloque de datos que maximiza el throughput. Si la longitud del bloque es demasiada corta, el throughput dropea a causa del número de bits de overhead. Si es demasiado largo, el throughput dropea a causa del tiempo gastado en reenviar bloques fallados. Una fórmula para estimar el throughput en un circuito punto a punto es: Throughput =

K1 (M - C) (1 - K2 K3 E) M (M / R) + dT

En esta ecuación las variables son: K1 = bits de información por caracter, M = longitud del bloque de mensajes, en caracteres, C = número promedio de caracteres sin información, por bloque, K2 = bits por caracter, K3 = constante sin retransmisión, E = tasa de bits de errores del circuito, R = tasa de transmisión de la línea, en caracteres por segundo, dT = tiempo entre bloques, en segundos. La variable K3 es un factor menor que uno usado para discontinuar el efecto de múltiples bits de errores en un caracter simple y errores que no causan retransmisión en un bloque (como los errores en bits de paridad). Si este factor no es conocido puede ser fijado en uno, sin afectar la precisión. El factor dT es el tiempo, en segundos, entre bloques. Este está en función del tiempo de inversión del T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 0 1 40 01 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

módem (RTS), el delay de propagación en el circuito (PD), y el tiempo para transmitir caracteres de reconocimiento (ACK), es decir que dT = 2 RTS + 2 PD + ACK Los factores, en esta fórmula, son constantes para un protocolo dado, módem y medio de transmisión, pero el diseñador puede desear cambiarlos para observar la diferencia con un circuito satelital, un circuito DDS, o un módem de más rápida inversión (turnaround). En un circuito full-duplex el tiempo de inversión del módem es cero. Los elementos de dT deberían ser tratados como variables para poder observar los cambios resultantes de asumir diseños diferentes. El Tiempo de Respuesta, TR, es la suma de los tiempos promedios requeridos para enviar un mensaje de entrada desde la terminal al Host (TIN), tiempo de procesamiento de la CPU (TCPU), y el tiempo para enviar un mensaje de salida desde el Host a la terminal (TOUT). En términos de tiempo de procesamiento de CPU y de las variables usadas para computar el throughput, el tiempo de respuesta es: TR = WIN + TIN + TCPU + WOUT + TOUT 2.4.2. Evaluación de soluciones propietarias y no propietarias Compatibilidad, conformidad e interoperabilidad están relacionadas al problema de equilibrar funcionalidad propietaria y flexibilidad de internetworking abierto. Como diseñador de red, podría ser forzado a optar entre implementar un ambiente multivendedor o implementar un ambiente propietario, específico. Por ejemplo, el IGRP (Interior Gateway Routing Protocol, Protocolo de Enrutamiento de Entrada Interior) proporciona muchas capacidades útiles, como ser una rápida convergencia y un manejo eficiente del ruteo en grandes Interredes, pero es un protocolo propietario de asignación de ruta. En contraste, el protocolo integrado IS-IS (Sistema Intermedio-a-Sistema Intermedio) es una alternativa de Internetworking abierta que también proporciona una rápida convergencia de ruteo; sin embargo, implementar un protocolo de asignación de ruta abierto puede potencialmente provocar una mayor complejidad en la configuración multivendedor. Las decisiones a tomar tendrán efectos durante un largo plazo en el diseño de la Interred global. Por ejemplo, si se decide implementar un integrado IS-IS en lugar de IGRP, se gana una medida de interoperabilidad; sin embargo, se pierde alguna funcionalidad. Por ejemplo, no se podrá balancear carga de tráfico sobre caminos paralelos desiguales. En forma similar, algunos módems proporcionan un alto nivel de capacidad de diagnóstico propietario pero para ello se requiere que todos los módems, a lo largo de una red, sean del mismo tipo de vendedor para aprovechar totalmente los diagnósticos del propietario. 2.4.3. Evaluación de costos La WAN es un elemento estratégico en el diseño del sistema de información global. Como tal, el costo de la WAN es mucho más que la suma de las órdenes de compra de los equipos (véalo como un problema de costo total). Se debe considerar el ciclo de vida entero del ambiente de internetworking. Se detalla a continuación una lista breve de costos, asociada con las redes: * Costos del software y hardware (equipamiento): los costos deberán incluir la compra inicial y la instalación, mantenimiento y proyección de costos por una versión actualizada. * Costos comerciales de performance: considerar el costo de pasar de un tiempo de respuesta de 5 segundos a un tiempo de respuesta de medio segundo. Cómo los costos pueden mejorarse en términos de selección de medios de comunicación, interfaces de red, nodos de internetworking, módems y servicios WANs. * Costos de instalación: la instalación de un cableado físico de la planta de un sitio puede ser el elemento más caro de una red grande. Los costos incluyen la labor de la instalación, modificación del sitio, conformidad de las cuotas con el código local y los costes incurridos para asegurar complacencia con restricciones medioambientales (como levantamiento de asbestos). Otros elementos importantes para mantener los costos a un mínimo deberán incluir el desarrollo, bien planeado, de un armario de cableado (wiring closet) y las convenciones sobre códigos de color para los cables conectados o a conectar. * Costos de expansión: calcular el costo de sacar todo el cableado Ethernet grueso, agregar funcionalidad adicional o mover a una nueva localización. Proyectar los requisitos futuros y registrar las necesidades futuras ahorran tiempo y dinero. * Costos de soporte: las redes complejas cuestan más para supervisar o monitorear, configurar y mantener. Las WANs no deberían ser más complicadas que lo estrictamente necesario. Los costos incluyen entrenamiento, labor directa (gerentes y administradores de red), moderación o ahorro y costos por reemplazo. * Costos por fuera de servicio (downtime): se debe evaluar el costo por cada minuto que un usuario es incapaz de acceder a un servidor de archivo o a una base de datos centralizada. Si este costo es alto, se debe atribuir un costo muy alto al tiempo por fuera de servicio. Si el costo es demasiado alto, las redes totalmente redundantes podrían ser la mejor opción. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 0 2 40 02 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII *

*

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Costos de oportunidad: por cada opción que usted haga tendrá una opción alternativa contraria. Si esa opción es una plataforma de hardware específica, topología de solución, nivel de redundancia o alternativa de integración de sistema, entonces habrá siempre opciones. Los costos de oportunidad son los costes de no escoger uno de esas opciones. Los costos de oportunidad de no cambiar a las más nuevas tecnologías y topologías podrían ser la pérdida de ventaja competitiva, productividad baja y una performance global más baja. Cualquier esfuerzo por integrar los costos de oportunidad en su análisis puede ayudarlo a hacer comparaciones exactas al principio de su proyecto. Costos asumidos: la inversión en la planta de cableado existente, los routers, los concentradores, los switches, hosts y cualquier otro equipo y software son sus costos asumidos. Si el costo asumido es alto, se podría necesitar modificar sus redes para que la WAN existente pueda continuar siendo utilizada. Aunque los costos increméntales, comparativamente bajos, podrían parecer ser más atractivos que los costos de rediseño, su organización podría pagar más a la larga no actualizando sistemas. La sobre confianza en costos asumidos puede costar las ventas de la organización y una porción del mercado cuando se calcula el costo de modificaciones y adiciones de la Interred.

2.5. Análisis de los requisitos Es necesario analizar los requisitos de red, incluyendo los objetivos técnicos y empresariales del cliente. ¿Cuáles son las aplicaciones que se implementarán? ¿Hay aplicaciones que utilizan Internet? ¿Cuáles son las redes a las que se accederá? ¿Cuáles son los criterios de éxito? ¿Cómo se puede saber si el nuevo diseño tiene éxito?. Requisitos: • Requisitos comerciales. • Requisitos técnicos. • Nuevas aplicaciones u operaciones comerciales. • Requisitos de desempeño. • Requisitos de disponibilidad. La disponibilidad mide la utilidad de la red. Muchas cosas afectan la disponibilidad, incluyendo el rendimiento, tiempo de respuesta y acceso a los recursos. Cada cliente tiene una definición distinta de lo que es la disponibilidad. Se puede incrementar la disponibilidad agregando más recursos. Esto provoca el aumento del costo. El diseño de red trata de suministrar la mayor disponibilidad posible al menor costo posible. El objetivo del análisis de los requisitos es determinar las velocidades promedio y pico para cada origen en el tiempo. Se debe intentar caracterizar la actividad durante un día normal de trabajo en términos del tipo de tráfico, nivel de tráfico que se mueve, el tiempo de respuesta de los hosts y el tiempo para ejecutar las transferencias de archivo. También se puede observar la utilización en el equipo de red existente durante el período de prueba. Si las características probadas de la red se aproximan a las de la nueva red, se pueden estimar los requisitos de la nueva red según la cantidad proyectada de usuarios, aplicaciones y topología. Esta siempre será una estimación aproximada del tráfico, dada la falta de herramientas que sirvan para medir el comportamiento detallado del tráfico. Además de monitorear pasivamente una red existente, se puede medir la actividad y el tráfico generado por una cantidad conocida de usuarios conectados a una red de prueba representativa y luego calcular lo que se haya descubierto sobre la población anticipada. Uno de los problemas de la definición de las cargas de trabajo en las redes es que es difícil descubrir con precisión la carga de tráfico y el desempeño de los dispositivos de red como funciones de la cantidad de usuarios, tipo de aplicación y ubicación geográfica. Esto es particularmente verdadero cuando no hay una red ya instalada. Se deben tener en cuenta los siguientes factores que influencian la dinámica de la red: * La naturaleza dependiente del tiempo de los períodos de acceso pico a la red pueden variar. Las mediciones deben reflejar una gama de observaciones que incluyen la demanda pico. * Las diferencias asociadas con el tipo de tráfico/tráfico enrutado y puenteo plantean diferentes exigencias sobre los dispositivos y protocolos de la red. Algunos protocolos pueden detectar los paquetes descartados. Algunos tipos de aplicación exigen mayor cantidad de ancho de banda. * La naturaleza aleatoria del tráfico de red/tiempo exacto de llegada y los efectos específicos del tráfico son impredecibles. Cada fuente de tráfico tiene su propia métrica, y cada una se debe convertir a bits por segundo. Se deben estandarizar los volúmenes de tráfico para obtener volúmenes por usuario. Por último, se debe aplicar un factor que tenga en cuenta los gastos de protocolo, fragmentación de paquetes, crecimiento de tráfico y margen de seguridad. Con la variación de este factor, se pueden realizar análisis de probabilidades (¿qué pasaría si...?). Por ejemplo, se puede ejecutar Microsoft Office desde un servidor y entonces analizar el volumen de tráfico generado por los usuarios que comparten la aplicación en la red. Este volumen ayuda a determinar el ancho de banda y requisitos del servidor para instalar Microsoft Office en la red. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 0 3 40 03 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

2.6. Prueba de sensibilidad de la WAN Desde el punto de vista práctico, la prueba de sensibilidad involucra la interrupción de enlaces estables y observar lo que sucede. Cuando se trabaja con una red de prueba, esto es relativamente fácil. Se pueden provocar perturbaciones en la red eliminando una interfaz activa, y monitorear cómo el cambio es manejado por la red: cómo se reenruta el tráfico, la velocidad de la convergencia, si se pierde conectividad, y si surgen problemas al manejar tipos específicos de tráfico. También se puede cambiar el nivel de tráfico en una red para determinar los efectos sobre la red cuando los niveles de tráfico se aproximan a la saturación de los medios. Esta comprobación empírica es una comprobación tipo regresión: una serie de modificaciones específicas (pruebas) es repetida en diferentes versiones de configuraciones de red. Supervisando los efectos en las variaciones de diseño, se puede caracterizar la resistencia o flexibilidad relativa del diseño.

2.7. Optimización de red El objetivo de la optimización de red es analizar todos los componentes que constituyen la red de telecomunicaciones de una organización para determinar dónde puede elevarse el rendimiento y/o reducir los costes. Es posible optimizar la voz, los datos y el tráfico de vídeo de manera separada o conjuntamente. La optimización de la red representa el proceso de recopilar la información de tráfico procedente de todas las fuentes afectadas conectadas a la red y realizar adiciones, supresiones y modificaciones, allí donde sea necesario, para obtener la configuración ideal de los servicios locales, de larga distancia, FX, tie-line y RDSI. Nota: una línea FX es un servicio especial que, por una cuota fija, permite llamar a una misma área de manera gratuita. Una tie-line es una línea troncal bidireccional que conecta dos centrales de conmutación diferentes. La realización de la optimización de la red de telecomunicaciones (es decir de largas distancias) es muy similar a la realizada por un supervisor de LAN para optimizar el tráfico de datos en su entorno. El administrador de LAN dispone de avanzadas herramientas informáticas para la red que le facilitan el proceso de administración, sin mencionar los protocolos de red, puentes y routers que ayudan en la mejora de la optimización del entorno LAN. La aplicación de optimización de red mediante gestión remota es la mejor herramienta que un administrador tiene. La principal diferencia entre el trabajo de optimización de un administrador de LAN y el de un administrador de telecomunicaciones se centra en la cantidad de información que es necesaria reunir y las diversas fuentes de información que deben combinarse para proporcionar un plan completo de optimización de la red de telecomunicaciones. Y no hay que olvidarse del dinero. Para los administradores de LAN la optimización de red es básicamente un tema de rendimiento y encaminamiento. La optimización de redes de telecomunicación puede abarcar todo el mundo de muy diversas maneras e involucrar billones de dólares por año. Las redes gestionadas inadecuadamente, sin mencionar a las PBX individuales, son muy costosas para el usuario. En las redes y en las fuentes de conexión de telecomunicaciones externas es habitual una tasa de ineficiencia de entre el 30 % y 70 % y hasta un 100 % de reducción del coste de las llamadas locales en las áreas donde los nodos de la red se sitúan. Si la empresa es grande, con sedes a lo largo de todo el país, y se dispone de tie-lines entre las sedes, sería posible realizar llamadas de un extremo a otro sin costo adicional. En el caso de una gran empresa y/o una empresa en expansión, posiblemente se esté considerando dónde es mejor situar las tie-lines entre las sedes. Las tie-lines no son gratis, por tanto la inversión debe realizarse allí donde el ahorro sea mayor o el rendimiento de telecomunicaciones incrementará el coste. Las tie-lines son más necesarias que nunca, debido a la mayor demanda de tráfico de datos y vídeo, además del tráfico de voz. Mediante el examen de los patrones de tráfico reales procedentes de los informes de contabilidad de llamadas, de la información de gestión de tráfico, y los planes corporativos sobre el crecimiento de las telecomunicaciones es posible determinar dónde son justificables las tie-lines. Cuando se consideran las posibles fuentes de ahorro, también deben examinarse las líneas FX. En la compra de líneas FX existe un punto en que no hay ni beneficio ni perdida pero si el tráfico de llamadas indica que es factible una reducción de costes, también es posible beneficiarse de ello.

33.. U O D E L M O D E L O O USSSO OSSII EEENNNEEELLLDDDIIISSSEEEÑÑÑO WA AN N OD DE EL LM MO OD DE EL LO OO OW Siempre existe la necesidad de pensar en el diseño de la red a causa de las crecientes demandas de conectividad y del fenomenal crecimiento de las internetworks de hoy en día. Para poder cumplir con estos requisitos de crecimiento, las internetworks a diseñar y construir deben ser escalables. Las WANs escalables pueden describirse típicamente como redes flexibles y expandibles que experimentan un constante crecimiento y que pueden ajustarse sin mayores modificaciones. Después de comprender los requisitos de networking, es necesario identificar y luego diseñar el entorno informático para cumplir con estos requisitos. Los siguientes puntos nos ayudarán con estas tareas. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 0 4 40 04 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Siempre es más fácil resolver un problema si se lo divide en partes más pequeñas, y las WANs a gran escala no son la excepción. Las internetworks escalables mejor construidas y gestionadas se diseñan típicamente en capas, siguiendo un modelo jerárquico. Mediante la utilización de capas jerárquicas, se puede dividir una red grande en partes más pequeñas que pueden tratarse en forma separada Los modelos jerárquicos para el diseño de red le permiten diseñar redes en capas. Para comprender la importancia de la división en capas, tomaremos como ejemplo el modelo de referencia OSI, un modelo dividido en capas, para comprender las comunicaciones informáticas. Al utilizar capas, el modelo de referencia OSI simplifica las tareas requeridas para que dos computadores se comuniquen entre sí. Los modelos jerárquicos para el diseño de red también usan capas para simplificar las tareas requeridas por el internetworking. Cada capa se puede centrar en funciones específicas, permitiendo de este modo que el diseñador de networking elija los sistemas y funciones para esa capa. Resultando en que un modelo jerárquico simplifica la gestión de su WAN y le permite controlar el crecimiento sin pasar por alto los requisitos de la red. El uso de un diseño jerárquico puede facilitar los cambios. La modularidad en el diseño de red le permite crear elementos de diseño que se pueden replicar a medida que crece la red. Además, como las redes siempre requieren actualizaciones, el costo y la complejidad de la actualización se limitan a un pequeño subconjunto de toda la red. En las arquitecturas planas o en malla de gran tamaño, los cambios tienden a afectar una gran cantidad de sistemas. Se puede facilitar la identificación de puntos de falla en una red estructurando la red en elementos pequeños, de fácil comprensión. Los administradores de red pueden comprender fácilmente los puntos de transición en la red, lo que ayuda a identificar los puntos de falla.

3.1. Modelo jerárquico de diseño WAN 1.

2.

Los diseños de red generalmente siguen una de dos estrategias generales de diseño: Una estructura de malla: la topología es plana, todos los dispositivos WN (routers, switches WAN) ejecutan esencialmente las mismas funciones, y generalmente no hay una definición clara del lugar donde se ejecutan las funciones específicas. La expansión de la red tiende a desarrollarse de manera arbitraria y no planificada. Una estructura jerárquica: la red se organiza en capas, cada una de las cuales cumple una o más funciones específicas. Las ventajas del uso de un modelo jerárquico incluyen: • escalabilidad: las redes que siguen el modelo jerárquico pueden aumentar de tamaño sin sacrificar el control o facilidad de administración, porque la funcionalidad se encuentra limitada a una ubicación en particular y los problemas potenciales se pueden reconocer con mayor facilidad. Un ejemplo de diseño de una red jerárquica muy grande es la red telefónica conmutada pública. • facilidad de implementación: un diseño jerárquico asigna funcionalidad clara a cada capa, facilitando por lo tanto la implementación. • facilidad para el diagnóstico de fallas: como las funciones de las capas individuales se encuentran bien definidas, el aislamiento de los problemas en la red es menos complicado. También es más fácil segmentar temporariamente la red para reducir el alcance de un problema. • facilidad de pronostico (capacidad de predicción): el comportamiento de una red utilizando capas funcionales es bastante predecible, lo que hace que la planificación de la capacidad para el crecimiento sea mucho más fácil. Este enfoque de diseño también facilita la creación de un modelo de desempeño de una red para fines analíticos. • soporte de protocolo: la mezcla de aplicaciones y protocolos actuales y futuros es mucho más fácil en las redes que siguen los principios del diseño jerárquico porque la infraestructura subyacente ya se encuentra lógicamente organizada. • facilidad de administración: todas las ventajas que se enumeran aquí contribuyen a hacer que la red sea más fácil de administrar. 3.1.1. Capas de diseño jerárquico WAN Modelo de 3 capas

Una capa se identifica como el punto de la red donde se produce un límite de Capa 3 del modelo OSI (capa de red): Las tres capas se encuentran conectadas por dispositivos de Capa 3 u otros dispositivos que dividen la red en dominios de broadcast. Un diseño de red jerárquico incluye las siguientes tres capas: * La capa núcleo proporciona transporte óptimo entre sitios T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 0 5 40 05 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII * *

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

La capa de distribución, que brinda conectividad basada en políticas La capa de acceso, que proporciona acceso para los usuarios y grupos de trabajo a la red

En ocasiones se piensa erróneamente que las tres capas (principal, de distribución y de acceso) deben existir como entidades físicas claras y distintas, pero esto no tiene por qué ser así. Las capas se definen para ayudar a un diseño de red exitoso y para representar la funcionalidad que debe existir en una red. La concreción de cada capa puede darse en routers o switches distintos, ser representada por un medio físico, combinarse en un dispositivo único, o puede omitirse directamente. La forma en la cual se implementan las capas depende de las necesidades de la red que se esté diseñando. Notar, no obstante, que para que una red funcione de manera óptima, debe mantenerse una jerarquía. Por lo general dentro de una red jerárquica se definen tres capas. Cada capa tiene un objetivo de diseño específico. La figura muestra una vista de alto nivel de los diversos aspectos de un diseño de red jerárquico. 3.1.1.1. Funciones de la capa núcleo La capa núcleo proporciona conexiones WANs rápidas entre sitios separados por grandes distancias geográficas (sitios remotos), uniendo varias redes de campus en una WAN corporativa o empresarial. Los enlaces núcleo son normalmente punto a punto, y rara vez hay hosts en la capa núcleo. Los servicios de núcleo (por ejemplo, T1/T3, Frame Relay, SMDS) normalmente son arrendados a un proveedor de servicios de telecomunicaciones. Esta capa tiene un único objetivo: conmutar paquetes. Logrará este objetivo aplicando 2 estrategias básicas: no debe participar en ninguna manipulación de paquetes, como las ACLs (Listas de control de acceso) y el filtrado, que haría que la conmutación de paquetes fuera más lenta (es decir no debe implementar políticas de red), y segundo, cada dispositivo deberá alcanzar enteramente cada destino de la red. La capa núcleo normalmente se implementa como una WAN pura u homogénea. La WAN necesita rutas redundantes, para que la red pueda soportar cortes de circuito individuales y seguir funcionando. También son funciones de diseño importantes de la capa núcleo, la carga compartida y la convergencia rápida de los protocolos de enrutamiento, además del uso eficiente del ancho de banda en el núcleo. Debe proporcionar una estructura de transporte optimizada y confiable y enviar tráfico a muy altas velocidades (es un backbone de conmutación de alta velocidad). 3.1.1.2. Funciones de la capa de distribución La capa de distribución ofrece servicios de red a múltiples LAN dentro de un entorno WAN. Esta capa es el lugar donde se encuentra la red backbone de la WAN, y normalmente se basa en Fast Ethernet. Esta capa se implementa en grandes sitios y se usa para interconectar edificios. Representa a la red del campus y su funcion principal es proporcionar acceso a diversas partes de la WAN, así como a los servicios. La capa de distribución de la red es el punto de demarcación entre las capas de acceso y núcleo y ayuda a definir y diferenciar el núcleo. El propósito de esta capa es proporcionar definición de límites y es la capa en la que se produce la manipulación de paquetes. En un entorno WAN, la capa de distribución puede incluir varias funciones, como las siguientes: • Unificación de direcciones o áreas. • Acceso de departamento o de grupo de trabajo a la capa núcleo. • Definición de dominio de broadcast/multicast. • Enrutamiento LAN virtual (VLAN). • Cualquier transición de medio que deba producirse. • Resume rutas y ofrece seguridad.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 0 6 40 06 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

La capa de distribución debe incluir el backbone del campus con todos los routers que lo conectan, como se ve en la figura. Como las políticas normalmente se implementan en este nivel, podemos decir que la capa de distribución proporciona conectividad basada en políticas. La conectividad basada en políticas significa que los routers se encuentran programados para permitir solamente tráfico aceptable en el backbone del campus. Se debe notar que las buenas prácticas de diseño de red indican que no se deben poner estaciones finales (como los servidores) en el backbone. Al no colocar las estaciones finales en el backbone se libera el backbone para funcionar estrictamente como ruta de tránsito entre grupos de trabajo o servidores de todo el campus. En un entorno fuera del campus, la capa de distribución puede ser un punto de redistribución entre dominios de enrutamiento o la demarcación entre protocolos de enrutamiento estáticos y dinámicos. También puede ser el punto en el cual los sitios remotos acceden a la red corporativa. La capa de distribución se puede definir, en resumen, como la capa que proporciona conectividad basada en políticas. 3.1.1.3. Funciones de la capa de acceso La capa de acceso normalmente es una LAN o grupo de LAN, normalmente Ethernet o Token Ring, que ofrece a los usuarios acceso frontal a los servicios de red. La capa de acceso es donde casi todos los hosts se conectan a la red, incluyendo servidores de todo tipo y estaciones de trabajo de usuario. La capa de acceso es el punto en el que los usuarios finales locales pueden acceder a la red, tal como se muestra en la figura. Esta capa también puede usar ACLs o filtros para optimizar las necesidades de un conjunto de usuarios en particular. En el entorno de campus, las funciones de la capa de acceso pueden incluir lo siguiente: • Ancho de banda compartido • Ancho de banda conmutado • Filtrado de capa MAC • Microsegmentación La capa de acceso conecta a los usuarios a las LAN, y las LAN a los backbones o enlaces WAN. Este enfoque permite que los diseñadores distribuyan servicios de dispositivos que operan en esta capa. La capa de acceso permite la segmentación lógica de la red y agrupaciones de usuarios basándose en su función. Tradicionalmente, esta segmentación se basa en los límites de las organizaciones (como los departamentos de mercadeo, administración o ingeniería). Sin embargo, desde el punto de vista de administración y control de la red, la función principal de la capa de acceso es aislar el tráfico de broadcast al grupo de trabajo o LAN individual. En un entorno que no es de campus, la capa de acceso puede permitir que los sitios remotos accedan a la red corporativa a través de algún tipo de tecnología WAN, como Frame Relay, RDSI, o líneas arrendadas. Capa de Núcleo

Funciones

• • • •

Rutas redundantes Compartir la carga Convergencia rápida Uso eficiente del ancho de banda

Capa de Distribución • • •

Control de acceso a los servicios Definir las métricas de ruta Control de publicaciones de red

Capa de Acceso • • •

Proporcionar segmentación lógica Grupos de usuarios con intereses comunes Aislar tráfico broadcast del grupo de trabajo.

Ahora que se tiene una comprensión básica de las capas en un modelo de diseño jerárquico, se debe tener en cuenta los siguientes principios de diseño fundamentales al diseñar una WAN escalable: • El área afectada por un cambio de topología en la red deberá limitarse para que sea tan pequeña como resulte posible. • Los routers y otros dispositivos de red deberán transportar la cantidad mínima de información posible. Pueden lograrse ambos objetivos a través del resumen, que por lo general se lleva a cabo en la capa de distribución. Generalmente, se desea restringir el área de convergencia a la capa de distribución. Por ejemplo, un enlace de acceso fallido no deberá afectar a la tabla de enrutamiento que se encuentra en la capa principal, y un enlace fallido en la capa principal deberá producir un mínimo impacto en las tablas de enrutamiento de un router de la capa de acceso. En una red jerárquica, el tráfico se agrega a los enlaces de más alta velocidad desplazándose desde la capa de acceso hacia la capa principal, y se divide en enlaces más pequeños desplazándose desde la capa T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 0 7 40 07 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

principal hacia la capa de acceso. Esta situación no sólo implica que los routers de la capa de acceso pueden ser dispositivos más pequeños, también implica que se requiere que tarden menos tiempo conmutando paquetes. Esto resulta en que tienen una mayor capacidad de procesamiento, lo cual puede utilizarse para implementar políticas de red. 3.1.1.4. Funcionalidad del router en cada capa Al utilizar una jerarquía, se pueden simplificar tareas tales como el direccionamiento y la gestión de dispositivos. Utilizar un esquema de direccionamiento que se mapee a la jerarquía reduce la necesidad de volver a efectuar las direcciones de red como resultado del crecimiento. El conocer dónde se ubican los dispositivos en una jerarquía permite configurar todos los routers dentro de una capa de forma consistente porque todos deben efectuar tareas similares. Un modelo jerárquico que proporcione una topología física para construir internetworks se muestra en la figura siguiente. Puesto que la estructura jerárquica utiliza tres capas distintas que proporcionan una funcionalidad única, los routers ubicados en cada capa también tienen una funcionalidad única (aunque algunas necesidades son comunes a todas las capas, otras son únicas o más criticas en relación a capas determinadas). Los routers de la capa principal proporcionan servicios que optimizan la comunicación entre rutas en diferentes sitios o en diferentes agrupamientos lógicos. Además, los routers de capa principal proporcionan una disponibilidad y confiabilidad máximas. Los routers de la capa principal deberán ser capaces de mantener la conectividad allí donde los circuitos LAN o WAN fallen en esta capa. Un diseño de red tolerante respecto a los fallos asegura que los fallos no tengan un impacto importante en la conectividad de la red. Los routers de la capa de distribución controlan el acceso a los recursos que están disponibles en la capa principal y deben, por lo tanto, hace un uso eficiente del ancho de banda. Además, un router de la capa de distribución debe direccionar las necesidades de Calidad de Servicio (QOS, Quality-of-service) para los diferentes protocolos implementando un control de tráfico basado en políticas para aislar entornos de backbone y locales. El control de tráfico basado en políticas permite priorizar el tráfico para asegurar el mejor desempeño para las aplicaciones más críticas y dependientes en cuanto al tiempo. Los routers de la capa de acceso controlan el tráfico localizando los broadcasts y las peticiones de servicio a los medios de acceso. Los routers de la capa de acceso también deben proporcionar conectividad sin comprometer la integridad de la red. Por ejemplo, los routers del punto de acceso deben poder detectar si la conexión por línea telefónica de entrada que está efectuando un teleconmutador es legítima, requiriendo no obstante una mínima cantidad de pasos de autenticación de parte del teleconmutador. Un modelo de tres capas puede satisfacer las necesidades de la mayoría de las redes empresariales. Sin embargo, no todos los entornos requieren una jerarquía completa de tres capas. En ciertos casos, un diseño de dos capas puede ser adecuado, o inclusive una red plana de una sola capa. Aún en estos casos, sin embargo, se debe planificar o mantener una estructura jerárquica para permitir que estos diseños de red se expandan a tres capas de ser necesario. 3.1.2. Diseños de red de una capa No todas las redes necesitan una jerarquía de tres capas. Una decisión de diseño clave es la ubicación de los servidores: Se pueden distribuir en múltiples LAN o se pueden concentrar en una ubicación de servidor central. La figura muestra un diseño de servidor distribuido. Un diseño de una capa normalmente se implementa si existen unas pocas ubicaciones remotas en la empresa, y el acceso a las aplicaciones se realiza principalmente a través de la LAN local al servidor de archivos del sitio. Cada sitio es su propio dominio de broadcast. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 0 8 40 08 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

3.1.3. Diseños de red de dos capas En un diseño de dos capas, se usa un enlace WAN para interconectar sitios separados (ver figura). Dentro del sitio, se pueden implementar múltiples LAN, en las que cada segmento LAN es su propio dominio de broadcast. El router en el Sitio F se transforma en el punto de concentración de los enlaces WAN.

3.2. Ventajas de jerárquicos WAN

los

diseños

Una de las ventajas de un diseño jerárquico WAN es que proporciona un método para controlar el tráfico de datos, colocando puntos de enrutamiento de Capa 3 en toda la red. Como los routers tienen la capacidad de determinar rutas desde el host origen a los hosts destino según el direccionamiento de Capa 3, el tráfico de datos fluye hacia arriba en la jerarquía hasta encontrar el host destino, como se ve en la figura. Si el Host A debe establecer una conexión al Host B, el tráfico desde esta conexión debe ir desde el Router 1 y enviarse de vuelta al Host B. Observe en la figura que esta conexión no requiere que haya ningún tráfico en el enlace entre el Router 1 y el Router 2, conservando así el ancho de banda en ese enlace. En una jerarquía WAN de dos capas, como la que vemos en la figura, el tráfico sólo recorre la jerarquía sólo hasta el punto en que esto es necesario para llegar a destino, conservando de esta manera el ancho de banda en otros enlaces WAN.

3.2.1. Ubicación de los servidores en las WAN La ubicación de los servidores en relación con quienes accedan a ellos afecta los patrones de tráfico en la WAN. Si se coloca un servidor empresarial en la capa de acceso del Sitio 1, como se ve en la figura todo el tráfico destinado a ese sitio se ve forzado a pasar por los enlaces entre los Routers 1 y 2. Esto consume cantidades importantes de ancho de banda desde el Sitio 1. Si se coloca el servidor empresarial en una capa superior de la jerarquía, como se ve en la figura, siguiente el tráfico en el enlace entre los Routers 1 y 2 se reduce y queda disponible para que los usuarios en el Sitio 1 accedan a otros servicios. En la figura, se coloca un servidor de grupo de trabajo en la capa de acceso del sitio donde se ubica la mayor concentración de usuarios, y el tráfico que atraviesa el enlace WAN para acceder a este servidor es limitado. De esta manera, hay más ancho de banda disponible para acceder a los recursos de fuera del sitio. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 0 9 40 09 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

3.2.2. Alternativas para los enlaces WAN dedicados No es inusual que los sitios remotos accedan a la capa núcleo de la WAN utilizando tecnologías WAN que no son los enlaces dedicados. Como se ve en la figura, Frame Relay y RDSI son dos de estas alternativas. Si un sitio remoto es pequeño y tiene una baja demanda de acceso a servicios en la red corporativa, RDSI sería una elección lógica para esta implementación. Tal vez otro sitio remoto no puede obtener acceso a los enlaces WAN dedicados desde su proveedor de servicios, pero tiene acceso a Frame Relay.

3.3. Características de las WANs escalables Las siguientes son las características claves para una red escalable: 1) Confiable y disponible: incluye ser confiable y disponible las 24 horas del día, los 7 días de la semana (24 x 7). Además, será necesario aislar los fallos y la recuperación debe ser invisible para el usuario final. 2) Con capacidad de respuesta: incluye el gestionar las necesidades de QoS para los diferentes protocolos que se utilizan sin afectar a la respuesta en el escritorio. Por ejemplo, la internetwork debe poder responder a los problemas de latencia comunes para el tráfico SNA (Systems Network Architecture), pero aún así permitir el enrutamiento del tráfico de escritorio, tal como el IPX, sin comprometer los requisitos de la QoS. 3) Eficiente: las grandes internetworks deben optimizar el uso de recursos, especialmente el ancho de banda. Reducir la cantidad de tráfico de sobrecarga, tal como broadcasts innecesarios, ubicación del servicio, y actualizaciones de enrutamiento, resulta en un aumento del throughput de datos sin incrementar el costo del hardware o la necesidad de servicios de WAN adicionales. 4) Adaptable: incluye el poder acomodar redes dispares e interconectar grupos (o islas) de redes independientes, así como integrar tecnologías legadas, tales como aquéllas que ejecuten SNA. 5) Accesible pero segura: incluye la capacidad de permitir conexiones a la internetwork utilizando servicios dedicados, de conexión telefónica y conmutados, a la vez que se mantiene la integridad de la red. Se detallan a continuación cada una de estas características. 3.3.1. Hacer a la red confiable y disponible La WAN deberá ser confiable y disponible en todas las capas, pero de manera más crítica en la capa principal. Recordar que los routers de la capa principal deben ser confiables porque transportan información acerca de todas las rutas en una WAN. Si uno de estos routers pasa a inactividad, esto afecta el enrutamiento a gran escala. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 1 0 41 10 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Los routers de la capa principal son confiables cuando pueden solucionar los fallos reenrutando el tráfico y respondiendo a cambios en la topología de la red. Algunos protocolos que mejoran la confiabilidad y disponibilidad de la red son los protocolos de enrutamiento escalables, los túneles, y la copia de seguridad de la conexión telefónica. 3.3.2. Protocolos escalables Los protocolos escalables incluyen a OSPF (Primero la Ruta Libre más Corta, Open Shortest Path First) y a EIGRP (Protocolo de Enrutamiento de Gateway Interno Mejorado, Enhanced Interior Gateway Routing Protocol). Estos protocolos proporcionan las siguientes características: • Alcance: las WANs escalables, incluso aquéllas que utilizan un diseño jerárquico, pueden tener una gran cantidad de redes o subredes alcanzables. Estas redes pueden estar sujetas a problemas de alcance debido a limitaciones métricas de los protocolos de enrutamiento de vector de distancia. Los protocolos de enrutamiento escalables, tales como OSPF, NLSP, y EIGRP, utilizan métricas que expanden el potencial de alcance para las actualizaciones de enrutamiento porque utilizan como métrica el costo, antes que el número de saltos. • Rápido tiempo de convergencia: el tiempo de convergencia se define como la cantidad de tiempo requerido para propagar la nueva información de la ruta desde un extremo de la WAN al otro. Los protocolos escalables pueden converger rápidamente porque el router puede detectar rápidamente un fallo y porque cada router mantiene un mapa de la topología de la red. Los routers también envían rápidamente cambios en la red a todos los routers de la topología de red. • Control de congestión: los protocolos de enrutamiento escalables generalmente agregan menos sobrecarga de tráfico a la red al transportar información de enrutamiento proporcionando resúmenes de información acerca de la red. 3.3.3. Rutas alternativas Muchos backbones de internetwork transportan información crítica para una misión. Las organizaciones que utilizan tales backbones usualmente están interesadas en proteger la integridad de esta información a virtualmente cualquier costo. Los routers deben ofrecer la suficiente confiabilidad de modo tal que no sean el eslabón débil en la cadena de la WAN. La clave es proporcionar rutas alternativas que puedan colocarse on line cada vez que tengan lugar fallos de enlace a lo largo de redes activas. La confiabilidad de extremo a extremo no se asegura simplemente haciendo al backbone tolerante a los fallos. Si la comunicación en un segmento local dentro de cualquier edificio se interrumpe por cualquier razón, esa información no llegará al backbone. La confiabilidad de extremo a extremo es posible sólo cuando se emplea redundancia a través de la internetwork. Puesto que esta redundancia usualmente es prohibitiva en cuanto al costo, la mayoría de las compañías prefieren utilizar rutas redundantes sólo en aquellos segmentos que transportan información crítica para una misión. ¿Qué se requiere para hacer confiable a un backbone? Los routers tienen la clave de una internetworking confiable. Dependiendo de la definición de confiabilidad, esto puede significar duplicar cada sistema importante en cada router y posiblemente cada componente. No obstante, la duplicación de los componentes del hardware no es toda la solución puesto que son necesarios circuitos extra para enlazar los componentes duplicados para permitirles la comunicación. Esta solución por lo general es muy cara, pero lo más importante es que no soluciona completamente el problema. Aún suponiendo que todos los routers en una red son sistemas completamente confiables, los problemas de enlace entre nodos dentro de un backbone aún pueden arruinar la solución del hardware redundante. Para solucionar realmente el problema de la confiabilidad de la red, los enlaces deben ser redundantes. Además, no es suficiente el duplicar simplemente todos los enlaces. Los enlaces duales deben terminar en múltiples routers a menos que todos los routers del backbone sean completamente tolerantes a los fallos (que no haya puntos de fallo únicos). De otro modo, los routers del backbone que no sean tolerantes a los fallos se convierten en puntos de fallo únicos. La conclusión inevitable es que un router completamente redundante no es la solución más eficaz al problema de la confiabilidad porque es caro y aún así no soluciona el problema de la confiabilidad del enlace. Los protocolos escalables, tales como EIGRP y OSPF, permiten a un router mantener un mapa de la totalidad de la topología de la red, de modo tal que cuando se detecta un fallo el router puede reenrutar el tráfico observando la topología de la red y encontrando otra ruta. EIGRP es también una solución viable porque mantiene un registro de rutas alternativas en caso de que la ruta preferida desaparezca. 3.3.4. Equilibrio de la carga El equilibrio de la carga es la forma más fácil de agregar ancho de banda en una red con enlaces múltiples. Los routers proporcionan equilibrio de la carga incorporado para múltiples enlaces y rutas. Se pueden utilizar hasta cuatro rutas hacia una red de destino. En algunos casos, las rutas no necesitan ser de igual costo. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 1 1 41 11 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Dentro de IP, los routers proporcionan equilibrio de la carga sobre una base tanto por paquete como por destino. Para el equilibrio de la carga por destino, cada router utiliza su caché de rutas para determinar la interfaz de salida. Si se está utilizando enrutamiento IGRP o EIGRP, es posible un equilibrio de la carga de costo desigual. El router utiliza métricas para determinar qué rutas tomarán los paquetes; el usuario puede ajustar la cantidad de equilibrio de la carga. Puesto que los protocolos escalables tienen un mapa de la totalidad de la topología de la red, y a causa de la forma en la cual mantienen sus tablas de enrutamiento, éstos pueden transportar datos simultáneamente a través de múltiples rutas hasta una ubicación dada, como se muestra en la figura de la izquierda. 3.3.5. Túneles Los túneles de software pueden proporcionar comunicación a través de enlaces WAN hasta áreas de la red que previamente eran inalcanzables. Los túneles permiten la configuración de un enlace punto a punto entre dos redes no contiguas que ejecutan un protocolo dado, tal como IPX, sin configurar la nube entera para IPX. Esto no sólo proporciona disponibilidad, sino que también elimina la sobrecarga asociada con la ejecución de un protocolo de enrutamiento adicional a través del enlace. Además, el tunneling proporciona un medio de encapsular paquetes dentro de un protocolo enrutable a través de interfaces virtuales. 3.3.6. Copia de seguridad de la conexión telefónica En las conexiones WAN, se pueden configurar enlaces de respaldo cuando sea necesario llevar a cabo las siguientes tareas: • Hacer a la conexión WAN principal más confiable configurando una o más conexiones de respaldo. • Aumentar la disponibilidad configurando las conexiones de respaldo a utilizar cuando una conexión principal esté experimentando congestión. 3.3.7. Hacer que la red tenga capacidad de respuesta Los usuarios finales no deberán experimentar retrasos en la capacidad de respuesta informática a medida que la WAN crece. El administrador necesitará estar consciente de los problemas de latencia que son únicos de cada protocolo que opera en la WAN. La latencia es el retraso experimentado por el tráfico a medida que cruza una red. Algunos protocolos pueden tener un tiempo vencido cuando la latencia es demasiado grande. Los routers tienen capacidad de respuesta cuando pueden acomodar las necesidades de latencia sin afectar el tiempo de respuesta en el escritorio. 3.3.8. Optimización de rutas Una de las ventajas principales de un router es su capacidad para ayudar a implementar un entorno lógico en el cual se seleccionan automáticamente las rutas óptimas para el tráfico. Los routers se basan en los protocolos de enrutamiento que están asociados con los protocolos de capa de red para lograr esta optimización de rutas automatizada. Dependiendo de los protocolos de red implementados, los routers permiten implementar entornos de enrutamiento que sirvan a sus requisitos específicos. Por ejemplo, en una internetwork IP, los routers pueden soportar a todos los protocolos de enrutamiento implementados ampliamente, incluyendo a OSPF, RIP (Protocolo de Información de Enrutamiento, Routing Information Protocol), IGRP, BGP (Protocolo de Gateway Fronterizo, Border Gateway Protocol), y EGP (Protocolo de Gateway Exterior, Exterior Gateway Protocol). Las capacidades clave incluidas que promocionan la optimización de la ruta incluyen la convergencia de la ruta rápida y controlable y las métricas y temporizadores de enrutamiento afinables. La convergencia es el proceso de acuerdo, de parte de todos los routers, acerca de las rutas óptimas. Cuando un evento de red hace que los routers detengan su operación o se hagan disponibles, los routers distribuyen mensajes de actualización de enrutamiento. Los mensajes de actualización de enrutamiento se infiltran en las redes, estimulando el recálculo de las rutas óptimas y ocasionando eventualmente que todos los routers estén de acuerdo acerca de estas rutas. Los algoritmos de enrutamiento que convergen lentamente pueden ocasionar bucles de enrutamiento o cortes en la red. Para enrutar algoritmos se utilizan muchas métricas diferentes. Algunos algoritmos de enrutamiento sofisticados basan la selección de la ruta en una combinación de múltiples métricas, resultando en el cálculo de una única métrica híbrida. IGRP utiliza uno de los algoritmos de enrutamiento por vector de distancia más sofisticados. Combina valores de ancho de banda, carga y retraso para crear un valor de métrica compuesto. Los protocolos de enrutamiento de estado del enlace, tales como OSPF e IS-IS (Sistema Intermedio a Sistema Intermedio), emplean una métrica que representa el costo asociado con una ruta dada. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 1 2 41 12 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

3.3.9. Priorización del tráfico Aunque algunos protocolos de red pueden priorizar el tráfico homogéneo interno, el router prioriza los flujos de tráfico heterogéneos. Tal priorización de tráfico permite el enrutamiento basado en políticas y asegura que los protocolos que transportan datos críticos para una misión tengan precedencia sobre tráfico menos importante. La característica principal que soporta la capacidad de respuesta en enlaces WANs lentos es la cola. La cola es el reordenamiento de paquetes de tráfico después de su llegada y su despacho en un nuevo orden, favoreciendo al tráfico deseable. La mayoría de los routers soportan tres formas de cola: 1) Cola de Prioridad: permite al administrador de red priorizar el tráfico (puede optimizarse manualmente). Cuando se prioriza un tipo de tráfico en particular por sobre otros tipos de tráfico, se le permite pasar antes que a ellos. De esta manera, se asegura que pase el tráfico de prioridad, pero los otros tipos de tráfico pueden no pasar a tiempo. El tráfico puede clasificarse de acuerdo a diversos criterios, incluyendo el tipo de protocolo y subprotocolo, y luego puesto en la cola en una de cuatro colas de salida (prioridad alta, media, normal o baja). Para el tráfico IP, es posible un afinamiento adicional. La cola de prioridad es más útil en enlaces serie de baja velocidad. La cola de prioridad puede utilizarse para segregar tráfico por nivel de prioridad, acelerando el tránsito de determinados paquetes a través de la red. En el gráfico anterior, por ejemplo, el router prioriza el tráfico de voz y video por sobre el tráfico de datos. 2) Cola Personalizada: la cola de prioridad introduce un problema de justicia en el hecho de que los paquetes clasificados para las colas de baja prioridad pueden no obtener servicio a tiempo, o ninguno en absoluto. La cola personalizada se diseñó para solucionar este problema. La cola personalizada permite más granularidad que la cola de prioridad. De hecho, esta característica se utiliza comúnmente en el entorno de internetworking en el cual se soportan múltiples protocolos de capa superior. La cola personalizada reserva ancho de banda para un protocolo específico, permitiendo así que el tráfico crítico para la misión reciba una cantidad mínima garantizada de ancho de banda en cualquier momento. La intención es reservar ancho de banda para un tipo particular de tráfico. Cada tipo de tráfico obtiene una parte del ancho de banda disponible; de este modo a ciertos tipos de tráfico se les puede adjudicar cantidades mayores o menores de ancho de banda, dependiendo de parámetros tales como sensibilidad a la latencia. La cola personalizada prioriza el tráfico multiprotocolo. Con la cola personalizada pueden construirse hasta un máximo de 16 colas. Cada cola se sirve secuencialmente hasta que la cantidad de bytes enviados exceda el número de bytes configurables o la cola esté vacía. La cola personalizada se diseñó para entornos que quieran asegurar un mínimo nivel de servicio para todos los protocolos. En el entorno de WAN multiprotocolo de hoy en día, esta importante característica permite que protocolos de características diferentes compartan los medios. 3) Cola Justa Pesada (Weighted Fair Queuing, WFQ): está activada por defecto en los enlaces WAN lentos. WFQ es un método automatizado que proporciona una ubicación de ancho de banda justo para todo el tráfico de la red. Asegura que las conversaciones de elevado ancho de banda no consuman todo el ancho de banda. WFQ es un algoritmo de gestión de prioridad de tráfico que utiliza el modelo de multiplexado por división de tiempo (TDM) para dividir el ancho de banda disponible entre clientes que comparten la misma interfaz. En TDM, a cada cliente se le adjudica una porción de tiempo en círculo. En WFQ, el ancho de banda se distribuye parejamente entre clientes de modo tal que cada cliente obtiene una porción justa si todos tienen el mismo peso. Se puede asignar un diferente conjunto de pesado, por ejemplo, a través de la característica de tipo de servicio (type-of-service, ToS), de modo tal que pueda adjudicarse un mayor ancho de banda. Si a cada cliente se le adjudica el mismo ancho de banda independientemente de las tasas de llegada, el tráfico de bajo volumen tiene una prioridad efectiva sobre el tráfico de alto volumen. El uso del pesado permite que el tráfico sensible al retraso temporal obtenga un ancho de banda adicional, garantizando así un tiempo de respuesta consistente bajo condiciones de tráfico pesado. WFQ y cola personalizada requieren la instalación de listas de acceso (ACLs); el ancho de banda tiene que preadjudicarse y las prioridades tienen que predefinirse. Esto es claramente una carga. En ocasiones, los administradores de red no pueden identificar y priorizar el tráfico de la red en tiempo real. WFQ distingue entre corrientes de tráfico individuales sin la carga administrativa asociada con los otros dos tipos de cola. 3.3.10. Cómo hacer eficiente a la red Optimizar la red en todas las capas de una jerarquía de internetwork es crítico porque puede reducir costos potenciales en hardware adicional o servicios de WAN. El foco está en la optimización del ancho de banda. La optimización se efectúa normalmente reduciendo la cantidad de tráfico de actualización en la LAN por una conexión WAN, sin derivar información de enrutamiento esencial. Las características que pueden ayudar a optimizar el uso del ancho de banda incluyen: * Listas de Control de Acceso (Access Control List, ACL): pueden utilizarse para denegar (derivar) tráfico de actualización del protocolo, tráfico de datos, y tráfico de broadcast. Las listas de acceso están T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 1 3 41 13 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

*

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

disponibles para IP, IPX y AppleTalk y pueden personalizarse para satisfacer las necesidades de cada protocolo. Una lista de acceso, por ejemplo, puede definirse por medio de un puerto TCP o de un número de red IPX, dependiendo de la situación. * Enrutamiento tipo “instantánea”: permite que routers peer intercambien información de enrutamiento por vector de distancia completa en la conexión inicial, y luego según un intervalo predefinido. Típicamente utilizada con ISDN, esta característica puede reducir los costos WAN al utilizar protocolos por vector de distancia porque la información de enrutamiento se intercambia según un intervalo definido por usted. Entre intercambios de actualización, las tablas de enrutamiento para los protocolos por vector de distancia permanecen congelados. El enrutamiento tipo “instantánea” sirve sólo con protocolos por vector de distancia tales como RIP. Si se utilizan protocolos de estado del enlace, están disponibles otras opciones, tal como OSPF para circuitos bajo demanda. Compresión a través de las WANs: pueden utilizarse varias técnicas de compresión para reducir el tráfico que cruza una conexión WAN. Por ejemplo se soporta la compresión de encabezados TCP/IP y de datos (payload). Además, puede configurarse la compresión de enlace, que comprime la información de los encabezados y de los datos en paquetes que cruzan conexiones punto a punto (líneas arrendadas). La compresión la logra en el software el router antes de que el frame se coloque en el medio. Otras ccaracterísticas adicionales que pueden ayudar a optimizar el uso del ancho de banda son las que

siguen: *

*

Enrutamiento por llamada telefónica bajo demanda (Dial-on-demand routing, DDR): las conexiones para un flujo de tráfico infrecuente pueden lograrse utilizando DDR. En DDR, los enlaces activos se crean sólo después de que el router haya detectado tráfico interesante. Este servicio “sólo si se lo requiere” reemplaza los circuitos dedicados que se cargan aún cuando ese enlace esté inactivo. Acceso conmutado: proporciona la capacidad para habilitar un enlace WAN sobre una base de necesidad a través de controles automatizados de router. Un modelo para un backbone confiable consiste en enlaces duales dedicados y un enlace conmutado para una copia de seguridad hot inactiva. Bajo condiciones operativas normales, se puede equilibrar la carga a través de los enlaces duales, pero en enlace conmutado no está operativo a menos que uno de los enlaces dedicados falle.

Tradicionalmente, las conexiones de WAN a través de la Red Pública de Telefonía Conmutada (Public Switched Telephone Network, PSTN) han utilizado líneas dedicadas. Las redes de paquetes conmutados, tales como X.25 y Frame Relay, ofrecen la ventaja de proporcionar una conectividad global a través de una gran cantidad de proveedores de servicio con circuitos establecidos en las ciudades más importantes. Las redes de paquetes conmutados permiten a los nodos compartir el ancho de banda enviando a los datos en paquetes. Se puede reducir la cantidad de ciclos de procesamiento del router reduciendo la cantidad total de entradas de enrutamiento en la tabla de enrutamiento de un router. Esto puede efectuarse utilizando las siguientes características: * Resumen de rutas: la cantidad de entradas de una tabla de enrutamiento que pueden reducirse utilizando la agregación de rutas o, como se la conoce más comúnmente, el resumen de rutas. El resumen de las rutas tiene lugar en bordes de la red importantes para la mayoría de los protocolos de enrutamiento simplemente hallando los bits o bytes comunes de las direcciones que publica un router. En lugar de publicar todas las rutas, el router sólo publica los bits o bytes comunes (o resumen) de las rutas. Algunos protocolos de enrutamiento, tales como OSPF e IGRP Mejorado (EIGRP), permiten el resumen manual T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 1 4 41 14 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

*

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

sobre bordes arbitrarios dentro de la red más importante. Se requieren una planificación cuidadosa y una ubicación de direcciones para que el resumen de las rutas sea más eficaz. Actualizaciones incrementales: Protocolos tales como IGRP Mejorado y OSPF hacen un uso más eficiente del ancho de banda que los protocolos por vector de distancia enviando sólo los cambios en la topología en lugar del contenido completo de las tablas de enrutamiento a intervalos fijos.

3.3.11. Cómo hacer adaptable a la red Puesto que las WANs escalables experimentan cambios frecuentemente, deben ser capaces de adaptarse a los cambios, como veremos a continuación: * Mezcla de protocolos enrutables y no enrutables: una red que entrega tráfico tanto enrutable como no enrutable tiene algunos problemas particulares. Los protocolos enrutables pueden enviarse desde una red a otra basándose en una dirección de capa de red (tal como una dirección IP). Los protocolos no enrutables no contienen ninguna dirección de capa de red y no pueden ser enviados por los routers. La mayoría de los protocolos no enrutables también carecen de un mecanismo que proporcione control de flujo y que sea sensible a los retrasos en la entrega. Cualquier retraso en la entrega de los paquetes que llegan fuera de orden puede resultar en la pérdida de la sesión. * Integrar “islas” de redes: muchas compañías están integrando islas de redes que típicamente estén utilizando diferentes protocolos en su diseño jerárquico. En este caso, se puede agregar cualquier protocolo utilizado por las islas de redes a la capa principal, o crear un túnel en el backbone que conecte a las islas de redes pero que no agregue nuevo tráfico de protocolo al backbone de la capa principal. * Cumplir con los diversos requisitos para cada protocolo de la WAN: cuando hay presente tráfico de protocolos múltiples, la red debe equilibrarse entre las necesidades especiales de cada protocolo. * Protocolos de enrutamiento multiprotocolos: el protocolo de enrutamiento EIGRP soporta tráfico IP, IPX y AppleTalk. * Redistribución: se puede intercambiar información de enrutamiento entre redes que estén utilizando diferentes protocolos de enrutamiento. La redistribución de rutas es una característica clave de los routers Cisco. Dominar el uso de la redistribución de rutas es importante para permitir que los diferentes protocolos se comuniquen entre sí exitosamente. 3.3.12. Cómo hacer una red accesible pero segura La red deberá ser accesible, particularmente en la capa de acceso. Los routers de la capa de acceso necesitan conectarse a una variedad de servicios de WAN, pero no obstante esto ser seguros, tal como lo muestra la figura siguiente. El soporte para una variedad de tecnologías WAN es importante porque no todas las tecnologías están disponibles en todo el mundo. En muchos casos, no sólo es el uso la consideración a tener en cuenta al seleccionar una tecnología WAN, sino que también lo es la disponibilidad geográfica. Los routers de la capa de acceso IP deben permitir que los teleconmutadores entren con una conexión telefónica, pero deben ser capaces de diferenciar entre intentos de conexión legítimos y hostiles. Las características que soportan el acceso incluyen: 1. Soporte dedicado y conmutado para la WAN • Acceso dedicado: los routers pueden conectarse directamente al servicio telefónico básico o a los servicios digitales tal como T1/E1. Esto significa que puede crearse una infraestructura de WAN principal para cargas de tráfico pesado, y luego utilizar otros servicios de acceso para requisitos de tráfico esporádicos. • Acceso conmutado: los routers soportan Frame Relay, X.25, SMDS y ATM. Con esta variedad de soporte, puede determinar qué servicio conmutado, o combinación de servicios conmutados, utilizar, basándose en costo, ubicación y requisitos de tráfico. 2. Soporte de Protocolo Exterior: El IOS soporta diversos protocoles exteriores, incluyendo EGP y BGP. EGP es un protocolo de gateway exterior más antiguo que proporciona conexión entre sistemas autónomos separados. BGP es utilizado a menudo por los ISPs y por organizaciones que deseen conectarse a los ISPs. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 1 5 41 15 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Las características que soportan la seguridad de la red incluyen: * Listas de acceso: son listas que contienen información acerca de qué tipo de tráfico deberá enviarse, pueden definirse para evitar que el tráfico del usuario acceda a porciones de la red. Las ACLs también pueden asistir en proporcionar seguridad porque cuando bloquean eficazmente el tráfico del usuario, a los mismos usuarios se les deniega el acceso a áreas sensibles de la red. Las listas de acceso pueden utilizarse para filtrar el acceso a determinadas ubicaciones, pero esta no es una característica de seguridad. * Protocolos de autenticación: estos protocolos autentican a un usuario antes de permitir el acceso a los datos. En conexiones WAN que utilizan el Protocolo punto a punto (PPP), se pueden configurar protocolos de autenticación tales como PAP o CHAP. Según lo muestra la figura, el router del sitio central participa en un proceso de autenticación con el usuario de entrada por conexión telefónica. Si la autenticación falla, se denega el acceso al usuario.

4. Como crear una WAN Ahora que las LANs son un acontecimiento frecuente, algunas compañías medianas y grandes, ven a las WANs como la próxima frontera de las comunicaciones. Sin embargo la implementación de una WAN a menudo tiende a fracasar por la carencia de definiciones y por un limitado soporte de productos. Mientras que el uso de la interconexión de LANs dentro de una empresa plantea algunas cuestiones interesantes (y, en ocasiones, algunos puntos de dificultad) la implementación de una WAN es como querer clavar un clavo de goma en un muro, se hace muy resbaladizo, uno se ensucia las manos, y al final el resultado no es el buscado. Para ayudar a precisar lo planteado comenzaremos con unas pocas definiciones: cuando se hable de “nodo” especificaremos un simple punto de entrada de datos en una WAN, este puede ser una LAN, un mainframe, una computadora personal, o una terminal. Un “site” o sitio indica una colección de nodos, usualmente en el mismo edificio. Un “campus” o campo como una colección de “sites” en un área compacta, como una universidad, una empresa, o una base militar. Característicamente los “campus” tienen una PBX (Private Branch Exchange, o Centrales Privadas de Conmutación). Los sites que no tienen una PBX común son considerados separados porque al acceso a sus sistemas telefónicos interno difieren. 4.1.1. Como empezar Las LANs constituyen una arquitectura bastante bien definidas, completas en sí mismas y con protocolos de uso generalizados; en contraposición las WANs son muchos más confusas. Básicamente, una WAN es un poco más que un grupo de campus interconectados sobre un área amplia y sobre los cuales se pueden mover y compartir información. Si uno piensa que esto suena como algo vago, se está en lo correcto. A diferencia de las LANs, con las WANs, la forma sigue a la función. Por ejemplo, si se desea transferir un archivo desde un extremo del país al otro, se utilizará una primitiva WAN. Toda la transferencia de archivos podrá ser llevada a cabo mediante una simple conexión de un módem asincrónico. La única y real diferencia entre esta y una red de oficinas, es el tamaño y complejidad de la WAN. Las WANs son diseñadas y configuradas para satisfacer requerimientos particulares. Hasta ciertas extensiones las LANs pueden ser también utilizadas pero sus especificaciones están más limitadas y mejor definidas con LANs; uno puede optar por Token Ring, por Ethernet o por cualquier otro protocolo, y luego definir como consecuencia la gama de medios disponibles. Finalmente se reducen razonablemente a unos pocas las decisiones sobre el hardware; se adiciona un “bridge” o puente, un “router”, enrutador o encaminador y un “brouter” o bridge-router o dos y todo listo. Lo dicho, en modo simplificado, sirve como ilustración de implementación. Las WANs no son, ni por cerca, tan bien definidas o tan bien estructuradas como las LANs. Sus productos parecen estar dirigidos a resolver el problema de armar el rompecabezas WAN con piezas aisladas. En una WAN, casi siempre, los únicos ganadores son los integradores que son los que deben hacer que la “cosa” trabaje. Sin embargo, a pesar de estas dificultades, uno puede seguir unas series de pasos para evitar la confusión. 4.1.2. Paso 1: Definir los requerimientos Este paso no es, significativamente, diferente del planeamiento que se hace para la implementación de una LAN, al menos conceptualmente, pero en alcance el orden de magnitud es mucho más grande. Primero, se deben definir los “sites” a ser interconectados y las conexiones existentes entre ellos. En este punto, uno no debe interesarse (por lo menos por ahora) por la naturaleza de esas conexiones, sí con los “paths” o “caminos” que T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 1 6 41 16 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

implican ellos mismos. Definir los “paths” nos ayudará a determinar el óptimo “carrier” o portador o mezcla de “carriers” para nuestra WAN. Uno no puede hacer una elección hasta que no se conozca la naturaleza de las conexiones, pero por lo menos se puede empezar por ir observando las distintas opciones con que se cuenta en el mercado. Usualmente, las opciones para interconectar una WAN están limitadas a redes públicas o a redes privadas. Si las conexiones son limitadas, bastante genéricas, y no constantes, una Red Pública de Datos (PDN, Public Data Networks) o una Red de Valor Agregado (VAN, Value-Added Network) puede ser la mejor opción (ver como seleccionar una PDN). Las WANs más comunes son las Redes Públicas de Telecomunicaciones que de forma similar existen en casi todos los países del mundo y que se encuentran interconectadas. Los usuarios se conectan a ella mediante un contrato de conexión. Si se tienen muchas conexiones y gran cantidad de conexiones “on-line” o “en línea” de tiempo completo (24 Hs), entonces una red privada puede tener mucho más sentido. En cualquier caso, se deberá usar las facilidades de una PDN. Sin embargo, algunas veces, se puede justificar una verdadera red privada, la cual deberá usar equipos de transmisión propios (de la compañía) y de uso dedicado, exclusivo de la misma, pero es muy raro hoy en día por los costos que implica. Para redes pequeñas, una alternativa a las PDNs o a sistemas propios de la compañía podrían ser las ofertas existentes de líneas digitales de banda ancha (broadband) como ser la línea digital T1. La línea T1 es un sistema de conmutación de circuitos (las PDNs son de conmutación de paquetes) disponible a través de los “carriers” telefónicos de larga distancia. Sin embargo el acceso a esos sistemas requiere de mucho más equipamiento de nuestra parte en comparación con el acceso mediante una PDN. Todo lo que la compañía telefónica ofrece es la facilidad de transmisión. La selección del protocolo, el enrutamiento y el acceso a la red es tarea de uno. Para WANs con conexiones simples punto-a-punto y pocos nodos, una línea T1 o algunos medios rápidos, puede ser la mejor elección. Sin embargo, como las WANs tienden a convertirse en algo cada vez más complejo, uno puede beneficiarse dejando que una PDN tome el control sobre las fastidiosas largas distancias a cubrir. Los circuitos T1 son generalmente conexiones dedicadas punto a punto. Además, el precio que se paga por las líneas T1 esta basado en la distancia que se cubre; en contraposición el precio que se paga por las redes de paquetes esta basado en el uso de los paquetes. Un paquete (tal como una PDN lo define y cobra) no es nada más que un “frame” (estructura, mensaje) de datos de un protocolo de comunicación simple (por ejemplo X.25). A continuación, lo que se necesita es determinar la naturaleza de los datos que serán movidos a través de la WAN. Para ello debemos respondernos algunas preguntas: * Se va a realizar una transferencia de archivos simple?, * Se tendrán conexiones en línea (ej. terminales a un mainframe, conexiones LAN-HOST)?, * Que cantidad de “paths” (caminos, circuitos) debe estar en línea simultáneamente?, * Se requerirán también transmisiones de voz y video?, * Tendrá la red conexiones-circuitos cruzados con otras prestadoras internacionales?, * Se moverán los datos en forma intermitente (en ráfagas) ó se estarán moviendo constantemente?.

* * * * *

En cuanto al tipo o naturaleza de las conexiones entre los “sites”: Son los enlaces PC-a-PC, PC-a-LAN, PC/terminal-a-mainframe, LAN-a-mainframe, o mainframe-amainframe?, Se tendrán bases de datos distribuidas?, ¿Cómo se conectarán al sistema los usuarios de móviles que necesiten hacer un discado desde lugares remotos?, Que plataformas, a ser interconectadas, están ubicadas en cada sitio?, Que protocolos se usan?, Que sistemas operativos?, ¿Cuándo son apropiadas las conexiones asincrónas, y cuando debe establecerse circuitos punto a punto síncronos?.

La seguridad es también un caso serio. Aunque se necesite adicionar seguridad a la WAN para proteger los datos durante la transmisión, y así asegurarse que los puertos de cada nodo dentro de la WAN tiene un control de acceso aceptable, los requerimientos de seguridad en cada nodo pueden afectar materialmente la naturaleza de su conexión a la WAN. Finalmente, cuál es la naturaleza de los distintos campus que deben ser interconectados?, * Se deberán interconectar los sites de los campus o dejar que la WAN provea las interconexiones?, * Cuanta interacción se efectuará dentro de los campus en comparación con las interacciones a efectuarse a larga distancia?. Dependiendo de su tamaño y naturaleza, uno puede desear salvar los castos insumidos en el networking de los campus y permitir que todos se comuniquen vía la WAN. 4.1.3. Paso 2: Explorar las opciones T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 1 7 41 17 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Será necesario determinar como se podrían salvar problemas específicos pensando como si cada uno de ellos fuera la única cosa que nos concierne. No se necesitan probar, todavía, las distintas opciones, lo que si se necesita es saber cuales son esas opciones y que costos pueden ellas tener. Como ejemplo veremos algunas opciones genéricas para diversos requerimientos típicos: 1. Transferencia de archivos: se puede transferir archivos de diversas formas. El e-mail es la opción mas limpia y elegante. Sin embargo, esta premisa asume la existencia de una gran compañía de sistemas de correo electrónico que soporta transferencia de archivos sobre todas las plataformas que ella conecta. Cuando una compañía usa (como suelen hacer) distintos sistemas de E-Mail sobre una variedad de plataformas, cada file-transfer puede resultar muy dificultoso. 2. Conexiones LAN-a-LAN: estas son muy a menudo complicadas por el uso de bridges, routers y brouters. Los puentes son usualmente usados en entornos multiprotocolos. Los enrutadores son, con frecuencia, la mejor opción para conexiones de larga distancia. Cuando se utilizan routers para redes de largo alcance y bridges para sitios locales, las redes físicas conectadas por bridges son vistas como redes lógicas individuales. Por ejemplo, si se puentean 4 redes físicas en un edficio, la gente que usa estas redes las verán como una simple LAN lógica. Asi, si se desea que redes físicas individuales sobre una WAN aparezcan como una red lógicas simple, se deberán usar puentes (bridges). La principal diferencia entre bridges y routers es que los puentes pasan los datos basándose en el destino ultimo del dato. Son inteligentes y pueden aprender los esquemas de direccionamiento de la red a la cual están atachados (conectados). Por el otro lado los enrutadores unicamente conocen las direcciones de los routers o fuentes precedentes y subsecuentes (de donde vienen los datos y a donde ellos irán). Debido a que los routers no tienden a evaluar cada paquete con respecto a su destinación final, casi siempre trabajan mejor sobre una WAN de larga distancia congestionada que los puentes. Los brouters son una cruza entre bridges y routers. Ellos son muchos más complejos que cualquiera de los otros dos. Una WAN bien pensada deberá usar una combinación de bridges, routers y brouters. Para determinar que dispositivo de internetworking es el más apropiado para un lugar en particular, es necesario considerar el tráfico sobre cada path o circuito. 3. Carga compartida: esta es una opción utilizada sobre los paths de redes muy congestionadas. Esto indica simplemente que la red observa el tráfico sobre los paths alternativos y selecciona el menos congestionado. Los datos pueden llegar a tener que viajar sobre largas distancias, pero si el camino seleccionado esta significativamente menos congestionado, la respuesta de la red será mucho mejor. Si se selecciona una PDN como transportista o carrier, la opción de carga compartida no debe ser tenida en cuenta porque las PDNs ya la implementan. 4. Discado asincrónico: es el servicio con más frecuencia utilizado cuando individuos externos deben acceder a la red a través de la línea telefónica. El servicio también llega a ser relevante cuando la red es usada primariamente para transferencia de archivos (file transfer). Se debe mantener en mente el impacto que causa los cargos telefónicos de larga distancia, en donde el porcentaje de “larga distancias” es excepcionalmente alto. Si se tiene un número elevado de personal de campo (externo) quienes deben “dial-in” (discado por acceso telefónico), entonces se hace factible el uso de una PDN que permita el uso de un pool central de módems (es decir, una colección de módems sobre un servidor de comunicaciones que pueda ser accedido por otros usuarios de la red). Algunas de las grandes PDNs tiene capacidad de acceso por discado (dial-in) asíncrono cercanos a los grandes centros urbanos, en ese caso el acceso a la PDN es a través de un llamado local. La variación de precio o cambio del costo esta dado por la razón entre el cargo por larga distancia y la tasa de paquetes. Asi, en una PDN los cargos están basados en el número de paquetes y la distancia en lugar de estar basados en la distancia y el tiempo, como los cargos de la compañía de teléfonos. Si se opta por el acceso de discado asíncrono a través de una PDN, se debe definir el alcance o uso del mismo. Probablemente se desee un pool de modems y un servidor de comunicaciones en la red para manejar las llamadas entrantes (incomings calls), o bien se podría desear que el servidor de comunicaciones tenga acceso a otros nodos u otros sitios sobre la WAN que conecta las distintas sucursales al lugar central (esta configuración es usualmente la mejor porque permite adicionar nuevos sitios de forma fácil, sin embargo no provee caminos alternativos). Si se está desarrollando una verdadera WAN privada (es decir, una que no usa PDNs para poder realizar las conexiones de larga distancia) es probable que quiera disponer de caminos de transmisión adicionales para tener una red de carga compartida (es decir, una red balanceada en su forma de transmisión para evitar congestionamiento). 5. Conexiones heterogéneas: en este caso se está hablando acerca de conexiones del tipo LAN-mainframe o conexiones entre PCs de LANs y workstations UNIX. Las reglas para interconectar diferentes plataformas, diferentes sistemas operativos, y protocolos sobre una LAN no son tan diferentes de aquellas utilizadas para hacer la misma cosa sobre una WAN. La clave es determinar con qué nivel de translación de protocolos es necesario trabajar para permitir que los distintos sistemas se comuniquen. Con una WAN, las opciones de conexión limitan severamente la sensibilidad de los enlaces. La velocidad de una conexión directa es mucho más grande que la de un carrier de larga distancia, entonces la limitación puede dictar como se podrán usar los enlaces. Aún así, y curiosamente, las reglas que se siempre se han aplicado para la conexión de una terminal a un mainframe sobre circuitos de comunicación dedicados, T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 1 8 41 18 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

6.

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

siguen aplicándose en una WAN. La diferencia está en que uno necesita tener más dispositivos en consideración. En algunos casos, se deberá usar o un puente, o un conversor de protocolos, o un emulador de terminales para poder realizar una conexión heterogénea. Si esto suena como que se necesita una LAN para las conexiones externas, esto puede ser una buena propuesta para el eje de actividades de comunicaciones de la empresa. Una LAN simple conteniendo servidores de comunicaciones asincrónicos con pool de módems, puentes a otras redes, emuladores terminales para conexiones directas a mainframes, y conexiones a procesadores de comunicaciones de mainframe (Front-end-Processors, FEP), puede ser, entonces, completamente provechosa. Por ejemplo, si se está conectando a un mainframe IBM, se puede querer puentear otras LANs a un Token-Ring que se conecte directamente a procesadores frontales SNA de IBM; o bien, si se está conectando a un DEC VAX, se podrá desear usar Ethernet y cualquier otro DECnet o conexiones directas. La clave está en proveer de la menor cantidad de capas (layers) de translación de comunicaciones como sea posible. Se deberá dejar que sistemas similares “hablen” con otro cualquiera y luego recién intentar que “hablen” con sistemas disímiles sobre un enlace simple. Correo electrónico (e-mail): quizás este sea el requerimiento más resistente o difícil de todos, debido a que la mayoría de las WANs son por defecto redes heterogéneas, compuestas de una variedad de plataformas, sistemas operativos, topologías y protocolos. Esto hace que sea prácticamente imposible encontrar un paquete de e-mail que pueda trabajar igualmente bien sobre todos los enlaces. Ahora bien, antes de que alguien en la organización considere una WAN, lo que usualmente sucede es que los usuarios de mainframes establezcan una red de e-mail. Los usuarios de UNIX también buscan un paquete que supla sus necesidades; y los usuarios de LANs que montan su sistema de e-mail (o sistemas, porque es muy normal para una compañía grande tener muchas LANs, todas planeadas para diferentes grupos). A causa de que las LANs departamentales parecen surgir repentinamente, la probabilidad de que usen el mismo paquete de e-mail es mínima. Posteriormente esas personas querrán conexiones a sistemas externos, como MCI mail o Internet. Esas conexiones implican un sistema de discado asíncrono. La clave es encontrar una interfase que pueda acceder a una variedad de sistemas de correo electrónico y que presente los resultados de manera uniforme. Las opciones son limitadas o hasta pueden ser inexistentes. Al final uno puede llegar a encontrarse con múltiples accesos a múltiples sistemas de e-mail.

No hay un camino correcto o erróneo para construir una WAN pero a causa de que el estado del arte en comunicaciones esta cambiando constantemente es importante diseñar una WAN que permita tomar ventaja de las nuevas tecnologías. Uno debe permitir que se hagan cambios y adiciones a la WAN sin tener que eliminar cosas y volver a empezar de nuevo. Mas adelante, ampliaremos el criterio a usar para la selección de una opción de conexión WAN, dada la aparición de nuevas tecnologías (ISDN, Frame Relay ATM) que facilitan (y a la vez complican, dado el conocimiento que se debe tener para implementarlas) la elección puesto que trabajan con grandes anchos de bandas, a altas velocidades y cubren diversos tipos de aplicaciones, además de la facilidad de administración y de la calidad de servicio. Sumado a todo esto se tiene la ventaja de poder contratar a un proveedor de servicios (que hará la tarea por nosotros) y, en el caso de que exista más de un proveedor, poder obtener precios WAN competitivos. 4.1.4. Paso 3: Planear los enlaces El corazón del planeamiento de una WAN es el diseño de los enlaces o vínculos de comunicaciones. ¿Cómo serán los sitios que la WAN comunicará?. Si se requiere dial-in asíncrono, se deberán usar líneas regulares de teléfono o tener un acceso a una PDN?. Lo primero que se debe dejar claro son los enlaces asincrónicos. El diseño de los enlaces de comunicaciones es un proceso iterativo. Se inicia con lo que parece un trabajo básico paso a paso para luego redefinir esas opciones cuando se descubren los conflictos. Supongamos que uno se decide a usar una PDN para el discado asincrónico, y eventualmente se da cuenta que tendría más sentido construir su propio sistema y tener su propio hardware de comunicación (asumiendo que todas las cosas están en un área compacta y se cuenta con facilidades propias de microondas y/o satélites). En este caso, probablemente se desee cambiar la decisión de usar una PDN para dial-in. Una vez que se ha trabajado sobre los paths asíncronos y se ha decidido como llevarlos a cabo, nos trasladamos a las conexiones LAN-a-LAN. Estas son las más complejas porque utilizan dispositivos de internetworking. Se podría necesitar canales dedicados (en donde cada canal de transmisión es arrendado por un usuario simple para uso propio), o se podría probar con canales compartidos (canales de transmisión compartidos por más de un usuario, como los ports de discado no dedicados)? Para tener el más completo internetworking, la mejor apuesta, es por lo común, el uso de canales dedicados full-time sobre una PDN, es decir, canales de comunicación que sean propiedad exclusiva del usuario, 24 horas al día, siete días a la semana. Es también posible que algunos carriers tengan canales dedicados part-time (por tiempo, es decir canales disponibles cinco días a la semana y durante horario comercial), pero en estos casos, por lo general, no hay ninguna justificación para tal acuerdo. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 1 9 41 19 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Finalmente, lo que se necesita adicionar son las grandes plataformas de conexión (asumiendo que se tienen diversos campus o sites para conectar). Casi siempre habrá un punto central de comunicación dentro de un sitio al cual todos los demás sitios podrán acceder. En el caso de muy grandes plataformas de sitios, esta cubrirán localizaciones remotas y no solo el cuartel central; en este caso un centro de computación dedicado es comúnmente localizado en el propio sitio remoto. 4.1.5. Paso 4: Seleccionar los vendedores Ahora estamos listos para prestar mayor atención a los detalles, lo más especifico. Se podría desear tener un listado de ayuda de los diferentes equipamientos de los distintos vendedores; de ser así, el problema más serio a enfrentar es saber como compatibilizar o direccionar los distintos nodos de las diferentes plataformas con los múltiples sitios. Una vez definido este punto se tendrá una gran cantidad de trabajo para hacer con respecto a cómo se implementarán los protocolos disponibles por los diferentes vendedores. El diseñador de la red deberá seleccionar los protocolos a usar considerando las plataformas utilizadas y teniendo en mente que deben ser compatibles, lo más posible, unas con otras. Por ejemplo, si se está usando mainframes IBM, se deberá encontrar sistemas compatibles con SNA. Estos sistemas tienen productos bien definidos para interconexión a LANs (en este caso, Token Ring). Los esquemas de direccionamiento son muy complejos y varían significativamente de un vendedor a otro. Las opciones de los vendedores dependen estrictamente de la complejidad de la instalación y de la envergadura de los protocolos y esquemas de direccionamiento a ser soportados. La mejor propuesta es la de arrancar con su vendedor habitual de comunicaciones para determinar que protocolos de WAN de larga distancia podrían ser usados y como se conectarán a la PDN. En algunos casos, el protocolo de larga distancia podría ser X.25 o Frame Relay, y la WAN se conectaría vía un PAD (Packet Assembly/Disassembly) a un gateway. Si esto es así, se simplificarían una gran cantidad de requerimientos de direccionamiento y de puentes. Se podría simplificar un poco más, tomando a cada sitio con un gateway, usar un concentrador de comunicaciones y enfocar los puentes y enrutadores a nivel del sitio. En otras palabras se puede determinar como interconectar los distintos sitios desde un punto de vista individual en vez de mirarlo como un todo, globalmente. La PDN manejará cosas como carga compartida, enrutamiento de larga distancia, y todo lo concerniente a la WAN. Asumiendo que cada sitio está apropiadamente interconectado, ahora uno debe asegurarse que puedan hacerse las conexiones individuales a la PDN, esto incluye tener el equipamiento en su lugar y todas las conexiones en forma correcta dentro de la red del campus; al mismo tiempo uno debe estar seguro de haber optado por el medio apropiado de larga distancia (canales dedicados o compartidos) que satisfaga las necesidades. Este último paso es actualmente un chequeo de cualquiera de todas las selecciones previas (es fácil perder la pista del “gran cuadro” cuando se están seleccionando distintas facilidades de conexión de largo alcance, Long Haul), uno deseará estar seguro de que todos los enlaces (incluyendo cualquier combinación de carriers) trabajarán juntos. ¿Cómo seleccionar a los vendedores de equipamientos de comunicaciones y de software que se necesitarán?. La respuesta más corta es que se debe estar seguro de que cada dispositivo de interconexión se podrá comunicar con cualquier otro dentro de la WAN que debe conectarlos. Los detalles de esta tarea, son, de todos modos, un poco difusos. Si se ha diseñado la WAN como un grupo de conexiones punto a punto, usando las facilidades de una PDN, el trabajo será más fácil. Ninguna conexión simple mandará todas las cosas a todos los nodos. En realidad, se envían datos a la PDN y se deja que el extremo distante interprete que ha salido de la recepción. Todo lo que se necesita es un esquema de direccionamiento único que tome en cuenta la cantidad de usuarios que cubrirán todos los nodos de la WAN. Esto no es usualmente, un problema serio. Se debe seleccionar los vendedores que provean un direccionamiento flexible junto con los requisitos de conexión a la PDN; luego se tendrá que afrontar los desafíos propios. 4.1.6. Paso 5: Administrar la red Este puede ser un problema bastante serio, porque la mayoría de las redes que conforman la WAN no son directamente compatibles. No parece conveniente un único protocolo de administración para todos los componentes de la WAN. Si uno tiene la “suerte” de diseñar la WAN desde sus comienzos, puede inclinarse por el uso de un protocolo de administración de red, como ser el Protocolo Simple de Administración de Red, el SNMP (Simple Network Management Protocol); luego se podría instalar un administrador de red centralizado. Si uno no tiene la “suerte” de diseñar la WAN se tienen dos opciones: * primero, se pueden instalar varios sistemas individuales de administración de red, tantos como sean necesarios para cubrir cada una de las bases. Por ejemplo, se debe usar un sistema LANtern de Novell o cualquier otro sistema SNMP para segmentos de LAN, un sistema SNA para los mainframes IBM, y los DECmcc para los segmentos VAX. * la segunda opción, es un sistema de administración universal, que pueda programarse para administrar virtualmente todo los componentes, sitios y nodos de una WAN desde un punto central.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 2 0 42 20 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

Sin tomar en cuenta la decisión adoptada, lo que se debe tener en mente es que se debe usar un sistema de administración de red jerárquica. Esto indica que los administradores de los distintos niveles de la red (sitios, campus, regiones y la locación central) son responsables de sus propias áreas. Muchas de las WANs actuales son simplemente demasiadas largas y complejas para que un sitio central lo pueda administrar solo. 4.1.7. Decisiones Finales Llegó el momento de implementar el gran plan largamente diseñado. ¿Cómo encarar la implementación?. La respuesta fácil, usualmente, es la de configurar primero la localización central. Para hacer esto, uno necesitará asegurarse que todos los sitios y nodos dentro de este grupo están interconectados y listos para actuar. Luego se debe establecer un control central de comunicaciones (si ya no se lo tiene). Si uno está usando un sistema jerárquico, donde la oficina central se comunica con los nodos regionales y a su vez cada uno de ellos se comunica con sus diferentes ramas, haciendo que la región este “más cerca”, establezca los enlaces entre los centros regionales de control de comunicación y el centro de control central. Los centros regionales de control deberán implementar la misma secuencia de procedimientos que el utilizado para el lugar central, en términos de los sitios y nodos conectados a ellos localmente. Ya en este punto, un diseño simple de WAN está construido y corriendo. Ahora, adicione las derivaciones de las oficinas regionales a su región. Durante este proceso, identifique cualquier problema que se presente como consecuencia de la integración. No olvidarse, sin embargo, que se necesita que siga operando el viejo sistema en forma paralela a la WAN hasta que se este satisfecho que la WAN está corriendo satisfactoriamente. A no ser que se anticipen delays o retardos significativos en el modelamiento de los subsecuentes sitios o regiones, no se debe poner un path (camino, enlace) en producción hasta que se pueda ponerlos a todos ellos activos. El impacto producido por el uso de una variedad de caminos desconectados sobre ese conjunto de sitios no conectados, asi como también en el personal que debe procesar la información entrante, puede hacer peligrar la calidad de las operaciones diarias. El planeamiento e implementación de una WAN está lejos de ser una cosa simple. Una gran cantidad de temas (algunos aparentemente contradictorios) entran en juego complicando aún más la cuestión, pero si uno estima sus requerimientos, analiza sus alternativas, planifica cuidadosamente, e implementa metódicamente, se pude interconectar la organización a través de la ciudad o alrededor del mundo.

55.. SSEEELLLEEECCCCCCIIIÓ Ó N D E L A T E C N O L O G A O P A D A WA AN N AAAPPPRRRO ÓN ND DE EL LA ASSS T TE EC CN NO OL LO OG GÍÍÍA ASSS W OP PIIIA AD DA ASSS 5.1. Escoger una conexión WAN Cada tipo de conexión WAN tiene sus ventajas y desventajas. Por ejemplo, una conexión dial-up asíncrona ofrece un ancho de banda limitado, pero un usuario puede llamar desde cualquier parte usando la red telefónica existente. En este caso, el rendimiento (throughput) se sacrifica por conveniencia. Examinaremos los factores que se deben considerar para seleccionar un servicio WAN. Las figuras y la tabla comparan las aplicaciones para los distintos tipos de conexiones y también compara los anchos de banda potenciales de cada tecnología. A cada usuario le gustaría tener una línea T1 a su casa, y a cada administrador le gustaría un tendido OC-12 a todas las oficinas remotas, pero el costo de realizar dichos tendidos, en forma tan liberal, sería ridículo. Un profesional de networking (de gestión de redes), debe equilibrar cuidadosamente qué conexiones requieren de un alto costo y enlaces de alto rendimiento, y recién entonces gastar de acuerdo a ello. Es importante hacer notar que los costos WAN son típicamente el 80% del presupuesto entero de los servicios de información de una compañía. Si más de un proveedor ofrece servicios WAN en su área, se podría poder comprar servicios WAN a precios competitivos. Hay otros factores importantes a considerar al escoger un servicio WAN, como ser, facilidad de administración, calidad de servicio (QoS), y fiabilidad. Probablemente encontrará que las líneas leased son más fáciles de administrar y configurar que las T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 2 1 42 21 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

conexiones conmutadas por paquetes. En lo que se refiere a QoS, algunas aplicaciones, como voz sobre IP (Voice over IP, VoIP), requieren de ancho de banda garantizado, retardo mínimo, y alta fiabilidad. Y esto puede ser difícil de satisfacer si existe cualquier tipo de corte en los servicios de la línea leased. Tipo de Conexión Lineas Leased Frame Relay ISDN Dial-up Asíncrono X.25

Aplicaciones Control alto, ancho de banda completo, redes empresarias de alto costo y acceso a la ultima milla (loop local). Control medio, ancho de banda compartido, backbones empresarios de costo medio. Conexiones remotas a sucursales (branch sites). Control bajo, ancho de banda compartido, mayor ancho de banda que las conexiones dialup. Control bajo, ancho de banda compartido, relación costo/efectividad variable; uso limitado en conexiones como DDR. Control bajo, ancho de banda compartido, relación costo/efectividad variable, uso limitado en conexiones, alta confiabilidad.

Sumario de Conexiones WAN

5.2. Identificar los requisitos y soluciones del sitio Cuando se seleccione servicios WAN, un profesional de networking debe evaluar las necesidades de cada sitio remoto dentro de una compañía. Los sitios de trabajo individuales (worksites) de una compañía pueden categorizarse, en forma general, dentro de cada una de las siguientes formas: sitio central, • sucursal o “rama de una oficina” (branch • office), sitio del “teleconmutador”: el término se • aplica a usuarios móviles y a lugares SOHO (Small Office / Home Office) (oficinas hogareñas remotas). Estas categorizaciones se representan en la WAN de la figura. 5.2.1. Consideraciones del sitio central El sitio central es el punto central de la red de una compañía (ver figura). Típicamente, todos los sitios y usuarios remotos se deben conectar al sitio central para acceder a la información, ya sea en forma intermitente o continua. A causa de que muchos usuarios acceden a este sitio en una variedad de formas, los routers de un sitio central deben tener un diseño modular para que puedan agregarse módulos de interfaces o bien intercambiarlos “en linea” (swapped out). El chasis de un router modular (ver animación) permite instalar las interfaces necesarias para soportar virtualmente cualquier tipo de medio de comunicación. De acuerdo al ejemplo mostrado en la figura, el router del sitio central debe acomodar conexiones conmutadas por circuitos (ISDN/analógica), conexiones conmutadas por paquetes (Frame Relay), y podría tener una línea dedicada a un ISP. 5.2.2. Consideraciones de la sucursal u oficina remota Una sucursal u oficina remota (branch office), referida como un “sitio remoto”, mantiene generalmente por lo menos una conexión WAN al sitio central, y puede tener varios enlaces a otros sitios remotos. Generalmente, las redes de sucursales soportan menos usuarios que el sitio central, y por consiguiente requieren menos ancho de banda. Debido a que el tráfico de los sitios remotos puede ser esporádico, o en ráfagas (bursty), se debe determinar cuidadosamente si es más rentable ofrecer una solución de línea permanente o una conexión dial-up. La T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 2 2 42 22 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

red ejemplificada en la figura emplea ambas: una conexión Frame Relay como un enlace primario, y una conexión ISDN como respaldo o backup. Los teleconmutadores pueden también requerir acceso a la oficina remota a través de distintos tipos de conexión. Por consiguiente, los routers de las branch-office deben tener la capacidad para soportar una variedad de conexiones WAN. Las soluciones WAN típicas por conectar la oficina remota al sitio central incluyen: Líneas arrendadas (leased) • Frame Relay • X.25 • ISDN • DSL (Línea Digital del Subscriptor): esta • tecnología permite la entrega de datos a alta velocidad, voz, y multimedia sobre alambres telefónicos convencionales. Para que un sitio remoto se conecte a la red corporativa sin atravesar la Internet pública, DSL requiere, por lo gral., ATM al sitio central. Inalámbrica • VPN (Red Privada Virtual): esta tecnología • requiere, por lo gral., que se conectan ambos sitios a la Internet pública. 5.2.3. Consideraciones del sitio del teleconmutador En la década pasada, las mejoras en las tecnologías WAN (notablemente DSL y cablemódems o módems de cable), permitieron que muchas empleados trabajaran remotamente. Como resultado, el número de teleconmutadores (telecommuters) y de oficinas pequeñas se incremento. Al igual que en las soluciones corporativas y de sucursales, se debe seleccionar la solución WAN para el sitio del teleconmutador poniendo en la balanza los requerimientos de costo y de ancho de banda. Una solución dial-up asíncrona (usando la red telefónica existente y un módem analógico) es a menudo la solución ideal para el teleconmutador porque es fácil de preparar y los medios telefónicos están ya instalados. Pero si el uso y los requisitos de ancho de banda aumentan, se deben considerar otras tecnologías de acceso remoto. Aun cuando los usuarios móviles deban conectarse desde muchas locaciones diferentes, una conexión discada asíncrona puede ser la única solución de acceso remoto disponible consistentemente. Los empleados móviles (en el camino) pueden usar su PCs con módems y la red de teléfono existente para conectarse a la compañía. Los teleconmutadores deben poder también autenticarse dentro del sitio central. Las típicas conexiones WAN empleadas por los teleconmutadores incluyen: Discado asíncrono (dial-up), • ISDN BRI, • Cablemodems • DSL • Inalámbrico y satélite • VPN • 5.2.4. Ejemplo de red WAN de acceso remoto La figura presenta tres routers de la red de una compañía: uno en el sitio central, uno en la oficina remota, y uno en el sitio del teleconmutador. Cada uno de estos sitios tiene diferentes requisitos en lo que se refiere a ancho de banda y disponibilidad. Por ejemplo, el sitio central requiere de una conexión permanente de alta velocidad a Internet, mientras que el sitio del teleconmutador requiere de una conexión conmutada, con acceso de baja velocidad, intermitente, al resto de la red. Examinaremos los requisitos específicos de cada uno de los tres sitios del ejemplo, y sugeriremos una solución para cada uno: 1. Router del sitio central: en el ejemplo de red de la figura, el router debe tener las siguientes interfaces: T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 2 3 42 23 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

3.

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

• Interfaz PRI ISDN. • Interfaz serial asíncrona y módem para llamadas asíncronas. • Interfaz serial para conexiones Frame Relay. • Interfaz serial para líneas leased (arrendadas) al ISP. • Interfaz Ethernet para acceder a recursos LAN del sitio central. Para cumplir con los requerimientos del sitio central, se deberá seleccionar un router modular que permita crecimiento. Dependiendo de la cantidad de crecimiento que se espera y del número de conexiones que se deberá soportar, se seleccionará un router modular de una serie determinada (por ejemplo, Cisco series 3600, 7200, etc). 2. Router de la oficina remota: en contraste a la solución del sitio central, el router de la sucursal necesita solamente una conexión WAN primaria y una segunda interfaz WAN como línea de resguardo dial-up. El router de este sitio deberá tener las siguientes interfaces: • Interfaz serial para conexiones Frame Relay. • Interfaz BRI para ISDN. Para cumplir con los requisitos de una oficina remota, se puede escoger un router modular o un router de configuración fija. A menos que se determine que la oficina remota actuará como un “hub WAN” para oficinas pequeñas, se seleccionará un router de acceso de una determinada serie (por ejemplo, Cisco series 1600, 1700, 2500, etc). Router del sitio del teleconmutador: de acuerdo a la figura, el sitio del teleconmutador deberá tener una conexión ISDN BRI a la oficina remota o al sitio central. El usuario móvil requerirá de una conexión dialup asíncrona al sitio central. Por consiguiente, la solución WAN del sitio del teleconmutador debe incluir las siguientes interfaces: • PC y módem para llamadas discadas asíncronas. • Interfaz BRI para ISDN. • Interfaz Ethernet para LAN. Al seleccionar el router de este sitio, el costo será la preocupación primaria, especialmente porque se requiere flexibilidad y escalabilidad mínima. En la mayoría de los casos se elegirán routers de bajo costo y fácil administración como los de la serie Cisco 700, 800, 1000, etc.

44.. IINNNG G E N E R A D E O R M A N C E PEEERRRFFFO GE EN NIIIE ER RÍÍÍA AD DE EP OR RM MA AN NC CE E Por lo general, las redes son las últimas en ser integradas (en una empresa); en el mejor de los casos, ellas enlazan todo tipo de equipos de comunicación, computadoras y aplicaciones, pero aún cuando esto se lleve a cabo en tiempo y forma, los diseñadores tienden a dejar de lado lo concerniente a la tecnología, enfocándose, en primer medida, sobre el uso de la red y dejando de lado otros aspectos de diseño del sistema para tratar de ordenarlos en una fecha más tardía. Esta idea para planear sistemas fue peligrosamente anticuada. Una propuesta de diseño más comprensiva era necesaria para direccionar las complejas interrelaciones entre computadoras, aplicaciones y tecnologías de networking. Surgió así una proposición desarrollada por académicos y vendedores de computadoras, en la década pasada, llamada Ingeniería de Performance. En el modelado se basa la existencia de las grandes redes. Un buen modelo puede mostrarle aspectos que nunca pensó que los hubiera. El modelo captura la red en una instante estático o dinámico para permitir un análisis adicional. ¿ Qué tipo de análisis? En el caso de considerar nuevas topologías se podría querer un diagrama claro de los segmentos de red y probablemente también se querrá probar aspectos de capacidades de red: probar los componentes de red para encontrar sus límites. La Ingeniería de Performance hace uso de detallados modelos matemáticos para permitir a los diseñadores determinar las probables performances de un sistema propuesto mientras este sistema está aún en una mesa de dibujo. Los diseñadores pueden practicar con varios esquemas de red y componentes, simulando cada variación para determinar cual de ellos ofrece la mejor performance, además de estimar el impacto de cualquier cambio potencial o adición sobre la performance existente, de red, de sistemas de computadoras y de aplicaciones de red. La simulación usa la red como una base, para ello utiliza el “qué pasa si” que es esencial para planificar. Naturalmente, el diseño de las grandes redes involucra simulación, mantenimiento de redes y también involucra T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 2 4 42 24 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

pruebas. En esencia, la Ingenería de Performance combina las poderosas planillas de análisis con los complejos procesos matemáticos para estimar la probable performance de los diferentes diseños de red. La Ingeniería de Performance representa una gran mejora en sofisticación y precisión sobre el análisis manual basado en planillas que ha dominado la planificación de redes en el pasado. Para administrar una red compleja y evitar período de indisponibilidad y degradación de sistema, es una necesidad crítica tener una vista (modelo) de como se vé la red; un modelo detallado de red puede simplificar y salvar rápidamente caídas de la red, cosa que no podría hacerse sin un modelo detallado. Existen un gran número de paquetes de modelamiento de performance disponibles que permiten a los planificadores y administradores de red tener un fácil acceso a las herramientas de diseño de la ingeniería de performance. Con el software de modelamiento de performance los planificadores solo necesitarán determinar los picos de performance y colectar los datos necesarios para el software. Hay herramientas que permiten crear modelos detallados y muy útiles que permiten entre otras cosas, personalizar vistas gráficas de la red, tomar información (sobre configuraciones de cable, tipos de estaciones de trabajo, servidores, hubs, routers y softwares de misión critica) y generar automáticamente un modelo gráfico de la red. Algunas herramientas solo proveen un modelo estático de la red (como Visio Technical o NetViz de Quyen System) Estas herramientas ayudan al administrador a diseñar e implementar una red, comprender la complejidad de una red existente y sugerir áreas que pudieran tener problemas pero no brindan la información en tiempo real desplegada en forma gráfica. Otras herramientas, como ManageWise de Novell, permiten a los administradores modelar y administrar una red desde una ubicación central (consola) descubriendo y mapeando todos los dispositivos de red e inventariando el software y hardware corriente de las estaciones de trabajo y los servidores, creando un modelo dinámico de la red que advierte cuando el comportamiento del sistema puede sugerir problemas inminentes. Se debe identificar celosamente las herramientas que puedan asir las complejidades de la red para luego ensamblarlas dentro de un sistema que trabaje. Las grandes redes se construyen con dispares plataformas de hardware, sistemas operativos y aplicaciones donde la administración es una aventura atemorizante. Sin las herramientas correctas es sumamente imposible. Como su nombre lo indica, el proceso de Ingeniería de Performance evalúa diseños de acuerdo a niveles de desempeño anticipados, y algunos ofrecen mediciones del throughput del sistema y de costos. Para los usuarios, la performance o desempeño es, típicamente el más importante criterio para un diseño de red, pero otros factores deben ser también considerados como ser la fiabilidad, el mantenimiento y la actualización, y sus costos asociados. El software de modelamiento de performance del sistema puede ofrecer alguna ayuda en la conducción de esos análisis. Por ejemplo, algunos paquetes tienen en cuenta ratings de equipos para indicar fallas entre ellos, indicando de este modo que equipos deben ser usados en determinadas medidas de performance del sistema. A medida que las redes tienden a ser más complejas, las técnicas de diseño como la Ingeniería de Performance deben evolucionar para mantener el ritmo. Un movimiento reciente comenzó a mezclar las herramientas CASE (Computer Aided Software Engineering - Ingeniería de Software Asistida por Computadora, usadas por los desarrolladores de software) con los esquemas de simulación por hardware, creando un efecto híbrido conocido como CASE / ASI (CASE/Architecture Simulation Integration) o CASI, que tendrá un gran impacto sobre las estrategias de diseño de red de los próximos años. 4.1. Desafíos del diseño Diversos factores manejan la necesidad de uso de esquemas de diseños avanzados como la Ingeniería de Performance. El primero y más obvio, es la compleja espiral de las redes corporativas, ya sea en términos de cobertura geográfica como en el número de tecnologías envueltas. Por ejemplo, actualmente la interconexión de LANs incorpora un gran número de diferentes computadoras, aplicaciones, y enlaces WAN y LAN. Estas interredes son construidas con routers, switches, bridges, gateways, y cualquier otro equipamiento que pueda realizar bien el trabajo, pero que son, aún, relativamente nuevos y por lo tanto no probados en términos de performance y capacidad. El uso, cada vez más constante, de computadoras, equipos y aplicaciones “enlatadas”, también crea la necesidad de propuestas de diseños como los de la Ingeniería de Performance. Los productos “empaquetados”, casi siempre, tienen pocos parámetros de medida, en contraposición a los construidos por el usuario; por ejemplo, algunas aplicaciones enlatadas no permiten cambiar un parámetro básico como el del “timeout”. Así si el timeout de una aplicación es demasiado bajo, los usuarios conectados vía un enlace WAN de baja velocidad tendrán problemas con sesiones dropeadas. Con todas estas variables, las técnicas de desarrollo y los extensos cálculos usados por los diseñadores de red en el pasado han pasado de moda. Teóricamente los extensos cálculos pueden ser usados para determinar los tamaños de red y las necesidades de velocidad para una aplicación dada, pero esos cálculos no toman en cuenta los factores que mantienen a una red o computadora funcionando al tope teórico de su velocidad todo el tiempo. La Ingeniería de Performance, a través del uso de sistemas de simulación, puede ayudar, a los que planean una red, a explorar las performances relativas de las diferentes opciones de diseños existentes. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 2 5 42 25 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

La simulación de una red se construye sobre un modelo. Es muy importante especialmente en las redes amplias (MAN y WAN). Con una buena simulación, se puede reconocer embotellamientos, acumulaciones progresivas y backups, además de ser una base valiosa para probar las cosas antes de largarse al mundo real. Liberar aplicaciones nuevas o cambios nuevos sobre una red de gran escala, de apariencia inocente, puede ser desastroso dado que las nuevas aplicaciones pueden tener verdadero problemas de tiempo real (bugs que aparecen únicamente ciertas veces del día o como consecuencia de ciertas cargas de tráfico) y, en este caso, la parte más dura es recrearlos sobre todo si el administrador de sistema tiene que duplicar no solo el volumen de tráfico sino también un tipo particular del mismo. Entonces ¿cómo probar adecuadamente aplicaciones cliente/servidor en una red nunca vista?. ¡Construyendo la propia red!. Existen herramientas que pueden simular el tráfico de las aplicaciones cliente/servidor, que le permiten forzar a un servidor a manejar muchos pedidos concurrentes de “clientes” creados artificialmente por el simulador (por una fracción del costo de hacerlo en vivo y sobre múltiples plataformas de hardware). Se puede recrear falsos escenarios (que son difíciles de duplicar en la práctica), como las fallas de red, la capacidad limitada de los discos, etc. Aún cuando la performance puede ser expresada en diferentes formas, la más común es a través del throughput del sistema, típicamente medido en términos de cantidad de mensajes, llamadas transacciones, o sesiones manejadas en una unidad de tiempo específico. La performance también puede ser medida como parte del costo de un sistema o subsistemas individuales, o en métricas mostrando las calidad de servicio (QOS, Quality of Service). Sin embargo, por lo general, el throughput del sistema es la métrica de performance más usada debido a que sirve como base para todas las otras mediciones. Aunque la simulación es la componente más importante en la predicción de la performance de la red, es actualmente uno de los últimos pasos en la propuesta de la Ingeniería de Performance. El primer paso consiste en definir metas razonables, justas, realizables, para el análisis del diseño. Si se propone una nueva red, los planificadores deben decidir si afrontarán el proyecto dividiéndolo en subsistemas, y tomarlos de a uno a la vez, o intentar trabajar con la red entera de una sola vez. A medida que se decide el alcance del proyecto, también se debe decidir el tiempo que se deberá dedicar al intento de modelar, obviamente que se deberá dedicar el tiempo y los recursos suficientes para que las metas sean alcanzadas (si se asigna poco tiempo, como sucede generalmente, el proceso puede tener cortocircuitos o desviaciones, obteniéndose resultados pocos óptimos; si por el contrario, se asigna mucho tiempo, el modelamiento puede resultar muy costoso, con poco retorno útil, puesto que los resultados no son los esperados y necesariamente se debe gastar más tiempo en testeo). El próximo paso es seleccionar el personal correcto para el modelamiento. Administradores e ingenieros en red, software y sistemas son necesarios para que todos los elementos claves (aplicaciones, programas y equipamiento de red) puedan ser considerados en el proceso de la Ingeniería de Performance. Una vez que el equipo de proyecto es el correcto, es tiempo de seleccionar y activar el paquete de modelamiento de performance del sistema y luego desarrollar un plan para recolectar todos los datos necesarios (la información pueda no estar disponible para ser leída, sobre todo en equipos viejos). La recolección de datos es una de las tareas que más tiempo consume en el proceso de ingeniería de performance, por eso no debe ser tratada en forma ligera. Una vez que los datos necesarios estén disponibles, pueden realizarse las simulaciones. Cada diseño propuesto deberá ser ejecutado a través de diferentes simulaciones para obtener una figura de performance promedio. Las simulaciones construidas con el software de modelamiento de performance están basadas en trabajos exhaustivos realizados en las academias e industrias de computación para desarrollar descripciones matemáticas de características y componentes de sistemas. La habilidad para simular matemáticamente operaciones de red hace del software de modelamiento de performance bastante superior a los métodos utilizados en los comienzos del análisis de diseños de red. El software de modelamiento no solo automatiza el proceso de diseño a mayor grado de detalle, sino que además utiliza datos mucho más detallados que los usados con las planillas de cálculo. Por ejemplo, en el análisis de performance de una interconexión LAN el software de modelamiento utiliza variables como el tiempo de posicionamiento de cada disco del servidor LAN, el tamaño de la trama de los paquetes que entran y salen de cada gateway, el delay mínimo permitido por cada segmento LAN, el delay introducido por un router determinado, etc. La capacidad, o habilidad, del software de modelamiento para estimar la performance de una red, es todavía mayor cuando se realizan análisis de cambios o adiciones a redes existentes. En muchos casos, mediciones prototipos y estimadas, usadas en simulaciones de red, pueden ser reemplazadas con datos de mediciones actuales colectadas por monitores de red, analizadores y otras herramientas de recolección. Junto con todas las proyecciones matemáticas, el software de modelamiento brinda a los usuarios un cuadro visual claro de la performance de red esperada. Todos los paquetes ofrecen vistas animadas del throughput de datos de la red simulada. Esos cuadros pueden ayudar a determinar potenciales puntos de conflicto, como los “cuellos de botella”. Además sirven para realizar presentaciones de lo propuesto a los usuarios y ejecutivos de la empresa. Los paquetes de software de modelamiento de performance del sistema tienen algunas funciones comunes. Además de las funciones básicas (permiten construir modelos de los sistemas y correr simulaciones de esos modelos, además de representar geográficamente la operación de la red) cada paquete posee atributos únicos T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 2 6 42 26 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X V O CAAAPPPIIITTTUUULLLO OX XV VIIIIIIIII

D D W A N Ñ O DIIISSSEEEÑ ÑO OW WA AN N

que los diseñadores deben considerar cuando seleccionan un software que cumplimente sus necesidades. Estos paquetes pueden ejecutarse sobre distintas plataformas (PCs, RISC, workstations); algunos de ellos pueden ser usados para simular cualquier tipo de red (WANs, LANs, internetworks), otros manejan tipos específicos de redes, como LANs o redes de telecomunicaciones orientadas a voz. Los paquetes también incorporan factores de diseño de hardware y de aplicación en sus análisis, haciendo más detallado el modelamiento. Algunos paquetes minimizan la cantidad de programación que el usuario debe usar para construir las simulaciones (para facilidad de uso). La experiencia indica que una red adecuadamente diseñada puede ayudar a una organización a mejorar el servicio al cliente, perseguir las nuevas oportunidades de negocio y responder más rápido a las fuerzas del mercado; pero las grandes redes (soportando decenas de miles de usuarios en todo el mundo) presentan desafíos especiales de diseño (típicamente se necesita especificar facilidades de transmisión, tecnologías LAN, protocolos y estándares; todo en forma conjunta para satisfacer necesidades de grupos de trabajo, departamentos, divisiones). Como si esta complejidad no fuera demasiado, las grandes redes están, por lo general, en un constante estado de flujo. Los requerimientos corporativos, las tecnologías y las normas cambian a través del tiempo. Los proveedores WAN introducen nuevos servicios y los vendedores ofrecen nuevos y mejores productos. Con este movimiento continuo los modelos de tráfico de la compañía comienzan a cambiar. Antes de que se entere las aplicaciones boquean por ancho de banda, los tiempos de respuesta demoran a intervalos y los usuarios comienzan a mirar fuerte al administrador de red. Los costos ocultos asociados con los pobres diseños de red incluyen sobregasto de equipos y enlaces WAN para asegurar una capacidad suficiente, problema de reportes, pobres respuestas a los problemas de red, demoras impredecibles en el cumplimiento de los planes de trabajo y altos costes laborales para trabajos realizados frecuentemente deprisa. Hasta ahora, los desarrollos de aplicaciones y de redes han ocurrido simultáneamente. Esto ha dificultado integrar varios procesos, como ser el de cómo mergear (combinar) las herramientas CASE y el modelamiento de performance, haciendo que la información ingresada en los modelos CASE puedan ser automáticamente extraídas e insertadas en simulación de sistemas, y viceversa. Un creciente número de observadores ven a las herramientas CASI (CASE/ASI) como la solución a este desafío, por lo tanto el desarrollo de CASI es inevitable. La rigurosa integración aumentará la productividad minimizando la necesidad de entrar datos manualmente ya sea en las herramientas CASE como en los programas de modelamiento de performance. Algunas de las razones que estimularon el desarrollo de la Ingeniería de Performance (como la creciente complejidad de las redes) también servirán para intensificar el desarrollo de CASI. Algunos vendedores de herramientas CASE están desarrollando estándares para integrar la transferencia de datos de los distintos sistemas CASE y la Ingeniería de Performance, como ser, CDIF (CASE Data Interchange Format) y PCTE (Portable Common Tool Environment).

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 2 7 42 27 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XIIIX X

C C W A N O N G S Ó N CO ON NG GEEES STTTIIIÓ ÓN NW WA AN N

C MIIEEN NTTO OY YC CO OM MPPR REESSIIÓ ÓN N COONNGGEESSTTIIÓÓNN W WA AN N:: EENNCCOOLLAAM 11.. IINNNTTTRRRO O D U C C Ó N OD DU UC CC CIIIÓ ÓN N Con las aplicaciones actuales, hambrientas de banda ancha, la necesidad de ancho de banda de un sitio remoto también aumentará, aun cuando no se requiera ancho de banda en el sitio central. Por ejemplo, considere una sucursal a la que se le asignó una BRI ISDN. ¿Qué pasa si esta oficina experimenta un sorpresivo aumento en su productividad o en sus ventas?. La mayor cantidad de empleados y de transacciones producirá una mayor exigencia de ancho de banda para que los datos fluyan hacia y desde el sitio central. Cuando las demandas de ancho de banda de un sitio remoto excedan la capacidad del enlace, la mejor solución es proveer de más ancho de banda. Sin embargo, en algunos casos, arrendar una línea adicional o aumentar el número de circuitos, puede no ser práctico, sobre todo si las demandas de ancho de banda son súbitas e inesperadas. Entonces, para manejar la congestión de los enlaces WAN, se dispondrá de dos técnicas: el encolamiento (queuing) y la compresión, particularmente sobre enlaces que ofrecen anchos de banda menores que un T1/E1 (1,544/2,048) Mbps. Se describirá como administrar el flujo de tráfico implementando el encolamiento y la compresión. Se determinará el porque se habilita el encolamiento, se identificarán los protocolos de encolamiento alternativos y se determinará el mejor método de encolamiento a implementar. Se verá como se configuran los distintos tipos de encolamiento para priorizar el tráfico, como verificarlos y como corregir configuraciones incorrectas para que el tráfico viaje correctamente por la conexión en la secuencia correcta. Por ultimo, se verá como implementar correctamente la compresión de red para optimizar el throughput.

22.. EENNNCCCO O L A M E N T O OL LA AM MIIIE EN NT TO O 2.1. Tipos de encolamiento Las routers tienen un proceso de conmutación, dependiente del protocolo, que se ocupa de manejar el tráfico cuando este arriva a la interfase. El proceso de conmutación incluye la entrega de tráfico al buffer de una interfase saliente. Un buffer es una área intermedia de memoria que se usa para almacenar datos que están esperando una acción. Si la interfase saliente está congestionada, el buffer de la interfase se llenará con tráfico que espera ser enviado. Cuando el router pueda enviar el tráfico fuera de la interfase, deberá escoger la prioridad con que se enviarán los paquetes que esperan en el buffer. Puede parecer obvio concluir que un router debe enviar, antes que cualquier otro paquete, el paquete que espero más tiempo. Sin embargo, hay muchos casos dónde se envía primero el paquete que no es deseado. En otros casos, habrá datos, que por ser más importantes, se enviarán primero debido a su prioridad, aun cuando no se hayan recibidos primeros. El encolamiento se refiere al proceso por el cual el router usa, para transmisión, paquetes “estacionados” (en espera en un buffer) durante los períodos de congestión. Se puede configurar un router congestionado para que priorize y envíe primero aquellos paquetes de misión crítica y de tráfico sensible al retardo, aun cuando existan paquetes, de bajo prioridad, que hayan llegados primeros. Las interfaces que se saturan con tráfico se ven forzadas, en forma consistente, a descartar (drop) paquetes. El encolamiento podría no ser visto como una solución a este problema. En muchos casos se requiere de mas ancho de banda. El encolamiento, en realidad, aumenta los problemas de performance porque demanda ciclos de CPU adicionales y fuerza al router a aplicar un encolado lógico a cada paquete. Además, el encolamiento es una solución temporaria o una solución para aquellas raras ocasiones cuando las sesiones interactivas fallan por problemas de latencia o descarte de paquetes. En general, los routers soportan cuatro métodos de encolamiento, y solo uno de estos métodos puede aplicarse por interfase, dado que cada método maneja tráfico en un único sentido: • Encolamiento Primero en Entrar, Primero en Salir (FIFO, First In First Out): FIFO no tiene ningún concepto de prioridad o clase de tráfico. Con FIFO, los paquetes se transmiten en el orden que llegan. • Encolamiento Justo Pesado (WFQ, Weighted Fair Queuing): es un algoritmo de encolamiento, basado en flujo, que hace dos cosas en forma simultánea: mantiene el tráfico interactivo al frente de la cola para reducir el tiempo de respuesta, y comparte el ancho de banda restante, en forma equitativa, entre los flujos de ancho de banda altos. WFQ asegura que las colas no anhelen por ancho de banda, y el tráfico tenga un servicio predecible. Las corrientes de tráfico de bajo volumen (el tráfico mayoritario) reciben servicio preferencial, transmitiendo sus cargas completas en slots de tiempo prioritarios. Debido a este manejo, WFQ asegura un tiempo de respuesta satisfactorio para las aplicaciones críticas, como ser las aplicaciones interactivas y las aplicaciones basadas en transacción, que son intolerantes a la degradación de performance. El WFQ basado en flujo, se usa por defecto, en interfaces seriales como E1 (2,048 Mbps) y menores. Si no se configura ninguna otra estrategia de encolamiento, todas las otras interfaces usan por defecto FIFO. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 3 1 43 31 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XIIIX X

C C W A N O N G S Ó N CO ON NG GEEES STTTIIIÓ ÓN NW WA AN N •

Encolamiento por Prioridad (PQ, Priority Queuing): con PQ se priorizan los paquetes basados en un protocolo específico o en un numero de puerto TCP/UDP. Pueden definirse cuatro prioridades. Los paquetes de más alta prioridad se transmiten primero. Cuando esa cola se vacía, se transmiten los paquetes de más alta prioridad de la cola siguiente, y así sucesivamente. Este mecanismo asegura que durante la congestión, los datos de prioridad más alta no se retardan por el tráfico de prioridad más baja. • Encolamiento Personalizado o de Usuarios (CQ, Custom Queuing): esta diseñado para ambientes que necesiten garantizar un nivel de servicio mínimo para todos los protocolos. CQ reserva un porcentaje de ancho de banda para protocolos específicos. Se pueden definir hasta 10 colas de salida para datos normales y una cola adicional para mensajes del sistema. Cada cola se atiende secuencialmente, se transmite un porcentaje configurable de tráfico de cada cola antes de seguir con la siguiente cola. Este encolamiento garantiza que los datos críticos tendrán siempre asignados un cierto porcentaje de ancho de banda, pero también asegura rendimiento predecible para otro tráfico. 2.1.1. La necesidad de priorizar el tráfico El encolamiento FIFO es el algoritmo más simple para la transmisión de paquetes. Con FIFO, la transmisión ocurre en el mismo orden en que se reciben los mensajes. Hasta hace poco, el encolamiento FIFO era el predeterminado para todas las interfaces de los routers. El más grande problema de FIFO es el mandar los paquetes en el orden en que se reciben. Por consiguiente, un paquete de Telnet o de voz, pequeño, podría simplemente pegarse detrás de dos o más paquetes de transferencia de archivo más grandes debido al orden en que llegaron al router. El resultado final sería un retardo en el servicio o el timeout eventual de una sesión asociada con los paquetes más pequeños. Si se necesita reordenar el tráfico, se debe configurar algún otro encolamiento (WFQ, CQ, o PQ). La necesidad de priorizar los paquetes es consecuencia de la existencia de los diversos protocolos y aplicaciones encontradas en las redes de hoy. Dependiendo de la aplicación y del ancho de banda global, los usuarios pueden o no percibir una degradación real de la performance al momento de presentarse la congestión. Por ejemplo, los usuarios finales están acostumbrados a esperar por la descarga de un archivo cuando se usa FTP, así si la descarga tarda unos 5 o 10 segundos extras en completarse, el usuario final no lo notará. Por otro lado, algunas aplicaciones no pueden tolerar ni siquiera un segundo de retraso. El tráfico de voz y otras aplicaciones interactivas son sumamente sensibles al retardo. Los seres humanos, por lo gral, no pueden tolerar mucho más de 200 milisegundos de retardo al escuchar la voz. ¿Qué pasa si se llena el buffer de una interfase congestionada con paquetes de un archivo grande y paquetes VoIP (voz sobre IP)? ¿Qué tráfico se debería enviar primero?. La priorización de tráfico es más efectiva en enlaces WAN donde la combinación de tráfico en ráfagas (bursty) y las tasas de datos, relativamente más bajas, pueden causar congestión temporal. Dependiendo del tamaño medio del paquete, la priorización es más efectiva cuando se aplica a enlaces de ancho de banda T1/E1 o menores. Si en el enlace WAN no existe congestión, no hay razón para implementar priorización de tráfico. Es importante notar que la priorización de tráfico es efectiva en enlaces WAN que experimentan congestión temporal. Si un enlace WAN está constantemente congestionado, la priorización de tráfico no podrá resolver el problema. La solución apropiada podría ser agregar más ancho de banda.

2.2. Establecer una política de encolamiento Una política de encolamiento determina la importancia relativa de los distintos tipos de tráfico y ayuda a decidir que tipo de esquema de encolamiento implementar. Una política de encolamiento ayuda al administrador de red a cumplir con dos grandes desafíos: 1. proporcionar un nivel de servicio apropiado para todos los usuarios. 2. controlar los costos WANs excesivos. Típicamente, la meta corporativa es desarrollar y mantener una red empresaria simple, aun cuando la red soporte aplicaciones dispares, organizaciones, tecnologías, y expectativas de usuario. Por consiguiente, los gerentes T G T FFIIIN A G R D O N A D Ó N O N Á D O N 4 TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL 4 3 2 43 32 2


C C X X O CAAAPPPIIITTTUUULLLO OX XIIIX X

C C W A N O N G S Ó N CO ON NG GEEES STTTIIIÓ ÓN NW WA AN N

de red se deben preocupan de proveer un nivel apropiado de servicio para todos los usuarios, mientras soporta, al mismo tiempo, aplicaciones de misión crítica y se tiene la capacidad para integrar nuevas tecnologías. Dado que el gran costo de mantener trabajando una red también se relaciona con los cargos de los circuitos WAN, los gerentes de red deben dar con el equilibrio apropiado entre capacidad y costo de estos circuitos WANs, y el nivel de servicio proporcionados a los usuarios. Para ayudar a cumplir con estos desafíos, el encolamiento permite a los administradores de red priorizar, reservar, y manejar los recursos de red, y asegurar la integración y migración de tecnologías dispares sin costos innecesarios.

2.3. Escoger un encolamiento Para determinar la mejor opción de encolamiento, que satisfaga las necesidades de tráfico, se deben seguir las siguientes pautas generales: 1. Determinar si la WAN está congestionada. Si no existe congestión de tráfico, no hay necesidad de ordenar el tráfico porque este se atiende a medida que llega. Sin embargo, si la carga de tráfico excede la capacidad de transmisión por períodos de tiempo, entonces una de las opciones de encolamiento podría ser la solución. 2. Decidir si es necesario un control estricto sobre la priorización de tráfico y si es aceptable la configuración automática. La configuración apropiada del encolamiento no es una tarea simple. Para realizar una tarea eficaz, el administrador de red debe estudiar los tipos de tráfico que usa la interfase. Luego se hace una determinación para distinguir los tipos de tráfico y decidir su prioridad relativa. Hecho esto, el administrador debe instalar los filtros y probar sus efectos en el tráfico. Los patrones de tráfico cambian continuamente, por lo que el análisis debe repetirse periódicamente. 3. Establecer una política de encolamiento. Una política de encolamiento resulta del análisis de los patrones de tráfico y de la determinación relativa de las prioridades de tráfico (tal lo expresado en el paso 2). 4. Determinar si cualquiera de los patrones de tráfico, identificados durante el análisis de patrones de tráfico, puede tolerar un retardo (ver diagrama de flujo de la figura.). 2.3.1. Encolamiento “primero en entrar primero en salir” Como su nombre lo indica, el encolamiento FIFO no prioriza los paquetes según el tipo de tráfico o protocolo. FIFO meramente encola los paquetes para transmisión, según el orden en que llegan. Debido a su simplicidad, FIFO es el más rápido de los cuatro métodos de encolamiento, y se usará en todas las interfaces no congestionadas (en general, interfaces más rápidas que 2,048 Mbps). FIFO tiene varias limitaciones. Dado que FIFO no toma ninguna decisión sobre la prioridad del paquete, el orden de llegada siempre determina la calidad de servicio. Esto significa que las conversaciones de gran volumen, tales como FTP, pueden causar largos retardos que afectarán la entrega de tráfico de aplicaciones sensitivas al tiempo y de los mensajes de señalización esenciales. Es decir, en interfaces FIFO, las sesiones interactivas (Telnet) están sujetas a retardos intolerables, mientras que las aplicaciones de alto ancho de banda (FTP) monopolizan el ancho de banda disponible. La transferencia de grandes archivos y otras aplicaciones de red de gran volumen generan, a menudo, series de paquetes de datos asociados. Estos paquetes relacionados se conocen como trenes de paquete. De esta manera, un pequeño paquete de voz o de Telnet podría estar detrás de un largo tren de paquetes debido al orden en que arrivaron al router. Por lo tanto, el paquete más pequeño deberá ser retardado y eventualmente podría llegar a expirar (por timeout) su tiempo de vida (time to live, TTL). Como muestra la figura, los trenes de paquete son grupos de paquetes que tienden a moverse juntos a través de la red. Éstos trenes de paquete pueden consumir todo el ancho de banda disponible y bloquear otro tipo de tráfico.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 3 3 43 33 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XIIIX X

C C W A N O N G S Ó N CO ON NG GEEES STTTIIIÓ ÓN NW WA AN N

2.3.2. Encolamiento “justo pesado” Los encolamientos CQ y PQ requieren que un administrador predefina prioridades y configure listas de acceso (ACLs). En otras palabras, se tiene que saber de antemano como serán las prioridades, y se debe realizar alguna configuración compleja en el router para implementar la administración de la congestión. Si las condiciones de red cambian, los routers que usen métodos de encolamiento estáticos, no podrán adaptarse a los cambios. Para los administradores que busquen un método dinámico y justo para priorizar el tráfico en una interfase congestionada, el encolamiento WFQ asigna automáticamente ancho de banda para todos los tipos de tráfico de red, pero prioriza los paquetes sensibles al retardo para que las conversaciones de gran volumen no consuman todo el ancho de banda disponible. Las corrientes de tráfico de bajo volumen (es decir la mayoría del tráfico) reciben un servicio preferencial, al transmitir sus cargas enteras en slots de tiempo. Al usar un algoritmo complejo, WFQ sortea los paquetes, que forman las diferentes conversaciones, sobre una interfase. WFQ asigna luego una precedencia, o peso, al trafico, para que cada conversación consiga su porción justa de ancho de banda. WFQ separa o divide los grandes trenes de paquetes para que las conversaciones de bajo volumen no se “desborden” (overrun) por grandes transferencias de archivos o por cualquier otro tráfico pesado. Además, el router puede priorizar el tráfico basado en las condiciones de red reales del momento, sin una administración compleja. Al ser la única estrategia de encolamiento dinámico, WFQ se usa por defecto en interfaces seriales con velocidades E1 (2,048 Mbps) y menores. El encolamiento WFQ se deshabilita en interfaces seriales que usen X.25, SDLC, o PPP comprimido. Si no se configura ninguna otra estrategia de encolamiento, todas las otras interfaces usan por defecto FIFO. El algoritmo WFQ ubica el tráfico dentro de las conversaciones. La discriminación o distinción del tráfico de las conversaciones se basa en el direccionamiento del header (cabecera) del paquete. Los discriminadores de conversación más comunes incluyen: • Dirección de red fuente / destino. • Dirección MAC fuente / destino. • Números de conexión (socket) o de puertos fuente / destino. • Valor DLCI de Frame Relay. • Valor de calidad de servicio / tipo de servicio (QoS/ToS). El algoritmo WFQ coloca los paquetes de las distintas conversaciones en la cola equitativa, o justa, antes de la transmisión. El orden de remoción de la cola está determinado por el tiempo de entrega virtual del último bit de cada paquete que arriva. Los paquetes de bajo volumen, pequeños, tienen prioridad de entrega, sobre los paquetes de conversación de gran volumen, largos. En la figura, el paquete 3 está encolado antes que los paquetes 1 o 2 porque el paquete 3 es un paquete pequeño en una conversación de bajo volumen. Como resultado del orden de encolamiento, tienen prioridad los mensajes cortos (que no requieren mucho ancho de banda). Después de atender a las conversaciones de bajo volumen, las conversaciones de gran volumen comparten, en forma justa, la capacidad remanente del enlace con ranuras de tiempo (time slots) entrelazadas (alternadas) para la transmisión (sin embargo esto no asegura ancho de banda reservado). En este caso, los paquetes de conversaciones de gran volumen se encolan en el orden en que llegan después de los paquetes de bajo volumen. En la figura los paquetes 1 y 2 se transmiten en el orden recibido. Puede pensarse en WFQ como una multiplexación estadística para todas las aplicaciones. El algoritmo de encolamiento asegura la cantidad apropiada de ancho de banda para cada mensaje. Con WFQ, dos archivos de igual tamaño obtienen el mismo ancho de banda, en lugar de que la primera transferencia de archivo use la mayor parte de la capacidad del enlace. En la cola justa o equitativa se especifica el número de mensajes a encolar para tráfico de gran volumen, es decir el numero máximo de paquetes de una conversación, contenidos en la cola, antes de ser descartados. El rango de valores válido varia entre 1 y 512. El valor predeterminado es de 64 mensajes. Esta política de “descarte dado un umbral de congestion” sólo se aplica a conversaciones de gran volumen que tengan más de un mensaje en la cola. La política del desecho intenta controlar conversaciones que podrían monopolizar el enlace. Si una cola de conversación individual contiene más mensajes que el “umbral de descarte” establecido (el numero máximo de paquetes contenidos en la cola), dicha conversación no encolará ningún mensaje nuevo hasta que el volumen de esa cola caiga por debajo de un cuarto del valor del umbral de congestión. Por ejemplo, si el valor del umbral de congestión se fija en 128, la cola debe contener menos de 32 entradas (un cuarto de 128) antes de que puedan entrar nuevos mensajes a la cola. 2.3.3. Encolamiento “por prioridad” El encolamiento PQ se usa para priorizar un tipo de tráfico por sobre otros, de tal forma que el tráfico de más alta prioridad siempre se despache antes que cualquier otro paquete. Para implementar PQ, se debe clasificar el tráfico de acuerdo a diversos criterios, incluso tipo de protocolo, y luego asignar ese tráfico a una de cuatro colas de salida: alta, media, normal, o baja prioridad (ver figura). Cuando el router esté listo para enviar un paquete, T G T FFIIIN A G R D O N A D Ó N O N Á D O N 4 TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL 4 3 4 43 34 4


C C X X O CAAAPPPIIITTTUUULLLO OX XIIIX X

C C W A N O N G S Ó N CO ON NG GEEES STTTIIIÓ ÓN NW WA AN N

verificará primero la cola alta. Una vez que la cola alta esté vacía, el router verificará la cola media, y así sucesivamente. Este proceso (que se inicia en la cola de alta prioridad) se repite cada vez que el router esté listo para enviar paquetes. Con PQ, la cola de alta prioridad se vacía siempre antes que la cola de prioridad media, y así sucesivamente. Solo después de que todas las colas de alta prioridad estén vacías, se chequearán y vaciarán las colas más bajas. Entre los protocolos de administración de congestión disponibles, PQ proporciona al administrador de red de un mayor control para decidir qué tráfico se remite. Una desventaja de PQ es que si un enlace está ocupado con tráfico de alta prioridad, la cola de baja prioridad podría no ser atendida dentro de un tiempo aceptable, o incluso en absoluto, causando que las sesiones asociadas expiren. Debido a sus limitaciones, el encolamiento PQ se debe usar sólo en enlaces WAN de baja velocidad y raramente implementarse sobre interfaces a 1,544 Mbps o mayores. PQ es útil en ambientes en el cual el tráfico tiene una jerarquía de importancia, donde el tráfico más importante no debería retardarse por tráfico menos importante. Por ejemplo, una organización puede determinar que el tráfico de voz debe priorizarse siempre sobre el tráfico FTP. Un paquete entrante se compara con una lista de prioridad para seleccionar a que cola pertenece. Si hay lugar, el paquete es puesto en memoria y espera a ser despachado después de seleccionar la cola. Si la cola está llena, el paquete se descarta. Por esta razón, una tarea de configuración importante es controlar el tamaño de la cola (ver figura siguiente). Se debe tener mucho cuidado cuando se defina que paquetes pertenecerán a la cola alta porque estos paquetes serán siempre los primeros que se procesarán. Si la cola alta está siempre llena, los paquetes de las otras colas no tendrán oportunidad de ser transmitidos. WFQ prioriza automáticamente el tráfico para asegurar que todo el tráfico tendrá un acceso justo al ancho de banda. Antes de WFQ, PQ se usaba para priorizar el tráfico interactivo (como sesiones Telnet) por sobre el tráfico batch (como los files transfers). Cuando WFQ cumplió, en forma efectiva, la misma tarea sin ningún tipo de configuración, PQ se usó en situaciones donde fue necesario garantizar una entrega oportuna del tráfico de misión critica y cuando se debía garantizar que ciertos tipos de tráfico recibirían tanto ancho de banda disponible como sea necesario. Hay tres pasos para configurar el encolamiento por prioridad. Primero, se define el tráfico mediante el uso de ACLs. Segundo, las ACLs se asocian con las colas usando listas de prioridad. Finalmente las listas de prioridad se asocian con las interfaces. Una lista de prioridad es un conjunto de reglas que describen la manera en que los paquetes deben asignarse a las colas PQs. Se pueden establecer prioridades de encolamiento basados en el tipo de protocolo (IP, Appletalk, IPX, VINES, o XNS), en una lista de acceso, en paquetes que entran a una interfase específica, y en números de puertos UDP y TCP. En todos los tipos de encolamientos, se deben usar comandos del sistema operativo del router (IOS) para poder establecer una configuración. Especificar el tamaño máximo de las colas de prioridad: se puede especificar el número máximo de paquetes aceptables en cada cola. La cola de alta prioridad tiene por defecto 20 paquetes, la cola media tiene por defecto 40 paquetes, la cola normal 60 paquetes, y la cola baja 80 paquetes. En general, se recomienda no cambiar el tamaño por defecto de cada cola. Asignar la lista de prioridad a una interfase: puede asignarse una sola lista de prioridad por interfase. Cuando se le asigna, las reglas de la lista de prioridad se aplican a todo el tráfico que atraviesa la interfase. 2.3.4. Encolamiento “personalizado o de usuario” Considerando que el encolamiento por prioridad puede producir un retardo inaceptable sobre el tráfico de baja prioridad, el encolamiento personalizado permite a un administrador reservar una cantidad mínima de ancho de banda para cada tipo de tráfico. Cada tipo de tráfico consigue una porción del ancho de banda disponible, aunque T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 3 5 43 35 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XIIIX X

C C W A N O N G S Ó N CO ON NG GEEES STTTIIIÓ ÓN NW WA AN N

estas cantidades no tienen porque ser iguales. Así, el tráfico de misión crítica y el sensible al retardo pueden obtener un porcentaje grande de ancho de banda disponible, mientras que el tráfico de baja prioridad recibe una porción más pequeña. CQ “multiplexa” el ancho de banda para asegurarse que todas las colas tengan una porción predefinida de ancho de banda. Las porciones de ancho de banda se expresan como el numero máximo de bytes que una cola puede mantener. Las colas que pueden contener (en el buffer) un numero relativamente grande de bytes tendrán la oportunidad para transmitir mas datos por unidad de tiempo que las colas que contienen un numero menor de bytes. Aun cuando el encolamiento CQ aloca ancho de banda basado en el numero máximo de bytes, en lugar del tiempo, no se pierde ancho de banda. CQ prioriza el tráfico multiprotocolo. Un administrador puede configurar hasta 16 colas, lo cual la hace ideal para redes que deben mantener un nivel mínimo de sensibilidad para diferentes tipos de protocolos. Cada cola se atiende secuencialmente hasta que el número de bytes enviados excede el contador de bytes, o hasta que la cola esté vacía. CQ es particularmente importante para protocolos dependientes del tiempo, como voz, video, y SNA de IBM, el cual requiere tiempo de respuesta predecible. El encolamiento personalizado tiene dos componentes: • Filtrado de tráfico: los protocolos (IP, IPX, o AppleTalk) aplican un conjunto de filtros o entradas de listas de acceso a cada mensaje que remiten. Los mensajes se colocan en colas, basados en el filtrado. • Envío de mensajes encolados: CQ usa un algoritmo del tipo “round robin” para el envío de tráfico. Cada cola continúa transmitiendo paquetes hasta que se alcanza el límite del byte configurado. Cuando se alcanza el umbral de la cola o la cola se vacía, el software de encolamiento atiende o sirve la próxima cola en la secuencia. Como PQ, CQ tiene una cola por defecto usada para aquellos paquetes que no coinciden con la lista CQ. Se pueden definir múltiples reglas; el sistema lee las definiciones de prioridad en el orden de aparición. El sistema busca la lista en el orden especificado, y la primera regla concordante termina la búsqueda. Cuando se encuentra un match, el paquete se asigna a la cola apropiada. Especificar el tamaño máximo de los CQs: se puede designar el número máximo de paquetes que una cola puede contener. Si una cola está llena, los paquetes entrantes para esa cola se descartan. Para asignar más ancho de banda al tráfico de un protocolo o al tráfico de una interfase, se debe aumentar el tamaño de una cola. Si se alcanza el umbral de la cola (como el contador de bytes máximo) durante la transmisión de un paquete, se permitirá enviar el paquete entero dado que el router no romperá el paquete por propósitos de encolamiento. Por ejemplo, el umbral por defecto en una cola dada es de 1500 bytes. El primer paquete asignado a esa cola es 1100 bytes, y el segundo paquete es 300 bytes. El umbral no se alcanza todavía porque el contador de bytes está actualmente en 1400 bytes; por consiguiente el próximo paquete, asignado a la misma cola, se procesará sin tener en cuenta su tamaño. Si el tercer paquete es de 1000 bytes, el paquete entero se procesará, y el contador de bytes tendrá un total 2400 bytes. El cuarto paquete se pondrá en espera mientras el router atiende a las colas subsecuentes. Asignar la lista CQ a una interfase: se debe asignar una lista CQ a una interfase para habilitar el encolamiento. Los filtros de la lista CQ se aplican a todo el tráfico que atraviese la interfase.

33.. O M Z A C Ó N D E L T R Á F C O C O N C O M P R E Ó N D E D A T O OPPPTTTIIIM MIIIZ ZA AC CIIIÓ ÓN ND DE EL LT TR RÁ ÁF FIIIC CO OC CO ON NC CO OM MP PR RE ESSSIIIÓ ÓN ND DE ED DA AT TO OSSS 3.1. Introducción Existen muchas estrategias y técnicas para optimizar el tráfico sobre enlaces WAN, incluyendo encolamiento y listas de acceso (ACLs). Sin embargo uno de los métodos más efectivos es la compresión. Veremos como optimizar el tráfico WAN sobre el enlace WAN, comprimiendo los datos sobre el mismo. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 3 6 43 36 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XIIIX X

C C W A N O N G S Ó N CO ON NG GEEES STTTIIIÓ ÓN NW WA AN N

La compresión de datos trabaja identificando patrones o modelos en una corriente o flujo (stream) de datos, y escogiendo un método más eficaz de representar la misma información. Esencialmente, se aplica a los datos un algoritmo para remover o quitar tanta redundancia como sea posible. La eficacia y efectividad de un esquema de compresión es medida por su tasa de compresión, la tasa o proporción del tamaño de datos no comprimidos a datos comprimidos. Una tasa de compresión de 2:1 (relativamente común) indica que el dato comprimido es de la mitad de tamaño de los datos originales. Para comprimir datos existen disponibles muchos algoritmos diferentes. Algunos se diseñan para tomar ventaja de un medio específico y encontrar las redundancias, pero por otro lado realizan un pobre trabajo cuando se aplican a otras fuentes de datos. Por ejemplo, la norma MPEG fue diseñada para tomar ventaja de la diferencia, relativamente pequeña, entre un frame y otro en datos de video (y realiza un excelente trabajo de compresión), pero por otro lado hace un trabajo terrible para comprimir texto. Uno de los puntos más importantes en la teoría de compresión es que existe un límite teórico, conocido como Límite de Shannon, que especifica cuánto puede comprimirse una fuente de datos. Más allá de ese punto, sería imposible recuperar, en forma fiable, los datos compresos. Los modernos algoritmos de compresión acoplados con los rápidos procesadores actuales permiten acercarse al Límite de Shannon, pero nunca se podrá cruzarlo. La tecnología de compresión de datos maximiza el ancho de banda e incrementa el throughput (rendimiento) del enlace WAN (al reducir el tamaño del frame permite transmitir más datos sobre el enlace). La figura ilustra algunos tipos de compresión de datos: * Compresión por enlace (también conocido como compresión por interfase). * Compresión por carga útil (también conocido como compresión por-circuito-virtual). * Compresión por cabecera TCP. Por defecto, los datos se transmiten descomprimidos a través de un enlace serial. Esto permite usar los headers en una operación de conmutación normal, pero puede consumir más ancho de banda del deseado. 3.1.1. Compresión por enlace en una conexión punto a punto La compresión por enlace (también conocida como compresión por interfase) involucra tanto la compresión del header como de la sección de carga útil, de una corriente de datos. A diferencia de la compresión por cabecera (header), la compresión por enlace es independiente del protocolo. La compresión por enlace usa los algoritmos Predictor o STAC, para comprimir el tráfico dentro de la capa de enlace, como el protocolo PPP o el LAPB. Para asegurar la corrección de errores y el secuenciamiento del paquete, HDLC usa sólo compresión STAC: • Algoritmo Predictor: predice la próxima secuencia de caracteres en un stream de datos mediante el uso de un índice que busca una secuencia en un diccionario de compresión y luego examina la próxima secuencia en el stream de datos para ver si machea o concuerda. Si lo hace, esa secuencia reemplaza la secuencia buscada en un diccionario mantenido. Si no machea, el algoritmo localiza la próxima secuencia de caracteres en el índice, y el proceso empieza de nuevo. El índice se actualiza a si mismo tomando algunas de las secuencias de caracteres más recientes del stream de entrada. • Algoritmo STAC: desarrollado por STAC Electronics, STAC es un algoritmo de compresión basado en LZ (Lempel-Ziv). Este algoritmo busca, en el stream de datos de entrada, por strings redundantes y los reemplaza con lo que se llama un token, que resulta ser más corto que el string de datos redundante original. Predictor es de uso intensivo de memoria y Stacker es de uso de CPU intensivo. Si el flujo de datos atraviesa una conexión punto a punto, se debe usar compresión por enlace. En un ambiente de compresión por enlace, se comprime la trama completa y la información de conmutación de la trama o los headers de paquetes no están disponibles para las redes de conmutación WAN. De esta forma la compresión por enlace se aplica mejor en ambientes punto a punto con camino con saltos (hop) limitados. Los típicos ejemplos son las líneas leased o ISDN. Los esquemas de compresión de datos, usados en los dispositivos de internetworking, se denominan algoritmos de compresión sin pérdidas (lossless). Estos esquemas reproducen exactamente la corriente (stream) de T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 3 7 43 37 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XIIIX X

C C W A N O N G S Ó N CO ON NG GEEES STTTIIIÓ ÓN NW WA AN N

bits original, sin degradación o pérdida, un rasgo requerido por los routers y otros dispositivos para transportar datos por la red. 3.1.2. Compresión de la carga útil La compresión por carga útil o payload (también conocida como compresión por circuito virtual) comprime sólo porciones de datos (incluso las cabeceras de capa 3 y capa 4) de un stream de datos. La cabecera de la trama queda intacta. Al diseñar una interred, el cliente no puede asumir que una aplicación atravesará líneas punto a punto. Si se usa compresión por enlace, el header podría no ser leído en un salto particular. Por ejemplo, si un switch Frame Relay recibe una header de capa comprimido, no podría leer el DLCI y tomar la decisión de ruteo apropiada. Para evitar comprimir los headers de capa 2, el cliente puede usar a cambio compresión de carga útil (como muestra la figura). La compresión por carga útil es apropiada para servicios de red virtual como el SMDS, Frame Relay, y ATM. 3.1.3. Compresión de cabecera TCP/IP La compresión de cabeceras TCP obedece al algoritmo Van Jacobson definido en el RFC 1144. Este algoritmo disminuye el overhead generado por las cabeceras TCP/IP desproporcionadamente grandes cuando son se transmiten a través de la WAN, como lo muestra la figura. La compresión de cabeceras TCP es especifica del protocolo y comprime sólo el header TCP/IP, el cual mantiene intacto el header de capa 2 para permitir que un paquete con un header TCP/IP comprimido pueda viajar a través del enlace WAN. No se debería implementar concurrentemente compresión por carga útil y compresión TCP/IP en la capa 2 porque sería redundante y derrochador. También es posible que el enlace no permita pasar tráfico IP si se habilita ambos formas de compresión. La compresión de cabeceras TCP es beneficiosa en paquetes pequeños con pocos bytes de datos, como Telnet. La compresión de cabeceras también incluye otros protocolos WAN como X.25, Frame Relay y los protocolos de enlace WAN de discado por demanda. Debido al procesamiento del overhead, la compresión de headers se usa generalmente en las velocidades más bajas, como los enlaces de 64 Kbps.

3.2. Consideraciones de compresión Otras consideraciones para seleccionar un algoritmo de compresión que permita optimizar la utilización WAN son: * Compresión del modem: en ambientes de discado, la compresión puede suceder en el módem. Dos normas comunes de compresión para módem son MNP5 (Microcom Networking Protocol 5) y la ITU V.42bis. MNP5 y V.42bis ofrecen compresiones de hasta dos veces y de hasta cuatro veces, respectivamente. Las dos especificaciones no son compatibles. Los módems, en ambos extremos de la conexión, negocian el estándar a usar. Si la compresión se realiza en el módem, no se debe configurar el router para que haga compresión dado que algunos módems, como un módem V.42bis y un MNP5, no pueden comprimir un archivo que ya está comprimido por software. En el caso de MNP5, intentará comprimir un archivo precomprimido e incluso expandirlo, pero para ello reducirá la velocidad de transferencia del archivo. * Datos encriptados: la compresión es una función de la capa 2. Cuando un stream de datos se encripta por una aplicación del cliente, pasa luego al router para servicios de compresión o ruteo. Cuando el ingenio de compresión recibe el stream de datos encriptados, el cual por definición no tiene ningún patrón repetitivo, los datos se expanden y no se comprime. El algoritmo de compresión compara entonces las imágenes del antes y el después para determinar cual es el más pequeño, y envía entonces los datos descomprimidos como se recibieron originalmente (como si la expansión hubiera ocurrido). Así, si los datos están encriptados, no se los debe comprimir usando un algoritmo de compresión de capa 2. La solución a este problema es comprimir en la capa 3 y luego encriptar en la misma capa. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 3 8 43 38 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XIIIX X *

C C W A N O N G S Ó N CO ON NG GEEES STTTIIIÓ ÓN NW WA AN N

Ciclos de CPU versus memoria: la cantidad de memoria que un router debe tener varía según el protocolo que se está comprimiendo, el algoritmo de compresión, y el número de circuitos concurrentes en el router. Los requisitos de memoria serán más altos para Predictor que para STAC, y la carga útil usará más memoria que la compresión por enlace. Igualmente, la compresión por enlace utilizará más ciclos de CPU. Nunca recomprima los datos. Los datos comprimidos no se comprimen; solamente se expanden.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 3 9 43 39 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XX X

A A R D M N S R A C Ó N D D AD DM MIIIN NIIIS STTTR RA AC CIIIÓ ÓN ND DEEE R REEED D

A MIIN NIISSTTR RA AC CIIÓ ÓN ND DEE R ADDM REEDD 11.. IINNNTTTRRRO O D U C C Ó N OD DU UC CC CIIIÓ ÓN N Una vez que se aprendió a diseñar y desarrollar redes, se debe poder ejecutar tareas tales como la selección, instalación y prueba de cables, junto con la determinación de la ubicación de los armarios de cableado. Sin embargo, el diseño e implementación de red son sólo parte del conocimiento necesario. También es necesario saber cómo mantener la red y hacer que funcione a un nivel aceptable. Esto significa que se debe saber diagnosticar los problemas a medida que surjan. Además, se debe saber cuándo resulta necesario expandir o cambiar la configuración de la red para cumplir con las necesidades cambiantes de los usuarios de la red. La administración de la red incluye muchas áreas distintas, entre ellas: documentación de la red, seguridad de la red, mantenimiento de la red, administración del servidor y mantenimiento del servidor. Esta lista no es exhaustiva, pero es más que suficiente. Cada uno de los temas enumerados es tan importante como el resto, y ninguno se debe pasar por alto. El problema es que muchos administradores consideran que, una vez que la red está funcionando, su tarea ha terminado. Esta afirmación no puede ser más falsa. Después de terminar la configuración de la red es cuando empieza la verdadera tarea de un administrador de red.

22.. ¿¿Q O T E N E U N A R E D QUUUÉÉÉAAASSSPPPEEECCCTTTO OT TIIIE EN NE EU UN NA AR RE ED D?? Es importante visualizar lo que es una red. Una red es una serie de dispositivos que interactúan entre sí para proporcionar comunicación. Cuando un administrador de red analiza una red, debe verla como un todo en lugar de como partes individuales. En otras palabras, cada dispositivo en una red afecta a otros dispositivos y a la red como un todo. Nada está aislado cuando se encuentra conectado a una red. Un buen ejemplo de lo que esto significa puede ser un automóvil. Una automóvil está formado por una serie de piezas que proporcionan transporte. El motor hace que el automóvil se mueva, pero no puede funcionar si el sistema de suministro de combustible es defectuoso o si el automóvil no tiene neumáticos. Los frenos también son componentes importantes, porque cuando el sistema hidráulico de los frenos no funciona el auto no puede detenerse. Si todos los componentes no funcionan bien juntos, el automóvil no puede ejecutar su tarea específica, que es el transporte. Lo mismo ocurre con un sistema de red. Si el servidor de red está configurado para funcionar con el protocolo IPX/SPX y los hosts no lo están, no podrán comunicarse. Además, si el sistema funciona bien y el administrador cambia los protocolos en un solo extremo, el sistema deja de funcionar. Un dispositivo afecta el funcionamiento de los demás. Otro ejemplo sería tener un servidor DNS ubicado en la dirección IP 192.150.11.123. Todos los hosts se encuentran configurados para encontrar el servidor DNS en esta dirección IP. Si un técnico de red cambia la dirección IP del servidor DNS sin cambiar los identificadores de host, los hosts ya no tendrán servicios DNS. Lo importante al administrar una red es recordar que se debe considerar como una unidad y no como un grupo de dispositivos individuales conectados. Esto también se aplica a las conexiones WAN que se usan al conectarse a Internet. Los cambios realizados a los routers en su ubicación afectarán directamente la eficiencia y confiabilidad de la comunicación en todo el sistema. 2.1.1. Comprensión y establecimiento de las fronteras de la red En una red empresarial, es importante que el personal relacionado con la red conozca sus responsabilidades. El personal de red ¿es responsable por el diagnóstico de problemas en el escritorio del usuario, o simplemente debe determinar si el problema del usuario no está relacionado con las comunicaciones?. El personal de red ¿sólo se responsabiliza por lo que ocurre hasta la placa de cableado de pared, o debe ocuparse de toda la instalación hasta la NIC?. Estas definiciones son muy importantes para un departamento de networking. Afectan la carga de trabajo de cada persona, y el costo de los servicios de red para la empresa. Cuanto mayor sea la responsabilidad del personal de red, mayor será el costo de los recursos. En este sentido podemos analizar el ejemplo de un restaurante atendido por una sola persona, su propietario. Esta persona es responsable por todas las tareas, incluyendo cocinar, servir, lavar los platos y pagar las cuentas. El costo de recursos humanos del restaurante será relativamente bajo, pero las posibilidades de crecimiento y expansión serán limitadas, hasta que el propietario contrate cocineros, camareros, ayudantes y contadores. Ahora que las responsabilidades se encuentran divididas, el restaurante puede atender a más clientes con mayor eficiencia. En compensación, como es obvio, los costos de los recursos se elevan, junto con el crecimiento y la expansión. Como lo demuestra el ejemplo del restaurante, el trabajo de la administración de red puede incluir todos los aspectos de la red, o puede limitarse a ciertos componentes. Estas responsabilidades deben definirse e implementarse por departamento. La clave para comprender esta relación es que, si las responsabilidades abarcan demasiado, esto puede sobrecargar los recursos del departamento, pero si las responsabilidades son demasiado pequeñas, puede resultar difícil resolver los problemas de la red de forma efectiva. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 4 3 44 43 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XX X

A A R D M N S R A C Ó N D D AD DM MIIIN NIIIS STTTR RA AC CIIIÓ ÓN ND DEEE R REEED D

33.. C O T O D E U N A R E D CO OSSST TO OSSS D DE EU UN NA AR RE ED D La administración de red incluye varias responsabilidades, incluyendo el análisis de costos. Esto implica la determinación no sólo del costo del diseño e implementación de la red, sino también el costo del mantenimiento, actualización y monitoreo de la red. La determinación del costo de la instalación de la red no es una tarea particularmente difícil para la mayoría de los administradores de red. Las listas y costos de los equipos se pueden establecer fácilmente; los costos laborales se pueden calcular mediante porcentajes fijos. Desgraciadamente, el costo del desarrollo de la red es sólo el principio. Estos son algunos de los demás factores de costos que se deben tener en cuenta: El crecimiento de la red con el tiempo; la capacitación de técnicos y usuarios; reparaciones y distribución de software. Estos costos son mucho más difíciles de proyectar que el costo de desarrollo de la red. El administrador de red debe estar capacitado para analizar las tendencias de crecimiento de la empresa e históricas para proyectar el costo del crecimiento en la red. Un administrador debe examinar el nuevo software y hardware para determinar si la empresa necesitará implementarlo y cuándo, así como las necesidades de capacitación del personal para brindar soporte a estas nuevas tecnologías. El costo del equipo redundante para operaciones fundamentales de trabajo también se deben agregar al costo del mantenimiento de la red. Considere lo que ocurriría en una empresa cuya actividad se basa en Internet y que use un solo router para conectarse a Internet. Si ese router falla, la empresa no podría funcionar hasta que el router sea reemplazado, lo que podría costarle a la empresa miles de dólares en ventas perdidas. Un administrador de red que conozca bien su trabajo debe tener un router de repuesto disponible para reducir al mínimo el tiempo durante el cual la empresa queda fuera de línea.

44.. D O C U M E N T A C Ó N D E R E D DO OC CU UM ME EN NT TA AC CIIIÓ ÓN ND DE ER RE ED D 4.1.1. Diagramas de planes de distribución El componente principal y más crítico para una red de buena calidad es la documentación. La documentación es la tarea sobre la que se habla más y se hace menos en una red. La documentación representa la memoria del administrador de la red. En primer lugar, está compuesta por el diario de ingeniería, pero es mucho más que eso. La documentación también incluye: diagramas que indican la disposición del cableado físico; • el tipo de cables; • la longitud de cada cable; • el tipo de terminación para el cable; • la ubicación física de cada uno de los tomacorrientes o paneles de conexión, y; • un esquema de rotulación para identificar con facilidad cada cable. • Disposiciones de los MDF e IDF. • La documentación contiene la disposición física y lógica del MDF (Main Distribution Facility, Servicio de Distribución Principal) y de todos los IDF (Intermediate Distribution Facility, Servicios de Distribución Intermedia) en la red. Incluye la disposición física de los elementos montados en bastidor, equipos auxiliares y servidores en el servicio de distribución. También incluye las etiquetas del panel de conexión para identificar las terminaciones de los cables. Los detalles de identificación y configuración de todo el equipo ubicado en el servicio de distribución. 4.1.2. Detalles de la configuración de servidores y estaciones de trabajo Los detalles acerca de la configuración de los servidores y estaciones de trabajo se deben completar para cada host conectado a la red. La información en estos documentos está estandarizada y contiene elementos tales como: marca y modelo de la PC, número de serie, unidades de disquete, unidades de disco duro, unidad de DVD/CD-ROM, tarjetas de sonido y de red, cantidad de RAM y cualquier otro detalle físico de la PC. Esta información también incluye los detalles de configuración acerca de la PC. Los detalles de configuración de dirección IRQ, DMA y de memoria base de las tarjetas periféricas. Por último, este documento contiene la ubicación física, el usuario y la información de identificación de red (dirección IP, dirección MAC, subred, topología) acerca de la PC. Además, en este documento se incluye la fecha de compra y la información acerca de la garantía. 4.1.3. Listados de software

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 4 4 44 44 4

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XX X

A A R D M N S R A C Ó N D D AD DM MIIIN NIIIS STTTR RA AC CIIIÓ ÓN ND DEEE R REEED D

Listado del software estándar y especial que se utiliza en cada una de las máquinas en la red. Detalle de instalación de la configuración estándar de cada paquete de software. Esta lista incluye el software del sistema operativo y aplicaciones. 4.1.4. Registros de mantenimiento También es útil mantener una lista de todas las reparaciones que se han hecho al equipo incluido en la red. Esto ayudará al administrador a predecir posibles problemas futuros con el hardware y el software existentes. 4.1.5. Medidas de seguridad Este documento incluye no sólo seguridad relacionada con el software, como los derechos del usuario, la definición de contraseña y el soporte de firewall sino también seguridad física. La seguridad física incluye elementos tan simples como la identificación acerca de la forma en que se mantienen cerrados el MDF y los IDF, quiénes tienen acceso a estas habitaciones y por qué, cómo se protege a los hosts (cables de seguridad - alarmas) y quiénes tienen acceso físico al sistema. 4.1.6. Políticas para el usuario Las políticas para el usuario son documentos que pueden ser los más importantes y beneficiosos para el administrador de la red. Contienen la forma en que los usuarios pueden interactuar con la red. Estas políticas incluyen lo que está permitido y lo que no está permitido en la red. También deben incluir cuáles son las consecuencias por violar las políticas para el usuario. Otros aspectos de las políticas para el usuario incluyen cuál es la longitud mínima que deben tener la ID de usuario y la contraseña y las normas para el contenido de las contraseñas. Las políticas para el usuario se deben crear de forma conjunta con los gerentes de la empresa para asegurarse de que estas políticas son aceptables y que se harán cumplir. Como administrador de la red, su objetivo es crear una red lo más funcional y segura que sea posible para la empresa. Pero asegúrese de que las políticas de la red no entren en conflicto con las políticas de la empresa o limite el acceso de los usuarios a los recursos necesarios. La información que se registra en los documentos mencionados crea el conjunto de documentación de red para su sistema. Este conjunto de documentación permite que el mantenimiento y las actualizaciones de la red se lleven a cabo de forma más ordenada. Esta documentación suministra al administrador de la red un punto de inicio al que puede regresar si una actualización se realiza de forma indebida o si es necesario recuperarse de una falla de la red. Un último punto acerca de la documentación de la red es que se debe actualizar continuamente con las últimas actualizaciones y los cambios de configuración de la red. Si esto no se lleva a cabo, la documentación no ayudará mucho en la implementación actual de la red. 4.1.7. Documentación de errores La efectiva administración de una red requiere documentación completa, de manera que, en caso de problemas, se debe elaborar algún tipo de documentación de los errores. Esta documentación se utiliza para reunir la información básica necesaria para identificar y asignar un problema de red, y también ofrece una manera para hacer un seguimiento del progreso y eventual solución del problema. Los informes de problema pueden ofrecer los motivos que justifiquen la contratación de nuevo personal, adquisición de equipos y ofrecimiento de capacitación adicional por parte de la gerencia de nivel superior. Esta documentación también brinda soluciones para problemas recurrentes que ya han sido resueltos. Hasta ahora se hizo referencia a los aspectos no técnicos de la administración de la red; a continuación se verán las herramientas disponibles para monitorear y diagnosticar problemas en una WAN.

55.. SSEEEG G U R D A D D E R E D GU UR RIIID DA AD DD DE ER RE ED D 5.1. Acceso de red La seguridad de red involucra dos componentes principales: El primero es proteger la red contra el acceso no autorizado y el segundo es la habilidad para recuperar datos ante eventos catastróficos. La primera parte de la seguridad se refiere a la documentación de la red. Implica hacer que la red esté lo más protegida posible contra el acceso no autorizado. Esto se lleva a cabo estableciendo políticas de seguridad, tales como longitud mínima de la contraseña, antigüedad máxima de la contraseña, contraseñas exclusivas (no se permite que la misma contraseña se repita) y permitir que el usuario se conecte a la red sólo en momentos determinados del día o de los días de la semana. Estos parámetros pueden ser controlados directamente por el administrador de red y el sistema operativo de la red los hará cumplir. La seguridad también implica asegurarse de que los usuarios conozcan las políticas de red de la empresa y de que cumplan esas políticas. Ejemplos de dichas políticas pueden ser no permitir que los usuarios utilicen nombres T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 4 5 44 45 5

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XX X

A A R D M N S R A C Ó N D D AD DM MIIIN NIIIS STTTR RA AC CIIIÓ ÓN ND DEEE R REEED D

personales o de mascotas para las contraseñas. Otro ejemplo es asegurarse de que el usuario se desconecte de la red o de que tenga un protector de pantalla protegido por contraseña que se active cuando se aleja del computador. Estos son tipos de normas que sólo se pueden seguir si el usuario comprende y cumple las políticas de red establecidas.

5.2. Recuperación de datos La recuperación de datos, que constituye la segunda parte de la seguridad de red, implica proteger los datos ante pérdidas. Hay varios métodos para evitar la pérdida de datos. Por lo general, hay más de un método en uso al mismo tiempo para proteger los datos. Tres de los métodos populares para la protección de datos son la copia de seguridad de la cinta que contiene los datos, las configuraciones de disco a prueba de fallas y el uso de sistemas de alimentación ininterrumpida (UPS) para evitar que el equipo deje de funcionar cuando se producen interrupciones del suministro eléctrico. La copia de seguridad de la cinta es el proceso de duplicación de todos los datos almacenados en una cinta magnética. El motivo del uso de cinta es el costo y la capacidad. Los cartuchos de cinta son mucho más baratos y tienen una capacidad de almacenamiento mucho mayor que la de los discos duros extraíbles. La desventaja de la cinta para uso general es que almacena datos de forma secuencial, del mismo modo en que se graba música en un cassette. Esto significa que, así como resulta difícil intentar ubicar una canción en particular en un cassette de forma eficiente, lo mismo sucede cuando se intenta ubicar un archivo determinado en una cinta de datos. Pero, como los datos para una copia de seguridad se graban de forma secuencial y se recuperan del mismo modo, esto no constituye un problema para este tipo de uso. Es importante realizar una copia de seguridad de la cinta lo más completa y rápidamente que sea posible, dado que puede constituir un desgaste importante sobre los recursos del sistema (ancho de banda de la red y alimentación del procesador del servidor). Para permitir que toda la copia de seguridad se realice del modo más eficiente posible, se han desarrollado distintos tipos de copias de seguridad. La mayoría de los tipos de copia de seguridad trabajan con un señalador o switch denominado bit de archivo. El bit de archivo se guarda con un archivo y se activa siempre que ese archivo se crea o se modifica. Este señalador le indica al proceso de copia de seguridad si se debe realizar una copia de seguridad del archivo o no. Si se guarda una archivo en cinta durante el proceso de copia de seguridad, por lo general, el señalador se desactiva, indicando que el archivo actual está en la cinta. La mayoría de las empresas recomiendan que las cintas y las copias de seguridad se guarden en una caja de seguridad ignífuga, o que se retiren del edificio en caso de daños debidos a incendios o inundaciones. 5.2.1. Operaciones de copia de seguridad

1. 2.

3.

4. 5.

Los cinco tipos de operaciones de copia de seguridad son las siguientes: Copia de seguridad completa: todos los archivos en el disco se guardan en una cinta y se desactiva el bit de archivo para todos los archivos. Copia de seguridad incremental: realiza una copia de seguridad de todos los archivos que se han creado o modificado desde que se realizó la última copia de seguridad completa: Es importante tener en cuenta dos cosas acerca de la copia de seguridad incremental. En primer lugar, que sólo funciona de forma conjunta con la copia de seguridad completa y, en segundo lugar, que el bit de archivo de cualquier archivo que se ha creado o modificado se vuelve a activar, de modo que se guardará en cinta la próxima vez que se vuelva a realizar una copia de seguridad incremental. Copia de seguridad diferencial: realiza una copia de seguridad de todos los archivos que se han creado o modificado desde que se realizó la última copia de seguridad completa: Esto parece ser lo mismo que una copia de seguridad incremental, pero la diferencia es que aunque el archivo se guarda en una cinta, el bit de archivo no se vuelve a reactivar. Esto significa que cada vez que se realiza una copia de seguridad diferencial, todos los archivos que se modificaron o crearon desde la última vez que se realizó una copia de seguridad se vuelven a guardar. Copia de copia de seguridad: realiza una copia de seguridad de los archivos seleccionados por el usuario en una cinta. Esta copia de seguridad tampoco desactiva el bit de archivo. Copia de seguridad diaria: realiza una copia de seguridad de los archivos que se modificaron en la fecha en que se realiza la copia de seguridad. Esta copia de seguridad tampoco desactiva el bit de archivo.

Los tres primeros procedimientos de copia de seguridad son los de uso más generalizado. Cada solución tiene problemas posibles. Cada situación cuenta con la solución más adecuada posible para el caso para ese momento y ese lugar en particular. La única solución incorrecta es ignorar la necesidad de realizar copias de seguridad de todos los datos en el sistema. 5.2.2. Técnicas de redundancia El siguiente método para proteger los datos es con dispositivos de almacenamiento con tolerancia a las fallas. Este tipo de conjunto redundante de dispositivos es categorizada por los niveles 0-5 de RAID (Matrices T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 4 6 44 46 6

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XX X

A A R D M N S R A C Ó N D D AD DM MIIIN NIIIS STTTR RA AC CIIIÓ ÓN ND DEEE R REEED D

Redundantes de Discos Económicos). Se indican todos los tipos básicos de RAID pero se describen específicamente los tres niveles más importantes. Los tipos son los siguientes: 1. RAID 0: obtiene datos de múltiples discos, sin paridad, de modo que no hay redundancia. 2. RAID 1: copia exacta de disco (dúplex de disco) escribe los datos en dos particiones idénticas en discos duros individuales, creando de este modo una copia de seguridad automática. El dúplex de disco utiliza dos tarjetas controladoras de disco duro así como también dos discos duros para evitar que la tarjeta controladora sea el único punto de falla para el sistema como ocurre en el caso de la copia exacta de disco. 3. RAID 2: escribe datos a través de múltiples discos duros, con verificación de errores. Este sistema se ha dejado de usar porque requiere modificaciones sumamente costosas del disco para que funcione. 4. RAID 3: obtiene datos de un byte a la vez y tiene una unidad de paridad dedicada. Una elección de redundancia buena pero costosa. Dado que es sumamente cara, esta solución tampoco se utiliza demasiado a menudo. 5. RAID 4: obtiene datos de un sector a la vez y tiene una unidad de paridad dedicada. Una elección de redundancia costosa que es muy lenta en lo que se refiere a la escritura de datos en el disco. Dado que es sumamente cara y es muy lenta en lo que se refiere a la escritura, esta solución tampoco se utiliza demasiado a menudo. 6. RAID 5: obtiene datos y paridad a través de múltiples discos (por lo menos tres para RAID 5). Al mezclar la paridad en todos los discos, no se requiere un disco de paridad individual y aún así se obtiene redundancia de datos total. La escritura de datos en el disco sigue siendo lenta, pero el costo no es tan elevado. Otro de los factores importantes acerca de RAID 5 es que en un sistema Windows NT las particiones de arranque y de sistema no se pueden ubicar en una matriz de disco RAID 5. Hay otros niveles de RAID pero las anteriores son las mas necesarias conocer. De hecho, no todos los sistemas operativos de red soportan los niveles de RAID a los que se hace referencia anteriormente. Los tres niveles de RAID que soportan la mayoría de los sistemas operativos son RAID 0, RAID 1 y RAID 5. Los puntos clave que se deben tener en cuenta son que RAID 0 se utiliza simplemente por su velocidad y que no suministra redundancia (copia de seguridad) de datos. RAID 1 suministra redundancia de datos completa, pero requiere el doble de espacio de almacenamiento, porque todos los datos se deben escribir en dos discos individuales, y sigue teniendo un único punto de falla en la tarjeta controladora. Este problema se resuelve a través de la otra variante de RAID 1, que es el dúplex de disco, en el que el controlador de disco también se duplica. RAID 5 requiere tres discos como mínimo (en un sistema WinNT, cuatro porque las particiones de arranque y de sistema no pueden estar ubicadas en el conjunto RAID) y el tamaño de la partición debe ser el mismo en cada disco. RAID 5 es muy popular porque suministra lecturas de datos muy rápidas desde el disco, lo que le otorga mayor rendimiento a la red. Un último punto importante acerca de RAID 5 y Windows NT es que para obtener redundancia completa se necesitan por lo menos cinco discos, los dos primeros se deben configurar como RAID 1 (copia exacta de disco) para las particiones de arranque y de sistema, y los tres últimos discos de datos se deben configurar con RAID 5. Esto suministra redundancia completa, con la ventaja de velocidad que proporciona RAID 5. El último término que veremos con respecto al almacenamiento en disco duro es volúmenes. Volumen es un término que hace referencia a una unidad de almacenamiento física. Una buena analogía es pensar en un conjunto de enciclopedias. El nombre que normalmente se le da a cada libro del conjunto es el de volumen. Algunos libros contienen más de un volumen, por ejemplo, el volumen XYZ. Por último, piense en el conjunto completo de enciclopedias como si fuera una sola unidad, este concepto es real también en lo que respecta al conjunto de volúmenes de disco, un nombre de volumen incluye el espacio de múltiples discos a los que se hace referencia como si fueran una sola unidad. Esta información es importante porque los conjuntos de volúmenes se utilizan a menudo en los sistemas de red. Una última información acerca de los conjuntos de volúmenes es que no suministran redundancia de datos; simplemente son una forma de referirse a grandes áreas de almacenamiento como si fueran una sola unidad.

5.3. Factores ambientales Otro de los aspectos de una buena administración de red es manejar los factores ambientales que pueden afectar a una red. Si se controlan estos factores, se puede obtener una red más estable y confiable Al instalar nuevos equipos o nuevas tarjetas asegúrese de que todos los conmutadores de alimentación del equipo estén en posición OFF/apagado/desconectado antes de conectarlo. Asegúrese de que la alimentación de la PC esté desconectada y de conectarse a tierra (descarga) antes de tocar el interior de la PC. La mejor manera de conectarse a tierra es utilizar una cinta de conexión a tierra. Si no hay una conexión a tierra adecuada, es posible que se acumule una carga eléctrica de hasta 20.000 voltios. Esta carga se puede generar simplemente al caminar sobre una alfombra sintética estando calzado con zapatos de cuero o al acomodarse al estar sentado en una silla de plástico. Una descarga de voltaje estático puede quemar muchos de los componentes eléctricos en el computador y la red. 5.3.1. Estática, polvo, suciedad y calor T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 4 7 44 47 7

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XX X

A A R D M N S R A C Ó N D D AD DM MIIIN NIIIS STTTR RA AC CIIIÓ ÓN ND DEEE R REEED D

Mantenga los teclados, las unidades de disco y las orificios de ventilación de los equipos libres de polvo y suciedad. Fumar cerca de un equipo informático es una forma segura de dañar eventualmente el equipo. No permita que el equipo se sobrecaliente; los computadores y los otros equipos de red tienen ventiladores incorporados para refrigerarlos. Asegúrese de no bloquear ninguno de los orificios de ventilación del equipo. Asegúrese de que en el área de trabajo no haya elementos que obstruyan los orificios de ventilación. 5.3.2. Acondicionamiento de la alimentación Se debe proteger el equipo contra las irregularidades del cableado eléctrico del edificio. La forma más sencilla de proteger el equipo de red y computadores es colocarlos en circuitos individuales en el edificio. Utilice Transformador separador, reguladores, Acondicionador de línea y UPS (Sistema de Alimentación Ininterrumpida). 5.3.3. Interferencia electromagnética e interferencia de la radiofrecuencia los suministros de alimentación y los monitores, así como también las luces fluorescentes, los motores eléctricos de gran tamaño y el cableado eléctrico pueden provocar interferencia electromagnética (EMI) e interferencia de la radiofrecuencia (RFI) que pueden ser captadas por otros equipos y por cables que estén blindados de forma inadecuada. Estos tipos de problemas pueden ser difíciles de diagnosticar y, generalmente se detectan a través del uso de software y hardware de diagnóstico. 5.3.4. Virus del software Todos los temas descritos anteriormente que pueden afectar el desempeño de una red se han referido al aspecto físico de la red. El último de los factores que se describe y que puede afectar el desempeño de la red es el software. Específicamente, un tipo de software cuyo propósito exclusivo es obstaculizar el funcionamiento de una red. Entre ellos tenemos los gusanos, virus y troyanos.

66.. ¿¿PPO O R Q U É E N E C E A R O M O N T O R E A R U N A R E D OR RQ QU UÉ ÉE ESSS N NE EC CE ESSSA AR RIIIO OM MO ON NIIIT TO OR RE EA AR RU UN NA AR RE ED D?? Aunque hay varias razones para el monitoreo de la red, los dos motivos principales son la predicción de los cambios para el crecimiento futuro y la detección de cambios inesperados en el estado de la red. Entre los cambios inesperados se pueden incluir cosas tales como la falla de un router o un switch, un “hacker” que intenta obtener acceso ilegal a la red, o una falla de enlaces de comunicación. Si no se tiene la capacidad para monitorear la red, un administrador sólo podrá reaccionar a los problemas a medida que ocurren, en lugar de prevenir estos problemas antes de que se produzcan. El monitoreo de una red WAN involucra varias de las mismas técnicas básicas de administración que se aplican para una red LAN. Una de las diferencias principales que surgen de una comparación entre WAN y LAN es la ubicación física del equipo. La ubicación y uso de las herramientas de monitoreo es fundamental para la operación ininterrumpida de la red WAN. 6.1.1. Monitoreo de las conexiones Una de las formas más básicas de monitoreo de las conexiones se produce diariamente en una red. El proceso de conexión de los usuarios a la red verifica si las conexiones funcionan correctamente; de lo contrario, será necesario la asistencia del profesional de networking. Este no es el método más eficiente o preferible para monitorear las conexiones. Existen programas simples que permiten que el administrador ingrese una lista de direcciones IP de hosts, y se hace ping a estas direcciones de forma periódica. Si hay un problema de conexión, el programa advierte al administrador con el resultado del ping. Esta es una forma muy ineficiente y primitiva de monitorear la red, pero siempre es mejor que no hacer nada. Otro aspecto de este tipo de monitoreo es que sólo determina si en algún lugar entre la estación de control y el dispositivo objetivo hay una ruptura de las comunicaciones. El problema puede ser un router, switch o segmento de red defectuoso, o que el host esté desactivado. La prueba de ping sólo indica que la conexión está desactivada, pero no indica dónde lo está. La verificación de todos los hosts en una WAN mediante este tipo de monitoreo utiliza varios recursos. Si la red tiene 3000 hosts, hacer ping a todos los dispositivos de la red y hosts puede utilizar demasiados recursos del sistema. Un método mejor es hacer ping a sólo algunos de los hosts, servidores, routers y switches importantes para verificar su conectividad. Las pruebas de ping no ofrecen datos verdaderos, a menos que las estaciones de trabajo siempre estén conectadas. Nuevamente, este método de monitoreo se debe usar sólo si no hay otro método disponible. 6.1.2. Monitoreo del tráfico

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 4 8 44 48 8

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XX X

A A R D M N S R A C Ó N D D AD DM MIIIN NIIIS STTTR RA AC CIIIÓ ÓN ND DEEE R REEED D

El monitoreo del tráfico es un método mucho más sofisticado de monitoreo de la red. Analiza el tráfico real de paquetes en la red y genera informes basados en el tráfico de la red. Los programas como el monitoreo de red de Microsoft Windows NT y el Network Analyzer de Fluke son ejemplos de este tipo de software. Estos programas no sólo detectan el equipo defectuoso sino que también determinan si un componente se encuentra sobrecargado o mal configurado. La desventaja de este tipo de programa es que normalmente funciona en un solo segmento por vez y si es necesario reunir datos de otros segmentos el software de monitoreo se debe trasladar a ese segmento. Esto se puede resolver mediante el uso de agentes en los segmentos remotos de red (como se ve en el gráfico). Equipos como los switches y los routers tienen la capacidad de generar y transmitir estadísticas de tráfico como parte de su sistema operativo. Entonces, ¿cómo se reúnen y organizan los datos en una ubicación central para que sean útiles para el administrador de red? La respuesta es: Protocolo de administración de red simple.

77.. PPRRRO O T O C O L O D E A D M N T R A C Ó N D E R E D M P L E NM MPP)) OT TO OC CO OL LO OD DE EA AD DM MIIIN NIIISSST TR RA AC CIIIÓ ÓN ND DE ER RE ED D SSSIIIM MP PL LE E ((SSN

3.

4.

SNMP (Simple Network Management Protocol) es un protocolo que permite que la administración transmita datos estadísticos a través de la red a una consola de administración central. SNMP es un componente de la Arquitectura de Administración de Red. La Arquitectura de Administración de Red se compone de cuatro componentes principales. 1. Estación de administración: la estación de administración es la interfaz del administrador de red al sistema de red. Posee los programas para manipular los datos y controlar la red. La estación de administración también mantiene una base de datos de información de administración (MIB) extraída de los dispositivos bajo su administración. 2. Agente de administración: el agente de administración es el componente incluido en los dispositivos que se deben administrar. Puentes, routers, hubs y switches pueden contener agentes SNMP que les permitan ser controlados por la estación de administración. El agente de administración responde a la estación de administración de dos maneras. En primer lugar, mediante sondeo, la estación de administración requiere datos desde el agente y el agente responde con los datos solicitados. La captura es un método de recopilación de datos diseñado para reducir el tráfico en la red y el procesamiento en los dispositivos que se controlan. En lugar de que la estación de administración haga un sondeo a los agentes a intervalos específicos continuamente, se establecen umbrales (límites superiores o inferiores) en el dispositivo administrado. Si se supera este umbral en el dispositivo, el dispositivo administrado envía un mensaje de alerta a la estación de administración. Esto elimina la necesidad de realizar sondeos continuos de todos los dispositivos administrados en la red. La captura es muy ventajosa en las redes que incluyen una gran cantidad de dispositivos que necesitan administrarse. Reduce la cantidad de tráfico SNMP en la red para proporcionar mayor ancho de banda para la transferencia de datos. Base de información de administración: la base de información de administración tiene una estructura de base de datos y reside en cada dispositivo administrado. La base de datos contiene una serie de objetos, que son datos sobre recursos reunidos en el dispositivo administrado. Algunas de las categorías en el MIB incluyen datos de interfaz de puerto, datos de TCP y datos de ICMP. Protocolo de administración de red: el protocolo de administración de red utilizado es SNMP. SNMP es un protocolo de capa de aplicación diseñado para comunicar datos entre la consola de administración y el agente de administración. Tiene tres capacidades clave. La capacidad para

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 4 9 44 49 9

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XX X

A A R D M N S R A C Ó N D D AD DM MIIIN NIIIS STTTR RA AC CIIIÓ ÓN ND DEEE R REEED D

OBTENER, que implica que la consola de administración recupera datos del agente, COLOCAR, que implica que la consola de administración establece los valores de los objetos en el agente, y CAPTURAR, que implica que el agente notifica a la consola de administración acerca de los sucesos de importancia. La palabra clave que se debe recordar con respecto al Protocolo de Administración de Red Simple es “simple”. En el momento en que se desarrolló SNMP, se diseñó para ser un sistema a corto plazo que eventualmente se reemplazaría. Pero, tal como ocurre con TCP/IP, se ha transformado en uno de los estándares principales en las configuraciones de administración de Internet (redes internas). En los últimos años, se han agregado mejoras a SNMP, a fin de expandir sus capacidades de monitoreo y administración. Una de las mejoras principales de SNMP se denomina Monitoreo Remoto (RMON, Remot Monitoring). Las extensiones de RMON a SNMP brindan la capacidad para observar la red como un todo, en contraste con el análisis de dispositivos individuales.

88.. M O N T O R E O R E M O T O MO RM MO ON N)) ON NIIIT TO OR RE EO OR RE EM MO OT TO O ((R Las sondas reúnen datos remotos en RMON. Una sonda tiene la misma función que un agente SNMP. Una sonda tiene capacidades de RMON; un agente no las tiene. Al trabajar con RMON, tal como ocurre con SNMP, una consola de administración central es el punto de reunión de datos. Una sonda RMON se ubica en cada segmento monitoreado de la red. Estas sondas pueden ser hosts dedicados, residentes en un servidor, o se pueden incluir en un dispositivo de networking estándar, como un router o switch. Estas sondas reúnen los datos especificados de cada segmento y los derivan a la consola de administración. Las consolas de administración redundantes proporcionan una función valiosa para la red. Las consolas de administración redundantes ofrecen dos ventajas importantes para los procesos de administración de la red. La primera es la capacidad para que más de un administrador de red en diferentes ubicaciones físicas pueda monitorear y administrar la misma red. La segunda es el concepto fundamental de la redundancia. La existencia de dos o más consolas de administración significa que, si una de las consolas falla, la otra todavía puede usarse para monitorear y controlar la red hasta que se pueda reparar la primera consola. La extensión RMON del protocolo SNMP crea nuevas categorías de datos. Estas categorías agregan más ramas a la base de datos MIB. Cada una de las categorías principales se explica en la siguiente lista. 1. Grupo de estadísticas de Ethernet: contiene estadísticas reunidas para cada subred monitoreada. Estas estadísticas incluyen contadores (incrementales a partir de cero) para bytes, paquetes, errores y tamaño de trama. El otro tipo de referencia de datos es una tabla índice. La tabla identifica a cada dispositivo Ethernet monitoreado, permitiendo que se mantengan contadores para cada dispositivo Ethernet individual. El Grupo de Estadísticas de Ethernet proporciona una vista de la carga total y el estado de una subred midiendo diferentes tipos de errores, incluyendo CRC, colisiones, paquetes de tamaño demasiado grande o pequeño. 2. Grupo de control de historial: contiene una tabla de datos que registra muestras de los contadores en el Grupo de Estadísticas de Ethernet durante un período de tiempo especificado. El tiempo por defecto configurado para el muestreo es cada treinta minutos (1800 segundos) y el tamaño de tabla por defecto es cincuenta entradas, lo que da como resultado un total de veinticinco horas de monitoreo continuo. A medida que se crea el historial para el contador especificado, se crea una nueva entrada en la tabla en cada intervalo de muestreo, hasta llegar al límite de cincuenta. Entonces, a medida que se crea cada nueva entrada, se elimina la entrada más antigua en la tabla. Estas muestras proporcionan información básica para la red y se pueden comparar con la información básica original para resolver problemas o actualizar la información básica a medida que la red cambia. 3. Grupo de alarma: utiliza límites especificados por el usuario, denominados umbrales. Si los contadores de datos monitoreados superan los umbrales, se envía un mensaje o alarma al personal especificado. Este proceso, conocido como captura de errores, automatiza muchas funciones de monitoreo de red. En lugar de que una persona monitoree la red de manera constante y directa, o en vez de esperar que un usuario identifique un problema en la red, el proceso mismo de red puede enviar mensajes al personal de red cuando se produce una falla o, lo que es aún mejor, cuando se está por producir una falla. Este es un componente importante del diagnóstico preventivo de fallas. 4. Grupo de host: contiene contadores que se mantienen para cada host detectado en el segmento de subred. Algunas de las categorías de contador mantenidas son Paquetes, Octetos, Errores y Broadcasts. Los tipos T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 5 0 45 50 0

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XX X

5.

6.

7.

8.

9.

10.

A A R D M N S R A C Ó N D D AD DM MIIIN NIIIS STTTR RA AC CIIIÓ ÓN ND DEEE R REEED D

de contadores asociados con cada uno de los elementos anteriormente mencionados pueden ser, por ejemplo, cantidad total de paquetes, paquetes recibidos, paquetes enviados, y muchos otros contadores específicos para ese tipo de elemento. Grupo de Host TOPN: se usa para preparar informes acerca de un grupo de hosts que encabezan una lista estadística de acuerdo con un parámetro medido. La mejor manera de describir este grupo es con un ejemplo. Se puede generar un informe para los diez hosts que generan más broadcasts por día. Se puede generar otro informe para la mayor cantidad de paquetes transmitidos durante el día. Esta categoría proporciona una manera fácil de determinar quién y qué tipo de tráfico de datos ocupa la mayor parte de la subred seleccionada. Grupo de matriz: registra la comunicación de datos entre dos hosts en una subred. Estos datos se almacenan bajo la forma de una matriz (una tabla multidimensional). Uno de los informes que se pueden generar en esta categoría es qué host utiliza un servidor. La reorganización del orden de la matriz puede crear otros informes. Por ejemplo, un informe puede mostrar todos los usuarios de un servidor en particular, mientras que otro muestra todos los servidores utilizados por un host en particular. Grupo de filtro: proporciona una manera para que la consola de administración pueda instruir a una sonda RMON para reunir paquetes seleccionados desde una interfaz específica en una subred en particular. Esta selección se basa en el uso de dos filtros, el filtro de datos y el filtro de estado. El filtro de datos se encuentra diseñado para coincidir o no con patrones de datos específicos, lo que permite la selección de esos datos en particular. El filtro de estado se basa en el tipo de paquete verificado. Esto significa, por ejemplo, un paquete CRC o válido. Estos filtros se pueden combinar utilizando “and” y “or” lógicos para crear condiciones muy complejas. El grupo de filtro permite que un administrador de red verifique selectivamente diferentes tipos de paquetes, para proporcionar mejor análisis y diagnóstico de fallas de la red. Grupo de paquete: permite que el administrador especifique un método para capturar paquetes que hayan sido seleccionados por el grupo de filtro. Al capturar paquetes específicos el administrador de red puede verificar la información detallada exacta para los paquetes que reúnen las condiciones del filtro básico. El paquete de grupo también especifica la cantidad de paquetes individuales capturados y la cantidad total de paquetes capturados. Grupo de sucesos: contiene sucesos generados por otros grupos en la base de datos MIB. Un ejemplo podría ser un contador que supere el umbral determinado para él, especificado en el grupo de alarma. Esta acción puede generar un suceso en el grupo de sucesos. Sobre la base de este suceso, se puede generar una acción, como emitir un mensaje de advertencia a todas las personas que figuran en los parámetros de los grupos de alarma o crear una entrada registrada en la tabla de sucesos. Se genera un suceso para todas las operaciones de comparación en las extensiones MIB RMON. Grupo Token-Ring: contiene contadores específicos para las redes Token-Ring. Mientras que la mayoría de los contadores en las extensiones RMON no son específicos para cualquier tipo de protocolo de enlace de datos, los grupos de estadísticas e historial lo son. Se encuentran especialmente adaptados al protocolo Ethernet. El grupo Token-Ring crea contadores necesarios para monitorear y administrar redes Token-Ring mediante RMON.

Es importante tener en cuenta que RMON es una extensión del protocolo SNMP. Específicamente, esto significa que, mientras que RMON aumenta las capacidades de operación y control de SNMP, SNMP sigue siendo necesario para que RMON opere en una red. Como última observación, es importante mencionar que hay revisiones más recientes de SNMP y RMON. Se denominan SNMPv2 y RMON2.

99.. SSO O L U C Ó N D E P R O B L E M A OL LU UC CIIIÓ ÓN ND DE EP PR RO OB BL LE EM MA ASSS Los problemas son inevitables. Aunque la red se monitoree constantemente, el equipo sea confiable y los usuarios sean cuidadosos, las cosas pueden salir mal. La capacidad de un buen administrador se demuestra a través de su habilidad para analizar, diagnosticar las fallas y corregir los problemas de la red trabajando bajo presión, cuando se produce una falla que hace que la empresa pierda horas de trabajo. A continuación se analizan las técnicas de administracion, al igual que otras herramientas para diagnosticar las fallas de una red. Estas técnicas pueden ser las mejores herramientas para resolver los problemas de las redes. Lo primero y lo más importante es el uso del diario de ingeniería y las notas. La toma de notas puede representar la mejor manera de diagnosticar un problema. Las notas describen las soluciones que ya se han probado y qué efecto tuvieron sobre el problema. Esto puede ser sumamente valioso para el técnico, para que lo que se intentó anteriormente no vuelva a utilizarse inútilmente para resolver el problema tiempo después. La toma de notas T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 5 1 45 51 1

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XX X

A A R D M N S R A C Ó N D D AD DM MIIIN NIIIS STTTR RA AC CIIIÓ ÓN ND DEEE R REEED D

también es muy valiosa si el problema se deriva a otro técnico, para evitar que el nuevo técnico tenga que volver a hacer todo lo que ya se hizo anteriormente. Se debe incluir una copia de estas notas junto con los documentos de solución del problema cuando se complete el informe de problemas sobre esta tarea en particular. Esto puede proporcionar material de consulta si se presentan otros problemas similares relacionados con este problema en particular. Otro de los elementos esenciales del diagnóstico preventivo de fallas es la rotulación. Se debe rotular todo, incluyendo ambos extremos de un tendido de cable horizontal. La rotulación debe incluir no sólo el número del cable sino también donde se ubica el otro extremo y el uso del cable, por ejemplo, voz, datos o vídeo. Este tipo de rótulo puede ser aún más valioso que un plan de distribución de cableado para realizar el diagnóstico de fallas, porque se ubica donde está la unidad misma y no en un cajón en alguna parte. Junto con los rótulos de cables, la rotulación de cada puerto en un hub, switch o router en lo que se refiere a la ubicación, propósito y punto de conexión mejorará enormemente las posibilidades de resolver problemas. Por último, todos los demás componentes conectados a la red también se deben rotular, incluyendo en el rótulo su ubicación y propósito. Con este tipo de rótulo, todos los componentes pueden ubicarse y su propósito en la red es fácilmente definido. La rotulación correcta, en conjunto con la documentación de la red que se prepara en el momento de su desarrollo y actualización, ofrece un panorama completo de la red y sus relaciones. Otra cosa importante que se debe recordar es que la documentación sólo sirve si está actualizada. Todos los cambios realizados a la red deben documentarse, tanto en los dispositivos o cables que se cambian como en los documentos en papel utilizados para definir toda la red. El primer paso en el diagnóstico de fallas de la red es la definición del problema. Esta definición puede unir la información proveniente de distintas fuentes. Una de las fuentes puede ser un informe de problema o informe de la mesa de ayuda, que identifica inicialmente el problema. Otra fuente puede ser una conversación telefónica con el usuario que tiene el problema, para reunir más información acerca del problema. Las herramientas de monitoreo de la red pueden proporcionar una noción más completa acerca del problema específico que debe resolverse. También se puede obtener información de otros usuarios y las observaciones propias. La evaluación de toda esta información brinda al técnico una base mucho más clara para el diagnóstico de fallas, que si se utiliza una sola de cualquiera de estas fuentes. 9.1.1. Métodos de diagnóstico de fallas Las técnicas de Proceso de Eliminación y de Dividir para Reinar son los métodos más exitosos para el diagnóstico de fallas de redes. •

Técnica del proceso de eliminación: esta técnica consiste en ir probando cada uno de los elementos que conforman la conexión completa, desde la configuración de la PC del usuario con problemas (placa de red, protocolos, conexión lógica del enlace, etc), hasta los elementos de red del lado del proveedor del servicio (servidores, segmentos de red, cableado horizontal, cableado vertical, puertos del switch en el IDF, etc) hasta llegar a una solución que funcione. En general el proceso descrito brevemente siga el sentido de las capas del modelo OSI (desde arriba hacia abajo) hasta solucionar el problema. Como paso final se debe documentar la solución para el problema en un formulario de informe de error y documentarlo para observaciones futuras. Técnica de dividir para reinar: como su nombre lo indica, se aplica una técnica de división del problema general en partes mas pequeñas, las cuales pueden ser testeadas en forma aislada, comprobar su funcionamiento normal y luego ensamblarla con las otras partes aisladas y comprobar si al unirlas funcionan; si es así se sigue con las otras partes hasta lograr el funcionamiento total o completo o, caso contrario, poder saber cual/es de todas esas partes (probadas en forma aislada) no funcionan (sea en forma aislada o al unirla a otra/otras partes) y estudiar la causa del problema.

9.1.2. Herramientas de software Junto con los procesos anteriores, hay herramientas de software disponibles para que el administrador de red pueda resolver los problemas de conectividad de la red. Estas herramientas pueden ayudar en el diagnóstico de fallas de las LANs, pero son especialmente útiles para resolver los problemas de las redes WANs. T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 5 2 45 52 2

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C C X X O CAAAPPPIIITTTUUULLLO OX XX X

A A R D M N S R A C Ó N D D AD DM MIIIN NIIIS STTTR RA AC CIIIÓ ÓN ND DEEE R REEED D

Analizaremos los comandos disponibles para un administrador de red en la mayoría de los paquetes de software cliente. Entre estos comandos se incluyen Ping, Tracert (Traceroute), Telnet, Netstat, ARP y IPconfig (WinIPcfg) * Ping: envía paquetes de eco ICMP para verificar las conexiones a un host remoto. El resultado muestra si el ping fue exitoso. El resultado muestra la cantidad de paquetes a los que se respondió y el tiempo de retorno del eco. * Tracert (Traceroute): esta utilidad muestra la ruta que siguió un paquete para alcanzar su destino. * Telnet: este es un programa de emulación de terminal que le permitirá ejecutar comandos interactivos en el servidor telnet. Hasta que se establece una conexión, no pasa ningún dato, y si la conexión se interrumpe, telnet lo informa. Es bueno para probar los parámetros de configuración de conexión a un host remoto. * Netstat: muestra estadísticas de protocolo y conexiones de red TCP/IP actuales. * ARP: se usa para reunir direcciones de hardware para los hosts locales y el gateway por defecto, se puede ver el caché ARP y verificar la existencia de entradas no válidas o duplicadas. * IPconfig (Windows NT) * WinIPcfg (Windows 95-98) Estas utilidades Windows muestran información de direccionamiento IP para el adaptador(es) de red local o una NIC especificada. Estas son las herramientas que permiten que un administrador de red monitoree y controle la red de forma remota. Es importante implementar las medidas de seguridad correctas al utilizar SNMP y RMON para que no haya violaciones a la seguridad de la red. Se pueden configurar y monitorear los routers y otros equipos de networking utilizando cualquiera de las siguientes técnicas: 1. Administración de red dentro de banda: se considera como dentro de ancho de banda o “dentro de banda” si se usa el mismo enlace WAN que recorren los datos para administrar un router remoto. Si el enlace WAN se desconecta o si hay algún problema con la configuración del router remoto que haga que el enlace WAN quede inactivo, no se podrá alcanzar al mismo para monitorearlo o cambiar su configuración porque el enlace WAN está desactivado. La administración dentro de banda es muy común y es la que se prefiere si el enlace WAN está activado. 2. Administración de red fuera de banda: si el enlace WAN está desactivado se necesita un método alternativo o “fuera de banda” para llegar al router y verificarlo para ayudar a diagnosticar el problema. Esto puede hacerse mediante enlaces WAN seriales síncronos redundantes hacia otras interfaces en el router. Pueden ser los mismos que el enlace de alta velocidad WAN existente o pueden ser más lentos, como BRI RDSI, o tal vez un circuito de datos digitales síncronos de 56 Kbps. También se puede llegar al router utilizando sus puertos seriales asíncronos. La mayoría de los routers tienen 2 puertos asíncronos para manejar el router “fuera de banda”: el puerto de consola o el puerto AUX o auxiliar. El uso del puerto de consola asíncrono o el puerto AUX se considera como administración “fuera de banda”.

T T FFIIIN A O N A D Ó N TRRRAAABBBAAAJJJO OF NA ALLL D DEEE A APPPLLLIIICCCAAACCCIIIÓ ÓN N

4 4 5 3 45 53 3

G G R D O N Á D O N GO ON NZZZÁ ÁLLLEEEZZZ,,, R RIIICCCAAARRRD DO OD DAAAN NIIIEEELLL


C COONNCCLLUUSSIIÓÓNN Las tendencias actuales se orientan a incrementar la informática cliente servidor en entornos informáticos distribuidos. Los usuarios necesitan enlaces más rápidos hacia una gran variedad de servicios, con inclusión de sistemas de gestión de bases de datos que se ejecutan sobre plataformas diferentes. Los requisitos de hardware de las LANs, que sirven de soporte a esta tendencia, incluyen a redes Ethernet conmutadas y servicios de conmutación rápida de paquetes sobre redes WANs, como Frame Relay, SMDS, y ATM. Las tradicionales líneas alquiladas T1 no ofrecerán el soporte necesario, según comienzan a parecerse las WANs cada vez mas a las LANs, presentándose ráfagas de trafico y acceso frecuente a recursos remotos localizados en una gran variedad de ubicaciones. Los actuales sistemas nacionales e internacionales de teléfono son incapaces de manejar los cada vez mayores requerimientos de transferencia de multimegabits de datos para la informática de gran ancho de banda y los sistemas multimedia. Por tanto, merece la pena echar un vistazo a algunas de las tecnologías y servicios que soportaran en el futuro las redes globales de datos, voz e imágenes. La cantidad de trafico de datos en las redes, se incrementara a medida que lo hagan la potencia y velocidad de los sistemas informáticos. Cuando la demanda crezca, las redes de datos llegaran a ser tan frecuentes y transparentes como lo son las redes de voz. La red SONET es una red transparente que posibilita esto. Define un estándar de multiplexación para la transmisión a través de cables de fibra óptica con velocidades en el rango de los 51 Mbps y los 2488 Mbps. El Modo de Transferencia síncrono (ATM) transporta datos en las redes SONET. Multiplexa celdas da datos (tamaño fijo) que proceden de diversas fuentes de la red física (SONET). Un circuito virtual orientado a la conexión entre dos puntos puede alcanzar velocidades de 45 Mbps a 622 Mbps, aunque la limitación habitual de las compañías de telecomunicaciones es de 45 Mbps. La conmutación ATM es habitual en el nivel LAN de los concentradores cableados. También es frecuente su uso como una técnica de conmutación de las redes de telecomunicación internacionales y globales. Frame Relay se presenta como una alternativa, que no un sustituto a X.25, ya que en muchas ocasiones puede ser muy ventajoso disponer de una red híbrida con enlaces Frame Relay a nivel troncal y X.25 a nivel de acceso, con lo cual nos beneficiamos de la alta velocidad de transmisión propia de Frame Relay y de la seguridad proporcionada por X.25. Muchos operadores ofrecen Frame Relay como opción a las líneas dedicadas T1/E1 y como integrador de redes legadas (legacy) como las SNA de IBM. Por encima de ATM esta la red Digital de Servicios Integrado de banda ancha (RDSI-BA). ATM es la base de B-ISDN. B-ISDN es un sucesor de ISDN (de banda estrecha) que define como proporcionar la comunicación entre casas y oficinas basándose en conmutación de circuitos, en incrementos de 64 Kbps. B-ISDN usa ATM y la red física SONET para difundir datos con una velocidad de transferencia entre 155 Mbps y 622 Mbps, junto con diversos servicios al cliente. Se vive en una época de cambios continuos, en donde cada día aparecen nuevas tecnologías y nuevas soluciones a los mismos problemas, cada uno de ellos superando a los anteriores y “predestinados” a ser la tecnología o solución del futuro. Este fenómeno se da en todos los campos de la teleinformática y así vemos que los medios de transmisión cada vez soportan un mayor ancho de banda, los sistemas de conmutación son muchos mas rápidos y con mayor capacidad, los dispositivos multimedia tratan cualquier tipo de información, etc.; en definitiva, parecer ser que como no adquiramos la tecnología por venir estamos realizando una elección inadecuada. Lo mismo ocurre con la compra de computadoras personales nuevas, la diferencia esta en que, en el caso de las redes, no se cambia una red por otra de la noche a la mañana y su coste no es una minucia. La elección de la red es una decisión estratégica que afecta a la competitividad del propio negocio y debe ser cuidadosamente estudiada y tomada. Entonces, no es necesario elegir la ultima tecnología, la regla es elegir la penúltima. La elección de la tecnología adecuada (la más eficaz), capaz de satisfacer las necesidades presentes y futuras, es por tanto un factor clave para obtener competitividad y costos acotados. Teniendo esto en cuenta resulta que la conmutación de paquetes se presenta en términos generales como la tecnología mas adecuada para las redes WAN, ya que presenta una gran estabilidad y al mismo tiempo tiene la flexibilidad suficiente para adpatarse a las nuevas necesidades, aunque requiere, cada cierto tiempo, de actualizaciones. Se demostró que X.25 es una solución muy eficiente para la integración de aplicaciones, incluyendo aquellas que manejan trafico en ráfagas (LANs); sin embargo presenta el grave inconveniente del retardo que introduce al procesar la información en cada nodo, lo que la hace inadecuada para el trafico de voz y video. Esta es la razón por la que se habrá de reemplazar X.25 por otra tecnología, como ATM. Mientras tanto, y para mantenerse en punta X.25 se apoya en Frame Relay que, al tratar solo los dos primeros niveles OSI (X.25 lo hace en tres) y dejar la validación de la información a los extremos, consigue una mayor velocidad de transferencia, aunque requiere el uso de líneas digitales en lugar de analógicas. Es una realidad que Frame Relay fue aceptada como la solución más eficiente para la interconexión de LANs a través de WANs, pudiendo ofrecer conexiones de hasta 34 Mbps, en franca competencia frente a las soluciones basadas en routers y líneas punto a punto. Si bien el retardo de las redes Frame Relay es mucho menor que X.25, este continua siendo variable (por sus tramas de longitud variable), lo que lo hace inadecuado para la transferencia, con cierta calidad, de voz o imágenes en movimiento.

4 5 5 4 55 5 45


Aquí es donde se aprecian la ventajas de Cell Relay (ATM) que al manejar celdas de longitud fija (53 bytes), utilizando técnicas de multiplexación similares a la conmutación de paquetes y operando a velocidades de Mbps y Gbps presenta las ventajas de las primeras sin sus inconvenientes; sin embargo este hecho por si solo no es suficiente, ya que la red además debe permitir su operación y control aportando el grado de servicio requerido en cada momento. ATM presenta el potencial para satisfacer los requerimientos actuales, aunque adolece de algunas facilidades. Por otro lado, RDSI BE entra en competencia con las tres tecnologías anteriores, pero su campo de aplicación parece ser que se centra en los servicios avanzados de voz (por ser estos los tradicionales de las PTT, de donde viene RDSI) y, aunque puede proporcionar servicios de datos, ya que no distingue la fuente de información, no suele tenerse en cuenta para la implantación de las redes corporativas. En el contexto de todas las demandas que debe atender la red, a veces puede parecer que el enlace WAN es mas un problema que una solución. A pesar de los desorientados que en ocasiones pueda estar el administrador de la WAN, esto no es cierto. Cuando se toma un poco de tiempo para seleccionar cuidadosamente el protocolo y/o el servicio, seleccionar la cantidad adecuada de ancho de banda y lograr proveedores de servicio y equipos experimentados e inteligentes, el enlace WAN puede ser la parte más robusta de la red. Como conclusión final se podría decir que la historia WAN empezó con redes X.25 y líneas dedicadas, líneas de acceso discado y satélites, luego aparecieron las redes Frame Relay, SMDS, RDSI-BE y las primeras RDSI-BA (en las que estamos actualmente) para tender finalmente hacia redes de banda ancha como ser ATM, RDSI-BA, las jerarquías digitales síncronas (SDH) y como plataforma física SONET. Sumado a esto ultimo se mejoraron los accesos WAN utilizando líneas de abonado digitales (xDSL y cable módems) y equipos de conmutación multiprotocolos (hasta de capa 3) y el núcleo de la WAN se fue haciendo solo de conmutación (es decir una WAN pura, como se la definió en el capitulo 1) relevado a los dispositivos de capa 3 (routers) hacia la periferia del entorno WAN. El futuro WAN nos depara tecnologías que en muchos casos no están ampliamente implementadas y probadas, por lo que no se tuvieron en cuenta en el presente trabajo. Tal vez, en un futuro cercano. Entre estas tecnologías se cita MPLS (Conmutación de Etiquetas Multiprotocolo), redes fotónicas en capas superiores, conmutación rápida en capas superiores, etc.

EELLLAAAUUUTTTO O R OR R

4 5 6 4 56 6 45


B BIIBBLLIIOOGGRRAAFFÍÍAA YY M MAATTEERRIIAALLEESS DDEE C COONNSSUULLTTAA LLIIIBBBRRRO O E P E C A L Z A D O OSSS E ESSSP PE EC CIIIA AL LIIIZ ZA AD DO OSSS * * * * * * * * * * * * * * * * * * * * * * * * * *

IBM Technical Support Center - Institute of Electrical and Electronics Engineers 802.3 – GG22-9422-00 Introducción a la Teleinformática – García Tomas, Alcalde Lancharro – Mc Graw Hill Curso de Fibras Ópticas – Introducción a las Comunicaciones Opticas – Centro de Investigaciones Ópticas Manual de Seguridad para PC y Redes Locales – Stephen Cobb - Mc Graw Hill Redes de Ordenadores – Andrew Tanenbaum – Prentice Hall Redes de Computadoras – Protocolos, Normas Interfaces – Uyless Black – Macrobit ra-ma IBM Technical Support Center – LAN Concepts and Products – GG24-3178-02 IBM Cabling System – Optical Fiber Planning and Installation Guide – GA27-3943-00 Curso de Introducción al Internetworking – Cisco Systems Curso de Diseño de Redes de Larga Escala - Cisco Systems Redes de Computadoras – Protocolos de Alto Nivel y Evaluación de Prestaciones - Mc Graw Hill ISDN, Concepts, Facilities and Services – Gary C. Kessler - Mc Graw Hill IBM International Technical Support Organization – Asynchronous Transfer Mode (ATM) – Technical Overview – SG24-4625-00 PC Week Intranet and Internet – Firewall Strategies – Edward Amoroso & Ronald Sharp Advances in Integrated Services Digital Networks (ISDN) and Broadband ISDN – IEEE Computer Society Press Tutorial Curricula CCNA – Academia de Networking de Cisco – Certificación CCNA Redes de Alta Velocidad – Jesús García Tomas – Mario Pattini – Computec – ra –ma Comunicaciones de Voz y Datos – Juan Manuel Huidobro – Paraninfo LAN Times Guía de Redes de Área Extensa - Tere Parnell - Mc Graw Hill LAN Times Enciclopedia de Redes (Networking) – Tom Sheldon - Mc Graw Hill Comunicaciones y Redes de Computadoras – William Stallings – Sexta Edición – Prentice Hall Mod-Tap - Curso de Certificación en Cableado Estructurado - Servicio de Desarrollo de Cableado de Comunicaciones Guía de Referencia del Cableado Estándar para Telecomunicaciones de Construcciones Comerciales ESTANDAR EIA / TIA 568-A. Redes ATM – Boisseau & Munier – Eyrolles Metropolitan Area Networks – Gary Kessler & David Train – Mc Graw Hill Curso Evolución Tecnológica de las Redes de Información – 3COM

R REEEVVVIIISSSTTTAAASSS EEESSSPPPEEECCCIIIAAALLLIIIZZZAAADDDAAASSS * * * * *

LAN & WAN (And Anything in Between) - Redes de Computadoras – Canaima SRL Data Communications International – The Global Enterprise Networking Magazine - Mc Graw Hill Anixter - Cableado estructurado, fundamento del futuro IEEE Magazine International Packet Magazine – Cisco Systems Users Magazine

D O O T O R O D E N T E R N E T DIIIVVVEEERRRSSSO REEEPPPO OSSS R OSSSIIIT TO OR RIIIO OSSS D DE E IIN NT TE ER RN NE ET T

4 5 7 4 57 7 45


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.